前回は、価値関数について「前方観測と後方観測は1エピソードでの更新量の和が一致するのではないか」ということを追った。
Sutton, Barto『強化学習(第2版)』の第13章 方策勾配法 p.296では、アクタークリティックに対しても同じように適格度トレースを適用できると記述がある。
これについて考える。
そもそもここでは状態価値関数を用いたベースライン付きREINFORCEアルゴリズムから発展した形でアクタークリティックを考えている。なので、まず前提となる更新式が
となっている。これの を 収益に置き換えるということになるので
を使って
である。
ここで、前回みたように価値関数について更新量が
であったことを考えると、 が に変わっただけなので、この前の議論がそのまま適用できる。なので適格度トレースがほぼ同じ形で適用できるのだろう。
つまり、適格度トレースが適用できるのは 収益を使って、かつ現在の価値関数との差分を考える場合のActor-Criticであるのではないか。一般の方策勾配法でやれるということではないのかもしれない。(もしかすると一般の場合でもなにか上手い変形ができるのかもしれないが)
(やや脇道だがわかっていないこととして、「現在の価値関数との差分を考える場合のActor-Critic」というのは、行動価値関数を「報酬 + 次ステップの状態価値」で代用したAdvantage Actor-Critic、という言い方をして良いのだろうか)
とりあえず 収益を使うAdvantage Actor-Critic形式はかなり良いことが多い気がするので、結構これでいいんじゃね感がある。
価値関数と方策関数について、途中までニューラルネットワークを共有している場合も、単純に適格度トレースベクトルに足すだけで良さそう。共通部分のパラメータが としたら
を使って
とするのではないか。
この共有部分がさらに違う自己教師あり学習などに使われているとすると、その勾配は適格度トレースとは全然関係ない形で勾配を求めてこれらに足すという形になると考える。
PyTorchでの実装を前提として、イメージ以下のような感じでは。実際にやってみたわけではないので想像。
optimizer.zero_grad() loss_p_and_v.backward() # トレースベクトルの更新 with torch.no_grad(): for et, param in zip(eligibility_traces, model.parameters()): et.mul_(lambda_ * gamma).add_(param.grad) # 自己教師あり学習の損失 optimizer.zero_grad() loss_ss.backward() # 適格度トレースの方から損失を足す for param, et in zip(model.parameters(), eligibility_traces): param.grad.add_(learning_rate * delta * et) optimizer.step()
ここでoptimizerとしてAdamみたいなものを使ったときにおかしなことが起こらないのかどうかはよくわからない。