DeepLearningによる将棋の学習2~Adamによる学習~

 前回の続き。

 patienceを7にしてAdamでもやってみました。

optimizer = tf.train.AdamOptimizer(learning_rate=0.001)

 結果は次の通りです。

epoch Loss Move Accuracy Value Accuracy
1 4.4521 0.2929 0.6807
2 4.1956 0.3232 0.6873
3 4.1133 0.3335 0.6898
4 4.0703 0.3424 0.6890
5 4.0683 0.3443 0.6880
6 4.1143 0.3480 0.6846
7 4.1600 0.3477 0.6800
8 4.1749 0.3476 0.6822
9 4.2409 0.3456 0.6787
10 4.2836 0.3483 0.6772
11 4.2952 0.3469 0.6761
12 4.3597 0.3464 0.6791

 5epochで損失が下がりきっており、収束は速いのですが、収束した値の性能はあまり良さそうではありません。

 またここから損失が再び下がっていくということはないように思えます。

 今までの結果をグラフ化すると f:id:tokumini:20180417101518p:plain f:id:tokumini:20180417101529p:plain f:id:tokumini:20180417101537p:plain f:id:tokumini:20180417101634p:plain

 となります。patienceが小さすぎるということはないのかなぁと思えるのですが、もっとやったら違うのかもしれません。またそもそも学習データ量が少なすぎる可能性もあり、たとえば2015年の棋譜を使う、あるいはやねさんが公開されている(まだ公開されているのでしょうか?)ものを使うなどのことをしなければならないのかもしれません。