DeepLearningによる将棋の学習4~フィルタサイズの変更2~

 前回はフィルタサイズを5にして実験してみました。その結果性能は下がり、学習時間も多くなるということがわかりました。単純に考えれば増やしてもダメだということになるのですが、念のため今回はさらにフィルタサイズを7にして実験を行いました。結果は以下の通りです。

epoch Loss Move Accuracy Value Accuracy
1 3.5894 0.3014 0.6561
2 3.2799 0.3346 0.6786
3 3.2016 0.3457 0.6791
4 3.2024 0.3553 0.6773
5 3.2453 0.3565 0.6728
6 3.4741 0.3611 0.6501
7 3.3973 0.3579 0.6676
8 3.5083 0.3570 0.6656
9 3.5896 0.3581 0.6662
10 3.6940 0.3570 0.6682

f:id:tokumini:20180419105101p:plain

 今までの結果とまとめると次のようになります。

フィルタサイズ Loss Move Accuracy Value Accuracy 1エポックあたりの学習時間
3 2.9753 0.3879 0.6853 約40分
5 3.1447 0.3643 0.6744 約47分
7 3.2016 0.3457 0.6791 約49分

 やはりフィルタサイズは3が良いようです。