週記 20230925~20231001

NeRF

 F2-NeRFをだいぶリファクタリングしていた。もう全然原形を留めていない。そろそろリポジトリも移し替える時期になってきていそう。

 外部ライブラリへの依存が減り、使っているのがLibTorch、OpenCV、Eigen、gtsamあたりなので、LibTorch以外はかなり許容できる雰囲気になっている。とはいえそのLibTorchが問題なので、結局プルリクエストを出すところまでいけるかというと怪しい。

 簡単に検証している限りでは、ランダム探索でもPose微分でも、そこそこは動くし特に精度も変わらない。実用性は、どうなんだろう。1つのNeRFモデルで街一つをすべて学習するのは難しそうだし、Block-NeRF的なことをやらないといけないとすると、そこはちょっとモチベーションが上がらない。

 リファクタリング作業に終始していて精度向上自体は一切していないのでそこを考えなくてはいけない。最近のarXivを見ていると、Gaussian Splattingも結構勢いがある。有望なのかもという気になってくる。

TPE

 プルリクエストを出すところまでは行ったが、出来には全然満足できていない。謎の工夫を盛り込み過ぎているし、そのわりに性能も完璧ではない。AHCとか強い人ならこういうのをもっと良いものにできそうには感じる。なにか問題の本質が見えていない感触が強い。

 検証もどこまで突き詰めれば納得できるのか、というところが難しく、現状わりとAWSIMだけの評価になっているのが怖いところではある。

その他

 大規模モデルを学習させるとか、学習済みモデルを使うとか、そういうのが本当に性に合わなくて、結局全然やれていない。ゼロから学習できるNeRF系列触るしかないんだろうなという気分。それでいいのか、よくわからない。