2024-01-01から1ヶ月間の記事一覧

読書メモ 西田洋平『人間非機械論』

西田洋平『人間非機械論 サイバネティクスが開く未来』 人間非機械論 サイバネティクスが開く未来 (講談社選書メチエ)作者:西田洋平講談社Amazon 著者多数『未来社会と「意味」の境界: 記号創発システム論/ネオ・サイバネティクス/プラグマティズム』 未来…

Bigger, Better, Faster: Human-level Atari with human-level efficiencyを読んだメモ

実験の結果が Atari 100k ベンチマークで、Human Normalized ScoreのIQM(26ゲーム中の上位25%と下位25%を除いた中間50%ゲームについての平均スコア)が1.045 学習時間は6 hours on single GPU とのことであり、魅力的。 Max Schwarzer氏(Google DeepMind)…

Bigger, Better, Fasterのコードを動かす

コードが公開されているので動かしてみる。 venvで行ったので、おおよその手順は git clone https://github.com/google-research/google-research cd bigger_better_faster python3 -m venv .env source .env/bin/activate pip3 install -r requirements.txt…

Transformer系世界モデル手法IRISとTWMの比較

以下の2つの論文を比較する。 Transformers are Sample-Efficient World Models Transformer-based World Models Are Happy With 100k Interactions 共通点としてどちらも Transformerベースで世界モデルを学習するタイプの強化学習手法である Atari 100kベ…

強化学習における自分の興味範囲

強化学習と一口に言ってもその範囲はとても広いので、自分はどこに興味があるのかを絞って考えたい。その点について改めて整理する。手法や工夫ではなく問題設定の方に着目する。 まず、究極的な目標としては「実世界で動作できる知性を実現したい」となる。…