新しいAI研究所「フラッピング・エアプレーンズ」が水曜日に設立され、グーグル・ベンチャーズ、セコイア、インデックスから約280億円(1ドル=155円)に相当する資金を得たと発表しました。創設チームは優れたメンバーで構成されており、特にデータに依存しない大規模モデルの訓練方法を見つけることを目指すということです。
セコイアのパートナーであるデビッド・カーン氏の投稿によれば、「フラッピング・エアプレーンズ」は、これまでの業界を定義してきたデータと計算資源の拡大を超える初の研究所の一つであるとしています。
スケーリングのパラダイムは、社会の資源を大量に投入し、現在の大規模言語モデル(LLM)をスケールアップすることで、汎用人工知能(AGI)に到達することを期待するものです。一方、研究のパラダイムは、AGIに到達するためには2〜3の研究的な突破口が必要であり、特に5〜10年を要する長期的な研究プロジェクトに資源を投入すべきだとしています。
計算資源を最優先とするアプローチは、クラスターの規模を最重要視し、短期的な成果(1〜2年)を優先する傾向がありますが、研究を最優先とするアプローチは時間的に賭けを分散させ、低い絶対確率で成功する可能性があるが、全体として可能性の探索空間を広げる賭けを多く行うべきだとしています。
計算資源を重視するアプローチが正しいかもしれませんが、多くの企業がすでにその方向に向かっている中で、異なる方向に進む姿勢が注目されます。
