NvidiaはCES2026において、新しいオープンソースAIモデル「Alpamayo」を発表しました。これにより、自動運転車が複雑な運転状況を人間のように判断できることを目指しています。Alpamayoは、物理的なAIの進化を象徴するものであり、機械が現実世界で理解し、推論し、行動する時代が到来したとしています。
NvidiaのCEOであるジェンセン・フアン氏は、「Alpamayoは自動運転車に推論をもたらし、稀なシナリオを考慮しながら、安全に複雑な環境で運転し、その運転判断を説明できるようにする」と述べています。
Alpamayoの中心には、10億パラメータの「Alpamayo 1」があり、これは人間のように考えることを可能にするビジョン・ランゲージ・アクション(VLA)モデルです。これにより、交通信号の故障などの複雑な状況においても、経験がなくても解決できるということです。
Nvidiaの自動車部門の副社長であるアリ・カニ氏は、「問題をステップに分解し、あらゆる可能性を推論し、最も安全な経路を選択する」と説明しています。また、フアン氏は「Alpamayoはセンサー入力を受け取り、ステアリング、ブレーキ、加速を制御するだけでなく、取るべき行動を推論し、その理由を説明する」と述べています。
Alpamayo 1の基盤となるコードはHugging Faceで公開されており、開発者はこれを小型化し、より迅速なバージョンに調整することが可能です。また、簡易な運転システムの訓練や、ビデオデータを自動でタグ付けするオートラベリングシステムの構築などに利用できます。
さらに、開発者はCosmosを使用して合成データを生成し、実際のデータセットと組み合わせてAlpamayoベースの自動運転アプリケーションを訓練・テストすることができるということです。Cosmosは物理環境を表現するAIシステムであり、予測と行動を可能にします。
Alpamayoの展開の一環として、Nvidiaは1,700時間以上の運転データを含むオープンデータセットを公開し、稀で複雑な実世界のシナリオをカバーしています。また、オープンソースのシミュレーションフレームワーク「AlpaSim」をGitHubで公開し、実世界の運転条件を再現することで、安全にシステムを大規模にテストできるようにしています。
