マイクロソフトは、AI推論の効率化を目指した新型チップ「Maia 200」を発表しました。このチップは、AIモデルのスケーリングを可能にするシリコンワークホースとして位置づけられています。
「Maia 200」は、2023年に発表された「Maia 100」の後継モデルであり、より強力なAIモデルを高速で効率的に実行するために技術的に強化されています。1000億以上のトランジスタを搭載し、4ビット精度で10ペタフロップス以上、8ビット性能で約5ペタフロップスを提供します。これにより、前モデルに比べて大幅な性能向上が図られています。
推論とは、モデルを実行するための計算プロセスを指し、モデルを訓練するために必要な計算とは異なります。AI企業が成熟するにつれ、推論コストが全体の運用コストの重要な要素となり、プロセスの最適化が求められています。
マイクロソフトは、「Maia 200」がこの最適化の一部となり、AIビジネスの運営をより効率的にし、電力消費を抑えることを期待しています。具体的には、「Maia 200」の1ノードが現在の最大規模のモデルを難なく実行でき、将来的にさらに大きなモデルにも対応可能な余裕を持つとしています。
また、マイクロソフトの新チップは、Nvidiaへの依存を減らすために自社設計のチップを採用する技術大手の増加傾向の一環でもあります。例えば、GoogleはTPU(テンソルプロセッシングユニット)を持ち、クラウドを通じて計算能力を提供しています。AmazonもAIアクセラレーターチップ「Trainium」を開発しており、最新バージョン「Trainium3」を12月に発表しました。これらのTPUは、NvidiaのGPUに割り当てられるはずの計算を一部オフロードすることで、ハードウェアコストを削減することができます。
マイクロソフトは、「Maia」をこれらの代替品と競争できる位置に置いています。月曜日のプレスリリースで、同社は「Maia」が第3世代のAmazon TrainiumチップのFP4性能の3倍を提供し、Googleの第7世代TPUを上回るFP8性能を持つとしています。
さらに、「Maia」はマイクロソフトのAIモデルを支える「Superintelligence」チームの活動を支援しており、チャットボット「Copilot」の運営もサポートしています。月曜日時点で、同社は開発者、学術関係者、最先端AIラボを含む多様な関係者に「Maia 200」のソフトウェア開発キットを利用するよう招待したということです。
