アマゾンウェブサービス(AWS)は、長年にわたり自社製のAIトレーニングチップを開発してきましたが、このたび新バージョン「Trainium3」を発表しました。AWSは11月の年次技術会議「AWS re:Invent 2025」でこの発表を行い、次世代製品「Trainium4」がNvidiaのチップと互換性を持つことを示唆しました。
AWSは、最先端の3ナノメートルTrainium3チップと自社開発のネットワーク技術を搭載した「Trainium3 UltraServer」を正式に発表しました。AWSによれば、この第3世代のチップとシステムは、AIトレーニングと推論において第2世代チップに比べて大幅な性能向上を実現しているということです。
このシステムは、トレーニングだけでなくAIアプリケーションのピーク需要時においても4倍の速度と4倍のメモリを提供できるとしています。また、数千台のUltraServerを連結することで、最大100万個のTrainium3チップをアプリケーションに提供でき、前世代の10倍の規模を実現する方針です。各UltraServerには144個のチップが搭載可能です。
さらに重要な点として、AWSはこのチップとシステムが前世代に比べて40%のエネルギー効率を実現しているとしています。データセンターが膨大な電力を消費する中、AWSは消費電力を抑えるシステムの開発を進めています。
AWSの顧客であるAnthropicや日本のLLM Karakuri、SplashMusic、Decartなどはすでに第3世代チップとシステムを使用しており、推論コストを大幅に削減しているとアマゾンは発表しました。
また、次世代チップ「Trainium4」の開発も進行中で、NvidiaのNVLink Fusion高速チップインターコネクト技術をサポートする予定です。これにより、AWSのTrainium4搭載システムはNvidiaのGPUと連携し、性能を拡張しつつ、アマゾンのコストを抑えたサーバーラック技術を利用できるようになるということです。
NvidiaのCUDA(Compute Unified Device Architecture)は主要なAIアプリケーションが対応する標準技術となっており、Trainium4搭載システムはNvidia GPUを利用した大規模AIアプリをアマゾンのクラウドに誘致しやすくなる可能性があります。
アマゾンはTrainium4の具体的な発表時期を明らかにしていませんが、これまでの展開スケジュールに従えば、来年の会議で詳細が発表される可能性があります。
