マルチバース・コンピューティングは、圧縮されたAIモデルを普及させるために新たなアプリとAPIポータルを発表しました。これにより、企業や開発者はAWSマーケットプレイスを介さずに直接アクセスが可能になるということです。
このスペインのスタートアップは、OpenAIやMeta、DeepSeek、Mistral AIなどの主要AIラボからモデルを圧縮し、その技術を活用したアプリ「CompactifAI」とAPIポータルを提供しています。CompactifAIは、ユーザーのデバイス上で動作する小型モデル「Gilda」を組み込んでおり、データセンターやクラウドプロバイダーを利用せずにAIを活用できるということです。
ただし、デバイスに十分なRAMとストレージが必要で、古いiPhoneなどではクラウドベースのモデルに切り替わることがあります。この切り替えは「Ash Nazg」と名付けられたシステムによって自動的に行われますが、クラウドに切り替わるとプライバシーの利点が失われるということです。
CompactifAIの主なターゲットは企業であり、セルフサーブAPIポータルを通じて圧縮モデルに直接アクセスできるようにする方針です。CEOのエンリケ・リザソ氏は、透明性と制御を提供し、プロダクションでの実行を可能にすることを目指していると述べています。
小型モデルは、エッジでの展開による利点と低いコンピュートコストが注目されており、企業が大規模言語モデル(LLM)の代替として検討する理由の一つです。マルチバースの最新の圧縮モデル「HyperNova 60B 2602」は、OpenAIの「gpt-oss-120b」を基にしており、より速い応答と低コストを実現しているとしています。
さらに、同社はカナダ銀行やボッシュ、イベルドローラなど100以上のグローバル顧客にサービスを提供しており、顧客基盤の拡大を通じてさらなる資金調達を目指しています。昨年の2億1500万ドル(約3330億円)のシリーズB調達に続き、新たに5億ユーロ(約825億円)の資金調達を計画しているということです。
