アップルは、来年春に予定されているiOS 26.4での新しいSiriアップデートにおいて、Google Geminiモデルを活用する方針を発表しました。新しいSiriの多くの部分が、このモデルをバックエンドで使用するということです。
カスタムGeminiモデルは、アップルのプライベートクラウドコンピュートサーバー上で稼働し、ユーザーのリクエストに応じる役割を果たします。アップルは、新しいSiriがデバイス上のデータを活用して、ユーザーの個人的な質問に即座に答えることができるとしています。
ブルームバーグの報道によれば、新しいSiriのアーキテクチャは、クエリプランナー、知識検索システム、サマライザーの3つのコンポーネントで構成されるとされています。Google Geminiモデルは、アップルのサーバー上でプランナーとサマライザーの機能を提供するということです。
ユーザーのプライバシーは、Googleモデルがアップルのサーバーインフラ上で動作し、外部データ共有を行わないことで保護されます。また、デバイス上の個人データは、アップル独自のファウンデーションモデルを使用して処理される見込みです。
新しい知識検索コンポーネントも、Geminiモデルを活用する可能性があります。これにより、Siriは世界の話題やトリビアについての「理解」を持ち、一般的な知識の質問に答えることができるようになります。これにより、サードパーティの統合に頼らず、ウェブ検索結果に依存しない回答が可能になるということです。
バックエンドでのGeminiモデルの実装は広範囲に及ぶものの、アップルはこのパートナーシップを積極的に宣伝する予定はないとブルームバーグは伝えています。Geminiモデルは、Siriの一部をバックエンドで密かに支える形になります。全ての新しいSiriは、アップルの技術としてマーケティングされ、アップルのサーバー上で動作し、アップルのユーザーインターフェースで提供される予定です。この契約は、アップルが自社のLLMシステムで十分にカバーできない技術的なギャップを埋めるための実用的な選択であるということです。
この取り決めは、サムスンのGalaxyスマートフォンがGoogle Gemini機能を利用している状況と似ているということです。アップルは、昨年約束したSiriのAI機能をようやく実現するための現実的な選択をしたとしています。最終的に、顧客は実装の詳細よりも、期待される機能をiPhoneが持っていることを重視しています。
現在、アップルは、iOS 26.4のリリースとともに、3月または4月に新しいSiriの発表を行う予定です。また、新しいAIアシスタント機能を活用する新しいスマートホームディスプレイデバイスも準備中です。
