アップルは最新のアップデートで、AI機能を強化したと発表しました。これにより、ユーザーはよりプライベートで効率的なAI機能を利用できるようになるということです。
今回のアップデートで最も注目されるのは、デバイス上で動作するAIモデルを活用できる「ファウンデーションモデルフレームワーク」です。これにより、アプリは外部APIやインターネットに依存せずにAI機能を提供できるようになります。ユーザーにとっては、プロンプトがデバイス外に出ることがないため、よりプライベートなAI体験が可能になります。また、開発者にとっては、デバイス上のAIパワーを活用することで、迅速かつ効率的な開発が可能になるとしています。
ショートカットとオートメーションも今回のアップデートで重要な役割を果たしています。特に、macOS Tahoe 26では、ショートカットにアップルインテリジェンスを組み込むことができるようになりました。これにより、執筆ツールや画像プレイグラウンド、さらにはアップルのモデルやChatGPTをワークフローの一部として利用することが可能です。
ライブ翻訳機能も強化され、AirPodsを使用したライブ翻訳が注目されています。これは、異なる言語を話す人の言葉を自動的に翻訳する機能です。メッセージ、電話、FaceTimeでもライブ翻訳機能が利用可能で、メッセージでは送受信されるテキストメッセージを自動的に翻訳し、FaceTimeでは画面上に翻訳された字幕を表示します。
視覚インテリジェンスでは、カメラ以外にも画面上のコンテンツを認識できるようになりました。スクリーンショットを撮ると、iOSがその内容を認識し、特定の部分をハイライトしたり、類似画像を検索したり、ChatGPTに質問したりすることができます。
ジェンモジと画像プレイグラウンドでは、異なる絵文字を組み合わせて新しいジェンモジを作成できるようになりました。画像プレイグラウンドでは、OpenAIの画像生成機能を利用して、水彩画や油絵などのスタイルを選択したり、テキストプロンプトを送信して画像を生成することが可能です。
アップルはAIに関してまだ課題がありますが、今回のアップデートで追加された機能は、ユーザーが効率よく作業を進める上で有用であるとしています。