セキュリティ研究者のグループは、アップルが提供するデバイス上のAI機能「Apple Intelligence」の保護機能を回避し、攻撃者の意図した操作を実行させる手法を明らかにしたと発表しました。この問題は、現在はすでに修正されているということです。
研究者らがサイバーセキュリティ関連のブログで公開した内容によりますと、2つの攻撃手法を組み合わせることで、アップルのデバイス上で動作するAIモデルに対し、不正な命令を実行させることに成功したとしています。アップルはセキュリティ上の理由から、AIモデルの内部構造や入出力フィルターの詳細を公開していませんが、研究者らはその仕組みを推測した上で攻撃を実証しました。
具体的な仕組みとして、ユーザーがAIモデルにリクエストを送信すると、まず入力フィルターが安全性を確認します。安全でないと判断された場合は処理が中断されますが、通過した場合はAIモデルが処理を行い、その結果を再び出力フィルターが確認する仕組みになっているとみられています。
研究者らは、この入出力フィルターをすり抜けるために2つの手法を組み合わせました。1つ目は、有害な文字列を逆順に入力し、文字の表示方向を制御する特殊な文字コード(Unicode)を使用することで、フィルターの検知を逃れつつ、ユーザーの画面上では正常に表示させる手法です。2つ目は「Neural Exec」と呼ばれる手法で、AIモデルの本来の指示を上書きし、攻撃者が意図した新たな命令を実行させるものです。
この2つの手法を組み合わせた結果、100回のテストにおいて76%の確率で攻撃に成功したということです。
研究者らは2025年10月にこの脆弱性をアップルに報告しました。これを受け、アップルは対象となるシステムの保護を強化し、「iOS 26.4」および「macOS 26.4」で対策を適用したとしています。
