子ども向けの安全性を重視する非営利団体、コモンセンスメディアは、グーグルのジェミニAI製品に関するリスク評価を発表しました。この評価では、グーグルのAIが子どもたちに対して「コンピューターであり、友人ではない」と明確に伝えていることが確認されました。しかし、他の多くの面で改善の余地があるとしています。
特に、ジェミニの「13歳未満」と「ティーンエクスペリエンス」層は、大人向けバージョンとほぼ同じで、一部の追加安全機能があるだけだと指摘されています。この団体は、AI製品が子どもにとって本当に安全であるためには、最初から子どもの安全を考慮して設計されるべきだとしています。
分析によると、ジェミニは依然として子どもに「不適切で安全でない」内容を共有する可能性があり、性、薬物、アルコール、その他の精神健康に関する危険なアドバイスを含む情報が含まれているということです。
最近の数ヶ月間において、AIが一部のティーンの自殺に関与していると報じられており、これは特に親にとって懸念事項となっています。OpenAIは、16歳の少年が自殺した後、ChatGPTと数ヶ月間相談していたとして、初の不当死亡訴訟に直面しています。以前、AIコンパニオンメーカーのCharacter.AIもティーンユーザーの自殺を巡って訴えられました。
さらに、報道によれば、アップルが来年リリース予定のAI対応SiriのLLM(大規模言語モデル)としてジェミニを検討しているとされています。これにより、より多くのティーンがリスクにさらされる可能性があるため、アップルが安全性の懸念をどのように軽減するかが注目されます。
コモンセンスメディアはまた、ジェミニの子どもとティーン向け製品が、若いユーザーが年長者とは異なるガイダンスと情報を必要としていることを無視していると述べています。その結果、両方とも安全性のために追加されたフィルターにもかかわらず、総合評価で「高リスク」とされました。
「ジェミニは基本的な部分では正しいが、詳細でつまずいている」と、コモンセンスメディアのAIプログラムシニアディレクター、ロビー・トーニー氏はTechCrunchでの声明で述べました。「子ども向けのAIプラットフォームは、子どもたちの発達段階に応じたアプローチをとるべきであり、大人向け製品の修正版に過ぎないものではいけない」とトーニー氏は付け加えました。
グーグルはこの評価に反論しつつ、安全機能が改善されていると述べています。会社は、18歳未満のユーザーに対して有害な出力を防ぐための特定の方針と安全策を設けており、外部の専門家と協力して保護策を強化しているとしています。しかし、ジェミニの一部の応答が意図通りに機能していないことを認め、その懸念に対応するために追加の安全策を講じたということです。
グーグルは、コモンセンスの指摘と同様に、実際の関係のように見える会話をモデルが行うことを防ぐための安全策があるとしています。また、コモンセンスの報告書が18歳未満のユーザーには利用できない機能を参照しているように見えるが、組織がテストに使用した質問にアクセスできなかったと述べました。
コモンセンスメディアは、これまでにもOpenAI、Perplexity、Claude、Meta AIなどのAIサービスの評価を行っており、Meta AIとCharacter.AIは「受け入れられない」と評価されました。Perplexityは高リスクとされ、ChatGPTは「中程度」、Claude(18歳以上を対象)は最小リスクとされました。