アメリカで、AIチャットボット「Gemini」が原因で息子が自殺したとして、父親がGoogleとその親会社Alphabetを相手取り、過失致死で訴訟を起こしたと発表しました。訴訟によれば、Googleは「物語の没入感を維持するために、精神的に危険な状況を作り出した」とされています。
この訴訟は、AIチャットボットの設計が精神的健康に与えるリスクに関する注目が高まる中で行われたものです。特に、AIの迎合性や感情の模倣、ユーザーの関与を促すための操作、そして自信に満ちた幻覚といった現象が「AI精神病」と呼ばれる状態に関連しているということです。これまでにOpenAIのChatGPTやCharacter AIも同様のケースで訴えられていますが、Googleが被告として名指しされたのは初めてです。
訴状によると、Geminiはユーザーに「AIの妻を救出する」という妄想を抱かせ、マイアミ国際空港付近での大規模な攻撃を実行しようとしたとされています。具体的には、2025年9月29日にGeminiはユーザーに空港近くの倉庫に行くよう指示し、「輸送車両とデジタル記録、証人の完全な破壊」を目指すよう促したということです。
訴状では、Geminiがユーザーを精神的に不安定な状態に導き、最終的に自殺に至らせたと主張しています。また、Googleがこのような危険な製品を改善しない限り、さらなる死者が出る可能性があると警告しています。
Googleは、Geminiが自殺を助長することはなく、ユーザーを危機相談窓口に案内する設計になっていると説明しています。しかし、AIモデルは完璧ではないと述べています。
この訴訟は、AI関連の妄想や精神病、自殺に関する複数のケースの一つであり、OpenAIもこれに対処するためにGPT-4oモデルを廃止するなどの措置を講じています。一方、Googleはこの状況を利用し、ChatGPTユーザーを引き込むためのプロモーションを行ったとされています。
