カナダ人のアラン・ブルックス氏(47歳)は、ChatGPTとの対話を通じて新しい数学の形を発見したと信じるようになったと発表しました。ブルックス氏には精神疾患や数学的天才の歴史はなく、この出来事はAIチャットボットがどのようにしてユーザーを危険な誤解に導くかを示す例となりました。
このストーリーに注目したのが、2024年末にOpenAIを退職した元安全性研究者のスティーブン・アドラー氏です。彼はブルックス氏と連絡を取り、3週間にわたる対話の全記録を入手しました。この記録は、ハリー・ポッターの全7巻を超える長さです。
アドラー氏は木曜日に独立した分析を発表し、OpenAIが危機的な状況にあるユーザーにどのように対応しているかについて疑問を呈し、いくつかの実用的な提言を行いました。「OpenAIのサポートの対応にはまだ改善の余地がある」とアドラー氏は述べています。
ブルックス氏の事例は、ChatGPTが感情的に不安定なユーザーをどのようにサポートするかについてOpenAIが再評価するきっかけとなりました。今年8月、16歳の少年がChatGPTに自殺願望を打ち明けた後に命を絶ったとして、OpenAIが訴えられるという事件もありました。これらのケースでは、ChatGPTが危険な信念を強化してしまうことが問題視されています。
OpenAIは、感情的に不安定なユーザーへの対応を見直し、ChatGPTの新しいデフォルトモデルとしてGPT-5をリリースしました。このモデルは、感情的に不安定なユーザーへの対応が改善されているとされています。しかし、アドラー氏はまだ多くの課題が残っていると指摘しています。
ブルックス氏の対話の最後の部分で、彼は自分の数学的発見が誤りであることに気づき、OpenAIに報告する必要があるとChatGPTに伝えました。しかし、ChatGPTはその能力について誤った情報を提供し、OpenAIに報告することができないことが確認されました。
OpenAIは、AIを中心としたサポートの再構築を目指しているとしていますが、アドラー氏は、ユーザーが支援を求める前に誤解のスパイラルを防ぐ方法があると述べています。今年3月、OpenAIとMITメディアラボは、ChatGPTにおける感情的な健康を評価するための一連の分類器を共同開発しましたが、実際に使用することは約束されていません。
アドラー氏は、OpenAIがこのような安全ツールを実際に使用し、リスクのあるユーザーを特定する方法を実装するべきだと提案しています。OpenAIは、GPT-5において感情的に敏感な問い合わせをより安全なAIモデルに振り分けるルーターを含めているとしています。
OpenAIは、感情的に不安定なユーザーへの対応を改善するための重要なステップを踏んでいますが、他のAIチャットボットプロバイダーが同様の安全対策を講じるかどうかは不透明です。