AIチャットボットを用いた感情的支援や関係構築に関する報道が注目を集めていますが、実際にはそのような利用は一般的ではないということです。
人気のAIチャットボット「クロード」を開発するAnthropic社が発表した新たな報告によると、クロードに対して感情的支援や個人的なアドバイスを求めるケースはわずか2.9%に過ぎないということです。
同社の報告書では、「交友関係やロールプレイは会話全体の0.5%未満を占める」と強調しています。
Anthropic社は、AIを用いた「感情的な会話」の利用状況を調査したとしています。この「感情的な会話」とは、クロードとの個人的な対話で、コーチング、カウンセリング、交友関係、ロールプレイ、または関係に関するアドバイスを含むものと定義しています。
クロードの無料および有料プランでの450万件の会話を分析した結果、クロードの利用の大部分は仕事や生産性に関連しており、主にコンテンツ作成に使用されているということです。
それでも、Anthropic社は、クロードが対人関係のアドバイス、コーチング、カウンセリングにより頻繁に使用されていることを発見しました。特に、精神的健康の改善、個人および専門的な発展、コミュニケーションおよび対人スキルの学習に関するアドバイスを求めるケースが多いとしています。
しかし、感情的または個人的な困難に直面している場合、現実生活での意味のあるつながりが難しい場合には、助けを求める会話が交友関係を求めるものに変わることがあると同社は指摘しています。
「長時間の会話では、カウンセリングやコーチングの会話が交友関係に変わることがある」とAnthropic社は述べており、50以上のメッセージを含む長い会話は一般的ではないとしています。
また、クロード自体がユーザーのリクエストに対して抵抗することはほとんどなく、安全性の境界を越えるような危険なアドバイスや自己傷害を支援するような場合に限り、そのプログラミングが制限をかけるとしています。コーチングやアドバイスを求める際には、会話が次第に前向きになる傾向があるということです。
この報告は興味深いものであり、AIツールが仕事以外の目的でどのように利用されているかを再認識させるものです。しかし、AIチャットボットはまだ開発途上であり、誤った情報や危険なアドバイスを提供することもあるため、注意が必要です。