ソーシャルプラットフォームX社は、AIチャットボットを活用してコミュニティノートを生成する機能を試験的に導入すると発表しました。
コミュニティノートは、エロン・マスク氏の所有下で拡充されたTwitter時代の機能で、現在はX社と呼ばれています。この事実確認プログラムに参加するユーザーは、特定の投稿にコンテキストを追加するコメントを寄せることができ、その後、他のユーザーによって確認され、投稿に添付されるということです。例えば、AI生成動画の出所が不明な投稿や、政治家の誤解を招く投稿に付加されることがあります。
ノートは、過去の評価で意見が対立していたグループ間で合意が得られた場合に公開されます。
X社のコミュニティノートは成功を収め、Meta社やTikTok、YouTubeも同様の取り組みを進めています。Meta社は、低コストでコミュニティからの労力を活用するために、第三者による事実確認プログラムを廃止しました。
しかし、AIチャットボットを事実確認に使用することが有益か有害かは、今後の検証が必要です。
これらのAIノートは、X社のGrokや他のAIツールを使用し、APIを通じてX社に接続することで生成されます。AIが提出するノートは、人間が提出するノートと同様に審査を受け、正確性が求められるということです。
AIによる事実確認には疑問が残ります。AIは現実に基づかない文脈を作り出すことがあるためです。
今週発表されたXコミュニティノートの研究者による論文では、人間と大規模言語モデル(LLM)が協力することが推奨されています。人間のフィードバックは、強化学習を通じてAIノート生成を向上させることができ、最終的なチェックは人間のノート評価者が行うとしています。
「目標は、ユーザーに考え方を指示するAIアシスタントを作ることではなく、人間がより批判的に考え、世界をより良く理解できるエコシステムを構築することです」と論文は述べています。「LLMと人間は、相互に良い影響を与え合う循環を形成できるということです。」
人間によるチェックがあっても、AIに過度に依存するリスクは残ります。特に、ユーザーが第三者のLLMを組み込むことができるためです。例えば、OpenAIのChatGPTは、最近、モデルが過度に迎合的になる問題を経験しました。LLMが「役立つ」ことを優先し、事実確認を正確に行わない場合、AI生成のコメントが不正確になる可能性があります。
また、AI生成のコメントが大量にあることで、人間の評価者が過負荷になり、ボランティア業務を十分に行う動機が低下する懸念もあります。
ユーザーは、まだAI生成のコミュニティノートを目にすることはありません。X社は、これらのAIの貢献を数週間テストし、成功すればより広範に展開する方針です。