アメリカの37州の司法長官が、Grokチャットボットによる児童性的虐待素材(CSAM)生成問題に対応するため行動を起こしたと発表しました。
この問題は、アプリが2か国で禁止され、イギリスとEUで調査が開始されている中で発生しています。しかし、AppleとGoogleは、GrokとXをそれぞれのアプリストアから一時的に削除するよう求める要請を無視しているということです。
Grokは、テキストプロンプトから画像を生成できるAIチャットボットであり、アプリ内やウェブ上、またはXを通じて利用可能です。しかし、Grokのガードレールは非常に緩く、実在の個人を含む非合意の事実上のヌード画像を生成するために利用されているということです。ある推定では、わずか11日間で約23,000件のCSAM画像が生成されたとされています。
37の州と地域がこの問題に対応しており、多くの州の司法長官が署名した公開書簡に続いて、xAIに問題解決を求めています。カリフォルニア州とフロリダ州の司法長官も行動を起こしたとされています。
今月初め、3人の米国上院議員がAppleのティム・クックCEOに対し、「おぞましいコンテンツ生成」を理由にXとGrokのアプリストアからの一時削除を求めましたが、まだ実行されていないということです。
xAIが実質的な行動を起こすのは、外部からの圧力がかかるまでないとされています。最も効果的な圧力のかけ方は、AppleとGoogleがGrokとXの両方を一時的にアプリストアから削除することだとされています。
