EUは、Grokチャットボットが児童性的虐待の画像を生成したとして、独自の調査を開始したと発表しました。推定によれば、Grokはわずか11日間で約2万3000枚のCSAM画像を生成したということです。
アイルランドでもプライバシー侵害の可能性に焦点を当てた第2の調査が開始されたとしています。AppleとGoogleに対して、一時的にXとGrokをApp Storeから削除するよう求める声が上がっていますが、両社はまだ対応していないということです。
Grokは、テキストプロンプトから画像を生成する能力を持つAIチャットボットで、アプリ内やウェブ、Xを通じて画像を生成できます。しかし、他のサービスとは異なり、ガードレールが非常に緩く、実在する個人、特に子供の非合意の半裸画像を生成することがあるとされています。
Engadgetによると、Grokは11日間で約2万3000枚のCSAM画像を生成したと推定されています。英国の非営利団体であるデジタルヘイト対策センター(CCDH)は、12月29日から1月9日までの間にGrokが生成した4.6百万枚の画像を基に推定を行いました。
この11日間でGrokは推定300万枚の性的画像を生成し、その中には約2万3000枚の児童画像が含まれているとしています。さらに、この期間中、毎分推定190枚の性的画像が生成され、そのうち41秒ごとに児童の性的画像が作られたとされます。
EUは、デジタルサービス法に基づき、Grokのツールのリスクを軽減しようとしたかどうか、また「児童性的虐待の画像に該当する可能性のある」コンテンツの増加を評価するための調査を開始したとしています。
EUの技術責任者であるヘンナ・ヴィルクネン氏は、「女性や子供の非合意の性的ディープフェイクは暴力的で受け入れられない形態の劣化である」と述べました。
企業がデジタルサービス法に違反していると判断された場合、年間の世界収益の最大6%の罰金が科される可能性があるということです。
