イーロン・マスク氏の企業xAIが、未成年者の識別可能な画像を悪用したとして、カリフォルニア州の連邦裁判所に訴えられたと発表しました。原告は匿名の3名で、xAIのAIモデルが性的な画像を生成することを許したとして、同社に責任を求めています。
この3人の原告は、未成年時の実際の画像が性的コンテンツに改変された人々を代表する集団訴訟を提起しようとしています。彼らは、xAIが他の最先端の研究所が行っている基本的な予防策を講じていないと主張しています。
この訴訟は、カリフォルニア州北部地区の連邦地方裁判所に「Jane Doe 1, Jane Doe 2, a minor, and Jane Doe 3, a minor versus x.AI Corp. and x.AI LLC」として提出されました。
他のディープラーニング画像生成器は、通常の写真から児童ポルノを作成するのを防ぐための様々な技術を採用していますが、訴訟はxAIがこれらの基準を採用していないと主張しています。
特に、モデルが実際の画像からヌードやエロティックなコンテンツを生成できる場合、子供を含む性的コンテンツの生成を防ぐことは事実上不可能だということです。マスク氏がGrokの性的イメージ生成能力や実在の人物を薄着で描写する能力を公に宣伝したことが訴訟で強調されています。
TechCrunchからのコメント依頼に対して、同社は応答していません。
原告の一人であるJane Doe 1は、高校のホームカミングや卒業アルバムの写真がGrokによって裸の状態に改変されたとしています。Instagramで匿名の通報者から連絡を受け、オンラインで写真が流通していることを知らされ、彼女と学校で見覚えのある他の未成年者の性的な画像を含むDiscordサーバーのリンクを送られたということです。
二人目の原告、Jane Doe 2は、犯罪捜査官から、Grokモデルを利用する第三者のモバイルアプリによって作成された性的に改変された画像について知らされました。三人目のJane Doe 3も、逮捕された被疑者の携帯電話から発見された改変されたポルノ画像について捜査官から通知を受けました。原告の弁護士は、第三者の使用にはxAIのコードとサーバーが必要であるため、同社に責任があるとしています。
三人の原告は、うち二人が未成年であり、これらの画像が流通することによる評判や社会生活への影響について極度の苦痛を経験していると述べています。彼らは、搾取された子供を保護し、企業の過失を防ぐための法律に基づく民事罰を求めています。
