欧州連合(EU)は、MetaとTikTokが子ども保護に関する不備があるとし、両社に対し最大で年間売上の6%の罰金を科す可能性があると発表しました。これは、両社がデジタルサービス法(DSA)の規定を遵守していないとするEUの予備的な調査結果に基づくものです。
具体的には、両社が違法または有害なコンテンツに子どもがさらされているかどうかを調査する研究者に対して、データへのアクセスを不当に制限しているとされています。特に、研究者が公開データにアクセスするための手続きが煩雑で、信頼性のあるデータを得ることが困難であるということです。
さらに、Metaは違法コンテンツの報告をユーザーが行う際に、複雑で混乱を招く仕組みを採用しているとされています。特に、FacebookとInstagramは、児童性的虐待資料(CSAM)やテロリストコンテンツを報告するための「通知と行動」メカニズムがユーザーフレンドリーでないと指摘されています。
この報告に対して、MetaとTikTokには報告書を精査し、回答を提出する機会が与えられています。回答が受け入れられない場合、両社は年間売上の最大6%の罰金を科される可能性があります。
また、Metaは2021年に、Instagramがティーンエイジャーにとって有害であるという内部調査を隠蔽していたと非難されています。複数の米国の州が、同社がアプリを中毒性のあるものにしようとしたと訴訟を起こしています。これに対し、Metaは弁護士とのやり取りが弁護士依頼者特権に該当すると主張しましたが、裁判所はこの主張を却下しました。裁判所は、Metaが潜在的な責任を隠すために法律の助言を求めたと認定しました。
この訴訟の最初の審理は来年に予定されています。
