メタは、子どもを性的に扱うとして13万5000件のインスタグラムアカウントを削除し、未成年者向けの新たな保護策を導入したと発表しました。
さらに、これらのアカウントに関連する約50万件のインスタグラムおよびフェイスブックのアカウントも削除されたということです。
CNBCによれば、メタは未成年者の安全性に関する懸念が高まっていることに対応しているとしています。
削除されたアカウントは、子どもを対象とした成人管理のアカウントに対して性的なコメントを残したり、性的な画像を要求したりしていたことが確認されたということです。
この方針は、メタがプラットフォーム上で未成年者を保護するための取り組みの一環であり、若年ユーザーを性的搾取から守ることに失敗していると批判されていることを受けたものです。
メタはまた、未成年者のアカウントおよび未成年者を代表して管理されているアカウントに新しいデフォルトの安全設定を適用しました。これにより、不快なメッセージが自動的にブロックされ、見知らぬ人からのメッセージが制限されるということです。
ソーシャルメディアプラットフォームは、未成年者による使用に関する懸念が高まっており、アプリが意図的に中毒性を持たせている、非現実的な美容基準を促進してメンタルヘルスに悪影響を与えている、サイバーいじめを助長している、性的捕食者によるグルーミングのリスクを高めていると非難されています。
昨年、上院は「子どもオンライン安全法(KOSA)」を可決しました。この法律は、メタのようなソーシャルメディア企業に対し、16歳未満の子どもに対してアルゴリズムフィードや他の「中毒性のある」機能を無効にするコントロールを提供することを求めています。また、親による監視機能を提供し、摂食障害、自傷行為、性的搾取などの有害なコンテンツから未成年者を守ることを義務付けています。しかし、下院では投票に至らず、立法の優先事項ではないとされました。今年初めに再導入され、法制化への期待が高まっています。メタはこれに先んじたい考えのようです。