メタは、インスタグラムで大人が運営する子どもを主に扱うアカウントに対し、新たな安全対策を導入すると発表しました。これらのアカウントは、自動的にアプリの最も厳しいメッセージ設定に置かれ、望まないメッセージを防ぐとしています。また、プラットフォームの「隠し言葉」機能が有効になり、不適切なコメントがフィルタリングされるということです。
新しい厳格なメッセージ設定に置かれるアカウントには、子どもの写真や動画を定期的に共有する大人や、子どもを代表する親やタレントマネージャーが運営するアカウントが含まれます。
「これらのアカウントは大部分が無害に使用されていますが、残念ながら、性的なコメントを投稿したり、ダイレクトメッセージで性的な画像を要求したりする人々がいることが問題です」と、同社はブログ投稿で述べています。「本日、私たちはこのような悪用を防ぐための対策を発表します。」
メタは、ティーンエイジャーからすでにブロックされている人々のような、潜在的に疑わしい大人が子どもを主に扱うアカウントを見つけることを防ぐ方針です。メタは、これらのアカウントに疑わしい大人を推薦しないようにし、インスタグラム検索でお互いを見つけにくくするということです。
今回の発表は、メタとインスタグラムが過去1年間でソーシャルメディアに関連するメンタルヘルスの懸念に対処するための措置を講じてきた中で行われました。この懸念は、アメリカの医務総監やさまざまな州によって提起されており、一部の州ではソーシャルメディアへのアクセスに親の同意を求めることさえあります。
この変更は、家族のビデオブロガーや「キッドフルエンサー」のアカウントを運営する親に大きな影響を与える見込みです。これらは、子どもの生活をソーシャルメディアで共有することに伴うリスクで批判を受けています。昨年発表されたニューヨーク・タイムズの調査では、親が子どもの搾取を認識しているか、あるいはそれに参加していることが示されました。調査では、5,000の親が運営するアカウントで3,200万の男性フォロワーとのつながりが見つかりました。
メタは、これらの厳格な設定に置かれたアカウントには、インスタグラムのフィードの上部に通知を表示し、ソーシャルネットワークが安全設定を更新したことを知らせるとしています。この通知は、アカウントのプライバシー設定を確認するよう促すということです。
メタは、子どもを主に扱うアカウントを性的に扱っていた約13万5,000のインスタグラムアカウントと、削除した元のアカウントに関連する50万のインスタグラムおよびフェイスブックアカウントを削除したとしています。
今回の発表に加えて、メタはティーンエイジャーのアカウントに新たな安全機能を導入します。ティーンエイジャーは、安全性のヒントを表示する新しいオプションを確認し、プロフィールを注意深く確認し、共有内容に注意するよう促されます。また、新しいチャットの上部には、アカウントがインスタグラムに登録された月と年が表示されます。さらに、インスタグラムは、ユーザーがブロックと報告を同時に行える新しいオプションを追加しました。
これらの新機能は、ティーンエイジャーがメッセージを送るアカウントについての文脈をより多く提供し、潜在的な詐欺師を見分けるのに役立つとしています。
「これらの新機能は、プライベートメッセージで注意を促す安全通知を補完するものであり、ティーンエイジャーがそれに反応していることを確認できて嬉しく思います」とメタはブログ投稿で述べています。「6月だけで、彼らは100万回アカウントをブロックし、安全通知を見た後にさらに100万回報告しました。」
メタはまた、そのヌード保護フィルターについての更新を提供し、ティーンエイジャーを含む99%の人々がそれをオンにし続けているとしています。先月、ダイレクトメッセージで受け取ったぼかし画像の40%以上がぼかされたままだったとしています。