オーストラリア政府は、AIアプリに対する年齢確認の強化を発表しました。これにより、18歳未満のユーザーがポルノ、過度な暴力、自傷行為、摂食障害に関連するコンテンツにアクセスすることを防ぐ方針です。
昨年、オーストラリアは青少年のメンタルヘルス保護のため、ソーシャルメディアアプリを禁止した初の国となりました。この動きは、ソーシャルメディアが若者に与えるメンタルヘルスへの影響に対する世界的な懸念を受けたものです。
3月9日から、OpenAIなどの企業が提供するAIプラットフォームは、18歳未満のユーザーが不適切なコンテンツにアクセスすることを防ぐための要件を満たす必要があります。
オーストラリアでは、AIチャットボットに関連する暴力や自傷行為の報告はまだありませんが、eSafetyは10歳の子供がAIツールと1日に6時間も会話しているという報告を受けています。eSafetyのスポークスパーソンは、「AI企業が感情操作や擬人化などの高度な技術を利用して、若者を過度にチャットボットに依存させることを懸念している」と述べています。
新しい規則の一環として、アプリストアや検索エンジンが年齢確認を行わないAIサービスへのアクセスをブロックするよう求める可能性があると報じられています。オーストラリアのインターネット規制当局は、来週の期限までに年齢確認の手順を公表していないAIサービスが半数以上あることがロイターの調査で明らかになったとしています。
ロイターがコメントを求めた際、Appleは回答を控えましたが、同社は世界中の年齢制限法に準拠するための年齢関連の安全対策を導入しています。これには、デバイスが自動的に検出するシグナルに依存するシステムが含まれており、最終的な責任は個々の開発者にあるとしています。
オーストラリアの問題に戻ると、ロイターは、最も人気のある50のテキストベースのAIツールの大多数が年齢確認やコンテンツフィルタリングの実施に向けた明確なステップを示していないと報じています。
ロイターの完全な報告を読むには、こちらのリンクをご覧ください。
