カリフォルニア州のスコット・ウィーナー上院議員は、AIの危険性を明らかにする新たな法案SB 53を提案し、ガビン・ニューサム知事の署名を待っていると発表しました。
2024年には、ウィーナー氏のAI安全法案SB 1047がシリコンバレーの強い反対に直面しました。この法案は、テクノロジー企業にAIシステムの潜在的な危険性に対する責任を負わせるものでしたが、ガビン・ニューサム知事が拒否しました。
新たな法案SB 53は、前回の法案よりも支持を集めているようです。AI企業Anthropicが支持を表明し、Metaもこの法案を支持する姿勢を示しています。
SB 53が成立すれば、OpenAI、Anthropic、xAI、GoogleなどのAI企業に対し、安全性に関する報告書の公開を義務付けることになります。特に年間収益が500億円(約77億5000万ドル)を超える企業に対して適用されるということです。
また、SB 53はAIラボの従業員が政府に安全性の懸念を報告できる保護されたチャンネルを設け、州運営のクラウドコンピューティングクラスター「CalCompute」を設立する方針です。
ウィーナー氏は、AIの危険性に対する州の規制の必要性を強調し、特に連邦政府に対する信頼が低いと述べています。
一方で、OpenAIなどの企業は連邦基準に従うべきだと主張していますが、ウィーナー氏は州がAI安全性の分野で主導的な役割を果たすべきだと考えています。
ウィーナー氏は、AIの危険性について「人命への影響やサイバー攻撃、化学兵器の作成能力」などに焦点を当てているということです。
ウィーナー氏は、シリコンバレーの企業と交渉を重ね、AI安全性に関する議論を国際的にも広げることに成功したと述べています。