カリフォルニア州のスコット・ウィーナー上院議員は、水曜日に最新の法案SB 53の改正案を発表しました。この法案は、世界最大のAI企業に対し、安全性とセキュリティプロトコルを公開し、安全性に関するインシデントが発生した際に報告書を発行することを義務付ける内容です。
この法案が成立すれば、カリフォルニアは主要なAI開発者に対して実質的な透明性の要件を課す初めての州となる見込みです。対象にはOpenAI、Google、Anthropic、xAIが含まれる可能性があります。
ウィーナー議員の以前のAI法案SB 1047には、AIモデル開発者に対して安全性報告を公開する類似の要件が含まれていました。しかし、シリコンバレーからの強い反対を受け、この法案は最終的にギャビン・ニューサム州知事によって拒否されました。その後、カリフォルニア州知事はスタンフォード大学の研究者であり、World Labsの共同創設者であるフェイフェイ・リー氏を含むAIリーダーたちに政策グループを結成し、州のAI安全対策の目標を設定するよう要請しました。
カリフォルニアのAI政策グループは最近、最終的な提言を発表し、「業界に対しシステムに関する情報を公開する要件」が必要であると述べ、「堅牢で透明性のある証拠環境」の確立を目指すとしています。ウィーナー議員の事務所は、SB 53の改正案がこの報告書に大きく影響を受けたとするプレスリリースを発表しました。
「この法案は進行中の作業であり、今後数週間で全ての関係者と協力して、この提案を最も科学的で公正な法律に仕上げることを楽しみにしています」とウィーナー議員は述べています。
SB 53は、ニューサム州知事がSB 1047で達成できなかったと主張したバランスを取ることを目指しています。理想的には、カリフォルニアのAI産業の急速な成長を妨げることなく、主要なAI開発者に対する実質的な透明性の要件を創出することが目的です。
非営利のAI安全団体Encodeの州政府関係副社長であるネイサン・カルビン氏は、TechCrunchのインタビューで「これらの懸念は、私の組織や他の団体がしばらくの間議論してきたものです。企業がこれらのリスクに対処するために講じている措置を公衆や政府に説明することは、最低限の合理的なステップだと感じます」と述べました。
この法案はまた、AIラボの従業員が自社の技術が社会に「重大なリスク」をもたらすと信じる場合の内部告発者保護も創設します。「重大なリスク」とは、100人以上の死傷者を出す、または10億ドル(約1550億円)以上の損害をもたらすことと定義されています。
さらに、この法案は、スタートアップや大規模なAIを開発する研究者を支援するために、公共のクラウドコンピューティングクラスター「CalCompute」を創設することも目指しています。
SB 1047とは異なり、ウィーナー議員の新しい法案は、AIモデル開発者に対してAIモデルの損害に対する責任を負わせるものではありません。SB 53はまた、主要なAI開発者からAIモデルを微調整するスタートアップや研究者、またはオープンソースモデルを使用する者に負担をかけないように設計されています。
新しい改正案により、SB 53は現在、カリフォルニア州議会のプライバシーと消費者保護委員会に提出され、承認を受ける必要があります。そこを通過すれば、法案はさらにいくつかの立法機関を通過した後、ニューサム州知事の机に届くことになります。
アメリカの東側では、ニューヨーク州のキャシー・ホウクル知事が同様のAI安全法案「RAISE法」を検討中です。この法案もまた、大手AI開発者に安全性とセキュリティ報告書の公開を義務付けるものです。
RAISE法やSB 53のような州のAI法の運命は、連邦議会が州のAI規制に対する10年間のモラトリアムを検討したことで一時的に危ぶまれましたが、7月初旬に99対1の投票でその提案は失敗しました。
「AIが安全に開発されることを確保することは、物議を醸すべきではなく、基盤的であるべきです」とY Combinatorの元社長であるジェフ・ラルストン氏はTechCrunchへの声明で述べました。「連邦議会は、最前線のモデルを構築する企業に透明性と説明責任を求めるべきです。しかし、真剣な連邦の行動が見られない中で、州が立ち上がらなければなりません。カリフォルニアのSB 53は、州のリーダーシップの考え抜かれた、構造化された例です。」
これまでのところ、議員たちはAI企業を州が義務付ける透明性要件に賛同させることに失敗しています。AnthropicはAI企業への透明性の向上の必要性を広く支持しており、カリフォルニアのAI政策グループの提言に対して控えめな楽観を示しています。しかし、OpenAIやGoogle、Metaのような企業はこれらの努力に対してより抵抗を示しています。
主要なAIモデル開発者は通常、AIモデルの安全性報告を公開していますが、最近では一貫性に欠けています。例えば、Googleは、これまでで最も高度なAIモデル「Gemini 2.5 Pro」の安全性報告を公開しないことを決定し、数ヶ月後まで公開されませんでした。OpenAIもまた、「GPT-4.1」モデルの安全性報告を公開しないことを決定しました。その後、第三者の研究がこのモデルが以前のAIモデルよりも整合性が低い可能性があることを示唆しました。
SB 53は、以前のAI安全法案よりも抑えられたバージョンですが、それでもAI企業に対して今日よりも多くの情報を公開させる可能性があります。現在のところ、ウィーナー議員が再びその境界を試す様子をAI企業は注視しています。