アメリカのAI開発企業Anthropic(アンソロピック)は、最新のAIモデル「Mythos」について、ソフトウェアのセキュリティ上の弱点を発見する能力が極めて高いため、一般公開を制限し、一部の主要企業や組織にのみ提供すると発表しました。
同社によりますと、「Mythos」は世界中のユーザーが利用するソフトウェアの脆弱性を突く能力が非常に高いため、一般向けには公開しない方針です。その代わり、アマゾン・ウェブ・サービス(AWS)やJPモルガン・チェースなど、重要なオンラインインフラを運営する大企業や組織に限定して提供するとしています。
また、同じくアメリカのOpenAI(オープンAI)も、次期サイバーセキュリティツールについて同様の計画を検討していると報じられています。こうした対応の背景には、悪意のある攻撃者が高度なAIを利用してシステムに侵入する前に、主要企業に対策を講じさせる狙いがあるということです。
一方で、今回の公開制限には、サイバーセキュリティ対策やAIの能力をアピールする以上の戦略があるとの見方も出ています。
AIのサイバーセキュリティを専門とする企業のCEOは、「Mythos」の公開前に、「AIが脆弱性を発見することは重要だが、攻撃者にとっての価値は、それらをどのように組み合わせて悪用できるかなど、多くの要因に左右される」と指摘していました。
また、別のAIスタートアップ企業は、小規模な公開モデルを使用して「Mythos」の成果の多くを再現できたとしています。このことから、サイバーセキュリティにおいて万能な単一のモデルは存在せず、用途に応じた対応が必要だという見方を示しています。
さらに、最先端のAI開発企業が公開を制限する理由として、大企業との契約を促進するとともに、競合他社による技術の模倣を防ぐ狙いがあると指摘されています。現在、最先端のモデルを利用して安価に新しいAIを学習させる「蒸留」と呼ばれる手法が存在しており、これが開発企業のビジネスモデルを脅かす要因となっています。
専門家の中には、「公開制限は、最上位モデルを大企業向けの契約に限定し、小規模な開発者が『蒸留』に利用できないようにするための事実上の対策だ」と分析する声もあります。大企業からの資金流入を維持しつつ、模倣を行う企業を市場から排除する仕組みとして機能しているということです。
最先端のAI開発企業は今年に入り、技術の流出に対して強硬な姿勢を示しています。報道によりますと、Anthropic、Google、OpenAIの3社は協力して、モデルの模倣を試みる動きを特定し、遮断する取り組みを進めているということです。膨大な資金を投じて開発した技術の優位性を保つため、こうした対策は不可欠となっています。
「Mythos」などの最新モデルが、実際にインターネットの安全性を脅かすかどうかは現時点では不透明です。しかし、技術の慎重な提供は責任ある対応とされる一方で、企業側にとっては自社の収益基盤を守るための戦略的な判断でもあるとみられています。
