TS
NihonTechHub
HomeTechCrunch(テッククランチ)Google(グーグル)Apple(アップル)おすすめAIツール一覧
TS
NihonTechHub

最新のテクノロジーニュース、洞察、トレンドをお届けする信頼の情報源。テック業界を幅広くカバーする当サイトで常に最新情報を把握しましょう。

[email protected]

カテゴリー

  • ホーム
  • TechCrunch(テッククランチ)
  • Google(グーグル)
  • Apple(アップル)
  • Best list AI (おすすめAIツール一覧)

人気タグ

AIMachine LearningIOSANDROIDGOOGLE

ニュースレター

最新のテクノロジーニュースをメールで受け取りましょう。今すぐ購読を!

📱 Androidアプリ🍎 iOSアプリ

© 2026 NihonTechHub. All rights reserved.

お問い合わせ利用規約プライバシーポリシーSitemap
techcrunch
2025年7月16日
11分で読めます

AIの「思考」監視を求める研究者たち

OpenAIやGoogle DeepMindなどの研究者が、AIの思考モデルの監視技術の研究を求める声明を発表しました。AIの安全性向上を目指す動きです。

NihonTechHub

NihonTechHub

技術系ジャーナリスト
AI-思考-監視-研究者-声明

OpenAIやGoogle DeepMind、Anthropicを含む企業や非営利団体の研究者たちは、AIの思考モデルの監視技術の研究を深めるよう求める声明を発表しました。

AIの思考モデルの重要な特徴は、チェーン・オブ・ソート(CoT)と呼ばれるもので、これは人間が難しい数学の問題を解く際に使うメモのようなプロセスを外部化したものです。これらのモデルはAIエージェントを強化するための重要な技術であり、声明の著者たちは、AIエージェントが広く普及し能力が向上する中で、CoTの監視が制御のための重要な方法になる可能性があるとしています。

「CoTの監視は、AIエージェントがどのように意思決定を行うかを理解するための貴重な追加の安全対策を提供します。しかし、現在の可視性が将来も続く保証はありません」と研究者たちは述べています。「研究コミュニティと最前線のAI開発者がCoTの監視可能性を最大限に活用し、それを維持する方法を研究することを奨励します」としています。

声明では、AIモデル開発者に対し、CoTがどのように「監視可能」なのか、つまりAIモデルがどのように答えを導き出すかの透明性を高める要因を研究するよう求めています。著者たちは、CoTの監視がAI思考モデルを理解するための重要な方法である可能性があるとしつつ、その透明性や信頼性を低下させるような介入を避けるよう注意を促しています。

また、AIモデル開発者に対して、CoTの監視可能性を追跡し、この方法が将来的に安全対策として実装される可能性を研究することを求めています。

この声明には、OpenAIの主任研究官マーク・チェン氏、安全な超知能CEOイリヤ・サツケバー氏、ノーベル賞受賞者ジェフリー・ヒントン氏、Google DeepMindの共同創設者シェーン・レッグ氏、xAI安全顧問ダン・ヘンドリックス氏、Thinking Machinesの共同創設者ジョン・シュルマン氏が署名しています。声明の第一著者には、イギリスAIセキュリティ研究所やアポロリサーチのリーダーが名を連ねており、その他の署名者にはMETR、Amazon、Meta、UCバークレーの関係者が含まれています。

この声明は、AI業界の多くのリーダーがAIの安全性に関する研究を推進するために一致団結した瞬間を示しています。これは、MetaがOpenAIやGoogle DeepMind、Anthropicからトップ研究者を引き抜くために数百万ドル(約1億5500万円)のオファーを出すなど、激しい競争が繰り広げられている時期に発表されました。最も求められている研究者は、AIエージェントやAI思考モデルを構築する人々です。

「私たちは、チェーン・オブ・ソートという新しいものがあるこの重要な時期にいます。これは非常に有用に見えますが、もし人々が本当に集中しなければ、数年で消えてしまう可能性があります」と、OpenAIの研究者で、この声明に関与したボーウェン・ベイカー氏はTechCrunchのインタビューで述べています。「このような声明を発表することは、私にとって、このトピックに関する研究と注目を集めるための手段です」としています。

OpenAIは、2024年9月に最初のAI思考モデルであるo1のプレビューを公開しました。それ以来、技術業界は同様の能力を持つ競争モデルを迅速にリリースしており、Google DeepMind、xAI、Anthropicの一部のモデルはベンチマークでさらに高度な性能を示しています。

しかし、AI思考モデルがどのように機能するかについては、比較的理解が進んでいません。AIラボは昨年、AIの性能を向上させることに成功しましたが、それが必ずしも答えを導き出す方法の理解に繋がっているわけではありません。

Anthropicは、AIモデルが実際にどのように機能するかを解明する業界のリーダーの一つです。今年初め、CEOのダリオ・アモデイ氏は、2027年までにAIモデルのブラックボックスを解明し、解釈可能性に対する投資を増やすことを発表しました。彼は、OpenAIやGoogle DeepMindにもこのトピックの研究を呼びかけています。

Anthropicの初期の研究では、CoTがこれらのモデルが答えを導き出す方法を完全に信頼できる指標ではない可能性があることが示唆されています。一方、OpenAIの研究者たちは、CoTの監視が将来的にAIモデルの整合性と安全性を追跡する信頼できる方法になる可能性があるとしています。

このような声明の目的は、CoTの監視などの新しい研究分野に注目を集めることです。OpenAIやGoogle DeepMind、Anthropicなどの企業はすでにこれらのトピックを研究していますが、この声明がこの分野へのさらなる資金提供と研究を促進する可能性があります。

#AI
#TC
#AI SAFETY
#ANTHROPIC
#OPENAI
#RESEARCH
#AI
#思考モデル
#監視技術
#安全性
#研究者
NihonTechHub

NihonTechHub

日本の最新テクノロジーやスタートアップ情報を発信するプラットフォームです。国内外のイノベーションをつなぎ、未来を切り開くための知識とインスピレーションを提供します。

NihonTechHub ソフトウェア

私たちが開発した便利なツールとソフトウェア

Google Drive ダウンローダー

閲覧専用ファイルの簡単ダウンロード

Google DriveのView-only(閲覧専用)ファイルを簡単にダウンロードできるツールです。PDF、Docxファイルに対応しています。

PDF
対応済み
Docx
対応済み

この機能はNihonTechHubアプリでもご利用いただけます(Android・iOS対応)

Google PlayでダウンロードApp Storeでダウンロード
無料で利用可能

アプリをダウンロード

外出先でも最新のテクノロジーニュースをチェック!リアルタイム通知とパーソナライズされたニュースフィードを受け取るにはアプリをダウンロードしてください。

リアルタイム更新
プッシュ通知
カスタマイズ可能
NihonTechHub
無料