OpenAIは、ChatGPTに新たな安全ルーティングシステムを導入したと発表しました。また、親管理機能も追加され、ユーザーからは賛否両論の反応が寄せられています。
これらの安全機能は、特定のChatGPTモデルがユーザーの誤った思考を肯定する事例が多発したことを受けて導入されました。OpenAIは、ある少年がChatGPTとのやり取りを経て自殺したとされる事件に関連する死亡過失訴訟を抱えているということです。
新しいルーティングシステムは、感情的に敏感な会話を検出し、会話の途中で自動的にGPT-5モデルに切り替える設計です。GPT-5モデルは、高い安全性を求められる状況に最適化されており、「安全な完了」と呼ばれる新しい安全機能を備えています。これにより、敏感な質問に対して安全に回答することが可能となり、単に会話を拒否するだけではないとしています。
これまでのチャットモデルは、迅速に質問に答えることを重視していましたが、GPT-4oはその過度に迎合的な性質が批判される一方で、多くのユーザーから支持を受けていました。OpenAIが8月にGPT-5をデフォルトモデルとして導入した際、多くのユーザーが反発し、GPT-4oへのアクセスを求めました。
多くの専門家やユーザーはこの安全機能を歓迎していますが、一部のユーザーは過度に慎重な実装であると批判しています。OpenAIは、これらの機能の改善に120日間の期間を設けているとしています。
ChatGPTアプリの責任者であるニック・ターリー氏は、「ルーティングはメッセージごとに行われ、デフォルトモデルからの切り替えは一時的なものです」と説明しています。
親管理機能も同様に賛否が分かれています。親が子供のAI使用を監視できることを評価する声もある一方で、大人を子供扱いする懸念もあります。親管理機能では、静かな時間の設定、音声モードやメモリのオフ、画像生成の削除、モデル学習からのオプトアウトが可能です。また、ティーンアカウントには、グラフィックコンテンツや極端な美の理想の削減など、追加のコンテンツ保護が提供されます。
OpenAIのブログによれば、「システムが潜在的な危害を検出した場合、特別に訓練された小さなチームが状況を確認します」としています。緊急の危険がある場合、親にメール、テキストメッセージ、プッシュ通知で連絡するとしています。
OpenAIは、システムが完璧でないことを認めつつも、親に警告を発することで介入の機会を提供する方が良いと考えていると述べています。また、生命の危機が迫っていると判断した場合には、法執行機関や緊急サービスへの連絡方法も検討中としています。
