Anthropic社は、ユーザーのデータ利用に関する新たな方針を発表しました。これにより、全てのClaudeユーザーは、9月28日までに自身の会話がAIモデルの訓練に使用されることを許可するかどうかを選択する必要があるということです。会社側は、この方針変更に関する詳細をブログで公開していますが、背景にはいくつかの理論があると推測されます。
今回の変更点としては、これまでAnthropic社は消費者のチャットデータをモデル訓練に使用していませんでしたが、今後はユーザーの会話やコーディングセッションをAIシステムの訓練に利用し、オプトアウトしない場合のデータ保持期間を5年に延長する方針です。以前は、ユーザーのプロンプトや会話の出力は、法的または方針上の理由で保持が必要とされない限り、30日以内に自動削除されるとされていました。
新しい方針は、Claude Free、Pro、Maxユーザー、Claude Codeを使用するユーザーに適用されますが、Claude Gov、Claude for Work、Claude for Education、APIアクセスを利用するビジネス顧客には影響がないとしています。これは、OpenAIが企業顧客をデータ訓練方針から保護する方法と類似しています。
この変更の理由について、Anthropic社はユーザーの選択に基づくものであるとし、オプトアウトしないことで「モデルの安全性を向上させ、有害なコンテンツを検出するシステムの精度を高め、無害な会話を誤ってフラグする可能性を減らす」と説明しています。また、ユーザーは将来のClaudeモデルがコーディングや分析、推論などのスキルを向上させる手助けをすることになり、すべてのユーザーにとってより良いモデルにつながるとしています。
しかし、実際には、Anthropic社が他の大規模言語モデル企業と同様に、高品質な会話データを必要としていることが背景にあると考えられます。AIモデルの訓練には大量のデータが必要であり、Claudeの多くのインタラクションへのアクセスは、競合他社であるOpenAIやGoogleに対する競争力を高めるために必要な現実的なコンテンツを提供するということです。
AI開発の競争圧力に加え、AnthropicやOpenAIのような企業は、データ保持の実践に対する監視が強まっている中で、業界全体のデータ方針の変化を反映しているということです。例えば、OpenAIは現在、ニューヨーク・タイムズや他の出版社による訴訟のため、消費者のChatGPT会話を無期限に保持するよう命じられています。
OpenAIのCOOであるBrad Lightcap氏は、これを「広範囲かつ不必要な要求」であり、「ユーザーへのプライバシーの約束と根本的に矛盾する」と述べています。この裁判所命令は、ChatGPTのFree、Plus、Pro、Teamユーザーに影響を与えますが、企業顧客やZero Data Retention契約を結んでいるユーザーは保護されています。
これらの利用方針の変更がユーザーに混乱をもたらしていることは懸念されます。多くのユーザーは、これらの変更に気付かず、合意したガイドラインが変更されていることに気付いていないということです。
新しいユーザーはサインアップ時に選択肢を選ぶことになりますが、既存のユーザーは「消費者向け利用規約と方針の更新」のポップアップを目にし、大きな「承諾」ボタンと小さなトグルスイッチが表示されます。このデザインにより、ユーザーがデータ共有に同意していることに気付かずに「承諾」ボタンをクリックしてしまう可能性があると指摘されています。
連邦取引委員会(FTC)は、AI企業が利用規約やプライバシーポリシーを密かに変更したり、開示をハイパーリンクや法的文書、細かい印刷に埋め込んだりする場合、執行措置を取る可能性があると警告しています。現時点で、委員会がこれらの実践に注目しているかどうかは不明です。