AI個人アシスタントの普及に伴い、プライバシーに対する懸念が高まっています。これらのアシスタントを利用する際には、個人情報を共有する必要があり、その情報はモデルの親会社に保持されることが一般的です。OpenAIが広告を試験的に導入していることからも、FacebookやGoogleのようなデータ収集がチャットボットの会話に入り込む可能性が考えられます。
こうした状況の中、Signalの共同創設者であるMoxie Marlinspike氏は、プライバシー重視のAIサービスの可能性を示す新しいプロジェクトを発表しました。2023年12月に開始された「Confer」は、ChatGPTやClaudeに似た見た目と操作感を持ちつつ、データ収集を避けるためのバックエンドが整備されています。Signalと同様にオープンソースの厳格さが信頼を生み出しており、Conferでの会話はモデルのトレーニングや広告のターゲティングに利用されることはありません。これは、ホストがこれらの情報にアクセスできないためです。
Marlinspike氏によれば、これらの保護策はこのサービスの親密な性質に対応するものです。「この技術は、積極的に告白を誘う形を取っています」とMarlinspike氏は述べています。「ChatGPTのようなチャットインターフェイスは、これまでのどの技術よりも人々について多くを知っています。それを広告と組み合わせると、セラピストにお金を払って何かを買わせようとするようなものです」としています。
プライバシーを確保するためには、複数の異なるシステムが連携して動作する必要があります。まず、ConferはWebAuthnパスキーシステムを使用して、システムとのメッセージを暗号化します。この標準は、主にモバイルデバイスやSequoiaを実行するMacで最適に動作しますが、WindowsやLinuxでもパスワードマネージャーを使用して動作させることができます。サーバー側では、Conferのすべての推論処理は信頼実行環境(TEE)で行われており、リモート証明システムがシステムが侵害されていないことを確認しています。その中で、オープンウェイトの基礎モデルがあらゆるクエリを処理します。
この結果、標準的な推論セットアップよりも複雑ですが、Conferの基本的な約束を利用者に提供しています。これらの保護がある限り、モデルと機密性のある会話をしても情報が漏れることはありません。
Conferの無料プランは1日20メッセージと5つのアクティブチャットに制限されていますが、月額約5400円(35ドル)の支払いで無制限のアクセスが可能となり、より高度なモデルやパーソナライゼーションが利用できます。これはChatGPTのPlusプランよりも高額ですが、プライバシーは安くはないということです。
