Anthropic はブログで次のように書いている。
本日、消費者向け利用規約とプライバシーポリシーのアップデートを公開いたします。これにより、より高性能で有用なAIモデルの提供が可能になります。Claudeの改善と、詐欺や不正使用などの有害な利用に対する保護対策の強化のため、ユーザーの皆様にデータの使用を許可するかどうかの選択肢をご提供いたします。設定の変更は簡単で、いつでも行えます。
ご参加いただくことで、モデルの安全性向上に貢献していただけます。有害コンテンツ検出システムの精度が向上し、無害な会話がフラグ付けされる可能性が低くなります。また、将来のClaudeモデルのコーディング、分析、推論などのスキル向上にも貢献し、最終的にはすべてのユーザーにとってより優れたモデルを提供することにつながります。
一方で、AI企業がチャットの記録を使ってモデルをトレーニングするという考えは、私を含め多くの人々にとって、あらゆる種類のプライバシーに関する警告信号を発します。私の不安は、直接的な現実世界の懸念からではなく、監視広告収入を追求するテクノロジー企業が犯す無数のプライバシー侵害から生じています。トレーニングデータに吸収された機密の個人情報、ビジネスの詳細、または知的財産(コードなど)が応答で直接漏洩することは理論的には可能ですが、それは可能性が低く(文字通り、どれほどの確率でしょうか?)、いずれにせよ、現在トレーニング中のモデルが公開される1~2年後までは起こらないでしょう。さらに懸念されるのは、AIが将来のプライバシー侵害をどのように可能にするか、あるいは可能にしないかがわからないことです。また、一度トレーニングに使用されたデータは、モデルから「トレーニング解除」される可能性は低いでしょう。今のところは、用心を怠らない方が良いでしょう。
私は主にChatGPTを使っていますが、OpenAIが将来のモデルを私のチャットで学習できるようにするオプションはすでにオフにしています。Claudeが私の会話を収集して5年間保持するオプションが追加されたので、これもオフにします。どちらも設定で簡単に無効にできますが、GoogleはGeminiの会話収集をオフにすることを難しくしています。Geminiアプリのアクティビティをオフにするのがコツです。
Meta AIは、ユーザーの会話(およびすべての公開Facebook投稿とInstagram写真)をトレーニングしますが、オプトアウトはできません。また、Grokは、明示的にオプトアウトしない限り、すべてのX/Twitterユーザーの投稿(非アクティブなアカウントの過去の投稿を含む)とGrokの会話をトレーニングしますが、Meta AIは避けることを強くお勧めします。プライバシーへの影響や両社の悪い実績に加え、多くの場合検証されていない、扇動的、または誤解を招くソーシャルメディアコンテンツでモデルをトレーニングすると、AIの応答にも同じ性質が残るリスクがあります。これは典型的な「ゴミを入れればゴミが出る」という例です。