自己責任:この記事は、オンライン論争のきっかけとなった文書よりも後の版に基づいて作成してしまいました。そのため、以下の私の批判のほとんどは的外れであり、非難した方々にはお詫び申し上げます。私の説明全文はこちらをご覧ください。
Siri といえば、質問に答えたり、電話をかけたり、(おそらく)ジョークを言ったりといったことを思い浮かべるかもしれないが、Apple のデジタル アシスタントには、そのほかにも多くの機能が備わっている。
先週金曜日、ソルトレイクシティから帰宅する途中、私たちが普段から利用し、記事にも取り上げている人気のグループメッセージングシステムSlackをめぐって論争が巻き起こり始めました。Slackのオンラインドキュメント「プライバシー原則:検索、学習、人工知能」が、タイトルにオックスフォードコンマが使われていないことが発覚し、話題になりました。いや、違います。この論争は、プライバシー原則へのリンクが「顧客データを使ったSlack AIトレーニング」というタイトルでHacker Newsに投稿され、X/Twitterでブーストされた後に始まりました。このドキュメントには、「顧客データをSlackのグローバルモデルから除外したい」場合、メールでオプトアウトできるという厄介な条項が含まれていることが焦点となっていました。
ええ、もちろんです。Slack のグローバルモデルから自分のデータを除外したくない人がいるでしょうか?Slack のセールスポイントの一つはプライバシーとセキュリティに関する約束です。そのため、機密性の高いビジネス情報や個人情報を安心して話し合えるのです。もし Slack が顧客データを使って大規模言語モデル(LLM)を学習していたら、Slack であなたが言ったことはすべてモデルに取り込まれ、ニューラルネットワークによって消化され、どんな状況や文脈であれ吐き出される可能性があります。もしかしたら、競合他社が Slack AI にあなたのビジネス秘密を暴露するよう求めるかもしれません!急いでソーシャルメディアでパニックを起こしましょう!
タイトルが間違っているリンクや、X/Twitter上の文脈から外れたスクリーンショットに反応するのではなく、Slackのプライバシー原則文書を実際に読んでみれば、Slackがそのようなことを一切行っていないことがわかるはずです。例えば、以下のような明確な文章を参考にしてください。
当社は顧客データを使用して LLM やその他の生成モデルを開発しません。
顧客データはサードパーティの LLM モデルのトレーニングには使用されません。Slack は、顧客データを使用して LLM やその他の生成モデルをトレーニングしたり、顧客データを LLM プロバイダーと共有したりすることはありません。
Slackのプライバシー原則が明確さの模範と言えるわけではありません。この文書では、様々な用語が定義なしに使用されており(「グローバルモデル」とは何か?そしてそれは生成AIなのか?)、Slackが別途提供するSlack AI製品に生成AIを使用していること(ただし、顧客データでトレーニングされたLLMは除く)は文書の最後でようやく言及されています。また、Slackが行っていないこと(顧客データを用いたLLMの開発)と行っていること(顧客データを分析して非生成AI/MLモデルを開発すること)が同じ段落内で混在している傾向があります。
この騒動は、人々が内容をよく読まず、文脈から外れた辛辣な意見をソーシャルメディアに投稿したことが原因でした。ソーシャルメディアに溺れた人間の脳が複雑な文書から意味を抽出できるツールがあればいいのに… なるほど。ChatGPTに、Slackが私のSlackワークスペースでの機密性の高い議論に基づいて生成AIモデルをトレーニングするかどうか聞いてみます。
結果は次のとおりです。ChatGPT:1、ソーシャルメディア上のランダムな人々:0。もちろん、ChatGPTがSlack AIと共謀していて、それが彼らが私たちに信じ込ませようとしているのであれば別ですが。
また、ChatGPTにSlackのプライバシー原則について、人々が混乱する可能性のある点を指摘し、混乱の可能性を減らすように書き直してもらいました。すると、なんとChatGPTはSlackの定義と構成上の問題点をかなりうまく指摘し、要点をより直接的に伝えるために見出しと箇条書きを多用した新しいバージョンを作成しました。Slackのプライバシー原則を貼り付けて、いつか自分で試してみてください。チャットボットは文書の問題点をうまく指摘してくれます。
もっと深刻な話ですが、ここで重要な点を指摘しておきたいと思います。私たちがガジェットやサービスにますます依存する一方で、社会はテクノロジー業界への信頼を大きく失っています。この論争は、Slackが不正行為を行っているという憶測が、多くの先入観に合致したために起こりました。Slackは、人々にプライバシーに関する方針を注意深く読んでもらうための十分な「疑わしきは罰せず」の姿勢さえ見せませんでした。
生成AIの仕組みに対するこうした不信感は理解できる。OpenAIなどの企業は、インターネット上の膨大な情報を用いて法学修士(LLM)を訓練してきた。たとえそのデータが公開されていたとしても、報酬、あるいは少なくとも功績が認められない限り、それを数十億ドル規模のビジネスの構築と維持に利用するのは適切ではない。
さらに悪いことに、AIチャットボットに話しかけたり、提出した文書は、将来のトレーニングデータに追加されてしまうのでしょうか?主要なAIチャットボットのプライバシーポリシーでは、そのようなことは行わないと明記されていますが、健康、財務、ビジネスに関する機密情報をチャットボットと共有する際には、慎重に検討する必要があります。
かつてのテクノロジーに楽観的な時代に戻ることは不可能だと危惧しています。専門家は、明確で透明性の高いコミュニケーション、一貫した能力、倫理的な実践、社会への貢献、そしてステークホルダーの懸念に対する真摯な姿勢によって、企業は信頼を取り戻すことができると述べています。しかし、それは意欲的な企業でさえ困難であり、テクノロジー業界全体にとって不可能に思えます。
しかし、今のところ Slack については心配していません。