Appleが失敗を認めることは滅多になく、ましてや発表の場で認めることは滅多にない。しかし、ウォール・ストリート・ジャーナルのジョアンナ・スターンによるAppleのソフトウェア責任者クレイグ・フェデリギ氏への今回のインタビューでは、Appleが多くの過ちを認めていることが明らかになった。このインタビューは、Appleが1週間前に、既知の児童性的虐待コンテンツ(CSAM)の拡散を抑制し、未成年者がメッセージアプリで性的画像に晒される可能性を別途低減するための取り組みについて初めて説明していたことを受けて行われたものだ(「Appleの児童保護拡大に関するFAQ」、2021年8月7日号参照)。
Appleの誤った歩みは、ウェブサイトに2つの無関係な子供保護策を混同した分かりにくいページを掲載したことから始まった。その後、よくある質問への回答を欠いたFAQを公開し、新たな情報を追加したかどうかは定かではない記者会見を開催し、下級幹部をインタビューに呼んだ挙句、最終的にはウォール・ストリート・ジャーナルのインタビューにフェデリギ氏をオファーした。CEOのティム・クック氏に次いで、フェデリギ氏はAppleで2番目に認知度の高い幹部であり、同社がいかに真剣にストーリーを整理しようと努力せざるを得なかったかを物語っている。インタビュー記事の公開後、Appleは「Appleの子供安全機能に関するセキュリティ脅威モデルレビュー」という新たな説明文書を公開した。さらに、BloombergはAppleがスタッフに対し、質問への対応に備えるよう警告したと報じている。まさに広報の大失態と言えるだろう。
(遅れてアクセスされた方には、この記事の残りの部分が文脈から外れていることをお詫び申し上げます。要約すると内容が多すぎるため、まずはAppleが以前に公開した資料と、上記リンク先の弊社の記事をお読みください。)
ウォール・ストリート・ジャーナルのインタビューで、スターンはフェデリギ氏から、Appleが何をスキャンし、何をスキャンしないのか、そしてCSAMがどのように認識され報告されるのかについて、より詳細な情報を引き出した。また、Appleが同時期に発表した2つの無関係な技術、「CSAM検出」と「メッセージにおける通信の安全性」についても、さらに分かりやすく説明している。
フェデリギ氏から明らかになった主な事実は、AppleがCSAM検出に「複数レベルの監査可能性」を組み込んでいたという点だ。彼はスターン氏に次のように語った。
中国でも、アメリカやヨーロッパで出荷しているのと同じソフトウェアとデータベースを使用しています。もし誰かがAppleに[他の種類のコンテンツとのマッチングを依頼してきた場合]、Appleは拒否するでしょう。しかし、もし自信がないとしましょう。Appleが拒否するだろうと単純に期待するのは避けたいものです。もし私たちが許可したとしても、Appleが逃げおおせないような事態にならないようにしたいはずです。それが、この種のシステムをリリースする上で私たちが自らに課した基準です。監査には複数のレベルがあり、このプロセスに含まれる画像に関しては、特定の組織、あるいは特定の国を信頼する必要がないようにしています。
AppleがCSAM検出システムの監査可能性について言及したのはこれが初めてであり、ましてやその複数レベルについて言及したのは今回が初めてだった。フェデリギ氏はまた、iCloudフォトへのアップロード時に30枚の画像が一致しなければ、Appleは対応する「安全バウチャー」を通じて一致する画像を復号できないことも明らかにした。Appleがすべての市場で同じバージョンのOSを出荷していることに、おそらくほとんどの人は気づいていなかっただろう。しかし、ビデオインタビューで監査可能性について語られたのはそれだけだった。
Appleはインタビューに続き、「Appleのチャイルドセーフティ機能に関するセキュリティ脅威モデルレビュー」という別の文書を公開しました。これは、フェデリギ氏が複数レベルの監査可能性について言及した際に念頭に置いていたものであることは明らかです。この文書は、アーキテクチャと監査可能性の両方に関する様々な新しい情報を提供しています。
この最新の文書はCSAM検出システム全般についてより詳しく説明していますが、Appleは激しい論争を受けてシステムにいくつかの詳細を追加したのではないかと推測しています。そうでなければ、Appleはユーザーやセキュリティ研究者がデバイス上のCSAMハッシュデータベースが健全であることを検証するために必要な情報を公開したでしょうか?Apple社内のシステムに対する第三者による監査について何らかの議論があったでしょうか?いずれにせよ、私たちが最も重要だと感じた新たな情報は次のとおりです。
- デバイス上のCSAMハッシュデータベースは、実際には、同じ政府の管轄下にない児童保護機関が収集した、既知の違法CSAM画像の少なくとも2つのデータベースの共通部分から生成されています。当初、Appleのコメントからも示唆されているように、Appleは国立行方不明・被搾取児童センター(NCMEC)のハッシュデータベースのみを使用する予定でした。両方のデータベースに存在するCSAM画像ハッシュのみが含まれています。たとえ、NCMECのCSAMデータベース、あるいはこれまで知られていなかった他のCSAMデータベースに、何らかのエラーや強制によってCSAM以外の画像が追加されたとしても、すべてが同じように悪用される可能性は低いでしょう。
- Appleは各OSの同一バージョンを全世界で配布しており、暗号化されたCSAMハッシュデータベースはインターネット経由でダウンロードまたは更新されるのではなく、バンドルされているため、セキュリティ研究者はすべてのリリースを検査できると主張しています。セキュリティ専門家が研究目的で仮想iOSデバイスを実行できるようにするソフトウェアをめぐって、セキュリティ企業Corelliumを相手取った訴訟を取り下げたのは、外部機関による検査の可能性に関する主張の信憑性を高めるためではないかと推測できます。
- Appleは、この機能をサポートするすべてのAppleオペレーティングシステムの各バージョンに含まれる暗号化されたCSAMハッシュデータベースのルートハッシュを含むナレッジベース記事を公開すると発表しました。研究者(および一般ユーザー)は、デバイス上に存在する暗号化されたデータベースのルートハッシュと、ナレッジベース記事に記載されている予想されるルートハッシュを比較できるようになります。繰り返しますが、Appleはセキュリティ研究者がこのシステムを検証できると示唆しています。Appleが暗号化技術を用いてオペレーティングシステムを改ざんから保護している方法を踏まえると、これは事実であると考えられます。
- このデータベースのハッシュ化アプローチは、第三者による監査も可能にします。Appleは、キャンパス内の安全な環境において、ハッシュの交差とブラインド化が正しく実行されたことを監査人に技術的に証明できると述べています。参加している児童安全団体が、このような監査を実施することを検討できる可能性が示唆されています。
- NeuralHashは、例えば「写真」アプリが猫の写真を識別するような機械学習による分類には依存していません。NeuralHashは、サイズ変更、トリミング、色の変更など、特定の方法で画像が変更されていても、ある画像が別の画像と同一であることを検証するために設計された純粋なアルゴリズムです。Appleが1億枚のCSAM以外の画像に対して行ったテストでは、NCMECのデータベースと比較した際に3つの誤検出が発生しました。別のテストでは、50万枚のアダルトポルノ画像をNCMECのデータベースと比較しましたが、誤検出は発生しませんでした。
- インタビューで明らかになったように、Appleが当初設定する一致閾値は30枚になる見込みです。つまり、Appleのシステムが一致を検知するには、少なくともこの枚数の違法なCSAM画像がiCloudフォトにアップロードされている必要があります。その時点で、閾値超過以降に復号可能になった一致画像に同梱されている低解像度のプレビューを人間のレビュー担当者が確認するよう通知されます。この閾値により、極めて可能性の低い誤検知であっても悪影響は発生しないはずです。
- Appleの審査担当者は、既知のCSAMのオリジナルデータベースを閲覧することが法的に許可されていないため、復号化されたプレビュー画像がCSAMであるかどうかを確認することしかできず、既知のCSAMと一致するかどうかは確認できません。(画像は、個人を特定することなく人間のヌードを認識できるほど詳細であることが期待されます。)審査担当者が画像がCSAMであると判断した場合、Appleはアカウントを停止し、NCMECにすべての処理を委ねます。NCMECは実際の比較を行い、法執行機関を介入させることができます。
- 文書全体を通して、Appleは「iOSデバイス側の他のセキュリティ主張と同様に、セキュリティ研究者によるコード検査の対象となっている」という表現を繰り返し使用しています。これは厳密には監査ではありませんが、セキュリティ研究者がAppleのセキュリティ主張を検証しようとしていることを認識しており、これらの特定の領域を徹底的に調査するようAppleに促していることを示しています。研究者にとって、CSAM検出システムの脆弱性を発見することは、評判と経済面で大きな利益となるため、Appleが今後リリースされるOSはこれまで以上に厳しい精査の対象となると示唆しているのは、おそらく正しいでしょう。
Appleがこの発表をいかに完璧に失敗したかに、私は困惑しています。当初の資料は、その後の幾度ものインタビューや資料を経たにもかかわらず、技術系ユーザーにもそうでないユーザーにも納得のいく答えのない、あまりにも多くの疑問を提起していました。Appleは、何か発言すれば、私たちがAppleを褒め称え、透明性の高さに感謝してくれるとでも思っていたのでしょう。実際、他のクラウドベースの写真ストレージプロバイダーは、ユーザーに知らせずに既にアップロードされたすべての写真のCSAMスキャンを行っています。Facebookは2020年だけで2,000万件以上のCSAMレポートをNCMECに提出しています。
しかし、Appleは「私たちを信頼してください」という示唆が「iPhone上で起こったことはiPhone上に留まります」という主張とどれほど食い違うかを、大きく過小評価していた。今やAppleは私たちに「信頼するが、検証もしてください」と求めているようだ(このフレーズは、ウラジーミル・レーニンとヨシフ・スターリンの言葉を言い換えたもので、後にロナルド・レーガンによって英語で広められたという、興味深い歴史を持つ)。セキュリティとプライバシーの専門家がこれらの新たな暴露にどう反応するかは今後の展開を見守る必要があるが、少なくともAppleは関連する詳細情報をすべて共有しようと努力しているようだ。