児童ポルノがないか iPhone をスキャンするという Apple の計画に一部のセキュリティ専門家が懸念

click fraud protection

iPhoneをスキャンして児童ポルノを検出するというAppleの計画は、セキュリティ研究者の間で重大な懸念を引き起こしている。 さらに詳しく知りたい方は読み続けてください。

Apple は最近、すべてのソフトウェア プラットフォーム向けにいくつかの新しい子供の安全機能を発表しました。 新機能は次のようにロールアウトされます。 iOS15, iPadOS 15, ウォッチOS 8、 そして macOS モントレー 今年後半に米国でも施行され、とりわけ児童性的虐待資料(CSAM)の蔓延を制限することを目指している。 新機能の 1 つは、基本的に iPhone と iPad をスキャンして CSAM を検出し、国立行方不明児童搾取センター (NCMEC) に報告するものです。 アップルですが 請求 既知の CSAM を検出する方法 「ユーザーのプライバシーを考慮して設計されています," セキュリティ専門家の間で懸念が生じている。

最近の情報によると、 フィナンシャル・タイムズ報告, セキュリティ研究者らは、Appleの新しいツールが監視に悪用され、数百万人の個人情報が危険にさらされる可能性があると警告した。 彼らの懸念は、Appleが今週初めに一部の米国の学者と共有したデータに基づいている。 Apple の説明会に出席した 2 人の匿名のセキュリティ研究者が、提案されているシステムが次のことを明らかにした。 「neuralMatch」と呼ばれる -- iPhone 上で CSAM を検出した場合、人間のレビュー担当者のチームに積極的に警告します。 iPad。 人間の審査員は、素材を検証できた場合、法執行機関に連絡します。

セキュリティ研究者は、CSAM の拡散を制限する Apple の取り組みを支持していますが、一部の研究者は、 このツールが政府によって国民の情報にアクセスするために悪用される可能性についての懸念 データ。 ケンブリッジ大学のセキュリティ工学教授、ロス・アンダーソン氏は次のように述べています。 「これはまったく恐ろしいアイデアです。なぜなら、それは分散型大量監視につながるからです... 私たちの携帯電話とラップトップです。」 ジョンズ・ホプキンス大学情報セキュリティ研究所のコンピューターサイエンス教授であるマシュー・グリーン氏も、 彼の懸念を提起した Twitterで次のように書きました。

しかし、たとえ Apple がこれらのツールの悪用を許可しないと信じていたとしても...懸念すべきことはまだたくさんあります。 これらのシステムは、消費者が確認できない「問題のあるメディア ハッシュ」のデータベースに依存しています... ハッシュには、Apple が開発した新しい独自のニューラル ハッシュ アルゴリズムが使用され、NCMEC に使用の同意を得ました。 私たちはこのアルゴリズムについてはあまり知りません。 誰かが衝突する可能性がある場合はどうなるでしょうか。

このアルゴリズムは現在 CSAM を検出するようにトレーニングされていますが、他の対象画像をスキャンするように適応できる可能性があります。 反政府標識のようなテキストも含まれるため、権威主義政府にとって非常に便利なツールとなります。 Apple の前例により、他のテクノロジー大手も同様の機能の提供を余儀なくされ、プライバシーの悪夢が生じる可能性があります。

Apple はこれらの懸念に対する回答をまだ発表していません。 同社が声明を発表し次第、この投稿を更新します。 CSAM 検出機能の詳細については、次を参照してください。 このリンク.