Apple、iPhoneの写真をスキャンして児童虐待画像をスキャンする計画を延期

click fraud protection

Appleは、セキュリティ専門家らから提起された懸念に応え、先月発表した新しい児童安全機能の展開を延期した。

先月初め、Apple はすべてのソフトウェア プラットフォーム向けにいくつかの新しい子供の安全機能を発表しました。 新機能の 1 つは、iPhone および iPad の写真をスキャンして児童性的虐待資料 (CSAM) を検出するように設計されました。 いくつかの セキュリティ専門家が懸念を表明 この機能については、政府が国民のデータにアクセスするためにこの機能を利用する可能性があると主張した。 Apple は当初、既知の CSAM を検出する自社の方法はユーザーのプライバシーを脅かすものではないと主張していましたが、現在はその発売を延期しています。

最近の声明で(経由 9to5マック)、アップルは次のように述べています。

「先月、私たちは子供たちを捕食者から守ることを目的とした機能の計画を発表しました。 彼らを募集して搾取し、児童性的虐待の内容の拡散を制限するためのコミュニケーションツール。 お客様、権利擁護団体、研究者などからのフィードバックに基づいて、私たちはさらに時間を掛けることを決定しました。 これらの非常に重要な子供の安全をリリースする前に、今後数か月間意見を収集し、改善を図る必要があります 特徴。"

Apple は以前、新しい子供の安全機能をリリースすることを計画していました。 iOS15, iPadOS 15、 そして macOS モントレー 更新情報。 ただし、今年後半に公開されるこのアップデートには、新しい子供の安全機能は含まれません。 現時点で、Apple は展開の暫定的なスケジュールを公開しておらず、プライバシー上の懸念に対処するために計画している変更に関する詳細も明らかにしていません。

簡単に言えば、現在の状態では、Apple の CSAM スキャン機能は、iPhone または iPad 上の写真を、児童安全団体が提供する既知の CSAM 画像のデータベースと照合します。 デバイス上で CSAM が検出された場合は、人間の審査員チームに積極的に警告し、内容を検証した後に法執行機関に連絡することができます。 セキュリティ研究者らは、このアルゴリズムは現在 CSAM を検出するように訓練されているが、他の画像やテキストのスキャンにも応用できる可能性があり、権威主義政府にとって貴重なツールになると主張している。