애플, 아이폰 사진에 아동학대 이미지 스캔 계획 연기

Apple은 보안 전문가들이 제기한 우려에 대응하여 지난달 발표한 새로운 어린이 안전 기능의 출시를 연기했습니다.

지난달 초 Apple은 모든 소프트웨어 플랫폼에 대한 몇 가지 새로운 어린이 안전 기능을 발표했습니다. 새로운 기능 중 하나는 iPhone 및 iPad 사진에서 CSAM(아동 성적 학대 자료)을 검색하도록 설계되었습니다. 일부 보안 전문가들이 우려를 표했다 이 기능에 대해 정부가 잠재적으로 시민의 데이터에 액세스하는 데 사용할 수 있다고 주장했습니다. Apple은 처음에 알려진 CSAM을 탐지하는 방법이 사용자 개인 정보를 위협하지 않는다고 주장했지만 현재 출시를 연기했습니다.

최근 성명에서 ( 나인투파이브맥), 애플은 이렇게 말했다.

"지난 달 우리는 다음과 같은 약탈자로부터 어린이를 보호하는 데 도움이 되는 기능에 대한 계획을 발표했습니다. 이들을 모집하고 이용하며 아동 성적 학대 자료의 확산을 제한하기 위한 커뮤니케이션 도구입니다. 고객, 옹호 단체, 연구원 및 기타 사람들의 피드백을 바탕으로 우리는 추가 시간을 갖기로 결정했습니다. 이러한 매우 중요한 아동 안전을 발표하기 전에 앞으로 몇 달 동안 의견을 수집하고 개선할 것입니다. 특징."

Apple은 이전에 새로운 어린이 안전 기능을 출시할 계획이었습니다. iOS 15, 아이패드OS 15, 그리고 macOS 몬테레이 업데이트. 그러나 올해 후반에 출시될 업데이트에는 새로운 어린이 안전 기능이 포함되지 않습니다. 현재 Apple은 출시에 대한 잠정적인 일정을 공유하지 않았으며 개인 정보 보호 문제를 해결하기 위해 계획한 변경 사항에 대한 세부 정보도 제공하지 않았습니다.

간단히 말해서 현재 상태에서 Apple의 CSAM 스캔 기능은 iPhone 또는 iPad에 있는 사진을 아동 안전 기관에서 제공하는 알려진 CSAM 이미지 데이터베이스와 일치시킵니다. 기기에서 CSAM이 감지되면 자료를 확인한 후 법 집행 기관에 연락할 수 있는 인간 검토자 팀에 사전에 경고할 수 있습니다. 보안 연구자들은 이 알고리즘이 현재 CSAM을 탐지하도록 훈련되어 있지만 다른 이미지나 텍스트를 검색하도록 조정되어 권위주의 정부에 유용한 도구가 될 수 있다고 주장합니다.