애플이 아이폰에서 아동 포르노를 검사하려는 계획을 일부 보안 전문가들이 우려하고 있다.

click fraud protection

iPhone에서 아동 포르노를 검색하려는 Apple의 계획은 보안 연구원들 사이에서 심각한 우려를 불러일으켰습니다. 자세히 알아보려면 계속 읽어보세요.

Apple은 최근 모든 소프트웨어 플랫폼에 대한 몇 가지 새로운 어린이 안전 기능을 발표했습니다. 새로운 기능은 다음과 같이 출시됩니다. iOS 15, 아이패드OS 15, 워치OS 8, 그리고 macOS 몬테레이 올해 말 미국에서는 무엇보다도 아동 성적 학대 자료(CSAM)의 확산을 제한하는 것을 목표로 하고 있습니다. 새로운 기능 중 하나는 본질적으로 iPhone 및 iPad에서 CSAM을 검사하여 NCMEC(국립실종착취아동센터)에 보고하는 것입니다. 비록 애플 주장 알려진 CSAM을 탐지하는 방법은 "사용자 개인 정보 보호를 염두에 두고 설계되었습니다.," 이는 보안 전문가들 사이에서 우려를 불러일으켰습니다.

최근에 따르면 파이낸셜 타임즈보고서보안 연구원들은 Apple의 새로운 도구가 감시 목적으로 오용되어 수백만 명의 개인 정보가 위험에 빠질 수 있다고 경고했습니다. 그들의 우려는 이번 주 초 Apple이 일부 미국 학계와 공유한 데이터에 근거한 것입니다. Apple의 브리핑에 참석한 익명의 보안 연구원 두 명이 제안된 시스템이 다음과 같다고 밝혔습니다. "neuralMatch"라고 함 - iPhone에서 CSAM이 감지되면 인간 검토자 팀에 사전에 경고합니다. 아이패드. 검토자는 자료를 확인할 수 있는 경우 법 집행 기관에 연락합니다.

보안 연구원들은 CSAM의 확산을 제한하려는 Apple의 노력을 지지하지만 일부에서는 문제를 제기했습니다. 정부가 시민의 정보에 접근하기 위해 이 도구를 오용할 가능성에 대한 우려 데이터. 캠브리지 대학교의 보안 공학 교수인 로스 앤더슨(Ross Anderson)은 다음과 같이 말했습니다. "그것은 분산된 대량 감시로 이어질 것이기 때문에 정말 끔찍한 아이디어입니다... 우리 휴대폰이랑 노트북이요." Johns Hopkins 정보 보안 연구소의 컴퓨터 과학 교수인 Matthew Green도 그의 우려를 높였다 트위터에 다음과 같이 썼습니다.

그러나 Apple이 이러한 도구가 오용되는 것을 허용하지 않을 것이라고 생각하더라도... 여전히 걱정할 것이 많습니다. 이러한 시스템은 소비자로서 검토할 수 없는 "문제가 있는 미디어 해시" 데이터베이스에 의존합니다. 해시는 Apple이 개발한 새로운 독점 신경 해싱 알고리즘을 사용하며 NCMEC가 사용에 동의하도록 했습니다. 우리는 이 알고리즘에 대해 많이 알지 못합니다. 누군가 충돌을 일으킬 수 있다면 어떨까요?

알고리즘은 현재 CSAM을 발견하도록 훈련되어 있지만 다른 대상 이미지를 스캔하도록 조정할 수도 있습니다. 또는 반정부 표지판과 같은 텍스트로 인해 권위주의 정부에 매우 유용한 도구가 됩니다. Apple의 선례는 다른 기술 대기업들도 유사한 기능을 제공하도록 강요하여 잠재적으로 개인 정보 보호 악몽을 초래할 수 있습니다.

Apple은 아직 이러한 우려에 대한 답변을 공유하지 않았습니다. 회사에서 성명을 발표하는 대로 이 게시물을 업데이트하겠습니다. CSAM 감지 기능에 대한 자세한 내용은 다음을 참조하세요. 이 링크.