Apple откладывает план по сканированию фотографий iPhone на наличие изображений жестокого обращения с детьми

click fraud protection

Apple отложила внедрение новых функций безопасности детей, о которых она объявила в прошлом месяце, в ответ на опасения, высказанные экспертами по безопасности.

В начале прошлого месяца Apple анонсировала пару новых функций безопасности детей для всех своих программных платформ. Одна из новых функций была разработана для сканирования фотографий iPhone и iPad на предмет материалов о сексуальном насилии над детьми (CSAM). Некоторый эксперты по безопасности выразили обеспокоенность об этой функции, утверждая, что правительства потенциально могут использовать ее для доступа к данным своих граждан. Хотя Apple первоначально заявляла, что ее метод обнаружения известного CSAM не представляет угрозы для конфиденциальности пользователей, теперь компания отложила его запуск.

В недавнем заявлении (через 9to5Mac), Apple сказала:

«В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от хищников, использующих коммуникационные инструменты для их вербовки и эксплуатации, а также ограничения распространения материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили уделить дополнительное время ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем опубликовать эти критически важные материалы по безопасности детей. функции."

Ранее Apple планировала выпустить новые функции безопасности детей в рамках iOS 15, iPadOS 15, и macOS Монтерей обновления. Однако обновления не будут включать новую функцию безопасности детей, когда они появятся позднее в этом году. На данный момент Apple не раскрыла предварительные сроки развертывания и не предоставила никаких подробностей об изменениях, которые она планирует внести для решения проблем конфиденциальности.

Проще говоря, функция сканирования CSAM от Apple в ее текущем состоянии сопоставляет фотографии на вашем iPhone или iPad с базой данных известных изображений CSAM, предоставленной организациями по безопасности детей. Если он обнаружит какой-либо CSAM на устройстве, он может заранее предупредить группу рецензентов, которые смогут связаться с правоохранительными органами после проверки материала. Исследователи безопасности утверждают, что, хотя алгоритм в настоящее время обучен обнаруживать CSAM, его можно адаптировать для сканирования других изображений или текста, что сделает его ценным инструментом для авторитарных правительств.