Apple відкладає план сканування фотографій iPhone на наявність зображень жорстокого поводження з дітьми

Apple відклала розгортання нових функцій безпеки дітей, про які вона анонсувала минулого місяця, у відповідь на занепокоєння експертів з безпеки.

На початку минулого місяця Apple анонсувала кілька нових функцій безпеки дітей для всіх своїх програмних платформ. Однією з нових функцій було розроблено сканування фотографій iPhone та iPad на наявність матеріалів сексуального насильства над дітьми (CSAM). Дещо експерти з безпеки висловили занепокоєння про цю функцію, стверджуючи, що уряди потенційно можуть використовувати її для доступу до даних своїх громадян. Хоча Apple спочатку стверджувала, що її метод виявлення відомого сексуального сексуального насильства не є загрозою конфіденційності користувачів, тепер компанія відклала його запуск.

У нещодавній заяві (через 9to5Mac), Apple сказала:

«Минулого місяця ми оголосили про плани щодо функцій, призначених для захисту дітей від хижаків, які використовують інструменти комунікації для їх вербування та використання, а також обмеження поширення матеріалів сексуального насильства над дітьми. На основі відгуків клієнтів, правозахисних груп, дослідників та інших ми вирішили приділити додатковий час найближчі місяці, щоб зібрати вхідні дані та внести вдосконалення, перш ніж випустити ці критично важливі засоби безпеки дітей особливості».

Apple раніше планувала випустити нові функції безпеки дітей як частину iOS 15, iPadOS 15, і macOS Monterey оновлення. Однак оновлення не включатимуть нову функцію безпеки дітей, коли вони вийдуть пізніше цього року. На даний момент Apple не оприлюднила орієнтовний графік розгортання, а також не надала жодних подробиць щодо змін, які вона планує внести для вирішення проблем конфіденційності.

Простіше кажучи, функція сканування CSAM від Apple у її поточному стані зіставляє фотографії на вашому iPhone або iPad з базою даних відомих зображень CSAM, наданих організаціями з безпеки дітей. Якщо він виявить на пристрої будь-який образ сексуального насильства, він може завчасно попередити групу рецензентів, які зможуть зв’язатися з правоохоронними органами після перевірки матеріалу. Дослідники безпеки стверджують, що хоча алгоритм зараз навчений виявляти CSAM, його можна адаптувати для пошуку інших зображень або тексту, що робить його цінним інструментом для авторитарних урядів.