План Apple сканувати iPhone на наявність дитячого порно викликав серйозне занепокоєння серед дослідників безпеки. Читайте далі, щоб дізнатися більше.
Apple нещодавно анонсувала пару нових функцій безпеки дітей для всіх своїх програмних платформ. Нові функції будуть доступні з iOS 15, iPadOS 15, watchOS 8, і macOS Monterey у США пізніше цього року, і вони, серед іншого, прагнуть обмежити поширення матеріалів із сексуальним насильством над дітьми (CSAM). Одна з нових функцій по суті скануватиме iPhone та iPad на предмет сексуального насильства та повідомлятиме про це Національному центру у справах зниклих і експлуатованих дітей (NCMEC). Хоча Apple претензії що його метод виявлення відомий CSAM "розроблено з урахуванням конфіденційності користувачів," це викликало занепокоєння серед експертів з безпеки.
Згідно з нещодавнім Financial Timesзвіт, дослідники безпеки попередили, що новий інструмент Apple може бути використаний для стеження, піддаючи ризику особисту інформацію мільйонів людей. Їхнє занепокоєння ґрунтується на даних, якими Apple поділилася з деякими науковцями США на початку цього тижня. Двоє неназваних дослідників безпеки, які були присутні на брифінгу Apple, показали, що запропонована система -- під назвою "neuralMatch" – завчасно сповістить групу рецензентів, якщо виявить CSAM на iPhone або iPad. Потім рецензенти зв’яжуться з правоохоронними органами, якщо вони зможуть перевірити матеріал.
Незважаючи на те, що дослідники безпеки підтримують зусилля Apple щодо обмеження поширення сексуального насильства, деякі з них підняли це питання стурбованість тим, що уряди можуть зловживати цим інструментом для отримання доступу до своїх громадян даних. Росс Андерсон, професор техніки безпеки Кембриджського університету, сказав: «Це абсолютно жахлива ідея, оскільки вона призведе до розподіленого масового стеження за... наші телефони та ноутбуки». Також Метью Грін, професор комп’ютерних наук в Інституті інформаційної безпеки Джона Гопкінса викликав його занепокоєння у Twitter і написав:
Але навіть якщо ви вірите, що Apple не дозволить зловживати цими інструментами... все ще є багато приводів для занепокоєння. Ці системи покладаються на базу даних «проблемних хешів медіа», які ви, як споживач, не можете переглянути... Хеші використовують новий запатентований нейронний алгоритм хешування, розроблений Apple, і домоглися від NCMEC згоди на використання... Ми мало знаємо про цей алгоритм. Що, якщо хтось може зробити зіткнення.
Хоча алгоритм наразі навчено виявляти зображення сексуального насильства, його можна адаптувати для сканування інших цільових зображень або текст, як-от антиурядові знаки, що робить його надзвичайно корисним інструментом для авторитарних урядів. Прецедент Apple також може змусити інших технологічних гігантів запропонувати подібні функції, що потенційно призведе до кошмару конфіденційності.
Apple поки що не відповіла на ці занепокоєння. Ми оновимо цю публікацію, щойно компанія опублікує заяву. Щоб отримати додаткові відомості про функцію виявлення сексуального насильства, перейдіть за цією версією це посилання.