Планът на Apple да сканира iPhone за детска порнография тревожи някои експерти по сигурността

click fraud protection

Планът на Apple да сканира iPhone за детска порнография предизвика някои сериозни опасения сред изследователите по сигурността. Прочетете, за да научите повече.

Apple наскоро обяви няколко нови функции за безопасност на деца за всички свои софтуерни платформи. Новите функции ще бъдат въведени с iOS 15, iPadOS 15, watchOS 8, и macOS Monterey в САЩ по-късно тази година и те имат за цел да ограничат разпространението на материали със сексуално насилие над деца (CSAM), наред с други неща. Една от новите функции по същество ще сканира iPhone и iPad за CSAM и ще докладва за тях на Националния център за изчезнали и експлоатирани деца (NCMEC). Въпреки че Apple искове че неговият метод за откриване на известни CSAM "е проектиран с оглед на поверителността на потребителите," това предизвика опасения сред експертите по сигурността.

Според скорошен Financial Timesотчет, изследователи по сигурността предупредиха, че новият инструмент на Apple може да бъде злоупотребен за наблюдение, излагайки на риск личната информация на милиони хора. Тяхната загриженост се основава на данните, които Apple сподели с някои американски академици по-рано тази седмица. Двама неназовани изследователи по сигурността, които присъстваха на брифинга на Apple, разкриха, че предложената система -- наречен „neuralMatch“ – ще предупреди проактивно екип от рецензенти, ако открие CSAM на iPhone или Ай Пад. След това рецензентите ще се свържат с правоприлагащите органи, ако могат да проверят материала.

Въпреки че изследователите по сигурността подкрепят усилията на Apple да ограничи разпространението на CSAM, някои повдигнаха загриженост относно възможността този инструмент да бъде злоупотребен от правителствата, за да получат достъп до техните граждани данни. Рос Андерсън, професор по инженерство по сигурността в университета в Кеймбридж, каза, „Това е абсолютно ужасяваща идея, защото ще доведе до разпределено масово наблюдение на... нашите телефони и лаптопи." Матю Грийн, професор по компютърни науки в Института за информационна сигурност Джон Хопкинс, също предизвика безпокойството му в Twitter и написа:

Но дори и да вярвате, че Apple няма да позволи тези инструменти да бъдат злоупотребявани... все още има много поводи за безпокойство. Тези системи разчитат на база данни от „проблемни медийни хешове“, които вие, като потребител, не можете да прегледате... Хешовете използват нов и собствен алгоритъм за невронно хеширане, разработен от Apple и накара NCMEC да се съгласи да използва... Не знаем много за този алгоритъм. Ами ако някой може да прави сблъсъци.

Докато алгоритъмът в момента е обучен да разпознава CSAM, той може да бъде адаптиран за сканиране на други целеви изображения или текст, като антиправителствени знаци, което го прави изключително полезен инструмент за авторитарни правителства. Прецедентът на Apple също може да принуди други технологични гиганти да предложат подобни функции, което потенциално ще доведе до кошмар за поверителността.

Apple все още не е споделила отговор на тези опасения. Ще актуализираме тази публикация веднага щом компанията публикува изявление. За повече информация относно функцията за откриване на CSAM, следвайте тази връзка.