Apple отлага плана за сканиране на снимки на iPhone за изображения на насилие над деца

Apple забави пускането на новите функции за безопасност на децата, които обяви миналия месец в отговор на опасения, повдигнати от експерти по сигурността.

В началото на миналия месец Apple обяви няколко нови функции за безопасност на деца за всички свои софтуерни платформи. Една от новите функции е предназначена да сканира снимки на iPhone и iPad за материали със сексуално насилие над деца (CSAM). някои експерти по сигурността изразиха опасения относно тази функция, твърдейки, че правителствата биха могли потенциално да я използват за достъп до данните на своите граждани. Въпреки че Apple първоначално твърдеше, че неговият метод за откриване на известни CSAM не е заплаха за поверителността на потребителите, сега компанията отложи пускането му.

В скорошно изявление (чрез 9to5Mac), Apple каза:

„Миналия месец обявихме планове за функции, предназначени да предпазят децата от хищници, които използват средства за комуникация, за да ги набират и експлоатират, и да ограничават разпространението на материали със сексуално малтретиране на деца. Въз основа на обратна връзка от клиенти, групи за застъпничество, изследователи и други, ние решихме да отделим допълнително време следващите месеци, за да съберем информация и да направим подобрения, преди да пуснем тези критично важни за безопасността на децата Характеристика."

Apple по-рано планираше да пусне новите функции за безопасност на децата като част от iOS 15, iPadOS 15, и macOS Monterey актуализации. Актуализациите обаче няма да включват новата функция за безопасност на децата, когато се пуснат по-късно тази година. В момента Apple не е споделила предварителна времева линия за внедряването и не е предоставила никакви подробности относно промените, които планира да направи, за да отговори на опасенията за поверителността.

С прости думи, функцията за сканиране на CSAM на Apple в текущото си състояние съпоставя снимки на вашия iPhone или iPad с база данни с известни изображения на CSAM, предоставени от организации за безопасност на децата. Ако открие CSAM на устройство, той може проактивно да предупреди екип от рецензенти, които могат да се свържат с правоприлагащите органи, след като проверят материала. Изследователите по сигурността твърдят, че докато алгоритъмът в момента е обучен да открива CSAM, той може да бъде адаптиран да сканира за други изображения или текст, което го прави ценен инструмент за авторитарни правителства.