Apple отлага плана за сканиране на снимки на iPhone за изображения на насилие над деца

click fraud protection

Apple забави пускането на новите функции за безопасност на децата, които обяви миналия месец в отговор на опасения, повдигнати от експерти по сигурността.

В началото на миналия месец Apple обяви няколко нови функции за безопасност на деца за всички свои софтуерни платформи. Една от новите функции е предназначена да сканира снимки на iPhone и iPad за материали със сексуално насилие над деца (CSAM). някои експерти по сигурността изразиха опасения относно тази функция, твърдейки, че правителствата биха могли потенциално да я използват за достъп до данните на своите граждани. Въпреки че Apple първоначално твърдеше, че неговият метод за откриване на известни CSAM не е заплаха за поверителността на потребителите, сега компанията отложи пускането му.

В скорошно изявление (чрез 9to5Mac), Apple каза:

„Миналия месец обявихме планове за функции, предназначени да предпазят децата от хищници, които използват средства за комуникация, за да ги набират и експлоатират, и да ограничават разпространението на материали със сексуално малтретиране на деца. Въз основа на обратна връзка от клиенти, групи за застъпничество, изследователи и други, ние решихме да отделим допълнително време следващите месеци, за да съберем информация и да направим подобрения, преди да пуснем тези критично важни за безопасността на децата Характеристика."

Apple по-рано планираше да пусне новите функции за безопасност на децата като част от iOS 15, iPadOS 15, и macOS Monterey актуализации. Актуализациите обаче няма да включват новата функция за безопасност на децата, когато се пуснат по-късно тази година. В момента Apple не е споделила предварителна времева линия за внедряването и не е предоставила никакви подробности относно промените, които планира да направи, за да отговори на опасенията за поверителността.

С прости думи, функцията за сканиране на CSAM на Apple в текущото си състояние съпоставя снимки на вашия iPhone или iPad с база данни с известни изображения на CSAM, предоставени от организации за безопасност на децата. Ако открие CSAM на устройство, той може проактивно да предупреди екип от рецензенти, които могат да се свържат с правоприлагащите органи, след като проверят материала. Изследователите по сигурността твърдят, че докато алгоритъмът в момента е обучен да открива CSAM, той може да бъде адаптиран да сканира за други изображения или текст, което го прави ценен инструмент за авторитарни правителства.