План Apple сканировать iPhone на наличие детской порнографии беспокоит некоторых экспертов по безопасности

План Apple сканировать iPhone на наличие детской порнографии вызвал серьезные опасения среди исследователей безопасности. Читайте дальше, чтобы узнать больше.

Apple недавно анонсировала пару новых функций безопасности детей для всех своих программных платформ. Новые функции будут реализованы с iOS 15, iPadOS 15, смотретьOS 8, и macOS Монтерей в США позднее в этом году, и они стремятся, среди прочего, ограничить распространение материалов о сексуальном насилии над детьми (CSAM). Одна из новых функций будет, по сути, сканировать iPhone и iPad на наличие CSAM и сообщать о них в Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC). Хотя Apple претензии что его метод обнаружения известен CSAM "разработано с учетом конфиденциальности пользователей," это вызвало обеспокоенность среди экспертов по безопасности.

Согласно недавнему Файнэншл ТаймсотчетИсследователи безопасности предупредили, что новый инструмент Apple может быть использован не по назначению для слежки, подвергая риску личную информацию миллионов людей. Их беспокойство основано на данных, которыми Apple поделилась с некоторыми американскими учеными ранее на этой неделе. Два неназванных исследователя безопасности, присутствовавшие на брифинге Apple, рассказали, что предлагаемая система... под названием «neuralMatch» — будет заранее предупреждать группу рецензентов, если обнаружит CSAM на iPhone или Айпад. Если рецензенты смогут проверить материал, они свяжутся с правоохранительными органами.

Хотя исследователи безопасности поддерживают усилия Apple по ограничению распространения CSAM, некоторые подняли вопросы опасения по поводу того, что правительства могут злоупотреблять этим инструментом для получения доступа к информации своих граждан. данные. Росс Андерсон, профессор инженерии безопасности Кембриджского университета, сказал: «Это абсолютно ужасающая идея, потому что она приведет к распределенной массовой слежке за... наши телефоны и ноутбуки». Мэтью Грин, профессор компьютерных наук Института информационной безопасности Джонса Хопкинса, также выразил свою обеспокоенность в Твиттере и написал:

Но даже если вы верите, что Apple не допустит злоупотребления этими инструментами… есть еще много поводов для беспокойства. Эти системы полагаются на базу данных «проблемных медиа-хэшей», которую вы, как потребитель, не можете просмотреть... В хешах используется новый запатентованный алгоритм нейронного хеширования, разработанный Apple и получивший от NCMEC согласие на использование... Мы мало что знаем об этом алгоритме. Что, если кто-то может совершать столкновения.

Хотя алгоритм в настоящее время обучен обнаружению CSAM, его можно адаптировать для сканирования других целевых изображений. или текст, как антиправительственные плакаты, что делает его исключительно полезным инструментом для авторитарных правительств. Прецедент Apple может также заставить других технологических гигантов предлагать аналогичные функции, что потенциально может привести к кошмару конфиденциальности.

Apple еще не поделилась ответом на эти опасения. Мы обновим этот пост, как только компания опубликует заявление. Для получения дополнительной информации о функции обнаружения CSAM см. эта ссылка.