O plano da Apple de verificar se há pornografia infantil em iPhones preocupa alguns especialistas em segurança

click fraud protection

O plano da Apple de escanear iPhones em busca de pornografia infantil levantou sérias preocupações entre os pesquisadores de segurança. Continue lendo para saber mais.

A Apple anunciou recentemente alguns novos recursos de segurança infantil para todas as suas plataformas de software. Os novos recursos serão lançados com iOS 15, iPadOS 15, watchOS 8, e MacOS Monterey nos EUA ainda este ano, e pretendem limitar a propagação de Material de Abuso Sexual Infantil (CSAM), entre outras coisas. Um dos novos recursos irá essencialmente escanear iPhones e iPads em busca de CSAM e denunciá-los ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC). Embora a Apple reivindicações que seu método de detecção de CSAM conhecido "foi projetado tendo em mente a privacidade do usuário," levantou preocupações entre os especialistas em segurança.

De acordo com um recente Tempos Financeirosrelatório, pesquisadores de segurança alertaram que a nova ferramenta da Apple pode ser usada indevidamente para vigilância, colocando em risco as informações pessoais de milhões de pessoas. A preocupação deles se baseia nos dados que a Apple compartilhou com alguns acadêmicos dos EUA no início desta semana. Dois pesquisadores de segurança não identificados que participaram do briefing da Apple revelaram que o sistema proposto - chamado "neuralMatch" - alertaria proativamente uma equipe de revisores humanos se detectasse CSAM em um iPhone ou iPad. Os revisores humanos entrarão em contato com as autoridades se conseguirem verificar o material.

Embora os pesquisadores de segurança apoiem os esforços da Apple para limitar a disseminação de CSAM, alguns levantaram preocupações sobre o potencial desta ferramenta ser mal utilizada pelos governos para obter acesso aos dados dos seus cidadãos dados. Ross Anderson, professor de Engenharia de Segurança da Universidade de Cambridge, disse: "É uma ideia absolutamente terrível, porque vai levar a uma vigilância distribuída em massa de... nossos telefones e laptops." Matthew Green, professor de Ciência da Computação no Johns Hopkins Information Security Institute, também levantou sua preocupação no Twitter e escreveu:

Mas mesmo que você acredite que a Apple não permitirá que essas ferramentas sejam mal utilizadas... ainda há muito com que se preocupar. Esses sistemas dependem de um banco de dados de "hashes de mídia problemáticos" que você, como consumidor, não pode revisar... Hashes usam um algoritmo de hash neural novo e proprietário que a Apple desenvolveu e fez com que o NCMEC concordasse em usar... Não sabemos muito sobre esse algoritmo. E se alguém puder causar colisões.

Embora o algoritmo esteja atualmente treinado para detectar CSAM, ele poderia ser adaptado para digitalizar outras imagens direcionadas ou texto, como cartazes antigovernamentais, tornando-os uma ferramenta excepcionalmente útil para governos autoritários. O precedente da Apple também poderia forçar outros gigantes da tecnologia a oferecer recursos semelhantes, resultando potencialmente em um pesadelo de privacidade.

A Apple ainda não compartilhou uma resposta a essas preocupações. Atualizaremos esta postagem assim que a empresa divulgar um comunicado. Para obter mais informações sobre o recurso de detecção de CSAM, siga esse link.