Apple atrasa plano de escanear fotos do iPhone em busca de imagens de abuso infantil

A Apple atrasou o lançamento dos novos recursos de segurança infantil anunciados no mês passado em resposta às preocupações levantadas por especialistas em segurança.

No início do mês passado, a Apple anunciou alguns novos recursos de segurança infantil para todas as suas plataformas de software. Um dos novos recursos foi projetado para digitalizar fotos de iPhone e iPad em busca de Material de Abuso Sexual Infantil (CSAM). Alguns especialistas em segurança levantaram preocupações sobre esse recurso, argumentando que os governos poderiam usá-lo para acessar os dados dos seus cidadãos. Embora a Apple tenha alegado inicialmente que seu método de detecção de CSAM conhecido não era uma ameaça à privacidade do usuário, a empresa adiou seu lançamento.

Em uma declaração recente (via 9to5Mac), Apple disse:

"No mês passado anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los e limitar a propagação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos dedicar mais tempo nos próximos meses para coletar informações e fazer melhorias antes de divulgar essas informações extremamente importantes sobre segurança infantil características."

A Apple planejou anteriormente lançar os novos recursos de segurança infantil como parte do iOS 15, iPadOS 15, e MacOS Monterey atualizações. No entanto, as atualizações não incluirão o novo recurso de segurança infantil quando forem lançadas ainda este ano. No momento, a Apple não compartilhou um cronograma provisório para o lançamento e não forneceu quaisquer detalhes sobre as mudanças que planeja fazer para resolver as questões de privacidade.

Em termos simples, o recurso de digitalização CSAM da Apple, em seu estado atual, combina as fotos do seu iPhone ou iPad com um banco de dados de imagens CSAM conhecidas fornecidas por organizações de segurança infantil. Se detectar qualquer CSAM em um dispositivo, ele poderá alertar proativamente uma equipe de revisores humanos que poderá entrar em contato com as autoridades após verificar o material. Os pesquisadores de segurança argumentam que, embora o algoritmo esteja atualmente treinado para detectar CSAM, ele poderia ser adaptado para procurar outras imagens ou textos, tornando-o uma ferramenta valiosa para governos autoritários.