El plan de Apple para escanear iPhones en busca de pornografía infantil preocupa a algunos expertos en seguridad

El plan de Apple de escanear iPhones en busca de pornografía infantil ha generado serias preocupaciones entre los investigadores de seguridad. Continúe leyendo para obtener más información.

Apple anunció recientemente un par de nuevas funciones de seguridad infantil para todas sus plataformas de software. Las nuevas funciones se implementarán con iOS 15, iPadOS 15, relojOS 8, y macOS Monterey en los EE. UU. a finales de este año, y su objetivo es limitar la difusión de material de abuso sexual infantil (CSAM), entre otras cosas. Una de las nuevas funciones esencialmente escaneará iPhones y iPads en busca de CSAM y los reportará al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Aunque Apple reclamos que su método de detección de CSAM conocido "está diseñado teniendo en cuenta la privacidad del usuario," ha generado preocupación entre los expertos en seguridad.

Según un reciente Tiempos financierosinforme, investigadores de seguridad advirtieron que la nueva herramienta de Apple podría usarse indebidamente para vigilancia, poniendo en riesgo la información personal de millones de personas. Su preocupación se basa en los datos que Apple compartió con algunos académicos estadounidenses a principios de esta semana. Dos investigadores de seguridad anónimos que asistieron a la sesión informativa de Apple revelaron que el sistema propuesto: llamado "neuralMatch", alertaría proactivamente a un equipo de revisores humanos si detecta CSAM en un iPhone o iPad. Los revisores humanos luego se comunicarán con las autoridades si pueden verificar el material.

Aunque los investigadores de seguridad apoyan los esfuerzos de Apple para limitar la propagación de CSAM, algunos han planteado preocupaciones sobre el potencial de que esta herramienta sea utilizada indebidamente por los gobiernos para obtener acceso a la información de sus ciudadanos. datos. Ross Anderson, profesor de Ingeniería de Seguridad de la Universidad de Cambridge, afirmó: "Es una idea absolutamente espantosa, porque conducirá a una vigilancia masiva distribuida de... nuestros teléfonos y portátiles". Matthew Green, profesor de Ciencias de la Computación en el Instituto de Seguridad de la Información Johns Hopkins, también planteó su preocupación en Twitter y escribió:

Pero incluso si cree que Apple no permitirá que se haga un mal uso de estas herramientas... todavía hay mucho de qué preocuparse. Estos sistemas se basan en una base de datos de "hashes de medios problemáticos" que usted, como consumidor, no puede revisar... Los hashes utilizan un algoritmo de hash neuronal nuevo y patentado que Apple ha desarrollado y ha conseguido que el NCMEC acepte utilizar... No sabemos mucho sobre este algoritmo. ¿Qué pasa si alguien puede hacer colisiones?

Si bien el algoritmo está actualmente entrenado para detectar CSAM, podría adaptarse para escanear otras imágenes específicas. o texto, como carteles antigubernamentales, lo que lo convierte en una herramienta excepcionalmente útil para gobiernos autoritarios. El precedente de Apple también podría obligar a otros gigantes tecnológicos a ofrecer características similares, lo que podría resultar en una pesadilla de privacidad.

Apple aún debe compartir una respuesta a estas preocupaciones. Actualizaremos esta publicación tan pronto como la compañía publique una declaración. Para obtener más información sobre la función de detección de CSAM, siga este enlace.