Apple retrasa plan para escanear fotos de iPhone en busca de imágenes de abuso infantil

click fraud protection

Apple ha retrasado el lanzamiento de las nuevas funciones de seguridad infantil que anunció el mes pasado en respuesta a las preocupaciones planteadas por los expertos en seguridad.

A principios del mes pasado, Apple anunció un par de nuevas funciones de seguridad infantil para todas sus plataformas de software. Una de las nuevas funciones fue diseñada para escanear fotos de iPhone y iPad en busca de material de abuso sexual infantil (CSAM). Alguno Los expertos en seguridad expresaron su preocupación. sobre esta característica, argumentando que los gobiernos podrían potencialmente usarla para acceder a los datos de sus ciudadanos. Aunque Apple inicialmente afirmó que su método para detectar CSAM conocido no era una amenaza para la privacidad del usuario, la compañía ahora pospuso su lanzamiento.

En una declaración reciente (vía 9to5Mac), Apple dijo:

"El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de material de abuso sexual infantil. Basándonos en los comentarios de clientes, grupos de defensa, investigadores y otros, hemos decidido dedicar más tiempo a los próximos meses para recopilar opiniones y realizar mejoras antes de publicar estos temas de seguridad infantil de importancia crítica. características."

Apple planeó previamente lanzar nuevas funciones de seguridad para niños como parte del iOS 15, iPadOS 15, y macOS Monterey actualizaciones. Sin embargo, las actualizaciones no incluirán la nueva función de seguridad infantil cuando se lancen a finales de este año. Por el momento, Apple no ha compartido un cronograma tentativo para el lanzamiento y no ha proporcionado ningún detalle sobre los cambios que planea realizar para abordar las preocupaciones de privacidad.

En términos simples, la función de escaneo CSAM de Apple, en su estado actual, compara las fotos de su iPhone o iPad con una base de datos de imágenes CSAM conocidas proporcionadas por organizaciones de seguridad infantil. Si detecta cualquier CSAM en un dispositivo, puede alertar proactivamente a un equipo de revisores humanos que pueden comunicarse con las autoridades después de verificar el material. Los investigadores de seguridad sostienen que, si bien el algoritmo está actualmente entrenado para detectar CSAM, podría adaptarse para buscar otras imágenes o texto, lo que lo convierte en una herramienta valiosa para los gobiernos autoritarios.