Apple a retardé le déploiement des nouvelles fonctionnalités de sécurité pour les enfants annoncées le mois dernier en réponse aux préoccupations soulevées par les experts en sécurité.
Au début du mois dernier, Apple a annoncé quelques nouvelles fonctionnalités de sécurité des enfants pour toutes ses plates-formes logicielles. L'une des nouvelles fonctionnalités a été conçue pour analyser les photos d'iPhone et d'iPad à la recherche de matériel d'abus sexuel sur des enfants (CSAM). Quelques les experts en sécurité ont exprimé leurs inquiétudes à propos de cette fonctionnalité, arguant que les gouvernements pourraient potentiellement l'utiliser pour accéder aux données de leurs citoyens. Bien qu'Apple ait initialement affirmé que sa méthode de détection des CSAM connus ne constituait pas une menace pour la vie privée des utilisateurs, la société a désormais reporté son lancement.
Dans une déclaration récente (via 9à5Mac), Apple a déclaré :
"Le mois dernier, nous avons annoncé des projets de fonctionnalités destinées à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de matériels pédopornographiques. Sur la base des commentaires des clients, des groupes de défense, des chercheurs et autres, nous avons décidé de consacrer plus de temps à les mois à venir pour recueillir des commentaires et apporter des améliorations avant de publier ces informations d'une importance cruciale sur la sécurité des enfants. caractéristiques."
Apple avait précédemment prévu de publier les nouvelles fonctionnalités de sécurité des enfants dans le cadre du iOS15, iPadOS 15, et macOS Monterey mises à jour. Cependant, les mises à jour n'incluront pas la nouvelle fonctionnalité de sécurité des enfants lors de leur déploiement plus tard cette année. Pour le moment, Apple n'a pas partagé de calendrier provisoire pour le déploiement et n'a fourni aucun détail sur les modifications qu'il envisage d'apporter pour répondre aux problèmes de confidentialité.
En termes simples, la fonction d'analyse CSAM d'Apple, dans son état actuel, associe les photos de votre iPhone ou iPad à une base de données d'images CSAM connues fournies par des organisations de sécurité des enfants. S'il détecte du CSAM sur un appareil, il peut alerter de manière proactive une équipe d'examinateurs humains qui peuvent contacter les forces de l'ordre après avoir vérifié le matériel. Les chercheurs en sécurité affirment que même si l’algorithme est actuellement formé pour détecter les CSAM, il pourrait être adapté pour rechercher d’autres images ou textes, ce qui en ferait un outil précieux pour les gouvernements autoritaires.