Le projet d'Apple d'analyser les iPhones à la recherche de pornographie juvénile inquiète certains experts en sécurité

Le projet d'Apple d'analyser les iPhones à la recherche de pornographie juvénile a suscité de graves inquiétudes parmi les chercheurs en sécurité. Continuez à lire pour en savoir plus.

Apple a récemment annoncé quelques nouvelles fonctionnalités de sécurité pour les enfants pour toutes ses plates-formes logicielles. Les nouvelles fonctionnalités seront déployées avec iOS15, iPadOS 15, montreOS 8, et macOS Monterey aux États-Unis plus tard cette année, et ils visent, entre autres, à limiter la propagation du matériel pédopornographique (CSAM). L'une des nouvelles fonctionnalités analysera essentiellement les iPhones et iPads à la recherche de CSAM et les signalera au Centre national pour les enfants disparus et exploités (NCMEC). Bien qu'Apple réclamations que sa méthode de détection des CSAM connus "est conçu en gardant à l'esprit la confidentialité des utilisateurs," cela a suscité des inquiétudes parmi les experts en sécurité.

Selon un récent Temps Financierrapport, des chercheurs en sécurité ont averti que le nouvel outil d'Apple pourrait être utilisé à mauvais escient à des fins de surveillance, mettant ainsi en danger les informations personnelles de millions de personnes. Leur inquiétude repose sur les données qu'Apple a partagées avec certains universitaires américains en début de semaine. Deux chercheurs en sécurité anonymes qui ont assisté au briefing d'Apple ont révélé que le système proposé... appelé "neuralMatch" - alerterait de manière proactive une équipe d'examinateurs humains s'il détecte du CSAM sur un iPhone ou iPad. Les examinateurs humains contacteront ensuite les forces de l'ordre s'ils sont en mesure de vérifier le matériel.

Bien que les chercheurs en sécurité soutiennent les efforts d'Apple pour limiter la propagation du CSAM, certains ont soulevé inquiétudes quant à la possibilité que cet outil soit utilisé à mauvais escient par les gouvernements pour accéder aux informations de leurs citoyens. données. Ross Anderson, professeur d'ingénierie de sécurité à l'Université de Cambridge, a déclaré: "C'est une idée absolument épouvantable, car elle va conduire à une surveillance massive et distribuée des... nos téléphones et ordinateurs portables. Matthew Green, professeur d'informatique au Johns Hopkins Information Security Institute, également a fait part de son inquiétude sur Twitter et a écrit :

Mais même si vous pensez qu’Apple ne permettra pas que ces outils soient utilisés à mauvais escient… il y a encore de nombreuses raisons de s’inquiéter. Ces systèmes s'appuient sur une base de données de « hachages multimédias problématiques » que vous, en tant que consommateur, ne pouvez pas consulter... Les hachages utilisent un nouvel algorithme de hachage neuronal exclusif développé par Apple et obtenu que NCMEC accepte d'utiliser... Nous ne savons pas grand-chose de cet algorithme. Et si quelqu'un pouvait provoquer des collisions.

Bien que l'algorithme soit actuellement formé pour détecter les CSAM, il pourrait être adapté pour analyser d'autres images ciblées. ou du texte, comme les panneaux antigouvernementaux, ce qui en fait un outil exceptionnellement utile pour les gouvernements autoritaires. Le précédent d'Apple pourrait également forcer d'autres géants de la technologie à proposer des fonctionnalités similaires, ce qui pourrait entraîner un cauchemar en matière de confidentialité.

Apple n'a pas encore partagé de réponse à ces préoccupations. Nous mettrons à jour cet article dès que la société publiera une déclaration. Pour plus d’informations sur la fonctionnalité de détection CSAM, suivez ce lien.