Apples plan om at scanne iPhones for børneporno bekymrer nogle sikkerhedseksperter

click fraud protection

Apples plan om at scanne iPhones for børneporno har rejst nogle alvorlige bekymringer blandt sikkerhedsforskere. Læs videre for at lære mere.

Apple annoncerede for nylig et par nye børnesikkerhedsfunktioner til alle deres softwareplatforme. De nye funktioner udrulles med iOS 15, iPadOS 15, watchOS 8, og macOS Monterey i USA senere på året, og de har til formål at begrænse udbredelsen af ​​Child Sexual Abuse Material (CSAM), blandt andet. En af de nye funktioner vil i det væsentlige scanne iPhones og iPads for CSAM og rapportere dem til National Center for Missing and Exploited Children (NCMEC). Selvom Apple påstande at dens metode til at detektere kendt CSAM "er designet med brugernes privatliv i tankerne," det har givet anledning til bekymring blandt sikkerhedseksperter.

Ifølge en nylig Financial Timesrapport, har sikkerhedsforskere advaret om, at Apples nye værktøj kan blive misbrugt til overvågning, hvilket bringer millioner af menneskers personlige oplysninger i fare. Deres bekymring er baseret på de data, Apple delte med nogle amerikanske akademikere tidligere på ugen. To unavngivne sikkerhedsforskere, der deltog i Apples briefing, har afsløret, at det foreslåede system -- kaldet "neuralMatch" -- ville proaktivt advare et team af menneskelige anmeldere, hvis det opdager CSAM på en iPhone eller iPad. De menneskelige anmeldere vil derefter kontakte retshåndhævelsen, hvis de er i stand til at verificere materialet.

Selvom sikkerhedsforskere støtter Apples bestræbelser på at begrænse spredningen af ​​CSAM, har nogle rejst bekymringer om potentialet i, at dette værktøj bliver misbrugt af regeringer til at få adgang til deres borgeres data. Ross Anderson, professor i sikkerhedsteknik ved University of Cambridge, sagde: "Det er en helt rystende idé, fordi den vil føre til distribueret bulkovervågning af... vores telefoner og bærbare computere." Matthew Green, professor i datalogi ved Johns Hopkins Information Security Institute, også rejste sin bekymring på Twitter og skrev:

Men selvom du tror, ​​at Apple ikke vil tillade, at disse værktøjer misbruges... er der stadig meget at bekymre sig om. Disse systemer er afhængige af en database med "problematiske mediehashes", som du som forbruger ikke kan gennemgå... Hashes bruger en ny og proprietær neural hashing-algoritme, som Apple har udviklet, og fik NCMEC til at acceptere at bruge... Vi ved ikke meget om denne algoritme. Hvad hvis nogen kan lave kollisioner.

Selvom algoritmen i øjeblikket er trænet til at spotte CSAM, kan den tilpasses til at scanne andre målrettede billeder eller tekst, som anti-regeringsskilte, hvilket gør det til et usædvanligt nyttigt værktøj for autoritære regeringer. Apples præcedens kan også tvinge andre teknologigiganter til at tilbyde lignende funktioner, hvilket potentielt kan resultere i et privatlivsmareridt.

Apple har endnu ikke givet et svar på disse bekymringer. Vi opdaterer dette indlæg, så snart virksomheden udsender en erklæring. For mere information om CSAM-detektionsfunktionen, følg dette link.