Apples plan att skanna iPhones efter barnporr oroar vissa säkerhetsexperter

Apples plan att skanna iPhones efter barnporr har väckt några allvarliga farhågor bland säkerhetsforskare. Läs vidare för att lära dig mer.

Apple tillkännagav nyligen ett par nya barnsäkerhetsfunktioner för alla sina mjukvaruplattformar. De nya funktionerna kommer att rullas ut med iOS 15, iPadOS 15, watchOS 8, och macOS Monterey i USA senare i år, och de syftar till att begränsa spridningen av barnsexuella övergreppsmaterial (CSAM), bland annat. En av de nya funktionerna kommer i huvudsak att skanna iPhones och iPads efter CSAM och rapportera dem till National Center for Missing and Exploited Children (NCMEC). Även om Apple påståenden att dess metod för att detektera känd CSAM "är utformad med användarens integritet i åtanke," det har väckt oro bland säkerhetsexperter.

Enligt en färsk Ekonomiska tiderRapportera, har säkerhetsforskare varnat för att Apples nya verktyg kan missbrukas för övervakning, vilket utsätter miljontals människors personliga information i fara. Deras oro är baserad på de uppgifter som Apple delade med några amerikanska akademiker tidigare i veckan. Två icke namngivna säkerhetsforskare som deltog i Apples briefing har avslöjat att det föreslagna systemet -- kallad "neuralMatch" -- skulle proaktivt varna ett team av mänskliga granskare om det upptäcker CSAM på en iPhone eller iPad. De mänskliga granskarna kommer sedan att kontakta brottsbekämpning om de kan verifiera materialet.

Även om säkerhetsforskare stöder Apples ansträngningar att begränsa spridningen av CSAM, har vissa tagit upp oro över möjligheten att detta verktyg missbrukas av regeringar för att få tillgång till sina medborgares data. Ross Anderson, professor i säkerhetsteknik vid University of Cambridge, sa: "Det är en helt skrämmande idé, eftersom den kommer att leda till distribuerad bulkövervakning av... våra telefoner och bärbara datorer." Matthew Green, professor i datavetenskap vid Johns Hopkins Information Security Institute, också väckte sin oro på Twitter och skrev:

Men även om du tror att Apple inte kommer att tillåta att dessa verktyg missbrukas... finns det fortfarande mycket att oroa sig för. Dessa system förlitar sig på en databas med "problematiska mediahaschar" som du som konsument inte kan granska... Hashes använder en ny och proprietär neural hashalgoritm som Apple har utvecklat och fått NCMEC att gå med på att använda... Vi vet inte mycket om denna algoritm. Tänk om någon kan göra kollisioner.

Även om algoritmen för närvarande är tränad för att upptäcka CSAM, kan den anpassas för att skanna andra riktade bilder eller text, som anti-regeringsskyltar, vilket gör det till ett exceptionellt användbart verktyg för auktoritära regeringar. Apples prejudikat kan också tvinga andra teknikjättar att erbjuda liknande funktioner, vilket potentiellt kan resultera i en integritetsmardröm.

Apple har ännu inte delat ett svar på dessa farhågor. Vi kommer att uppdatera det här inlägget så snart företaget släpper ett uttalande. För mer information om CSAM-detekteringsfunktionen, följ den här länken.