Apple försenar planen på att skanna iPhone-foton efter bilder av barnmisshandel

click fraud protection

Apple har försenat lanseringen av de nya barnsäkerhetsfunktionerna som de tillkännagav förra månaden som svar på farhågor från säkerhetsexperter.

I början av förra månaden tillkännagav Apple ett par nya barnsäkerhetsfunktioner för alla sina mjukvaruplattformar. En av de nya funktionerna utformades för att skanna iPhone- och iPad-foton efter material för sexuellt övergrepp mot barn (CSAM). Några säkerhetsexperter uttryckte oro om denna funktion, med argumentet att regeringar potentiellt skulle kunna använda den för att komma åt sina medborgares data. Även om Apple från början hävdade att dess metod för att upptäcka känd CSAM inte var ett hot mot användarnas integritet, har företaget nu skjutit upp lanseringen.

I ett nyligen uttalat (via 9to5Mac), sa Apple:

"Förra månaden tillkännagav vi planer för funktioner som är avsedda att skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem, och begränsa spridningen av material för sexuella övergrepp mot barn. Baserat på feedback från kunder, påverkansgrupper, forskare och andra har vi beslutat att ta ytterligare tid över de kommande månaderna för att samla in synpunkter och göra förbättringar innan man släpper dessa kritiskt viktiga barnsäkerhet Funktioner."

Apple planerade tidigare att släppa de nya barnsäkerhetsfunktionerna som en del av iOS 15, iPadOS 15, och macOS Monterey uppdateringar. Uppdateringarna kommer dock inte att inkludera den nya barnsäkerhetsfunktionen när de rullas ut senare i år. För tillfället har Apple inte delat en preliminär tidslinje för utbyggnaden, och det har inte lämnat några detaljer om de ändringar man planerar att göra för att ta itu med integritetsproblemen.

Enkelt uttryckt matchar Apples CSAM-skanningsfunktion, i sitt nuvarande tillstånd, foton på din iPhone eller iPad med en databas med kända CSAM-bilder från barnsäkerhetsorganisationer. Om den upptäcker någon CSAM på en enhet kan den proaktivt varna ett team av mänskliga granskare som kan kontakta brottsbekämpande myndigheter efter att ha verifierat materialet. Säkerhetsforskare hävdar att även om algoritmen för närvarande är tränad för att upptäcka CSAM, kan den anpassas för att skanna efter andra bilder eller text, vilket gör den till ett värdefullt verktyg för auktoritära regeringar.