Apple stelt plan uit om iPhone-foto's te scannen op beelden van kindermisbruik

Apple heeft de uitrol van de nieuwe kinderveiligheidsfuncties die het vorige maand aankondigde uitgesteld als reactie op zorgen van beveiligingsexperts.

Begin vorige maand kondigde Apple een aantal nieuwe kinderveiligheidsfuncties aan voor al zijn softwareplatforms. Een van de nieuwe functies is ontworpen om iPhone- en iPad-foto's te scannen op materiaal van seksueel misbruik van kinderen (CSAM). Sommige veiligheidsexperts hebben hun zorgen geuit over deze functie, met het argument dat overheden deze mogelijk zouden kunnen gebruiken om toegang te krijgen tot de gegevens van hun burgers. Hoewel Apple aanvankelijk beweerde dat zijn methode om bekend CSAM te detecteren geen bedreiging vormde voor de privacy van gebruikers, heeft het bedrijf de lancering nu uitgesteld.

In een recente verklaring (via 9to5Mac), zei Apple:

"Vorige maand hebben we plannen aangekondigd voor functies die bedoeld zijn om kinderen te beschermen tegen roofdieren die er gebruik van maken communicatiemiddelen om hen te rekruteren en uit te buiten, en de verspreiding van materiaal over seksueel misbruik van kinderen te beperken. Op basis van feedback van klanten, belangengroepen, onderzoekers en anderen hebben we besloten extra tijd uit te trekken de komende maanden om input te verzamelen en verbeteringen aan te brengen voordat deze van cruciaal belang zijnde kinderveiligheid wordt vrijgegeven functies."

Apple was eerder van plan de nieuwe kinderveiligheidsfuncties uit te brengen als onderdeel van de iOS 15, iPadOS 15, En macOS Monterey updates. De updates zullen echter niet de nieuwe kinderveiligheidsfunctie bevatten wanneer ze later dit jaar worden uitgerold. Op dit moment heeft Apple nog geen voorlopige tijdlijn voor de uitrol gedeeld, en het heeft ook geen details gegeven over de veranderingen die het van plan is door te voeren om de privacyproblemen aan te pakken.

In eenvoudige bewoordingen vergelijkt de CSAM-scanfunctie van Apple, in de huidige staat, foto's op uw iPhone of iPad met een database met bekende CSAM-afbeeldingen die zijn verstrekt door kinderveiligheidsorganisaties. Als het CSAM op een apparaat detecteert, kan het proactief een team van menselijke beoordelaars waarschuwen die contact kunnen opnemen met de politie nadat ze het materiaal hebben geverifieerd. Beveiligingsonderzoekers stellen dat hoewel het algoritme momenteel is getraind om CSAM te detecteren, het kan worden aangepast om te scannen op ander beeldmateriaal of tekst, waardoor het een waardevol hulpmiddel wordt voor autoritaire regeringen.