Het plan van Apple om iPhones te scannen op kinderporno baart sommige beveiligingsexperts zorgen

click fraud protection

Het plan van Apple om iPhones te scannen op kinderporno heeft tot ernstige zorgen geleid onder beveiligingsonderzoekers. Lees verder voor meer informatie.

Apple heeft onlangs een aantal nieuwe kinderveiligheidsfuncties aangekondigd voor al zijn softwareplatforms. De nieuwe functies worden uitgerold met iOS 15, iPadOS 15, bekijk OS 8, En macOS Monterey in de VS later dit jaar, en ze willen onder meer de verspreiding van materiaal over seksueel misbruik van kinderen (CSAM) beperken. Een van de nieuwe functies zal in wezen iPhones en iPads scannen op CSAM en deze rapporteren aan het National Center for Missing and Exploited Children (NCMEC). Hoewel Appel beweringen dat het de methode is om bekende CSAM op te sporen "is ontworpen met de privacy van gebruikers in gedachten," het heeft tot bezorgdheid geleid onder veiligheidsexperts.

Volgens een recente Financiële tijdenrapportBeveiligingsonderzoekers hebben gewaarschuwd dat de nieuwe tool van Apple kan worden misbruikt voor surveillance, waardoor de persoonlijke informatie van miljoenen mensen in gevaar komt. Hun bezorgdheid is gebaseerd op de gegevens die Apple eerder deze week met enkele Amerikaanse academici heeft gedeeld. Twee niet bij naam genoemde beveiligingsonderzoekers die de briefing van Apple bijwoonden, hebben onthuld dat het voorgestelde systeem - genaamd "neuralMatch" - zou proactief een team van menselijke recensenten waarschuwen als het CSAM detecteert op een iPhone of iPad. De menselijke beoordelaars zullen vervolgens contact opnemen met de politie als ze het materiaal kunnen verifiëren.

Hoewel beveiligingsonderzoekers de inspanningen van Apple ondersteunen om de verspreiding van CSAM te beperken, hebben sommigen dit naar voren gebracht zorgen over het potentieel dat dit instrument door regeringen wordt misbruikt om toegang te krijgen tot die van hun burgers gegevens. Ross Anderson, hoogleraar beveiligingstechniek aan de Universiteit van Cambridge, zei: “Het is een absoluut weerzinwekkend idee, omdat het zal leiden tot gedistribueerde grootschalige surveillance van... onze telefoons en laptops.” Matthew Green, hoogleraar computerwetenschappen aan het Johns Hopkins Information Security Institute, eveneens uitte zijn bezorgdheid op Twitter en schreef:

Maar zelfs als je denkt dat Apple niet zal toestaan ​​dat deze tools worden misbruikt... is er nog steeds veel om je zorgen over te maken. Deze systemen zijn afhankelijk van een database met ‘problematische media-hashes’ die jij als consument niet kunt bekijken... Hashes gebruiken een nieuw en eigen neuraal hash-algoritme dat Apple heeft ontwikkeld, en heeft NCMEC zover gekregen om ermee in te stemmen... We weten niet veel over dit algoritme. Wat als iemand botsingen kan maken?

Hoewel het algoritme momenteel is getraind om CSAM te herkennen, zou het kunnen worden aangepast om ander gericht beeldmateriaal te scannen of tekst, zoals anti-regeringsborden, waardoor het een uitzonderlijk nuttig instrument is voor autoritaire regeringen. Het precedent van Apple zou andere technologiegiganten ook kunnen dwingen vergelijkbare functies aan te bieden, wat mogelijk kan resulteren in een privacy-nachtmerrie.

Apple heeft nog geen reactie op deze zorgen gedeeld. We zullen dit bericht bijwerken zodra het bedrijf een verklaring vrijgeeft. Voor meer informatie over de CSAM-detectiefunctie volgt u deze link.