Apples Plan, iPhones auf Kinderpornografie zu scannen, beunruhigt einige Sicherheitsexperten

click fraud protection

Apples Plan, iPhones auf Kinderpornografie zu scannen, hat bei Sicherheitsforschern große Bedenken hervorgerufen. Lesen Sie weiter, um mehr zu erfahren.

Apple hat kürzlich einige neue Kindersicherheitsfunktionen für alle seine Softwareplattformen angekündigt. Die neuen Funktionen werden mit eingeführt iOS 15, iPadOS 15, watchOS 8, Und macOS Monterey in den USA später in diesem Jahr, und sie zielen unter anderem darauf ab, die Verbreitung von Material zum sexuellen Missbrauch von Kindern (Child Sexual Abuse Material, CSAM) einzudämmen. Eine der neuen Funktionen besteht im Wesentlichen darin, iPhones und iPads auf CSAM zu scannen und sie dem National Center for Missing and Exploited Children (NCMEC) zu melden. Obwohl Apple Ansprüche dass seine Methode zur Erkennung bekannter CSAM „ist unter Berücksichtigung der Privatsphäre der Benutzer konzipiert," Es hat bei Sicherheitsexperten Bedenken hervorgerufen.

Laut einer aktuellen Financial TimesBerichtSicherheitsforscher haben davor gewarnt, dass Apples neues Tool zur Überwachung missbraucht werden könnte und die persönlichen Daten von Millionen Menschen gefährdet. Ihre Besorgnis beruht auf den Daten, die Apple Anfang dieser Woche mit einigen US-Akademikern geteilt hat. Zwei namentlich nicht genannte Sicherheitsforscher, die an Apples Briefing teilnahmen, haben enthüllt, dass das vorgeschlagene System – namens „neuralMatch“ – würde ein Team menschlicher Prüfer proaktiv alarmieren, wenn es CSAM auf einem iPhone erkennt oder iPad. Die menschlichen Prüfer wenden sich dann an die Strafverfolgungsbehörden, wenn sie das Material überprüfen können.

Obwohl Sicherheitsforscher die Bemühungen von Apple unterstützen, die Verbreitung von CSAM einzudämmen, haben einige Bedenken geäußert Bedenken hinsichtlich der Möglichkeit, dass dieses Tool von Regierungen missbraucht wird, um Zugang zu den Daten ihrer Bürger zu erhalten Daten. Ross Anderson, Professor für Sicherheitstechnik an der Universität Cambridge, sagte: „Es ist eine absolut entsetzliche Idee, denn sie wird zu einer verteilten Massenüberwachung von … führen.“ unsere Telefone und Laptops. Matthew Green, Professor für Informatik am Johns Hopkins Information Security Institute, ebenfalls äußerte seine Besorgnis auf Twitter und schrieb:

Aber selbst wenn Sie glauben, dass Apple den Missbrauch dieser Tools nicht zulassen wird, gibt es dennoch viel Grund zur Sorge. Diese Systeme basieren auf einer Datenbank mit „problematischen Medien-Hashes“, die Sie als Verbraucher nicht überprüfen können... Hashes verwenden einen neuen und proprietären neuronalen Hashing-Algorithmus, den Apple entwickelt hat und NCMEC dazu gebracht hat, der Verwendung zuzustimmen... Wir wissen nicht viel über diesen Algorithmus. Was ist, wenn jemand Kollisionen verursachen kann?

Während der Algorithmus derzeit darauf trainiert ist, CSAM zu erkennen, könnte er auch für das Scannen anderer gezielter Bilder angepasst werden oder Text, wie regierungsfeindliche Schilder, was es zu einem äußerst nützlichen Werkzeug für autoritäre Regierungen macht. Der Präzedenzfall von Apple könnte auch andere Technologiegiganten dazu zwingen, ähnliche Funktionen anzubieten, was möglicherweise zu einem Albtraum für die Privatsphäre führen könnte.

Apple hat noch keine Antwort auf diese Bedenken gegeben. Wir werden diesen Beitrag aktualisieren, sobald das Unternehmen eine Stellungnahme veröffentlicht. Weitere Informationen zur CSAM-Erkennungsfunktion finden Sie hier dieser Link.