Apple hat die Einführung der neuen Kindersicherheitsfunktionen, die es letzten Monat angekündigt hatte, als Reaktion auf Bedenken von Sicherheitsexperten verzögert.
Anfang letzten Monats kündigte Apple einige neue Kindersicherheitsfunktionen für alle seine Softwareplattformen an. Eine der neuen Funktionen war zum Scannen von iPhone- und iPad-Fotos auf Material zum sexuellen Missbrauch von Kindern (Child Sexual Abuse Material, CSAM) konzipiert. Manche Sicherheitsexperten äußerten Bedenken über diese Funktion und argumentierte, dass Regierungen sie möglicherweise nutzen könnten, um auf die Daten ihrer Bürger zuzugreifen. Obwohl Apple zunächst behauptete, dass seine Methode zur Erkennung bekannter CSAM keine Gefahr für die Privatsphäre der Benutzer darstelle, hat das Unternehmen die Einführung nun verschoben.
In einer aktuellen Stellungnahme (via 9to5Mac), Apple sagte:
„Letzten Monat haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Raubtieren zu schützen Kommunikationsmittel zur Rekrutierung und Ausbeutung von Kindern und zur Begrenzung der Verbreitung von Material über sexuellen Missbrauch von Kindern. Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns zusätzliche Zeit zu nehmen In den kommenden Monaten werden wir Input sammeln und Verbesserungen vornehmen, bevor wir diese äußerst wichtigen Sicherheitsmaßnahmen für Kinder veröffentlichen Merkmale."
Apple hatte zuvor geplant, die neuen Kindersicherheitsfunktionen als Teil des zu veröffentlichen iOS 15, iPadOS 15, Und macOS Monterey Aktualisierung. Allerdings werden die Updates bei ihrer Einführung später in diesem Jahr nicht die neue Kindersicherheitsfunktion enthalten. Derzeit hat Apple keinen vorläufigen Zeitplan für die Einführung bekannt gegeben und keine Details zu den Änderungen bekannt gegeben, die es zur Behebung der Datenschutzbedenken plant.
Einfach ausgedrückt gleicht die CSAM-Scanfunktion von Apple in ihrem aktuellen Zustand Fotos auf Ihrem iPhone oder iPad mit einer Datenbank bekannter CSAM-Bilder ab, die von Kindersicherheitsorganisationen bereitgestellt wird. Wenn es CSAM auf einem Gerät erkennt, kann es proaktiv ein Team menschlicher Prüfer alarmieren, das sich nach der Überprüfung des Materials an die Strafverfolgungsbehörden wenden kann. Sicherheitsforscher argumentieren, dass der Algorithmus zwar derzeit darauf trainiert ist, CSAM zu erkennen, er jedoch auch so angepasst werden könnte, dass er nach anderen Bildern oder Texten sucht, was ihn zu einem wertvollen Werkzeug für autoritäre Regierungen macht.