Η Apple καθυστερεί το σχέδιο σάρωσης φωτογραφιών iPhone για εικόνες κακοποίησης παιδιών

Η Apple καθυστέρησε την κυκλοφορία των νέων χαρακτηριστικών ασφαλείας για παιδιά που ανακοίνωσε τον περασμένο μήνα ως απάντηση στις ανησυχίες που εξέφρασαν οι ειδικοί σε θέματα ασφάλειας.

Στις αρχές του περασμένου μήνα, η Apple ανακοίνωσε μερικές νέες δυνατότητες ασφάλειας για παιδιά για όλες τις πλατφόρμες λογισμικού της. Μία από τις νέες δυνατότητες σχεδιάστηκε για τη σάρωση φωτογραφιών iPhone και iPad για υλικό σεξουαλικής κακοποίησης παιδιών (CSAM). Μερικοί εμπειρογνώμονες ασφαλείας εξέφρασαν ανησυχίες σχετικά με αυτό το χαρακτηριστικό, υποστηρίζοντας ότι οι κυβερνήσεις θα μπορούσαν ενδεχομένως να το χρησιμοποιήσουν για να έχουν πρόσβαση στα δεδομένα των πολιτών τους. Αν και η Apple αρχικά ισχυρίστηκε ότι η μέθοδος ανίχνευσης γνωστών CSAM δεν αποτελούσε απειλή για το απόρρητο των χρηστών, η εταιρεία έχει τώρα αναβάλει την κυκλοφορία της.

Σε πρόσφατη δήλωση (μέσω 9 έως 5 Mac), η Apple είπε:

«Τον περασμένο μήνα ανακοινώσαμε σχέδια για λειτουργίες που προορίζονται να βοηθήσουν στην προστασία των παιδιών από τα αρπακτικά που χρησιμοποιούν εργαλεία επικοινωνίας για τη στρατολόγηση και την εκμετάλλευσή τους και τον περιορισμό της διάδοσης υλικού σεξουαλικής κακοποίησης παιδιών. Με βάση τα σχόλια από πελάτες, ομάδες υπεράσπισης, ερευνητές και άλλους, αποφασίσαμε να αφιερώσουμε επιπλέον χρόνο τους επόμενους μήνες για να συλλέξετε στοιχεία και να κάνετε βελτιώσεις πριν κυκλοφορήσετε αυτά τα κρίσιμα στοιχεία για την ασφάλεια των παιδιών χαρακτηριστικά."

Η Apple σχεδίαζε προηγουμένως να κυκλοφορήσει τα νέα χαρακτηριστικά ασφάλειας για τα παιδιά ως μέρος του iOS 15, iPadOS 15, και macOS Monterey ενημερώσεις. Ωστόσο, οι ενημερώσεις δεν θα περιλαμβάνουν τη νέα λειτουργία ασφάλειας για τα παιδιά όταν κυκλοφορήσουν αργότερα φέτος. Προς το παρόν, η Apple δεν έχει κοινοποιήσει ένα δοκιμαστικό χρονοδιάγραμμα για την κυκλοφορία και δεν έχει παράσχει λεπτομέρειες σχετικά με τις αλλαγές που σχεδιάζει να κάνει για να αντιμετωπίσει τα προβλήματα απορρήτου.

Με απλά λόγια, η δυνατότητα σάρωσης CSAM της Apple, στην τρέχουσα κατάστασή της, αντιστοιχίζει τις φωτογραφίες στο iPhone ή το iPad σας με μια βάση δεδομένων γνωστών εικόνων CSAM που παρέχονται από οργανισμούς ασφάλειας παιδιών. Εάν εντοπίσει οποιοδήποτε CSAM σε μια συσκευή, μπορεί να ειδοποιήσει προληπτικά μια ομάδα ανθρώπινων αναθεωρητών που μπορούν να επικοινωνήσουν με την επιβολή του νόμου μετά την επαλήθευση του υλικού. Οι ερευνητές ασφαλείας υποστηρίζουν ότι, ενώ ο αλγόριθμος είναι εκπαιδευμένος για την ανίχνευση CSAM, θα μπορούσε να προσαρμοστεί για σάρωση για άλλες εικόνες ή κείμενο, καθιστώντας τον πολύτιμο εργαλείο για αυταρχικές κυβερνήσεις.