Το σχέδιο της Apple να σαρώσει τα iPhone για παιδική πορνογραφία ανησυχεί ορισμένους ειδικούς σε θέματα ασφάλειας

Το σχέδιο της Apple να σαρώσει τα iPhone για παιδική πορνογραφία έχει προκαλέσει ορισμένες σοβαρές ανησυχίες μεταξύ των ερευνητών ασφαλείας. Διαβάστε παρακάτω για να μάθετε περισσότερα.

Η Apple ανακοίνωσε πρόσφατα μερικές νέες δυνατότητες ασφάλειας για παιδιά για όλες τις πλατφόρμες λογισμικού της. Οι νέες δυνατότητες θα κυκλοφορήσουν με iOS 15, iPadOS 15, watchOS 8, και macOS Monterey στις ΗΠΑ αργότερα αυτό το έτος, και στοχεύουν μεταξύ άλλων να περιορίσουν τη διάδοση του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM). Ένα από τα νέα χαρακτηριστικά θα σαρώνει ουσιαστικά τα iPhone και τα iPad για CSAM και θα τα αναφέρει στο Εθνικό Κέντρο για τα εξαφανισμένα και υπό εκμετάλλευση παιδιά (NCMEC). Αν και η Apple αξιώσεις ότι η μέθοδος ανίχνευσης γνωστών CSAM "έχει σχεδιαστεί με γνώμονα το απόρρητο των χρηστών," έχει εγείρει ανησυχίες μεταξύ των ειδικών σε θέματα ασφάλειας.

Σύμφωνα με πρόσφατο Financial Timesκανω ΑΝΑΦΟΡΑ, ερευνητές ασφαλείας έχουν προειδοποιήσει ότι το νέο εργαλείο της Apple θα μπορούσε να χρησιμοποιηθεί κατάχρηση για παρακολούθηση, θέτοντας σε κίνδυνο τα προσωπικά στοιχεία εκατομμυρίων ανθρώπων. Η ανησυχία τους βασίζεται στα δεδομένα που μοιράστηκε η Apple με ορισμένους ακαδημαϊκούς των ΗΠΑ νωρίτερα αυτή την εβδομάδα. Δύο ανώνυμοι ερευνητές ασφαλείας που παρακολούθησαν την ενημέρωση της Apple αποκάλυψαν ότι το προτεινόμενο σύστημα -- που ονομάζεται "neuralMatch" -- θα ειδοποιούσε προληπτικά μια ομάδα ανθρώπων αναθεωρητών εάν εντοπίσει CSAM σε ένα iPhone ή iPad. Οι ανθρώπινοι αναθεωρητές θα επικοινωνήσουν στη συνέχεια με τις αρχές επιβολής του νόμου εάν είναι σε θέση να επαληθεύσουν το υλικό.

Αν και οι ερευνητές ασφαλείας υποστηρίζουν τις προσπάθειες της Apple να περιορίσει την εξάπλωση του CSAM, ορισμένοι έχουν εγείρει ανησυχίες σχετικά με τη δυνατότητα κακής χρήσης αυτού του εργαλείου από τις κυβερνήσεις για να αποκτήσουν πρόσβαση στους πολίτες τους δεδομένα. Ο Ross Anderson, Καθηγητής Μηχανικής Ασφαλείας στο Πανεπιστήμιο του Κέιμπριτζ, είπε: «Είναι μια απολύτως φρικτή ιδέα, γιατί πρόκειται να οδηγήσει σε κατανεμημένη μαζική επιτήρηση... τα τηλέφωνα και τους φορητούς μας υπολογιστές». Matthew Green, Καθηγητής Επιστήμης Υπολογιστών στο Ινστιτούτο Ασφάλειας Πληροφοριών Johns Hopkins, επίσης έθεσε την ανησυχία του στο Twitter και έγραψε:

Αλλά ακόμα κι αν πιστεύετε ότι η Apple δεν θα επιτρέψει την κακή χρήση αυτών των εργαλείων... υπάρχουν ακόμα πολλά που πρέπει να ανησυχείτε. Αυτά τα συστήματα βασίζονται σε μια βάση δεδομένων «προβληματικών κατακερματισμών πολυμέσων» που εσείς, ως καταναλωτής, δεν μπορείτε να ελέγξετε... Οι κατακερματισμοί χρησιμοποιούν έναν νέο και αποκλειστικό αλγόριθμο νευρωνικού κατακερματισμού που έχει αναπτύξει η Apple και πήρε το NCMEC να συμφωνήσει να χρησιμοποιήσει... Δεν γνωρίζουμε πολλά για αυτόν τον αλγόριθμο. Τι γίνεται αν κάποιος μπορεί να κάνει συγκρούσεις.

Ενώ ο αλγόριθμος είναι εκπαιδευμένος για να εντοπίζει CSAM, θα μπορούσε να προσαρμοστεί για να σαρώσει άλλες στοχευμένες εικόνες ή κείμενο, όπως τα αντικυβερνητικά σημάδια, καθιστώντας το ένα εξαιρετικά χρήσιμο εργαλείο για αυταρχικές κυβερνήσεις. Το προηγούμενο της Apple θα μπορούσε επίσης να αναγκάσει άλλους τεχνολογικούς γίγαντες να προσφέρουν παρόμοιες δυνατότητες, οδηγώντας ενδεχομένως σε έναν εφιάλτη απορρήτου.

Η Apple δεν έχει απαντήσει ακόμη σε αυτές τις ανησυχίες. Θα ενημερώσουμε αυτήν την ανάρτηση μόλις η εταιρεία δημοσιεύσει μια δήλωση. Για περισσότερες πληροφορίες σχετικά με τη δυνατότητα ανίχνευσης CSAM, ακολουθήστε αυτός ο σύνδεσμος.