Il piano di Apple di scansionare gli iPhone alla ricerca di pornografia infantile preoccupa alcuni esperti di sicurezza

Il piano di Apple di scansionare gli iPhone alla ricerca di pornografia infantile ha sollevato gravi preoccupazioni tra i ricercatori di sicurezza. Continuate a leggere per saperne di più.

Apple ha recentemente annunciato un paio di nuove funzionalità di sicurezza per bambini per tutte le sue piattaforme software. Le nuove funzionalità verranno implementate con iOS15, iPadOS15, watchOS 8, E macOS Monterey negli Stati Uniti entro la fine dell’anno e mirano, tra le altre cose, a limitare la diffusione di materiale pedopornografico (CSAM). Una delle nuove funzionalità scansionerà essenzialmente iPhone e iPad alla ricerca di materiale pedopornografico e li segnalerà al Centro nazionale per i bambini scomparsi e sfruttati (NCMEC). Sebbene Apple affermazioni che il suo metodo per rilevare materiale pedopornografico noto "è progettato pensando alla privacy dell'utente," ha sollevato preoccupazioni tra gli esperti di sicurezza.

Secondo un recente Financial Timesrapporto, i ricercatori di sicurezza hanno avvertito che il nuovo strumento di Apple potrebbe essere utilizzato in modo improprio per la sorveglianza, mettendo a rischio le informazioni personali di milioni di persone. La loro preoccupazione si basa sui dati che Apple ha condiviso con alcuni accademici statunitensi all’inizio di questa settimana. Due anonimi ricercatori sulla sicurezza che hanno partecipato al briefing di Apple hanno rivelato che il sistema proposto... chiamato "neuralMatch" - avvisa in modo proattivo un team di revisori umani se rileva materiale pedopornografico su un iPhone o iPad. I revisori umani contatteranno quindi le forze dell'ordine se saranno in grado di verificare il materiale.

Sebbene i ricercatori sulla sicurezza sostengano gli sforzi di Apple per limitare la diffusione di materiale pedopornografico, alcuni hanno sollevato critiche preoccupazioni riguardo al potenziale utilizzo improprio di questo strumento da parte dei governi per ottenere l'accesso ai propri cittadini dati. Ross Anderson, professore di ingegneria della sicurezza presso l'Università di Cambridge, ha affermato: "È un'idea assolutamente spaventosa, perché porterà a una sorveglianza di massa distribuita di... i nostri telefoni e computer portatili." Anche Matthew Green, professore di informatica presso il Johns Hopkins Information Security Institute ha espresso la sua preoccupazione su Twitter e ha scritto:

Ma anche se credi che Apple non permetterà che questi strumenti vengano utilizzati in modo improprio... c'è ancora molto di cui preoccuparsi. Questi sistemi si basano su un database di "hash multimediali problematici" che tu, come consumatore, non puoi rivedere... Gli hash utilizzano un nuovo algoritmo di hashing neurale proprietario che Apple ha sviluppato e ha ottenuto che NCMEC accetti di utilizzare... Non sappiamo molto di questo algoritmo. E se qualcuno potesse fare collisioni?

Sebbene l’algoritmo sia attualmente addestrato per individuare materiale pedopornografico, potrebbe essere adattato per scansionare altre immagini mirate o testo, come i segnali antigovernativi, rendendolo uno strumento eccezionalmente utile per i governi autoritari. Il precedente di Apple potrebbe anche costringere altri giganti della tecnologia a offrire funzionalità simili, risultando potenzialmente in un incubo per la privacy.

Apple deve ancora condividere una risposta a queste preoccupazioni. Aggiorneremo questo post non appena la società rilascerà una dichiarazione. Per ulteriori informazioni sulla funzionalità di rilevamento di materiale pedopornografico, seguire questo link.