Apple ha ritardato il lancio delle nuove funzionalità di sicurezza dei bambini annunciate il mese scorso in risposta alle preoccupazioni sollevate dagli esperti di sicurezza.
All'inizio del mese scorso, Apple ha annunciato un paio di nuove funzionalità di sicurezza per bambini per tutte le sue piattaforme software. Una delle nuove funzionalità è stata progettata per scansionare le foto di iPhone e iPad alla ricerca di materiale pedopornografico (CSAM). Alcuni gli esperti di sicurezza hanno sollevato preoccupazioni riguardo a questa funzionalità, sostenendo che i governi potrebbero potenzialmente utilizzarla per accedere ai dati dei propri cittadini. Sebbene Apple avesse inizialmente affermato che il suo metodo di rilevamento di materiale pedopornografico noto non costituiva una minaccia per la privacy degli utenti, l'azienda ha ora rinviato il suo lancio.
In una recente dichiarazione (via 9to5Mac), Apple ha detto:
"Il mese scorso abbiamo annunciato piani per funzionalità destinate a proteggere i bambini dai predatori che ne fanno uso strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale pedopornografico. Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare ulteriore tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste informazioni di fondamentale importanza per la sicurezza dei bambini caratteristiche."
Apple aveva precedentemente pianificato di rilasciare le nuove funzionalità di sicurezza dei bambini come parte del iOS15, iPadOS15, E macOS Monterey aggiornamenti. Tuttavia, gli aggiornamenti non includeranno la nuova funzionalità di sicurezza dei bambini quando verranno lanciati entro la fine dell'anno. Al momento, Apple non ha condiviso una tempistica provvisoria per il lancio e non ha fornito alcun dettaglio riguardante le modifiche che intende apportare per affrontare i problemi di privacy.
In termini semplici, la funzionalità di scansione CSAM di Apple, nel suo stato attuale, abbina le foto sul tuo iPhone o iPad con un database di immagini CSAM note fornito da organizzazioni per la sicurezza dei bambini. Se rileva materiale pedopornografico su un dispositivo, può avvisare in modo proattivo un team di revisori umani che possono contattare le forze dell'ordine dopo aver verificato il materiale. I ricercatori di sicurezza sostengono che, sebbene l’algoritmo sia attualmente addestrato per rilevare materiale pedopornografico, potrebbe essere adattato per cercare altre immagini o testi, rendendolo uno strumento prezioso per i governi autoritari.