Apple amână planul de a scana fotografiile iPhone pentru imagini de abuz asupra copiilor

Apple a amânat lansarea noilor funcții de siguranță pentru copii pe care le-a anunțat luna trecută ca răspuns la preocupările exprimate de experții în securitate.

La începutul lunii trecute, Apple a anunțat câteva noi funcții de siguranță pentru copii pentru toate platformele sale software. Una dintre noile funcții a fost concepută pentru a scana fotografiile iPhone și iPad pentru Materialul de abuz sexual asupra copiilor (CSAM). niste experții în securitate au exprimat îngrijorări despre această caracteristică, argumentând că guvernele ar putea să o utilizeze pentru a accesa datele cetățenilor lor. Deși Apple a susținut inițial că metoda sa de a detecta CSAM cunoscut nu a fost o amenințare pentru confidențialitatea utilizatorilor, compania și-a amânat acum lansarea.

Într-o declarație recentă (via 9to5Mac), Apple a spus:

„Luna trecută am anunțat planuri pentru funcții menite să protejeze copiii de prădătorii care folosesc instrumente de comunicare pentru recrutarea și exploatarea acestora și limitarea răspândirii materialelor de abuz sexual asupra copiilor. Pe baza feedback-ului de la clienți, grupuri de advocacy, cercetători și alții, am decis să acordăm timp suplimentar. lunile următoare pentru a colecta informații și a face îmbunătățiri înainte de a lansa aceste siguranțe pentru copii de importanță critică Caracteristici."

Apple a plănuit anterior să lanseze noile funcții de siguranță pentru copii ca parte a iOS 15, iPadOS 15, și macOS Monterey actualizări. Cu toate acestea, actualizările nu vor include noua funcție de siguranță pentru copii când vor fi lansate mai târziu în acest an. Momentan, Apple nu a împărtășit o cronologie provizorie pentru lansare și nu a oferit detalii cu privire la modificările pe care intenționează să le facă pentru a aborda preocupările legate de confidențialitate.

În termeni simpli, funcția de scanare CSAM de la Apple, în starea sa actuală, potrivește fotografiile de pe iPhone sau iPad cu o bază de date de imagini CSAM cunoscute furnizate de organizațiile pentru siguranța copiilor. Dacă detectează orice CSAM pe un dispozitiv, poate alerta în mod proactiv o echipă de evaluatori umani care pot contacta forțele de ordine după verificarea materialului. Cercetătorii în domeniul securității susțin că, deși algoritmul este în prezent antrenat pentru a detecta CSAM, ar putea fi adaptat pentru a scana alte imagini sau text, făcându-l un instrument valoros pentru guvernele autoritare.