Planul Apple de a scana iPhone-urile pentru pornografie infantilă a stârnit unele îngrijorări grave în rândul cercetătorilor de securitate. Citiți mai departe pentru a afla mai multe.
Apple a anunțat recent câteva noi funcții de siguranță pentru copii pentru toate platformele sale software. Noile funcții vor fi lansate cu iOS 15, iPadOS 15, watchOS 8, și macOS Monterey în SUA, la sfârșitul acestui an, și au scopul de a limita răspândirea Materialului de abuz sexual asupra copiilor (CSAM), printre altele. Una dintre noile funcții va scana, în esență, iPhone-urile și iPad-urile pentru CSAM și le va raporta Centrului Național pentru Copii Dispăruți și Exploatați (NCMEC). Deși Apple creanțe că metoda sa de a detecta CSAM cunoscut „Este concepută având în vedere confidențialitatea utilizatorului," a stârnit îngrijorări în rândul experților în securitate.
Potrivit unui recent Timpuri financiareraport, cercetătorii de securitate au avertizat că noul instrument Apple ar putea fi folosit abuziv pentru supraveghere, punând în pericol informațiile personale ale milioane de oameni. Îngrijorarea lor se bazează pe datele pe care Apple le-a împărtășit unor academicieni americani la începutul acestei săptămâni. Doi cercetători de securitate anonimi care au participat la briefingul Apple au dezvăluit că sistemul propus -- numită „neuralMatch” – ar alerta în mod proactiv o echipă de evaluatori umani dacă detectează CSAM pe un iPhone sau iPad. Evaluatorii umani vor contacta apoi forțele de ordine dacă pot verifica materialul.
Deși cercetătorii în securitate susțin eforturile Apple de a limita răspândirea CSAM, unii au ridicat problema îngrijorări cu privire la potențialul ca acest instrument să fie utilizat abuziv de către guverne pentru a avea acces la cel al cetățenilor lor date. Ross Anderson, profesor de inginerie de securitate la Universitatea din Cambridge, a spus: „Este o idee absolut îngrozitoare, pentru că va duce la supravegherea în vrac distribuită a... telefoanele și laptopurile noastre.” Matthew Green, profesor de informatică la Institutul de Securitate a Informațiilor Johns Hopkins, de asemenea și-a exprimat îngrijorarea pe Twitter și a scris:
Dar chiar dacă credeți că Apple nu va permite utilizarea greșită a acestor instrumente... mai sunt multe de îngrijorat. Aceste sisteme se bazează pe o bază de date de „hash-uri media problematice” pe care tu, în calitate de consumator, nu le poți revizui... Hashurile folosesc un algoritm de hashing neuronal nou și proprietar pe care l-a dezvoltat Apple și a făcut ca NCMEC să accepte să folosească... Nu știm prea multe despre acest algoritm. Dacă cineva poate face ciocniri.
În timp ce algoritmul este antrenat în prezent pentru a identifica CSAM, ar putea fi adaptat pentru a scana alte imagini vizate sau text, precum semnele antiguvernamentale, făcându-l un instrument excepțional de util pentru guvernele autoritare. Precedentul Apple ar putea forța și alți giganți ai tehnologiei să ofere caracteristici similare, ceea ce ar putea duce la un coșmar de confidențialitate.
Apple încă nu a distribuit un răspuns la aceste preocupări. Vom actualiza această postare de îndată ce compania emite o declarație. Pentru mai multe informații despre caracteristica de detectare CSAM, urmați acest link.