Appleov plan da skenira iPhone na dječju pornografiju zabrinjava neke sigurnosne stručnjake

click fraud protection

Appleov plan da skenira iPhone na dječju pornografiju izazvao je ozbiljne zabrinutosti među sigurnosnim istraživačima. Čitajte dalje kako biste saznali više.

Apple je nedavno najavio nekoliko novih sigurnosnih značajki za djecu za sve svoje softverske platforme. Nove značajke bit će uvedene s iOS 15, iPadOS 15, watchOS 8, i macOS Monterey u SAD-u kasnije ove godine, a cilj im je, između ostalog, ograničiti širenje materijala o seksualnom zlostavljanju djece (CSAM). Jedna od novih značajki u biti će skenirati iPhone i iPad uređaje na CSAM i prijaviti ih Nacionalnom centru za nestalu i zlostavljanu djecu (NCMEC). Iako Apple zahtjevi da je njegova metoda otkrivanja poznatog CSAM-a "osmišljen je imajući na umu privatnost korisnika," izazvalo je zabrinutost među sigurnosnim stručnjacima.

Prema nedavnom Financial Timesizvješće, sigurnosni istraživači upozorili su da bi se Appleov novi alat mogao zloupotrijebiti za nadzor, dovodeći u opasnost osobne podatke milijuna ljudi. Njihova zabrinutost temelji se na podacima koje je Apple podijelio s nekim američkim akademicima ranije ovog tjedna. Dva neimenovana sigurnosna istraživača koja su prisustvovala Appleovom brifingu otkrila su da predloženi sustav -- pod nazivom "neuralMatch" -- proaktivno bi upozorio tim ljudskih pregledatelja ako otkrije CSAM na iPhoneu ili iPad. Ljudski recenzenti tada će kontaktirati policiju ako mogu provjeriti materijal.

Iako sigurnosni istraživači podržavaju Appleove napore da ograniči širenje CSAM-a, neki su podigli zabrinutost zbog mogućnosti zlouporabe ovog alata od strane vlada kako bi dobile pristup podacima svojih građana podaci. Ross Anderson, profesor sigurnosnog inženjerstva na Sveučilištu Cambridge, rekao je, "To je apsolutno užasna ideja, jer će dovesti do distribuiranog masovnog nadzora... naše telefone i prijenosna računala." Matthew Green, profesor informatike na Institutu za informacijsku sigurnost Johns Hopkins, također izazvao njegovu zabrinutost na Twitteru i napisao:

Ali čak i ako vjerujete da Apple neće dopustiti zlouporabu ovih alata...još uvijek postoji mnogo razloga za zabrinutost. Ovi se sustavi oslanjaju na bazu podataka "problematičnih medijskih hashova" koje vi, kao potrošač, ne možete pregledati... Hashevi koriste novi i vlasnički algoritam za neuronsko raspršivanje koji je razvio Apple i natjerao NCMEC da pristane na korištenje... Ne znamo puno o ovom algoritmu. Što ako netko može napraviti sudare.

Iako je algoritam trenutno uvježban za uočavanje CSAM-a, mogao bi se prilagoditi za skeniranje drugih ciljanih slika ili tekst, poput znakova protiv vlade, što ga čini iznimno korisnim alatom za autoritarne vlade. Appleov presedan također bi mogao natjerati druge tehnološke divove da ponude slične značajke, što bi potencijalno moglo rezultirati noćnom morom privatnosti.

Apple tek treba dati odgovor na ove zabrinutosti. Ažurirat ćemo ovu objavu čim tvrtka objavi izjavu. Za više informacija o značajci otkrivanja CSAM-a, slijedite ovaj link.