Apple plāns iPhone tālruņos skenēt bērnu pornogrāfiju satrauc dažus drošības ekspertus

click fraud protection

Apple plāns iPhone tālruņos skenēt bērnu pornogrāfiju ir radījis nopietnas bažas drošības pētnieku vidū. Lasiet tālāk, lai uzzinātu vairāk.

Apple nesen paziņoja par pāris jauniem bērnu drošības līdzekļiem visās tās programmatūras platformās. Jaunās funkcijas tiks ieviestas ar iOS 15, iPadOS 15, watchOS 8, un MacOS Montereja ASV vēlāk šogad, un to mērķis ir cita starpā ierobežot bērnu seksuālās vardarbības materiāla (CSAM) izplatību. Viena no jaunajām funkcijām būtībā pārbaudīs iPhone un iPad, lai noteiktu CSAM, un ziņos par tām Nacionālajam pazudušo un izmantoto bērnu centram (NCMEC). Lai gan Apple pretenzijas ka tā zināmā CSAM noteikšanas metode "ir izstrādāts, paturot prātā lietotāju privātumu," tas ir radījis bažas drošības ekspertos.

Saskaņā ar neseno Financial TimesZiņot, drošības pētnieki ir brīdinājuši, ka Apple jaunais rīks var tikt ļaunprātīgi izmantots novērošanai, pakļaujot riskam miljoniem cilvēku personīgās informācijas. Viņu bažas ir balstītas uz datiem, ko Apple šīs nedēļas sākumā dalījās ar dažiem ASV akadēmiķiem. Divi vārdā neminēti drošības pētnieki, kas piedalījās Apple instruktāžā, atklāja, ka piedāvātā sistēma - ko sauc par "neuralMatch" — proaktīvi brīdinātu cilvēku recenzentu komandu, ja tā iPhone vai iPhone tālrunī konstatē CSAM. iPad. Personiskie pārskatītāji pēc tam sazināsies ar tiesībaizsardzības iestādēm, ja varēs pārbaudīt materiālu.

Lai gan drošības pētnieki atbalsta Apple centienus ierobežot CSAM izplatību, daži to ir izvirzījuši pauž bažas par to, ka valdības varētu ļaunprātīgi izmantot šo rīku, lai piekļūtu saviem pilsoņiem datus. Ross Andersons, Kembridžas universitātes drošības inženieru profesors, sacīja: "Tā ir absolūti šausminoša ideja, jo tā novedīs pie izplatītas lielapjoma novērošanas... mūsu tālruņi un klēpjdatori." Metjū Grīns, Džona Hopkinsa Informācijas drošības institūta datorzinātņu profesors, arī pauda bažas Twitter un rakstīja:

Bet pat tad, ja uzskatāt, ka Apple neļaus ļaunprātīgi izmantot šos rīkus, joprojām ir daudz ko uztraukties. Šīs sistēmas balstās uz "problemātisko multivides jaucējkodu" datubāzi, kuru jūs kā patērētājs nevarat pārskatīt... Jaucējkodi izmanto jaunu un patentētu neironu jaukšanas algoritmu, ko Apple ir izstrādājis, un panāca, ka NCMEC piekrīt izmantot... Mēs neko daudz nezinām par šo algoritmu. Ko darīt, ja kāds var izraisīt sadursmes.

Lai gan algoritms pašlaik ir apmācīts, lai pamanītu CSAM, to varētu pielāgot citu atlasītu attēlu skenēšanai. vai tekstu, piemēram, pret valdību vērstas zīmes, padarot to par īpaši noderīgu instrumentu autoritārām valdībām. Apple precedents varētu arī piespiest citus tehnoloģiju gigantus piedāvāt līdzīgas funkcijas, kas, iespējams, var izraisīt privātuma murgu.

Apple vēl nav atbildējusi uz šīm bažām. Mēs atjaunināsim šo ziņu, tiklīdz uzņēmums publicēs paziņojumu. Lai iegūtu papildinformāciju par CSAM noteikšanas funkciju, veiciet tālāk norādītās darbības šo saiti.