Apple'i plaan skaneerida iPhone'e lapsporno leidmiseks on tekitanud turvauurijate seas tõsist muret. Lisateabe saamiseks lugege edasi.
Apple teatas hiljuti paarist uuest laste turvafunktsioonist kõigi oma tarkvaraplatvormide jaoks. Uued funktsioonid võetakse kasutusele koos iOS 15, iPadOS 15, watchOS 8ja macOS Monterey USA-s hiljem sel aastal ja nende eesmärk on muu hulgas piirata laste seksuaalse kuritarvitamise materjali (CSAM) levikut. Üks uutest funktsioonidest skannib sisuliselt iPhone'e ja iPade CSAM-i tuvastamiseks ja teatab neist riiklikule kadunud ja ärakasutatud laste keskusele (NCMEC). Kuigi Apple väited et see meetod teadaoleva CSAM-i tuvastamiseks "on loodud kasutaja privaatsust silmas pidades," see on tekitanud julgeolekuekspertide seas muret.
Vastavalt hiljutisele Financial Timesaruanne, on turvateadlased hoiatanud, et Apple'i uut tööriista võidakse kuritarvitada jälgimiseks, seades ohtu miljonite inimeste isikliku teabe. Nende mure põhineb andmetel, mida Apple selle nädala alguses mõne USA akadeemikuga jagas. Kaks Apple'i briifingul osalenud nimetut turvateadlast on paljastanud, et kavandatav süsteem nimega "neuralMatch" – hoiataks ennetavalt ülevaatajate meeskonda, kui see tuvastab iPhone'is või CSAM-i. iPad. Inimestest ülevaatajad võtavad seejärel ühendust õiguskaitseorganitega, kui nad saavad materjali kontrollida.
Kuigi turvateadlased toetavad Apple'i püüdlusi piirata CSAM-i levikut, on mõned seda tõstatanud on mures selle pärast, et valitsused võivad seda vahendit oma kodanikele juurdepääsu saamiseks kuritarvitada andmeid. Cambridge'i ülikooli turvatehnika professor Ross Anderson ütles: "See on täiesti kohutav idee, sest see toob kaasa hajutatud hulgivalve... meie telefonid ja sülearvutid." Matthew Green, Johns Hopkinsi infoturbeinstituudi arvutiteaduse professor väljendas oma muret Twitteris ja kirjutas:
Kuid isegi kui arvate, et Apple ei luba neid tööriistu kuritarvitada, on ikka veel palju põhjust muretsemiseks. Need süsteemid tuginevad "probleemsete meediaräside" andmebaasile, mida teie kui tarbija ei saa üle vaadata... Räsid kasutavad uut ja patenteeritud närviräsimisalgoritmi, mille Apple on välja töötanud ja NCMECi nõustus kasutama... Me ei tea sellest algoritmist palju. Mis siis, kui keegi võib kokkupõrkeid teha.
Kuigi algoritm on praegu CSAM-i tuvastamiseks koolitatud, saab seda kohandada muude sihitud kujutiste skannimiseks või tekst, nagu valitsusvastased sildid, muutes selle autoritaarsete valitsuste jaoks erakordselt kasulikuks tööriistaks. Apple'i pretsedent võib sundida ka teisi tehnoloogiahiiglasi pakkuma sarnaseid funktsioone, mis võib põhjustada privaatsusunenägu.
Apple ei ole veel neile muredele vastust jaganud. Värskendame seda postitust niipea, kui ettevõte avaldab avalduse. CSAM-i tuvastamise funktsiooni kohta lisateabe saamiseks järgige see link.