Applov načrt za skeniranje iPhonov za otroško pornografijo je vzbudil nekaj resnih pomislekov med varnostnimi raziskovalci. Berite naprej, če želite izvedeti več.
Apple je pred kratkim objavil nekaj novih varnostnih funkcij za otroke za vse svoje programske platforme. Nove funkcije bodo uvedene z iOS 15, iPadOS 15, watchOS 8, in macOS Monterey v ZDA pozneje letos, njihov cilj pa je med drugim omejiti širjenje gradiva o spolni zlorabi otrok (CSAM). Ena od novih funkcij bo v bistvu skenirala iPhone in iPad za CSAM in jih prijavila Nacionalnemu centru za pogrešane in izkoriščane otroke (NCMEC). Čeprav Apple terjatve da je njegova metoda odkrivanja znanega CSAM "je zasnovan z mislijo na zasebnost uporabnikov," to je vzbudilo pomisleke med varnostnimi strokovnjaki.
Glede na nedavno Financial Timesporočilo, so varnostni raziskovalci opozorili, da bi lahko Applovo novo orodje zlorabili za nadzor, s čimer bi ogrozili osebne podatke milijonov ljudi. Njihova zaskrbljenost temelji na podatkih, ki jih je Apple v začetku tega tedna delil z nekaterimi ameriškimi akademiki. Dva neimenovana varnostna raziskovalca, ki sta se udeležila Applovega sestanka, sta razkrila, da predlagani sistem -- imenovan "neuralMatch" -- bi proaktivno opozoril skupino človeških pregledovalcev, če zazna CSAM na iPhonu ali iPad. Človeški pregledovalci bodo nato stopili v stik z organi pregona, če bodo lahko preverili gradivo.
Čeprav varnostni raziskovalci podpirajo Applova prizadevanja za omejitev širjenja CSAM, so nekateri dvignili zaskrbljenost zaradi možnosti, da bi vlade zlorabile to orodje za dostop do svojih državljanov podatke. Ross Anderson, profesor varnostnega inženiringa na Univerzi v Cambridgeu, je dejal, "To je popolnoma grozljiva zamisel, saj bo privedla do porazdeljenega množičnega nadzora nad... naših telefonov in prenosnikov." Tudi Matthew Green, profesor računalništva na Inštitutu za informacijsko varnost Johns Hopkins vzbudil njegovo zaskrbljenost na Twitterju in zapisal:
Toda tudi če verjamete, da Apple ne bo dovolil zlorabe teh orodij... je še vedno veliko razlogov za skrb. Ti sistemi se zanašajo na bazo podatkov "problematičnih medijskih zgoščencev", ki jih vi kot potrošnik ne morete pregledati... Zgoščevanja uporabljajo nov in lasten nevronski algoritem zgoščevanja, ki ga je razvil Apple in NCMEC dosegel, da se strinja z uporabo... O tem algoritmu ne vemo veliko. Kaj pa, če lahko nekdo naredi trke.
Medtem ko je algoritem trenutno usposobljen za odkrivanje CSAM, bi ga lahko prilagodili za skeniranje drugih ciljnih posnetkov ali besedilo, kot so znaki proti vladi, zaradi česar je izjemno uporabno orodje za avtoritarne vlade. Applov precedens bi lahko tudi prisilil druge tehnološke velikane, da ponudijo podobne funkcije, kar bi lahko povzročilo nočno moro glede zasebnosti.
Apple še ni delil odgovora na te pomisleke. To objavo bomo posodobili takoj, ko bo podjetje izdalo izjavo. Za več informacij o funkciji zaznavanja CSAM sledite ta povezava.