Apple odloži načrt skeniranja fotografij iPhone za podobe zlorabe otrok

Apple je odložil uvedbo novih varnostnih funkcij za otroke, ki jih je napovedal prejšnji mesec kot odgovor na pomisleke varnostnih strokovnjakov.

V začetku prejšnjega meseca je Apple objavil nekaj novih varnostnih funkcij za otroke za vse svoje programske platforme. Ena od novih funkcij je bila zasnovana za skeniranje fotografij iPhone in iPad za material o spolni zlorabi otrok (CSAM). nekaj varnostni strokovnjaki izrazili pomisleke o tej funkciji in trdi, da bi jo vlade lahko uporabile za dostop do podatkov svojih državljanov. Čeprav je Apple sprva trdil, da njegova metoda odkrivanja znanih CSAM ne ogroža zasebnosti uporabnikov, je podjetje zdaj preložilo njeno lansiranje.

V nedavni izjavi (prek 9to5Mac), Apple je dejal:

"Prejšnji mesec smo objavili načrte za funkcije, namenjene zaščiti otrok pred plenilci, ki uporabljajo komunikacijska orodja za njihovo novačenje in izkoriščanje ter omejitev širjenja gradiva o spolni zlorabi otrok. Na podlagi povratnih informacij strank, zagovorniških skupin, raziskovalcev in drugih smo se odločili, da si vzamemo dodaten čas prihodnje mesece za zbiranje prispevkov in izboljšave, preden izdamo te kritično pomembne varnosti otrok Lastnosti."

Apple je že prej načrtoval izdajo novih varnostnih funkcij za otroke kot del iOS 15, iPadOS 15, in macOS Monterey posodobitve. Vendar pa posodobitve ne bodo vključevale nove funkcije za varnost otrok, ko bodo uvedene pozneje letos. Apple trenutno ni delil okvirnega časovnega načrta za uvedbo in ni zagotovil nobenih podrobnosti o spremembah, ki jih namerava izvesti za reševanje pomislekov glede zasebnosti.

Preprosto povedano, Applova funkcija skeniranja CSAM v trenutnem stanju ujema fotografije na vašem iPhonu ali iPadu z bazo podatkov znanih slik CSAM, ki jih zagotavljajo organizacije za varnost otrok. Če zazna kakršno koli CSAM v napravi, lahko proaktivno opozori skupino človeških pregledovalcev, ki se lahko po preverjanju gradiva obrnejo na organe pregona. Varnostni raziskovalci trdijo, da čeprav je algoritem trenutno usposobljen za odkrivanje CSAM, ga je mogoče prilagoditi za iskanje drugih slik ali besedila, zaradi česar je dragoceno orodje za avtoritarne vlade.