Apple odgađa planiranje skeniranja iPhone fotografija u potrazi za slikama zlostavljanja djece

Apple je odgodio uvođenje novih sigurnosnih značajki za djecu koje je najavio prošli mjesec kao odgovor na zabrinutost stručnjaka za sigurnost.

Početkom prošlog mjeseca Apple je najavio nekoliko novih sigurnosnih značajki za djecu za sve svoje softverske platforme. Jedna od novih značajki osmišljena je za skeniranje fotografija iPhonea i iPada u potrazi za materijalom o seksualnom zlostavljanju djece (CSAM). Neki stručnjaci za sigurnost izrazili su zabrinutost o ovoj značajci, tvrdeći da bi je vlade potencijalno mogle koristiti za pristup podacima svojih građana. Iako je Apple isprva tvrdio da njegova metoda otkrivanja poznatog CSAM-a nije prijetnja privatnosti korisnika, tvrtka je sada odgodila njezino lansiranje.

U nedavnoj izjavi (putem 9to5Mac), Apple je rekao:

"Prošlog mjeseca najavili smo planove za značajke namijenjene zaštiti djece od predatora koji koriste komunikacijske alate za njihovo novačenje i iskorištavanje te ograničavanje širenja materijala o seksualnom zlostavljanju djece. Na temelju povratnih informacija od kupaca, skupina za zagovaranje, istraživača i drugih, odlučili smo uzeti dodatno vrijeme sljedećih mjeseci za prikupljanje informacija i uvođenje poboljšanja prije objavljivanja ovih kritično važnih pitanja za sigurnost djece značajke."

Apple je ranije planirao objaviti nove sigurnosne značajke za djecu kao dio iOS 15, iPadOS 15, i macOS Monterey nadopune. Međutim, ažuriranja neće uključivati ​​novu značajku sigurnosti djece kada budu predstavljena kasnije ove godine. Trenutačno Apple nije podijelio okvirni vremenski okvir za uvođenje i nije pružio nikakve pojedinosti u vezi s promjenama koje planira učiniti kako bi riješio pitanja privatnosti.

Jednostavno rečeno, Appleova značajka CSAM skeniranja, u svom trenutnom stanju, spaja fotografije na vašem iPhoneu ili iPadu s bazom podataka poznatih CSAM slika koje su osigurale organizacije za sigurnost djece. Ako otkrije CSAM na uređaju, može proaktivno upozoriti tim ljudskih pregledatelja koji mogu kontaktirati policiju nakon provjere materijala. Istraživači sigurnosti tvrde da, iako je algoritam trenutno uvježban za otkrivanje CSAM-a, mogao bi se prilagoditi za skeniranje drugih slika ili teksta, što ga čini vrijednim alatom za autoritarne vlade.