Apple lükkab edasi plaani skannida iPhone'i fotosid laste väärkohtlemise kujutiste tuvastamiseks

Apple lükkas eelmisel kuul teatavaks tehtud uute laste turvafunktsioonide kasutuselevõtu edasi, vastuseks turvaekspertide tõstatatud muredele.

Eelmise kuu alguses teatas Apple paarist uuest laste turvafunktsioonist kõikidele oma tarkvaraplatvormidele. Üks uutest funktsioonidest oli mõeldud iPhone'i ja iPadi fotode skannimiseks laste seksuaalse kuritarvitamise materjali (CSAM) tuvastamiseks. Mõned turvaeksperdid väljendasid muret selle funktsiooni kohta, väites, et valitsused võiksid seda potentsiaalselt kasutada oma kodanike andmetele juurdepääsuks. Kuigi Apple väitis algselt, et tema tuntud CSAM-i tuvastamise meetod ei ohusta kasutajate privaatsust, on ettevõte nüüd selle käivitamist edasi lükanud.

Hiljutises avalduses (via 9 kuni 5Mac), Apple ütles:

"Eelmisel kuul teatasime funktsioonide plaanidest, mis aitavad kaitsta lapsi kasutavate kiskjate eest suhtlusvahendid nende värbamiseks ja ärakasutamiseks ning laste seksuaalse kuritarvitamise materjali leviku piiramiseks. Klientide, huvirühmade, teadlaste ja teiste tagasiside põhjal oleme otsustanud võtta lisaaega järgmistel kuudel, et koguda sisendit ja teha parandusi enne nende kriitilise tähtsusega laste turvalisuse avaldamist Funktsioonid."

Apple kavatses varem välja anda uued laste turvafunktsioonid osana iOS 15, iPadOS 15ja macOS Monterey uuendused. Kuid värskendused ei sisalda uut laste turvafunktsiooni, kui need selle aasta lõpus kasutusele võetakse. Praegu ei ole Apple jaganud kasutuselevõtu esialgset ajakava ega esitanud üksikasju muudatuste kohta, mida ta kavatseb privaatsusprobleemide lahendamiseks teha.

Lihtsamalt öeldes sobitab Apple'i CSAM-i skannimise funktsioon oma praeguses olekus teie iPhone'is või iPadis olevad fotod lastekaitseorganisatsioonide pakutud teadaolevate CSAM-piltide andmebaasiga. Kui see tuvastab seadmes CSAM-i, võib see ennetavalt hoiatada ülevaatajate meeskonda, kes saavad pärast materjali kinnitamist õiguskaitseorganitega ühendust võtta. Turvateadlased väidavad, et kuigi algoritm on praegu koolitatud CSAM-i tuvastamiseks, saab seda kohandada muude kujutiste või tekstide otsimiseks, muutes selle autoritaarsete valitsuste jaoks väärtuslikuks tööriistaks.