„Apple“ atideda planą nuskaityti „iPhone“ nuotraukas, kad būtų galima nuskaityti vaikų prievartos vaizdų

click fraud protection

„Apple“ atidėjo naujų vaikų saugos funkcijų, apie kurias paskelbė praėjusį mėnesį, diegimą, reaguodama į saugumo ekspertų susirūpinimą.

Praėjusio mėnesio pradžioje „Apple“ paskelbė keletą naujų vaikų saugos funkcijų visoms savo programinės įrangos platformoms. Viena iš naujų funkcijų buvo skirta nuskaityti „iPhone“ ir „iPad“ nuotraukas, kad būtų ieškoma vaikų seksualinės prievartos medžiagos (CSAM). Kai kurie saugumo ekspertai išreiškė susirūpinimą apie šią funkciją, teigdamas, kad vyriausybės galėtų ją naudoti siekdamos pasiekti savo piliečių duomenis. Nors iš pradžių „Apple“ teigė, kad žinomas CSAM aptikimo metodas nekelia grėsmės vartotojų privatumui, dabar bendrovė atidėjo jo pristatymą.

Neseniai paskelbtame pareiškime (per 9to 5Mac), Apple pasakė:

„Praėjusį mėnesį paskelbėme apie planus dėl funkcijų, skirtų apsaugoti vaikus nuo besinaudojančių plėšrūnų komunikacijos priemones, skirtas juos įdarbinti ir išnaudoti bei apriboti seksualinės prievartos prieš vaikus medžiagos plitimą. Atsižvelgdami į klientų, advokatų grupių, tyrėjų ir kitų atsiliepimus, nusprendėme skirti daugiau laiko ateinančiais mėnesiais surinkti informaciją ir atlikti patobulinimus prieš išleidžiant šiuos itin svarbius vaikų saugos klausimus funkcijos."

„Apple“ anksčiau planavo išleisti naujas vaikų saugos funkcijas kaip dalį iOS 15, iPadOS 15, ir MacOS Monterey atnaujinimus. Tačiau į atnaujinimus nebus įtraukta nauja vaikų saugos funkcija, kai jie bus pristatyti vėliau šiais metais. Šiuo metu „Apple“ nepaskelbė preliminaraus išleidimo laiko juostos ir nepateikė jokios informacijos apie pakeitimus, kuriuos planuoja atlikti siekdama išspręsti privatumo problemas.

Paprastais žodžiais tariant, „Apple“ CSAM nuskaitymo funkcija, esanti dabartinei būsenai, suderina jūsų iPhone ar iPad nuotraukas su žinomų CSAM vaizdų duomenų baze, kurią teikia vaikų saugos organizacijos. Jei įrenginyje aptinka bet kokį CSAM, jis gali aktyviai įspėti žmonių tikrintojų komandą, kuri, patikrinusi medžiagą, gali susisiekti su teisėsauga. Saugumo tyrinėtojai teigia, kad nors algoritmas šiuo metu yra apmokytas aptikti CSAM, jis gali būti pritaikytas nuskaityti kitus vaizdus ar tekstą, todėl tai yra vertinga priemonė autoritarinėms vyriausybėms.