Kai kuriems saugumo ekspertams kelia nerimą „Apple“ planas nuskaityti „iPhone“, ar nėra vaikų pornografijos

click fraud protection

„Apple“ planas nuskaityti „iPhone“ telefonus dėl vaikų pornografijos sukėlė rimtų saugumo tyrinėtojų susirūpinimą. Skaitykite toliau, kad sužinotumėte daugiau.

„Apple“ neseniai paskelbė apie keletą naujų vaikų saugos funkcijų visoms savo programinės įrangos platformoms. Naujos funkcijos bus įdiegtos kartu su iOS 15, iPadOS 15, watchOS 8, ir MacOS Monterey vėliau šiais metais JAV ir, be kita ko, siekiama apriboti vaikų seksualinės prievartos medžiagos (CSAM) plitimą. Viena iš naujų funkcijų iš esmės nuskaitys „iPhone“ ir „iPad“ dėl CSAM ir praneš apie juos Nacionaliniam dingusių ir išnaudojamų vaikų centrui (NCMEC). Nors Apple pretenzijas kad jos žinomo CSAM aptikimo metodas "sukurta atsižvelgiant į vartotojo privatumą," ji sukėlė susirūpinimą saugumo ekspertams.

Pagal neseniai Finansiniai laikaiataskaita, saugumo tyrinėtojai perspėjo, kad naujasis „Apple“ įrankis gali būti netinkamai naudojamas stebėjimui, todėl gali kilti pavojus milijonams žmonių asmeninei informacijai. Jų susirūpinimas grindžiamas duomenimis, kuriuos „Apple“ anksčiau šią savaitę pasidalino su kai kuriais JAV mokslininkais. Du neįvardinti saugumo tyrinėtojai, dalyvavę „Apple“ instruktaže, atskleidė, kad siūloma sistema vadinamas „neuralMatch“ – aktyviai įspėtų žmonių tikrintojų komandą, jei aptiktų CSAM „iPhone“ arba iPad. Žmonių tikrintojai susisieks su teisėsauga, jei galės patikrinti medžiagą.

Nors saugumo tyrinėtojai palaiko „Apple“ pastangas apriboti CSAM plitimą, kai kurie iškėlė nerimauja, kad vyriausybės gali piktnaudžiauti šia priemone siekdamos gauti prieigą prie savo piliečių duomenis. Rossas Andersonas, Kembridžo universiteto saugumo inžinerijos profesorius, sakė: „Tai absoliučiai pasibaisėtina idėja, nes ji paskatins paskirstytą masinį... mūsų telefonai ir nešiojamieji kompiuteriai“. Matthew Greenas, Johnso Hopkinso informacijos saugumo instituto kompiuterių mokslų profesorius išreiškė savo susirūpinimą „Twitter“ tinkle ir rašė:

Bet net jei manote, kad „Apple“ neleis piktnaudžiauti šiais įrankiais... vis tiek reikia susirūpinti. Šios sistemos remiasi „probleminių žiniasklaidos maišų“ duomenų baze, kurios jūs, kaip vartotojas, negalite peržiūrėti... Maiša naudoja naują ir patentuotą neuronų maišos algoritmą, kurį sukūrė „Apple“, ir gavo NCMEC, kad sutiktų naudoti... Mes mažai žinome apie šį algoritmą. Ką daryti, jei kas nors gali susidurti.

Nors šiuo metu algoritmas yra išmokytas aptikti CSAM, jis gali būti pritaikytas nuskaityti kitus tikslinius vaizdus arba tekstas, kaip antivyriausybiniai ženklai, todėl tai yra ypač naudinga priemonė autoritarinėms vyriausybėms. „Apple“ precedentas taip pat gali priversti kitus technologijų milžinus pasiūlyti panašias funkcijas, o tai gali sukelti privatumo košmarą.

„Apple“ dar nepateikė atsakymo į šiuos rūpesčius. Atnaujinsime šį įrašą, kai tik bendrovė paskelbs pranešimą. Norėdami gauti daugiau informacijos apie CSAM aptikimo funkciją, žr šią nuorodą.