Apple kavējas plānu skenēt iPhone fotoattēlus, lai atrastu attēlus, kuros ir attēlota vardarbība pret bērniem

click fraud protection

Apple ir aizkavējusi jauno bērnu drošības līdzekļu ieviešanu, par ko tā paziņoja pagājušajā mēnesī, reaģējot uz drošības ekspertu paustajām bažām.

Pagājušā mēneša sākumā Apple paziņoja par pāris jauniem bērnu drošības līdzekļiem visās tās programmatūras platformās. Viena no jaunajām funkcijām bija paredzēta iPhone un iPad fotoattēlu skenēšanai, lai atrastu bērnu seksuālās vardarbības materiālu (CSAM). Dažas drošības eksperti pauda bažas par šo funkciju, apgalvojot, ka valdības varētu to izmantot, lai piekļūtu savu pilsoņu datiem. Lai gan sākotnēji Apple apgalvoja, ka tā zināmo CSAM noteikšanas metode neapdraud lietotāju privātumu, uzņēmums tagad ir atlicis tās palaišanu.

Nesenā paziņojumā (caur 9-5Mac), Apple teica:

"Pagājušajā mēnesī mēs paziņojām par plāniem attiecībā uz funkcijām, kas paredzētas, lai palīdzētu aizsargāt bērnus no plēsējiem, kas tos izmanto saziņas rīki, lai viņus vervētu un izmantotu, kā arī ierobežotu bērnu seksuālas izmantošanas materiāla izplatību. Pamatojoties uz atsauksmēm no klientiem, interešu aizstāvības grupām, pētniekiem un citiem, esam nolēmuši veltīt papildu laiku nākamajos mēnešos, lai apkopotu informāciju un veiktu uzlabojumus pirms šo ļoti svarīgo bērnu drošības izlaišanas Iespējas."

Apple iepriekš plānoja izlaist jaunos bērnu drošības līdzekļus kā daļu no iOS 15, iPadOS 15, un MacOS Montereja atjauninājumus. Tomēr atjauninājumos netiks iekļauta jaunā bērnu drošības funkcija, kad tie tiks ieviesti vēlāk šogad. Pašlaik Apple nav kopīgojis provizorisku ieviešanas laika grafiku, un tas nav sniedzis nekādu informāciju par izmaiņām, kuras tas plāno veikt, lai novērstu privātuma problēmas.

Vienkārši izsakoties, Apple CSAM skenēšanas funkcija savā pašreizējā stāvoklī saskaņo fotoattēlus jūsu iPhone vai iPad ar zināmo CSAM attēlu datubāzi, ko nodrošina bērnu drošības organizācijas. Ja tas ierīcē konstatē CSAM, tas var proaktīvi brīdināt pārbaudītāju komandu, kas pēc materiāla pārbaudes var sazināties ar tiesībaizsardzības iestādēm. Drošības pētnieki apgalvo, ka, lai gan algoritms pašlaik ir apmācīts atklāt CSAM, to varētu pielāgot citu attēlu vai teksta skenēšanai, padarot to par vērtīgu rīku autoritārām valdībām.