Apple utsetter planen om å skanne iPhone-bilder for bilder av overgrep mot barn

Apple har forsinket utrullingen av de nye barnesikkerhetsfunksjonene som de annonserte forrige måned som svar på bekymringer reist av sikkerhetseksperter.

Tidlig i forrige måned annonserte Apple et par nye barnesikkerhetsfunksjoner for alle sine programvareplattformer. En av de nye funksjonene ble utviklet for å skanne iPhone- og iPad-bilder for materiale om seksuelt misbruk av barn (CSAM). Noen sikkerhetseksperter reiste bekymringer om denne funksjonen, og argumenterer for at regjeringer potensielt kan bruke den for å få tilgang til innbyggernes data. Selv om Apple i utgangspunktet hevdet at metoden for å oppdage kjent CSAM ikke var en trussel mot brukernes personvern, har selskapet nå utsatt lanseringen.

I en nylig uttalelse (via 9to5Mac), Apple sa:

«Siste måned kunngjorde vi planer for funksjoner beregnet på å beskytte barn mot rovdyr som bruker kommunikasjonsverktøy for å rekruttere og utnytte dem, og begrense spredningen av materiale om seksuelle overgrep mot barn. Basert på tilbakemeldinger fra kunder, påvirkningsgrupper, forskere og andre, har vi bestemt oss for å ta ekstra tid de kommende månedene for å samle inn innspill og gjøre forbedringer før disse kritisk viktige barnesikkerhetene frigjøres egenskaper."

Apple har tidligere planlagt å lansere de nye barnesikkerhetsfunksjonene som en del av iOS 15, iPadOS 15, og macOS Monterey oppdateringer. Oppdateringene vil imidlertid ikke inkludere den nye barnesikkerhetsfunksjonen når de lanseres senere i år. For øyeblikket har ikke Apple delt en foreløpig tidslinje for utrullingen, og den har ikke gitt noen detaljer om endringene de planlegger å gjøre for å møte personvernhensyn.

Enkelt sagt, Apples CSAM-skannefunksjon, i sin nåværende tilstand, matcher bilder på iPhone eller iPad med en database med kjente CSAM-bilder levert av barnesikkerhetsorganisasjoner. Hvis den oppdager CSAM på en enhet, kan den proaktivt varsle et team av menneskelige anmeldere som kan kontakte politiet etter å ha verifisert materialet. Sikkerhetsforskere hevder at selv om algoritmen for tiden er opplært til å oppdage CSAM, kan den tilpasses for å skanne etter andre bilder eller tekst, noe som gjør den til et verdifullt verktøy for autoritære myndigheter.