Apples plan om å skanne iPhones for barneporno bekymrer noen sikkerhetseksperter

click fraud protection

Apples plan om å skanne iPhones for barneporno har vakt noen alvorlige bekymringer blant sikkerhetsforskere. Les videre for å lære mer.

Apple annonserte nylig et par nye barnesikkerhetsfunksjoner for alle programvareplattformene sine. De nye funksjonene vil rulle ut med iOS 15, iPadOS 15, watchOS 8, og macOS Monterey i USA senere i år, og de har som mål å begrense spredningen av blant annet Child Sexual Abuse Material (CSAM). En av de nye funksjonene vil i hovedsak skanne iPhones og iPads for CSAM og rapportere dem til National Center for Missing and Exploited Children (NCMEC). Selv om Apple påstander at dens metode for å oppdage kjent CSAM "er designet med brukerens personvern i tankene," det har vakt bekymring blant sikkerhetseksperter.

Ifølge en fersk Financial Timesrapportere, har sikkerhetsforskere advart om at Apples nye verktøy kan bli misbrukt til overvåking, og sette millioner av menneskers personlige opplysninger i fare. Bekymringen deres er basert på dataene Apple delte med noen amerikanske akademikere tidligere denne uken. To ikke navngitte sikkerhetsforskere som deltok på Apples orientering har avslørt at det foreslåtte systemet -- kalt "neuralMatch" -- vil proaktivt varsle et team av menneskelige anmeldere hvis det oppdager CSAM på en iPhone eller iPad. De menneskelige anmelderne vil deretter kontakte politiet hvis de er i stand til å bekrefte materialet.

Selv om sikkerhetsforskere støtter Apples innsats for å begrense spredningen av CSAM, har noen tatt opp bekymringer om potensialet til at dette verktøyet blir misbrukt av myndigheter for å få tilgang til sine borgeres data. Ross Anderson, professor i sikkerhetsteknikk ved University of Cambridge, sa: "Det er en helt forferdelig idé, fordi den kommer til å føre til distribuert bulkovervåking av... våre telefoner og bærbare datamaskiner." Matthew Green, professor i informatikk ved Johns Hopkins Information Security Institute, også reiste sin bekymring på Twitter og skrev:

Men selv om du tror at Apple ikke vil tillate at disse verktøyene misbrukes... er det fortsatt mye å bekymre seg for. Disse systemene er avhengige av en database med "problematiske mediehasher" som du som forbruker ikke kan se gjennom... Hashes bruker en ny og proprietær nevral hashing-algoritme Apple har utviklet, og fikk NCMEC til å gå med på å bruke... Vi vet ikke mye om denne algoritmen. Hva om noen kan gjøre kollisjoner.

Selv om algoritmen for øyeblikket er opplært til å oppdage CSAM, kan den tilpasses for å skanne andre målrettede bilder eller tekst, som anti-regjeringsskilt, noe som gjør det til et usedvanlig nyttig verktøy for autoritære regjeringer. Apples presedens kan også tvinge andre teknologigiganter til å tilby lignende funksjoner, noe som potensielt kan resultere i et personvernmareritt.

Apple har ennå ikke gitt svar på disse bekymringene. Vi oppdaterer dette innlegget så snart selskapet gir ut en uttalelse. For mer informasjon om CSAM-deteksjonsfunksjonen, følg denne lenken.