Applen suunnitelma tarkistaa iPhonet lapsipornon varalta huolestuttaa joitakin turvallisuusasiantuntijoita

click fraud protection

Applen suunnitelma skannata iPhonet lapsipornon varalta on herättänyt vakavia huolia turvallisuustutkijoissa. Lue lisää saadaksesi lisätietoja.

Apple julkisti äskettäin pari uutta lasten turvatoimintoa kaikille ohjelmistoalustoilleen. Uudet ominaisuudet otetaan käyttöön iOS 15, iPadOS 15, watchOS 8, ja macOS Monterey Yhdysvalloissa myöhemmin tänä vuonna, ja he pyrkivät muun muassa rajoittamaan lasten seksuaalisen hyväksikäytön materiaalin (CSAM) leviämistä. Yksi uusista ominaisuuksista lähinnä skannaa iPhonet ja iPadit CSAM: n varalta ja raportoi niistä National Center for Missing and Exploited Children (NCMEC) -keskukselle. Vaikka Apple väitteet että sen menetelmä tunnistaa tunnettu CSAM "on suunniteltu käyttäjien yksityisyyttä ajatellen," se on herättänyt huolta turvallisuusasiantuntijoiden keskuudessa.

Tuoreen mukaan Financial TimesraporttiTietoturvatutkijat ovat varoittaneet, että Applen uutta työkalua voidaan käyttää väärin valvontaan, mikä saattaa vaarantaa miljoonien ihmisten henkilökohtaiset tiedot. Heidän huolensa perustuu tietoihin, joita Apple jakoi joidenkin yhdysvaltalaisten tutkijoiden kanssa aiemmin tällä viikolla. Kaksi nimeämätöntä tietoturvatutkijaa, jotka osallistuivat Applen tiedotustilaisuuteen, ovat paljastaneet, että ehdotettu järjestelmä - nimeltä "neuralMatch" – varoittaa ennakoivasti ihmisarvostelijoiden ryhmää, jos se havaitsee CSAM: n iPhonessa tai iPad. Ihmisarvioijat ottavat sitten yhteyttä lainvalvontaviranomaisiin, jos he voivat vahvistaa materiaalin.

Vaikka tietoturvatutkijat tukevat Applen pyrkimyksiä rajoittaa CSAM: n leviämistä, jotkut ovat nostaneet on huolissaan siitä, että hallitukset käyttävät väärin tätä työkalua saadakseen kansalaistensa käsiksi tiedot. Ross Anderson, Cambridgen yliopiston turvallisuustekniikan professori, sanoi: "Se on aivan kauhistuttava ajatus, koska se johtaa hajautettuun joukkovalvontaan... puhelimemme ja kannettavat tietokoneemme." Matthew Green, tietojenkäsittelytieteen professori Johns Hopkins Information Security Institutesta, myös ilmaisi huolensa Twitterissä ja kirjoitti:

Mutta vaikka uskotkin, että Apple ei salli näiden työkalujen väärinkäyttöä...on silti paljon huolestuttavaa. Nämä järjestelmät luottavat tietokantaan "ongelmista median hajautusarvoista", joita sinä kuluttajana et voi tarkastella... Hashit käyttävät uutta ja patentoitua hermoston hajautusalgoritmia, jonka Apple on kehittänyt ja sai NCMEC: n suostumaan... Emme tiedä paljon tästä algoritmista. Mitä jos joku voi tehdä törmäyksiä.

Vaikka algoritmi on tällä hetkellä koulutettu havaitsemaan CSAM, sitä voidaan mukauttaa skannaamaan muita kohdistettuja kuvia. tai tekstiä, kuten hallituksen vastaisia ​​kylttejä, mikä tekee siitä poikkeuksellisen hyödyllisen työkalun autoritaarisille hallituksille. Applen ennakkotapaus voi myös pakottaa muut teknologiajättiläiset tarjoamaan samanlaisia ​​ominaisuuksia, mikä saattaa johtaa yksityisyyden painajaiseen.

Apple ei ole vielä jakanut vastausta näihin huolenaiheisiin. Päivitämme tämän viestin heti, kun yritys julkaisee lausunnon. Saat lisätietoja CSAM-tunnistusominaisuudesta seuraamalla tämä linkki.