Apple on lykännyt viime kuussa ilmoittamiensa uusien lasten turvaominaisuuksien käyttöönottoa vastauksena tietoturvaasiantuntijoiden esittämiin huolenaiheisiin.
Viime kuun alussa Apple julkisti pari uutta lasten turvatoimintoa kaikille ohjelmistoalustoilleen. Yksi uusista ominaisuuksista on suunniteltu iPhone- ja iPad-valokuvien skannaamiseen lasten seksuaalisen hyväksikäytön materiaalin (CSAM) varalta. Jonkin verran turvallisuusasiantuntijat ilmaisivat huolensa tästä ominaisuudesta väittäen, että hallitukset voisivat mahdollisesti käyttää sitä päästäkseen käsiksi kansalaistensa tietoihin. Vaikka Apple väitti alun perin, että sen menetelmä havaita tunnetun CSAM: n ei ollut uhka käyttäjien yksityisyydelle, yhtiö on nyt lykännyt sen julkaisua.
Äskettäisessä lausunnossa (via 9-5Mac), Apple sanoi:
"Viime kuussa julkaisimme suunnitelmista ominaisuuksille, joiden tarkoituksena on auttaa suojelemaan lapsia niitä käyttäviltä saalistajilta viestintävälineitä heidän värväämiseen ja hyväksikäyttöön sekä lasten seksuaaliseen hyväksikäyttöön liittyvän materiaalin leviämisen rajoittamiseen. Asiakkailta, vaikuttamisryhmiltä, tutkijoilta ja muilta saadun palautteen perusteella olemme päättäneet käyttää lisäaikaa tulevina kuukausina kerätä palautetta ja tehdä parannuksia ennen näiden kriittisten lasten turvallisuuden julkaisemista ominaisuudet."
Apple suunnitteli aiemmin julkaisevansa uusia lasten turvaominaisuuksia osana iOS 15, iPadOS 15, ja macOS Monterey päivitykset. Päivitykset eivät kuitenkaan sisällä uutta lasten turvaominaisuutta, kun ne julkaistaan myöhemmin tänä vuonna. Tällä hetkellä Apple ei ole jakanut alustavaa aikataulua käyttöönotolle, eikä se ole toimittanut mitään yksityiskohtia muutoksista, joita se aikoo tehdä käsitelläkseen tietosuojaongelmia.
Yksinkertaisesti sanottuna Applen CSAM-skannausominaisuus vastaa nykyisessä tilassaan iPhonesi tai iPadisi valokuvat lastensuojeluorganisaatioiden tarjoamiin tunnettuihin CSAM-kuviin. Jos se havaitsee CSAM: n laitteessa, se voi ennakoivasti varoittaa ihmistarkastajien tiimiä, joka voi ottaa yhteyttä lainvalvontaviranomaisiin materiaalin vahvistamisen jälkeen. Tietoturvatutkijat väittävät, että vaikka algoritmi on tällä hetkellä koulutettu havaitsemaan CSAM, se voitaisiin mukauttaa etsimään muita kuvia tai tekstiä, mikä tekee siitä arvokkaan työkalun autoritaarisille hallituksille.