Apple oneskoruje plán skenovania fotografií iPhone, aby sa našli obrázky zneužívania detí

Spoločnosť Apple odložila spustenie nových funkcií pre bezpečnosť detí, ktoré oznámila minulý mesiac v reakcii na obavy odborníkov na bezpečnosť.

Začiatkom minulého mesiaca spoločnosť Apple oznámila niekoľko nových funkcií bezpečnosti detí pre všetky svoje softvérové ​​platformy. Jedna z nových funkcií bola navrhnutá tak, aby skenovala fotografie z iPhonu a iPadu a hľadala materiál na sexuálne zneužívanie detí (CSAM). Niektorí odborníci na bezpečnosť vyjadrili obavy o tejto funkcii s odôvodnením, že vlády by ju mohli potenciálne použiť na prístup k údajom svojich občanov. Hoci Apple pôvodne tvrdil, že jeho metóda zisťovania známeho CSAM nie je hrozbou pre súkromie používateľov, spoločnosť teraz jeho spustenie odložila.

V nedávnom vyhlásení (cez 9 až 5 Mac), Apple povedal:

„Minulý mesiac sme oznámili plány na funkcie, ktoré majú pomôcť chrániť deti pred predátormi, ktorí ich používajú komunikačné nástroje na ich nábor a zneužívanie a obmedzenie šírenia materiálu sexuálneho zneužívania detí. Na základe spätnej väzby od zákazníkov, advokačných skupín, výskumníkov a iných sme sa rozhodli venovať viac času v nadchádzajúcich mesiacoch, aby sme zhromaždili informácie a vykonali zlepšenia pred uvoľnením týchto kriticky dôležitých pre bezpečnosť detí Vlastnosti."

Spoločnosť Apple predtým plánovala vydať nové bezpečnostné prvky pre deti ako súčasť iOS 15, iPadOS 15, a macOS Monterey aktualizácie. Aktualizácie však nebudú obsahovať novú funkciu bezpečnosti detí, keď budú uvedené neskôr v tomto roku. V súčasnosti spoločnosť Apple nezdieľala predbežný časový plán uvedenia na trh a neposkytla žiadne podrobnosti týkajúce sa zmien, ktoré plánuje urobiť na riešenie obáv o ochranu osobných údajov.

Jednoducho povedané, funkcia skenovania CSAM od spoločnosti Apple vo svojom súčasnom stave porovnáva fotografie na vašom iPhone alebo iPade s databázou známych obrázkov CSAM poskytovaných organizáciami pre bezpečnosť detí. Ak na zariadení zistí akýkoľvek materiál CSAM, môže proaktívne upozorniť tím ľudských kontrolórov, ktorí môžu po overení materiálu kontaktovať orgány činné v trestnom konaní. Bezpečnostní výskumníci tvrdia, že hoci je algoritmus v súčasnosti trénovaný na detekciu CSAM, mohol by byť prispôsobený na skenovanie iných obrázkov alebo textu, čo z neho robí cenný nástroj pre autoritárske vlády.