Apple zpožďuje plán skenování fotografií z iPhonu, aby se objevily snímky zneužívání dětí

Apple odložil zavádění nových funkcí pro bezpečnost dětí, které oznámil minulý měsíc v reakci na obavy vznesené bezpečnostními experty.

Začátkem minulého měsíce Apple oznámil několik nových funkcí pro bezpečnost dětí pro všechny své softwarové platformy. Jedna z nových funkcí byla navržena tak, aby skenovala fotografie z iPhonu a iPadu a vyhledávala materiál CSAM (Child Sexual Abuse Material). Nějaký bezpečnostní experti vyjádřili obavy o této funkci s argumentem, že by ji vlády mohly potenciálně využít k přístupu k datům svých občanů. Přestože Apple původně tvrdil, že jeho metoda detekce známého CSAM neohrožuje soukromí uživatelů, společnost nyní jeho spuštění odložila.

V nedávném prohlášení (přes 9 až 5 Mac), Apple řekl:

„Minulý měsíc jsme oznámili plány na funkce, které mají pomoci chránit děti před predátory, kteří je používají komunikační nástroje k jejich náboru a zneužívání a omezení šíření materiálů se sexuálním zneužíváním dětí. Na základě zpětné vazby od zákazníků, zájmových skupin, výzkumníků a dalších jsme se rozhodli věnovat více času v nadcházejících měsících, abychom shromáždili informace a provedli vylepšení před uvolněním těchto kriticky důležitých bezpečnostních opatření pro děti funkce."

Apple dříve plánoval vydání nových funkcí dětské bezpečnosti jako součást iOS 15, iPadOS 15, a macOS Monterey aktualizace. Aktualizace však nebudou zahrnovat novou funkci dětské bezpečnosti, až budou uvedeny později v tomto roce. V tuto chvíli Apple nesdílel předběžný časový plán zavedení a neposkytl žádné podrobnosti týkající se změn, které plánuje provést, aby se vypořádal s obavami o soukromí.

Jednoduše řečeno, funkce skenování CSAM společnosti Apple ve svém současném stavu porovnává fotografie na vašem iPhonu nebo iPadu s databází známých obrázků CSAM poskytovaných organizacemi pro bezpečnost dětí. Pokud na zařízení detekuje jakýkoli CSAM, může proaktivně upozornit tým lidských kontrolorů, ​​kteří mohou po ověření materiálu kontaktovat policii. Bezpečnostní výzkumníci tvrdí, že zatímco algoritmus je v současné době trénován k detekci CSAM, mohl by být přizpůsoben pro skenování dalších snímků nebo textu, což z něj činí cenný nástroj pro autoritářské vlády.