Apple odložil zavádění nových funkcí pro bezpečnost dětí, které oznámil minulý měsíc v reakci na obavy vznesené bezpečnostními experty.
Začátkem minulého měsíce Apple oznámil několik nových funkcí pro bezpečnost dětí pro všechny své softwarové platformy. Jedna z nových funkcí byla navržena tak, aby skenovala fotografie z iPhonu a iPadu a vyhledávala materiál CSAM (Child Sexual Abuse Material). Nějaký bezpečnostní experti vyjádřili obavy o této funkci s argumentem, že by ji vlády mohly potenciálně využít k přístupu k datům svých občanů. Přestože Apple původně tvrdil, že jeho metoda detekce známého CSAM neohrožuje soukromí uživatelů, společnost nyní jeho spuštění odložila.
V nedávném prohlášení (přes 9 až 5 Mac), Apple řekl:
„Minulý měsíc jsme oznámili plány na funkce, které mají pomoci chránit děti před predátory, kteří je používají komunikační nástroje k jejich náboru a zneužívání a omezení šíření materiálů se sexuálním zneužíváním dětí. Na základě zpětné vazby od zákazníků, zájmových skupin, výzkumníků a dalších jsme se rozhodli věnovat více času v nadcházejících měsících, abychom shromáždili informace a provedli vylepšení před uvolněním těchto kriticky důležitých bezpečnostních opatření pro děti funkce."
Apple dříve plánoval vydání nových funkcí dětské bezpečnosti jako součást iOS 15, iPadOS 15, a macOS Monterey aktualizace. Aktualizace však nebudou zahrnovat novou funkci dětské bezpečnosti, až budou uvedeny později v tomto roce. V tuto chvíli Apple nesdílel předběžný časový plán zavedení a neposkytl žádné podrobnosti týkající se změn, které plánuje provést, aby se vypořádal s obavami o soukromí.
Jednoduše řečeno, funkce skenování CSAM společnosti Apple ve svém současném stavu porovnává fotografie na vašem iPhonu nebo iPadu s databází známých obrázků CSAM poskytovaných organizacemi pro bezpečnost dětí. Pokud na zařízení detekuje jakýkoli CSAM, může proaktivně upozornit tým lidských kontrolorů, kteří mohou po ověření materiálu kontaktovat policii. Bezpečnostní výzkumníci tvrdí, že zatímco algoritmus je v současné době trénován k detekci CSAM, mohl by být přizpůsoben pro skenování dalších snímků nebo textu, což z něj činí cenný nástroj pro autoritářské vlády.