Plán Applu skenovat iPhony kvůli dětské pornografii znepokojuje některé bezpečnostní experty

click fraud protection

Plán Applu skenovat iPhony kvůli dětské pornografii vyvolal mezi bezpečnostními výzkumníky vážné obavy. Přečtěte si další informace.

Apple nedávno oznámil několik nových funkcí pro bezpečnost dětí pro všechny své softwarové platformy. Nové funkce budou zavedeny s iOS 15, iPadOS 15, watchOS 8, a macOS Monterey v USA koncem tohoto roku a jejich cílem je mimo jiné omezit šíření materiálů pro sexuální zneužívání dětí (CSAM). Jedna z nových funkcí bude v podstatě skenovat iPhony a iPady na CSAM a nahlásit je Národnímu centru pro pohřešované a zneužívané děti (NCMEC). I když Apple nároky že jeho metoda detekce známého CSAM "je navržen s ohledem na soukromí uživatelů," mezi bezpečnostními experty to vyvolalo obavy.

Podle nedávného Financial TimeszprávaBezpečnostní výzkumníci varovali, že nový nástroj společnosti Apple by mohl být zneužit ke sledování, což by ohrozilo osobní údaje milionů lidí. Jejich obavy jsou založeny na datech, které Apple sdílel s některými americkými akademiky na začátku tohoto týdne. Dva nejmenovaní bezpečnostní výzkumníci, kteří se zúčastnili briefingu společnosti Apple, odhalili, že navrhovaný systém -- nazvaný „neuralMatch“ – proaktivně by upozornil tým lidských kontrolorů, ​​pokud zjistí CSAM na iPhonu nebo iPad. Lidští kontroloři se poté obrátí na orgány činné v trestním řízení, pokud budou schopni materiál ověřit.

I když bezpečnostní výzkumníci podporují snahu Applu omezit šíření CSAM, někteří se ozvali obavy z možnosti zneužití tohoto nástroje vládami k získání přístupu k nástrojům svých občanů data. Ross Anderson, profesor bezpečnostního inženýrství na univerzitě v Cambridge, řekl: "Je to naprosto otřesná myšlenka, protože to povede k distribuovanému hromadnému sledování... naše telefony a notebooky." Matthew Green, profesor informatiky na Johns Hopkins Information Security Institute, také vyjádřil své znepokojení na Twitteru a napsal:

Ale i když věříte, že Apple nedovolí, aby tyto nástroje byly zneužity... pořád je toho hodně, čeho se obávat. Tyto systémy se spoléhají na databázi „problematických mediálních hashů“, které vy jako spotřebitel nemůžete zkontrolovat... Hashe používají nový a proprietární algoritmus neurálního hashování, který Apple vyvinul, a získal NCMEC souhlas s používáním... O tomto algoritmu toho moc nevíme. Co když někdo umí dělat kolize.

Algoritmus je v současné době natrénován k rozpoznání CSAM, ale mohl by být přizpůsoben ke skenování jiných cílených snímků nebo text, jako jsou protivládní nápisy, což z něj činí výjimečně užitečný nástroj pro autoritářské vlády. Precedent od Applu by také mohl přimět další technologické giganty, aby nabízeli podobné funkce, což by mohlo vést k noční můře o soukromí.

Apple zatím na tyto obavy neodpověděl. Tento příspěvek aktualizujeme, jakmile společnost vydá prohlášení. Další informace o funkci detekce CSAM naleznete zde tento odkaz.