Plán spoločnosti Apple skenovať v telefónoch iPhone detskú pornografiu znepokojuje niektorých bezpečnostných expertov

click fraud protection

Plán spoločnosti Apple skenovať telefóny iPhone kvôli detskej pornografii vyvolal medzi bezpečnostnými výskumníkmi vážne obavy. Čítajte ďalej a dozviete sa viac.

Spoločnosť Apple nedávno oznámila niekoľko nových funkcií bezpečnosti detí pre všetky svoje softvérové ​​platformy. Nové funkcie budú uvedené na trh s iOS 15, iPadOS 15, watchOS 8, a macOS Monterey v USA koncom tohto roka a ich cieľom je okrem iného obmedziť šírenie materiálu sexuálneho zneužívania detí (CSAM). Jedna z nových funkcií bude v podstate skenovať iPhony a iPady na CSAM a nahlásiť ich Národnému centru pre nezvestné a zneužívané deti (NCMEC). Hoci Apple nároky že jeho metóda zisťovania známeho sexuálneho zneužívania detí “je navrhnutý s ohľadom na súkromie používateľa," medzi bezpečnostnými expertmi to vyvolalo obavy.

Podľa nedávneho Peňažné časyspráva, bezpečnostní výskumníci varovali, že nový nástroj spoločnosti Apple by mohol byť zneužitý na sledovanie, čo by ohrozilo osobné informácie miliónov ľudí. Ich obavy sú založené na údajoch, ktoré Apple začiatkom tohto týždňa zdieľal s niektorými americkými akademikmi. Dvaja nemenovaní bezpečnostní výskumníci, ktorí sa zúčastnili brífingu spoločnosti Apple, odhalili, že navrhovaný systém -- s názvom „neuralMatch“ – proaktívne upozorní tím ľudských kontrolórov, ak zistí CSAM na iPhone alebo iPad. Kontrolóri potom kontaktujú orgány činné v trestnom konaní, ak dokážu materiál overiť.

Aj keď bezpečnostní výskumníci podporujú snahu spoločnosti Apple obmedziť šírenie CSAM, niektorí sa vyjadrili obavy z potenciálneho zneužitia tohto nástroja vládami na získanie prístupu k nástrojom svojich občanov údajov. Ross Anderson, profesor bezpečnostného inžinierstva na univerzite v Cambridge, povedal: "Je to absolútne otrasná myšlienka, pretože to povedie k distribuovanému hromadnému dohľadu nad... naše telefóny a notebooky." Matthew Green, profesor informatiky na Inštitúte informačnej bezpečnosti Johnsa Hopkinsa, tiež vyjadril svoje znepokojenie na Twitteri a napísal:

Ale aj keď veríte, že Apple nedovolí, aby boli tieto nástroje zneužité...stále je tu veľa starostí. Tieto systémy sa spoliehajú na databázu „problematických mediálnych hashov“, ktoré ako spotrebiteľ nemôžete skontrolovať... Hash používa nový a patentovaný algoritmus neurálneho hashovania, ktorý spoločnosť Apple vyvinula a získala NCMEC súhlas s používaním... O tomto algoritme toho veľa nevieme. Čo ak niekto dokáže robiť kolízie.

Aj keď je algoritmus v súčasnosti trénovaný na rozpoznanie sexuálneho zneužívania detí, mohol by byť prispôsobený na skenovanie iných cielených snímok alebo text, ako sú protivládne nápisy, čo z neho robí mimoriadne užitočný nástroj pre autoritárske vlády. Precedens od spoločnosti Apple by mohol prinútiť aj iných technologických gigantov, aby ponúkali podobné funkcie, čo by mohlo viesť k nočnej more ochrany osobných údajov.

Apple sa zatiaľ nepodelil o odpoveď na tieto obavy. Tento príspevok aktualizujeme hneď, ako spoločnosť vydá vyhlásenie. Ak chcete získať ďalšie informácie o funkcii detekcie sexuálneho zneužívania detí, nasledujte tento odkaz.