Néhány biztonsági szakértőt aggaszt az Apple azon terve, hogy gyermekpornót keres az iPhone-okon

Az Apple azon terve, hogy gyermekpornót keres az iPhone-okon, komoly aggodalmakat keltett a biztonsági kutatókban. Olvasson tovább, ha többet szeretne megtudni.

Az Apple nemrégiben bejelentett néhány új gyermekbiztonsági funkciót az összes szoftverplatformjához. Az új funkciók a következővel jelennek meg iOS 15, iPadOS 15, watchOS 8, és macOS Monterey az Egyesült Államokban még ebben az évben, és többek között a gyermekekkel való szexuális zaklatással kapcsolatos anyagok (CSAM) terjedésének korlátozását célozzák. Az egyik új funkció lényegében átvizsgálja az iPhone-okat és iPad-eket CSAM-re, és jelenteni fogja őket a National Center for Missing and Exploited Children (NCMEC) felé. Bár az Apple állítja hogy az ismert CSAM kimutatásának módszere "a felhasználói adatok védelmét szem előtt tartva készült," aggodalmakat keltett a biztonsági szakértők körében.

Egy friss szerint Financial Timesjelentés, biztonsági kutatók arra figyelmeztettek, hogy az Apple új eszközét visszaélhetik megfigyelésre, ami emberek millióinak személyes adatait veszélyeztetheti. Aggodalmuk az Apple által a hét elején megosztott egyes amerikai tudósokkal megosztott adatokon alapul. Két meg nem nevezett biztonsági kutató, akik részt vettek az Apple tájékoztatóján, felfedték, hogy a javasolt rendszer - „neuralMatch” néven – proaktívan riasztana egy emberi ellenőrző csapatot, ha CSAM-ot észlel egy iPhone-on vagy iPad. Az emberi felülvizsgálók ezután kapcsolatba lépnek a bűnüldöző szervekkel, ha ellenőrizni tudják az anyagot.

Bár a biztonsági kutatók támogatják az Apple arra irányuló erőfeszítéseit, hogy korlátozzák a CSAM terjedését, egyesek felvetettek aggodalmát fejezi ki amiatt, hogy a kormányok visszaélnek ezzel az eszközzel, hogy hozzáférjenek polgáraikhoz adat. Ross Anderson, a Cambridge-i Egyetem biztonsági mérnöki professzora elmondta: "Ez egy teljesen megdöbbentő ötlet, mert megosztott tömeges megfigyeléshez fog vezetni... telefonjainkat és laptopjainkat." Matthew Green, a Johns Hopkins Information Security Institute számítástechnika professzora is hangoztatta aggodalmát a Twitteren, és ezt írta:

De még ha úgy gondolja is, hogy az Apple nem engedi meg, hogy ezekkel az eszközökkel visszaéljenek, még mindig sok aggodalomra ad okot. Ezek a rendszerek a "problémás médiakivonatok" adatbázisára támaszkodnak, amelyet Ön fogyasztóként nem tud áttekinteni... A kivonatok egy új, szabadalmaztatott neurális kivonatoló algoritmust használnak, amelyet az Apple fejlesztett ki, és rávette az NCMEC-et, hogy beleegyezzen a... Nem sokat tudunk erről az algoritmusról. Mi van, ha valaki ütközést tud okozni.

Bár az algoritmus jelenleg a CSAM észlelésére van kiképezve, adaptálható más célzott képek szkennelésére. vagy szöveget, például kormányellenes táblákat, ami rendkívül hasznos eszközzé teszi a tekintélyelvű kormányok számára. Az Apple precedense más technológiai óriásokat is arra kényszeríthet, hogy hasonló szolgáltatásokat kínáljanak, ami adatvédelmi rémálmot eredményezhet.

Az Apple még nem adott választ ezekre az aggodalmakra. Frissítjük ezt a bejegyzést, amint a vállalat közleményt ad ki. A CSAM-észlelési funkcióval kapcsolatos további információkért kövesse az alábbi lépéseket ez a link.