Az Apple elhalasztja azt a tervet, hogy az iPhone-on készült fényképeket gyermekbántalmazási képek után vizsgálja

Az Apple a biztonsági szakértők által felvetett aggodalmakra válaszul elhalasztotta a múlt hónapban bejelentett új gyermekbiztonsági funkciók bevezetését.

A múlt hónap elején az Apple bemutatott néhány új gyermekbiztonsági funkciót az összes szoftverplatformjához. Az egyik új funkciót úgy tervezték, hogy az iPhone-on és iPaden készült fényképeket szexuális szexuális zaklatással kapcsolatos anyagok (CSAM) keresésére szkennelje. Néhány biztonsági szakértők aggodalmukat fejezték ki ezzel a funkcióval kapcsolatban, azzal érvelve, hogy a kormányok potenciálisan felhasználhatják állampolgáraik adataihoz való hozzáférésre. Bár az Apple eredetileg azt állította, hogy az ismert CSAM észlelésének módszere nem jelent veszélyt a felhasználók magánéletére, a vállalat most elhalasztotta a bevezetést.

Egy legutóbbi nyilatkozatban (via 9-5Mac), az Apple azt mondta:

"A múlt hónapban bejelentettük, hogy olyan funkciókat tervezünk, amelyek megvédik a gyerekeket a ragadozóktól kommunikációs eszközök toborzásukra és kizsákmányolásukra, valamint a gyermekekkel való szexuális zaklatással kapcsolatos anyagok terjedésének korlátozására. Az ügyfelek, érdekképviseleti csoportok, kutatók és mások visszajelzései alapján úgy döntöttünk, hogy több időt fordítunk erre az elkövetkező hónapokban, hogy összegyűjtsék a véleményeket és javítsanak, mielőtt nyilvánosságra hozzák ezeket a kritikus fontosságú gyermekek biztonságát jellemzők."

Az Apple korábban tervezte az új gyermekbiztonsági funkciók kiadását a program részeként iOS 15, iPadOS 15, és macOS Monterey frissítéseket. A frissítések azonban nem tartalmazzák az új gyermekbiztonsági funkciót, amikor még ebben az évben megjelennek. Jelenleg az Apple nem osztotta meg a bevezetés kezdeti ütemtervét, és nem közölt részleteket az adatvédelmi aggályok orvoslására tervezett változtatásokról.

Egyszerűen fogalmazva, az Apple CSAM-szkennelési funkciója jelenlegi állapotában párosítja az iPhone-on vagy iPaden lévő fényképeket a gyermekbiztonsági szervezetek által biztosított ismert CSAM-képek adatbázisával. Ha bármilyen CSAM-ot észlel egy eszközön, proaktívan riaszthatja a felülvizsgálók csoportját, akik az anyag ellenőrzése után kapcsolatba léphetnek a bűnüldöző szervekkel. A biztonsági kutatók azzal érvelnek, hogy bár az algoritmus jelenleg a CSAM észlelésére van kiképezve, adaptálható más képek vagy szövegek keresésére is, így értékes eszközzé válik a tekintélyelvű kormányok számára.