Apple har forsinket udrulningen af de nye børnesikkerhedsfunktioner, som det annoncerede i sidste måned som svar på bekymringer rejst af sikkerhedseksperter.
I begyndelsen af sidste måned annoncerede Apple et par nye børnesikkerhedsfunktioner til alle deres softwareplatforme. En af de nye funktioner blev designet til at scanne iPhone- og iPad-billeder for materiale til seksuelt misbrug af børn (CSAM). Nogle sikkerhedseksperter udtrykte bekymring om denne funktion og argumenterer for, at regeringer potentielt kan bruge den til at få adgang til deres borgeres data. Selvom Apple oprindeligt hævdede, at dets metode til at opdage kendt CSAM ikke var en trussel mod brugernes privatliv, har virksomheden nu udskudt lanceringen.
I en nylig erklæring (via 9to5Mac), sagde Apple:
"Sidste måned annoncerede vi planer for funktioner beregnet til at hjælpe med at beskytte børn mod rovdyr, der bruger kommunikationsværktøjer til at rekruttere og udnytte dem og begrænse spredningen af materiale om seksuelt misbrug af børn. Baseret på feedback fra kunder, fortalergrupper, forskere og andre, har vi besluttet at tage ekstra tid de kommende måneder for at indsamle input og foretage forbedringer, før disse kritisk vigtige børnesikkerhed frigives funktioner."
Apple havde tidligere planlagt at frigive de nye børnesikkerhedsfunktioner som en del af iOS 15, iPadOS 15, og macOS Monterey opdateringer. Opdateringerne vil dog ikke inkludere den nye børnesikkerhedsfunktion, når de lanceres senere i år. I øjeblikket har Apple ikke delt en foreløbig tidslinje for udrulningen, og det har ikke givet nogen detaljer om de ændringer, det planlægger at foretage for at imødekomme bekymringerne om privatlivets fred.
Enkelt sagt matcher Apples CSAM-scanningsfunktion i sin nuværende tilstand billeder på din iPhone eller iPad med en database med kendte CSAM-billeder leveret af børnesikkerhedsorganisationer. Hvis den registrerer CSAM på en enhed, kan den proaktivt advare et team af menneskelige anmeldere, som kan kontakte retshåndhævelsen efter at have verificeret materialet. Sikkerhedsforskere hævder, at selvom algoritmen i øjeblikket er trænet til at opdage CSAM, kan den tilpasses til at scanne efter andre billeder eller tekst, hvilket gør den til et værdifuldt værktøj for autoritære regeringer.