Apple opóźnia plan skanowania zdjęć iPhone'a pod kątem przedstawiających wykorzystywanie dzieci

Apple opóźniło wprowadzenie nowych funkcji zapewniających bezpieczeństwo dzieciom, które ogłosiło w zeszłym miesiącu w odpowiedzi na obawy wyrażone przez ekspertów ds. bezpieczeństwa.

Na początku zeszłego miesiąca Apple ogłosił kilka nowych funkcji zapewniających bezpieczeństwo dzieciom na wszystkich swoich platformach oprogramowania. Jedna z nowych funkcji została zaprojektowana do skanowania zdjęć z iPhone'a i iPada pod kątem materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM). Niektóre eksperci ds. bezpieczeństwa zgłosili zastrzeżenia na temat tej funkcji, argumentując, że rządy mogłyby potencjalnie wykorzystać ją do uzyskania dostępu do danych swoich obywateli. Chociaż Apple początkowo twierdził, że jego metoda wykrywania znanych CSAM nie stanowi zagrożenia dla prywatności użytkowników, firma przełożyła teraz premierę.

W niedawnym oświadczeniu (via 9 do 5Mac), Apple powiedział:

„W zeszłym miesiącu ogłosiliśmy plany dotyczące funkcji mających pomóc chronić dzieci przed drapieżnikami, które ich używają narzędzia komunikacyjne umożliwiające ich rekrutowanie i wykorzystywanie oraz ograniczanie rozpowszechniania materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych. Na podstawie opinii klientów, grup wsparcia, badaczy i innych osób zdecydowaliśmy się przeznaczyć na to dodatkowy czas w nadchodzących miesiącach na zebranie uwag i wprowadzenie ulepszeń przed udostępnieniem tych niezwykle ważnych materiałów dotyczących bezpieczeństwa dzieci cechy."

Firma Apple planowała wcześniej udostępnienie nowych funkcji zapewniających bezpieczeństwo dzieciom w ramach projektu iOS 15, iPadOS 15, I macOS Monterey aktualizacje. Aktualizacje nie będą jednak obejmować nowej funkcji bezpieczeństwa dzieci, gdy zostaną wprowadzone jeszcze w tym roku. W tej chwili Apple nie udostępnił wstępnego harmonogramu wdrożenia ani nie podał żadnych szczegółów dotyczących zmian, które planuje wprowadzić w celu rozwiązania problemów związanych z prywatnością.

Krótko mówiąc, funkcja skanowania CSAM firmy Apple w obecnym stanie dopasowuje zdjęcia na iPhonie lub iPadzie do bazy danych znanych obrazów CSAM udostępnionej przez organizacje zajmujące się bezpieczeństwem dzieci. Jeśli wykryje na urządzeniu jakikolwiek CSAM, może proaktywnie powiadomić zespół weryfikatorów, którzy po zweryfikowaniu materiału mogą skontaktować się z organami ścigania. Badacze zajmujący się bezpieczeństwem argumentują, że chociaż algorytm jest obecnie przeszkolony do wykrywania CSAM, można go dostosować do skanowania w poszukiwaniu innych obrazów lub tekstu, co czyni go cennym narzędziem dla rządów autorytarnych.