Plan Apple dotyczący skanowania iPhone'ów w poszukiwaniu dziecięcej porno niepokoi niektórych ekspertów ds. bezpieczeństwa

Plan Apple dotyczący skanowania iPhone'ów w poszukiwaniu dziecięcej porno wzbudził poważne obawy wśród badaczy bezpieczeństwa. Czytaj dalej, aby dowiedzieć się więcej.

Firma Apple ogłosiła niedawno kilka nowych funkcji zabezpieczających dzieci dla wszystkich swoich platform oprogramowania. Nowe funkcje zostaną wprowadzone wraz z iOS 15, iPadOS 15, zegarekOS 8, I macOS Monterey w USA jeszcze w tym roku i mają one na celu między innymi ograniczenie rozprzestrzeniania się materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM). Jedna z nowych funkcji będzie zasadniczo skanować iPhone'y i iPady w poszukiwaniu CSAM i zgłaszać je Krajowemu Centrum ds. Dzieci Zaginionych i Wykorzystywanych (NCMEC). Chociaż jabłko roszczenia że jest to metoda wykrywania znanego CSAM „został zaprojektowany z myślą o prywatności użytkowników," wzbudziło to obawy wśród ekspertów ds. bezpieczeństwa.

Według niedawnego „Financial Times”.raportbadacze bezpieczeństwa ostrzegają, że nowe narzędzie Apple może zostać wykorzystane do nadzoru, narażając dane osobowe milionów ludzi na ryzyko. Ich obawy opierają się na danych, które Apple udostępnił niektórym amerykańskim naukowcom na początku tego tygodnia. Dwóch anonimowych badaczy bezpieczeństwa, którzy wzięli udział w odprawie Apple, ujawniło, że proponowany system... o nazwie „neuralMatch” — aktywnie ostrzegałby zespół recenzentów, jeśli wykryje CSAM na iPhonie lub iPada. Weryfikatorzy skontaktują się następnie z organami ścigania, jeśli będą w stanie zweryfikować materiał.

Chociaż badacze bezpieczeństwa wspierają wysiłki Apple mające na celu ograniczenie rozprzestrzeniania się CSAM, niektórzy podnieśli to obawy dotyczące potencjalnego niewłaściwego wykorzystania tego narzędzia przez rządy w celu uzyskania dostępu do danych obywateli dane. Ross Anderson, profesor inżynierii bezpieczeństwa na Uniwersytecie w Cambridge, powiedział: „To absolutnie przerażający pomysł, ponieważ doprowadzi do rozproszonego, masowego nadzoru… nasze telefony i laptopy.” Matthew Green, profesor informatyki w Instytucie Bezpieczeństwa Informacji im. Johna Hopkinsa wyraził swoje zaniepokojenie na Twitterze i napisał:

Ale nawet jeśli uważasz, że Apple nie pozwoli na niewłaściwe użycie tych narzędzi... nadal jest wiele powodów do zmartwień. Systemy te opierają się na bazie danych „problematycznych skrótów mediów”, których Ty, jako konsument, nie możesz sprawdzić… Hashe korzystają z nowego, zastrzeżonego algorytmu mieszania neuronowego opracowanego przez firmę Apple i namówionego przez NCMEC do wyrażenia zgody na użycie... Niewiele wiemy o tym algorytmie. A co jeśli ktoś może spowodować kolizję?

Chociaż algorytm jest obecnie przeszkolony do wykrywania CSAM, można go dostosować do skanowania innych docelowych obrazów lub tekst, jak znaki antyrządowe, co czyni go wyjątkowo użytecznym narzędziem dla rządów autorytarnych. Precedens Apple może również zmusić innych gigantów technologicznych do oferowania podobnych funkcji, co może skutkować koszmarem dotyczącym prywatności.

Apple nie podzieliło się jeszcze odpowiedzią na te obawy. Zaktualizujemy ten post, gdy tylko firma wyda oświadczenie. Więcej informacji na temat funkcji wykrywania CSAM znajdziesz poniżej ten link.