Apple-ის გეგმა iPhone-ების საბავშვო პორნოსთვის სკანირებისთვის აწუხებს უსაფრთხოების ზოგიერთ ექსპერტს

click fraud protection

Apple-ის გეგმამ სკანირება მოახდინოს iPhone-ების ბავშვთა პორნოსთვის, უსაფრთხოების მკვლევარებს შორის სერიოზული შეშფოთება გამოიწვია. წაიკითხეთ მეტი ინფორმაციისთვის.

Apple-მა ცოტა ხნის წინ გამოაცხადა ბავშვის უსაფრთხოების რამდენიმე ახალი ფუნქცია მისი ყველა პროგრამული პლატფორმისთვის. ახალი ფუნქციები გამოვა iOS 15, iPadOS 15, watchOS 8, და macOS Monterey შეერთებულ შტატებში ამ წლის ბოლოს და ისინი მიზნად ისახავს შეზღუდონ ბავშვთა სექსუალური ძალადობის მასალის (CSAM) გავრცელება, სხვა საკითხებთან ერთად. ერთ-ერთი ახალი ფუნქცია არსებითად დაასკანირებს iPhone-ებსა და iPad-ებს CSAM-ისთვის და აცნობებს მათ დაკარგული და ექსპლუატირებული ბავშვების ეროვნულ ცენტრს (NCMEC). მიუხედავად იმისა, რომ Apple პრეტენზიები რომ ცნობილი CSAM-ის გამოვლენის მისი მეთოდი "შემუშავებულია მომხმარებლის კონფიდენციალურობის გათვალისწინებით," ეს უსაფრთხოების ექსპერტებს შორის შეშფოთებას იწვევს.

ბოლო მონაცემებით Financial Timesანგარიშიუსაფრთხოების მკვლევარებმა გააფრთხილეს, რომ Apple-ის ახალი ინსტრუმენტი შესაძლოა ბოროტად გამოიყენონ თვალთვალისთვის, რამაც მილიონობით ადამიანის პერსონალური ინფორმაცია რისკის ქვეშ დააყენოს. მათი შეშფოთება ეფუძნება იმ მონაცემებს, რომლებიც Apple-მა გაუზიარა ზოგიერთ ამერიკელ მეცნიერს ამ კვირის დასაწყისში. უსაფრთხოების ორმა უსახელო მკვლევარმა, რომლებიც ესწრებოდნენ Apple-ის ბრიფინგს, გამოავლინეს, რომ შემოთავაზებული სისტემა -- სახელწოდებით "neuralMatch" - პროაქტიულად გააფრთხილებს ადამიანის მიმომხილველთა გუნდს, თუ ის აღმოაჩენს CSAM-ს iPhone-ზე ან iPad. ადამიანური რეცენზენტები შემდეგ დაუკავშირდებიან სამართალდამცავ ორგანოებს, თუ შეძლებენ მასალის გადამოწმებას.

მიუხედავად იმისა, რომ უსაფრთხოების მკვლევარები მხარს უჭერენ Apple-ის მცდელობებს შეზღუდოს CSAM-ის გავრცელება, ზოგიერთმა წამოიწია შეშფოთება ამ ინსტრუმენტის პოტენციალის ბოროტად გამოყენების შესახებ მთავრობების მიერ მათი მოქალაქეების ხელმისაწვდომობის მისაღებად მონაცემები. როს ანდერსონმა, კემბრიჯის უნივერსიტეტის უსაფრთხოების ინჟინერიის პროფესორმა, თქვა: ”ეს აბსოლუტურად შემზარავი იდეაა, რადგან ის გამოიწვევს განაწილებულ მასიური თვალთვალის… ჩვენი ტელეფონები და ლეპტოპები." მეთიუ გრინი, ჯონ ჰოპკინსის საინფორმაციო უსაფრთხოების ინსტიტუტის კომპიუტერული მეცნიერების პროფესორი, ასევე წამოაყენა თავისი შეშფოთება Twitter-ზე და დაწერა:

მაგრამ მაშინაც კი, თუ გჯერათ, რომ Apple არ დაუშვებს ამ ხელსაწყოების ბოროტად გამოყენებას... ჯერ კიდევ ბევრია შეშფოთება. ეს სისტემები ეყრდნობა "პრობლემური მედია ჰეშების" მონაცემთა ბაზას, რომელსაც თქვენ, როგორც მომხმარებელი, ვერ გადახედავთ... ჰეშები იყენებენ ახალ და საკუთრებაში არსებულ ნეირონული ჰეშირების ალგორითმს, რომელიც Apple-მა შეიმუშავა და მიიღო NCMEC დათანხმდა გამოყენებაზე... ჩვენ ბევრი რამ არ ვიცით ამ ალგორითმის შესახებ. რა მოხდება, თუ ვინმეს შეუძლია შეჯახება.

მიუხედავად იმისა, რომ ალგორითმი ამჟამად არის გაწვრთნილი CSAM-ის გამოსავლენად, ის შეიძლება იყოს ადაპტირებული სხვა მიზნობრივი სურათების სკანირებისთვის ან ტექსტი, ისევე როგორც ანტისამთავრობო ნიშნები, რაც მას განსაკუთრებულად სასარგებლო ინსტრუმენტად აქცევს ავტორიტარული მთავრობებისთვის. Apple-ის პრეცედენტმა შეიძლება აიძულოს სხვა ტექნიკური გიგანტები შესთავაზონ მსგავსი ფუნქციები, რაც პოტენციურად გამოიწვევს კონფიდენციალურობის კოშმარს.

Apple-ს ჯერ არ გაუზიარებია პასუხი ამ შეშფოთებაზე. ჩვენ განვაახლებთ ამ პოსტს, როგორც კი კომპანია გამოაქვეყნებს განცხადებას. დამატებითი ინფორმაციისთვის CSAM ამოცნობის ფუნქციის შესახებ, მიჰყევით ეს ბმული.