Apple-მა გადადო ბავშვის უსაფრთხოების ახალი ფუნქციების გაშვება, რომელიც მან გასულ თვეში გამოაცხადა უსაფრთხოების ექსპერტების მიერ წამოჭრილი შეშფოთების საპასუხოდ.
გასული თვის დასაწყისში Apple-მა გამოაცხადა ბავშვის უსაფრთხოების რამდენიმე ახალი ფუნქცია მისი ყველა პროგრამული პლატფორმისთვის. ერთ-ერთი ახალი ფუნქცია შეიქმნა iPhone-ისა და iPad-ის ფოტოების სკანირებისთვის ბავშვების სექსუალური ძალადობის მასალისთვის (CSAM). Ზოგიერთი უსაფრთხოების ექსპერტებმა შეშფოთება გამოთქვეს ამ მახასიათებლის შესახებ, ამტკიცებს, რომ მთავრობებს შეუძლიათ გამოიყენონ ის თავიანთი მოქალაქეების მონაცემებზე წვდომისთვის. მიუხედავად იმისა, რომ Apple თავდაპირველად აცხადებდა, რომ ცნობილი CSAM-ის გამოვლენის მისი მეთოდი არ წარმოადგენს საფრთხეს მომხმარებლის კონფიდენციალურობისთვის, კომპანიამ ახლა გადადო მისი გაშვება.
ბოლო განცხადებაში (მათ 9 to 5 Mac), Apple-მა თქვა:
„გასულ თვეში ჩვენ გამოვაცხადეთ გეგმები ფუნქციების შესახებ, რომლებიც მიზნად ისახავს ბავშვების დაცვას მტაცებლებისგან, რომლებიც იყენებენ საკომუნიკაციო ინსტრუმენტები მათი რეკრუტირებისა და ექსპლუატაციისთვის და ბავშვებზე სექსუალური ძალადობის მასალის გავრცელების შეზღუდვისთვის. მომხმარებლების, ადვოკატირების ჯგუფების, მკვლევარების და სხვათა გამოხმაურების საფუძველზე, ჩვენ გადავწყვიტეთ დამატებითი დრო დაგვეხარჯა მომდევნო თვეებში შეაგროვოს ინფორმაცია და გააუმჯობესოს ეს კრიტიკულად მნიშვნელოვანი ბავშვის უსაფრთხოება მახასიათებლები."
Apple ადრე გეგმავდა ბავშვის უსაფრთხოების ახალი ფუნქციების გამოშვებას, როგორც ნაწილი iOS 15, iPadOS 15, და macOS Monterey განახლებები. თუმცა, განახლებები არ შეიცავს ბავშვის უსაფრთხოების ახალ ფუნქციას, როდესაც ისინი გამოვა ამ წლის ბოლოს. ამ დროისთვის, Apple-ს არ გაუზიარებია გამოშვების სავარაუდო ვადები და არ წარმოუდგენია რაიმე დეტალი იმ ცვლილებების შესახებ, რომლებიც გეგმავს განახორციელოს კონფიდენციალურობის პრობლემების გადასაჭრელად.
მარტივი სიტყვებით, Apple-ის CSAM სკანირების ფუნქცია, მის ამჟამინდელ მდგომარეობაში, ემთხვევა თქვენს iPhone-ზე ან iPad-ზე არსებულ ფოტოებს ბავშვთა უსაფრთხოების ორგანიზაციების მიერ მოწოდებულ ცნობილი CSAM სურათების მონაცემთა ბაზას. თუ ის აღმოაჩენს რაიმე CSAM-ს მოწყობილობაზე, მას შეუძლია პროაქტიულად გააფრთხილოს ადამიანთა მიმომხილველთა ჯგუფი, რომელსაც შეუძლია დაუკავშირდეს სამართალდამცავ ორგანოებს მასალის გადამოწმების შემდეგ. უსაფრთხოების მკვლევარები ამტკიცებენ, რომ მიუხედავად იმისა, რომ ალგორითმი ამჟამად არის გაწვრთნილი CSAM-ის აღმოსაჩენად, ის შეიძლება იყოს ადაპტირებული სხვა გამოსახულების ან ტექსტის სკანირებისთვის, რაც მას ავტორიტარული მთავრობებისთვის ღირებულ ინსტრუმენტად აქცევს.