אפל מעכבת את התוכנית לסרוק תמונות אייפון לאיתור תמונות של התעללות בילדים

אפל עיכבה את השקת תכונות בטיחות הילדים החדשות עליהן הכריזה בחודש שעבר בתגובה לחששות שהעלו מומחי אבטחה.

בתחילת החודש שעבר, אפל הכריזה על כמה תכונות חדשות לבטיחות ילדים עבור כל פלטפורמות התוכנה שלה. אחת התכונות החדשות תוכננה לסרוק תמונות אייפון ואייפד לאיתור חומרי התעללות מינית בילדים (CSAM). כמה מומחי אבטחה העלו חששות על תכונה זו, בטענה שממשלות יכולות להשתמש בה כדי לגשת לנתונים של אזרחיהן. למרות שאפל טענה בתחילה כי השיטה שלה לזיהוי CSAM ידוע אינה מהווה איום על פרטיות המשתמש, החברה דחתה כעת את השקתה.

בהצהרה לאחרונה (via 9to5Mac), אפל אמרה:

"בחודש שעבר הכרזנו על תוכניות לתכונות שנועדו לעזור להגן על ילדים מפני טורפים המשתמשים כלי תקשורת כדי לגייס ולנצל אותם, ולהגביל את הפצת חומר התעללות מינית בילדים. בהתבסס על משוב מלקוחות, קבוצות הסברה, חוקרים ואחרים, החלטנו להקדיש זמן נוסף בחודשים הקרובים לאסוף מידע ולבצע שיפורים לפני שחרור בטיחות הילדים החשובים ביותר הללו מאפיינים."

אפל תכננה בעבר לשחרר את תכונות בטיחות הילדים החדשות כחלק מה- iOS 15, iPadOS 15, ו macOS מונטריי עדכונים. עם זאת, העדכונים לא יכללו את תכונת בטיחות הילדים החדשה כאשר הם יושקו מאוחר יותר השנה. נכון לעכשיו, אפל לא שיתפה ציר זמן טנטטיבי עבור ההשקה, והיא לא סיפקה פרטים לגבי השינויים שהיא מתכננת לבצע כדי להתמודד עם חששות הפרטיות.

במילים פשוטות, תכונת סריקת ה-CSAM של אפל, במצבה הנוכחי, מתאימה את התמונות באייפון או באייפד למסד נתונים של תמונות CSAM ידועות המסופקות על ידי ארגוני בטיחות ילדים. אם הוא מזהה CSAM כלשהו במכשיר, הוא יכול להתריע באופן יזום על צוות בודקים אנושיים שיכולים ליצור קשר עם רשויות אכיפת החוק לאחר אימות החומר. חוקרי אבטחה טוענים כי בעוד שהאלגוריתם מאומן כיום לזיהוי CSAM, ניתן להתאים אותו לסריקה לאיתור תמונות או טקסט אחרים, מה שהופך אותו לכלי בעל ערך עבור ממשלות אוטוריטריות.