أثارت خطة شركة Apple لفحص أجهزة iPhone بحثًا عن المواد الإباحية المتعلقة بالأطفال بعض المخاوف الخطيرة بين الباحثين الأمنيين. تابع القراءة لمعرفة المزيد.
أعلنت شركة Apple مؤخرًا عن اثنين من ميزات سلامة الأطفال الجديدة لجميع منصات برامجها. سيتم طرح الميزات الجديدة مع دائرة الرقابة الداخلية 15, آيباد أو إس 15, واتش او اس 8، و ماك مونتيري في الولايات المتحدة في وقت لاحق من هذا العام، ويهدفون إلى الحد من انتشار مواد الاعتداء الجنسي على الأطفال (CSAM)، من بين أمور أخرى. ستقوم إحدى الميزات الجديدة بشكل أساسي بفحص أجهزة iPhone وiPad بحثًا عن CSAM والإبلاغ عنها إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC). على الرغم من أبل المطالبات أن طريقتها في الكشف عن CSAM المعروفة "تم تصميمه مع أخذ خصوصية المستخدم في الاعتبار," وقد أثار مخاوف بين خبراء الأمن.
وفقا لآخر الأوقات الماليةتقريرحذر باحثون أمنيون من إمكانية إساءة استخدام أداة أبل الجديدة للمراقبة، مما يعرض المعلومات الشخصية لملايين الأشخاص للخطر. ويستند قلقهم إلى البيانات التي شاركتها شركة آبل مع بعض الأكاديميين الأمريكيين في وقت سابق من هذا الأسبوع. كشف اثنان من الباحثين الأمنيين الذين لم يتم الكشف عن هويتهم والذين حضروا مؤتمر أبل أن النظام المقترح - يُسمى "neuralMatch" - من شأنه تنبيه فريق من المراجعين البشريين بشكل استباقي إذا اكتشف CSAM على جهاز iPhone أو اى باد. سيقوم المراجعون البشريون بعد ذلك بالاتصال بسلطات إنفاذ القانون إذا تمكنوا من التحقق من المادة.
على الرغم من أن الباحثين الأمنيين يدعمون جهود شركة Apple للحد من انتشار CSAM، فقد أثار البعض ذلك مخاوف بشأن احتمال إساءة استخدام هذه الأداة من قبل الحكومات للوصول إلى مواطنيها بيانات. وقال روس أندرسون، أستاذ الهندسة الأمنية بجامعة كامبريدج: "إنها فكرة مروعة للغاية، لأنها ستؤدي إلى مراقبة جماعية موزعة... هواتفنا وأجهزة الكمبيوتر المحمولة لدينا." وماثيو جرين، أستاذ علوم الكمبيوتر في معهد جونز هوبكنز لأمن المعلومات، أيضًا أثار قلقه على تويتر وكتب:
ولكن حتى لو كنت تعتقد أن شركة Apple لن تسمح بإساءة استخدام هذه الأدوات... فلا يزال هناك الكثير مما يدعو للقلق. تعتمد هذه الأنظمة على قاعدة بيانات "تجزئات الوسائط الإشكالية" التي لا يمكنك، كمستهلك، مراجعتها... تستخدم عمليات التجزئة خوارزمية تجزئة عصبية جديدة ومملوكة قامت شركة Apple بتطويرها، وحصلت على موافقة NCMEC على استخدام... لا نعرف الكثير عن هذه الخوارزمية. ماذا لو كان بإمكان شخص ما أن يحدث تصادمات.
في حين أن الخوارزمية مدربة حاليًا على اكتشاف CSAM، إلا أنه يمكن تكييفها لمسح الصور المستهدفة الأخرى أو نص، مثل اللافتات المناهضة للحكومة، مما يجعلها أداة مفيدة بشكل استثنائي للحكومات الاستبدادية. ويمكن لسابقة شركة أبل أيضًا أن تجبر عمالقة التكنولوجيا الآخرين على تقديم ميزات مماثلة، مما قد يؤدي إلى كابوس الخصوصية.
لم تشارك شركة Apple بعد في الرد على هذه المخاوف. سنقوم بتحديث هذا المنشور بمجرد أن تصدر الشركة بيانًا. لمزيد من المعلومات حول ميزة الكشف عن CSAM، تابع هذا الرابط.