أجلت شركة Apple طرح ميزات سلامة الأطفال الجديدة التي أعلنت عنها الشهر الماضي استجابةً للمخاوف التي أثارها خبراء الأمن.
في أوائل الشهر الماضي، أعلنت شركة Apple عن اثنين من ميزات سلامة الأطفال الجديدة لجميع منصات برمجياتها. تم تصميم إحدى الميزات الجديدة لمسح صور iPhone وiPad بحثًا عن مواد الاعتداء الجنسي على الأطفال (CSAM). بعض وأثار خبراء أمنيون مخاوف حول هذه الميزة، بحجة أنه من المحتمل أن تستخدمها الحكومات للوصول إلى بيانات مواطنيها. على الرغم من أن شركة Apple زعمت في البداية أن طريقتها في الكشف عن CSAM المعروفة لا تشكل تهديدًا لخصوصية المستخدم، فقد أجلت الشركة الآن إطلاقها.
وفي تصريح حديث (عبر 9to5Mac)، قالت أبل:
"لقد أعلنا الشهر الماضي عن خطط لميزات تهدف إلى المساعدة في حماية الأطفال من الحيوانات المفترسة التي تستخدم أدوات الاتصال لتجنيدهم واستغلالهم، والحد من انتشار مواد الاعتداء الجنسي على الأطفال. واستنادًا إلى تعليقات العملاء ومجموعات المناصرة والباحثين وغيرهم، قررنا تخصيص وقت إضافي الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إطلاق هذه الأمور بالغة الأهمية المتعلقة بسلامة الأطفال سمات."
خططت شركة Apple سابقًا لإصدار ميزات سلامة الأطفال الجديدة كجزء من دائرة الرقابة الداخلية 15, آيباد أو إس 15، و ماك مونتيري التحديثات. ومع ذلك، لن تتضمن التحديثات ميزة سلامة الأطفال الجديدة عند طرحها في وقت لاحق من هذا العام. في الوقت الحالي، لم تشارك شركة Apple جدولًا زمنيًا مبدئيًا للطرح، ولم تقدم أي تفاصيل بخصوص التغييرات التي تخطط لإجرائها لمعالجة مخاوف الخصوصية.
بعبارات بسيطة، تعمل ميزة المسح الضوئي CSAM من Apple، في حالتها الحالية، على مطابقة الصور الموجودة على جهاز iPhone أو iPad الخاص بك مع قاعدة بيانات لصور CSAM المعروفة التي توفرها منظمات سلامة الأطفال. إذا اكتشف أي مواد CSAM على الجهاز، فيمكنه تنبيه فريق من المراجعين البشريين بشكل استباقي والذين يمكنهم الاتصال بسلطات إنفاذ القانون بعد التحقق من المادة. ويرى الباحثون الأمنيون أنه على الرغم من أن الخوارزمية مدربة حاليًا على اكتشاف مواد الاعتداء الجنسي على الأطفال، إلا أنه يمكن تكييفها للبحث عن صور أو نصوص أخرى، مما يجعلها أداة قيمة للحكومات الاستبدادية.