แผนการของ Apple ในการสแกน iPhone เพื่อหาสื่อลามกเด็กทำให้ผู้เชี่ยวชาญด้านความปลอดภัยบางคนกังวล

click fraud protection

แผนการของ Apple ในการสแกน iPhone เพื่อหาสื่อลามกเด็กทำให้เกิดความกังวลอย่างมากในหมู่นักวิจัยด้านความปลอดภัย อ่านเพื่อเรียนรู้เพิ่มเติม.

Apple เพิ่งประกาศคุณสมบัติความปลอดภัยเด็กใหม่สองสามรายการสำหรับแพลตฟอร์มซอฟต์แวร์ทั้งหมด โดยฟีเจอร์ใหม่นี้จะเปิดตัวพร้อมกับ ไอโอเอส 15, ไอแพดโอเอส 15, วอทช์ OS8, และ macOS มอนเทอเรย์ ในสหรัฐอเมริกาในปลายปีนี้ และพวกเขาตั้งเป้าที่จะจำกัดการแพร่กระจายของเนื้อหาการล่วงละเมิดทางเพศเด็ก (CSAM) เหนือสิ่งอื่นใด หนึ่งในคุณสมบัติใหม่นี้จะสแกน iPhone และ iPads เพื่อหา CSAM และรายงานไปยัง National Center for Missing and Exploited Children (NCMEC) แม้ว่าแอปเปิ้ล การเรียกร้อง ว่าเป็นวิธีการตรวจจับ CSAM ที่รู้จัก "ได้รับการออกแบบโดยคำนึงถึงความเป็นส่วนตัวของผู้ใช้เป็นหลัก," มันทำให้เกิดความกังวลในหมู่ผู้เชี่ยวชาญด้านความปลอดภัย

ตามล่าสุด ภาวะเศรษกิจรายงานนักวิจัยด้านความปลอดภัยได้เตือนว่าเครื่องมือใหม่ของ Apple อาจถูกนำไปใช้ในทางที่ผิดในการเฝ้าระวัง ส่งผลให้ข้อมูลส่วนบุคคลของผู้คนหลายล้านคนตกอยู่ในความเสี่ยง ข้อกังวลของพวกเขามาจากข้อมูลที่ Apple แชร์กับนักวิชาการชาวอเมริกันบางคนเมื่อต้นสัปดาห์นี้ นักวิจัยด้านความปลอดภัยที่ไม่เปิดเผยชื่อสองคนที่เข้าร่วมการบรรยายสรุปของ Apple ได้เปิดเผยว่าระบบที่เสนอ -- เรียกว่า "neuralMatch" -- จะแจ้งเตือนทีมตรวจสอบที่เป็นมนุษย์ในเชิงรุก หากตรวจพบ CSAM บน iPhone หรือ ไอแพด ผู้ตรวจสอบที่เป็นมนุษย์จะติดต่อหน่วยงานบังคับใช้กฎหมายหากสามารถตรวจสอบเนื้อหาได้

แม้ว่านักวิจัยด้านความปลอดภัยจะสนับสนุนความพยายามของ Apple ในการจำกัดการแพร่กระจายของ CSAM แต่ก็มีบางคนที่สนับสนุน ความกังวลเกี่ยวกับศักยภาพของเครื่องมือนี้ที่รัฐบาลนำไปใช้ในทางที่ผิดเพื่อเข้าถึงพลเมืองของตน ข้อมูล. Ross Anderson ศาสตราจารย์ด้านวิศวกรรมความปลอดภัยแห่งมหาวิทยาลัยเคมบริดจ์กล่าวว่า “มันเป็นความคิดที่น่าตกใจอย่างยิ่ง เพราะมันกำลังจะนำไปสู่การเฝ้าระวังจำนวนมากแบบกระจาย... โทรศัพท์และแล็ปท็อปของเรา" Matthew Green ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่สถาบันความปลอดภัยข้อมูล Johns Hopkins เช่นกัน ยกความกังวลของเขา บน Twitter และเขียนว่า:

แต่แม้ว่าคุณจะเชื่อว่า Apple จะไม่ยอมให้มีการใช้เครื่องมือเหล่านี้ในทางที่ผิด...ยังมีเรื่องที่ต้องกังวลอีกมาก ระบบเหล่านี้อาศัยฐานข้อมูลของ "แฮชสื่อที่มีปัญหา" ซึ่งคุณในฐานะผู้บริโภคไม่สามารถตรวจสอบได้... แฮชใช้อัลกอริธึมการแฮชทางประสาทใหม่และกรรมสิทธิ์ที่ Apple ได้พัฒนา และทำให้ NCMEC ตกลงที่จะใช้... เราไม่ค่อยรู้เกี่ยวกับอัลกอริทึมนี้มากนัก จะเป็นอย่างไรถ้ามีคนสามารถชนกันได้

แม้ว่าอัลกอริธึมจะได้รับการฝึกให้ตรวจจับ CSAM ในปัจจุบัน แต่ก็สามารถปรับใช้เพื่อสแกนภาพเป้าหมายอื่นๆ ได้ หรือข้อความ เช่น ป้ายต่อต้านรัฐบาล ทำให้เป็นเครื่องมือที่มีประโยชน์อย่างยิ่งสำหรับรัฐบาลเผด็จการ แบบอย่างของ Apple อาจบังคับให้ยักษ์ใหญ่ด้านเทคโนโลยีรายอื่นเสนอคุณสมบัติที่คล้ายกันซึ่งอาจส่งผลให้เกิดฝันร้ายด้านความเป็นส่วนตัว

Apple ยังไม่ได้เปิดเผยการตอบสนองต่อข้อกังวลเหล่านี้ เราจะอัปเดตโพสต์นี้ทันทีที่บริษัทออกแถลงการณ์ สำหรับข้อมูลเพิ่มเติมเกี่ยวกับคุณสมบัติการตรวจจับ CSAM โปรดติดตาม ลิงค์นี้.