Rencana Apple untuk memindai iPhone untuk mencari pornografi anak mengkhawatirkan beberapa pakar keamanan

click fraud protection

Rencana Apple untuk memindai iPhone untuk mencari pornografi anak telah menimbulkan kekhawatiran besar di kalangan peneliti keamanan. Baca terus untuk mengetahui lebih lanjut.

Apple baru-baru ini mengumumkan beberapa fitur keselamatan anak baru untuk semua platform perangkat lunaknya. Fitur-fitur baru akan diluncurkan bersama iOS 15, iPadOS 15, jam tanganOS 8, Dan macOS Monterey di AS pada akhir tahun ini, dan mereka bertujuan untuk membatasi penyebaran Materi Pelecehan Seksual terhadap Anak (CSAM), antara lain. Salah satu fitur baru pada dasarnya akan memindai iPhone dan iPad untuk mencari CSAM dan melaporkannya ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi (NCMEC). Meskipun Apple klaim bahwa metodenya mendeteksi CSAM yang diketahui "dirancang dengan mempertimbangkan privasi pengguna," hal ini telah menimbulkan kekhawatiran di kalangan pakar keamanan.

Menurut baru-baru ini Waktu keuanganlaporan, peneliti keamanan telah memperingatkan bahwa alat baru Apple dapat disalahgunakan untuk pengawasan, sehingga membahayakan informasi pribadi jutaan orang. Kekhawatiran mereka didasarkan pada data yang dibagikan Apple kepada beberapa akademisi AS awal pekan ini. Dua peneliti keamanan yang tidak disebutkan namanya yang menghadiri pengarahan Apple telah mengungkapkan bahwa sistem yang diusulkan -- disebut "neuralMatch" -- akan secara proaktif mengingatkan tim peninjau manusia jika mendeteksi CSAM di iPhone atau iPad. Peninjau manusia kemudian akan menghubungi penegak hukum jika mereka dapat memverifikasi materi tersebut.

Meskipun peneliti keamanan mendukung upaya Apple untuk membatasi penyebaran CSAM, beberapa peneliti telah mengemukakan pendapatnya kekhawatiran mengenai potensi penyalahgunaan alat ini oleh pemerintah untuk mendapatkan akses terhadap warganya data. Ross Anderson, Profesor Teknik Keamanan di Universitas Cambridge, mengatakan, "Ini adalah ide yang sangat mengerikan, karena akan mengarah pada pengawasan massal yang terdistribusi... ponsel dan laptop kita." Matthew Green, Profesor Ilmu Komputer di Institut Keamanan Informasi Johns Hopkins, juga mengangkat kekhawatirannya di Twitter dan menulis:

Namun meskipun Anda yakin Apple tidak akan membiarkan alat ini disalahgunakan...masih banyak hal yang perlu dikhawatirkan. Sistem ini mengandalkan database "hash media yang bermasalah" yang tidak dapat Anda, sebagai konsumen, tinjau... Hash menggunakan algoritme hashing saraf baru dan eksklusif yang dikembangkan Apple, dan membuat NCMEC setuju untuk menggunakan... Kami tidak tahu banyak tentang algoritma ini. Bagaimana jika seseorang bisa membuat tabrakan.

Meskipun algoritme saat ini dilatih untuk mendeteksi CSAM, algoritme ini dapat diadaptasi untuk memindai citra target lainnya atau teks, seperti tanda anti-pemerintah, menjadikannya alat yang sangat berguna bagi pemerintahan otoriter. Preseden Apple juga dapat memaksa raksasa teknologi lainnya untuk menawarkan fitur serupa, yang berpotensi menimbulkan mimpi buruk privasi.

Apple belum memberikan tanggapan terhadap kekhawatiran ini. Kami akan memperbarui postingan ini segera setelah perusahaan merilis pernyataan. Untuk informasi lebih lanjut tentang fitur deteksi CSAM, ikuti Link ini.