Apple menunda rencana untuk memindai foto iPhone untuk mencari gambar pelecehan anak

click fraud protection

Apple telah menunda peluncuran fitur keselamatan anak baru yang diumumkan bulan lalu sebagai tanggapan atas kekhawatiran yang diajukan oleh pakar keamanan.

Awal bulan lalu, Apple mengumumkan beberapa fitur keselamatan anak baru untuk semua platform perangkat lunaknya. Salah satu fitur baru dirancang untuk memindai foto iPhone dan iPad untuk mencari Materi Pelecehan Seksual terhadap Anak (CSAM). Beberapa pakar keamanan menyampaikan kekhawatirannya tentang fitur ini, dengan alasan bahwa pemerintah berpotensi menggunakannya untuk mengakses data warganya. Meskipun Apple awalnya mengklaim bahwa metodenya untuk mendeteksi CSAM yang diketahui bukanlah ancaman terhadap privasi pengguna, perusahaan kini telah menunda peluncurannya.

Dalam pernyataan baru-baru ini (via 9to5Mac), Apple berkata:

“Bulan lalu kami mengumumkan rencana fitur yang dimaksudkan untuk membantu melindungi anak-anak dari predator yang menggunakannya alat komunikasi untuk merekrut dan mengeksploitasi mereka, dan membatasi penyebaran Materi Pelecehan Seksual terhadap Anak. Berdasarkan masukan dari pelanggan, kelompok advokasi, peneliti, dan pihak lain, kami memutuskan untuk mengambil waktu tambahan beberapa bulan mendatang untuk mengumpulkan masukan dan melakukan perbaikan sebelum merilis isu keselamatan anak yang sangat penting ini fitur."

Apple sebelumnya berencana merilis fitur keselamatan anak baru sebagai bagian dari iOS 15, iPadOS 15, Dan macOS Monterey pembaruan. Namun, pembaruan tersebut tidak akan menyertakan fitur keselamatan anak baru ketika diluncurkan akhir tahun ini. Saat ini, Apple belum membagikan jadwal tentatif peluncurannya, dan belum memberikan rincian apa pun mengenai perubahan yang rencananya akan dilakukan untuk mengatasi masalah privasi.

Sederhananya, fitur pemindaian CSAM Apple, dalam kondisi saat ini, mencocokkan foto di iPhone atau iPad Anda dengan database gambar CSAM diketahui yang disediakan oleh organisasi keselamatan anak. Jika mendeteksi CSAM apa pun di perangkat, mereka dapat secara proaktif memperingatkan tim peninjau manusia yang dapat menghubungi penegak hukum setelah memverifikasi materi tersebut. Peneliti keamanan berpendapat bahwa meskipun algoritme tersebut saat ini dilatih untuk mendeteksi CSAM, algoritme tersebut dapat diadaptasi untuk memindai gambar atau teks lain, sehingga menjadikannya alat yang berharga bagi pemerintahan otoriter.