Apple'ın iPhone'ları çocuk pornosu açısından tarama planı, güvenlik araştırmacıları arasında bazı ciddi endişelere yol açtı. Daha fazlasını öğrenmek için okumaya devam edin.
Apple yakın zamanda tüm yazılım platformları için birkaç yeni çocuk güvenliği özelliğini duyurdu. Yeni özellikler şu şekilde kullanıma sunulacak: iOS 15, iPadOS 15, watchOS 8, Ve macOS Monterey Bu yılın sonlarında ABD'de, diğer şeylerin yanı sıra Çocuklara Yönelik Cinsel İstismar Materyali'nin (CSAM) yayılmasını sınırlamayı hedefliyorlar. Yeni özelliklerden biri esas olarak iPhone'ları ve iPad'leri CSAM açısından tarayacak ve bunları Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi'ne (NCMEC) bildirecek. Her ne kadar elma iddialar bilinen CSAM'yi tespit etme yöntemi "Kullanıcı gizliliği göz önünde bulundurularak tasarlandı," güvenlik uzmanları arasında endişelere yol açtı.
Yakın tarihli bir habere göre Finans ZamanlarıraporGüvenlik araştırmacıları, Apple'ın yeni aracının gözetim amacıyla kötüye kullanılabileceği ve milyonlarca insanın kişisel bilgilerinin riske girebileceği konusunda uyardı. Endişeleri, Apple'ın bu hafta başında bazı ABD'li akademisyenlerle paylaştığı verilere dayanıyor. Apple'ın brifingine katılan isimsiz iki güvenlik araştırmacısı önerilen sistemin -- "neuralMatch" olarak adlandırılan bu özellik, bir iPhone'da CSAM tespit etmesi durumunda insan incelemecilerden oluşan bir ekibi proaktif olarak uyaracaktır. iPad'im. Gerçek kişi olan incelemeciler, materyali doğrulayabilirlerse kolluk kuvvetleriyle iletişime geçecekler.
Güvenlik araştırmacıları Apple'ın CSAM'in yayılmasını sınırlama çabalarını desteklese de bazıları bu konuyu gündeme getirdi. Bu aracın hükümetler tarafından vatandaşlarının bilgilerine erişim sağlamak için kötüye kullanılma potansiyeline ilişkin endişeler veri. Cambridge Üniversitesi Güvenlik Mühendisliği Profesörü Ross Anderson şunları söyledi: "Bu kesinlikle dehşet verici bir fikir, çünkü dağıtılmış toplu gözetime yol açacak... telefonlarımız ve dizüstü bilgisayarlarımız." Johns Hopkins Bilgi Güvenliği Enstitüsü Bilgisayar Bilimleri Profesörü Matthew Green de endişesini dile getirdi Twitter'da şunu yazdı:
Ancak Apple'ın bu araçların kötüye kullanılmasına izin vermeyeceğine inansanız bile endişelenecek çok şey var. Bu sistemler, tüketici olarak sizin inceleyemeyeceğiniz "sorunlu medya karmaları" veritabanına dayanır... Hash'ler, Apple'ın geliştirdiği yeni ve tescilli bir nöral karma algoritması kullanıyor ve NCMEC'in bunu kullanmayı kabul etmesini sağladı... Bu algoritma hakkında fazla bir şey bilmiyoruz. Peki ya birisi çarpışma yapabiliyorsa?
Algoritma şu anda CSAM'yi tespit edecek şekilde eğitilmiş olsa da, diğer hedeflenen görüntüleri taramak için de uyarlanabilir. veya hükümet karşıtı işaretler gibi metinler, onu otoriter hükümetler için olağanüstü yararlı bir araç haline getiriyor. Apple'ın emsali, diğer teknoloji devlerini de benzer özellikler sunmaya zorlayabilir ve bu da potansiyel olarak bir gizlilik kabusuyla sonuçlanabilir.
Apple henüz bu endişelere bir yanıt paylaşmadı. Şirket bir açıklama yayınlar yayınlamaz bu yazıyı güncelleyeceğiz. CSAM algılama özelliği hakkında daha fazla bilgi için aşağıdaki adımları izleyin bu bağlantı.