Apple Gecikmeler İPhone fotoğraflarını çocuk istismarı görüntüleri için taramayı planlıyor

click fraud protection

Apple, güvenlik uzmanlarının dile getirdiği endişelere yanıt olarak geçen ay duyurduğu yeni çocuk güvenliği özelliklerinin kullanıma sunulmasını erteledi.

Geçen ayın başlarında Apple, tüm yazılım platformları için birkaç yeni çocuk güvenliği özelliğini duyurdu. Yeni özelliklerden biri, iPhone ve iPad fotoğraflarını Çocuklara Yönelik Cinsel İstismar Materyali (CSAM) taraması yapmak üzere tasarlandı. Bazı Güvenlik uzmanları endişelerini dile getirdi Bu özellik hakkında hükümetlerin bunu potansiyel olarak vatandaşlarının verilerine erişmek için kullanabileceğini savundu. Apple başlangıçta bilinen CSAM'yi tespit etme yönteminin kullanıcı gizliliğine yönelik bir tehdit olmadığını iddia etse de şirket artık lansmanını erteledi.

Yakın zamanda yapılan bir açıklamada (üzerinden 9'dan 5Mac'e), Apple şunları söyledi:

"Geçen ay, çocukları avcılardan korumaya yardımcı olacak özelliklerle ilgili planlarımızı duyurduk. bunları işe almak ve istismar etmek için iletişim araçları kullanmalı ve Çocuklara Yönelik Cinsel İstismar Materyali'nin yayılmasını sınırlandırmalıyız. Müşterilerden, savunucu gruplardan, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, ek süre ayırmaya karar verdik. Önümüzdeki aylarda bu kritik öneme sahip çocuk güvenliği yayınlanmadan önce girdi toplamak ve iyileştirmeler yapmak özellikler."

Apple daha önce yeni çocuk güvenliği özelliklerini bu uygulamanın bir parçası olarak yayınlamayı planlamıştı. iOS 15, iPadOS 15, Ve macOS Monterey güncellemeler. Ancak güncellemeler, bu yılın sonlarında kullanıma sunulduğunda yeni çocuk güvenliği özelliğini içermeyecek. Şu anda Apple, kullanıma sunma için geçici bir zaman çizelgesi paylaşmadı ve gizlilik endişelerini gidermek için yapmayı planladığı değişikliklerle ilgili herhangi bir ayrıntı sağlamadı.

Basit bir ifadeyle, Apple'ın CSAM tarama özelliği mevcut haliyle iPhone veya iPad'inizdeki fotoğrafları çocuk güvenliği kuruluşları tarafından sağlanan bilinen CSAM görüntülerinden oluşan bir veritabanıyla eşleştirir. Bir cihazda herhangi bir CSAM tespit ederse, materyali doğruladıktan sonra kolluk kuvvetleriyle iletişime geçebilecek insan incelemecilerden oluşan bir ekibi proaktif olarak uyarabilir. Güvenlik araştırmacıları, algoritmanın şu anda CSAM'yi tespit etmek üzere eğitilmiş olmasına rağmen, diğer görüntüleri veya metinleri tarayacak şekilde uyarlanabileceğini ve bunun da onu otoriter hükümetler için değerli bir araç haline getirebileceğini savunuyor.