Apple Çocuk İstismarı İçeriklerini Taramaması Nedeniyle Dava Ediliyor
iCloud fotoğraflarını çocuk istismarı içerikleri (CSAM) için taramayı uygulamama kararı nedeniyle Apple’a dava açıldı. Dava, Apple’ın bu içeriklerin yayılmasını engellemek için yeterince çaba göstermediğini ve mağdurların travmalarını yeniden yaşamaya zorlandığını iddia ediyor.
Apple, 2021 yılında bu sistemi duyurmuştu. Ancak güvenlik ve gizlilik savunucuları, bunun hükümet gözetimi için bir arka kapı oluşturabileceğinden endişe duymuştu. Apple bu nedenle planlarını rafa kaldırdı.
“Hükümet Gözetimi İçin Arka Kapı Olabilir”
Apple, Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) gibi kuruluşlardan toplanan imzalara dayanarak kullanıcılarının iCloud kütüphanelerindeki bilinen CSAM içeriklerini tespit edecek bir sistem önermişti. Ancak güvenlik ve gizlilik uzmanları, bu teknolojinin hükümet gözetimi için bir arka kapı oluşturabileceği endişesini dile getirdi. Apple bunun üzerine planlarını erteledi.
2.680 Mağdur Olduğu İleri Sürülüyor
Dava, bebekken bir akrabası tarafından istismara uğrayan ve görüntüleri çevrimiçi olarak paylaşılan 27 yaşındaki bir kadın tarafından açıldı. Kadın, sürekli olarak bu görüntülerle ilgili kolluk kuvvetlerinden bildirimler aldığını belirtiyor. Avukat James Marsh’a göre, tazminat almaya hak kazanabilecek potansiyel 2.680 mağdur var.
Apple konuyla ilgili yaptığı açıklamada, bu suçlarla mücadele etmek için güvenlik ve gizliliği tehlikeye atmadan yenilikler yapmaya devam edeceklerini belirtti. Ağustos ayında, 9 yaşındaki bir kız çocuğu ve vasisi de Apple’ı iCloud’da CSAM’ı ele almamakla suçlayarak dava açmıştı.