Dava, Apple'ın bu tür içeriklerin yayılmasını engellemek için gerekli adımları atmadığını ve bunun sonucunda mağdurların travmalarını yeniden yaşamak zorunda kaldığını iddia ediyor.

Elektrikli Skuterlerde Yeni Dönem: Yerli Üretim ve Güvenlik Ön Planda Elektrikli Skuterlerde Yeni Dönem: Yerli Üretim ve Güvenlik Ön Planda

Tarama Sistemi Neden Uygulandı?

2021 yılında Apple, kullanıcıların iCloud kütüphanelerindeki bilinen CSAM içeriğini tespit etmek amacıyla dijital imzalar kullanarak bir sistem geliştireceğini duyurmuştu. Ancak, güvenlik ve gizlilik savunucuları, bu teknolojinin hükümetlerin özel gözetimi için bir "arka kapı" oluşturabileceğinden endişe duyarak bu planlara karşı çıkmıştı. Bu itirazlar nedeniyle Apple, çocuk istismarı içeriği tespit etme sistemini hayata geçirmeyi durdurmuştu.

Dava, Kayıp Mağdurların Geri Dönüşü Olmayan Travmalarına Dikkat Çekiyor

Davanın açılmasına neden olan kişi, bebekken akrabası tarafından istismara uğrayan ve o görüntülerinin çevrimiçi olarak yayıldığını belirten 27 yaşındaki bir kadın. Kadın, görüntülerinin sürekli olarak çevrimiçi ortamda paylaşıldığını ve her gün bu içeriklerin hâlâ yayıldığını vurguluyor. İlgili içeriklerin paylaşılmasından sorumlu kişiler, kolluk kuvvetlerinden bildirimler aldığını söylüyor. Kadın, Apple’ın bu durumu engellemeyerek mağdurları tekrar travmaya uğrattığını ifade ediyor.

Avukat James Marsh, dava ile birlikte yaklaşık 2.680 potansiyel mağdurun tazminat alma hakkı kazandığını belirtti.

Apple’ın Yanıtı ve Güvenlik Açıklamaları

Apple, söz konusu dava ile ilgili yaptığı açıklamada, güvenlik ve gizlilikten ödün vermeden yeni teknolojiler geliştirmeye devam ettiklerini belirtti. Ayrıca, Ağustos ayında 9 yaşındaki bir kız çocuğunun vasisi tarafından açılan bir davada da Apple, iCloud'da çocuk istismarı içeriği ile mücadelede yetersiz kalmakla suçlanmıştı. Apple, bu davada da kullanıcılarının gizliliğini ihlal etmeden gerekli güvenlik önlemlerini almak adına çalışmalarını sürdürdüğünü vurguladı.

Kaynak: SON DAKİKA