Apple, geçmişte istismara uğramış bir kadın tarafından açılan davada, çocuk istismarı materyallerinin (CSAM) yayılmasını önlemede yetersiz kaldığı yönündeki suçlamalarla karşı karşıya kalıyor.
Dava, Apple’ın NeuralHash adlı bir tarama sistemi geliştirmesine rağmen, kullanıcı gizliliği endişeleri dolayısıyla bu sistemin tam anlamıyla devreye alınmadığını iddia ediyor.
1,2 MİLYAR DOLARLIK TAZMİNAT TALEBİ
ABD’nin Kuzey Kaliforniya Bölge Mahkemesi’nde dosyaya konulan dava, yaklaşık 2 bin 680 mağduru temsil ederken, 1,2 milyar doları aşan bir tazminat talep ediyor.
Davacı, Apple’ın CSAM ile mücadelede Google ve Facebook gibi rakipleri ile kıyaslandığında daha az etkili olduğunu savunmakta.
Apple, kullanıcı gizliliğini koruma niyetindeyken CSAM ile mücadelede kararlılığını ifade ediyor. Şirket, Mesajlar uygulamasında içerik uyarıları ve zararlı materyalleri bildirme yöntemleri gibi güvenlik araçlarını geliştirdiğini belirtiyor.
Hukuk uzmanları, davanın başarılı olma olasılığının düşük olduğunu düşünmekte. Stanford Üniversitesi’nden Riana Pfefferkorn, davanın içerik taramasıyla ilgili karmaşık anayasal sorunlar ortaya çıkarabileceğini ifade ediyor.
Bu dava, teknoloji şirketlerinin kullanıcı tarafından oluşturulan içeriklerden ne ölçüde sorumlu olup olmadığını sorgulayan tartışmayı yeniden gündeme taşıyor.
Son mahkeme kararları, İletişim Terbiyesi Yasası’nın 230. Bölümü kapsamındaki korumaların mutlak olmadığını gözler önüne seriyor.
GİZLİLİK VE ÇOCUK KORUMA DENGESİ
Teknoloji şirketleri, CSAM ile mücadele ederken kullanıcı gizliliğini koruma ile çocukları koruma meziyeti arasında bir denge sağlamak zorunda. Apple’ın NeuralHash sisteminden vazgeçmesi, bu dengenin ne denli hassas olduğunu gözler önüne seriyor.