İsrail ile Hamas arasında devam eden ateşkes süreci, geçtiğimiz aylarda yaşanan insani trajediyi gözler önüne seriyor. Bu çatışmalarda 50 binden fazla sivilin hayatını kaybettiği belirtilirken, bu durum hafızalara kazındı.
Buna ek olarak, olayların uluslararası hukuk çerçevesinde değerlendirilmesi için soykırım iddialarının Uluslararası Adalet Divanı’na (UAD) taşındığı bildiriliyor. İsrail’in bu süreçteki suç ortaklarının kimlikleri de gün yüzüne çıkmaya başladı.
SOYKIRIMA TEKNOLOJİ DESTEĞİ
Associated Press (AP) tarafından gerçekleştirilen bir araştırmaya göre, İsrail ordusu, Gazze’de on binlerce sivilin hayatını kaybetmesine yol açan saldırılarda Microsoft ve OpenAI’nın yapay zeka altyapısından önemli ölçüde destek alıyor.
Bu araştırmada, söz konusu yapay zeka sistemlerinin İsrail ordusu tarafından sivil ölümlerine yol açabilecek yanlışlıklar ürettiği ortaya kondu. Ayrıca, İsrail’in 7 Ekim 2023 tarihinden bu yana sürdürdüğü saldırılarda yapay zekanın kullanımı, sivil ve askeri hedef ayrımında sorunlar yarattığı gerekçesiyle eleştirilmekte.
İsrail’in “Habsora”, “Lavender” ve “Where is Daddy?” gibi yapay zeka teknolojileri ile sivillerin gözetlenip hedef alındığına dair bilgiler geldi. Amerikan merkezli yapay zeka şirketleri bu süreçte, İsrail’e sürdürülebilir bir destek sunmayı sürdürmekte.
HATA ORANLARI RAFA KALDIRILIYOR
Yapılan incelemelerde, AI sistemlerinin yanlışlıklarının ne zaman meydana geldiğinin tespit edilmesinin zorluğuna dikkat çeken uzmanlar, bu durumun “haksız ölümlere” sebebiyet verebileceğini vurguluyor.
İsrailli bir istihbarat yetkilisi, “kitlesel gözetleme” yoluyla toplanan verilerin Microsoft Azure aracılığıyla bir araya getirildiğini ifade etti. Telefon görüşmeleri, metinler ve sesli mesajların detaylı şekilde derlenmesi, ordunun operasyonel yeteneklerini artırıyor.
Araştırma, 7 Ekim 2023 tarihinden bu yana, İsrail ordusunun yapay zeka modellerini yoğun bir şekilde kullandığını ortaya koydu. Ancak, çeviri işlemlerinin Arapça bilen kişiler tarafından kontrol edildiği iddialarına rağmen, belirli hataların yapılma olasılığı olduğu dile getirildi.
TAKİP VE HEDEF ALMA SORUNU
Özellikle bazı kelimelerin yanlış tercüme edilmesinin de sorun yaratabileceği belirtiliyor. Örneğin, bir terim için yapılan hatalı çevirinin felakete yol açabileceği savunuluyor. Aynı zamanda sistemin, sadece akademik nedenlerle bile olsa, binlerce lise öğrencisini yanlış bir şekilde “potansiyel militan” olarak tanımladığı ifade ediliyor.
Yapay zekanın Hamas bağlantılı kişilerin evini hedef alabilecek potansiyel tehlikeleri de göz önünde bulundurulmakta.
YAPAY ZEKADA BÜYÜME
Araştırma, 7 Ekim 2023 tarihinden sonraki süreçte OpenAI ve Microsoft teknolojilerinin kullanımının süratle arttığını göstermekte. Yalnızca iki ayda, bu tür yapay zeka sistemlerinin kullanımı yaklaşık 200 katına çıkmış durumda.
Ayrıca, Microsoft’un sunucularında depolanan verilerin miktarı da aynı dönemde iki katına çıkarak 13,6 petabaytı aşmış. Bu gelişmeler, etkinliğin artışına işaret etmekte.
OpenAI’ın eski yöneticilerinden Heidy