SETA Raporu: Yapay Zeka ile İsrail'in Gazze'deki Sivil Hedeflere Yönelik Şok Edici Stratejisi
SETA'nın güncel raporu, İsrail'in Gazze'de yapay zeka tabanlı sistemlerle sivil hedeflerini vurduğunu gözler önüne seriyor. İnsani değerler ve uluslararası hukuk, bu algoritmik saldırılarla tehlikeye giriyor.

Siyaset, Ekonomi ve Toplum Araştırmaları Vakfı (SETA), İsrail’in Gazze Şeridi’nde gerçekleştirdiği askeri operasyonlarda yapay zeka destekli sistemlerin etkisini derinlemesine inceleyen bir rapor yayımladı. “Kırıcı Algoritmalar: Gazze Savaşı’nda Yapay Zekanın Yıkıcı Rolü” başlıklı bu çalışma, savaş teknolojilerinin geldiği aşamayı ve bu teknolojilerin sivil halk üzerindeki yıkıcı sonuçlarını gözler önüne seriyor.
İlgili analizde, İsrail ordusunun Gazze’ye yönelik askeri harekâtlarında insan kararlarının yerini giderek daha fazla algoritmaların aldığına dikkat çekiliyor. Yapay zeka tabanlı sistemler, hedef belirleme ve saldırı onaylama gibi birçok kritik süreci otomatikleştiriyor. Bu durum, uluslararası hukukun ve insan haklarının ihlali anlamına geliyor.
7 EKİM SONRASINDA YENİ DÖNEM: LAVENDER VE HABSORA SİSTEMLERİ
Raporun en çarpıcı noktalarından biri, İsrail ordusunun 7 Ekim 2023’ten itibaren yapay zeka sistemlerini daha yaygın bir şekilde kullanmaya başlaması. “Lavender” ve “Habsora” adındaki sistemler, özellikle hedef tespiti ve saldırı planlamasında önemli rol oynamaktadır.
Lavender sistemi, sadece 20 saniye içinde bir bireyi hedef alabiliyor ve saldırı izni verebiliyor. Ancak bu sistemin, sivilleri yanlışlıkla militan olarak sınıflandırdığı ve birçok saldırının insan müdahalesi olmaksızın gerçekleştiği belirtiliyor. Raporda, bu tür bir otomasyonun sivil yaşamı hiçe sayan bir savaş anlayışını beslediği vurgulanıyor.
NUSEYRAT SALDIRISI VE SİVİL KAYIPLAR
SETA'nın raporunda, 7 Temmuz 2024’te, İsrail’in Gazze’deki Nuseyrat bölgesinde bulunan Birleşmiş Milletler okuluna gerçekleştirdiği saldırıya dair bilgiler de yer alıyor. Bu saldırıda 23 kişinin yaşamını yitirdiği, 80’den fazla kişinin yaralandığı bilgisi var. İsrail, yalnızca sekiz kişinin Hamas üyesi olduğunu iddia etmekteyken, sistemin “önemsiz” hedefleri de vurduğu ve sivillerin ölümünün başlangıçtan kabul edildiği ileri sürülüyor. Saldırı planlamasında bu kayıpların “makul” görüldüğü vurgulanıyor.
Raporda, İsrail askerlerinin düşük seviyedeki hedefler için “çöp” kelimesini kullandığı bilgisi aktarılırken, bu yaklaşımın savaş hukukuyla çeliştiği de belirtiliyor.
“BABAMI NEREDE?”: EVİNE DÖNENLERİ HEDEF ALAN YAZILIM
Raporda yer alan diğer bir yapay zeka sistemi ise “Where’s Daddy?” adını taşıyor. Bu yazılımın, hedef alınan kişilerin evlerine döndükleri anı tespit ederek saldırı gerçekleştirmek için kullanıldığı ve bu yöntemin sivil kayıpları artırdığı ifade ediliyor.
Raporun bulgularına göre, bazı algoritmalar, en fazla 20 sivil kaybı “kabul edilebilir” bir limit olarak değerlendiriyor. Bu durum, savaş etiği ve uluslararası hukuk açısından ciddi bir sorun teşkil ediyor.
DİJİTAL GÖZETİM DEVLETİ: BLUE WOLF, RED WOLF, WOLF PACK
Rapor, İsrail'in sadece askeri operasyonlar değil, aynı zamanda gözetim alanında da yapay zekaya yoğun bir şekilde başvurduğunu gösteriyor. Blue Wolf, Red Wolf ve Wolf Pack adındaki sistemlerle, Filistinlilere ait yüz tanıma verilerinin toplandığı ve şehirlerin dijital gözetim altında tutulduğu bilgisi veriliyor.
Belirgin olarak Batı Şeria’nın Hebron kentinde gözaltına alınan kişilerin, kameralar önünde yüzlerinin tanıtıldığı, askerlerin mobil uygulama üzerinden bu süreçlerde puanlandığı aktarılmakta. Bu sistemlerin, mahremiyet ihlalleri ve toplumsal baskı aracı olarak kullanıldığına oldukça dikkat çekilmektedir.
YAPAY ZEKA, SAVAŞIN YÜZÜNÜ DEĞİŞTİRİYOR
SETA’nın analizinin en önemli noktalarından biri de, askerlerden algoritmalara geçen karar alma süreçlerinin hesap verebilirliği ortadan kaldırması. Artık bir saldırı emrini kimin verdiği –yazılım mühendisi mi, komutan mı yoksa yapay zeka mı– tespit edilmekte güçlük çekiliyor. Bu durum, sorumluluk zincirinin kopmasına ve hukuk mekanizmalarının işlemez hale gelmesine sebep oluyor.
ULUSLARARASI HUKUK YETERSİZ KALIYOR
SETA raporu, mevcut uluslararası hukuk sistemlerinin gelişmiş teknolojiler karşısında yetersiz kaldığını ortaya koyuyor. Yapay zeka tabanlı silahlar ve otonom saldırı sistemlerinin özenle denetlenmesi gerektiği vurgulanmaktadır. Raporda, tamamen otonom silahların yasaklanması ve savaşta nihai kararın mutlaka insanlar tarafından verilmesi gerektiği şeklinde bir çağrı yapılıyor.
“SAVAŞLARI MAKİNELER YÖNETMEMELİ”
SETA’nın raporundaki en güçlü uyarılardan biri şu şekilde öne çıkıyor: “Gazze, savaş teknolojilerinin bir test alanına dönüşmüş durumda. Ancak bu testlerin bedelini sivil halk ödüyor. Uluslararası toplum sessiz kalmaya devam ederse, gelecekte savaşları insanlar değil, makineler yönetecek.”