Saldırıların ilk haftalarında İsrail ordusu, Lavender’ın işaretlediği her düşük rütbeli Hamas üyesi için 15 veya 20’ye kadar sivilin öldürülmesini “kabul edilebilir hata” olarak görmezden geldi.
İsrail’in 7 Ekim 2023’ten bu yana yoğunlaşarak devam eden ve özellikle Gazze’de katliama varan saldırılarına dair gün geçtikçe yeni detaylar ortaya çıkıyor. Son günlerde tartışma konusu olan, İsrail ordusunun yapay zeka ürünü bir makineyle sivilleri gözetmeden katliam yapması meselesi de gündemi sarsan en önemli olayların başında geliyor.
Esasında İsrail ordusunun bir süredir yapay zeka kullandığını biliyoruz. Ancak böylesini muhtemelen kimse tahmin etmiyordu. Üstelik bu vahşet dolu eylemlerde İsrail’in insanlıktan ne kadar uzak olduğunu bir kez daha görüyoruz çünkü geliştirdikleri sistemle dünyanın en tehlikeli yapay zeka destekli “katliam makinesi”ni inşa ettiler. Gelinen noktada, tamamıyla insandan bağımsız karar veren, bu nedenle ciddi hatalar yapan, sivil gözetimi neredeyse olmayan ve belirlediği hedefleri kitlesel olarak damgalayıp soykırımın önünü açan bir teknolojiyle karşı karşıyayız.
İsrailli istihbarat elitlerinin bir ürünü
İsrailli bir gazetecinin oldukça detaylı bir şekilde yayınladığı rapordaki bilgilere göre İsrail ordusu, Lavender adını verdiği yapay zeka sistemiyle çocuk, kadın, yaşlı, sivil gözetmeden Gazze’yi bombardımana tutuyor. Birkaç eski İsrail istihbarat yetkilisiyle yapılan görüşmelerin de yer aldığı bu raporda, İsrail ordusunun Lavender programında hedefleri nasıl tanımladığına, bombalamada kullanılacak mühimmatın sistem tarafından nasıl belirlendiğine ve güvenlik birimlerinin sistemin teknik hatalarını nasıl görmezden geldiğine dair detaylar kelimenin tam anlamıyla sarsıcı.
İsrail ordusundaki “istihbarat elitleri” olarak adlandırılan yetkili kişilerce geliştirilen Lavender tamamen yapay zeka teknolojisiyle donatılmış. Sahip olduğumuz bilgilere bakıldığında Lavender’in tanımını net olarak yapmak zor olduğundan onun bir program mı, veri tabanı mı, silah mı, yoksa makine mi olduğuna dair tartışmalar mevcut. Lavender’in İsrail askeri istihbarat servisine bağlı olan ve ABD Ulusal Güvenlik Ajansının (NSA) İsrail versiyonu olarak görülen Unit8200 adı verilen birim tarafından geliştirildiği göz önüne alındığında siber ve yapay zeka teknolojileriyle donatılmış bir sistemden söz ettiğimizi söyleyebiliriz.
Bu yapay zeka sistemi, ilk aşamada kendisine tanımlanan veriler ve sahip olduğu algoritmalarla öncelikle profilleri oluşturuyor ve hedefleri tespit ediyor. Sistem, bir sonraki adımda hedeflere nereden saldırılacağını belirliyor. En son aşamada ise sistem tarafından bombalama mühimmatı seçiliyor ve uygulanıyor. Örneğin Lavender tarafından işaretlenen ve üst düzey olmayan hedeflerin, daha pahalı silahlardan tasarruf etmek amacıyla yalnızca “aptal bombalar” adı verilen mühimmatla vurulduğu bilgisi veriliyor.
İsrail’in bu yapay zeka sistemi 37 bin kadar Filistinliyi şüpheli militan olarak belirlemiş ve “evleri bombalanacak hedef” olarak işaretlemiş. Lavender’in Hamas’taki silahlı gruplarla zayıf bağlantısı olan veya hiç bağlantısı olmayan kişileri de işaretlediğinin bilinmesine rağmen İsrail ordusu bunu sonuna kadar kullanmaya devam etmiş.
Lavender Gazze’de nasıl kullanıldı?
İsrail’in bu katliam makinesini özellikle Gazze’de kullandığı biliniyor. Aktarılan bilgiler, Lavender için çoğu zaman Hamas üyelerinin hedef alınması amaçlansa da sıradan Filistinlilerin de hedefler arasında yer aldığını gösteriyor. Kaynaklara göre Lavender’e yüklenen program, Gazze Şeridi’ndeki 2,3 milyon sakinin çoğundan toplanan bilgileri bir kitlesel gözetleme sistemi aracılığıyla analiz ediyor, ardından her bir kişinin Hamas askeri kanadına üye olma olasılığını değerlendiriyor ve öncelik sıralaması yapıyor. Her kişiye 1’den 100’e kadar puan vererek onların militan olma ihtimalinin ne kadar yüksek olduğunu belirliyor.
Lavender’in bu anlamda nasıl kullanıldığına dair verilen bilgiler tam anlamıyla dehşet verici. Makinenin hatalarından ziyade İsrail güvenlik birimlerinin tutumları, ne kadar acımasız olduklarını açıklıyor. Buna göre saldırıların ilk haftalarında İsrail ordusu, Lavender’ın işaretlediği her düşük rütbeli Hamas üyesi için 15 veya 20’ye kadar sivilin öldürülmesini “kabul edilebilir hata” olarak görmezden gelmiş.
İsrailli bir istihbarat görevlisinin yaptığı açıklamalara göre İsrail ordusu, Lavender’deki hata payının farkında olmak ve sivillerin ölmesi riskini göze almaya hazır olmak zorunda. Bombalama operasyonlarındaki kayıplarla ilgili tamamen “müsamahakar” bir politika izlendiğini söyleyen İsrailli istihbarat görevlisi, üst düzey bir Hamas üyesi uğruna yüzlerce sivilin öldürülmesine izin verildiğini de belirtti.
Lavender bize ne anlatıyor?
İsrail’in yapay zeka destekli bu korkunç sistemi, Filistin’de yaşanan dramı ve İsrail’in soykırıma varan insanlık suçunu bir kez daha göstermiş oluyor. Sivil ayrımı yapmadan geliştirilen bir makineyle on binlerce insanı katleden ve yerleşim yerlerini bombalayan İsrail’e bu anlamda dünyada ne yazık ki tam anlamıyla hesap sorulmuyor.
Meselenin uluslararası hukuk tarafı bir yana, İsrail’in yaptıkları, yapay zekanın nasıl bir ölüm makinesi haline gelebileceğini de bize gösteriyor. İnsandan bağımsız, kendi kendine kararlar verebilen ve bunları uygulayabilecek yetkinliğe sahip bir yapay zeka sistemi, bütün dünya için tehlike anlamına geliyor.
Özellikle askeri alandaki yapay zeka teknolojilerinin günümüzde geldiği nokta, onun kontrol dışına çıkabilecek bir tehdit haline gelebileceğini işaret ediyor. İsrail örneği bize, gereken önlemler alınmazsa ve operasyonel anlamda bütün karar ve yetkiler sadece algoritmalarla hareket eden yapay zekaya bırakılırsa dünyayı nasıl tehlikeler beklediğini anlatıyor.
Kaynak: AA / Ersin Çahmutoğl