Yapay Zeka

İsrail binlerce Filistinlinin ölüm listesini yapay zekayla hazırlamış!

İsrail binlerce Filistinlinin ölüm listesini yapay zekayla hazırlamış!İsrail’in 37 bin Filistinlinin ölüm listesini  Lavender adlı yapay zeka destekli bir sistemle hazırldığı belirlendi.

İsrail’in Filistin’e yönelik 7 Ekim’den bu yana sürdürdüğü katliama varan saldırılarına dair yeni detaylar ortaya çıkıyor. Bu detaylardan bir tanesi de İsrail ordusunun kullandığı yapay zeka tabanlı sistem oldu.

İsrailli araştırmacı gazeteci Yuval Abraham’ın +972 Magazine’de aktardığı verilere göre “Lavender” adlı sistem, çocuk, kadın, yaşlı ve sivil fark etmeksizin binlerce kişinin ölümüne neden oldu.

Rapora göre İsrail ordusunun savaşın ilk haftalarından itibaren kullandığı Lavender adlı sistem, hedef belirlemeden, bombalamalarda kullanılacak mühimmata kadar birçok alanda kullanıldı ve 37 bin kişinin ölümünde başrolü oynadı.

HEDEFLİ ÖLDÜRME YAPAY ZEKA KARARINA BIRAKILDI

İsrail’in hedef gözeterek öldürme konusunda uzun bir geçmişi olduğu biliniyordu. Hedef gözeterek öldürme, İkinci İntifada’nın şiddet dolu yıllarında askerî bir uygulama olarak kurumsallaşmasına rağmen nispeten seyrek kullanılıyor ve sivillerin zarar görmesini kısmen sınırlıyordu.

Ancak 7 Ekim’den sonra İsrail, Hamas ve Filistin İslami Cihadı’nın (PIJ) askerî kanadına mensup tüm üyeleri rütbeleri veya askerî önemlerine bakmaksızın hedef olarak belirlemeye karar verdi.

Rapora göre alınan bu yeni karar, beraberinde yeni sorunlar da getirdi. Önceki operasyonlarda bir hedefin vurulmasına izin verilmesi için uzun ve karmaşık bir süreç gerekiyordu. Buna göre hedefin Hamas’ın askerî kanadının üst düzey bir üyesi olduğuna dair kanıtların çapraz kontrolü, nerede yaşadığı, iletişim bilgileri ve ne zaman evde olacağının belirlenmesi şart koşuluyordu. Hedef listesi birkaç üst düzey komutanla sınırlandığında kişilerin kontrolü ve yerlerinin belirlenmesi görece daha kolay tespit edilebiliyordu. Ancak liste daha alt rütbeli komutanlarla genişletilince İsrail ordusu otomatik yazılım ve yapay zekaya geçmeye karar verdi. Böylelikle hedeflerin belirlenmesi insan kontrolü yerine yapay zeka sistemine bırakıldı ve on binlerce kişiyi hedef hâline getiren sistem inşa edildi.

Terk edildiğini düşünen yapay zeka, cinayete teşebbüs etti

Yuval Abraham’ın haberine göre Lavender olarak adlandırılan bu yapay zeka sistemi, İsrail ordusu tarafından 7 Ekim’de başlayan İsrail-Filistin savaşında Filistinlilerin eşi benzeri görülmemiş şekilde bombalanmasında merkezî rol oynarken katliamların önünü açtı.

KATLİAM MAKİNESİ: LAVENDER

Resmî olarak Lavender, Hamas ve Filistin İslami Cihadı’nın (PIJ) askerî kanadındaki düşük rütbeli komutanlar da dâhil olmak üzere tüm şüpheli kişileri bombalama hedefi olarak işaretlemek için tasarlanmış.

Lavender, Gazze’deki neredeyse her kişinin ismini takip ediyor ve bir kişinin Hamas ya da başka bir Filistinli militan grup için savaşan biri olma olasılığını değerlendirmek için video yayınları, ele geçirilen sohbet mesajlarından sosyal medya verileri ve basit sosyal ağ analizine kadar çok çeşitli istihbarat girdilerini bir araya getiriyor.

Detaylara göre Lavender, gözetleme sistemleri aracılığıyla Filistinlilerin toplanan bilgilerini analiz ediyor ve ardından her bir Filistinlinin Hamas veya PIJ’nin askerî kanadına üye olma olasılığını değerlendirip sıralıyor. Bu değerlendirmeden sonra her bir kişiye militan olma olasılığını ifade eden 1 ile 100 arasında puan veriyor.

Buna göre Lavender, bilinen bir militanla Whatsapp grubunda olmak, birkaç ayda bir cep telefonu değiştirmek, sık sık adres değiştirmek gibi kişilerin değerlendirme puanını artıracak çeşitli özellikleri de işliyor.

Belirli bir puan eşiğini karşılayan ve aşan hedefler bir insan analistin tahmini 20 saniye süren incelemesinin ardından operasyon ekiplerine iletiliyor. İnsan analistlerin yaptığı tek şeyse verilen hedefin bir erkeğe ait olup olmadığının kontrol edilmesini içeriyor.

Sistemin çıktılarının test edilmesinin ardından Lavender’in sonuçlarının yüzde 90 doğruluk payı olduğunu tespit eden İsrail ordusu, sistemi kullanmaya karar vererek operasyonlarını genişletiyor. Böylelikle herhangi bir insan kontrolü olmaksızın sistemin tespit ettiği on binlerce hedef yapay zekanın inisiyatifine bırakılarak bombalanmaya başlıyor.

Yuval Abraham’ın ordu içindeki kaynaklarından biri, sistemin kullanılması konusunda, “Hedefleri tek tek incelemedik, otomatik sistemle onları hedef hâline getirdik, Hava kuvvetleri de onları bombaladı.”  ifadesini kullanıyor.

CANLI TAKİP SİSTEMİ: WHERE’S DADDY?

Lavender’in yanı sıra İsrail ordusu hedeflerin canlı konumlarının tespiti için ayrı bir sistem kullanmış.

Kaynaklara göre Where’s Daddy? (Babam Nerede?) adı verilen bu canlı takip sistemiyle hedeflenen kişilerin izleri sürülüyor, hedefler evlerine adım atar atmaz evin içindeki herkesle birlikte saldırıya uğruyor.

Bir başka kaynaksa ölen insanların birçoğunun kadın ve çocuk olduğunu, “Diyelim ki bir evde bir Hamas üyesi ve 10 tane sivil olduğunu biliyorsunuz. Genellikle bu 10 kişi kadın ve çocuk olur. Bu açıdan bakıldığında öldürülen insanların çoğu kadın ve çocuk oluyor.” cümleleriyle vurguluyor.

SİVİL ÖLÜMLERİNE GÖZ YUMULMUŞ

Abraham’ın haberinde yer alan en kritik detaysa, Lavender’in yüzde 10’luk hata payının bulunması. Bunun anlamı, yapay zekanın hazırladığı ölüm listesinde birçok masumun yer alması.

Yani Lavender, Hamas ve PIJ ile bağlantısı çok az veya hiç olmayan kişileri de hedef hâline getirmiş ve bu İsrail ordusu tarafından bilinirken sivil ölümlerine göz yumulmuş.

Lavender tarafından hedef hâline gelen siviller için hatayı tespit edecek bir denetim mekanizmasının olmaması, pratikte örneğin bir Hamas üyesinin telefonunu oğluna, eşine, akrabasına veya rastgele birine verdiğinde o kişinin evinin bombalanmasıyla sonuçlanmış.

Terk edildiğini düşünen yapay zeka, cinayete teşebbüs etti

Her bir alt rütbeli Hamas üyesi için 10-15 sivilin öldürülmesine göz yumduklarını söyleyen kaynaklar, üst düzey Hamas üyeleri için bu sayının yüzlerce sivile çıktığını da vurguluyor.

İsrail ordusunda Lavender’i kullanan bir kaynak bunun sık sık olduğunu dile getirirken, “Yüzde 10’luk hata payı olduğunu, yani hedeflerin yüzde 10’unun Hamas militanı olmadığını biliyorduk. Ordu uygulanan asgari insan denetiminin bu hataları keşfetmeyeceğini biliyordu. Sıfır hata politikası yoktu. Savaşta her hedefin doğruluğunu kanıtlayacak zamanınız olmuyor, dolayısıyla ikincil hasar ve sivillerin ölmesi riskini göze alıyorsunuz.” ifadelerini kullanıyor.

PAHALI BOMBALARDAN TASARRUF EDİYORLARMIŞ

Bunun yanı sıra kaynaklar, alt düzey Hamas üyelerinin aileleri ve komşularının “önemsiz insanlar” olarak adlandırıldığını ve bu hedeflere gönderilen bombaların daha pahalı bombalardan tasarruf etmek için “dilsiz” yani güdümsüz bombalarla vurulduğunu belirtiyor.

Söz konusu bombalar, evlerin veya başka yerlerin yıkılmasını, direkt olarak insanı öldürmemesini ancak fiziksel olarak ağır yaralanmalarında başrolü oynuyor.

Yuval Abraham’ın ortaya çıkardığı yapay zeka destekli katliam sistemiyle birlikte İsrail’in tüm dünyanın gözleri önünde Filistin’de işlediği insanlık suçu bir kez daha gözler önüne seriliyor.

Hiçbir haberi kaçırmayın!

E-Bültenimiz ile gelişmelerden haberdar olun!

İstenmeyen posta göndermiyoruz! Daha fazla bilgi için gizlilik politikamızı okuyun.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Bu site, istenmeyenleri azaltmak için Akismet kullanıyor. Yorum verilerinizin nasıl işlendiği hakkında daha fazla bilgi edinin.

Başa dön tuşu