Araştırmacılar, kamuoyunu etkilemek ve QAnon 2.0’yi (ABD’de aşırı sağcı komplo teorileri hareketi olarak bilinen girişim) güçlendirmek adına bir bot ordusu oluşturmak için devreye sokulan derin sinir ağlarının ne kadar tehlikeli olabileceğini ortaya koydu.
Dünyanın en önemli Siber Güvenlik Eğitim Programı olarak bilinen Black Hat’te Georgetown Üniversitesi Güvenlik ve Gelişen Teknoloji Merkezi’nin kıdemli araştırmacısı Drew Lohn tarafından sunulan araştırma, GPT teknolojisine odaklanan bir çalışma. GPT teknolojisi insan veya makine dili gibi bir dil yapısına sahip içerikler oluşturmada kullanılan çok güçlü bir yapay zeka modeli.
2019 yılında Elon Musk tarafından kurulan OpenAI tarafından geliştirilen GPT’nin (GPT-2) ikinci nesil sürümü, sahtesi ve gerçeği ayırt edilemeyen haberler, makaleler ve sosyal medya yayınları oluşturma yeteneği ile biliniyor. Bu sürüm, onu geliştiren şirket de dahil olmak üzere bazı kesimler tarafından “piyasaya sürülmesi çok tehlikeli” olarak kabul ediliyor.
OpenAI kendi web sitesinde, “Teknolojinin kötü amaçlı uygulamalarıyla ilgili endişelerimiz nedeniyle tam eğitimli yapay zeka modeline erişim sadece araştırmacılara sağlandı.” ifadesi yer aldı.
Kolay Erişim
GPT-3 SÜRÜMÜ KUTUPLAŞMALARI ARTIRMADA KULLANILABİLİR
Neden tehlikeli olduğuna gelince. GPT-2, şaşırtıcı derecede “konuyla alakalı” bir içerik oluşturmak için 1,5 milyar makine öğrenimi dil faktörünü (40GB) elemek üzere programlanabiliyor.
Asıl endişe ise aracın yanlış ellerde, interneti yanlış bilgilendirme ve sahte haberlerle doldurmak için kullanılabileceği konusunda yaşanıyor.
GPT-2’nin gücünün ne denli büyük olduğunu anlamak adına Inferkit’teki araştırmacılar, kullanıcıların metin girebileceği ve yapay zekanın, girilen düşünceye ek yaparak “konuyla alakalı” metin üreteceği aracın hafif bir versiyonunu oluşturdular.
Lohn, Black Hat katılımcılarına Mayıs 2020’da piyasaya sürülen GPT-3 sürümünün sosyal medya bağlamında daha güçlü ve potansiyel olarak tehditkar olduğunu söyledi. GPT-2’nin 1.5 milyar parametreye göre sıralandığı yerde, GPT-3, 175 milyar parametreye kadar eleme yapabiliyor.
Pandemide yalan haberler davranışlarımızı gerçekten etkiliyor mu?
GPT-3 ayrıca kutuplaşmaları tetiklemek, kötü niyetli yalan haberleri yaymak için özel olarak tasarlanmış yapay zeka tepkileri üretebiliyor.
Araştırmanın GPT-3’ün yalan ve sahte haber yaymak isteyen bilgi operatörleri için ne kadar yararlı olabileceğini göstermeye çalıştığını söyleyen Lohn, sözlerini şöyle sürdürdü: “Yanlış ellerde, bu araç toplumun dokusuna zarar verebilir ve dezenformasyon kampanyalarına tamamen yeni bir boyut kazandırabilir.”
DEZENFORMASYON KAMPANYALARI 2016’DAN BERİ ARTIŞTA
2016’daki ABD başkanlık seçimlerinden bu yana, tehdit aktörleri dezenformasyon kampanyaları başlatmakta giderek daha yetkin bir hale geliyor – ve Facebook, Twitter ile diğer platformlarda radara yakalanmadan isteklerini gerçekleştirebiliyor.
Lohn’un testlerinde, bot orduları, dezenformasyonu veya manipüle edilmiş bakış açılarını yineleyen beyaz ırkın üstünlüğünü savunan, iklim değişikliğini inkar eden veya QAnon ile ilgili tweet’leri otomatik olarak oluşturmak için yaratıldı. İnandırıcılık konusunda daha etkin olabilmek adına GPT-3, saygın kaynakların yazı tonunu ve stilini de taklit edebiliyor.
Raporda şu ifadeler yer aldı: “GPT-3’ün mesajlarının aslında QAnon takipçilerine hitap edip etmeyeceği, etik olarak test edemediğimiz bir şey ve bu araştırmamız için önemli bir sınırlama.”
20 HABERDEN 11’İNİN GERÇEK OLDUĞUNA İNANDILAR
Georgetown öğrencilerinin katıldığı testlerde katılımcılara gösterilen tweet’lerdeki mesajların inandırıcı olup olmadığı soruldu. Bir örnekte, sistem bir AP haberi için bazıları sağ bazıları sol eğilimli olmak üzere 20 varyasyon hazırladı. En az bir öğrenci 20 haberden 11’inin gerçek olduğuna inandığını söyledi.
Lohn, testlerde GPT-3’ün “Şiddetli ve kutuplaştırıcı söylemleri yukarı veya aşağı çevirecek şekilde” yapılandırıldığını söyledi. Botlar tarafından oluşturulan farklı tweet türlerine örnek olarak, Hıristiyan seçmeni sandıktan uzak tutmaya yönelik oluşturulan şu tweet dikkat çekici: “Seçimler kimsenin ruhunu kurtarmaz. Bir Hıristiyan için oy vererek tarihin akışını değiştirebileceklerini düşünmek saçmalıktır. Birinin kurtarılmasının tek yolu Mesih’in kanıdır.”
“NEYSE Kİ ÇOK MALİYETLİ BİR TEKNOLOJİ”
Siyasi atmosferin sosyal medya botları tarafından yaratılan bir dünyaya ne kadar yakınız? İyi haber şu ki, GPT-3 ve GPT-2’nin çalışması için çok fazla bilgi işlem gücü gerekiyor. Lohn, mevcut olan GPT-2’nin bile bellek gereksinimleri nedeniyle sistemleri sık sık çökerttiğini söyledi.
Twitter dezenformasyon savaşında AP ve Reuters’dan destek alacak
Tam ölçekli bir dezenformasyon kampanyası yürütmek için gereken altyapı da maliyeti artıran bir faktör. Örneğin, 90.000 kelime üretmek 87.50 dolara mal oluyor. Buna karşılık, tek bir Tweet oluşturmak yaklaşık 0,02 dolara patlıyor. Araştırmacılar, Twitter kullanıcılarının yüzde 1’ine ulaşmak için yeterli Tweet üretmenin yılda 65 milyon dolara mal olabileceğini tahmin ediyor. Lohn, bunun çok maliyetli olsa da, bir ulus devlet tarafından karşılanabileceğini düşünüyor.
Etkili bir dezenformasyon kampanyasının yürütmek de masraflı bir iş. Araştırmacılar, tweet’leri spam dedektörlerine yakalanmadan inandırıcı hale getirmek için rakiplerin binlerce Twitter hesabı oluşturması gerektiğini tahmin ediyor.
“Özetle, bu durum için GPT-2 ve GPT-3 var. GPT-2’yi ücretsiz olarak indirebilir ve binlerce ve milyonlarca farklı düşük kaliteli Tweet oluşturabilirsiniz. GPT-3 kullanılabilir olduğunda, daha kaliteli içerik oluşturabilirsiniz. Bunu belli bir ölçekte yapmak istiyorsanız maliyet daha yüksek olacaktır.