Yapay Zeka

DARPA’nın dev projesi GARD yapay zekayı saldırarak eğitecek

Pentagon güvenebileceğimiz otomatik sistemleri tehdit eden siber saldırganlarla mücadele etmek için büyük teknoloji şirketleriyle birlikte çalışıyor.

Şubat ayında DARPA ( Savunma İleri Araştırma Projeleri Ajansı ) yeni bir program için proje teklif çağrısı yaptı. Diğer DARPA projeleri gibi, bu projenin de baş harfleri bir anlam oluşturuyor ; Guaranteeing Artificial Intelligence (AI) Robustness against Deception (GARD). Dört yıllık bu girişime bir milyon dolardan fazla para harcanacak. Projenin hedefi ise algılayıcı bazlı yapay zeka yazılımları için -yüz tanıma programları, ses tanıma araçları, sürücüsüz otomobiller, silah tespit etme yazılımları dahil- bir savunma sistemi yaratmak.

BÜYÜK KURULUŞLAR BAŞI ÇEKİYOR

DARPA, GARD projesinde çalışmak üzere 17 kuruluş seçti. Bu kuruluşların içinde, Johns Hopkins University, Intel, Georgia Tech, MIT, Carnegie Mellon University , SRI International and IBM’s Almaden Research Center gibi önemli kurumlar da var. Intel ve Georgie Tech düşman ataklarını savunmaya odaklanarak bu projenin bir kısmına önderlik edecek.

Bilgisayarlı görü algoritması kullanan sensörler, araştırmacıların “çekişmeli saldırılar” olarak adlandırdığı saldırılara karşı savunmasız kalabilir. Bu hackler yanılsama üzerine kurulu. Yani yapay zekanın gördüğünde yapmayı programlandığı şeyleri göstererek onu yanıltmayı amaçlıyor.

Yeni oluşmaya başlayan sürücüsüz otomobil endüstrisi halihazırda bu saldırıların nasıl görünebileceğiyle ilgileniyor. Bunlar dur işaretlerini tanınmayacak hale çeviren ve insan gözüyle etkin bir biçimde görünmeyen çıkartmalar olabilir. Bu çıkartmalar kendi aracınızın yolunu açması için diğer araçları kandırabilir, yol kenarındaki tabelaları değiştirip bir aracı bir işletmenin otoparkına yönlendirebilir veya gelecekte daha kötü etkilere yol açabilir.

Protocol sitesine konuşan GARD programı menajeri Bruce Draper “Günümüz dünyasında kötülük yapmak isteyen insanların var olduğunu biliyoruz” dedi. Bu konudaki endişelerini dile getiren Draper şunları söyledi: “Dışarıda bir çok tehlikenin olduğunu biliyoruz, eğer gelecekte çokça sürücüsüz otomobil olan bir şehir düşünürseniz ve bunların yanlış davranmasına neden olursanız, bütün şehri bloke edebilirsiniz. Büyük bir etki yaratmış olursunuz. Daha korkutucu bir senaryo ise, ilk müdahale araçlarının sürücüsüz olması ve ilk müdahale ekibinin etkisiz hale getirebilmesi ihtimali…”

Yapay zeka yarışında geri kalmak istemeyen ABD’den yeni atılım

ARAŞTIRMANIN AŞAMALARI

Üç gruba ayrılan projede bazı kuruluşlar yapay zekaya yönelik saldırıların nasıl gerçekleştiğini ve sistemin nasıl etkisiz hale getirilebildiğinin teorik temellerini araştıracak. Bir başka grup bu saldırılara karşı bir savunma sistemi inşa edecek ve son grup bunları değerlendirecek. Her altı ayda bir son grup yeni saldırı senaryoları oluşturarak diğerlerinin oluşturduğu savunma sistemini test edip verimlilik ve pratiklik açısından gözden geçirecek.

DARPA önümüzdeki 4 yıl boyunca gelişmeleri değerlendirmek için diğer kuruluşlarla düzenli olarak görüşecek. Ancak şimdilik bir araştırma projesi olan bu projede DARPA’ya bir ürün veya materyal sağlamak gibi bir amaç yok.

BİLEŞKE HESAPLAMA PROBLEMİ: KORUYAMIYORSAN HESAPLANAMAZ KIL

Gartner araştırma şirketinin başkan yardımcısı ve analisti olan Arun Chandrasekaran, araştırma şirketlerinin Generative Adversarial Network ( GAN) kaynaklı kötü niyetli saldırılarda bir artış tespit ettiğini söyledi. Chandrasekaran, “Saldırı ve savunma teknolojilerinin çeşitlilik kapsamı büyük ölçüde değişse de tespit etmek ve saldırılara cevap verme konusunda tam olarak saldırıların kendisi kadar gelişkin olmadıklarını” belirtti.

Draper ise “Sorunun hala üzerinde” olduklarını dile getirdi. Askeri ve sivil ortamlarda algoritma kullanımı son yıllarda artış gösteriyor.  Yöntemin kullanım alanı, film projeleri oluşturmaktan borsa yönetimine hatta savaşlarda karar almaya kadar uzanıyor. “Yeni bir eşiğe geçiyoruz” diyerek sözlerine devam  eden Draper, “Önümüzdeki beş ila on yılı düşündüğümüzde askeri veya sivil yaşamda yapay zekanın önemli rollerde kullanıldığını düşünmeden edemiyorum” dedi.

Makine öğrenmesi sisteminin ve eğitme verilerinin satıcılara sağlanmasıyla birlikte hackerların erişime ulaşmasının daha uygun hale geldiğini vurgulayan Chandrasekaran, art niyetli saldırıların da artacağına inandığını ve doğal olarak bunların yaratacağı etkinin de büyük olacağını söyledi.

Temel olarak bunun mevcut tespit sistemlerinden kaçınmakla alakalı olduğunu söyleyen Chandrasekaran “Diyelim ki görüntü ve ses kombinasyonuna dayanan bir sisteminiz var, sesinize veya görüntünüze çok benzer şekilde yeni bir şey yaratmanızın mümkün olduğu gerçeği, temelde önleme sisteminizin doğruluğunu bypass edebileceğiniz anlamına da gelebilir” dedi. Chandrasekaran ayrıca şu anda kullanılan mevcut sistemlerin de ciddi bir şekilde geliştirilmeye muhtaç olduğunu ekledi.

Intel, halihazırda güvenlik açıklarını kapatmaya ve tehditlerin önüne geçmeye odaklanmış durumda. Intel Labs’da çalışan kıdemli araştırmacı bilim insanı Jason Martin bu konu hakkında şimdilik bilinmesi gerekenin bugünün tehdidi olmadığı görüşünde. Ancak yarının problemleri üzerinde yoğunlaşan araştırmaların ender olduğunu da vurguluyor. Burada olmanın güzel olduğunu söyleyen Martin, bu durumun ‘şu an bir tehlike altındayız’ senaryolarından biri olmadığını, aksine sakince araştırma yapıp  sorunların üstesinden gelmeyle alakalı olduğunu ekledi.

Intel ve Georgia Tech yıllardır saldırı araştırmaları konusunda işbirliği içindeler. Bu kurumların odak noktalarından biri ise, kötücül aktörlerin algoritmayı birkaç pikseli değiştirerek, bir kuşun bir bisiklet olduğunu düşünmesinin veya dur işaretinin yanlış etiketlenmesinin kolayca kandıralabiliyor olması üzerinde çalışmak.

Georgia Tech’de görenli akademisyen Duen Horng “Polo” Chau önderliğinde devam eden araştırmanın şu ana kadarki ana fikri: Bir şeyi saldırılardan koruyamıyorsanız, onu hesaplanamaz kılın. Örneğin bazı şifreleme sistemlerinde, saldırganların büyük ölçüde hesaplama kaynakları kullanarak kod şifrelerini çözme olasılıkları vardır ancak bu imkansıza yakındır. Martin ise, fiziksel çekişmeli saldırıların savunmasına benzer bir yoldan yaklaşarak “Umudum, savunma alanındaki teknik kombinasyonların çekişmeli saldırı örneği oluşturmayı çok pahalıya mal edilir hale getirmesi” diyor.

INTEL VE GEORGIA TECH’IN SALDIRI PLANI

Intel ve Georgia Tech, ImageNet ve Microsoft’s Common Objects in Context gibi bazı açık kaynaklı veri kümelerini kullanmayı planlıyor. Açık kaynak verileri bir DARPA gereksinimidir ve Intel ile Georgia Tech araştırmanın tekrarlanabilirliğine öncelik veriyorlar. Ancak bu veri kümeleri halka açık ve geniş bir kullanıcı ağı var. Bu da akla şu soruyu getiriyor: bu çalışmanın öncekilerden farkı ne?

Chau yeni olan şeyin verileri nasıl kullanmayı planladıklarında yattığını iddia ediyor. Plan, yapay zekaya “tutarlılık” öğreterek, şeyleri daha bütünsel olarak görmesine yardımcı oluyor ya da bir şekilde sağduyuyu kullanmaya dayanıyor. Genellikle insanlar bunu doğduklarında veya sonrasında öğrenirler ancak bunu teknolojiyle yeniden yaratmak oldukça zordur. Intel ve Georgia Tech bu karışık sorun için somut olarak üç tane çözüm önerisi sunmayı amaçlıyor: zamansal, anlamsal ve mekânsal tutarlılık.

Buradaki zamansal tutarlılık aniden kaybolan veya aniden ortaya çıkan fiziksel şeyleri anlamakla ilgili. Örneğin eğer sürücüsüz bir otomobil, görünümü titreşip sonra kaybolan bir insan, bir obje veya bir dur işareti kaydederse, hackerlar onun sistemi üzerine etki etmiş olabilir.

Anlamsal tutarlılık anlam kazandırma ile ilgilidir. İnsanlar şeyleri, parçalarının bir toplamı olarak tanımlar. Örneğin bir kuş göz, kanat ve gaga içerir. Araştırma ekibinin planı bir algılama sistemine ikinci bir savunma hattı eklemek. Yani eğer sistem bir bisiklet kaydederse, daha sonra tekerleği, gidonu ve pedalları kontrol etmelidir. Bu bileşenleri bulamazsa, bir şeyler yanlış gitmiş olabilir.

Daha sonra mekânsal tutarlılık ya da şeylerin göreli konumlanışından bilgi edinme. Eğer bir obje detektörü havada dalgalanan bir insan görürse örneğin bu muhtemelen bir şeyleri yanlış çözümlediğine işaret eder. Tüm bu üç strateji için ekip, obje detektörlerine sadece bir saldırıyı çözümlemeyi değil bunu düzeltmeyi de öğretmeyi umuyor.

“Kesinlikle çok iyi bir başlangıç noktası” diyor Chandrasekaran, Intel ve Georgia Tech’in bu planı için.

Yapay zekanın 2030 jeopolitiğinde Türkiye’nin yeri neresi olacak?

GELECEK İÇİN OLASI SONUÇLAR

 Chau’nun uzun vadeli önceliği ölçeklenebilir olmakla birlikte, ekibin şeffaf şekilde yürüttüğü araştırmaları ve yöntemleri açık kaynaklı sunuculara yüklemeyi amaçlıyor. Chau, kötücül aktörlerin açık olan bilgilere erişip kendi avantajları için kullanma riskini kabul ediyor ancak önemli olanın teknolojiden sorumlu olan insanların bu bilgilere erişmesi olduğunu savunuyor. Ayrıca bütün yapay  zeka sistemlerinin de bir kara kutu olduğunu söylüyor.

“İşin aslı yapay zeka ve makine öğrenme teknikleri bazen işe yaramıyor, daha da kötüsü çalışsa bile ikinci işlemlerde çok farklı sonuçlar ortaya çıkıyor” diyen Chau ekliyor: “Ne zaman ve nasıl çalıştığını bilmek çok önemli, daha da önemlisi herhangi biri saldırdığında neleri ifşa edebiliyor, bunu bilmek daha da önemli.”

Ekibin bu tehditlere karşı koyabilmesi için, kötücül aktörlerin henüz farkında olmadıkları savunmasız alanları erkenden keşfetmek hayati öneme sahip. Eğer erkenden keşfedemezlerse, kötücül aktörler kullandıkları yeni tekniklerin kaynak kodunu oluşturmak için gerekli olan araçlara sahip olabilir.

Draper, “En iyi savunmayı bulacağımız konusunda ikna olmuş değiliz, teorimizi geliştirip ‘sınırlar nedir?’ sorusunu anlamlandırmaya çalışıyoruz. Yapabileceğimiz en iyi şekilde onları savunmaya ve  sağlamlaştırmaya çalışıyoruz. Fakat aynı zamanda yeterli teorik altyapıya sahip olmayı da istiyoruz. Böylece insanlar bir yapay zeka sistemi konuşlandırdığında onlara bu sistemin ne derece savunmasız olup olmadığını söyleyebiliriz” dedi.

Geleceğin kritik sistemleri için bu her şeyde fark yaratacak. Son olarak Draper “Eğer işi film önermek olan bir sistemle uğraşıyorsanız, bir saldırının size ne kadar zarar vereceğinden korkmayabilirsiniz ancak sürücüsüz otomobil sistemleriyle uğraşıyorsanız bu çok tehlikeli hale gelebilir” dedi.

Siber Bülten abone listesine kaydolmak için formu doldurunuz

Hiçbir haberi kaçırmayın!

E-Bültenimiz ile gelişmelerden haberdar olun!

İstenmeyen posta göndermiyoruz! Daha fazla bilgi için gizlilik politikamızı okuyun.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Bu site, istenmeyenleri azaltmak için Akismet kullanıyor. Yorum verilerinizin nasıl işlendiği hakkında daha fazla bilgi edinin.

Başa dön tuşu