Yapay Zeka

Yapay Zeka’da madalyonun öteki yüzü: DeepFake ve otonom silahlar başımızı ağrıtacak

Yapay zeka alanı son yıllarda çok önemli gelişmelere şahit oldu.Basit yapay zekâ algoritmaları bile kim olduğumuzu, ne yaptığımızı, ne istediğimizi ve neden istediğimizi bizden daha iyi anlayabilecek düzeye ulaştı.

İnsanlık için büyük fırsatlar sunan yapay zeka ürünleri, hayatın her alanında bize eşlik ediyor. Bugün cep telefonlarımızda bile birçok işimizi gören akıllı sanal asistanlar bulunuyor. Yapay zekâ sistemleri bize zaman tasarrufu sağlıyor ve birçok konuda rahatlık sunuyor.

Eğer durum böyle giderse bugün internet olmadan yaşamayı hayal etmemiz zor olduğu gibi, bundan belki de on yıl sonra yapay zekâ sistemleri olmadan eksik hissedeceğiz. Ancak yıllar boyunca Hollywood filmlerine konu olan ve bilim kurgu kitaplarını süsleyen bu gelişmenin getirdiği tüm sonuçlar ne yazık ki olumlu değil.

Yapay zekâ sistemleriyle ilgili en korkutucu gelişmelerden biri de DeepFake adıyla anılan teknoloji. DeepFake gelişmiş bir algoritma kullanarak internette çok sayıda fotoğrafı bulunan ünlü isimlerin yüzlerini farklı videolardaki kişilerin yüzlerine entegre edebiliyor.

Üstelik bunu o kadar başarılı yapıyor ki videodaki kişinin gerçekten kim olduğunu ayırt etmeniz kimi zaman imkânsız hale geliyor. Bu teknoloji çok hızlı gelişiyor ve sahte videolarla insanları kolayca manipüle etmek için kullanılabileceği gibi özel hayatlarımız gibi diğer birçok alanda insanların başını ağrıtabilir.

OTONOM SİLAHLAR KORKUTUYOR

Elon Musk, geçen sene Birleşmiş Milletler’i yapay zekâ tarafından kontrol edilebilecek otonom silahların yaratacağı tehlikeler konusunda uyardı ve 115 diğer uzman da otonom savaş tehdidine dikkat çekti. Teknolojinin giderek daha kolay, ucuz ve kullanıcı dostu hâle geldiğini düşünürsek, herkes tarafından ulaşılabilir olan otonom silahlar gerçekten de tehdit oluşturabilir.

Örneğin, sadece iyi kalite bir kameraya sahip bir drone bile uygun yapay zekâ yazılımı ile otonom olarak uçabilecek hâle getirilebilir. Yüklenecek yüz tanıma teknolojisi ise, drone kamerasının belirli bir kişiyi saptamasına ve drone’un o kişiyi takip etmesine olanak tanıyabilir.

Yapay zekânın bir bilgisayar sistemine bağlı diye tarafsız olacağını sakın düşünmeyin. Yapay zekâ algoritmaları önyargılı veriler içeren kümelerle beslenebilir ve bu durum yapay zekâyı geliştiren kişi ya da kurumun sahip olduğu önyargıları sistemin mantıksal olarak onaylamasına neden olabilir. Bugün bile, etnik azınlıkları beyaz nüfustan daha fazla dezavantajlı duruma getiren birçok yapay zekâ örneği bulunuyor. İnsanlar ise yapay zekânın, algoritmasının elde ettiği verilere göre sonuca nasıl ulaştığını bilmeden bu sonuçları kabul etme eğilimi gösterebilir ve asıl tehlike de burada yatıyor.

‘Kemal Sunal’lı Banka Reklamı ‘Deepfake’ Tartışmalarını Canlandırdı: Ölmüş Kişilerin Hakları Nasıl Savunulabilir?

SAHTE İÇERİK ÜRETİMİ KOLAYLAŞABİLİR

Sahte içerik oluşturmak üzere tasarlanmış yapay zekâ sistemleri, şirketler ve hükümetler tarafından manipülasyon için kullanılabilir. Bunun için hazırlanmış bir algoritma, son derece hızlı ve geniş bir ölçekte sahte içerik üretilebilir. Bu da toplumsal ölçekte insanların fikirlerinin etkilenmesine neden olabilir.

Yapay zekâ sistemleri günümüzde tıp alanından askeri alanlara kadar birçok farklı alanda kullanılıyor. Gün geçtikçe insanların yerini daha fazla alıyor ve bir noktadan sonra her şeyi yapay zekânın ellerine teslim ettiğimizde bizim için yapacak çok bir şey kalmayacak. Dolayısıyla körelen becerilerimizin kurbanı olabiliriz.

Bugün bile farkında olmadan bunun etkilerini yaşıyoruz. Elle not tutma, zihinden hesap yapma ya da yakınlarımızın telefon numaralarını hatırlama gibi basit yeteneklerimizi bile akıllı telefonlarımız yüzünden çoktan rafa kaldırmış durumdayız.

Kaynak: Redbull Blog

 

Siber Bülten abone listesine kaydolmak için formu doldurunuz

Hiçbir haberi kaçırmayın!

E-Bültenimiz ile gelişmelerden haberdar olun!

İstenmeyen posta göndermiyoruz! Daha fazla bilgi için gizlilik politikamızı okuyun.

İlgili Makaleler

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Başa dön tuşu
%d blogcu bunu beğendi: