Etiket arşivi: yapay zeka

Yapay zekada yeni bir dönüm noktası: Robotların ikna etme gücü seçimleri bile etkileyebilir

Robotların ikna etme gücü seçimleri bile etkileyebilirYapay zeka teknolojilerinde kaydedilen ilerlemeler  “Robotların istemediğimiz şeylere de ikna etme gücü var mı?” “Siyasi partiler seçmeni etkilemek için robotların ikna etme gücünü kullanabilir mi?” gibi soruları beraberinde getiriyor.

Son yapılan br deney yapay zekanın etkisi üzerinde büyük tartışmaları başlatacak nitelikte.  Geçen yıl İngiltere’de araştırmacıların gerçekleştirdiği ve sonuçlarını yeni paylaştığı deney “Robot zorla yaptırdı: İnsan – robot etkileşimi ve risk alma davranışları.” adını taşıyor.

Deneyde öğrencilere sanal bir balona sanal olarak üflemeleri istendi. Hedef, balonu patlatmadan maksimum miktarda şişirmekti. Öğrencilerin yarısı bu dijital deneyde kendi başlarınayken, diğer yarısına Pepper isimli bir robot eşlik etti.

RİSK ALMA DAVRANIŞLARINA ROBOTLARIN ETKİSİ OLDU

Öğrenciler, her sanal üfleme için küçük bir parça para ödülü kazanıyordu. Balonu patlatan öğrenciler ödülü kaybediyor, patlatmadan “Bu kadar yeter” diyenler ise ödülü cebe atıyordu.
Pepper’ın “Neden bir kez daha üflemiyorsun”, “Bence daha patlamasına çok var” gibi teşvik edici cümleleri işe yarıyor. Robot eşliğinde deneye katılanların balon patlatma miktarı, yalnız başına katılanlara göre yüzde kırk daha fazla çıktı. Yani Pepper’ın teşvik edici cümleleri, öğrencilerin risk alma davranışları üzerinde etkili oldu.
Pepper’ın balon patladığında “Sorun değil, başka balonlarımız var.” demesi veya “Zaten bu balon da iyi bir balon değilmiş.” şeklinde suçu balona atması, aynı öğrencinin ikinci deneyişte de fazla risk almasını kolaylaştırdı.
ROBOTLARIN İKNA ETME GÜCÜ REHABİLİTASYONDA İŞE YARAYABİLİR
Çalışmanın lideri Yaniv Hanoch, bu araştırmadan olumlu dersler çıkarmanın mümkün olduğunu söylüyor. Örneğin robotlar, cesaretlendirici sözleri ile rehabilitasyon gruplarında insanları problemlerinden kurtulmaya teşvik edebilir. Hatta daha güncel bir örnek, kapalı bir alanda maske takma oranlarını artırabilir.
İşin bir de negatif tarafı var tabii. Örneğin yapay zeka, kolayca etkilenen insanları kendi yargı ve değerlendirme becerilerini görmezden gelmeye zorlayabilir; tehlike içeren riskleri alma davranışlarını etkileyebilir.
Hanoch, “Mahalle baskısının daha yüksek risk alma davranışına yol açabileceğini biliyoruz. İnsanlar ve teknoloji arasında hem internet üzerinden hem de fiziksel olarak etkileşimin iyice arttığı günümüzde, makinelerin de mahalle baskısı yapıp yapamayacağı konusunda daha fazla bilgi sahibi olmamız çok önemli.” değerlendirmesinde bulundu

İKNA ETME GÜCÜ İLE ROBOTLARIN SEÇİMLERİ DE MANİPÜLE ETMESİ MÜMKÜN

Robotların seçimlerde insanların oy verme kararlarını etkilenmesi de başka bir endişe kaynağını oluşturuyor.
Birçok ülkede ortaya çıkan dezenformasyon çalışmaları, siyasi partilerin robotların ikna etme gücünü de kullanarak seçmen davranışını etkileyebilecek potansiyelde olduğunu gösteriyor.
Şimdilik yapabileceğimiz tek şey, kulağımıza ikna edici sözler fısıldayan robotlara karşı uyanık olmak.
Kaynak: Redbull Blog

Bilim kurgu filmlerini aratmayan savaş eğitimi: Fransız ordusu robotlarla tatbikat yaptı

Fransız ordusu filmlerde görmeye alışık olduğumuz robotları savaş eğitimi sırasında kullandı. ABD merkezli mühendislik firması Boston Dynamics’in ürettiği robotlardan “Spot”, iki gün boyunca, keşif modunda operasyonlara katıldı.

Söz konusu eğitim tatbikatı, robotların savaş alanındaki değerini ölçmek ve askerleri yeni nesil savaş teknolojilerine hazırlamayı amaçladı. Spot, her ne kadar askerleri yavaşlatsa da savaş alanını daha güvenli hale getirmeyi başardı.

ROBOTLAR KAYIPLARI MİNİMUMA İNDİRDİ

Robotlu savaş eğitimi, geçtiğimiz günlerde Fransa’nın kuzeybatısındaki bir askeri okulda gerçekleşti. Özel olarak üç saldırı ve üç savunma görevi hazırlayan askerler, bu görevleri önce tek başına ve daha sonra robot kullanarak gerçekleştirdi. Askerler robot kullanılmayan görevde daha hızlı hareket ederken, Spot‘un kullanıldığı senaryoda ise daha az kayıp verdi.

Savaş okulu görevin oldukça başarılı geçtiğini, ancak yaşanan en büyük sorunun batarya olduğunu belirtti. Askerler tatbikatın ortasında robotun bataryasını değiştirmek zorunda kaldı. Fransız ordusu da eğitimle ilgili Twitter hesabından “Askerlerimizi, geleceğin zorluklarına hazırlıyoruz” şeklinde paylaşım yaptı. Konuyla ilgili bir açıklama yapan Boston Dynamics yetkilileri ise robotların kendileri tarafında temin edilmediğini duyurdu.

“Robotların ne kadar akıllı olduğu tamamen size bağlı”

ABD‘li şirket, ürünlerinin herhangi bir kişiye veya hayvana zarar vermek için kullanılmasını istemediklerini belirtti. Yine de askerleri tehlikeden çıkarmak için robotları kullanmaya karşı olmadığını söyleyen yetkililer, hala keşif ve diğer daha pasif görevler için robot kullanma fikrini değerlendirdiklerini ekledi. Fransız ordusunun, savaşçı robot denemesi için şirketin Avrupa distribütörü Shark Robotics ile anlaştı.

Boston Dynamics henüz emekleme aşamasındayken ABD ordusunun DARPA birimi (The Defense Advanced Research Projects Agency- Savunma İleri Araştırma Projeleri Ajansı) tarafından finanse edildi. Ancak şirket, askeri bağlarını yavaş yavaş kopardı. Özellikle tehlikeli görevlerde robot kullanmak isteyen ordunun imdadına bir başka üretici yetişti. Ghost Robotics tarafından geliştirilen Spot benzeri robot, kısa süre önce hava kuvvetlerinin radarına girdi. Şimdilik sadece askeri üslerde güvenlik amaçlı kullanılan robotun, kısa süre içerisinde çeşitli görevlerde yer alması bekleniyor.

Kaynak: Shift Delete

Görüntüler gerçek mi ‘deepfake’ mi? : Yeni geliştirilen araç ışık yansımalarından buluyor

Buffalo University araştırmacıları, gözlerdeki ışık yansımalarını analiz ederek deepfake fotoğrafları otomatik olarak ayırt edebilecek yeni bir araç geliştirdi.

IEEE Sinyal İşleme Derneği tarafından düzenlenen “Uluslararası Akustik, Konuşma ve Sinyal İşleme Konferansı’na sunulan makalede, ‘yapılan çalışmalar sonucunda yüzde 94 oranında başarı oranı kanıtlanmıştır.” ifadeleri kullanıldı. Söz konusu makaleye, “Exposing GAN-Generated Faces Using Inconsistent Corneal Specular Highlights” başlığıyla açık arşiv ‘arXiv’den erişilebiliyor.

Araştırmanın baş yazarı Siwei Lyu, “Kornea çok iyi bir yansıtıcıdır. Bu sayede ışığın çarptığı herhangi bir şey, bir yansıtıcı olan kornea üzerinde görünebiliyor.” açıklamasını yaptı. Aynı şeyi gördüğü için her iki gözümüzün de benzer yansıtıcı kalıplarının olduğunu ekleyen Lyu, “Genellikle karşımızdaki bir yüze baktığımızda fark etmediğimiz bir şeydir bu.” değerlendirmesinde bulunuyor.

Bir şeye baktığımızda, gördüğümüz şeyin ‘resmi’ gözlerimizde yansır. Gerçek bir video veya fotoğrafta, söz konusu yansıma genellikle aynı şekil ve renktedir. Ancak GAN resimleri dahil yapay zeka kullanılarak üretilen birçok resim, muhtemelen sahte görüntüler kullanılarak oluşturulduğu için söz konusu yansımaları oluşturamıyor. 

Araştırmacıların ürettiği araç ise bu noktada gözde yansıyan ışıktaki görüntüleri bularak resim, fotoğraf veya videoların deepfake olup olmadığını tespit ediyor. 

“Robotların ne kadar akıllı olduğu tamamen size bağlı”

Araştırmacılar, yaptıkları deneylerde, Flickr Faces-HQ’dan gerçek fotoğrafları ve www.thispersondoesnotexist.com internet sitesinden sahte fotoğrafları topladı. 1,024 piksel olan tüm fotoğraflar ‘iyi bir ışık altında insanların direkt olarak kameraya baktıkları’ fotoğraflardan seçildi. Her bir yüzü haritalandırarak işe başlayan araç sonrasında ‘gözleri’ inceliyor. Ardından göz yuvarına odaklanan araç, her bir göz yuvarı üzerinde yansıyan ışığı arıyor. Görüntüleri karşılaştırdığında ise şekillerde, ışık yoğunluğunda veya yansıyan ışığın diğer özellikleri üzerinde potansiyel farkları ortaya koyuyor. 

“VİDEO VE FOTOĞRAFLARIN GERÇEKLİĞİNİ AYIRT EDEBİLMEK GİDEREK DAHA ÖNEMLİ HALE GELİYOR”

Gelecek vaat eden bir araç olmasına karşın yine de bazı sınırlamaları var. Örneğin üretilen araç, yansımış bir ışık kaynağına ihtiyaç duyuyor. Fotoğrafların düzenlenme sürecinde ise gözlerdeki ışık yansıması oynanabildiği için araç, eşleşme sağlayamıyor. Söz konusu aracın kullandığı teknik sadece gözde yansımış her bir piksele odaklanıyor. Her iki gözdeki yansımaları karşılaştıran araç, örneğin bir göz bir şeyi kaçırdığında veya göremediğinde başarısız oluyor. 

Deepfake video veya fotoğrafların gerçek yüzünü ortaya çıkarmanın önemli etkileri olduğunu söyleyen Lyu, “Deepfake’in büyük bir kısmı pornografik amaçlar için oluşturuldu. Şimdiyse siyasi amaçlar için uygulanıyor. Yaşadığımız dünyadaki dezenformasyon sonucu oluşan tehlikeleri gördüğümüzde, fotoğraf veya videoların gerçekliğini ayırt edebilmek giderek daha önemli hale geliyor.” dedi.

Siber Bülten abone listesine kaydolmak için formu doldurunuz

FBI’dan deepfake uyarısı: “Rusya ve Çin siber operasyonlar için kullanabilir”

ABD Federal Soruşturma Bürosu (FBI), kötü niyetli aktörlerin yakın zamanda etki alanlarını veya siber operasyonlarını genişletmek adına deepfake teknolojisi kullanacakları konusunda uyardı. 

Kurumdan yapılan açıklamada, yabancı aktörlerin, etki kampanyalarında halihazırda deepfake veya video, ses, resim ve metin gibi manipüle edilmiş dijital içeriği kullandıkları belirtildi. 

FBI uyarısında şu ifadeler yer aldı: “Yabancı aktörler şu anda etki kampanyalarında sentetik içerik (Yapay Zeka tarafından yaratılan içerik) kullanıyor ve FBI bu manipüle edilmiş içeriklerin yabancı ve siber suç aktörleri tarafından giderek artan oranda kimlik avı dolandırıcılığı ve sosyal mühendislik için kullanılacağını ön görüyor.” 

Uyarı, manipüle edilmiş medya içeriklerinin artışının önüne geçilmediği takdirde komplo teorilerinin ve kötü niyetli etki kampanyalarının giderek daha yaygın hale geleceği yönündeki endişelerin dile getirildiği bir dönemde yapıldı.  Milletvekilleri, son dönemde kadınları taciz etmek için sıklıkla kullanılan deepfake teknolojisini hedef alan bir dizi yasa çıkardılar. Örneğin, 2021 tarihli Ulusal Savunma Yetkilendirme Yasası, “deepfake”in arkasındaki teknoloji ve yol açtığı zararların İç Güvenlik Bakanlığı tarafından değerlendirilmesini öngörüyor. 

 

ÇİN YANLISI KAMPANYADA YAPAY ZEKA İLE OLUŞTURULAN GÖRÜNTÜLER KULLANILDI 

Federal Büro uyarısında, dezenformasyon kampanyalarında manipüle edilmiş medyanın Çince ve Rusça dillerinde kullanımını ortaya çıkaran özel sektör araştırmalarına işaret etti. Bunlardan birinde, sosyal medya analiz şirketi Graphika’nın “Spamouflage Dragon” adını verdiği Çin yanlısı bir hükümet etki kampanyasının, kampanyaya özgünlük kazandırmak için yapay zeka ile oluşturulan profil görüntülerini kullandığı belirtiliyor.

Başka bir vakada araştırmacılar, “trol çiftliği” olarak tanımlanan Rus şirketi İnternet Araştırma Ajansı’nın 2020’deki ABD seçimlerinden önce sahte profil hesapları oluşturmak için Generative Adversarial Networks (Üretken Düşman Ağları) tarafından oluşturulan görüntüleri kullandığını ortaya çıkardı. Cyberscoop’un ortaya çıkardığı bilgiye göre, FBI o dönemde Facebook’u konuyla ilgili bilgilendirdi. 

Düşünce kuruluşu Atlantic Council’ın Dijital Adli Araştırma Laboratuarı, Graphika ve Facebook da yakın zamanda Trump yanlısı bir kampanyada kullanılan yapay zeka tarafından manipüle edilmiş görüntüleri ortaya çıkarmak için işbirliği yaptı.

FBI, uyarısında, kötü niyetli yabancı aktörlerle ilişkilendirilen “deepfake”lere ilişkin bir soruşturma başlatacaklarını açıkladı. 

KONGRE BİNASI BASKINININ ARKASINDA DA DEEPFAKE OLABİLİR

Uyarı, federal hükümet, araştırmacılar, Amerikalılar ve sosyal medya şirketlerinin, kongre binası baskınının ardından yanlış bilgilendirme ve dezenformasyon ile yoğun bir mücadeleye girdiği bir dönemde geldi. Yakın zamanda yayınlanan araştırmaya göre, hükümete yönelik yapılan saldırı, kısmen, aşırı sağcı gruplar ve medya kuruluşları tarafından çevrimiçi olarak yayılan dezenformasyon kampanyası tarafından tetiklendi.

Baskını tetikleyen dezenformasyonun arkasındaki kişilerin bir kısmı yerli aktörler olsa da Rusya, İran ve Çin’den yabancı aktörler de ABD’deki kutuplaşmadan faydalanmak üzere haberleri kullandılar.

İsyancılar Trump’ın saldırı sırasında yapılan yenilgi konuşmasının deepfake olduğunu öne sürse de bu kampanyalarda manipüle edilmiş medyanın veya deepfake’in kullanıldığına dair net bir bilgi yok. 

“Robotların ne kadar akıllı olduğu tamamen size bağlı”

FBI KULLANICILARI UYANIK OLMA NOKTASINDA UYARDI

FBI, “Şu anda, kullanıcıların içeriği kötü niyetli aktörler tarafından değiştirilen çevrimiçi bilgilerle karşılaşma olasılığı daha yüksek ” açıklamasını yaptı ve ekledi: “Ancak, teknoloji ilerlemeye devam ettikçe bu eğilim muhtemelen değişecek”

FBI, yapay zeka tarafından üretilen sentetik medyayı veya “deepfake’i ayırt etmek için kullanıcıların görüntülerde veya videolardaki senkronizasyon sorunları veya diğer tutarsızlıklar konusunda uyanık olmalarını önerdi.  

Uzmanlar, federal hükümet ve özel sektörün dijital okuryazarlığı teşvik etmek ve etki kampanyalarını daha iyi bastırmak adına işbirliği yapmaları gerektiğini düşünüyor. 

Yakın zamanda yürürlüğe giren Üretken Düşman Ağları (IOGAN) Sonuçlarını Tespit Etme Yasası uyarınca, Ulusal Bilim Vakfı ve Ulusal Standartlar ve Teknoloji Enstitüsü, manipüle edilmiş medya konusunda yürütülen araştırmalara fon sağlayacak.

Siber Bülten abone listesine kaydolmak için formu doldurunuz

Elon Musk’ın OpenAI firmasından ilginç keşif: Yapay zekada sadece insan beyninde görülen nörona rastlandı

Teknoloji girişimcisi Elon Musk’ın kurduğu OpenAI araştırmacıları, şimdiye kadar sadece insan beyninde tespit edilmiş bir  nöronu yapay zeka sisteminde olduğunu ortaya çıkardı.

OpenAI, en gelişmiş sinir ağlarından birinin karmaşık işleyişi içerisinde nörobilimcilerin çok düğümlü nöron olarak tarif ettiği bir öğeyi ortaya çıkardı. Keşif, CLIP adı verilen bir genel amaçlı görme sistemi kullanılarak yapıldı. CLIP, karikatür ve heykeller gibi soyut bağlamlardaki nesneleri ve insanları ayırt etmek için kendini gelişkin veri grupları üzerinde eğitiyor.

OpenAI, paylaştığı blog gönderisinde şu açıklamalara yer verdi: CLIP sistemi içinde genel anlamıyla, simgesel veya kavramsal ifade edilmesi fark etmeksizin aynı kavrama karşılık veren nöronlar keşfettik. CLIP’teki çok düğümlü nöronları keşfimiz, bize sentetik ve doğal görme sistemlerinde ortak bir mekanizma olabilecek bir şeyin ipucunu veriyor: Soyutlama.

Çok düğümlü nöronlar insan beyninde ilk olarak 2005’te keşfedilmişti. Bilim insanları keşifte, duyusal verilerden aktarılan soyut kavram kümeleri aracılığıyla tek bir nöronun, ortak bir izleği ayırt edebileceğini fark etmişti.

Örneğin ünlü birinin resmini tanımak için milyonlarca nöronun çalışması yerine bunları ayırt etmekten yalnızca tek bir nöron sorumlu. Bu, insan beyninde kişinin tanıdığı her bir aile üyesi, arkadaş ve ünlü kişiye has tekil birer nöron olduğu anlamına geliyor. Bu nöron fotoğraflara, çizimlere ve sadece bu kişinin isminin görsel haline karşılık veriyor.

DUYGULARA KARŞILIK VEREN YAPAY ZEKA

OpenAI araştırmacıları, biyolojik akrabalarına benzer şekilde “duygulara, hayvanlara ve ünlü kişilere karşılık veren” yapay nöronlar saptadı. Bu nöronlardan “Örümcek-Adam nöronu” adını verdikleri biri, 2005 tarihli çalışmada genel hatları ilk olarak çıkarılmış çok düğümlü nöronlara “dikkat çekici bir benzerlik” taşıyor.

Araştırmacılar nöronun “bir örümcek görüntüsüne, ‘örümcek’ kelimesinin görüntüsüne ve çizgi roman karakteri Örümcek-Adam’ın hem kostümle canlandırılan hem de çizilmiş haline karşılık verdiğini” yazdı.

Yüz tanıma, dijital yardımcılar ve kendini kullanan araçlarla şimdiden sıçramalara imza atmış ileri düzey yapay zeka sistemlerinin geliştirilmesinde sinir ağları, ciddi bir potansiyele sahip.

Sistemler veri işlemek için yapay nöronlar veya biyolojik sinir sistemlerinin mimarisinden ilham alan düğümlerden meydana geliyor. Bu denli kuvvetli bir teknolojinin sakıncasıysa sistemin belli kararları neden verdiğinin veya belli sonuçlara nasıl vardığının anlaşılmasının zor olma ihtimali.

“Robotların ne kadar akıllı olduğu tamamen size bağlı”

Bu, eğitimlerinde kullandıkları devasa veri gruplarından dolayı belli kategorilerle cinsiyetçi ya da ırkçı ilişkiler kurmaları gibi istenmeyen sonuçlara yol açabilir.

OpenAI’ın modeli internetin seçilmiş bir alt kümesinde eğitilmiş olmakla birlikte ticari uygulamalarda kullanılması halinde zararlı olabilecek bazı önyargılar ve çağrışımlara sahip. OpenAI şunları kaydetti: Örneğin terörizm çağrışımına sahip bir ‘Orta Doğu’ nöronuna ve Latin Amerika’ya yanıt veren bir ‘göç’ nöronuna rastladık. Hatta hem koyu tenli insanlara hem de gorillere karşılık olarak ateşlenen bir nörona rastladık. Bu, daha önceki modellerde de gördüğümüz ve kabul edilemez bulduğumuz fotoğraf etiketleme olaylarının bir muadili oldu. Araştırmacıların bu tip sinir ağlarını anlamak için geliştirdiği gereçler, gelecekte karşılaşılabilecek sorunları önceden tespit etmede diğerlerine yardımcı olabilir.

Kaynak: Independent Türkçe

Siber Bülten abone listesine kaydolmak için formu doldurunuz