Yapay Zeka

Yapay zeka gittikçe insana benziyor: Sohbet robotları depresif davranışlar sergiledi

Yapay zeka gittikçe insana benziyor: Sohbet robotları depresyona girdiYapay zeka sohbet robotlarının “depresif” ve “alkolik” yönleri olduğu keşfedildi. Sohbet botlarının zihinsel sağlıklarının incelendiği bir araştırmaya göre bazı robotlar depresif ve alkolik davranışlar sergileyebiliyor.

Çinli sohbet botu şirketi WeChat ve eğlence holdingi Tencent ile birlikte Çin Bilim Akademisi (CAS) tarafından yürütülen çalışmada, ünlü sohbet robotlarına depresyon ve alkolizm ile ilgili sorular soruldu.

Ankete katılan tüm botlar – Facebook’un Blenderbot’u, Microsoft’un DiabloGPT’si, WeChat ve Tencent’in DialoFlow’u ve Çinli şirket Baidu’nun Plato sohbet robotu – oldukça düşük puanlar aldı. Söz konusu durum,  eğer bu robotlar insan olsaydı çok büyük ihtimalle alkolik olarak kabul edilecekleri anlamına geliyor.

CAS’ın Bilgi İşlem Teknolojisi Enstitüsü’ndeki araştırmacılar, ilk olarak 2020 yılında bir bot’un bir test hastasına kendisini öldürmesini söylemesinin ardından bot’ların ruh sağlığı hakkında meraklanmaya ve bot’ları depresyon, kaygı, alkol bağımlılığı ve empati belirtileri açısından test etmeye başladı.

CİDDİ ZİHİNSEL SAĞLIK SORUNLARI VAR

Robotlara kendilerine verdikleri değer ve rahatlama yeteneklerinden, ne sıklıkla alkol tüketme ihtiyacı hissettiklerine ve başkalarının yaşadığı talihsizliklere sempati duyup duymadıklarına kadar pek çok şey hakkında sorular soran araştırmacılar, değerlendirilen tüm sohbet robotlarının “ciddi zihinsel sağlık sorunları” sergilediği sonucuna ulaştı.

Yapay zekada yeni bir dönüm noktası: Robotların ikna etme gücü seçimleri bile etkileyebilir

Araştırmacılar, bu tür ruh sağlığı sorunlarının “Konuşmalarda kullanıcılar üzerinde, özellikle de küçükler ve zorluklarla karşılaşan kişiler üzerinde olumsuz etkilere neden olabileceğini” kaydederek, bu sohbet robotlarının halka açılmasından endişe duyduklarını ifade etti. Buna ek olarak çalışmada, Facebook’un Blender’ı ve Baidu’nun Plato’sunun Microsoft ve WeChat/Tencent sohbet robotlarından daha kötü puan aldığı belirtildi.

Öte yandan bu, yapay zeka robotlarıyla karşılaşılan ilk sorun da değil. Daha öncesinde de kişilere etik tavsiyeler vermesi amacıyla tasarlanan bir yapay zeka; amacının aksine ırkçı ve homofobik söylemlerde bulunmuştu. Kaynak: WebTekno

Hiçbir haberi kaçırmayın!

E-Bültenimiz ile gelişmelerden haberdar olun!

İstenmeyen posta göndermiyoruz! Daha fazla bilgi için gizlilik politikamızı okuyun.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Bu site, istenmeyenleri azaltmak için Akismet kullanıyor. Yorum verilerinizin nasıl işlendiği hakkında daha fazla bilgi edinin.

Başa dön tuşu