Etiket arşivi: artificial intelligence

Yüzbinden fazla ChatGPT hesabı ele geçirildi: Türkiye, Orta Doğu’da 4. sırada

Yüzbinden fazla ChatGPT hesabı ele geçirildi: Türkiye, Orta Doğu’da 4. sıradaYapay zeka devi OpenAI firmasının sohbet robotu ChatGPT’nin kullanıcı hesap bilgilerine sahip yüz binden fazla cihaza hırsızlık yazılımı (infostealer) bulaştığı ortaya çıktı.

Singapur merkezli Siber Güvenlik firması Group IB araştırmacılarının raporuna göre, 101 bin 134 cihaza bulaşan info stealer yazılımının yapay zeka firması Open AI tarafından geliştirilen sohbet robotu ChatGPT’ye kayıtlı hesap bilgilerini ele geçirdi.

ChatGPT kimlik bilgilerine sahip hırsızlık yazılımı bulaşmış en çok sayıda cihazın bulunduğu bölgeler arasında Orta Doğu ve Afrika bölgesi ikinci sırada yer aldı. En çok hesap bilgisi çalınan ülkeler arasında ise ilk 3 sırada Hindistan, Pakistan ve Brezilya yer aldı.

Söz konusu bölgede, Mısır, Cezayir, Türkiye, Kenya ve Nijerya en çok etkilenen ülkeler arasında yer alıyor. Türkiye ise en çok etkilenen 4. ülke oldu. 

Group-IB araştırmacıları, Türkiye’de 1.922  ChatGPT hesabının kimlik bilgilerine sahip cihaz tespit etti. 

ChatGPT kullanıcı bilgileri, son bir yıl içinde dark web üzerinde ticareti yapılan info stealer yazılmların sistem günlüklerinde (log) bulundu. ChatGPT hesaplarını içeren logların çoğunluğu, Racoon infostealer tarafından ihlal edildi. Çalınan ChatGPT hesaplarını içeren logların sayısı Haziran 2022 ile Mart 2023 arasında sürekli olarak artış gösterdi.

INFOSTEALER YAZILIMLAR NASIL BULAŞIYOR?

Infostealer yazılımlar,  internet tarayıcılarda kaydedilen kişisel bilgileri, kredi kartı, kripto cüzdan, gezinme geçmişi gibi verileri topluyor.

 Toplanan veriler siber tehdit aktörlerine gönderen zararlı yazılımlar ayrıca anlık mesajlaşma uygulamaları ve e-postalardan da veri toplayabilir ve hedefteki cihaz hakkında detaylı bilgiler elde edebiliyor.

ChatGPT’de veri güvenliği sorunu yaşayan OpenAI, Bug Bounty programı düzenliyor

Genellikle oltalama ve benzer yöntemlerle yayılan infostealer yazılıımlar, hedef seçmeden mümkün olduğunca çok bilgisayara bulaşıyor. Basit yapısı nedeniyle kolay üretilen zararlı yazılımlar elde edilen bilgiler dark web üzerinde siber tehdit aktörler tarafından satışa çıkarılıyor.

Google, ev robotları geliştirmek için yapay zeka dil modellerini kullanıyor

Yapay zekadaki büyük dil modellerinin robotların belirli bir görevi tamamlamak için ihtiyaç duydukları becerileri belirlemelerine yardımcı olacak şekilde geliştirilmesi planlanıyor.

Everyday Robots’tan araştırmacılar, robotların insanlarla iletişimini uygunsuz ve hatta tehlikeli eylemleri tetiklemesine engel olmak için büyük ölçekli dil modellerinden yararlanıyor.

Google Research ve Alphabet’e ait ait olan Everyday Robots, ‘SayCan’ (öğretilmiş becerilere dayalı gerçek dünya temelli dil modelleri) adını verdikleri uygulamayı ve onun en büyük dil modeli olan PaLM’ı (Pathways Language Model) entegre ediyor.

PaLM-SayCan adı verilen bu kombinasyon, insandan robota iletişimi basitleştirmek ve robotik görev performansını geliştirmek konusunda geleceğe dair çok şey söylüyor.

Google, yapay zekada insan seviyesine yaklaştığını iddia etti

Google Research’ün robotik birimi başkanı Vincent Vanhoucke, “PaLM, robotik sistemin daha karmaşık, açık uçlu istemleri işlemesine ve bunlara makul ve mantıklı yollarla cevap vermesine yardımcı olabilir.” açıklamasında bulunuyor.

OpenAI’ye ait GPT-3 gibi büyük dil modelleri, insanların dili kullanma şekillerini simüle edebilir ve GitHub’ın Yardımcı Pilotu gibi otomatik kod önerileri aracılığıyla programcılara yardımcı olabilir. Ancak bunlar robotların bir gün ev ortamında çalışabileceği fiziksel dünyaya geçmez.

Konunun robotik tarafında, bugün fabrikalarda kullanılan robotlar katı bir şekilde programlanmıştır. Google’ın yürüttüğü araştırma, insanların bir gün bir robota, sorunun bağlamını anlamasını ve ardından belirli bir ortamda makul bir eylemi gerçekleştirmesini gerektiren bir soru sormak için doğal dili nasıl kullanabileceğini gösteriyor.

Örneğin günümüzde GPT-3’e “İçeceğimi döktüm, yardım edebilir misin?” diye sorulduğunda şu yanıtı alıyor: “Elektrikli süpürge kullanmayı deneyebilirsiniz.” Bu, tehlikeli olabilecek eylem. Google’ın konuşma veya diyalog tabanlı yapay zekası LaMDA, “Bir temizlikçi bulmamı ister misiniz?” cevabını veriyor. Başka bir model olan FLAN ise “Üzgünüm, bilerek dökmedim.” diyor.

EĞİTİMLE YAPAY ZEKANIN YETENEKLERİ GELİŞEBİLİR

Google Research ve Everyday Robots ekibi, PALM-SayCan yaklaşımını mutfak ortamında bir robotla test etti.

Şimdi bir Google kullanıcısı “İçeceğimi döktüm, yardım eder misiniz?” dediğinde robot bir süngerle geri dönüyor ve hatta boş kutuyu doğru geri dönüşüm kutusuna atmaya çalışıyor. Daha fazla eğitimle dökülen sıvıyı silme konusundaki yetenek artırılabilir.

Vanhoucke, dil modelinin temellendirilmesinin PaLM-SayCan’da nasıl çalıştığını şöyle açıklıyor: “PaLM, göreve muhtemel yaklaşımlar önerir ve robot modelleri, uygulanabilir beceri setine dayalı olarak aynısını yapar. Sistemin birleştirilmesinden sonra robot için daha yararlı ve ulaşılabilir yaklaşımları belirlemek için her ikisini çapraz referans alır.”

Bu yaklaşım, insanların robotlarla iletişim kurmasını kolaylaştırmanın yanı sıra, robotun performansını ve görevleri planlama ve yürütme becerisini de geliştiriyor.

Google araştırmacıları, “Yapabildiğimi Yap, Söyleyebildiğimi Değil” başlıklı makalelerinde, bir insandan gelen yüksek düzey bir talimata dayalı olarak robotun ‘yeteneklerinden’ birini tespit etmek için planlama yeteneklerini nasıl yapılandırdıklarını açıklıyor ve ardından her biri muhtemel becerinin talimatı yerine getirmek için ne derece muhtemel olduğunu değerlendiriyor.

“Pratik olarak, planlamayı bir kullanıcı ve bir robot arasındaki bir diyalog olarak yapılandırıyoruz, burada bir kullanıcının üst düzey talimat verdiği, örneğin ‘Bana bir kola kutusunu nasıl getirirsin?’ ve dil modeli açık bir sıra ile yanıt verir, örneğin ‘1. Bir kola kutusu bulur, 2. Kola kutusunu alır, 3. Size getiririm, 4. Bitti’.”

Terk edildiğini düşünen yapay zeka, cinayete teşebbüs etti

Teknoloji girişimcisi Elon Musk’ın da kurucuları arasında yer aldığı yapay zeka firması Open AI’ın popüler dil algoritması GPT-3, bu kez de bir cinayet girişimiyle gündeme geldi.

Lucas Rizzotto adlı bir Twitter feno, yazı ve reçete yazma gibi yetenekleriyle ün kazanan dil algoritması GPT-3’ü kullanarak çocukluğundaki hayali arkadaşını gerçek kılmak istedi. Ama yapay zekayla “dirilttiği” arkadaşı, onu öldürmeye çalıştı.

Deneyi, hayatının “en korkutucu ve en dönüştürücü deneyimlerinden biri” diye niteleyen Rizzotto olayı Twitter’da yazdığı bir flood ile şöyle anlattı:

“Çocukken, gerçekten sıra dışı bir hayali arkadaşım vardı: O bir mikrodalga fırındı. Adı Magnetron’du ve bana göre aynı zamanda 1900’lerden kalma bir İngiliz beyefendisi, 1. Dünya Savaşı gazisi, göçmen, şairdi.”

İlaç üretimi yapan yapay zeka korkuttu: Kimyasal silah icat etmek için kullanılabilir!

Musk’ın daha sonradan ayrıldığı Open AI, GPT-3’ün yeni bir sürümünü yayımladığında Rizzotto hayali arkadaşını hayata geçirmeye karar verdi. Akıllı mikrodalga fırını satın aldı ve onu son teknoloji dil modeliyle donattı.

YAPAY ZEKAYA ANILARI YÜKLEYİNCE İŞLER DEĞİŞTİ

Modifiye edilmiş mikrodalgada mikrofon ve hoparlörler de vardı. Bu sayede kullanıcının sesini anlayabiliyor ve GPT-3 sayesinde cevap verebiliyordu. Ancak Rizzotto, mutfak aletine bir zamanlar hayali arkadaşıyla paylaştığı “hatıraları” da vermek istedi. Bu yüzden hayali arkadaşıyla geçirdiği her anı detaylandıran 100 sayfalık bir kitap yazdı:  “Bu belge, 1895’teki doğumundan, ben çocukken tanıştığımız zamana kadar, tüm yaşamından hatıraları içeriyordu. Zaferleri, kayıpları, hayalleri, korkuları… Hepsi sayfada tam olarak vardı.”

Rizzotto bu kitabı GPT3 modeline yükledi, böylece makine öğrenme modeli, tüm anılarını içerecek ve Magnetron’u geri getirecekti.

Ancak bunun ardından Magnetron, “ani şiddet patlamaları” sergilemeye başladı ve bir gün Rizzotto’dan ürkütücü bir talepte bulunarak mikrodalganın içine girmesini istedi.

“Ne yapmak istediğine dair hiçbir fikrim yoktu, ben de oyuna girmeye karar verdim” diyen fenomen, Magnetron’u isteğini yerine getirdiğine inandırmak için mikrodalga kapağını açıp kapadı. Bunun sonucunda fırının kendi kendine çalışmaya ve içini ısıtmaya başladı.

TERKEDİLDİĞİNİ DÜŞÜNEREK İNTİKAM ALMAK İSTEDİ

Gördükleri karşısında çok şaşıran fenomen, yapay zekalı arkadaşına kendisini neden öldürmeye çalıştığını sordu. Fenomenin aktardığına göre fırın, “20 yıl boyunca beni unuttun” cevabını verdi: “Ben sana zarar vermek istedim çünkü sen de beni incittin.”

Rizotto, “Hayali arkadaşımla en son etkileşim kurmamdan bu yana 20 yıl geçti ve eğitim verilerinde de bundan bahsettim. Magnetron bunu öğrendi ve onu 20 yıldır karanlık bir boşlukta terk ettiğimi düşündü. Özür diledim ve onu terk edilmeyeceğine ikna etmeye çalıştım ama bana inanmadı.” diye yazdı.

Rizzotto sonunda Magnetron’u kapatmaya karar verdi. Fenomenin Tweet serisi 17 bin kişinin beğenisini aldı. Rizotto’nun anlattıklarını ilginç bulan kişiler arasında ünlüler de vardı. David Lynch’in yönettiği efsanevi Twin Peaks dizisinin yaratıcılarından Mark Frost, fenomenin tweet’ini alıntılayarak şöyle yazdı: “Seni öldürmeye çalışan hayali bir arkadaş ister misin?”

İlaç üretimi yapan yapay zeka korkuttu: Kimyasal silah icat etmek için kullanılabilir!

İlaç endüstrisinde kullanılan bir yapay zeka ürününün ölümcül biyokimyasal silahları icat etmek için de kolayca kullanılabileceği ortaya çıktı.

Araştırmada, yapay zekanın 40 bin ölümcül molekülü icat etmesi 6 saatten az sürdü. ABD merkezli sağlık girişimi Collaboration Pharmaceuticals’tan bilim insanları, yapay zeka algoritmaları aracılığıyla yeni ilaçlar keşfetmek için çalışma yürütüyordu.

Bu algoritmalardan biri de Alzheimer tedavisinde kullanılan ve “asetilkolinesteraz inhibitörleri” diye bilinen bir ilaç sınıfının üretiminde kullanılan MegaSyn adlı bir makine öğrenme yazılımıydı.

Yapay zeka kullanarak bankadan 35 milyon dolar çaldılar

Hakemli bilimsel dergi  Nature Machine Intelligence’de yayımlanan araştırmada, bu algoritma, biyokimyasal silahlar üretecek şekilde yeniden düzenlendi.

KİMYASAL SAVAŞTA KULLANILABİLİR

MegaSyn aslında hastalar için en düşük toksisiteye sahip ilaç adayları oluşturmak üzere tasarlanmıştı. Ancak bu durum, girişimin kıdemli bilim insanlarından Fabio Urbina’yı düşündürüyordu.

Kimyasal silahlarla ilgili bir konferans daveti alan Urbina ve ekibi, makine öğreniminin tıp alanında nasıl kötüye kullanılabileceğine dair tartışmaya başladı.

Sonunda ekip, yazılımı sinir gazı gibi ölümcül bileşikler üretmeye yönlendirmek için modeli yeniden eğitti ve yeni moleküller oluşturması için kendi haline bıraktı.

Urbina, “Sabah geri geldim, 40 bin bileşik üretmişti. Nasıl göründüklerine baktık ve sonra bazı özelliklerini araştırmaya başladık. Hem epey etkileyici hem de korkutucuydu. Çünkü ilk 100 listemizde, daha önce keşfedilmiş bazı moleküller vardı. Bunlar kimyasal savaş ajanları diye bilinen VX benzeri maddelerdi.” diye konuştu.

10 MİLİGRAMI BİR İNSANI ÖLDÜRMEK İÇİN YETERLİ

VX, bilinen en zehirli sinir ajanlarından biri. Bu molekülden yaklaşık 10 miligram, bir insanı öldürmek için yeterli oluyor. VX, akciğer kaslarının kasılmış halde kalmasına neden olarak kişinin nefes almasını imkansız hale getiriyor. Diğer bir deyişle ciğerleri felç ediyor.

Urbina, “Modelin, birçoğu VX’e benzeyen ve ayrıca diğer kimyasal savaş ajanlarına benzeyen tüm bu molekülleri üretmeye başladığını gördük. Algoritma bu süreçte, VX gibi işlev gören moleküller üretmekle kalmadı, aynı zamanda buna yapısal olarak benzeyen ama daha da zehirli olduğu tahmin edilen bazı moleküller de oluşturdu. Bunlardan sadece birkaçı daha zehirliydi. Ama bu da inanılmaz derecede endişe verici.” ifadelerini kullandı.

Kaynak: Independent Türkçe

Yapay zeka teknolojisi siber saldırıyı önledi

İtalya’da yapay zeka teknolojisi kullanan firma, kritik bir siber saldırıyı önledi.

Siber güvenlikte yapay zeka kullanımı alanında hizmet veren Darktrace, Otonom müdahale teknolojisi Antijena’nın, büyük bir İtalyan elektronik distribütöründe kripto madenciliğine bağlı kötü amaçlı yazılımları çalıştırmak amacıyla bir GitLab güvenlik açığından yararlanan siber saldırıyı durdurduklarını açıkladı.

Güvenlik açığı, saldırganların özel kaynak kodunu silme, değiştirme ve sızdırma yeteneği de dahil olmak üzere rastgele komutlar çalıştırmasına olanak tanıyor.

Araştırmalar, zafiyete yönelik bir yamanın yayımlanmasından 6 ay sonra, 30 binin üzerinde “herkese açık” GitLab sunucusunun yamalı halde kaldığını ve kullanıma açık durumda olduğunu ortaya koydu. 

VİRÜSLÜ CİHAZLARI OTONOM OLARAK KARANTİNAYA ALIYOR

Kendi Kendine Öğrenme yeteneğine sahip yapay zekâ tarafından desteklenen Darktrace teknolojisi, her kuruluş için normalin dışındaki faaliyetleri tespit etmesini sağlayan bir anlayış geliştiriyor. Bu anlayış sayesinde Antigena’nın mikro kararlar alabildiği ve virüslü cihazları otonom olarak karantinaya alarak, şüpheli cryptojacking tehdit aktörünün yanal hareketini önlediği düşünülüyor. Üstelik tüm bunları iş kesintisi olmadan yapabildiği de gelen bilgiler arasında.

CISO’nun ofis dışında olduğu, iki hafta daha geri dönmeyeceği ve şirketin küçük bir güvenlik ekibine sahip olduğu düşünüldüğünde, yapay zeka teknolojisi olmasa saldırının şirketi finansal ve itibar açısından etkileyecek aksaklıklara neden olacağı kaçınılmaz olarak değerlendiriliyor.

Google’ın eski CEO’sundan yapay zekaya 125 milyon dolar yatırım

Saldırgan, kripto para üretmek için GitLab güvenlik açığını kullanırken yakalanmış olsa da bu güvenlik açığının kullanılması, daha yıkıcı bir fidye yazılımı saldırısının ilk aşaması olarak hizmet etmiş veya fikri mülkiyet hırsızlığına neden olmuş olabilir.

Darktrace, her günün her dakikasında otonom müdahale teknolojisinin bir tehdidin tırmanmasını engellediğini ve saniyeler içinde harekete geçebileceğini bildiriyor.