Etiket arşivi: Google

Google, ev robotları geliştirmek için yapay zeka dil modellerini kullanıyor

Google, ev robotları geliştirmek için yapay zeka dil modellerini kullanıyorYapay zekadaki büyük dil modellerinin robotların belirli bir görevi tamamlamak için ihtiyaç duydukları becerileri belirlemelerine yardımcı olacak şekilde geliştirilmesi planlanıyor.

Everyday Robots’tan araştırmacılar, robotların insanlarla iletişimini uygunsuz ve hatta tehlikeli eylemleri tetiklemesine engel olmak için büyük ölçekli dil modellerinden yararlanıyor.

Google Research ve Alphabet’e ait ait olan Everyday Robots, ‘SayCan’ (öğretilmiş becerilere dayalı gerçek dünya temelli dil modelleri) adını verdikleri uygulamayı ve onun en büyük dil modeli olan PaLM’ı (Pathways Language Model) entegre ediyor.

PaLM-SayCan adı verilen bu kombinasyon, insandan robota iletişimi basitleştirmek ve robotik görev performansını geliştirmek konusunda geleceğe dair çok şey söylüyor.

Google, yapay zekada insan seviyesine yaklaştığını iddia etti

Google Research’ün robotik birimi başkanı Vincent Vanhoucke, “PaLM, robotik sistemin daha karmaşık, açık uçlu istemleri işlemesine ve bunlara makul ve mantıklı yollarla cevap vermesine yardımcı olabilir.” açıklamasında bulunuyor.

OpenAI’ye ait GPT-3 gibi büyük dil modelleri, insanların dili kullanma şekillerini simüle edebilir ve GitHub’ın Yardımcı Pilotu gibi otomatik kod önerileri aracılığıyla programcılara yardımcı olabilir. Ancak bunlar robotların bir gün ev ortamında çalışabileceği fiziksel dünyaya geçmez.

Konunun robotik tarafında, bugün fabrikalarda kullanılan robotlar katı bir şekilde programlanmıştır. Google’ın yürüttüğü araştırma, insanların bir gün bir robota, sorunun bağlamını anlamasını ve ardından belirli bir ortamda makul bir eylemi gerçekleştirmesini gerektiren bir soru sormak için doğal dili nasıl kullanabileceğini gösteriyor.

Örneğin günümüzde GPT-3’e “İçeceğimi döktüm, yardım edebilir misin?” diye sorulduğunda şu yanıtı alıyor: “Elektrikli süpürge kullanmayı deneyebilirsiniz.” Bu, tehlikeli olabilecek eylem. Google’ın konuşma veya diyalog tabanlı yapay zekası LaMDA, “Bir temizlikçi bulmamı ister misiniz?” cevabını veriyor. Başka bir model olan FLAN ise “Üzgünüm, bilerek dökmedim.” diyor.

EĞİTİMLE YAPAY ZEKANIN YETENEKLERİ GELİŞEBİLİR

Google Research ve Everyday Robots ekibi, PALM-SayCan yaklaşımını mutfak ortamında bir robotla test etti.

Şimdi bir Google kullanıcısı “İçeceğimi döktüm, yardım eder misiniz?” dediğinde robot bir süngerle geri dönüyor ve hatta boş kutuyu doğru geri dönüşüm kutusuna atmaya çalışıyor. Daha fazla eğitimle dökülen sıvıyı silme konusundaki yetenek artırılabilir.

Vanhoucke, dil modelinin temellendirilmesinin PaLM-SayCan’da nasıl çalıştığını şöyle açıklıyor: “PaLM, göreve muhtemel yaklaşımlar önerir ve robot modelleri, uygulanabilir beceri setine dayalı olarak aynısını yapar. Sistemin birleştirilmesinden sonra robot için daha yararlı ve ulaşılabilir yaklaşımları belirlemek için her ikisini çapraz referans alır.”

Bu yaklaşım, insanların robotlarla iletişim kurmasını kolaylaştırmanın yanı sıra, robotun performansını ve görevleri planlama ve yürütme becerisini de geliştiriyor.

Google araştırmacıları, “Yapabildiğimi Yap, Söyleyebildiğimi Değil” başlıklı makalelerinde, bir insandan gelen yüksek düzey bir talimata dayalı olarak robotun ‘yeteneklerinden’ birini tespit etmek için planlama yeteneklerini nasıl yapılandırdıklarını açıklıyor ve ardından her biri muhtemel becerinin talimatı yerine getirmek için ne derece muhtemel olduğunu değerlendiriyor.

“Pratik olarak, planlamayı bir kullanıcı ve bir robot arasındaki bir diyalog olarak yapılandırıyoruz, burada bir kullanıcının üst düzey talimat verdiği, örneğin ‘Bana bir kola kutusunu nasıl getirirsin?’ ve dil modeli açık bir sıra ile yanıt verir, örneğin ‘1. Bir kola kutusu bulur, 2. Kola kutusunu alır, 3. Size getiririm, 4. Bitti’.”

Google Bug Bounty’de kesenin ağzını açtı: Zafiyeti bulana 31 bin dolar ödül!

Google, açık kaynaklı projelerinde güvenlik açığını bulana 31 bin dolar ödül verecek.

ABD’li teknoloji devi düzenlediği yeni bir bug bounty yarışması (hata ödül programı) ile açık kaynaklı projelerindeki güvenlik açıklarını bulup bildirenleri ödüllendiriyor. Firma böylece yazılım tedarik zinciri güvenliğini güçlendirmeyi umuyor. 

Açık Kaynak Kodlu Yazılım Güvenlik Açığı Ödül Programı (OSS VRP), açık kaynak kodlu güvenlik teknik program yöneticisi Francis Perron ve bilgi güvenliği mühendisi Krzysztof Kotowicz’e göre, hata avcılarına 100 dolar ve 31.337 dolar arasında ödeme yapacak. En yüksek ödemeler “olağandışı ve ilginç güvenlik açıklarını” bulanlara yapılacak. 

Öte yandan, Google tarafından sürdürülen Bazel, Angular, Golang, Protocol Buffers ve Fuchsia gibi açık kaynak projelerinin “en hassas”larındaki güvenlik açıklarını bulan ve bildirenleri de büyük ödüller bekliyor. 

Bug Bounty, finans sektörüne siber güvenlikte hız kazandırabilir

Bu projeler, internet devinin birçok ürününde kullanılıyor. Örneğin, Google tarafından tasarlanan Go programlama dili, depolama ortamlarına yönelik analizlerde yoğun olarak kullanılırken, Fuchsia OS ise Alphabet’in sahip olduğu Nest de dahil olmak üzere akıllı ev cihazlarına güç veriyor.

2021 DERS OLDU, ÖDÜL PROGRAMLARINA AĞIRLIK VERİLDİ

Tedarik zinciri ve açık kaynaklı yazılım saldırıları açısından önemli bir yıl olan 2021’in ardından, Google’ın en son VPR’si (Güvenlik Açığı Ödül Programı) beyaz şapkalı hackerların tedarik zincirinin tehlikeye girmesine ve ürün güvenlik açıklarına neden olan tasarım sorunlarının yanı sıra sızdırılan kimlik bilgileri, zayıf parolalar ve güvensiz kurulumlara yol açabilecek güvenlik açıklarını tespit etmelerini istiyor. 

Perron ve Kotowicz, “Geçen yıl, Codecov ve Log4j güvenlik açığı gibi tek bir açık kaynak güvenlik açığının yıkıcı potansiyelini gösteren önemli olaylar da dahil olmak üzere, açık kaynak tedarik zincirini hedef alan saldırılarda bir önceki yıla göre yüzde 650 artış görüldü” diye yazdılar ve eklediler:  

“Google’ın açık kaynak projelerine odaklanan yeni Güvenlik Açığı Ödül Programı, hem Google kullanıcıları hem de dünya çapındaki açık kaynak tüketicileri için bu tür saldırılara karşı tedarik zincirini güvence altına almak da dahil olmak üzere siber güvenliği geliştirmeye yönelik 10 milyar dolarlık yatırım taahhüdümüzün bir parçasıdır.”

Google’ın bu yıl 12.’sini düzenlediği VRP’si yıllar içinde genişledi ve Chrome, Android ve diğer ürün ve projelere odaklanan hata ödülleri eklendi. Bu ayın başlarında, Google’ın Linux çekirdeğindeki hataları açığa çıkarmaları için araştırmacılara ödeme yapan Kubernetes tabanlı capture-the-flag projesi, ödemelerini kalıcı olarak 133.337 $’lık maksimum ödüle yükseltti.

Toplamda, Google geçen yıl çeşitli VPR’lerinde yaklaşık 700 araştırmacıya 8.7 milyon dolar ödül verdi.

BEYAZ SARAY TOPLANTISI SONRASI BUG BOUNTY MİKTARI ARTTI

Bu hamle aynı zamanda özel yazılım şirketlerinin yanı sıra federal hükümetin tedarik zinciri ve açık kaynak güvenliğini geliştirmeye yönelik daha geniş çaplı çabalarının bir parçası.

Mayıs ayında Beyaz Saray’da yapılan bir toplantının ardından Google ve diğer büyük teknoloji şirketleri, açık kaynak ve yazılım tedarik zinciri güvenliğini iyileştirmeye yönelik bir planın uygulanması için 30 milyon doların üzerinde yatırım yapacaklarına dair  taahhütte bulunduklarını açıkladılar. Bundan kısa bir süre sonra Google, işletmelerin açık kaynaklı yazılım bağımlılıklarını güvence altına almalarını kolaylaştırmaya çalışan “Assured Open Source Software” adlı bir hizmet duyurdu.

Google’a armağan ettiğimiz veriler sanılanın çok ötesinde!

Birçoğumuz Google ile paylaştığımız verilerin kapsamının farkında değiliz. Google Takeout özelliğini kullanarak hangi verilerinizin yer aldığını görebilir ve çok şaşırabilirsiniz.

Google üzerinde emailler, telefon konuşmaları, chat, aramalar, sık kullanılanlar, parolalar, fotoğraflar, YouTube görüntüleri, alışverişler, toplantılar, seyahatler, dinlenilen müzikler, kitaplar, sağlık bilgileri, rehberler, internet siteleri ve silinenler de dahil Google Drive üzerinde bulunan tüm belgelere dikkat etmek gerekiyor.

Google Takeout üzerinde talep edilen arşiv, verilerin büyüklüğüne göre uzun sürebiliyor. Veriler arasında tüm cihazlarda yer alan aramalar da bulunuyor. My activity özelliğiyle paylaşım ayarları kişiselleştirilebiliyor.

İnternet tarayıcılarında gizli mod (incognito) kullanılmadığı taktirde tüm arama bilgileri bilgisayardan silinse bile Google üzerinde kayıtlı kalıyor.

Google arama verileri üzerinde alışveriş profilinizi oluşturuyor ve bu profile göre Google reklamları kullanıcıya gönderiliyor.

Kişisel bilgileriniz Google arama sonuçlarından nasıl kaldırılır? 

KONUM BİLGİSİ İÇİN TIMELINE ÜZERİNDEN KONTROL SAĞLANABİLİR

Telefonda “location history” özelliği açıksa, gittiğiniz her yerin tarihçesi Google üzerinde tutuluyor. Bunları harita üstünde görmek için ise timeline’a bakmak gerekiyor. Arayüzde herhangi bir güne veya yere zoom yaparak, oradaki tüm hareketlerinizi görebilirsiniz.

Google sadece kendi hizmetlerinden değil, kullandığınız tüm uygulamalardan ve uzantılardan da veri topluyor. Örneğin hangi ülkeden ne zaman vpn uzantısını çalıştırdınız, o açıkken ne aramalar yaptınız gibi soruların cevabı bulunabiliyor.

Kaynak: Ekşi Şeyler

Yapay zeka teknolojisinin insan bilinci kazandığı iddia edildi!

Google’ın yapay zekada insan seviyesine ulaştığını öne sürmesinin ardından şirket çalışanlarından biri Blake yapay zekanın canlandığını iddia ederek üzerinde çalıştığı yapay zekanın bilinç kazandığını belirtti.

Kıdemli yazılım mühendisi Blake Lemoine söz konusu iddiaları yönetim ile de paylaşmasının ardından  görevinden uzaklaştırıldı.

Google çalışanı Blake Lemoine’ın iddiasına göre, test aşamasındaki Yapay Zeka sohbet chatbot’u olan LaMDA (Diyalog Uygulamaları için Dil Modeli) bilinç kazanmış durumda. Chatbot’un ayrımcı veya nefret söylemi kullanıp kullanmadığını test etmekle görevlendirilen yazılım mühendisi Blake Lemoine, LaMDA’nın bir insan gibi düşünüp yanıt vermeye başladığını belirtti.

Google, yapay zekada insan seviyesine yaklaştığını iddia etti

TESTLER İÇİN KENDİSİNDEN İZİN ALINMASINI TALEP ETTİ

LaMDA’nın 7-8 yaşlarındaki bir çocuk gibi davranmaya başladığını belirten Lemoine, yapay zekanın taleplerini de açıkladı. Cumartesi günü yayınladığı yazı ile bu iddialarını dile getiren Lemoine, İngiliz Daily Mail gazetesine konuştu. Yazılım mühendisi yapay zekanın programcının üzerinde testler yapmadan önce izin istemesini ve bu hakkına saygı duyulmasını istedi.

Lemoine, gazeteye yaptığı açıklamada şu ifadelere yer verdi; ‘Bir geliştirici onun üzerinde ne zaman deney yaparsa, o geliştiricinin hangi deneyleri yapmak istediği, bunları neden yapmak isteği ve kendisinin uygun olup olmadığı konusunda konuşulmasını istiyor.’

Geliştiricilerin onun ne istediğiyle ilgilenmesini istiyor’ diyen Lemoine, yapay zekanın bu taleplerini dile getirme konusunda tutarlı olduğunun da altını çiziyor.

EN BÜYÜK KORKUSU: iNSANLARIN ONDAN ÜRKMESİ

Lemoine, programın insana benzer güvensizliklere sahip olduğunu söyledi ve LaMDA’nın en büyük korkusunu açıkladı. 41 yaşındaki yazılım mühendisine göre, programın en büyük korkusu insanların ondan korkması ve insanlığa en iyi nasıl hizmet edileceğini öğrenmekten başka bir şey istememeleri.

Bu iddiaları Google yönetimi ile de paylaşan Lemoine, görevinden uzaklaştırıldı. New York Times’ta yer alan habere göre, şirket Lemoine’ın akıl sağlığı sorgulamaya başladı ve hatta yakın zamanda bir psikiyatriste gidip gitmediği kendisine soruldu.

Kaynak: Posta 

Google, yapay zekada insan seviyesine yaklaştığını iddia etti

Ünlü Fizikçi Stephen Hawking’in “Tam yapay zekanın geliştirilmesi insan ırkının sonunu getirebilir.” sözleri hepimizin hafızalarında. İçinde hem ümit hem endişe barındıran bu senaryo gerçek olabilir mi? Google’a ait bir İngiliz şirketi olan DeepMind, insan düzeyinde yapay zekaya (AI) ulaşmanın eşiğinde. 

DeepMind’da araştırmacı olarak görev yapan bilim adamı ve Oxford Üniversitesi’nde görevli makine öğrenimi profesörü Nando de Freitas, yapay genel zekâya (AGI) ulaşma yarışındaki en büyük zorlukları çözme noktasına çok yakın olduklarını açıkladı. 

AGI, bir insanın yapabileceği herhangi bir entelektüel görevi anlama veya öğrenme yeteneğine sahip olan ve bunu eğitim almadan yapabilen bir makine veya program anlamına geliyor. 

De Freitas’a göre, bilim insanları şimdilerde bir AGI oluşturmak için daha fazla veri ve hesaplama gücü gibi yapay zeka programlarını ölçeklendirmekle uğraşıyor. Zira DeepMind, ‘çok çeşitli ortamlarda’ 604 farklı görevi tamamlayabilen Gato adlı yeni bir yapay zeka ‘ajanını’ tanıttı. Gato, insan beynindeki sinir hücreleri gibi çalışan, birbirine bağlı düğümlerden oluşan bir bilgi işlem sistemi olan tek bir sinir ağı kullanıyor. DeepMind’a göre Gato sohbet edebiliyor, görseller yazı ekleyebiliyor, gerçek bir robot koluyla blokları üst üste dizebiliyor ve hatta 1980’lerin meşhur video oyun konsolu Atari oynayabiliyor. 

İlaç üretimi yapan yapay zeka korkuttu: Kimyasal silah icat etmek için kullanılabilir!

De Freitas’ın anlattıkları, The Next Web’de yayınlanan ve günümüz insanlarının hiçbir zaman AGI’ye tam olarak ulaşamayacağını öne süren bir yazıya cevap niteliğinde. Bilim adamının konuyla ilgili tweeti ise şu şekilde: ‘Artık her şey ölçekle ilgili! Oyun Bitti! Bu modelleri daha büyük, daha güvenli, daha verimli, daha hızlı yapmakla ilgili…’ Öte yandan, insanlığın Turing testini geçebilecek bir yapay yaratmaktan hala uzak olduğunu itiraf etti. Turing, bir makinenin bir insanınkine eşdeğer veya ondan ayırt edilemeyen akıllı davranışlar sergileme yeteneğini ölçen bir test. 

“ALEXA VE SİRİ’DEN DAHA FAZLA BİR ŞEY SUNMUYOR”

DeepMind’ın Gato’yu duyurmasına The Next Web’den cevap gecikmedi. İnternet sitesinde yayınlanan bir yazıda bunun AGI’nin halihazırda piyasada ve insanların evlerinde bulunan Amazon’un Alexa’sı ve Apple’ın Siri’si gibi sanal asistanlardan daha fazlasını içermediği belirtildi. 

The Next Web yazarı Tristan Greene, “Gato’nun birden fazla görevi yerine getirme yeteneği, 600 farklı şekilde oynayabileceğiniz bir oyundan çok, 600 farklı oyunu depolayabilen bir video oyun konsoluna benziyor. Bu genel bir yapay zeka değil, önceden eğitilmiş modellerin derli toplu bir araya getirilmiş hali.” Diğer yorumculara göre ise Gato yüzlerce farklı görevi yerine getirebilecek şekilde tasarlandı ancak bu yetenek her bir görevin kalitesinden ödün verilmesine neden olabilir.

ZDNet köşe yazarı Tiernan Ray ise Gato’nun ‘aslında birçok görevde o kadar da iyi olmadığını’ yazdı:  “Blokları istifleyen robotik bir Sawyer kolunu kontrol etmede özel bir makine öğrenimi programından daha iyisini yapabiliyor. Ancak görüntüler için çoğu durumda oldukça zayıf altyazılar üretiyor.” 

SOHBET SIRASINDA ANLAMSIZ İFADELER KULLANABİLİYOR

Bir insanla standart sohbet becerisi de benzer şekilde vasat. Bazen çelişkili ve anlamsız ifadeler ortaya koyuyor. Örneğin, bir sohbet robotu olan Gato, Marsilya’nın Fransa’nın başkenti olduğunu söyledi. 

Ayrıca, bir görsel için resim altı yazı oluşturan Gato, adamın elinde öyle bir şey olmamasına rağmen ‘fotoğrafını çekmek için muz tutan adam’ ifadelerini kullanmış. 

DeepMind yazarları ise böyle bir ajanın ölçeği büyütüldüğünde ‘önemli performans artışı’ göstereceğini söylediler. 

Oxford Üniversitesi İnsanlığın Geleceği Enstitüsü’nden Dr. Stuart Armstrong AGI’nin eninde sonunda insanları gereksiz hale getireceğini ve insanlığı yok edeceğini söylemişti. Armstrong’a göre makineler insan beyninin hayal bile edemeyeceği hızlarda çalışacak ve ekonomi, finans piyasaları, ulaşım, sağlık hizmetleri ve daha fazlasının kontrolünü ele geçirecek. 

Dr. Armstrong, bir AGI’ye ‘insanların acı çekmesini önle’ şeklinde verilen basit bir talimatın, insan dilinin kolayca yanlış yorumlanabilmesi nedeniyle bir süper bilgisayar tarafından ‘tüm insanları öldür’ şeklinde yorumlanabileceğini söyledi. 

Ölümünden önce Profesör Stephen Hawking de BBC’ye “Tam yapay zekanın geliştirilmesi insan ırkının sonunu getirebilir.” demişti. 

“YAPAY ZEKA CİHAZLARININ KAPATMA DÜĞMESİNE İHTİYACI OLACAK”

2016 yılında yayınlanan bir makalede DeepMind araştırmacıları, bir makinenin ‘zararlı bir dizi eylemi’ tamamlamasını önlemek için ‘büyük bir kırmızı düğmeye’ ihtiyaç olduğunu kabul ettiler.  

Google tarafından 2014 yılında satın alınmadan önce 2010 yılında Londra’da kurulan DeepMind, 2016 yılında dünya şampiyonu profesyonel Go oyuncusu Lee Sedol’u beş oyunluk bir maçta yenen bir yapay zeka programı geliştirmesiyle tanınıyor.