Etiket arşivi: AI

Açık Kaynaklı Firewall’ara Seviye Atlatan Sihirbaz: Zenarmor

Ağ güvenliğinin vazgeçilmez bir parçası olan güvenlik duvarlarında açık kaynak kodlu ürünler ile ticari alternatifleri arasındaki farklar hızla kapanıyor. Açık kaynaklı firewall’ları yeni nesil güvenlik duvarı özellikleri eklenmesini sağlayan ve kurumsal çözüm seviyesine taşıyan teknolojiler her geçen gün güçleniyor.

FreeBSD tabanlı güvenlik duvarları OPNsense ve pfSense de dahil olmak üzere birçok platforma kurulabilen Zenarmor da bu teknolojik çözümler arasında yer alıyor. 

Kullanıcı dostu arayüzü ile dikkat çeken ve 147 ülkede 14 binden fazla kullanıcısı olan yeni nesil güvenlik duvarı plugin’i Zenarmor, modern siber tehditlere karşı kapsamlı koruma sağlamada, sızma önleme, uygulama kontrolü ve yapay zeka destekli web filtrelemenin de içinde bulunduğu birçok özellik ile ağlarını güvence altına almak ve verilerini korumak isteyen kuruluşlar için ideal bir çözüm olarak karşımıza çıkıyor.

Zenarmor’ı ücretsiz kullanmak için tıklayın!

KURULUM DERT OLMAKTAN ÇIKIYOR

Şimdi genel hatlarıyla bahsettiğimiz Zenarmor’un özelliklerine biraz değinelim.

Öne çıkan özelliklerinden ilki kolay kurulum. OPNsense paltformunda kullanıcı arayüzünden diğer platformlarda ise sadece iki satır komut ile kolayca kurulabiliyor. Kullanılan cihazdan bağımsız olarak birçok donanım üzerinde farklı işletim sistemlerinde çalışabilen ürün, kullanıcılarına cihaz/donanım bağımlılığını azaltmada ciddi avantaj sağlıyor. Üstelik uzaktan yönetilebilen bulut yönetim arayüzü Zenconsole ile de güvenlik yöneticilerinin en büyük yardımcılarından biri olmaya aday görünüyor. 

DİNAMİK TEHDİTLERE DİNAMİK ÇÖZÜM

Siber tehditlere her geçen gün yeni bir tanesi eklenirken, siber tehdit aktörleri sistemlere sızmak için sürekli farklı yöntemler geliştirirken savunma araçlarının değişime ayak uyduramaması saldırganların bir adım öne geçmesine yol açıyor. Zenarmor’ı güçlü kılan yanlarından bir tanesi güncel siber tehditlere kolayca adapte olabilmesi. Sıfırıncı gün (zero day) saldırıları ve yeni çıkan zafiyetlere karşı seri önlemler geliştiren Zenarmor, oltalama saldırıları, key loggers, casus yazılımları, ve botnet gibi birçok tehdidi gelişmiş veri tabanı sayesinde kolayca önleyebiliyor.

Yeni nesil güvenlik duvarı plugin’i Zenarmor’ın öne çıkan diğer özellikleri ise şöyle: 

Web filtreleme: Arka planda farklı iki siber istihbarat sisteminin çalıştığı Zenarmor milyarlarca internet sitesinin kategorizasyonu ve güvenlik seviyeleri hakkında isabetli verdiği kararlarla birçok siber tehdidin önünü alıyor.

Uygulama kontrolü: Kurumsal firmaların önemli güvenlik ihtiyaçlarından biri olan ve üretkenliğe zarar veren uygulamaları filtreleme talebine karşılık verecek bu özellik Zenarmor’ın en çok tercih edilen özellikleri arasında yer alıyor. 

Ebeveyn kontrolü: Eğitim kurumları ve ebeveynlerin sıklıkla başvurduğu ebeveyn kontrol özelliği yetişkin olmayan bireylerin daha güvenli internet kullanımı için faydalı bir özellik olarak ön plana çıkıyor.

Raporlama: Kolay üretilebilen, anlaşılır ve birçok güvenlik duvarı yöneticisinin  kısa zamanda adapte olabildiği sade ve kullanışlı arayüzü raporlamada verimliliği artırıyor. Birçok raporu analitik sorgulamarla görselleştirebildiğiniz, zamanlanmış raporlarla izleyebildiğiniz ve paylaşabildiğiniz yapısı ile çoğu firewall sistemlerinde olmayan esnek raporlama özelliği dikkat çekiyor.

ZENARMOR HANGİ ORTAMLARDA KURULABİLİR?

Zenarmor yeni nesil güvenlik duvarının kolay ve neredeyse her yere kurulabiliyor olması en büyük artılarından birisi.

  • Sanal ortamlara (Vbox-Vmware-Proxmox)
  • Donanımsal sunuculara
  • Evinizdeki eski bir PC ye
  • Cloud ortamlara (Google, Amazon gibi)

kurulabiliyor olması Zenamor’u rakiplerinden ayıran en büyük özelliği. Üzerinde koştuğu ortama minimum etkisi nedeni ile fazla kaynak talep etmeyen kaynak cimrisi bir uygulama diyebiliriz.

ZENARMOR KURULUMU NASIL YAPILIR?

Zenarmor’ın web sayfasında detaylı şekilde anlatılan tüm platformlar için kurulum rehberine göz attığınızda firewall kurulumunun daha önce hiç olmadığı kadar kolay olduğunu göreceksiniz. Ülkemizde henüz çok yaygın olmasada dünyada 150 ülkede kullanılan 14 binden fazla kullanıcının güvenlik çözümü olarak ön plana çıkan Zenarmor’u siz de ücretsiz olarak kurup kullanabilirsiniz.

https://dash.zenarmor.com/register/free-edition?utm_source=form&utm_medium=web&utm_campaign=siber_bulten

Yapay zeka tabanlı yeni siber saldırı aracı: WormGPT nedir?

Yapay zeka tabanlı yeni araç WormGPT, siber  tehdit aktörlerinin sofistike siber saldırılar düzenlemesine olanak tanıyor.

Günümüzde yapay zekânın (AI) oldukça popüler hâle gelmesiyle birlikte, teknolojinin kötü niyetli aktörler tarafından kendi avantajlarına göre yeniden tasarlanması ve siber saldırılara daha hızlı ve sofistike olanaklar sunması giderek daha kolay hâle geliyor.

Siber güvenlik platformu olan SlashNext’in bulgularına göre, yeni bir AI siber suç aracı olan WormGPT, yeraltı forumlarında tehdit aktörlerinin sofistike phishing ve iş e-postası sahtekârlığı (BEC) saldırıları başlatması için bir yol olarak tanıtıldı.

WORMGPT HANGİ ÖZELLİKLERE SAHİP?

WormGPT, yapay zeka (AI) tabanlı bir siber suç aracı olarak ortaya çıktı. Bu araç, tehdit aktörlerinin sofistike phishing ve iş e-postası sahtekârlığı (BEC) saldırıları başlatmalarına olanak sağlıyor. 

AI teknolojisi kullanarak, WormGPT, alıcıya özel ve son derece inandırıcı sahte e-postaların otomatik olarak oluşturulmasını sağlıyor ve böylece saldırının başarı şansını artırıyor.

Derin sinir ağlarıyla oluşan içerik çok tehlikeli bir silaha dönüşebilir

 

WormGPT’nin özelliği, GPT modelleri gibi meşhur dil modellerine alternatif olarak tasarlanmış olması ve ayrıca tamamen kötü niyetli faaliyetler için geliştirilmesi. 

WormGPT, EleutherAI tarafından geliştirilen açık kaynaklı GPT-J dil modelini kullanıyor.

Bu tür araçların tehlikesi, yapay zekânın etik sınırlamalardan bağımsız olarak çalışabilmesi ve teknik bilgiye sahip olmayan kişilerin bile hızlı ve yaygın saldırılar başlatmasına izin vermesi olarak düşünülüyor. 

Ayrıca, bu tür araçların mevcut büyük dil modellerinin kötüye kullanımını artıran diğer araçlarla birleştirilmesi ve kullanılması, siber güvenlik açısından önemli bir tehdit oluşturabiliyor.

WORMGPT’NİN TEHLİKELERİ

Güvenlik araştırmacısı Daniel Kelley, “Bu araç kendisini, özellikle kötü niyetli faaliyetler için tasarlanmış GPT modellerine kara bir alternatif olarak sunuyor.” dedi.

Yapay zekânın yarattığı tehdidin altını çizen Kelley, “WormGPT’nin herhangi bir etik sınır olmaksızın faaliyet göstermesi, acemi siber suçluların teknik yeterliliğe sahip olmaksızın hızlı ve büyük ölçekli saldırılar başlatmasına bile izin verebiliyor.” değerlendirmesinde bulundu. 

Özellikle OpenAI ChatGPT ve Google Bard, ikna edici kimlik avı e-postaları üretmek ve kötü amaçlı kod oluşturmak için büyük dil modellerinin (LLM’ler) kötüye kullanılmasıyla mücadele etmek için giderek daha fazla adım atarken, WormGPT gibi araçlar kötü niyetli bir aktörün elinde güçlü bir silah hâline gelebilir.

Kelley, “Yapay zekâ, kusursuz dilbilgisine sahip e-postalar oluşturarak bunların meşru görünmesini sağlayabilir ve şüpheli olarak işaretlenme olasılığını azaltabilir.” diye konuştu.

Yapay zekâ kullanımının sofistike BEC saldırılarının yürütülmesini kolaylaştırdığını belirten  Sınırlı becerilere sahip saldırganlar bile bu teknolojiyi kullanabilir ve bu da onu daha geniş bir siber suçlu yelpazesi için erişilebilir bir araç hâline getirir.” ifadelerini kullandı.

Google, ev robotları geliştirmek için yapay zeka dil modellerini kullanıyor

Yapay zekadaki büyük dil modellerinin robotların belirli bir görevi tamamlamak için ihtiyaç duydukları becerileri belirlemelerine yardımcı olacak şekilde geliştirilmesi planlanıyor.

Everyday Robots’tan araştırmacılar, robotların insanlarla iletişimini uygunsuz ve hatta tehlikeli eylemleri tetiklemesine engel olmak için büyük ölçekli dil modellerinden yararlanıyor.

Google Research ve Alphabet’e ait ait olan Everyday Robots, ‘SayCan’ (öğretilmiş becerilere dayalı gerçek dünya temelli dil modelleri) adını verdikleri uygulamayı ve onun en büyük dil modeli olan PaLM’ı (Pathways Language Model) entegre ediyor.

PaLM-SayCan adı verilen bu kombinasyon, insandan robota iletişimi basitleştirmek ve robotik görev performansını geliştirmek konusunda geleceğe dair çok şey söylüyor.

Google, yapay zekada insan seviyesine yaklaştığını iddia etti

Google Research’ün robotik birimi başkanı Vincent Vanhoucke, “PaLM, robotik sistemin daha karmaşık, açık uçlu istemleri işlemesine ve bunlara makul ve mantıklı yollarla cevap vermesine yardımcı olabilir.” açıklamasında bulunuyor.

OpenAI’ye ait GPT-3 gibi büyük dil modelleri, insanların dili kullanma şekillerini simüle edebilir ve GitHub’ın Yardımcı Pilotu gibi otomatik kod önerileri aracılığıyla programcılara yardımcı olabilir. Ancak bunlar robotların bir gün ev ortamında çalışabileceği fiziksel dünyaya geçmez.

Konunun robotik tarafında, bugün fabrikalarda kullanılan robotlar katı bir şekilde programlanmıştır. Google’ın yürüttüğü araştırma, insanların bir gün bir robota, sorunun bağlamını anlamasını ve ardından belirli bir ortamda makul bir eylemi gerçekleştirmesini gerektiren bir soru sormak için doğal dili nasıl kullanabileceğini gösteriyor.

Örneğin günümüzde GPT-3’e “İçeceğimi döktüm, yardım edebilir misin?” diye sorulduğunda şu yanıtı alıyor: “Elektrikli süpürge kullanmayı deneyebilirsiniz.” Bu, tehlikeli olabilecek eylem. Google’ın konuşma veya diyalog tabanlı yapay zekası LaMDA, “Bir temizlikçi bulmamı ister misiniz?” cevabını veriyor. Başka bir model olan FLAN ise “Üzgünüm, bilerek dökmedim.” diyor.

EĞİTİMLE YAPAY ZEKANIN YETENEKLERİ GELİŞEBİLİR

Google Research ve Everyday Robots ekibi, PALM-SayCan yaklaşımını mutfak ortamında bir robotla test etti.

Şimdi bir Google kullanıcısı “İçeceğimi döktüm, yardım eder misiniz?” dediğinde robot bir süngerle geri dönüyor ve hatta boş kutuyu doğru geri dönüşüm kutusuna atmaya çalışıyor. Daha fazla eğitimle dökülen sıvıyı silme konusundaki yetenek artırılabilir.

Vanhoucke, dil modelinin temellendirilmesinin PaLM-SayCan’da nasıl çalıştığını şöyle açıklıyor: “PaLM, göreve muhtemel yaklaşımlar önerir ve robot modelleri, uygulanabilir beceri setine dayalı olarak aynısını yapar. Sistemin birleştirilmesinden sonra robot için daha yararlı ve ulaşılabilir yaklaşımları belirlemek için her ikisini çapraz referans alır.”

Bu yaklaşım, insanların robotlarla iletişim kurmasını kolaylaştırmanın yanı sıra, robotun performansını ve görevleri planlama ve yürütme becerisini de geliştiriyor.

Google araştırmacıları, “Yapabildiğimi Yap, Söyleyebildiğimi Değil” başlıklı makalelerinde, bir insandan gelen yüksek düzey bir talimata dayalı olarak robotun ‘yeteneklerinden’ birini tespit etmek için planlama yeteneklerini nasıl yapılandırdıklarını açıklıyor ve ardından her biri muhtemel becerinin talimatı yerine getirmek için ne derece muhtemel olduğunu değerlendiriyor.

“Pratik olarak, planlamayı bir kullanıcı ve bir robot arasındaki bir diyalog olarak yapılandırıyoruz, burada bir kullanıcının üst düzey talimat verdiği, örneğin ‘Bana bir kola kutusunu nasıl getirirsin?’ ve dil modeli açık bir sıra ile yanıt verir, örneğin ‘1. Bir kola kutusu bulur, 2. Kola kutusunu alır, 3. Size getiririm, 4. Bitti’.”

Google, yapay zekada insan seviyesine yaklaştığını iddia etti

Ünlü Fizikçi Stephen Hawking’in “Tam yapay zekanın geliştirilmesi insan ırkının sonunu getirebilir.” sözleri hepimizin hafızalarında. İçinde hem ümit hem endişe barındıran bu senaryo gerçek olabilir mi? Google’a ait bir İngiliz şirketi olan DeepMind, insan düzeyinde yapay zekaya (AI) ulaşmanın eşiğinde. 

DeepMind’da araştırmacı olarak görev yapan bilim adamı ve Oxford Üniversitesi’nde görevli makine öğrenimi profesörü Nando de Freitas, yapay genel zekâya (AGI) ulaşma yarışındaki en büyük zorlukları çözme noktasına çok yakın olduklarını açıkladı. 

AGI, bir insanın yapabileceği herhangi bir entelektüel görevi anlama veya öğrenme yeteneğine sahip olan ve bunu eğitim almadan yapabilen bir makine veya program anlamına geliyor. 

De Freitas’a göre, bilim insanları şimdilerde bir AGI oluşturmak için daha fazla veri ve hesaplama gücü gibi yapay zeka programlarını ölçeklendirmekle uğraşıyor. Zira DeepMind, ‘çok çeşitli ortamlarda’ 604 farklı görevi tamamlayabilen Gato adlı yeni bir yapay zeka ‘ajanını’ tanıttı. Gato, insan beynindeki sinir hücreleri gibi çalışan, birbirine bağlı düğümlerden oluşan bir bilgi işlem sistemi olan tek bir sinir ağı kullanıyor. DeepMind’a göre Gato sohbet edebiliyor, görseller yazı ekleyebiliyor, gerçek bir robot koluyla blokları üst üste dizebiliyor ve hatta 1980’lerin meşhur video oyun konsolu Atari oynayabiliyor. 

İlaç üretimi yapan yapay zeka korkuttu: Kimyasal silah icat etmek için kullanılabilir!

De Freitas’ın anlattıkları, The Next Web’de yayınlanan ve günümüz insanlarının hiçbir zaman AGI’ye tam olarak ulaşamayacağını öne süren bir yazıya cevap niteliğinde. Bilim adamının konuyla ilgili tweeti ise şu şekilde: ‘Artık her şey ölçekle ilgili! Oyun Bitti! Bu modelleri daha büyük, daha güvenli, daha verimli, daha hızlı yapmakla ilgili…’ Öte yandan, insanlığın Turing testini geçebilecek bir yapay yaratmaktan hala uzak olduğunu itiraf etti. Turing, bir makinenin bir insanınkine eşdeğer veya ondan ayırt edilemeyen akıllı davranışlar sergileme yeteneğini ölçen bir test. 

“ALEXA VE SİRİ’DEN DAHA FAZLA BİR ŞEY SUNMUYOR”

DeepMind’ın Gato’yu duyurmasına The Next Web’den cevap gecikmedi. İnternet sitesinde yayınlanan bir yazıda bunun AGI’nin halihazırda piyasada ve insanların evlerinde bulunan Amazon’un Alexa’sı ve Apple’ın Siri’si gibi sanal asistanlardan daha fazlasını içermediği belirtildi. 

The Next Web yazarı Tristan Greene, “Gato’nun birden fazla görevi yerine getirme yeteneği, 600 farklı şekilde oynayabileceğiniz bir oyundan çok, 600 farklı oyunu depolayabilen bir video oyun konsoluna benziyor. Bu genel bir yapay zeka değil, önceden eğitilmiş modellerin derli toplu bir araya getirilmiş hali.” Diğer yorumculara göre ise Gato yüzlerce farklı görevi yerine getirebilecek şekilde tasarlandı ancak bu yetenek her bir görevin kalitesinden ödün verilmesine neden olabilir.

ZDNet köşe yazarı Tiernan Ray ise Gato’nun ‘aslında birçok görevde o kadar da iyi olmadığını’ yazdı:  “Blokları istifleyen robotik bir Sawyer kolunu kontrol etmede özel bir makine öğrenimi programından daha iyisini yapabiliyor. Ancak görüntüler için çoğu durumda oldukça zayıf altyazılar üretiyor.” 

SOHBET SIRASINDA ANLAMSIZ İFADELER KULLANABİLİYOR

Bir insanla standart sohbet becerisi de benzer şekilde vasat. Bazen çelişkili ve anlamsız ifadeler ortaya koyuyor. Örneğin, bir sohbet robotu olan Gato, Marsilya’nın Fransa’nın başkenti olduğunu söyledi. 

Ayrıca, bir görsel için resim altı yazı oluşturan Gato, adamın elinde öyle bir şey olmamasına rağmen ‘fotoğrafını çekmek için muz tutan adam’ ifadelerini kullanmış. 

DeepMind yazarları ise böyle bir ajanın ölçeği büyütüldüğünde ‘önemli performans artışı’ göstereceğini söylediler. 

Oxford Üniversitesi İnsanlığın Geleceği Enstitüsü’nden Dr. Stuart Armstrong AGI’nin eninde sonunda insanları gereksiz hale getireceğini ve insanlığı yok edeceğini söylemişti. Armstrong’a göre makineler insan beyninin hayal bile edemeyeceği hızlarda çalışacak ve ekonomi, finans piyasaları, ulaşım, sağlık hizmetleri ve daha fazlasının kontrolünü ele geçirecek. 

Dr. Armstrong, bir AGI’ye ‘insanların acı çekmesini önle’ şeklinde verilen basit bir talimatın, insan dilinin kolayca yanlış yorumlanabilmesi nedeniyle bir süper bilgisayar tarafından ‘tüm insanları öldür’ şeklinde yorumlanabileceğini söyledi. 

Ölümünden önce Profesör Stephen Hawking de BBC’ye “Tam yapay zekanın geliştirilmesi insan ırkının sonunu getirebilir.” demişti. 

“YAPAY ZEKA CİHAZLARININ KAPATMA DÜĞMESİNE İHTİYACI OLACAK”

2016 yılında yayınlanan bir makalede DeepMind araştırmacıları, bir makinenin ‘zararlı bir dizi eylemi’ tamamlamasını önlemek için ‘büyük bir kırmızı düğmeye’ ihtiyaç olduğunu kabul ettiler.  

Google tarafından 2014 yılında satın alınmadan önce 2010 yılında Londra’da kurulan DeepMind, 2016 yılında dünya şampiyonu profesyonel Go oyuncusu Lee Sedol’u beş oyunluk bir maçta yenen bir yapay zeka programı geliştirmesiyle tanınıyor.

Yapay zeka teknolojisi siber saldırıyı önledi

İtalya’da yapay zeka teknolojisi kullanan firma, kritik bir siber saldırıyı önledi.

Siber güvenlikte yapay zeka kullanımı alanında hizmet veren Darktrace, Otonom müdahale teknolojisi Antijena’nın, büyük bir İtalyan elektronik distribütöründe kripto madenciliğine bağlı kötü amaçlı yazılımları çalıştırmak amacıyla bir GitLab güvenlik açığından yararlanan siber saldırıyı durdurduklarını açıkladı.

Güvenlik açığı, saldırganların özel kaynak kodunu silme, değiştirme ve sızdırma yeteneği de dahil olmak üzere rastgele komutlar çalıştırmasına olanak tanıyor.

Araştırmalar, zafiyete yönelik bir yamanın yayımlanmasından 6 ay sonra, 30 binin üzerinde “herkese açık” GitLab sunucusunun yamalı halde kaldığını ve kullanıma açık durumda olduğunu ortaya koydu. 

VİRÜSLÜ CİHAZLARI OTONOM OLARAK KARANTİNAYA ALIYOR

Kendi Kendine Öğrenme yeteneğine sahip yapay zekâ tarafından desteklenen Darktrace teknolojisi, her kuruluş için normalin dışındaki faaliyetleri tespit etmesini sağlayan bir anlayış geliştiriyor. Bu anlayış sayesinde Antigena’nın mikro kararlar alabildiği ve virüslü cihazları otonom olarak karantinaya alarak, şüpheli cryptojacking tehdit aktörünün yanal hareketini önlediği düşünülüyor. Üstelik tüm bunları iş kesintisi olmadan yapabildiği de gelen bilgiler arasında.

CISO’nun ofis dışında olduğu, iki hafta daha geri dönmeyeceği ve şirketin küçük bir güvenlik ekibine sahip olduğu düşünüldüğünde, yapay zeka teknolojisi olmasa saldırının şirketi finansal ve itibar açısından etkileyecek aksaklıklara neden olacağı kaçınılmaz olarak değerlendiriliyor.

Google’ın eski CEO’sundan yapay zekaya 125 milyon dolar yatırım

Saldırgan, kripto para üretmek için GitLab güvenlik açığını kullanırken yakalanmış olsa da bu güvenlik açığının kullanılması, daha yıkıcı bir fidye yazılımı saldırısının ilk aşaması olarak hizmet etmiş veya fikri mülkiyet hırsızlığına neden olmuş olabilir.

Darktrace, her günün her dakikasında otonom müdahale teknolojisinin bir tehdidin tırmanmasını engellediğini ve saniyeler içinde harekete geçebileceğini bildiriyor.