Etiket arşivi: deepfake

Ruslardan deepfake ile casusluk girişimi: Baykar Genel Müdürü Bayraktar hedefteydi!

Ruslardan deepfake ile casusluk girişimi: Ukrayna ve Türkiye hedef alındıRusya’nın deepfake yöntemiyle casusluk girişimini Ukrayna istihbaratı engelledi. Olayda Baykar Genel Müdürü Haluk Bayraktar hedefteydi.

Rus istihbaratı FSB, deep fake teknolojisi kullanarak Ukrayna Başbakanı Denis Şmihal kılığında Baykar Teknoloji Genel Müdürü Haluk Bayraktar ile görüşmek istedi. Provokasyon, Ukrayna istihbaratının çabalarıyla önlenirken, yaşanan olaya ilişkin bir de video paylaşıldı.

Ukrayna Savunma Bakanlığına bağlı Askeri İstihbarat Müdürlüğü, Baykar Teknoloji Genel Müdürü Haluk Bayraktar‘a yönelik provokasyonu engelledi.

Rus istihbaratı FSB, Deepfake teknolojisi kullanarak, Ukrayna Başbakanı Şmihal kılığında Bayraktar ile görüşmek istedi. Tehlike Ukrayna istihbaratının çabalarıyla önlendi. Ukrayna İstihbarat Servisi, olaya ilişkin görüntüleri yayımladı.

“Robotların ne kadar akıllı olduğu tamamen size bağlı”

 

DEEP FAKE TEKNOLOJİSİYLE SAHTE YÜZ VE SES OLUŞTURDULAR

Görüntülerde Rusya’nın Ukrayna Başbakanı Denis Şmihal’in kılığına girdiği görülüyor. Rus istihbaratı bu yöntemle Bayraktar Genel Müdürü Haluk Bayraktar’la görüşmeye çalıştı.

Durumun farkına varan Ukrayna istihbaratıysa Bayraktar sekreteri olarak görüşmeye katıldı. Rus istihbaratıyla görüştü. Deepfake yöntemiyle Rus istihbaratının Türkiye-Ukrayna ilişkilerinin bozmaya çalıştığı iddia edildi.

Rus istihbarat servisi sıklıkla Deepfake teknolojisi kullanıyor. Bu yöntemle yapay zeka yardımıyla sahte yüz ve ses oluşturuluyor.

Kimlik hırsızları Deepfake’i nasıl kullanıyor?

Birçok finans kuruluşu, çevrimiçi bankacılık uygulamalarında belirli özelliklerin etkinleştirilmesi için çevrimiçi video doğrulamasını şart koşuyor. Peki, müşterinin güvenliği için yapılan bu işlem bizzat müşterinin zararına kullanılabilir mi? Söz konusu deepfake teknolojisi ise bu çok mümkün.

Mevcut bir görüntü veya videoda yer alan bir kişinin, yapay sinir ağları kullanarak bir başka kişinin görüntüsü ile değiştirildiği bir medya türü olan deepfake dolandırıcılar tarafından son zamanlarda oldukça sık kullanılan bir araç haline geldi. 

Deepfake saldırılarının giderek daha fazla ortaya çıkması, kurumlar, finans kuruluşları, ünlüler, siyasi figürler ve hatta sıradan insanlar için tehdit ortamını önemli ölçüde yeniden şekillendiriyor. Deepfake kullanımı, ticari e-postaların ele geçirilmesi (BEC) ve kimlik doğrulama atlatma gibi saldırıları yeni boyutlara taşıyor. Birçok finans kuruluşu güvenlik adına müşterilerden görüntülü arama yoluna başvurabiliyor bu da suçlular için deepfake    

Bu saldırıların başarılı olmasının birçok nedeni bulunuyor. Ancak en önemlisi kamuya açık görüntülerin sayısının, kötü niyetli aktörlerin deepfake teknolojilerini kullanarak milyonlarca sahte kimlik oluşturması için yeterli olması olarak görülüyor. Ayrıca Deepfake üretimi için kaynak kodu herkese açık durumda ve isteyen herkes tarafından kullanılabiliyor.

Suç çeteleri mevcut kara para aklama ve para kazanma planlarının etkinliğini artırmak için deepfake teknolojilerinin kullanımına başvurabiliyor. 

Türk Cerrah sandığı sevgilisi hacker çıktı

Haber ve sosyal medya sitelerinde şüpheli SEO (arama motoru optimizasyonu) kampanyalarında (arama motoru optimizasyonu) ünlü kişilerin resimlerine rastlamak oldukça yaygın bir eğilim haline geldi. Reklamların bir şekilde seçilen ünlünün uzmanlığıyla ilgili olarak kamuya sunulduğu ve kullanıcıları yemlemek ve görsellerin altındaki linklere tıklamalarını sağlamak üzere özel olarak tasarlandığı hepimizin malumu. 

DARK WEB FORUMLARININ POPÜLER TARTIŞMA KONUSU: DEEPFAKE

Bir takım reklam grupları bu tür medya içeriklerini yıllardır farklı para kazanma planlarında bir araç olarak kullanmakta. Ancak son zamanlarda bu reklamlarda ilginç gelişmelerin yanı sıra bu kampanyaları mümkün kılan teknolojilerde de bir değişim görülmekte.

Son dönemde birçok dijital medya ve SEO grubu, ünlü kişilerin deepfake modellerini oluşturmak için herkese açık olarak paylaşılan medya içeriğini kullanıyor. Bu gruplar ünlülerin ve fenomenlerin kişiliklerini onların rızası olmadan kullanmakta ve deepfake içerikleri farklı tanıtım kampanyaları için dağıtmaktadır.

Deepfake konusu yeraltı forumlarında oldukça popüler. Bu tartışma gruplarında birçok kullanıcının çevrimiçi bankacılık ve dijital finans doğrulamasını hedeflediği dikkat çekmekte. Bu hizmetlerle ilgilenen suçlular muhtemelen kurbanların kimlik belgelerinin kopyalarına hali hazırda sahipler, ancak hesapları çalmak veya oluşturmak için kurbanların videolu görüntülerine de ihtiyaç duyuyorlar. Bu noktada devreye Deepfake giriyor. Bu hesaplar daha sonra kara para aklama veya yasadışı finansal işlemler gibi kötü niyetli faaliyetler için kullanılabiliyor.

DEEPFAKE UZMANLARI ARANIYOR!

Doğrulama araç ve tekniklerini kullanan yeraltı suç saldırılarında kayda değer bir artış görülmekte. Örneğin, hesap doğrulama hizmetlerinin uzunca bir süredir mevcut olduğu biliniyor. Bununla birlikte, e-ticaret kimlik doğrulama için modern teknoloji ve çevrimiçi sohbet sistemlerini kullanarak geliştikçe, suçlular da tekniklerini geliştiriyor ve bu doğrulama planlarını atlamak için yeni yöntemler geliştiriyor.

2020’de ve 2021’in başlarında, bazı yeraltı forum kullanıcılarının kripto borsası ve kişisel hesaplar için “deepfake uzmanları” aradığı dikkat çekmişti. 

Aslında, deepfake üretimi için bazı araçlar bir süredir çevrimiçi olarak, örneğin GitHub’da mevcut. Ayrıca deepfake ve deepfake tespiti için kullanılan araçların yeraltı forumlarında da dikkat çektiğini görüyoruz.

Kısa bir süre önce, kripto para borsası sitesi Binance’de bir iletişim yöneticisinin deepfake’i hakkında bir haber yayınlandı. Deepfake, Zoom görüşmelerinde kripto para birimi projelerinin temsilcilerini kandırmak için kullanıldı. 

Ünlüler, üst düzey hükümet yetkilileri, tanınmış kurumsal figürler ve çevrimiçi olarak çok sayıda yüksek çözünürlüklü görüntü ve videoya sahip olan diğer kişiler en kolay hedef alınanlar arasında bulunuyor. Bu kişilerin yüzlerini ve seslerini kullanan sosyal mühendislik dolandırıcılıklarının halihazırda yaygınlaştığı görülmekte. 

Araçlar ve mevcut deepfake teknolojisi göz önüne alındığında, ses ve video sahteciliği yoluyla kurbanları manipüle etmeyi amaçlayan daha fazla saldırı ve dolandırıcılık görmeyi bekleyebiliriz. 

Peki Deepfake mevcut saldırıları, dolandırıcılıkları ve para kazanma planlarını nasıl etkileyebilir?

Trendmicro.com’dan Vladimir Kropotov, Fyodor Yarochkin, Craig Gibson ve Stephe Hilt deepfake kullanılarak yapılan mevcut saldırıların hem de yakın gelecekte bekleyebileceğimiz saldırıların bir listesini hazırladı:  

  •  Messenger dolandırıcılığı: Bir yatırım uzmanını taklit etmek ve para transferi için aramak yıllardır popüler bir dolandırıcılık türü ve artık suçlular görüntülü aramalarda deepfake kullanabiliyor. Örneğin, birinin kimliğine bürünüp arkadaşlarıyla ve ailesiyle iletişime geçerek para transferi talep edebiliyor ya da telefon bakiyelerine basit bir yükleme yapılmasını isteyebilirler.
  •  BEC:  Bu saldırı deepfake olmadan da oldukça başarılıydı. Artık saldırganlar aramalarda sahte videolar kullanabiliyor, yöneticilerin veya iş ortaklarının kimliğine bürünebiliyor ve para transferi talep edebiliyor. 
  • Hesap açma: Suçlular kimlik doğrulama hizmetlerini atlamak ve çalıntı kimlik belgelerinin kopyalarını kullanarak başkaları adına bankalarda ve finans kurumlarında, hatta muhtemelen devlet hizmetlerinde hesaplar oluşturmak için deepfake kullanabilir. Bu suçlular bir kurbanın kimliğini kullanabilir ve genellikle görüntülü aramalar yoluyla yapılan doğrulama sürecini atlayabilir. Bu tür hesaplar daha sonra kara para aklama ve diğer kötü niyetli faaliyetlerde kullanılabilir.
  • Hesapların ele geçirilmesi: Suçlular görüntülü arama kullanarak kimlik tespiti gerektiren hesapları ele geçirebilir. Bir finansal hesabı ele geçirebilir ve kolayca para çekebilir veya transfer edebilirler. Bazı finans kurumları, çevrimiçi bankacılık uygulamalarında belirli özelliklerin etkinleştirilmesi için çevrimiçi video doğrulamasını şart koşmakta. Bu tür doğrulamalar da deepfake saldırılarının hedefi olabilir.
  • Şantaj: Kötü niyetli aktörler deepfake videoları kullanarak şantaj ve gasp türü saldırılar gerçekleştirebilir. Hatta deepfake teknolojileri kullanılarak oluşturulmuş sahte kanıtlar bile yerleştirebilirler.
  • Dezenformasyon kampanyaları: Deepfake videoları ayrıca daha etkili dezenformasyon kampanyaları oluşturmakta ve kamuoyunu manipüle etmek için kullanılabilmekte. Pompala ve boşalt şemaları gibi bazı saldırılar, tanınmış kişilerden gelen mesajlara dayanır. Artık bu mesajlar deepfake teknolojisi kullanılarak oluşturulabilir. Bu şemaların kesinlikle mali, siyasi ve hatta itibarla ilgili yansımaları olabilir.
  • Teknik destek dolandırıcılığı: Deepfake aktörleri sahte kimlikler kullanarak sosyal mühendislik yoluyla kullanıcıları ödeme bilgilerini paylaşmaya veya BT varlıklarına erişim sağlamaya yönlendirebilir.
  • Sosyal mühendislik saldırıları: Kötü niyetli aktörler, taklit edilen bir kişinin arkadaşlarını, ailelerini veya iş arkadaşlarını manipüle etmek için deepfake’leri kullanabilir.
  • Nesnelerin interneti (IoT) cihazlarının ele geçirilmesi: Amazon’un Alexa’sı ve diğer birçok akıllı telefon markası gibi ses veya yüz tanıma kullanan cihazlar, deepfake suçlularının hedef listesinde olacaktır.

PEKİ NE YAPMALI?

Trendmicro.com için söz konusu yazıyı kaleme alan teknoloji uzmanları bireysel kullanıcılar ve kuruluşlara deepfake saldırılarının etkisini ele almak ve azaltmak için ne yapmaları gerektiğine dair bir takım tüyolar da verdiler. 

  • Kuruluşlar bir kullanıcının kimliğini üç temel faktörle doğrulamalı: kullanıcının sahip olduğu bir şey, kullanıcının bildiği bir şey ve kullanıcının olduğu bir şey. Bu sözkonusu “Bir şey” öğelerinin akıllıca seçildiğinden emin olun. 
  • Gerçekleştirilecek personel farkındalık eğitimi ve müşterini tanı (KYC) ilkesi finans kuruluşları için olmazsa olmazdır. Deepfake teknolojisi mükemmel değildir ve bir kuruluşun personelinin araması gereken bazı kırmızı bayraklar vardır.
  • Sosyal medya kullanıcıları, yüksek kaliteli kişisel görüntülerinin açığa çıkmasını en aza indirmeli.
  • Hassas hesapların (örneğin banka veya şirket profilleri) doğrulanması için kullanıcılar, göz tanıma ve parmak izi gibi kamuya daha az açık olan biyometrik modellerin kullanımına öncelik vermeli.
  • Sorunu daha büyük ölçekte ele almak için önemli politika değişiklikleri gerekmekte. Bu politikalar, mevcut ve daha önce ifşa edilmiş biyometrik verilerin kullanımını ele almalı. Ayrıca siber suç faaliyetlerinin şu anki durumunu dikkate almalı ve geleceğe hazırlanmalı.

Türk Cerrah sandığı sevgilisi hacker çıktı

Fransız film yapımcısı Yzabel Dzisky, internet üzerinden tanıştığı sevgilisinin Türk cerrah değil Nijeryalı bir hacker olduğunu öğrenince hayatının şokunu yaşadı.

Dzisky, internet üzerinden ilerleyen flört dünyasına adım atmış ve sonunda mevcut bir kişi videosunun bir başkasının görüntüsüne dönüştürülmesiyle oluşturulan “deepfake” hesaba kapılmış.

2017 yılında, bekar ve 46 yaşında olan Yzabel, flört uygulamaları hakkında bir belgesel çekmeyi düşünüyordu.Planı insanlarla rastgele buluşup röportaj yapmak ve belgesel için katkısı olabilecek birilerini aramaktı. Ancak bu belgesel fikri aynı zamanda aşkı bulmak için de bir fırsat gibi görünüyordu:

“Bekar arkadaşlarım bana flört uygulamalarındaki komik aşk hikayelerini ve buluşmalarını anlatıyordu. İlk önce, buluşup insanlarla röportaj yapacağım diye düşündüm. Ama sonra dedim ki insanlar orada aşkı bulmayı başarıyorsa, belki ben de yapabilirim.”

Yakışıklı bir adamın profilini buldu. Los Angeles’ta yaşayan ama yakında Fransa’ya taşınmayı planlayan bir cerrahtı “Tony” (Colby), en azından başlangıçta adı böyleydi.

İlk adımı attı, profilini “beğendi” ve “yana kaydırdı”. Çekim karşılıklıydı ve “eşleştiler”. Bu adamla bir haftadan fazla süre sohbet eden Yzabel yaşadıkları tesadüflere şaşıyordu:

“Kendi hayatından bahsediyordu, ben de benimkini anlatıyordum. İlginç bir şekilde, köpeklerimizin isimleri ile kızlarımızın isimleri birbirine çok benziyordu. Kadınlar tesadüfleri sever ve ben bunu çok romantik buldum. Kendimi bu aşk hikayesine bıraktım.”

Yzabel sonra onunla bir video görüşmesi yapmak istedi. Arkadaşlarıyla dışarı çıktığı bir gecede cep telefonundan Tony’yi arayan Yzabel, bu 10 dakikalık görüntülü görüşme sırasında onun yüzünü arkadaşlarına da gösterdi.

“Videolu görüşmedeyken, çoğu zaman aramadaki kişiye odaklanmak yerine kendinize bakıp güzel görünmeye çalışırsınız, bu yüzden ayrıntılara pek dikkat etmiyordum” diyor Yzabel.

Tony herhangi bir sebep göstermeden, aniden cevap vermeyi bırakana kadar mesajla ve kısa görüntülü aramalarla iletişim halinde kaldılar. Sonunda cevap verdiğinde adının Tony değil Murat* olduğunu söyledi:

“Şok oldum, yine tesadüf, çünkü eski kocamın adı da Murat. Türk olduğunu ve İstanbul’da yaşadığını söyledi. Kızmadım bile, sadece şaşırdım.

“Adını neden değiştirdiğini sorduğumda, Ortadoğulu (Arap) olduğu için çekincelerim olacağını düşündüğünü söyledi. Ama eski kocamın Arap-Fransız-Türk kökeninden dolayı bir sorunum olmadığını söyledim. Büyük bir tesadüf olduğunu söyledim. ‘Rahatsız olma’ dedim.”

Yapay Zeka’da madalyonun öteki yüzü: DeepFake ve otonom silahlar başımızı ağrıtacak

“Onu Google’da aradım, hakkında pek çok şey vardı. Fotoğrafları ve Türkçe videoları görebiliyordum. Her yerdeydi, hatta televizyonda bile. Onun hakkında hiçbir şüphem kalmadı, gerçek biriydi ve tanınmış bir cerrahtı.”

Her şey yolunda görünüyordu. Ara sıra kısa video görüşmeleri, yoğun aşk mektupları yeterliydi. Ayrıca “yakında onu görmeye geleceğine” de söz vermişti.

Ama önce Murat, Şanghay’a gitmesi gerektiğini söyledi. Uyarı zillerini tetikleyen ilk şey buydu. “Beni arayıp tıbbi ekipman almak için Şanghay’a gittiğini söyledi. Kredi kartının çalışmadığını söyledi ve yardımımı rica etti, 3 bin Euro göndermemi istedi.” Sonra da, sonunda Yzabel’i yüz yüze görmek için Paris’e uçacaktı.

Yzabel tanınmış bir cerrahın ondan parasını istemesine şaşırdı ve bu konuyu bir arkadaşıyla konuştu. Şüphelenseler de uluslararası para transferi yoluyla 200 Euro göndermeye karar verdi.

HAVAALANINA GİTTİ AMA ONU GÖREMEDİ

“Bunu neden yaptığımı bilmiyorum. Belki de Türkiye’deki kredi kartlarının orada sorun yaratıyordur diye düşündüm. Bana teşekkür etti ve Şanghay’dan Paris’e uçak biletini gösterdi. Üç gün sonra burada olacaktı.”

O gün gelip çattığında Yzabel onunla ilk kez yüz yüze görüşecekleri için heyecanlıydı. “Onunla buluşmak için havaalanına gittim. Bekledim ve bekledim. Ama gelmedi”.

Yzabel o günle ilgili konuşurken durdu ve derin bir nefes aldı. “Onunla bağlantıya geçmeye çalıştım ama cevap vermiyordu. Birkaç gün ses çıkmadı. Çok kızdım, neden cevap vermiyordu? Yine de ona karşı iyimserdim, bana yazmasını istiyordum. Cevaba ihtiyacım vardı.”

Sahte hesap ve internet dolandırıcılığı ihtimali aklına geliyordu, ama bunu kabullenmek istemedi. “Bu imkansız, onu video görüşmelerinde gördüm, gerçekti. Arkadaşlarım da onu gördüler, çocuklarım onu gördü. Bu gerçek olamazdı.”

Birkaç gün sonra Murat tekrar konuşmak istedi. Yzabel bu kez onu daha büyük ekranda görmek istediğini söyledi ve bilgisayar üzerinden görüştüler. “Kalite çok kötüydü, bağlantıdan kaynaklanıyor olabileceğini düşündüm. Ayrıca görüntü geç geliyordu. Benimle konuşurken arkadan ‘tık, tık, tık’ sesleri duyuyordum. Ekrana doğru eğildim, yakından baktım, video biraz donuyordu.”

DEEPFAKE VİDEOLARA BAKINCA DOLANDIRILDIĞINI ANLADI

Bir uzman görüşüne ihtiyacı vardı ve video editörü bir arkadaşı ona yardım etti. Ona YouTube’da bir “Obama Deepfake” videosu izletti.

Aramalarında gördükleriyle, aramalardaki videolar arasında pek çok benzerlik vardı. Sonunda aldatıldığını kabul etti, video ve sesle açıkça oynanmıştı. “Utandım, salak gibi ve savunmasız hissettim. Ben Rock’n’ Roll ruhu olan bir kadınım, kendimi asla düşürmem. Ama bununla kendimi soyulmuş hissettim, duygularımı çaldılar ve ruhuma tecavüz ettiler. Birbirimize güzel şeyler yazıyorduk, ona inandım. Ona çocuklarımı gösterdim.”

Öfkesi onu ekranın arkasındaki kişiyle yüzleşmeye itti, ama Murat yine susmuştu.Yzabel yazmaya devam etti, hatta onu konuşturmak için daha fazla ödemeyi teklif etti. Sonunda başka bir görüntülü arama yapmayı başardığında, aynı tıklamaları tekrar duydu.

Zaman gelmişti…“Ona ‘Kimsin sen? Murat olmadığını biliyorum ama kimsin?’ diye sorum. Biraz sessiz kaldıktan sonra bunu neden yaptığımı sordu ve ardından kapattı.”

Ancak sürpriz bir şekilde geri yazdı. Adının David olduğunu, Nijerya’dan 20 yaşında bir hacker olduğunu söyledi. “Niye böyle yaptığını sordum. ‘Beni kendine aşık ettin, paramı istedin’. Dolandırıcılardan çok para kazandıklarını, çok geniş bir ağa sahip olduklarını söyledi. Hatta görüntülü görüşme bile yaptık. Bu sahte hesaplarla zengin olduğunu, futbolcu olup Kanada’da okumak istediğini söyledi.”

David, Murat’ın kimliğinin rastgele icat edildiğini ekledi. Yzabel yıkılmıştı ama “sahte” Murat’a duyduğu “gerçek” aşktan vazgeçemiyordu. Kimliği çalınan gerçek adamı bulmak için yola çıktı. Sosyal medya hesaplarından birinde bir telefon numarası buldu ve onu aradı.

Türk cerrah önce Yzabel’in mesajlarını görmezden geldi. Adına açılan sayısız sahte hesabın farkındaydı ama dolandırıcılıklarla uğraşmak istemiyordu. “Görüntülü mesaj göndermeye karar verdim. ‘Ben gerçeğim, hacklendim. Seni incitmek istemiyorum, pek çok ortak noktamız var. Seninle tanışmak ve bunu kanıtlamak isterim’ dedim.”

Yzabel, Murat’a İstanbul’u gezmeyi planladığını söyledi ve o görüşmeyi kabul etti. Hemen Türkiye’ye uçak bileti aldı. “Boğaz güzeldi, muhteşemdi. Ama kendimi çok yalnız hissediyordum…” diyor. Görünüşe göre cerrah bu yabancıyla tanışmak konusunda tereddüt ediyordu.

“Ben de hastaneye gittim. Benim için çok zordu, aylardır onunla konuştuğumu sanıyordum. Kapı açıldığında sekreteri beni beklediğini söyledi. Ve oradaydı… Onu gördüm. ilk defa, gerçekti…”

Yzabel, onunla ilk karşılaşmasını anlatırken durakladı. Yüzünden akan yaşlarını görebiliyordum ve sesi titriyordu. “Ona karşı hislerim olduğunu bilmiyordu ama çok misafirperverdi. Duygularımı göstermemeye çalıştım ama kalbim… Kendi kendime bunun gerçek olmadığını söylüyordum, o benim tanıdığım kişi değildi.

“Sonra ona belgeleri, konuşmaların ekran görüntülerini gösterdim. Böylece polise gidebilecekti. Yüzü değişmeye başladı. Sonra hastalarını bekletmek istemediğini söyledi, daha sonra yemeğe çıkmak üzere anlaştık.”

Yzabel, tüm olanlar hakkında konuştukları güzel bir gece geçirdiklerini söyledi. Kendi hikayesini anlatan uzun metrajlı bir film çekmeye karar verdi. Türkiye’deki bazı yapımcı ve oyuncularla temasa geçmişti.

İstanbul’u ve cerrahı birkaç kez daha ziyaret etti. “İletişimimiz bir süre devam etti ve sonunda bitti. Güzeldi ama sahte hesaplar ve dolandırıcılık hikayeleriyle çok rahatsız edilmiş ve bıkmıştı.””

‘CATFISHING’ NEDİR?

‘Catfishing’, sanal bir sahte profil yaratarak, genellikle duygusal ilişki arayan insanları dolandırmak olarak tanımlanıyor.

Birleşik Krallık polisi, genellikle güven kazanmak ve hedeflenen kişiye gerçek bir ilişki arandığına ikna etmek için büyük çaba sarf edilen bu dolandırıcılığa karşı insanları uyarıyor. Söz konusu dolandırıcılar, manipülatif, ikna ve istismar edici bir dil kullanıyor.

İngiltere’deki bankacılık ve finans sektörünü temsil eden UK Finance için yapılan bir araştırmada, Ocak ve Kasım 2020 arasında para havalelerini içeren bu tür romantik dolandırıcılıklarda bir önceki yıla göre yüzde 20 artış olduğu tespit edildi. Araştırma, bu dolandırıcılıkların toplam değerinin de yine bir önceki yılın aynı dönemine göre yüzde 12 artarak 18,5 milyon sterline ulaştığı sonucuna ulaştı.

2019 yılında ise aynı araştırmaya göre ise flört sitelerini kullananların yüzde 27’sinin ‘catfishing’ girişimlerine maruz kaldı.

DEEPFAKE NEDİR?

Deepfake, yapay zeka yardımıyla içerisinde yer alan yüzlerin değiştirildiği ya da dijital olarak taklit edildiği her türden videolara verilen bir terim.

Fotoğraf ve videolardaki yüzleri çok gerçekçi şekillerde değiştirmek için kullanılabilecek birçok farklı uygulama ve filtre mevcut. Ancak bunların hepsi yapay zeka kullanmıyor. Bu terimdeki ‘deep’ ifadesi bir yapay zeka türü olan ‘deep learning’ yani ‘derin öğrenme’den geliyor. Bu kavram, insan beyninin nasıl çalıştığına benzerlik gösteren bir tür makine öğrenimi tekniğine karşılık gelir.

Kaynak: BBC Türkçe

Görüntüler gerçek mi ‘deepfake’ mi? : Yeni geliştirilen araç ışık yansımalarından buluyor

Buffalo University araştırmacıları, gözlerdeki ışık yansımalarını analiz ederek deepfake fotoğrafları otomatik olarak ayırt edebilecek yeni bir araç geliştirdi.

IEEE Sinyal İşleme Derneği tarafından düzenlenen “Uluslararası Akustik, Konuşma ve Sinyal İşleme Konferansı’na sunulan makalede, ‘yapılan çalışmalar sonucunda yüzde 94 oranında başarı oranı kanıtlanmıştır.” ifadeleri kullanıldı. Söz konusu makaleye, “Exposing GAN-Generated Faces Using Inconsistent Corneal Specular Highlights” başlığıyla açık arşiv ‘arXiv’den erişilebiliyor.

Araştırmanın baş yazarı Siwei Lyu, “Kornea çok iyi bir yansıtıcıdır. Bu sayede ışığın çarptığı herhangi bir şey, bir yansıtıcı olan kornea üzerinde görünebiliyor.” açıklamasını yaptı. Aynı şeyi gördüğü için her iki gözümüzün de benzer yansıtıcı kalıplarının olduğunu ekleyen Lyu, “Genellikle karşımızdaki bir yüze baktığımızda fark etmediğimiz bir şeydir bu.” değerlendirmesinde bulunuyor.

Bir şeye baktığımızda, gördüğümüz şeyin ‘resmi’ gözlerimizde yansır. Gerçek bir video veya fotoğrafta, söz konusu yansıma genellikle aynı şekil ve renktedir. Ancak GAN resimleri dahil yapay zeka kullanılarak üretilen birçok resim, muhtemelen sahte görüntüler kullanılarak oluşturulduğu için söz konusu yansımaları oluşturamıyor. 

Araştırmacıların ürettiği araç ise bu noktada gözde yansıyan ışıktaki görüntüleri bularak resim, fotoğraf veya videoların deepfake olup olmadığını tespit ediyor. 

“Robotların ne kadar akıllı olduğu tamamen size bağlı”

Araştırmacılar, yaptıkları deneylerde, Flickr Faces-HQ’dan gerçek fotoğrafları ve www.thispersondoesnotexist.com internet sitesinden sahte fotoğrafları topladı. 1,024 piksel olan tüm fotoğraflar ‘iyi bir ışık altında insanların direkt olarak kameraya baktıkları’ fotoğraflardan seçildi. Her bir yüzü haritalandırarak işe başlayan araç sonrasında ‘gözleri’ inceliyor. Ardından göz yuvarına odaklanan araç, her bir göz yuvarı üzerinde yansıyan ışığı arıyor. Görüntüleri karşılaştırdığında ise şekillerde, ışık yoğunluğunda veya yansıyan ışığın diğer özellikleri üzerinde potansiyel farkları ortaya koyuyor. 

“VİDEO VE FOTOĞRAFLARIN GERÇEKLİĞİNİ AYIRT EDEBİLMEK GİDEREK DAHA ÖNEMLİ HALE GELİYOR”

Gelecek vaat eden bir araç olmasına karşın yine de bazı sınırlamaları var. Örneğin üretilen araç, yansımış bir ışık kaynağına ihtiyaç duyuyor. Fotoğrafların düzenlenme sürecinde ise gözlerdeki ışık yansıması oynanabildiği için araç, eşleşme sağlayamıyor. Söz konusu aracın kullandığı teknik sadece gözde yansımış her bir piksele odaklanıyor. Her iki gözdeki yansımaları karşılaştıran araç, örneğin bir göz bir şeyi kaçırdığında veya göremediğinde başarısız oluyor. 

Deepfake video veya fotoğrafların gerçek yüzünü ortaya çıkarmanın önemli etkileri olduğunu söyleyen Lyu, “Deepfake’in büyük bir kısmı pornografik amaçlar için oluşturuldu. Şimdiyse siyasi amaçlar için uygulanıyor. Yaşadığımız dünyadaki dezenformasyon sonucu oluşan tehlikeleri gördüğümüzde, fotoğraf veya videoların gerçekliğini ayırt edebilmek giderek daha önemli hale geliyor.” dedi.

Siber Bülten abone listesine kaydolmak için formu doldurunuz

FBI’dan deepfake uyarısı: “Rusya ve Çin siber operasyonlar için kullanabilir”

ABD Federal Soruşturma Bürosu (FBI), kötü niyetli aktörlerin yakın zamanda etki alanlarını veya siber operasyonlarını genişletmek adına deepfake teknolojisi kullanacakları konusunda uyardı. 

Kurumdan yapılan açıklamada, yabancı aktörlerin, etki kampanyalarında halihazırda deepfake veya video, ses, resim ve metin gibi manipüle edilmiş dijital içeriği kullandıkları belirtildi. 

FBI uyarısında şu ifadeler yer aldı: “Yabancı aktörler şu anda etki kampanyalarında sentetik içerik (Yapay Zeka tarafından yaratılan içerik) kullanıyor ve FBI bu manipüle edilmiş içeriklerin yabancı ve siber suç aktörleri tarafından giderek artan oranda kimlik avı dolandırıcılığı ve sosyal mühendislik için kullanılacağını ön görüyor.” 

Uyarı, manipüle edilmiş medya içeriklerinin artışının önüne geçilmediği takdirde komplo teorilerinin ve kötü niyetli etki kampanyalarının giderek daha yaygın hale geleceği yönündeki endişelerin dile getirildiği bir dönemde yapıldı.  Milletvekilleri, son dönemde kadınları taciz etmek için sıklıkla kullanılan deepfake teknolojisini hedef alan bir dizi yasa çıkardılar. Örneğin, 2021 tarihli Ulusal Savunma Yetkilendirme Yasası, “deepfake”in arkasındaki teknoloji ve yol açtığı zararların İç Güvenlik Bakanlığı tarafından değerlendirilmesini öngörüyor. 

 

ÇİN YANLISI KAMPANYADA YAPAY ZEKA İLE OLUŞTURULAN GÖRÜNTÜLER KULLANILDI 

Federal Büro uyarısında, dezenformasyon kampanyalarında manipüle edilmiş medyanın Çince ve Rusça dillerinde kullanımını ortaya çıkaran özel sektör araştırmalarına işaret etti. Bunlardan birinde, sosyal medya analiz şirketi Graphika’nın “Spamouflage Dragon” adını verdiği Çin yanlısı bir hükümet etki kampanyasının, kampanyaya özgünlük kazandırmak için yapay zeka ile oluşturulan profil görüntülerini kullandığı belirtiliyor.

Başka bir vakada araştırmacılar, “trol çiftliği” olarak tanımlanan Rus şirketi İnternet Araştırma Ajansı’nın 2020’deki ABD seçimlerinden önce sahte profil hesapları oluşturmak için Generative Adversarial Networks (Üretken Düşman Ağları) tarafından oluşturulan görüntüleri kullandığını ortaya çıkardı. Cyberscoop’un ortaya çıkardığı bilgiye göre, FBI o dönemde Facebook’u konuyla ilgili bilgilendirdi. 

Düşünce kuruluşu Atlantic Council’ın Dijital Adli Araştırma Laboratuarı, Graphika ve Facebook da yakın zamanda Trump yanlısı bir kampanyada kullanılan yapay zeka tarafından manipüle edilmiş görüntüleri ortaya çıkarmak için işbirliği yaptı.

FBI, uyarısında, kötü niyetli yabancı aktörlerle ilişkilendirilen “deepfake”lere ilişkin bir soruşturma başlatacaklarını açıkladı. 

KONGRE BİNASI BASKINININ ARKASINDA DA DEEPFAKE OLABİLİR

Uyarı, federal hükümet, araştırmacılar, Amerikalılar ve sosyal medya şirketlerinin, kongre binası baskınının ardından yanlış bilgilendirme ve dezenformasyon ile yoğun bir mücadeleye girdiği bir dönemde geldi. Yakın zamanda yayınlanan araştırmaya göre, hükümete yönelik yapılan saldırı, kısmen, aşırı sağcı gruplar ve medya kuruluşları tarafından çevrimiçi olarak yayılan dezenformasyon kampanyası tarafından tetiklendi.

Baskını tetikleyen dezenformasyonun arkasındaki kişilerin bir kısmı yerli aktörler olsa da Rusya, İran ve Çin’den yabancı aktörler de ABD’deki kutuplaşmadan faydalanmak üzere haberleri kullandılar.

İsyancılar Trump’ın saldırı sırasında yapılan yenilgi konuşmasının deepfake olduğunu öne sürse de bu kampanyalarda manipüle edilmiş medyanın veya deepfake’in kullanıldığına dair net bir bilgi yok. 

“Robotların ne kadar akıllı olduğu tamamen size bağlı”

FBI KULLANICILARI UYANIK OLMA NOKTASINDA UYARDI

FBI, “Şu anda, kullanıcıların içeriği kötü niyetli aktörler tarafından değiştirilen çevrimiçi bilgilerle karşılaşma olasılığı daha yüksek ” açıklamasını yaptı ve ekledi: “Ancak, teknoloji ilerlemeye devam ettikçe bu eğilim muhtemelen değişecek”

FBI, yapay zeka tarafından üretilen sentetik medyayı veya “deepfake’i ayırt etmek için kullanıcıların görüntülerde veya videolardaki senkronizasyon sorunları veya diğer tutarsızlıklar konusunda uyanık olmalarını önerdi.  

Uzmanlar, federal hükümet ve özel sektörün dijital okuryazarlığı teşvik etmek ve etki kampanyalarını daha iyi bastırmak adına işbirliği yapmaları gerektiğini düşünüyor. 

Yakın zamanda yürürlüğe giren Üretken Düşman Ağları (IOGAN) Sonuçlarını Tespit Etme Yasası uyarınca, Ulusal Bilim Vakfı ve Ulusal Standartlar ve Teknoloji Enstitüsü, manipüle edilmiş medya konusunda yürütülen araştırmalara fon sağlayacak.

Siber Bülten abone listesine kaydolmak için formu doldurunuz