Etiket arşivi: deep fake

Yapay zekâ ile üretilen sahte görseller nasıl tespit edilir?

Yapay zekâ ile üretilen sahte görseller nasıl tespit edilir?Geçtiğimiz günlerde sosyal medyada Pentagon yakınlarında büyük bir patlama olduğunu gösteren sahte bir görüntünün paylaşılmasının ardından ABD borsasında kısa süreli bir düşüş yaşanmıştı.

Aralarında doğrulanmış hesapların da bulunduğu bir dizi sosyal medya hesabının bu sahte resmi paylaşarak kafa karışıklığı yaratmasının ardından yapay zekâ tarafından oluşturulmuş görüntülerin nasıl tespit edileceği önem kazandı.

SAHTE GÖRÜNTÜLERİN TESPİTİ ÖNEM KAZANIYOR

Geçtiğimiz günlerde Pentagon yakınlarında ciddi bir patlama olduğunu dair sahte bir görüntü servis edildi.

Yetkililer tarafından böyle bir olayın olmadığına dair açıklama yapılsa da aralarında doğrulanmış hesapların da olduğu birçok kullanıcının söz konusu görüntüyü paylaşması binlerce etkileşim almıştı.

Görüntünün yapay zekâ ile hazırlanmış olduğu belli olduktan sonra yapay zekâ ile hazırlanan sahte görüntülerin nasıl tespit edileceğine yönelik önem de giderek arttı. 

Sahte görüntülerin nasıl doğrulanacağına ilişkinse çevrim içi haber doğrulama grubu Bellingcat’ten Nick Waters, söz konusu görüntü üzerinden bazı önemli noktalara dikkat çekti.

BİRİNCİ ELDEN TANIK ÖNEMLİ

Nick Waters’ın sosyal medya hesabından, “Özellikle ilk dikkat çekilecek nokta Pentagon gibi yoğun bir bölgede olayı doğrulayacak birinci elden tanık olmaması, böyle bir olayın inandırıcı bir sahtesini oluşturmayı imkânsız kılıyor.” yorumunu yaptı.

Waters, Binanın kendisi Pentagon’dan belirgin şekilde farklı görünüyor. Bu, iki görüntüyü karşılaştırmak için Google Street View gibi araçlar kullanılarak kolayca doğrulanabilir. Garip görünümlü lamba direği ve kaldırımdan çıkıntı yapan siyah direk gibi diğer ayrıntılar da görüntünün göründüğü gibi olmadığının bir başka göstergesi. Yapay zekâ, rastgele eserler ortaya koymadan mekânları yeniden yaratmakta hâlâ zorlanıyor.” dedi.

SAHTE GÖRÜNTÜLER NASIL TESPİT EDİLİR?

Midjourney, Dall-e 2 ve Stable Diffusion gibi gerçeğe yakın görüntüler oluşturabilen birçok yapay zekâ aracı bulunuyor. Bu araçlar büyük hacimli gerçek görüntülere bakılarak eğitilse de eğitim verileri eksik olduğunda, boşlukları kendi yorumlarıyla dolduruyor. 

Bu da insanların fazladan uzuvlara sahip olmasına ve nesnelerin çevreleriyle birlikte şekil değiştirmesine neden olabiliyor.

“Robotların ne kadar akıllı olduğu tamamen size bağlı”

İnternette bir son dakika haberini gösterdiği iddia edilen görüntüleri gördüğünüzde, aşağıdakileri aklınızda tutmanızda fayda var.

  • Büyük bir patlama veya büyük bir olay söz konusu olduğunda, farklı insanlardan ve farklı açılardan gelen görüntüleri bekleyin.
  • Kullanıcı hesabının gönderi geçmişine bakın. Bulundukları yer ile olayın gerçekleştiği yer uyuşuyor mu? Kimleri takip ettiklerine ve onları kimlerin takip ettiğine bakın. Onlara ulaşabilir ya da onlarla konuşabilir misiniz?
  • Açık kaynak istihbarat araçlarını kullanın. Google Görseller ve TinEye gibi tersine görsel arama araçları bir görseli yüklemenize ve ilk olarak nerede ve ne zaman kullanıldığını belirlemenize olanak tanıyabilir. Bir olayın gerçekleştiğini doğrulamak için kamuya açık canlı trafik kamerası görüntülerine bakmak gibi kullanabileceğiniz başka araçlar da vardır.
  • Görüntüyü ve çevresini analiz edin. İddia edilen olayın nerede veya ne zaman gerçekleşmiş olabileceğini belirlemenize yardımcı olması için görüntüde yakındaki önemli noktalar, yol işaretleri ve hatta hava koşulları gibi ipuçlarını arayın.
  • Eller, gözler ve duruş. İnsan görüntüleriyle uğraşırken gözlerine, ellerine ve genel duruşlarına özellikle dikkat edin. Derin sahte olarak bilinen insanları taklit eden yapay zekâ tarafından üretilen videolar, çoğu eğitim veri setinde gözleri kapalı yüzler bulunmadığından, göz kırpma konusunda sorun yaşama eğilimindedir. Nesneleri doğru şekilde kavramayan eller veya doğal olmayan şekilde bükülmüş görünen uzuvlar da sahtelerin tespit edilmesine yardımcı olabilir.

E-posta ile oltalama saldırıları en fazla mali zararı veren siber suç türü

Beverly Hills’de alışveriş çılgınlığı, Meksika’da lüks bir tatil, bir gecede 299,77 dolardan 1,4 milyon dolara fırlayan bir banka hesabı… Dışarıdan bakıldığında, Moe ve Kateryna Abourcheds büyük ikramiyeyi kazanmış gibi görünüyorlardı. Ancak durum göründüğü gibi değildi. 

Bir gizli servis ajanının federal mahkemede çıkarttığı bir arama emrine göre, Michigan’daki bir devlet okulu bölgesinin aylık sağlık sigortası ödemesinin Abourcheds’in sahip olduğu Kaliforniya’daki bir manikür salonunun banka hesabına bağlandığı ortaya çıktı.

Polise göre, bölge — ve vergi mükellefleri — Business Email Compromise (iş e-postası dolandırıcılığı) ya da kısaca BEC adı verilen çevrimiçi bir dolandırıcılığın kurbanı oldu. Çift, her türlü suçlamayı reddederken, herhangi bir cezaya da çarptırılmadı. 

BEC dolandırıcılığı, suçluların e-posta hesaplarına girdikleri, olmadıkları biri gibi davranarak kurbanları göndermemeleri gereken bir yere para aktarmaları için kandırdıkları bir suç türü. Bu suçlar, büyük fidye yazılımı saldırılarından çok daha az dikkat çekiyor, ancak FBI’a göre BEC dolandırıcılığı yıllardır ABD’deki en fazla maliyete sebep olan siber suç türü. BEC dolandırıcılıkları getirisi büyük riski düşük olması nedeniyle dünya çapında suçluları cezbetmekte. 

KOLLUK KUVVETLERİ YETERSİZ KALIYOR

Yakın zamanda BEC dolandırıcılığı kurbanı olan San Francisco merkezli kâr amacı gütmeyen bir kuruluşun müdürü Sherry Williams, “Kolluk kuvvetleri değil fakat dolandırıcılar son derece iyi organize edilmiş.” diyor.

FBI tarafından hazırlanan yeni bir rapora göre, ABD’de 2021’de BEC dolandırıcılığının yol açtığı zarar yaklaşık 2,4 milyar dolar. Bu, 2020’deki rakamlara kıyasla yüzde 33’lük bir artışa tekabül ediyor ve yedi yıl öncesine göre ise on kattan fazla bir artış demek.

Oltalama siber suçluların favorisi!

Uzmanlar, birçok kurbanın asla ortaya çıkmadığını ve FBI’ın rakamlarının durumun sadece küçük bir kısmını yansıttığını söylüyor.

Manikür salonu olayında polis 2,8 milyon doların çalındığını söyledi. Gizli Servis ajanı, yeminli ifadesinde, birinin okul bölgesinin insan kaynakları çalışanlarından birinin e-posta hesabına girdiğini ve söz konusu İK elemanı gibi davranarak finans departmanındaki bir meslektaşını sağlık sigortası ödemelerinin gönderildiği banka hesabını değiştirmeye ikna eden e-postalar gönderdiğini söyledi. E-postaların kısa ve son derece kibar olduğu gözlendi. 

E-POSTA HESAPLARINA GİRİP ÇALIŞANLARDAN ÖDEME BİLGİLERİNİ DEĞİŞTİRMELERİNİ İSTİYORLAR

Gizli servis elemanının yeminli ifadesine göre polis, parayı salonun Abourcheds’e ait banka hesabına kadar takip etti. Hırsızlık tespit edildikten sonra, Moe Abourched salonun bulunduğu Grand Rapids’teki bir polis ile temasa geçti ve “Dora” adlı Avrupalı bir kadın tarafından fonları kabul etmesi ve diğer hesaplara iletmesi için kandırıldığını iddia etti.

Gizli Servis ajanı, Abourched’in iddialarının yalan olduğunu ve bir Florida depolama şirketini hedef alan bir BEC dolandırıcılığından para aldıktan sonra polise benzer bir bahane sunduğunu söyledi.

Mahkeme kayıtlarına göre polis çifti gözetim altına aldı ve Ekim ayında dairelerine, ofislerine ve BMW’lerine el koydu. Polis, bu yılın başlarında çiftin telefon ve bilgisayarlarındaki verileri incelemek için daha fazla zamana ihtiyaç duyduklarını söyledi.

BEC dolandırıcıları, yasal iş e-posta hesaplarını hacklemek ve çalışanları havale göndermeleri veya yapmamaları gereken satın alımlar yapmaları için kandırmaya yönelik çeşitli teknikler kullanıyor. Hedeflenen kimlik avı e-postaları yaygın bir saldırı türü, ancak uzmanlar, dolandırıcıların bir şirkette yönetici gibi davranmak ve astlarını kandırarak para göndermeye ikna etmek için yapay zeka tarafından üretilen “deep fake” ses gibi yeni teknolojileri benimsemekte hızlı olduklarını söylüyor.

San Francisco’nun kâr amacı gütmeyen kuruluşun direktörü Williams’ın durumunda, hırsızlar kuruluşun muhasebecisinin e-posta hesabını hacklediler, daha sonra kendilerini uzun bir e-posta yazışmasına dahil etmek suretiyle bir hibe alıcısı için havale ödeme talimatlarını değiştirmelerini isteyen mesajlar gönderdiler ve bu yolla 650 bin dolar kazandılar. Olanları keşfettikten sonra Williams, kolluk kuvvetlerine yaptığı çağrıların cevapsız kaldığını söyledi. 

DIŞİŞLERİ BAKANLIĞINI BİLE KANDIRDILAR

En büyük 500 şirketin sıralandığı Fortune 500 listesinde şirketlerden küçük ölçekli şirketlere kadar hemen hemen her kuruluş BEC dolandırıcılığına karşı savunmasız. Mahkeme kayıtlarına göre, Dışişleri Bakanlığı bile Tunuslu çiftçilere yardım etmek amacıyla BEC dolandırıcılarına 200 bin dolardan fazla hibe parası göndermek için kandırıldı.

Adalet Bakanlığı, son yıllarda dünya çapında yüzlerce tutuklama kararı verdiği aylarca süren operasyonlar başlattı. FBI Suç, Siber, Müdahale ve Hizmetler Şubesi (CCRSB) İcra Direktörü Brian Turner, “Bu tür BEC olaylarına karışan suçlulara mesajımız açıktır: FBI’ın hafızası ve erişimi uzun ve geniş kapsamlıdır, nerede olursanız olun sizi takip edeceğiz. Ancak güvenlik uzmanları, tutuklama dalgasının çok az etkisi olduğunu söylüyor. 

Facebook’tan deep fake videolarına tartışmalı yasak

ABD’de başkanlık seçimleri yaklaşırken adaylar kadar sosyal medya şirketleri de seçim süreci için ter dökmeye başladılar. 2016’da yapılan başkanlık seçimlerine siber operasyonlar ile yabancı müdahalesinde ismi en sık geçen şirketlerin başında gelen Facebook  seçimler öncesi önlemlerini sıkılaştırıyor.

Facebook yaptığı açıklamada “deep fake” (yapay zeka sahteciliği) olarak adlandırılan yapay zekayla oluşturulmuş kurmaca video ve fotoğrafların yayınlanmasına yasak getirdiğini duyurdu. Küresel İlke Yönetimi Başkan Yardımcısı Monika Bickert’in yazdığı blog yazısında toplum için ileride bir tehdit oluşturabileceği için yasak kararını aldıklarını söyledi.

TARTIŞMALI YASAK

Deep fake yasağı, Amerika Birleşik Devletleri Temsilciler Meclisi Başkanı Nancy Pelosi’nin konuşmasının yavaşlatılarak alkollüymüş gibi gösterildiği videosunun geçen yaz sosyal medya platformlarında viral olmasından sonra gündeme gelmişti. Video Facebook’ta hızla yayılmış ve o sırada Facebook, bu videonun şirket ilkelerinden herhangi birini ihlal etmediğini açıklamıştı. Hafta başında açıklanan yasağın, bu tür videoları  kapsamadığı ifade ediliyor. Pelosi’nin videosunun yapay zeka tarafından oluşturulmamasının bu yasağın kapsamına girmediği belirtiliyor.

Öte yandan Kasım ayında, Twitter kendi deep fake politikasını hazırlamaya başlamış ve platformun gelecekteki kuralları ile ilgili kullanıcılardan geri bildirim göndermelerini istemişti.

 

https://www.youtube.com/watch?v=EfREntgxmDs

REUTERS İLE İŞ BİRLİĞİNE GİDİYOR

Manipülatif ve sahte içeriklerin önüne geçmek isteyen Facebook dünyanın önde gelen medya kuruluşlarıyla da iş birliği geliştiriyor.  Bu kapsamda Reuters ile gazetecilere değiştirilmiş görsellerin ayırt edilmesinde yardımcı olması amacıyla ücretsiz bir eğitim hazırladı.

Şirket eylül ayında da dep fake videolarını tespit etmek edecek projeleri fonlamak için 10 milyon dolar ayırdığını duyurmuştu.

Siber Bülten abone listesine kaydolmak için formu doldurunuz