Etiket arşivi: deepfake

Yapay Zeka’da madalyonun öteki yüzü: DeepFake ve otonom silahlar başımızı ağrıtacak

Yapay zeka alanı son yıllarda çok önemli gelişmelere şahit oldu.Basit yapay zekâ algoritmaları bile kim olduğumuzu, ne yaptığımızı, ne istediğimizi ve neden istediğimizi bizden daha iyi anlayabilecek düzeye ulaştı.

İnsanlık için büyük fırsatlar sunan yapay zeka ürünleri, hayatın her alanında bize eşlik ediyor. Bugün cep telefonlarımızda bile birçok işimizi gören akıllı sanal asistanlar bulunuyor. Yapay zekâ sistemleri bize zaman tasarrufu sağlıyor ve birçok konuda rahatlık sunuyor.

Eğer durum böyle giderse bugün internet olmadan yaşamayı hayal etmemiz zor olduğu gibi, bundan belki de on yıl sonra yapay zekâ sistemleri olmadan eksik hissedeceğiz. Ancak yıllar boyunca Hollywood filmlerine konu olan ve bilim kurgu kitaplarını süsleyen bu gelişmenin getirdiği tüm sonuçlar ne yazık ki olumlu değil.

Yapay zekâ sistemleriyle ilgili en korkutucu gelişmelerden biri de DeepFake adıyla anılan teknoloji. DeepFake gelişmiş bir algoritma kullanarak internette çok sayıda fotoğrafı bulunan ünlü isimlerin yüzlerini farklı videolardaki kişilerin yüzlerine entegre edebiliyor.

Üstelik bunu o kadar başarılı yapıyor ki videodaki kişinin gerçekten kim olduğunu ayırt etmeniz kimi zaman imkânsız hale geliyor. Bu teknoloji çok hızlı gelişiyor ve sahte videolarla insanları kolayca manipüle etmek için kullanılabileceği gibi özel hayatlarımız gibi diğer birçok alanda insanların başını ağrıtabilir.

OTONOM SİLAHLAR KORKUTUYOR

Elon Musk, geçen sene Birleşmiş Milletler’i yapay zekâ tarafından kontrol edilebilecek otonom silahların yaratacağı tehlikeler konusunda uyardı ve 115 diğer uzman da otonom savaş tehdidine dikkat çekti. Teknolojinin giderek daha kolay, ucuz ve kullanıcı dostu hâle geldiğini düşünürsek, herkes tarafından ulaşılabilir olan otonom silahlar gerçekten de tehdit oluşturabilir.

Örneğin, sadece iyi kalite bir kameraya sahip bir drone bile uygun yapay zekâ yazılımı ile otonom olarak uçabilecek hâle getirilebilir. Yüklenecek yüz tanıma teknolojisi ise, drone kamerasının belirli bir kişiyi saptamasına ve drone’un o kişiyi takip etmesine olanak tanıyabilir.

Yapay zekânın bir bilgisayar sistemine bağlı diye tarafsız olacağını sakın düşünmeyin. Yapay zekâ algoritmaları önyargılı veriler içeren kümelerle beslenebilir ve bu durum yapay zekâyı geliştiren kişi ya da kurumun sahip olduğu önyargıları sistemin mantıksal olarak onaylamasına neden olabilir. Bugün bile, etnik azınlıkları beyaz nüfustan daha fazla dezavantajlı duruma getiren birçok yapay zekâ örneği bulunuyor. İnsanlar ise yapay zekânın, algoritmasının elde ettiği verilere göre sonuca nasıl ulaştığını bilmeden bu sonuçları kabul etme eğilimi gösterebilir ve asıl tehlike de burada yatıyor.

‘Kemal Sunal’lı Banka Reklamı ‘Deepfake’ Tartışmalarını Canlandırdı: Ölmüş Kişilerin Hakları Nasıl Savunulabilir?

SAHTE İÇERİK ÜRETİMİ KOLAYLAŞABİLİR

Sahte içerik oluşturmak üzere tasarlanmış yapay zekâ sistemleri, şirketler ve hükümetler tarafından manipülasyon için kullanılabilir. Bunun için hazırlanmış bir algoritma, son derece hızlı ve geniş bir ölçekte sahte içerik üretilebilir. Bu da toplumsal ölçekte insanların fikirlerinin etkilenmesine neden olabilir.

Yapay zekâ sistemleri günümüzde tıp alanından askeri alanlara kadar birçok farklı alanda kullanılıyor. Gün geçtikçe insanların yerini daha fazla alıyor ve bir noktadan sonra her şeyi yapay zekânın ellerine teslim ettiğimizde bizim için yapacak çok bir şey kalmayacak. Dolayısıyla körelen becerilerimizin kurbanı olabiliriz.

Bugün bile farkında olmadan bunun etkilerini yaşıyoruz. Elle not tutma, zihinden hesap yapma ya da yakınlarımızın telefon numaralarını hatırlama gibi basit yeteneklerimizi bile akıllı telefonlarımız yüzünden çoktan rafa kaldırmış durumdayız.

Kaynak: Redbull Blog

 

Siber Bülten abone listesine kaydolmak için formu doldurunuz

‘Kemal Sunal’lı Banka Reklamı ‘Deepfake’ Tartışmalarını Canlandırdı: Ölmüş Kişilerin Hakları Nasıl Savunulabilir?

Teknolojide yaşanan gelişmeler artık doğrudan sosyal hayatımızda da hissedilir hale geldi. Özellikle yapay zeka kullanılarak oluşturulan ürün ve hizmetlerin piyasaya sunulması, tüketici deneyimlerini de farklılaştırmaya başladı.

Reklam sektörünün de yapay zekaya başvurması ilginç uygulamaları beraberinde getirdi. Örneğin, geçtiğimiz günlerde ‘deepfake’ kullanılarak sanatçı Kemal Sunal’ın bir reklam filminde canlandırılması, oldukça ses getirdi. 

‘Deepfake’ nedir diye kısaca açıklamak gerekirse, yapay sinir ağları yoluyla  bir kişinin görüntüsü ya da sesinin bir başka kişinin görüntüsü ya da sesiyle ayırt edilmesi oldukça güç olacak bir şekilde değiştirilmesi olarak ifade edilebilir. Bu yöntem ile reklam filminde Sunal’ın gerçekçi bir benzeri yaratılmıştır. Esasında deepfake geçtiğimiz yıllarda özellikle Hollywood’daki sansasyonel videolarla gündeme gelmişti.

Çeşitli platformlarda karşılaşmaya başladığımız bu sahte videoların hukuki açıdan farklı yansımaları söz konusu olabiliyor. Bu yöntemde de pek çok veri kullanılıyor ve bunların büyük bir kısmı da ses ve görüntü verisi olması dolayısıyla kişisel veri içeriyor. Bu bakımdan kişisel verilerin, Kişisel Verilerin Korunması Kanunu (KVKK) ve ilgili mevzuata uygun olarak işlenmesi gerekiyor. Örneğin, görüntüleriniz kullanılarak oluşturulan müstehcen bir video olduğunu varsayalım. Burada KVKK’nın “hukuka ve dürüstlük kurallarına uygun olma” ilkesine aykırılıktan söz edilebilecektir. Kişisel verilerin korunması dışında, “deepfake” ile üretilen çıktılar, fikri mülkiyet hakkı ve ifade hürriyetini de ilgilendirebiliyor.

ÖLÜMLE KİŞİLİK SONA ERİYOR

Sunal’ın canlandırıldığı reklam filminde ise ölmüş bir kişinin yer alması konuya farklı bir boyut kazandırmaktadır. Avukat Kemal Kumkumoğlu konuya ilişkin şu değerlendirmelerde bulundu: “Deepfake yöntemi ile büyük miktarda ses ve görüntü verisi yani kişisel veri işleniyor. Bu kapsamda ilk olarak, söz konusu kişisel verilerin KVKK ve ilgili mevzuata uygun olarak elde edilip edilmediği konusu gündeme gelebilir. Reklam filmine bakıldığında ise ölen kişilerinin kişisel verileri ile ilgili bir değerlendirme yapmayı gerektiriyor. Bu hususa ilişkin, ölen kişilerin verileri ile ilgili, Kişisel Verileri Koruma Kurulu’nun 18/09/2019 tarihli ve 2019/273 sayılı bir karar özeti bulunuyor. Karar özetinde, Türk Medeni Kanununun 28’inci maddesinde kişiliğin, çocuğun sağ olarak tamamıyla doğduğu anda başladığı ve ölümle sona erdiği hükmünün yer aldığı ve KVKK’nın 3’üncü maddesinde ise ilgili kişinin “kişisel verileri işlenen gerçek kişi” olarak tanımlandığına yer veriliyor. Bu çerçevede Kurul, ölümle kişiliğin sona ermesi dolayısıyla ölmüş kişilere ilişkin verilerin kişisel veri olmadığı görüşünde.

TELİF HAKKI DOĞABİLİR

Deepfake kullanılarak üretilen çıktıların telif hukuku anlamında eser olarak kabul edileceğine ilişkin görüşler de bulunduğunu belirten Kumkumoğlu, “Avrupa Birliği’nin (AB) son yayınladığı “Trends and Developments in Artificial Intelligence – Challenges to the Intellectual Property Rights Framework” raporunda da yapay zeka ile ortaya çıkan ürünlerin eser olarak kabul edilebileceği dile getirildi. Bu durumda ise oluşan yeni eser üzerinde de fikri haklar söz konusu olabilir. Bu noktada da, eseri oluşturan ölen kişinin görüntüsünün ve/veya sesinin mirasa konu olup olmayacağı ayrı bir tartışma konusunu oluşturuyor.” dedi.

Ölen kişilerin verilerinin kullanılması miras hukukunu da akla getiriyor. Miras hukuku alanında çalışan Avukat Ece Ergün ise ölen kişilerin deepfake videolarında yer almasının mirasçıların durumuna etkisi ile ilgili olarak şöyle konuştu:

“Genel kural, kişilerin ünlü olup olmamasının bir önemi olmaksızın, ölüm ile birlikte ölen kişinin sadece devir ve intikal edebilen özel hukuk ilişkilerinin mirasçılarına geçmesidir. Ölenin mal varlığı mevcudiyetini korur ve mirasçı sıfatını haiz kişilere geçer. Ancak kişilik hakları denen kişiye sıkı sıkıya bağlı olan haklar ölüm ile son bulur. Kişilerin ölümü ile mirasçılarına (uygulamada her ne kadar karşımıza aile üyeleri olarak çıksa da miras hukukunda düzenlenen bazı özel durumların varlığı halinde mirasçıların ölenin aile üyeleri olmama ihtimali olabilir) geçen haklar mal varlığına ilişkin haklardır. Ünlü bir kişiden bahsedildiği ve o kişinin haklarının tartışıldığı bir durumda, kişinin mal varlığına telif haklarının da dahil olacak olması nedeniyle deepfake vb. uygulamalarla yeni eserlerin meydana getirilmesi halinde mirasçılar, ilgili yasal düzenlemeler çerçevesinde, zaten haklarını talep edebiliyorlar.”

ÖLÜNÜN KİŞİLİĞİNE SALDIRIYA TAZMİNAT YOLU VAR

Kişiliğin ölümle son bulması sebebiyle ölen kişi adına herhangi bir hak iddiasında bulunmanın mümkün olmadığını hatırlatan Ergün, “Ölen kişinin dava açmasının mümkün olmaması tam olarak onun yakınları/mirasçıları tarafından dava açılamaması anlamına da gelmiyor. Ölmüş kişinin kişilik değerlerine hukuka aykırı müdahalenin varlığı halinde, bu ihlalin yakınlarının da kişilik haklarına saldırı teşkil etmesi halinde hukukumuzda hali hazırda yakınlarının/mirasçılarının dava açmaları ve şartların mevcudiyeti halinde özellikle manevi tazminata hak kazanmaları mümkün.” diye konuştu.

Ergün ünlü bir kişinin ölümünden sonra onun görüntüsü, eseri, adı, fotoğrafı gibi kişiliğine ait hususların o kişinin anısını zedeleyecek, aşağılayacak, küçümseyecek ya da hakaret edecek şekillerde kullanılması yakınlarının da etkilenmesine sebep olabileceğini söyledi. Bu gibi durumlarda gerek özel hukukta gerekse ceza hukuku açısından kanuni yollara başvurabilmenin mümkün olduğuna dikkati çeken Ergün, “Bu nedenle, ilk etapta bu konudaki hukuki tartışmaların birçok farklı alana temas edebileceğini ve bu alanlardaki düzenlemelerin mevcut sorunların çoğunluğunu karşıladığını söylemek mümkün.” ifadelerini kullandı.

HAYATIMIZA YENİ GİREN BİR KAVRAM: DİJİTAL MİRAS 

Bunların yanında, geçtiğimiz aylarda Antalya Bölge Adliye Mahkemesi 6. Hukuk Dairesi’nin dijital miras ile ilgili verdiği bir karar oldukça ses getirmişti. Deepfake ile yaratılan videoların dijital mirasa etkileri bakımından Kumkumoğlu ve Ergün şunları ekledi:

“Son yıllarda hepimizin hayatı birçok alanda dijitalleşiyor, birçok özel hukuk ilişkisi hatta sosyal ilişki dijital platformlarda yürütülüyor. Bu durumdan hukuk da nasibini aldı. Kişilerin neredeyse hayatlarının merkezi olan dijital ortamdaki hayatlarının hukuka etkilerinin en önemlilerinden biri de miras hukuku alanında kendini göstermeye başladı. Kişinin aktifleri ve pasifleri ile birlikte tüm malvarlığı, mirasını oluşturur. Ama bu temel anlayış dijitalleşme sonrası büyük bir hızla değişmektedir. Kişilerin mal varlığını artık sadece taşınmazlar, arabalar, nakit paralar oluşturmuyor bunlara sanal paralar, miller, dijital oyun karakterleri, sosyal medya hesaplarında kullanılan resimler, videolar vb. birçok kalem eklendi. Bu da hayatımıza yeni bir kavram olan dijital mirası soktu.” 

Dijital miras kavramı için net bir tanım olmadığını belirten Kumkumoğlu ve Ergün, “Alman Barolar Birliği 2013 yılındaki bir görüş yazısında dijital mirası; “fikri mülkiyet hakları, web sitelerindeki haklar ve alanlar (domains) ile sağlayıcı ile miras bırakan arasında internetin kendisinin ve aynı zamanda çeşitli internet hizmetlerinin kullanılması bakımından kurulmuş tüm sözleşme ilişkileri dahil olmak üzere dijital malvarlığının tümü” olarak tanımladı. Dijital miras kapsamına, sabit disklerde, tabletlerde, bilgisayarlarda, akıllı telefonlarda, internette, bulut sistemlerinde ve veri depolanabilecek tüm aygıtlarda depolanan veriler, ölen kişinin e-postaları, sosyal medya hesapları, web siteleri ve internet ortamında bulunan fotoğrafları, videoları, yazıları üzerindeki telif hakları dijital mirasın konusunu oluşturuyor. En basit şekli ile kişinin dijital mirası sahip olduğu tüm verilerdir.” şeklinde konuştu.

KİŞİ “BENİ ÖLDÜKTEN SONRA ‘DEEPFAKE’ YAPMAYIN” DİYEMEZ

Kişinin dijital mirasına ölümünden sonra deepfake vb. yapılarda yer almak istediğini veya istemediğini ekleyemediğine işaret eden avukatlar, “Bunun en temel sebebi, dijital mirasın kişinin mal varlığının bir bölümü olmasıdır. Diğer taraftan, ölen kişinin ölümünden sonra mal varlığı üzerinde herhangi bir işlemin yapılmasına izin verip vermediği ya da mal varlığının kime kalmasını istediği gibi hususları ancak hayattayken yapacağı bir ölüme bağlı tasarruf ile (genellikle bu bir vasiyetname olmaktadır) belirlemesi mümkün. Özellikle halka mal olmuş kişilerin imajları veya eserleri bakımından, bu kişilerin ölümlerinden sonra deepfake veya benzeri teknolojiler kullanılarak yeni ürün veya eserlerin üretilmesine veya üretilmemesine ilişkin arzularını dile getirmeleri ölüme bağlı tasarruflar ile yapılabilecektir. Her ne kadar bu durum mümkün olsa da özellikle bir sinema filmi, şiir gibi günümüz fikri mülkiyet hukuku açısından korunan eserler bakımından, mali haklar mirasçılara geçtiği için yeni ürün ya da eseri üretecek kişilerle mirasçıların anlaşması durumunda mevcut hukuk uyarınca bu durumun bağlayıcı niteliği olmayacaktır. Kişinin dijital mirası içinde yer alan mal varlıkları açısından ise, bu tip bir vasiyetnamenin nasıl yapılacağına ilişkin hukukumuzda açık ve net bir düzenleme yok. Bir kişinin dijital mirasının bulunduğu söz konusu hesaplara erişilebilen şifrelerin ya da gerekli bilgilerin bir ya da birkaç kişiye bırakılması halinde ilgili malvarlığının o kişiye veya kişilere bırakılmış sayılıp sayılmayacağı gibi hususlar açısından da yine bir belirlilik bulunmuyor.” ifadelerini kullandı.

HUKUKİ DÜZENLEMELER TEKNOLOJİK DEĞİŞİMLERLE UYUMLU OLMALI

Dijital mirasla ilgili söz konusu belirsizlikle nedeniyle konuyla ilgili yeni düzenlemeler getirilmesinin tartışılabileceğini vurgulayan hukukçular, “Bu düzenlemeler, ancak farklı alanlardan birçok hukukçunun bir arada çalışması ile sağlıklı bir biçimde getirilebilir. Yapılacak yeni düzenlemelerin teknolojiden olabildiğince bağımsız olması gerektiği, yani her yeni gelen teknolojik gelişme ile değişecek nitelikte düzenlemeler değil, daha geniş bir perspektiften bakarak ve teknolojilerin gelişim hızı da göz önünde bulundurularak, genel uygulanabilir nitelikte hükümlerin getirilmesinin daha sağlıklı olacağı görüşündeyiz.” diye konuştu.

“Robotların ne kadar akıllı olduğu tamamen size bağlı”

Deepfake videolarında canlandırılan “ünlü” kişilerin öncesinde yer aldığı film vb. projelerdeki görsellerinin kullanılması da söz konusu olabiliyor. Bu açıdan bakıldığında, ilgili eserlerin deepfake geliştirme aşamasındaki kullanımının hukuki değerlendirmesi ile ilgili olarak ise Kumkumoğlu ve Ergün şunları ifade etti:

“Dağıtım hakkı ve kullanmaya izin verme hakkı fikri mülkiyet hukukunda eser sahibinin mali haklarından ve mirasçılarına intikal eder. Ancak bu mali haklar kişinin ölümü öncesinde bir sözleşme ile yapımcı vb. kişiler üzerinde de tesis edilmiş olabilir. Deepfake gibi teknolojilerle üretilen eserler ise yeni eserler ve onun eser sahibinin kim olduğuna ilişkin tartışmalar çok boyutlu. Örneğin, bu teknolojiyi üreten kişilerin mi, yoksa teknolojiyi kullanarak bu eseri meydana getiren kullanıcının mı, hatta yapay zekâ sisteminin kendisinin mi eser sahibi olacağı gibi tartışmalar devam ediyor.

Öte yandan deepfake ile kişinin ölümünden sonra üretilen eserler bakımından, ortaya çıkarılan yeni eseri oluştururken bu sistemin beslendiği kaynakların nereden elde edildiği önemli. Örneğin, bu bakımdan eser niteliğindeki önceki filmlerdeki görüntüler ve sesler kullanılarak sistemin beslenmesi/eğitilmesi söz konusu ise burada mali haklara sahip olan yapımcı şirket gibi kişilerin de bir söz hakkı olabileceği tartışılabilir. Ancak örneğin deepfake teknolojisi kişinin dijital terekesinde bulunan video veya ses kayıtlarından besleniyorsa, yine mirasçılarından izin alınması gerekebilir.

Örneğin, ölen kişi bir film kapsamında görüntüsünün/sesinin işlenme ve dağıtım haklarını tesis etmiş olsun; bu film içeriği kullanılarak deepfake ile yeni bir eser meydana getirildiğinde öncesinde tesis edilen söz konusu mali hakların buradaki yeni eser üzerinde bir etkisinin olmayabileceği da ileri sürülebilir. Çünkü bu görüş uyarınca, bu gibi bir kullanımın, taraflar arasında telif haklarına yönelik akdedilen önceki sözleşmede tesis edilen mali hakların kapsamının genişletilmesi anlamına gelebileceği de tartışmaya açık olacaktır.”

 

Siber Bülten abone listesine kaydolmak için formu doldurunuz

Obama’yı küfrederken görürseniz inanmadan önce bir kez daha kontrol edin!

Deepfake, bir videoda yer alan bir kişiye ait görüntünün, makine öğrenme teknikleri kullanılarak bir başka kişinin görüntüsü ile değiştirildiği bir medya türü.

Yapay zeka yoluyla belirli bir görüntüyü ayırt edemeyecek şekilde bir başka görüntünün üzerine yerleştirmek olarak da tanımlamak mümkün. Deepfake, adını daha çok internetin karanlık tarafı olarak bilinen dark web ile duyurmuş, hatta kamuoyunca bilinen isimlerin yüzünü porno içerikli videolara yerleştirmek suretiyle ünlülerin korkulu rüyası haline gelmiş durumda.  

Deepfake bu kez iki multimedya sanatçısının elinde bir sosyal deneyin aracı olarak kullanıldı. Francesca Panetta ve Halsey Burgund 2019 yılında provakatif bir fikrin peşinden gitmeye karar verdiler ve ayrı ayrı büyük ilerlemeler kaydeden deepfake video ve deepfake ses teknolojilerini bir proje kapsamında birleştirmeye karar verdiler. Amaçları teknolojinin nasıl suiistimal edilebileceğini insanlara göstermekti. 

APOLLO BAŞARISIZ OLSAYDI NIXON BU KONUŞMAYI YAPACAKTI

Deneyi hayata geçirmek için 1969’da Apollo’nun Ay’a fırlatılması gibi tarihsel önemi büyük olan bir olayı seçtiler ve buna ilişkin alternatif bir tarih yaratmak üzere yola çıktılar. Tahmin edileceği üzere fırlatmadan önce dönemin ABD Başkanı Richard Nixon’ın danışmanları başkanın yapacağı konuşmanın metnini iki farklı senaryoya göre kaleme almıştı. Biri hepimizin bildiği zafer metni, diğeri Ay’da yaşanacak olası bir felaket senaryosuna ilişkin yapılacak konuşmanın metni. Neyse ki ‘Gerçek Nixon’ bu konuşma metnini okumak zorunda kalmadı. Ancak ‘deepfake Nixon’ kaldı. Bu, Panetta ve Burgund’un deepfake yardımıyla gerçekleştirdiği sosyal deney ile mümkün oldu. 

MIT’nin Sanallık Merkezi Kreatif Direktörü Panetta ve yine MIT’nin Open Documentary Lab departmanında çalışan Burgund deney için iki AI (Yapay Zeka) şirketi ile ortak oldular. Canny AI projenin deepfake video ayağı ile ilgilenirken Respeecher şirketi deepfake ses teknolojisi kısmı ile ilgilenecekti. Geriye Nixon’ın ağız hareketlerini birebir taklit edecek bir oyuncu bulmak kalmıştı. 

Dark Web’de yeni trend: Deepfake

RICHARD NIXON ARANIYOR

Panetta ve Burgund’un yaptığı ilk şey, her iki şirkete de deepfake’in gerçekçi olması için ne tür bir oyuncuya ihtiyaç duyduklarını sormak oldu. Canny AI, video diyaloglarının değiştirilmesinde uzman bir şirket ve orijinal çekimde yer alan kişinin ağzını manipüle etmek için bir oyuncunun ağız hareketlerini kullanıyor. Oyuncu, ortaya çıkan deepfake videosunda yüzü asla görünmeyecek bir kuklacı olarak hizmet ediyor ve bu yüzden görünümü, cinsiyeti, yaşı ve etnik kökeninin bir önemi bulunmuyor. 

NIXON’UN KONUŞMALARINDAN YÜZLERCE SES PARÇASI TOPLANDI

Sese gelince, bu noktada oyuncunun özellikleri biraz daha önem kazanıyor. Bu projede bir sesi diğerine dönüştürme işlevini yerine getiren Respeecher şirketi, oyuncunun taklidi yapılacak kişinin aksanına benzer bir aksana sahip olmasının işleri kolaylaştırdığını belirtiyor. Yapılan görüşmelerden sonra Oyuncu Lewis D. Wheeler ile anlaşılıyor. Wheeler sesi ve yüzünü Nixon’ınki ile eşleştirmek için günlerce stüdyoda deepfake algoritması üzerinde çalışıyor. Boston’lı aktörün günleri Nixon’ın ses parçalarını dinleyip defalarca tekrar etmekle geçiyor. Yüzlerce ses parçası olduğundan bahseden Wheeler, “her biri sadece saniyeler süren birçoğu tam bir kelime bile olmayan ses parçalarıydı” diye anlatıyor. 

Bu ses parçaları Nixon’ın çeşitli konuşmalarından alınmış ona ait sesler. Üzerinde çalışılan konuşma metni bir felaketten bahsedeceği için ses parçalarının büyük kısmı Nixon’ın istifa konuşmasından alınmış. Wheeler’ın işi her bir ses parçasını gerçek tonlama ve ritme uydurarak kendi sesi ile yeniden kaydetmek. Bu küçük parçalar daha sonra aktörün sesini Nixon’unki ile eşleştirmek üzere Respeecher’ın algoritmasına eklendi.  Oldukça yorucu ve zahmetli bir iş olduğundan bahseden Wheeler “Aynı zamanda gerçekten ilginçti” diyor. 

Ve ortaya sahte olduğu asla anlaşılmayan Nixon’a ait alternatif bir tarihi konuşma çıkıyor: “Huzurla Ay’ı keşfetmek için giden adamlar, huzur içinde yatmak üzere Ay’da kalacaklar. Bu cesur adamlar, Neil Armstrong ve Edwin Aldrin, kurtarılmaları için umut olmadığını biliyorlar. Ancak fedakarlıklarında insanlık için umut olduğunu da biliyorlar.”

Deepfake’in ‘porno’ ve insanları karalamak amaçlı kullanımı dışında daha toplumsal amaçlı kampanyalarda kullanılmasına bir başka örnek de Film Yapımcısı ve Yönetmen Zach Math tarafından hayata geçirilmiş bir seçim kampanyası.  ABD’li kreatif ajans Mischief USA tarafından oy hakkına ilişkin iki reklam çekmesi için işe alınan Math, Kuzey Kore Lideri Kim Jong-un ve Rus devlet başkanı Vladimir Putin’in görüntülerini deepfake ile manipüle etti. 

Facebook’tan deep fake videolarına tartışmalı yasak

KUZEY KORE LİDERİ SEÇMENLERİ BİLİNÇLİ OLMAYA ÇAĞIRIYOR!

Reklam ajansı, deepfake sanatçısı John Lee’nin danışmanlığında proje kapsamında açık kaynaklı DeepFaceLab yazılımıyla yüz değiştirme yoluna gitmeyi seçti. Bu şu anlama geliyordu: Ortaya çıkan deep fake videosunda Panetta ve Burgund’unkinin aksine oyuncunun vücudu görünecekti sadece Kim Jong-un’un yüzü oyuncunun vücudu üzerine yerleştirilecekti. Dolayısıyla oyuncu ile Kuzey Kore liderinin vücut yapılarının birbirini tutması gerekiyordu. Ses de oyuncuya ait olacaktı. Liderler videoda İngilizce konuşacaktı fakat Kuzey Kore ve Rus aksanlı olmasına dikkat edildi. 

Putin için cast süreci nispeten kolay oldu. Zira oyuncunun yüz ifadelerini ve ağız hareketlerini taklit etmesini sağlayacak Putin’e ait çok sayıda görüntü bulunmakta idi. Kim için ise durum farklı. Putin’de olduğu gibi Kim’e ait çok fazla görüntü bulunmamakta, olanların çoğunda da Kuzey Kore lideri gözlüklü olarak ekran karşısındaydı.  Ortaya çıkan deepfake, Kim’e oldukça benzemekle birlikte yüz hareketleri daha az doğal görünüyordu. Sadece Kim’e oldukça benzeyen bir oyuncunun yüzü Kim’inki ile değiştirildi. 

Ekip, Kim’in görüntüsünde deepfake teknolojisinin kopyalayamayacağı yönleri güçlendirmek için makyaj, kostüm ve post prodüksiyon çalışmalarına ağırlık verdi. Örneğin oyuncu Kim’den daha zayıftı, bu yüzden ona şişman gösterecek bir takım elbise giydirdiler.

İnternetsiz Kuzey Kore siber saldırılar ile nasıl döviz elde ediyor?

PUTIN’DEN DEMOKRASİ VURGUSU!

Ortaya çıkan videoda Kim’in yüzü hariç her şeyinin bir başka oyuncu tarafından taklit edildiğini anlamak çok kolay değil. Ancak görüntüye oturtulan konuşma videonun fake olduğunu ele veriyor. Zira Kim seçmenlere alışılagelmedik şeyler söylüyor: “Demokrasiye yönelik en büyük tehdit dış müdahaleler ve dezenformasyon değil seçmenlerin sindirilmesi. Demokrasinin çökmesi hiç de zor değil. Bunun için tek yapmanız gereken ‘hiçbir şey’”

Sahte Putin’in dilinden de çarpıcı ifadeler dökülüyor: “Amerika, demokrasinize müdahale ettiğim için beni suçluyorsunuz, ama bunu yapmaya ihtiyacım yok. Bunu siz kendi kendinize yapıyorsunuz. Oy verme merkezleri kapatılıyor. Kime güveneceğinizi bilmiyorsunuz. Bölünmüşsünüz.”

Anlaşılacağı üzere iki video da seçmenleri bilinçlendirmeye yönelik bir kampanyanın parçası. Ancak aynı zamanda teknoloji ile nelerin yapılabileceğini göstermesi bakımından da korkutucu.  

Siber Bülten abone listesine kaydolmak için formu doldurunuz

  

Dark Web’de yeni trend: Deepfake

Karaborsa ve siber suç forumları gün geçtikçe daha da popülerleşiyor. Yasal piyasalara göre şekil değiştirebilen bu pazarlar, normal mal satımının yanı sıra siber alemde yaptıkları çalışmalarla kullanıcılara uygun fiyata farklı kapılar açıyor.

Yasa dışı mal satanlar ve siber suç hizmetleri tüm dünya üzerindeki karaborsa pazarlarında ve forumlarında yıllardır gelişmekte. Bu pazarlar alıcıların ihtiyaçlarına, arz durumuna ve yeni teknolojiye uyum sağlayarak yasal pazarlar gibi değişip dönüşüyor. Kamusal alanlardaki piyasalara uygun mallarla ve fiyatlarla hızlıca cevap veriliyor.

Örneğin Koronavirüs salgını, satıcıların tuvalet kağıdı ve maske satmaya sürükledi. Bu pazarda “Covid-19” , “Koronavirüs” kelimeleri kullanılarak mallarda veya hizmetlerde sosyal mühendislik yöntemiyle dolandırıcılığın ciddi bir biçimde arttığı da gözle görünüyor.

Trend Micro Research bu alanları on yıldır araştırıyor ve bu pazarlardaki faaliyetler çoğunlukla kötü amaçlı yazılım, ele geçirilmiş hesaplar, elektronik cihazların ve değerli bilgilerin veri tabanlarının satımı etrafında dönüyor.

2019 yılında, kamusal alandaki değişim yer altı marketlerin sahte haberler üretmesinin ve siber propaganda hizmetlerinin hızla çoğalmasını tetikledi. Çalışma ve iletişim şekli değişti. Tehdit aktörleri şu anda araçlar geliştikçe yapay zeka tabanlı teknolojiden gelir elde etmenin farklı yollarını araştırıyor.

SAHTE HABERLER VE SİBER PROPAGANDA POPÜLERLEŞİYOR

Yer altı pazarlarına sunulan sahte haberler ve siber propaganda hizmetleri, genellikle belirli bir gündemin ya da mesajın reklamını veya kampanyasını yapmak için kullanılan sosyal ağlardan faydalanmayı içeriyor. Yer altı marketlerinde geniş kapsamlı sosyal medya manipülasyonları rahat bir şekilde kullanılıyor: sahte yorumlar, sahte sosyal medya beğenileri, post görünürlüğü arttırma ve daha fazlası şeklinde. Üstelik bu hizmetler çok düşük bir fiyata satılıyor; örneğin 1000 Instagram beğenisi 15 sente satılabiliyor. Siber suçlular genellikle sosyal medya platformlarında manipülasyon yapmak için otomatik botlar veya gerçek insanlar kullanıyor.

Bu hizmetlerin yanı sıra kullanıcı veri tabanları da siber propaganda kampanyaları oluşturmak isteyenlere satılıyor. Modası geçmiş seçmen veri tabanları genellikle ücretsiz olarak paylaşılırken, daha güncel veri tabanları ise satışa çıkıyor. Ele geçirilmiş seçmen veri tabanlarıyla diğer kullanıcı verileri birleştirilip kötü niyetli aktörlerini etkili propaganda yapmalarına yardımcı olabiliyor. Örneğin önemli veri noktaları spesifik bir ülkenin seçmen kitlesi için hedef oluşturmak adına kullanılabiliyor.

‘HİZMET OLARAK ERİŞİM’ RAĞBET GÖRÜYOR

‘Hizmet olarak erişim’ hacklenmiş cihazlara veya şirket ağlarına erişme imkanını satıyor. Bu hizmet karaborsada yıllardır yaygın ancak satıcılar son bir yıl içinde katlandı. Forumlar içerisinde, farklı erişme seviyelerinin satıldığını görülebiliyor. Yönetici düzeyinde kimlik bilgileri, uzak masaüstü erişimi, yönetim panelleri, bulut depolama, e-posta hesapları ve hatta şirketlere tam ağ erişimi gibi. Fidye yazılımları, kimlik bilgisi çalma, kötü amaçlı yazılım veya çoklu bot saldırılarıysa genellikle aygıtları veya şirket sistemlerini ele geçirmek için kullanılıyor.

Bu tekliflerin birçoğu Rusya’daki ‘Exploit’ forumunda bulunmakta. Kötü niyetli bir kişi ABD sigorta şirketine 1,999 dolara ve bir Avrupa yazılım şirketine 2,999 dolara erişme izni satıyordu. Fortune dergisi tarafından hazırlanan ABD’deki en yüksek net ciroya sahip 500 kurumun listelendiği Fortune 500 şirketlerine içeriden erişim 10 bin ABD dolarına kadar çıkabiliyor.

‘DARK’ MARKETLERE OLAN İNANÇ AZALIYOR

Özellikle 2019 yılında yer altı pazarları güvenlik güçleri tarafından hızla kapatılıyor. Genellikle büyük bir pazar kapandıktan sonra kullanıcılar var olan bir başka pazara yöneliyorlar. Ancak şu anda istikrarlı bir pazar bulunmuyor.

Forum kullanıcılarının yer altı forumlarına ve marketlerine olan inancı hızlıca kayboluyor. Güvenlik güçlerinin yanında ayrıca işletmecilerin çıkış dolandırıcılığı planlamasından da korkuyorlar. Siteler de düzenli koruma faaliyetlerinde sorun yaşıyor. Kullanıcılar bu sorunlar nedeniyle ciddi bir hayal kırıklığı içerisinde olduklarını dile getiriyorlar.

İlgili haber>> Dark Web Nedir? Dark Web Girişi Nasıl Yapılır?

Pazar toplulukları güven inşa etmenin çeşitli yollarını arıyor. Forumlarda arama yaparak satıcıların itibarlarındaki gölgeyi kaldırmak için DarkNet Trust adlı yeni bir araştırma sitesi oluşturuldu. Yöneticiler güven inşa etmek için, cüzdansız pazarlar, kripto para imzaları (BTC ve Monero) ve Javascript içermeyen politikalar gibi yeni güvenlik özellikleri oluşturuyor. Bazı ‘dark’ internet forum kullanıcıları ‘blockchain’ teknolojisinin merkezi olmayan marketlerine sunucu olabileceklerini öne sürüyorlar. Çünkü bu sözde sitelere karşı güvenlik güçleri ve gözetim daha az duyarlı.

DEEPFAKE DOLANDIRICILIĞINA OLAN İLGİ GÜN GEÇTİKÇE ARTIYOR

Birçok kullanıcı Deepfake resim ve videolarını zaten duymuş veya görmüştür. Yapay zeka tarafından üretilen teknoloji, belirli bir konuyu güvenilir bir şekilde taklit eden gerçekçi görüntüler ve sesler oluşturabiliyor. Daha önce de dolandırıcılık konusunda başarıyla kullanılmıştı. Mart 2019’da İngiltere merkezli isimsiz bir şirketin yöneticisi, Deepfake ses teknolojisi kullanan bir dolandırıcıya 220.000 € transfer etmesi konusunda kandırıldı. Yönetici, telefonda patronu olduğunu düşündüğü biriyle sohbet ettiğini düşünüyordu.

Karaborsa veya forum postlarındaki satış hizmetleri için hala sahte video ya da resimler kullanılıyor ancak birçok kullanıcı bu teknolojiden gelir elde etmenin farklı yollarını bulmaya yoğunlaşıyor. Halihazırdaki tartışmalardan bazıları ise Deepfake kullanımının, eWhoring dolandırıcılığında, cinsel zorlamada veya tanışma sitelerinde fotoğraf doğrulama gereksinimlerini atlamada nasıl kullanılabileceği hakkında sürmekte.

DİSCORD PLATFORMU İLETİŞİM VE SATIM ARACI OLARAK KULLANILIYOR

İki yıl önce, mesajlaşma uygulaması olan Telegram, alıcılar ve satıcılar arasındaki iletişimin ana yoluydu. Bununla birlikte, 250 milyondan fazla kullanıcısı olan popüler bir iletişim uygulaması olan Discord, satıcıların iletişim kurması için gittikçe popülerleşen yeni bir platform haline geldi. Discord, büyük ölçüde güvenli olarak görülen ve kullanıcıların anonimliklerini korumalarını sağlayan bir platform.

Forumlar ve pazar yeri yöneticileri kendi Discord sunucularını ve kanallarını oluşturdu. Her ne kadar bu kanallar forumlar kadar yoğun bir şekilde kullanılmasa da aynı mallar ve hizmetler bu kanallarda da aynı fiyata sunulmaktadır.

Yeraltı pazarlarına ve forumlara yönelik araştırmalar, gelecekteki eğilimler hakkında bilgi sağlamaya, kullanıcıları ve işletmeleri etkileyebilecek kritik sorunları öngörmeye olanak tanıyor.

Önümüzdeki üç yıl içinde kayıt dışı ekonomide görülmesi beklenen birkaç senaryo ise şöyle;

  • Deepfake fidye yazılımı cinsel zorlamanın evrimsel basamağı olacaktır.
  • Önümüzdeki seneler içerisinde Afrika’da daha fazla siber suç görülecek.
  • Siber suçlular, ‘Nesnelerin İnterneti’nin’ geniş saldırı yüzeyinden yararlanan geliştirilebilir bir iş modeli bulacaklar.
  • Yer altı forumlarında malın yükümlülükler gerçekleşene kadar tarafsız kişilere emanet edilmesi gibi daha akıllı sözleşmeler görülecek.
  • SIM kartlarına yönelik saldırılar artacak ve daha üst düzey kişiler hedeflenecek.