Etiket arşivi: selin çetin

“Otomobili tekerlekli bir bilgisayar ağı olarak kabul etmeliyiz”

Nevada Üniversitesi otonom araç geliştirme ekibinin başmühendisi Richard Kelley

Nevada Üniversitesi otonom araç geliştirme ekibinin başmühendisi Richard Kelley Siber Bülten yazarı Selin Çetin’e verdiği röportajda, internetin ilk ortaya çıktığında güvenlik endişesinin ön planda olmamasının bugünkü siber riskleri doğurduğuna işaret ederek, gelişmekte olan otonom araç teknolojisinde aynı hatanın tekrarlanmayacağını söyledi.

Intelligent Mobility Initiative’de, ulaşım sorunlarına yapay zekâ uygulanması üzerine çalışan bir araştırma projesinin de önde gelen araştırmacılarından biri olan Kelley, internete bağlı araba üreticilerinin de tüketicilerin de arabayı tekerleklere sahip bir bilgisayar ağı olarak görmesinin de önemine dikkat çekti.

Çetin: Genel bir soru ile başlayalım. Otonom araçların bizim için potansiyel faydaları neler olacak? Onlara neden ihtiyacımız var?

Kelley: Bence, otonom araçlar üzerine çalışan herkes -en azından bir kısmı-otonom araçlarla daha güvenli bir gelecek olacağı için bunu yapıyor. Bugün çoğu trafik kazası insan hatasından dolayı oluyor ve otonom araçlar, bu kazaların kaynağını ortadan kaldırma potansiyeline sahip. Ancak güvenlik konusunun ötesinde, otonom araçlar yapay zekâ bakımından ileriye yönelik önemli bir adımdır. Şu ana kadar, çoğu otonom robot, nispeten kısıtlı ortamlarda çok basit görevleri çözmek için konuşlandırılmıştır (bir evi temizleme gibi). Öyle görünmüyor olabilir, ama güvenilir temizlik robotları bakımından sahip olduğumuz noktaya ulaşmak aslında büyük bir teknik başarıdır çünkü laboratuvardan oturma odasına gitmek onlarca yıl aldı. Bir araba sürmenin bir ev temizlemeye göre ne kadar zor olduğunu kıyaslayın. Tamamen otonom arabalara, her türlü çılgınca şeyin olabileceği gerçek dünyada faaliyet gösterebilen otomobillere, ulaşmak için robotistlerin ve YZ uzmanlarının, YZ teknolojisinin sınırlarını zorlaması gerekiyor ve bu teknolojinin günlük hayatımıza yayılması toplum için pek çok fayda sağlayacak.

Çetin: Otonom araçlarla ilgili hacklenme, terörizm, gizlilik ve güvenlik ile ilgili riskler konusunda eleştiriler mevcut. Bu risklerle ilgili ne düşünüyorsunuz. Bunların üstesinden gelinebilir mi?

Kelley: Bunların hepsi kritik olarak önemli konulara işaret ediyor. İnternet ve World Wide Web’in üzücü taraflarından biri güvenliğe başından beri değil de sonradan odaklanmaya başlamasıdır. Aynı hatayı otonom ve bağlantılı araçlarla yapmaktan kaçınmamız için bir şansımız var. Güvenlik sorunlarını (hack ve terörizm gibi) ele almak için muhtemelen arabaların nasıl geliştirildiğini yeniden düşünmek gerekecek. Bu günlerde bir araba, düzinelerce mikro denetleyiciden ve ilk bilgisayar solucanı bile icat edilmeden birkaç yıl önce 1980’lerin ortasında tasarlanan bir ağ protokolü (CAN) ile bağlı bilgisayarlardan oluşuyor. Otomobilin tekerleklere sahip bir bilgisayar ağı olduğunu kabul etmeli ve bu gerçeğin farkında olan ve bunu ele alan yeni güvenlik sistemleri geliştirmeye çalışmalıyız.

Mahremiyet söz konusu olduğunda, toplumun ileri teknolojiden mahremiyete kadar modern tehditleri öğrenmesi ve buna dayalı olarak, öğrenmenin demokratik olarak nasıl ilerleyeceğine karar vermesi gerektiğini düşünüyorum. Bence bunu sosyal medya bağlamında görmeye başlıyoruz; umarım otonom arabalar daha yaygın olduğu zaman, insanlar mahremiyetlerine nasıl değer vermeleri gerektiği konusunda daha iyi fikir sahibi olurlar. Bu zorlukların tamamı çok önemli, ancak ileriye doğru iyi bir yol seçebilmemiz için umutlu olalım.

Çetin: Bu teknolojinin geliştirilmesinde hükümet ve özel sektör ne gibi rollere sahip olmalı? Hangisi daha faydalı olabilir?

Kelley: Hem hükümet hem de özel sektör bu konuda rol oynuyor ve gelecekte otonom araç geliştirilmesinde de önemli rolleri olacak. Bence hükümetin temel rolü, kamuoyunun güvenlik kaygılarını, şirketlerin sistemlerini kapsamlı bir şekilde test etme gereksinimi ile dengeleyen yararlı bir düzenleyici ortam yaratmak olacaktır. Aynı zamanda, muhtemelen şirketlerin üzerinde çalışabilecekleri spekülatif araştırma konuları da var ve muhtemelen bu tür konularla ilgili araştırmaları finanse etmek için hükümetin olanaklarından yararlanılabilir. Örnek olarak, çok az sayıda otonom araç şirketi ağa bağlı şehirler konusunda bu teknolojiyle ilgilenmektedir, çünkü sistemlerinin kamu altyapısına bağlı olmadan çalışmasını istiyorlar. Ancak, böyle bir altyapının devletin araştırmaları destekleyebileceği başka faydaları olabilir. Ekibim şu anda Reno şehri ve Nevada Eyaleti ile akıllı LIDAR ağlarının şehirleri nasıl daha güvenli ve daha duyarlı hale getirdiğini araştırmak için çalışıyor.

Özel sektörün öncelikli işi ise, temel teknik gelişmeleri ileriye doğru taşımak olacaktır. Sonuç olarak, her iki rolün de eşit derecede önemli olduğuna inanıyorum.

Çetin: Otonom araç yazılımları gelişirken, bunun hukuka ve etik kurallara olan yansıması ne olacak?

Kelley: Bence otonom araç şirketlerinin odaklanması gereken temel şey, sağlam bir şekilde hukuku takip eden sistemler inşa etmektir. Eğer bunu yapabilirlerse, bence, “belli” etik kaygıların büyük çoğunluğu ele alınmış olacak. ‘Trolley etiğine’ duyulan ilginin yararlı olduğunu düşünmüyorum. Neyse ki bu ilgi azalıyor gibi görünüyor.

Çetin: Sizce bu teknolojinin geliştirilmesinde hangi hukuk nosyonlarını öncelikli kabul etmeliyiz?

Kelley: Trafik yasaları ile ilgili zor şeylerden biri insanlar düşünülerek yazılmış olması. Yazılı trafik yasalarını sık sık kesin maddeler olarak düşünüyoruz, ancak bunları gerçekten dikkatlice okuyunca, yorumlanması geren çok yer var. Bu, bilgisayarların zorlandığı bir şey, bu yüzden otonom bir aracın eksiksiz özellikleri ile ilgili beklentilerimizi netleştirmemiz gerekecek. Örneğin, otonom araçlar okuyabilmeli mi? Bu kulağa komik gelebilir, ancak şaşırtıcı miktardaki trafik kontrolü, sadece ezberlenemeyen yazılı işaretler kullanılarak yapılır. Eğer biz otonom araçların okuyabilmesi gerektiğine karar verirsek, o zaman hangi okuduğunu anlama seviyesine ihtiyacımız olacak? Tipik bir sürücünün okuma seviyesinde mi okuyabilmeliler? Bu yüksek bir standart gibi görünüyor; ancak, yasayı anlamak söz konusu olduğunda otonom araçlara yönelik beklentilerimizin ne olduğuna karar vermemiz gerekiyor.

Aynı zamanda, hükümetler, otonom araçların ve diğer robotların yasal kısıtları yükleyip anlamasını kolaylaştıracak yasaları sunmanın standart bir yolunu oluşturmayı başlayabilirse, bu muhtemelen yararlı olacaktır. Kanunların tek tip olmaları gerekmiyor, ancak hem Nevada’nın (bulunduğum yer) hem de Kaliforniya’nın yasalarının standart olarak okunabilir bir formatı olsaydı, her iki eyalette de çalışabilecek robotlar yapmak çok daha kolay olurdu.

Temel olarak, robotlar için “sürücü testi”nin nasıl olacağına karar vermemiz gerektiğini düşünüyorum. Bu, hükümetlerin ve özel şirketlerin birlikte çalışabileceği başka bir alan.

Çetin: Otonom araç kazalarındaki sorumluluk popüler tartışmalardan biri. Siz sorumluluk konusunda ne düşünüyorsunuz? Örneğin, yazılımcının öngöremediği bir durum gerçekleştiğinde sorumluluk sorunu nasıl çözülmeli?

Kelley: Genel olarak, bence, otonom araçların mükemmelleştirilmesinden dolayı sorumluluk *daha az* ilgi çekecek alanlardan biri. ABD Ulusal Karayolu Trafik Güvenliği İdaresi (NHTSA), ABD’deki kazaların nedenlerini belirlemek için 2005’ten 2007’ye kadar kapsamlı bir analiz gerçekleştirdi. NHTSA, neredeyse tüm (yüzde 94) kazaların insan hatasıyla oluştuğunu tespit etti. Temel olarak, insanlar kaçınılmaz olarak kötü kararlar veriyorlar. Otonom araçlar bu tür bir kazayı önledikten sonra, kalan sorunların (son yüzde 6) belirlenmesi daha kolay olacaktır. Otonom araçlardaki gelişmiş sensörler ve YZ sayesinde, yolda bir lastiğin patlamasına neden olabilecek “aşınma ve yıpranma” gibi şeyler bile şimdi olduğundan daha erken tespit edilir.

Kazalar olsa bile, muhtemelen uçak kazalarında olduğu gibi ele alınacaktır. Her çarpışmayla ilgili her arabada olan “kara kutular”, söz konusu olay kapsamında alınacak, hükümet ve otonom araç üreticileri tarafından gelecekte benzer kazaların önlenmesini sağlayacak şekilde dikkatli bir şekilde analiz edilecektir.

Çetin: Otonom araçların 5 seviyeden oluştuğunu biliyoruz. Kamuya açık bir yolda 5. seviye bir araba ne gibi problemler yaratabilir? Bunların üstesinden nasıl gelebiliriz?

Kelley: Direksiyon olmadan istediğiniz yere gidebileceğiniz- gerçek bir “seviye 5 otonomi”ye sahip araçların birkaç yıl (belki de onlarca yıl) uzakta olduğunu söylemek istiyorum. Ama bu teknolojiye sahip olduğumuzda, sanırım sorular “bu tür bir aracı konuşlandırabilir miyiz?”den, “Bu otonomluk seviyesinden en iyi şekilde nasıl faydalanırız?”a doğru değişecek. Otonom sistemlerin rolü neredeyse her zaman bazı faaliyetlerin maliyetini azaltmaktır. Seviye 5 otonom araçların durumunda, fiziksel ulaşım maliyeti azalacaktır. Bu ekonomik teşvikleri değiştirecek ve hatta yoldaki araç sayısını bile artırabilir. Buradaki zorluk, otonomluğun daha fazla yoğunluğa veya daha uzun seyahat süresine yol açmadığından emin olmaktır. Diğer önemli konu ise istihdam. Örneğin, ABD’de kamyon sürücüsü olarak çok sayıda insan istihdam edilmektedir. Seviye 5 teknolojisinin gelişiminin tüm bu insanları işsiz bırakmayacağından emin olmalıyız. Bu sebeple, başka türden işler yapmak için sürücüleri yeniden eğitmemiz gerekebilir.

Çetin: Trafiğin yoğun olduğu ve bazı araçların da otonom olmadığı büyük şehirlerde otonom araçlara karşı manuel sürücülerin önyargıları nasıl aşılabilir?

Kelley: İnsanlarla etkin bir şekilde başa çıkmak, bana göre, otonom araçların son ve en büyük teknik zorluklarından biridir. Otonom arabaları “sosyal olarak zeki” yapmak için hala çok fazla araştırma yapılması gerekiyor. Aslında bu, araştırmamın çoğunun şu anda odaklandığı nokta ve bence cevap için oyun teorisine bakmamız gerekir. Geleneksel olarak, oyun teorisi sonlu sayıda sonuçlarla iyi tanımlanmış rekabetçi durumları analiz etmek için kullanılır. Fakat oyunun teorik analizini sürüş alanına genişletmenin yolları var ve şu anda öğrencilerimden birkaç tanesiyle birlikte çalışarak aramızda bu tür bir analiz yapabilmekteyiz. Şu anda otonom araçlar çok ölçülü davranıyorlar, çünkü çoğunlukla diğer sürücülerin niyetlerini modellemiyorlar, bu yüzden bu sürücülerin nasıl tepki vereceğini güvenilir bir şekilde tahmin edemiyorlar. Ekibim, insanların nasıl davranacağını tahmin etmede iyi olan “niyet tanıma” sistemleri oluşturuyor ve bu sistemleri, aracımızın karar verme yazılımına dahil ediyoruz, böylece saldırgan insan sürücüler tarafından zorbalığa uğrama olasılığı daha düşük oluyor.

Çetin: Fütüristik bir soru sormak istiyorum. Otonom araçların gelecekteki ilerlemesi nasıl olabilir? Otonom araçlar için 5. seviyenin üstünde bir yazılım öngörebiliyor musunuz?

Kelley: Seviye 5 otonomisi hala uzun bir yol olsa da bence bu otonom araçlar için gerçekten sadece bir başlangıç. Otonom araçların üstüne inşa edilmiş büyük bir ekonomi olacağını umuyorum, aynı şekilde karmaşık bir ekonomi Internet ve Web çevresinde büyümüştü. Örneğin, ulaşım ağları ekonomisi yeniden değerlendirilmeli. Arabalar bağımsız olarak hareket edebildiğinde, bu araçların kabin içi kullanıcı deneyimini dikkatlice tasarlama ihtiyacı doğacaktır. Arabalarımız bizi gezdirirken, eğlenecek yeni yollar bulacağız (umarım bugün Web’de sahip olduğumuzdan daha az reklamla). Daha geniş anlamda, seviye 5 otonomisi sağlayacak teknolojinin normal otomobillerden daha faydalı olacağını düşünüyorum. Seviye 5 otonom arabalara sahip olduğumuzda, aynı teknoloji muhtemelen daha küçük otonom dağıtım araçları da kullanacak.

Çetin: Son olarak, çoklu veya tüm otonom araçları çalıştırabilecek kolektif ve merkezi bir yazılım olabilir mi? Bunun sonuçları ne olurdu?

Kelley: Bu gerçekten ilginç bir soru! İnsansız hava araçları (dronelar) alanında, esas olarak NASA’nın UAS Trafik Yönetimi (UTM) projesi ile merkezi trafik yönetim sistemleri üzerinde çok fazla araştırma yapılmıştır. Nevada Eyaleti’nde UTM araştırmasına katılarak birkaç yıl çalıştım ve NASA’nın yaptığı işin, robotiklerin yaygınlaştığı her alanda merkezi robot kontrol ağlarının nasıl gelişeceğinin bir şablonu olduğunu düşünüyorum. Bireysel şirketlerin filolarını yönetmek için kendi merkezi sistemlerine sahip olmalarını umuyorum. Dahası, yerel yönetimlerin burada bir rolü olması söz konusu olabilir. Birçok aracın merkezileştirilmiş kontrolünün, merkezi olmayan yaklaşımlardan daha verimli olabileceğine dair bazı kanıtlar var, bu yüzden önümüzdeki yıllarda bu tür bir soruna yönelik pek çok pratik araştırma ve deney görmeyi umuyorum.

Siber Bülten abone listesine kaydolmak için formu doldurunuz

Veri skandalları 2018’e damgasını vurdu

2018 yılı teknolojik gelişmelerin birbirini izlediği, bunun yanında skandalların özellikle de veri skandallarının yaşandığı bir yıl oldu. 2018’in ilk aylarına dönecek olursak, Cambridge Analytica şirketinin milyonlarca Facebook kullanıcısının verilerini usulsüz kullandığının ortaya çıkması pek çok eleştiri almıştı. Facebook yöneticileri de sık sık ifade vermeye çağrılmıştı.

Mark Zuckerberg, Nisan ayında ABD Senatosu ve Mayıs ayında Avrupa Parlamentosu ile karşı karşıya kalmıştı. Yakın zamanda ise Washington DC Başsavcılığı, sosyal medya platformu Facebook’a kullanıcıların verilerini uygunsuz bir şekilde paylaştığı gerekçesiyle dava açtı. Başsavcı Karl Racine, yaptığı yazılı açıklamada Facebook’u kullanıcılarını kişisel verilerine kimlerin erişebildiği ve nasıl kullanıldığı konusunda da yanıltmakla suçladı. ( https://www.bbc.com/turkce/haberler-dunya-46628697) Normal bir yılda bu olaylar inanılmaz kabul edilecekken, yılın devamında yaşananlar bunları biraz gölgede bıraktı diyebiliriz.

Bu yıl en çok tartışılan ve gündemde kalan konularından biri Amerika’da gerçekleşen Uber kazası idi. Tempe kentinde meydana gelen kazada, Uber’in Volvo SC 90 model aracı sokakta karşıdan karşıya geçen birine çarpmış ve kişi hayatını kaybetmişti. Kaza anında aracın direksiyonunda bir sürü otursa da aracın “otomatik sürücü modunda” olduğu görülmekteydi. Dolayısıyla konuyla ilgili uzun zamandır tartışılan hukuksal tartışmalara yönelik ilk somut olay gerçekleşmiş oldu. Uber olay sonrası sürücüsüz araçlara yönelik olan test çalışmalarını durdurduğunu açıklamıştı. (https://www.bbc.com/turkce/haberler-dunya-43500904)

Gündemde olan diğer tartışmalar ise büyük çapta güvenlik ve mahremiyet üzerine idi. IBM’in NY polis departmanı ile gizlice çalıştığı ve New York sokaklarında binlerce insanın polis kamerasını kullanarak, ırk temelli yüz tanıma için “etnik köken tespiti” özelliği geliştirdikleri ortaya çıkmıştı. Bu durum, başta Amerika olmak üzerine devletlerin ve teknoloji şirketlerinin elde ettikleri verileri etik dışı kullandığı tartışmalarını artırmıştı. (https://theintercept.com/2018/09/06/nypd-surveillance-camera-skin-tone-search/)

 VERİ, 2018’E DAMGA VURDU

2018 yılının konusu ise kesinlikle “veri” idi. Özelikle yüksek riskli alanlarda kullanılan yapay zekâ sistemleri pek çok hak ihlaline sebep oldu. Mayıs ayında, İngiltere’de göç sahteciliğini tespit etme amacıyla tasarlanan bir ses tanıma sistemi binlerce vizeyi iptal etti ve bunun sonucunda birçok insan yanlışlıkla sınır dışı edildi. Temmuz ayında ise IBM Watson’ın “güvenli olmayan ve hatalı” kanser tedavisi önerileri ürettiği bildirildi.

Öte yandan Amazon’un kullandığı makine öğrenim sisteminin son zamanlarda kadınlara karşı ayrımcılık yaptığı, hatta sadece “kadın” kelimesini içeren özgeçmişleri aşağı sıralara çektiği ortaya çıktı. IBM, Facebook ve Microsoft gibi şirketler yapay zekâ sistemlerinde önyargı sorunlarının hafifletilmesine yardımcı olmayı vaat etmesine rağmen, yaşanan bu olaylar, bu sistemleri kullanan şirketlerin hesap verebilirliklerine yönelik eleştirilerin dalga dalga yayılmasına sebep oldu.  (https://medium.com/@AINowInstitute/ai-in-2018-a-year-in-review-8b161ead2b4e)

YAPAY ZEKÂ: BÜYÜK BİR SORU İŞARETİ

Birleşmiş Milletlerin yayımladığı raporda, yapay zekânın insanlığın en acil ihtiyaçları ile uyumlu olacağının garantisi bulunmadığı söylendi. Raporda ayrıca, YZ sistemlerinin “insan duygularını manipüle etmek ve yanlış bilgi yaymak ve hatta nefreti yaymak” ve “mevcut önyargıları ve dışlanma biçimlerini pekiştirme riskini üstlenmek” için daha fazla kullanıldığı belirtiliyordu. (https://www.un.org/development/desa/dpad/wp-content/uploads/sites/45/publication/WESS2018_full_web.pdf )

Üst üste yaşanan bu skandalları teknoloji şirketlerinin sektöre yönelik etik kodlar yayınlaması takip etti. Google YZ ilkeleri bunların en önemlisi olmuştu. (https://www.blog.google/technology/ai/ai-principles/) Bu ilkelerin dikkat çekenlerinden bazıları ise şöyle idi: Yapay zekâ;

  1. Toplumsal fayda sağlamalıdır.
  2. Ön yargıların doğmasına veya artmasına neden olmaktan kaçınmalıdır.
  3. Güvenli bir şekilde geliştirilmeli ve güvenliği test edilmelidir.
  4. İnsanlara hesap verebilir olmalıdır.
  5. Gizlilik ilkelerine uygun tasarımda olmalıdır.

 Verinin artan önemi karşısında bazı yasal düzenlemeler de 2018’in önemli gelişmeleri arasında yer aldı. Bunlardan en önemlisi şüphesiz 25 Mayıs’ta yürürlük kazanan, Avrupa Birliği ve Avrupa Ekonomik Bölgesi içindeki tüm bireyler için veri koruma ve mahremiyet ile ilgili düzenlemeler içeren AB Genel Veri Koruma Tüzüğü (GDPR) idi. Bunu takiben, Kaliforniya, ABD’deki en güçlü gizlilik yasasını yürürlüğe koydu.

TERMİNATÖRLERE HAYIR

Askeri alanda robotik teknolojilerin kullanımının yaygınlaşmaya başlaması karşısında artan tepkiler de 2018 gündeminde idi. Ağustos ayında BM nezdinde gerçekleşen ve 70’ten fazla ülkenin temsilcisinin katıldığı görüşmelerde biri kez daha bu teknolojinin askeri alanlardaki kullanımının kısıtlanmasının altı çizildi. Akabinde AB Parlamentosu da bu teknolojilerin askeri alanlardaki artan kullanımını desteklemediğine yönelik görüşlerini açıklamıştı. (http://www.europarl.europa.eu/news/en/press-room/20180906IPR12123/european-parliament-speaks-out-against-killer-robots)

AB 2018 yılı boyunca yapay zekâ konusunda pek çok çalışma gerçekleşti. En önemlisi Nisan ayında yayınlanan Yapay Zekâ Bildirisi olmuştu. (https://robotic.legal/ab-yapay-zeka-bildirgesi/) Bu bildiri çerçevesinde şu hususların altı çizildi:

  • Yapay zekâ kullanımında sorumluluğu temin etmek için, yapay zekâ ile ilgili etik ve yasal çerçeve konusunda görüş alışverişinin yapılması,
  • Avrupa düzeyinde yoğun bir Dijital İnovasyon Merkezi ağının kurulmasına katkıda bulunulması,
  • Şeffaflık ve hesap verebilirlik gibi prensiplerin yanı sıra kişisel verilerin gizliliği ve korunması da dahil olmak üzere, AB temel hak ve değerlerini temel alan yeterli yasal ve etik bir çerçeve sağlanması,
  • İşgücü piyasasının dönüşümü ve AB vatandaşlarının becerilerinin artırılması da dahil olmak üzere Avrupa’daki eğitim ve öğretim sistemlerinin modernize edilmesi gibi sosyo-ekonomik zorlukların ele alınması.

Bu bildiri sonrasında ise AB, Aralık ayında yapay zekâ ve etik konusunda yeni bir rehber yayınladı.( https://robotic.legal/guvenilir-yapay-zeka-icin-taslak-etik-esaslar/)  Bu rehberde “güvenilir yapay zekâ” için bir çerçeve oluşturmak amaçlanıyor. Bu rehbere göre güvenilir yapay zekanın iki bileşeni vardır: (1) Etik bir amaç sağlayacak şekilde temel haklara ve uygulanabilir düzenlemelere, muhtemel ilke ve düzenlemelere saygı göstermelidir. (2) Teknik olarak sağlam ve güvenilir olmalıdır, çünkü iyi niyetli olsa bile teknolojik hakimiyet eksikliği istenmeyen zararlara sebep olabilir.

DUPLEX: BÜYÜK TARTIŞMALARI TETİKLEDİ

Her ne kadar skandallar yılı olarak özetleyebilsek de teknolojik gelişmelerin yaşandığı bir yıl oldu 2018. Örneğin, Haziran ayında Google’ın geliştirdiği Duplex büyük ses getirdi. Sesli asistan özelliğine sahip olan Google Duplex, karşıdakinin gerçek bir kişiyle konuştuğunu hissedecek kadar doğal görüşmelere girilebilmekte, hatta “hmm” gibi düşünce ifadeleriyle konuşmaya gerçekçilik katabilmekte.(https://ai.googleblog.com/2018/05/duplex-ai-system-for-natural-conversation.html)

Öte yandan, Ford, Waymo, General Motors ve Tesla gibi şirketlerin araç teknolojisi ile ilgili çalışmaları da ses getirdi. SpaceX şirketinin ürettiği Falcon Heavy isimli roket, Elon Musk’ın Tesla spor arabasıyla beraber Florida eyaletindeki Kennedy Uzay Üssü’nden uzaya fırlatıldı. (https://www.bbc.com/turkce/haberler-dunya-42980048)

 TÜRKİYE’DE YAPAY ZEKÂ VE ROBOT POPÜLERLİK KAZANDI

Dünyada yaşananların paralelinde Türkiye’de de birtakım gelişmeler olduğunu söylemek mümkün. Yapay zekâ ve robot konuları 2018’de her kesim için popüler hale gelmeye başladı. Deep Learning Türkiye ekibinin Ekim ayında düzenlediği DeepCon konferansı şüphesiz en çok ses getiren etkinliklerden biri olmuştu.

Öte yandan Ocak ayında İstanbul Barosu’nda da yapay zekâ ve robotlar hukuksal boyutuyla tartışıldı. Yılın ilerleyen aylarında da sürücüsüz araçlar ve hukuk üzerine ikinci konferans düzenlendi ve bu konferansta da hem teknik hem de hukuksal tartışmalar üzerinde duruldu.

Bu yıl edebiyatta da robotların izlerini görmeye başladık. Sevgili Ayşe Acar’ın Türk edebiyatına kazandırdığı Bay Binet romanının devamı olan “Yeşil Adam” bu yıl okuyucusuyla buluştu. Yılın ilerleyen aylarında ise Prof. Cem Say’ın yapay zekâ konusunda oldukça sade bir dille yazılmış ve teknik alt yapısı olmayan kişilerin de kolayca okuyabildiği “50 Soruda Yapay Zekâ” kitabı yayınlandı.

Türkiye ve dünyada 2018, teknolojik gelişmelerin yaşandığı bir yıl olsa da büyük çapta veri konusunda yaşanan skandallarla geçen bir yıl oldu diyebiliriz. Bu da bize bireyleri koruyan yasal gelişmelerin teknolojinin hızına yetişmesi gerektiğini gösteriyor. 2019 yılının büyük teknolojik gelişmelere ve bunu takip eden akılcı yasal düzenlemelere sahip olması ümidiyle…

Dokuz Eylül Üniversitesi’nde yelkenler ‘ufkun ötesine’ açılacak

Dokuz Eylül Üniversitesi Endüstri Mühendisliği Topluluğu’nun bu yıl sekizincisini düzenlediği ‘Gelişim Platformu’ birbirinnde ilgi çekici konu ve konuklara ev sahipliği yapacak.
6 Aralık Perşembe günü Dokuz Eylül Üniversitesi Mühendislik Fakültesi Dekanlık Konferans Salonunda gerçekleşecek etkinliğe Siber Bülten yazarları Selin Çetin ve Minhac Çelik’in yanı sıra, Kozan Demircan, Sertaç Doğanay, Mehmet Nalça ve Aykut Baskın gibi isimler katılıyor.
Nikola Tesla’nın ‘Sınırlı zihinlere, sınırsız güç vermek zordur’ ilkesinden hareket eden Gelişim Platformu bu sene diğer pek çok etkinlikten farklı olarak konu sınırlamasını kaldırma kararı verdi. Günümüz trendleri ile ilgili gündeme gelen tüm konuları masaya yatırmak ve gelecek projeksiyonlarıyla ‘Ufkun Ötesine’ bir yolculuğa çıkmak etkinliğin ana amacını oluşturuyor.
Ayrıntılı bilgi ve kayıt için: www.ufkunotesine.com

Ayın kitabı: “50 Soruda Yapay Zekâ”

Boğaziçi Üniversitesi Bilgisayar Mühendisliği Bölümü öğretim üyesi Prof. Cem Say’ın “50 Soruda Yapay Zekâ” adlı kitabı bu ay okurları ile buluştu. Pek çok farklı alandan insanın ilgi ile karşıladığı kitap, oldukça zengin bir içeriğe sahip.

Leibniz’in rüyasını gerçekleştirmek için cebir ve mantığı evlendiren Boole’den, kariyerini mantıkla matematiğin birleştirilmesi ülküsüne adayan Frege’ye kadar yapay zekaya uzanan serüvenin tarihsel akışını okurlara sunuyor.

Hoca’ya göre, sıradan bir insan, bilgisayarların her şeyi yapabilecekleri fikrine kapılmakta haklı sayılabilir. Çünkü bilgisayarlar, okul notlarımızdan, iş yerindeki maaşlarımıza, sigorta yaptırmaya niyetlenirsek kalan ömrümüze kadar her şeyimizi biliyorlar.

Kitapta ilginç bulduğum sorulardan biri “Beyin nasıl bir bilgisayardır?” sorusu. Hoca, sorunun içinde beyni bir bilgisayar olarak kabul ettiğini de ortaya koyarak kısaca şöyle açıklıyor: Beyin denilen organ bir ağ bellek işlevi görmekte ve duyu organlarınca uyarılan hücreler bu ağa girdi, kaslar gibi hareket vs. yollarla dış dünyada etki yaratabilecek olanlara sinyal taşıyanlar da çıktı olarak görülebilir. Yani beyin bir bilgi işlem makinesidir.

Kitapta bilgisayarların çeşitli kullanımlarına dair sorular sorarken, arada kendi anılarından da bahsederek okuyucuyu bağlayan bir dil kullanıyor. Hikâyeleştirilmiş anlatımı ile teknik sayılan bilgileri her kesimden okuyucunun anlayabileceği bir seviyeye indirmeyi başarıyor.

Keyifli bulduğum kısımlardan biri de herkesin tanımlamasını yaparken zorlandığı “yapay zekâ”nın hoca tarafından yıllarca önce yapılan tanımlamasına dair anlatım. Kendisi 20. yüzyılda yaptığı tanımlamayı eksik buluyor; çünkü o dönemlerde yapay zekâyı, birçok kombinasyondan doğru olanını bulmayı gerektiren bulmacaları hızlı çözebilmeyi bilgisayarlara yaptırmaktan ibaret olarak gördüklerini söylüyor. Dolayısıyla hocaya göre bu, yapay zekâ tanımlamasının sakat doğmasına sebep olmuştu. Yaptığı yeni tanımlama da mevcut. Meraklıları kitapta bunu bulabilir. 🙂

Bir hukukçu olarak, sabırsızlanıp ilk olarak okuduğum kısım ise “Bilgisayarlar avukatlık yapabilir mi?” sorusu idi. Kendisi bu sistemlerin dokümantasyon, içtihat arama ve karar tahmin etme gibi konularda avukatlardan daha başarılı olduğunu söylüyor ve bana göre bu konuda oldukça haklı. Avukatların saatlerini alan angarya pek çok iş bu sayede kolaylaşabilir.

Son soru ise bize sınırlarımızı hatırlatan cinsten: “İnsan zekâsının bir geleceği var mı?” Oldukça olumlu bir tablo çizerek bu “ek beyinlerin” geleceğimiz için faydalı olacağını söylerken, baskıcı yönetimlerce kötüye kullanımının ise insanlığı köreltebileceğinin vurgusunu yapıyor.

Kitapta yukarıdakilere ek olarak pek çok güncel ve sosyal alanlarla bağlantılı sorular da mevcut. “Robotlar aşık olabilir mi?” “Bilgisayarlar buluş yapabilir mi?” ya da “Robotlar askere alınsın mı?” gibi…

Okuması keyifli ve akıcı… Daha fazla ayrıntı vermek istemem ama kitabın son cümlesi çok umut verici: “Başarabiliriz.

Robotları kandırmanın cezası var mı?

Akıllı teknolojiler hayatımızı her anlamda kolaylaştırmaya ve pratikleştirmeye devam ediyor. Sesli asistanlardan, giyilebilir teknolojilere, sürücüsüz araçlara ve internette karşılaştığımız botlara kadar onlarla artık sürekli etkileşim halindeyiz. Vazgeçilmez hale gelen bu teknolojiler teknik anlamda farklı yöntemler kullanılarak oluşturuluyor. Bunlardan biri de makine öğrenmesi ya da diğer bir deyişle yapay öğrenme(YÖ).

YÖ kısaca veriler üzerinden tahminlerde bulunup, karmaşık örüntüleri algılama ve akılcı karar verebilme üzerine odaklı bir bilim dalıdır. YÖ’nün geçmişine baktığımızda, modern yapay öğreniminin matematiksel temellerinin birçoğunun, bilgisayarlardan önce geldiğini görüyoruz. Bu konudaki büyük atılımlar, 18. yüzyılda Pierre-Simon Laplace’ın Bayes Teoremi’ni tanımlamasını sağlayan Thomas Bayes’in çalışmalarını içeriyor (1812).

Bu dönemlerde yapılan çalışmalar, günümüzdeki yapay öğrenmenin ataları sayılıyor. 1940’lı yıllara gelindiğinde ise başta Manchester, Cambridge ve Pennsylvania Üniversitelerdeki çalışmalar dikkat çekmeye başlıyor. 1950 yılında Alan Turing’in bir makinenin düşünüp düşünmeyeceğine yönelik olan “Computing Machinery and Intelligence” makalesi büyük yankı uyandırıyor.

Bunu takip eden önemli gelişime 1951 yılında Marvin Minsky ve Dean Edmonds’in, organik beyinlerin çalışma şeklinin bilgisayar tabanlı bir simülasyonu olarak ilk yapay sinir ağını tasarlaması oluyor. Oluşan büyük beklentinin hayal kırıklığına sebep olması ve yaşanan yavaşlama dönemi sonrasında, yakın geçmişimizden başlayarak bu çalışmalar tekrar büyük bir hız kazanmış durumda.

YÖ’de temelde üç yaklaşım bulunmaktadır: gözetimli, gözetimsiz ve pekiştirmeli öğrenme.

Gözetimli öğrenmede, girdi değişkenlerini (X), çıktı değişkenlerine (Y) eşleme işlevini öğrenmek için etiketli eğitim verileri kullanılıyor. Daha anlaşılır bir dil ile diyelim ki siz bir emlakçısınız. İşleriniz büyüyor ve size yardım etmesi için birçok stajyer işe aldınız. Ama bir problem var — siz bir eve baktığınızda evin değeri hakkında iyi bir tahminde bulunabiliyorsunuz ama stajyerlerinizin tecrübesi olmadığından nasıl değer biçmeleri gerektiğini bilmiyorlar.

Stajyerlere yardım etmek amacıyla (ve kendinizi tatil için boşa çıkarmak maksadıyla), sizin bölgenizdeki ev fiyatlarını genişlik, muhit ve benzer evlerin kaça satıldığı vb. gibi özelliklere göre hesaplayan basit bir uygulama yazmaya karar verdiniz. Bu yüzden son üç ayda şehirde satılan tüm evlerin fiyatlarını kaydettiniz. Satılan her evin oda sayısı, genişliği, muhiti vb. gibi detaylı özelliklerini not aldınız. Ama en önemlisi nihai satış fiyatını da kaydettiniz. Bu eğitim verisini kullanarak, bizim bölgemizdeki diğer tüm evlerin satış fiyatlarını tahmin eden bir program yazmak istiyoruz. İşte bu yöntem gözetimli öğrenmedir. Her bir evin kaça satıldığını biliyorsunuz, yani problemin cevabını biliyorsunuz ve oradan yola çıkarak geriye doğru bir mantık oluşturmaya çalışıyorsunuz.

Gözetimsiz öğrenmede ise sistem yalnızca girdi değişkenlerine (X) sahip, buna karşılık çıktı değişkenleri bulunmuyor. Verilerin altında yatan yapıyı modellemek için etiketsiz eğitim verileri kullanılıyor. Yine baştaki emlakçı örneğine geri dönelim.

Her evin satış fiyatını bilmeseydiniz ne olurdu? Tüm bildiğiniz evin genişliği, yeri vb. gibi bilgiler olsa bile, görünen o ki hala işe yarar hesaplamalar yapabilirsiniz. Buna da gözetimsiz öğrenme deniyor. Bu yöntem şuna benziyor: Birisi size bir kâğıtta sayı listesi veriyor ve şunu diyor: “Bu sayıların ne ifade ettiğini bilmiyorum ama belki sen burada bir düzen veya grup gibi bir şey bulabilirsin — iyi şanslar!”. Pekiştirmeli öğrenmede ise yazılımlar, genellikle deneme yanılma yoluyla en iyi eylemleri öğrenirler. Bu yöntem genel olarak robotikte kullanılır. Burada bir robot, engele çarptıktan sonra negatif geri bildirim alarak çarpışmalardan kaçmayı öğrenebilir. Ayrıca video oyunlarında da yine deneme yanılma yöntemiyle bir oyuncunun ödülleri alabileceği belirli hareketleri saptayabilir ve bir sonraki hareketini buna göre komutlar.

Günümüzde oldukça ilerleyen bu teknikler pek çok alanda da kullanılmaya başlandı. Nesne ve ses tanıma, görüntü işleme, arttırılmış gerçeklik bu konuda ilerleme kat edilen önemli konulardan bazılarını oluşturuyor. Bunlar hayatımızı kolaylaştırmakla birlikte bazı hukuksal sorunları da beraberinde getiriyor. 2018 WeRobot konferansında Washington Üniversitesi’nden Ryan Calo ve ekibinin sunduğu “Is tricking a robot hacking?” yani “Bir robotu kandırmak hacklemek midir?” adlı makalesinde harika bir hususa değiniyor.

Calo’ya göre, hasmane YÖ (adversarial ML) hukuksal açıdan da incelenmesi gereken bir konu. Hasmane YÖ, yapay öğrenme ile bilgisayar güvenliğinin ortak çalışma alanını oluşturuyor. Burada öğrenme algoritmalarının güvenlik açıklarından faydalanılarak, giriş verileri sistem güvenliğini tehlikeye atmak için manipule ediliyor. Hasmane YÖ’ye karşı savunma yapmak da oldukça güç; çünkü hasmane örnek hazırlayıp sürecin kuramsal modelini oluşturmak zorludur. Araştırmalar, YÖ algoritmalarının kırılabileceğini ortaya koymakta ve YÖ’deki bu başarısızlık, basit algoritmaların bile tasarımcılarının düşündüğünden oldukça farklı davranabileceğini göstermektedir.

Örneğin, hasmane YÖ kullanılarak, televizyondaki bir reklamda gömülü olan ve hiç kimsenin anlamlı bir şekilde farkına varamayacağı olumsuz bir ses girdisi yoluyla sesi işiten kişisel asistan sosyal medyada konum verisi paylaşabilir. Ya da sürücüsüz bir araç, dur işaretini bir hız limiti olarak algılayıp durmak yerine hızlanarak trafik kazasına yol açabilir.[1]

Görüldüğü gibi, aslında sisteme doğrudan bir müdahale yapılmayıp, sistem “kandırılarak” belli bazı sorunlara sebebiyet veriliyor. Calo’nun da dediği gibi asıl soru şu: “Bir robotu kandırmak hacklemek midir?” Ve bunun hukuktaki yansımaları nasıl olur?

Türk Ceza Kanunu(TCK) bilişim suçlarını birden fazla maddede düzenlemiştir. Bilişim Alanında Suçlar başlıklı bölümünde, madde 243’te hukuka aykırı olarak bilişim sistemine girme ve sistemde kalma suçunu düzenlemektedir. Buna göre, “Bir bilişim sisteminin bütününe veya bir kısmına, hukuka aykırı olarak giren veya orada kalmaya devam eden kimseye bir yıla kadar hapis veya adlî para cezası verilir.” Veriler ele geçirilsin veya geçirilmesin bilişim sistemine hukuka aykırı olarak girilmesi ve orada kalınması bu suçun eylemini oluşturmaktadır. Burada failin eylemi neticesinden bir zarar veya tehlike oluşması aranmamakta, sisteme girilmesi ve orada kalınması yeterli görülmektedir.

Bilişim sistemlerinin işleyişinin engellenmesi veye bozulması suçu ile verilerin yok edilmesi veya değiştirilmesi suçunu düzenleyen madde 244/1-2’ye göre ise, “Bir bilişim sisteminin işleyişini engelleyen veya bozan kişi, bir yıldan beş yıla kadar hapis cezası ile cezalandırılırBir bilişim sistemindeki verileri bozan, yok eden, değiştiren veya erişilmez kılan, sisteme veri yerleştiren, var olan verileri başka bir yere gönderen kişi, altı aydan üç yıla kadar hapis cezası ile cezalandırılır.”

Bu düzenleme ile bilişim sisteminin her nasıl olursa olsun çalışmasının engellenmesi, sistemin bozulması ve verilere zarar verilmesi ya da erişilmez hale getirilmesi cezalandırılmaktadır. Maddenin gerekçesinde de, bu maddeyle bilişim sistemlerine yöneltilen ızrar (mala zarar verme) eylemlerinin ayrı bir suç haline getirildiği belirtilmektedir. Ayrıca yine maddenin gerekçesinde, yapılan düzenleme ile “aracın fizik varlığı ve işlenmesini sağlayan bütün diğer unsurları, söz konusu suçun konusu oluşturmaktadır” denilerek bilişim sisteminin somut ve soyut bütün unsurlarının bu suçun konusunu oluşturacağı ifade edilmektedir.[2]

TCK devamında madde 245’te banka ve kredi kartlarının kötüye kullanılması suçlarını düzenlemiştir. Kısacası bu madde ile söz konusu kartların haksız, hukuka aykırı olarak kullanılması yoluyla bankaların ve kart sahiplerinin zarara sokulması ve bu suretle hukuka aykırı yarar sağlanması istenmektedir.[3]

Bilişim alanında suçlar başlıklı bölüm dışında, TCK, Malvarlığına Karşı Suçlar başlıklı bölümünde madde 142’de hırsızlık suçunun nitelikli hali olarak fıkra 2, e bendinde “bilişim sistemlerinin kullanılması suretiyle” ifadesine yer verilmiştir. Bunun dışında, madde 135 vd. kişisel verilerin korunmasına ilişkin suçlarından; madde 124 haberleşmenin engellenmesi suçundan; madde 132 haberleşmenin gizliliğini ihlal suçundan bahsetmekte ve Kanun bilişim sistemleri aracılığıyla işlenebilecek diğer suç tiplerine de ilgili maddelerde yer vermektedir.

Sonuç olarak, TCK’nın bilişim suçları ile ilgili düzenlemelerine baktığımızda, genel itibariyle bilişim sistemlerine girip belli birtakım değişiklikler, tahribatlar, kopyalamalar vs. yapılması üzerine kurgulanmıştır. Ancak, gelişen teknoloji ile birlikte kötü niyetli kişiler yukarıda da anlatıldığı üzerine doğrudan sisteme bir müdahale etmeden de zararların oluşmasına sebep olabiliyor.

Sürücüsüz aracın hasmane YÖ ile durma işaretini hızlan olarak algılayıp bir insanın ölümüne sebep olduğunu ve kötü niyetli kişilerin bu kasten yaptığını düşünelim. TCK, bilişim alanında suçlar başlığı altında bilişim sistemlerine yapılan müdahalelere yönelik düzenlemelere yer verdiğinden, burada farklı bir yol izlenmesi gerecek. Çünkü örnekte olduğu gibi, bu teknolojinin getirdiği kolaylıktan faydalanılarak suçun işleyişi kolaylaşmaktadır.

Kasten öldürme, kasten yaralama, özel hayatın gizliliğini ihlal, trafik güvenliğini tehlikeye sokma gibi suçları da oluşturacak şekilde hasmane YÖ gibi teknolojiler kullanılabilmektedir. Dolayısıyla bunlar gözetilerek, nitelikli hal olarak bu teknolojileri kullanmanın getirdiği kolaylıkla suçun işlenmesi durumu TCK’ya eklenmelidir.

Prof. Dr. Cem Say, Richard Kelley ve Av. Gökhan Ahi’ye değerli görüşleri için teşekkürler…

[1] Is Tricking a Robot Hacking?; Ryan Calo; sf. 13

[2] Bilişim Suçları ve İnternet İletişim Hukuku; M. Volkan Dülger; sf. 406

[3] Dülger; sf. 447

Siber Bülten abone listesine kaydolmak için formu doldurunuz