Selin Çetin tarafından yazılmış tüm yazılar

2012 yılında Japonca eğitimi sonrasında hukuk fakültesine başladı. Jürging-Örkün-Putzar Rechtsanwalte (Almanya), Güler Hukuk Bürosu ve Ünsal&Gündüz Attorneys at Law' da staj yaptı. Japon dili sertifikası aldı. Ayrıca arabuluculuk- tahkim ve ceza hukuku gibi alanlarda sertifika programlarına katıldı. Şu an İstanbul Barosu’nda yasal stajını yapmakta ve Bilişim ve Teknoloji Hukuku alanında yüksek lisansına devam etmektedir. Büyük bir merakla, robotlar, yapay zeka ve onların hukuksal durumları ve problemler ile ilgili çalışmalar yürütmektedir.

‘KVKK’nın 12. Maddesi geç ama çok önemli bir adım’

Siber Bülten’de bugüne kadar Türkiye’deki siber güvenlik konusunda öne çıkan isimlerle yaptığımız röportajları okuyucularımıza sunduk. Bugün yayınladığımız röportajı diğerlerinden ayıran özelliği bir Siber Bülten yazarının -Selin Çetin- başka bir yazarımız olan Burak Sadıç ile bu röportajı yapmış olması. İki yazarımızın siber sigorta, yapay zeka ve KVKK konularına değindiği röportajı ilginize sunuyoruz:

Çetin: Kişisel bir soru ile başlayalım, günlük hayatta kullandığınız teknolojik ürünlerin riskleri karşısında kullanıcı olarak sizin çözümleriniz neler oluyor?

Sadıç: Bir siber risk uzmanı olarak, teknolojiyi olabildiğince az kullanmaya çalışıyorum 🙂 Şakayı bir kenara bırakacak olursam, kullanıcı olarak benim kişisel tercihlerim:

– Her uygulama ve sistem için farklı ve karmaşık bir parola kullanmak,

– Yukarıda belirtilen tüm şifreleri saklamak için güvenli bir parola yönetimi uygulaması kullanmak,

– Mümkün olduğunda, ikili kimlik doğrulama kullanmak,

– Mevcut coğrafi konumu paylaşmayı mümkün olduğunca sınırlamak,

– E-posta veya mesajlar veya sosyal medya yoluyla gönderilen eklentileri açmamak veya bağlantılara tıklama konusunda paranoyak olmak. Eğer bu eklentileri ya da bağlantıları gerçekten merak ediyorsam da, onları “güvenli” bir ortamda açmaya çalışırım.

Çetin: Peki, bugünlerde şirketler hangi siber güvenlik tehditleri ile karşılaşıyor? Geçmişle karşılaştırdığında, özellikle yapay zekanın (YZ) gelişimiyle birlikte sigorta şirketlerinin sunduğu risk yönetimi çözümlerindeki değişimler neler oldu?

Sadıç: Siber güvenliği bir kitap olarak düşünürsek, şimdi ilk bölümün sonunda veya son bölümün başındayız. Internet’in yaygınlaşması ve bağlı cihazlarla (Nesnelerin Internet’i) birlikte şirketler veya bireyler için siber güvenlik tehditleri her bakımdan yalnızca bizim hayal gücümüzle sınırlanıyor. Ancak özet olarak, işin durması ve veri ihlali, şirketlerin bugünlerde karşı karşıya kaldıkları en büyük tehditler. Bence YZ gelişmelerinin siber sigorta üzerindeki potansiyel etkileri hakkında yorum yapmak için henüz erken.

Çetin: YZ kullanımının sigorta sektöründeki olumlu ve olumsuz etkileri nelerdir?

Sadıç: YZ tüm endüstrileri değiştirecek ve sigorta sektörü de bir istisna değil. Aşağıdakine benzer bir senaryo düşünün:

Bir trafik kazasına karıştığınızda, bağlantılı arabanız polise, hastaneye ve sigorta şirketine aynı anda bilgi veriyor. Polis ve sağlık uzmanları size ve diğer potansiyel mağdurlara yardım ederken, sigortacınız da aracınıza verilen zararın seviyesini belirliyor. İhtiyaç olması durumunda çekici otomatik olarak aranıyor ve ayrıca hasar seviyesi ve olası onarım maliyetleri önceden hesaplanıyor. Böylece, birkaç dakika içinde her şey robotik süreç otomasyonu ve YZ ile düzenleniyor.

Çetin: Siber saldırıları tespit etmek için geliştirilen YZ uygulamaları yayılmaya başladı. Bu uygulamaların geleceğini nasıl değerlendiriyorsunuz?

Sadıç: YZ, siber savunmada geleceğin zorunlu bir parçası. Mevcut altyapıların karmaşıklığı, son otomasyon teknolojilerinin yardımıyla bile, insanın durumu kavrayışını gerçekten zorlaştırıyor. Ancak, madalyonun bir de öteki yüzü var. Saldırganlar da YZ’yi saldırılarını daha da karmaşık hale getirmek için kullanacaklar. Dolayısıyla, gelecekte siber ortamda hem insan hem de YZ mücadelesi olacak.

TÜRKİYE YARIŞTA GERİ KALDI

Çetin: Türkiye siber güvenlik tehditleriyle karşı karşıya, YZ çözümlerinin daha iyi kullanılması için ne gibi adımlar atılmalı?

Sadıç: Türkiye yarışta geri kaldı, ancak hem özel sektör hem de kamudaki oyuncular siber silah yarışının hızına ayak uydurabilmek için cesur adımlar atıyor. Bence, YZ’nin daha etkili kullanılmasında ilk adım, YZ’nin gerçekte ne olduğunu anlamak ve buna göre davranmak.

Çetin: Yasal anlamda, Türkiye’deki düzenlemeler çerçevesinde, siber güvenlik alanındaki gelişmeler karşısında yapılanların yeterli olduğunu düşünüyor musunuz?

Sadıç: KVKK ve özellikle 12. madde ve bilhassa veri ihlali bildirimi fıkrası siber güvenlik için geç ama çok önemli bir adım. BDDK’nın yeni taslağı ve çeşitli endüstri düzenlemeleri ve rehberler de umut verici gelişmeler. Ben bir hukuk uzmanı değilim, ancak ilgili makamlar, çerçeveyi sürekli artan bir hızda geliştirmeye ve zenginleştirmeye devam ettiği sürece, mevcut çerçeve siber güvenlik alanındaki sürekli değişen gerçeklikle başa çıkma konusunda umut verici görünüyor.

Siber Bülten abone listesine kaydolmak için formu doldurunuz

Ya robotunuz kişisel verilerinize sadık kalmazsa?

Teknolojik inovasyon hayatımızı hızlı şekilde değiştirmeye başladı. Özellikle robotik teknolojide yaşanan gelişme yakın bir gelecekte sosyal hayatımızda da hissedilecek. Endüstriyel alanda yoğun şekilde kullanılan robotlar artık hizmet sektörüne de destek sunmaya başladı. Örneğin, humanoid robot üretiminde önemli bir şirket olan Pal Robotics geceleri ürünleri kontrol etmek amacıyla mağazaların içinde gezen Stockbot’u fuarlarda görücüye çıkardı.

Yine önemli teknoloji şirketlerinden Oppent’in otonom araçları, hastanelerde çamaşırları ya da atık malzemeleri taşıyor, 100 yıllık geçmişi olan Yaskawa şirketinin Motoman robotu laboratuvar örnekleri hazırlıyor, Bristol merkezli OC Robotics nükleer santraller ya da uçak kanatlarının içi gibi tehlikeli noktalarda denetim yapması için yılan kollu robotlar üretiyor.

Fonksiyonlarının genişlemesi ve hizmet robotlarının çalışma ortamları nedeniyle güvenlik gereksinimleri de değişiyor ve karmaşıklaşıyor. Örneğin evin içinde internete bağlanabilen bir robotun kullanılması evin iç mekanının görüntülenebilmesinin yolunu açıyor. Bunlar saat kaçta eve gelip gittiğinizden kimlerle görüştüğünüze kadar hayatınıza dair tüm bilgileri kaydedebiliyor. Bu sayede kullanıcıların kişisel verilerine erişmenin de yolu açılmış oluyor.

Ayrıca yine internet bağlantısı sayesinde robota erişebilen kötü niyetli kişilerin ev sahibinin diğer birçok kişisel bilgisine ulaşması da söz konusu olabiliyor. Bu açıdan, tüketicilere yönelik makinelerde veri güvenliğinin de ön planda olması gerekiyor. Toplanan verilerin kime ait olacağı, hangi biometrik verilerin veya hangi verilerin sensör tarafından toplandığı, ne kadar veri toplandığı, bu verilerin nasıl kullanılacağı konularında şu an tam bir açıklık bulunmamaktadır. (S. Peppet, Regulating the Internet of Things: First Steps Toward Managing Discrimination, Privacy, Security, and Consent, sf.95)

Robotlar açısından hukuksal anlamda bu konuya uygulanabilecek doğrudan bir düzenleme bulunmuyor. Avrupa Birliği’nin düzenlemelerine ve Türkiye’deki uygulamalara bakıldığında bunlar söz konusu problemlere çözüm için fikir verebilir. AB’nin 2002/58/EC Direktifi’ne göre , genel olarak kötü amaçlı yazılım saldırısı gibi belirli riskler söz konusu olduğunda, hizmet sağlayıcı tarafından kişiler bilgilendirilmeli ve bilgilerinin gizliliği sağlanmalıdır. (kısım 4, md.1) Burada kişilerin temel hak ve özgürlüklerini koruma adına hizmet sağlayıcının da yükümlülüklerinin belirlenmesi gerekir.

Türkiye’de KVKK açısından bir değerlendirme yapıldığında veri sorumlusunun veri güvenliğine ilişkin yükümlülükleri bulunmaktadır. Ancak söz konusu yapay zekaya sahip bir robot tarafından kaydedilen veriler olduğunda veri sorumlusu ve veri işleyenin belirlenmesi önemli sorun teşkil etmektedir. KVKK açısından veri sorumlusu, her hangi bir temsilci, sorumlu kişi anlamında değil, doğrudan ilgili gerçek kişi veya tüzel kişi olarak tanımlanmış durumdadır. Örneğin, bir anonim şirketin kendisi bu kanun anlamında tüzel kişi olarak veri sorumlusudur. Veri işleyen ise, veri sorumlusunun verdiği yetkiye dayanarak onun adına kişisel verileri işleyen gerçek veya tüzel kişidir. Her ne kadar kanunda gerçek kişi veya tüzel kişi olarak belirlenmişse de kendi başına karar alıp uygulayabilen yapay zekalı bir robotça işlenmiş kişisel veriler bakımından veri sorumlusu ve veriyi işleyen kavramlarının yeniden belirlenmesi gerekecektir.

Bu konuya dair düzenlenmiş kanunlar istisnalar getirse de kişisel veriler ilgili kişinin rızası olmaksızın işlenemez. Sosyal hayatta hizmet sektöründe kullanılan veya evimizde bulunan robotların kameralar ve internet bağlantısı yoluyla tam olarak hangi bilgilerimize eriştiğini fark edemeyebiliriz. Bu robotlarca toplanan kişisel verinin amacının dışında kullanılmaması gerekir. Yine AB’nin 2009/136/EC Direktifi’nde, kişisel veri ihlali durumunda hizmet sağlayıcının, kişilere gerekli önlemleri almaları için bildirimde bulunması, bu bildirimin ihlali gidermek için alınan önlemlerin yanı sıra ilgili kişiye tavsiyeler de içermesi gerektiği belirtilmektedir. ( md.61)

KVKK düzenlemesinde de veri sorumlusu, kişisel verilerin hukuka aykırı olarak işlenmesini ve bunlara erişilmesini önlemek, kişisel verilerin muhafazasını sağlamak amacıyla uygun güvenlik düzeyini temin etmeye yönelik gerekli her türlü teknik ve idari tedbirleri almak zorundadır. Yukarıda belirtilmiş olduğu gibi burada da kullanılan robotik teknoloji açısından yazılımcı ve üretici bakımından veri sorumlusu kavramının aydınlatılması gerekir.

Kişisel veriler ilgili kişinin açık rızası olmadan aktarılmamalıdır. Ancak özellikle bulut teknolojisinin robotlara uygulanmasıyla verilerin gizliliği ve güvenliği açısından daha büyük bir risk altına giriliyor. Robotların internet aracılığıyla aralarında veri transferi yapması kişisel verilerin aktarılması tehlikesini artırıyor. Bu noktada kişisel verilerin güvenliğinin sağlanması amacıyla örneğin, yetkisiz erişimi, kötücül kod dağıtımını önleme gibi tedbirler alınmalıdır. EU 2016/679 sayılı Tüzük’teki düzelemeye baktığımızda, veri güvenliği değerlendirilirken oluşabilecek maddi veya maddi olmayan zararlar nedeniyle kişisel veri işleme yoluyla oluşan risklere dikkat edilmesi vurgulanmaktadır. (md.49) KVKK’da da, kişisel verilerin üçüncü kişilere aktarılmasında ilgili kişinin açık rızası aranmaktadır. Ancak bir robotun hangi bilgileri kaydettiğini ve bu verileri hangi üçüncü kişilere, ne zaman aktardığını, sonrasında ise oluşabilecek zarardan sorumluluğu tespit şu an büyük bir belirsizlik yaratıyor.

Değinilmesi gereken başka bir nokta ise bireylerin kendilerine ait verilerin toplanmasına ve aktarılmasına önceden izin verip veremeyeceğidir. Robotta bulunan ve birtakım verileri kaydedeceğini bildiğimiz çipin aktif halde bulunmasını istemeyebiliriz. Burada karşımıza yeni bir hak çıkar “çipi etkisiz hale getirme hakkı”. Bu bir opt-out (vazgeçme/çekilme) usulüdür. Çip başlangıçta aktiftir, kullanıcı daha sonra çipi etkisiz hale getirebilmektedir. Bir başka usul ise opt-in(dahil olma)dir. Burada ise çip başta aktif değildir, kullanıcı aktif hale getirip getirmemeye karar verir.(Yrd. Doç. Dr. A. Ebru Bozkurt Yüksel, Nesnelerin İnternetinin Hukuki Yönden İncelenmesi, sf.123)

Kullanıcının bilgisi dahilinde olmadan, önceden yerleştirilmiş çiplerin veya eklentilerin kişilere ait özel nitelikli verileri, açık rıza olmaksızın işlemesi de bir yaptırımla düzenlenmelidir. Ayrıca kişiler, robot tarafından uygun olarak işlenmiş olan verilerin, unutulma hakkının bir karşılığı olarak, silinmesini isteme hakkına da sahip olmalıdır. İşlenmesini gerektiren veriler re’sen veya ilgili kişinin talebi üzerine anonim hale getirilebilir. Ancak evlerde kullanılan robotlar özel hayata dair en hassas bilgileri kaydedebildiğinden bu verilerin anonim hale getirilmesi de pek mümkün gözükmüyor.

Genel olarak, yapay zekalı robot teknolojisinin henüz gelişme aşamasında olduğunu söyleyebiliriz. Bu alanda bireylerin toplanan verilerinin nasıl kullanılacağı, gizliliğinin ve güvenliğinin nasıl sağlanacağı konusunda bir açıklık söz konu değil. KVKK ve ilgili yönetmeliğe bakıldığında, kişisel verilerin işlenmesinde uyulması gereken ilkeler, verilerin işlenme şartları, silinmesi, yok edilmesi ve anonim hale getirilmesi, aktarılması, kişilerin bilgilendirilmesi ve yükümlülükler gibi pek çok önemli nokta düzenlemiş olmakla birlikte kullanıcıların bilgilerinin gizliliği, genel veri korumasına dair AB ile uyumu sağlayan düzenlemelere ihtiyaç var. Şu aşamada robotik teknolojinin getirdiği sorunlara mevcut düzenlemelerin yorumlanması yoluyla çözüm üretilebilse de gelecekte yapay zekalı robotlara yönelik standartların belirlendiği özel düzenlemelerin yapılması gerekecektir.

Siber Bülten abone listesine kaydolmak için formu doldurunuz

“Otomobili tekerlekli bir bilgisayar ağı olarak kabul etmeliyiz”

Nevada Üniversitesi otonom araç geliştirme ekibinin başmühendisi Richard Kelley

Nevada Üniversitesi otonom araç geliştirme ekibinin başmühendisi Richard Kelley Siber Bülten yazarı Selin Çetin’e verdiği röportajda, internetin ilk ortaya çıktığında güvenlik endişesinin ön planda olmamasının bugünkü siber riskleri doğurduğuna işaret ederek, gelişmekte olan otonom araç teknolojisinde aynı hatanın tekrarlanmayacağını söyledi.

Intelligent Mobility Initiative’de, ulaşım sorunlarına yapay zekâ uygulanması üzerine çalışan bir araştırma projesinin de önde gelen araştırmacılarından biri olan Kelley, internete bağlı araba üreticilerinin de tüketicilerin de arabayı tekerleklere sahip bir bilgisayar ağı olarak görmesinin de önemine dikkat çekti.

Çetin: Genel bir soru ile başlayalım. Otonom araçların bizim için potansiyel faydaları neler olacak? Onlara neden ihtiyacımız var?

Kelley: Bence, otonom araçlar üzerine çalışan herkes -en azından bir kısmı-otonom araçlarla daha güvenli bir gelecek olacağı için bunu yapıyor. Bugün çoğu trafik kazası insan hatasından dolayı oluyor ve otonom araçlar, bu kazaların kaynağını ortadan kaldırma potansiyeline sahip. Ancak güvenlik konusunun ötesinde, otonom araçlar yapay zekâ bakımından ileriye yönelik önemli bir adımdır. Şu ana kadar, çoğu otonom robot, nispeten kısıtlı ortamlarda çok basit görevleri çözmek için konuşlandırılmıştır (bir evi temizleme gibi). Öyle görünmüyor olabilir, ama güvenilir temizlik robotları bakımından sahip olduğumuz noktaya ulaşmak aslında büyük bir teknik başarıdır çünkü laboratuvardan oturma odasına gitmek onlarca yıl aldı. Bir araba sürmenin bir ev temizlemeye göre ne kadar zor olduğunu kıyaslayın. Tamamen otonom arabalara, her türlü çılgınca şeyin olabileceği gerçek dünyada faaliyet gösterebilen otomobillere, ulaşmak için robotistlerin ve YZ uzmanlarının, YZ teknolojisinin sınırlarını zorlaması gerekiyor ve bu teknolojinin günlük hayatımıza yayılması toplum için pek çok fayda sağlayacak.

Çetin: Otonom araçlarla ilgili hacklenme, terörizm, gizlilik ve güvenlik ile ilgili riskler konusunda eleştiriler mevcut. Bu risklerle ilgili ne düşünüyorsunuz. Bunların üstesinden gelinebilir mi?

Kelley: Bunların hepsi kritik olarak önemli konulara işaret ediyor. İnternet ve World Wide Web’in üzücü taraflarından biri güvenliğe başından beri değil de sonradan odaklanmaya başlamasıdır. Aynı hatayı otonom ve bağlantılı araçlarla yapmaktan kaçınmamız için bir şansımız var. Güvenlik sorunlarını (hack ve terörizm gibi) ele almak için muhtemelen arabaların nasıl geliştirildiğini yeniden düşünmek gerekecek. Bu günlerde bir araba, düzinelerce mikro denetleyiciden ve ilk bilgisayar solucanı bile icat edilmeden birkaç yıl önce 1980’lerin ortasında tasarlanan bir ağ protokolü (CAN) ile bağlı bilgisayarlardan oluşuyor. Otomobilin tekerleklere sahip bir bilgisayar ağı olduğunu kabul etmeli ve bu gerçeğin farkında olan ve bunu ele alan yeni güvenlik sistemleri geliştirmeye çalışmalıyız.

Mahremiyet söz konusu olduğunda, toplumun ileri teknolojiden mahremiyete kadar modern tehditleri öğrenmesi ve buna dayalı olarak, öğrenmenin demokratik olarak nasıl ilerleyeceğine karar vermesi gerektiğini düşünüyorum. Bence bunu sosyal medya bağlamında görmeye başlıyoruz; umarım otonom arabalar daha yaygın olduğu zaman, insanlar mahremiyetlerine nasıl değer vermeleri gerektiği konusunda daha iyi fikir sahibi olurlar. Bu zorlukların tamamı çok önemli, ancak ileriye doğru iyi bir yol seçebilmemiz için umutlu olalım.

Çetin: Bu teknolojinin geliştirilmesinde hükümet ve özel sektör ne gibi rollere sahip olmalı? Hangisi daha faydalı olabilir?

Kelley: Hem hükümet hem de özel sektör bu konuda rol oynuyor ve gelecekte otonom araç geliştirilmesinde de önemli rolleri olacak. Bence hükümetin temel rolü, kamuoyunun güvenlik kaygılarını, şirketlerin sistemlerini kapsamlı bir şekilde test etme gereksinimi ile dengeleyen yararlı bir düzenleyici ortam yaratmak olacaktır. Aynı zamanda, muhtemelen şirketlerin üzerinde çalışabilecekleri spekülatif araştırma konuları da var ve muhtemelen bu tür konularla ilgili araştırmaları finanse etmek için hükümetin olanaklarından yararlanılabilir. Örnek olarak, çok az sayıda otonom araç şirketi ağa bağlı şehirler konusunda bu teknolojiyle ilgilenmektedir, çünkü sistemlerinin kamu altyapısına bağlı olmadan çalışmasını istiyorlar. Ancak, böyle bir altyapının devletin araştırmaları destekleyebileceği başka faydaları olabilir. Ekibim şu anda Reno şehri ve Nevada Eyaleti ile akıllı LIDAR ağlarının şehirleri nasıl daha güvenli ve daha duyarlı hale getirdiğini araştırmak için çalışıyor.

Özel sektörün öncelikli işi ise, temel teknik gelişmeleri ileriye doğru taşımak olacaktır. Sonuç olarak, her iki rolün de eşit derecede önemli olduğuna inanıyorum.

Çetin: Otonom araç yazılımları gelişirken, bunun hukuka ve etik kurallara olan yansıması ne olacak?

Kelley: Bence otonom araç şirketlerinin odaklanması gereken temel şey, sağlam bir şekilde hukuku takip eden sistemler inşa etmektir. Eğer bunu yapabilirlerse, bence, “belli” etik kaygıların büyük çoğunluğu ele alınmış olacak. ‘Trolley etiğine’ duyulan ilginin yararlı olduğunu düşünmüyorum. Neyse ki bu ilgi azalıyor gibi görünüyor.

Çetin: Sizce bu teknolojinin geliştirilmesinde hangi hukuk nosyonlarını öncelikli kabul etmeliyiz?

Kelley: Trafik yasaları ile ilgili zor şeylerden biri insanlar düşünülerek yazılmış olması. Yazılı trafik yasalarını sık sık kesin maddeler olarak düşünüyoruz, ancak bunları gerçekten dikkatlice okuyunca, yorumlanması geren çok yer var. Bu, bilgisayarların zorlandığı bir şey, bu yüzden otonom bir aracın eksiksiz özellikleri ile ilgili beklentilerimizi netleştirmemiz gerekecek. Örneğin, otonom araçlar okuyabilmeli mi? Bu kulağa komik gelebilir, ancak şaşırtıcı miktardaki trafik kontrolü, sadece ezberlenemeyen yazılı işaretler kullanılarak yapılır. Eğer biz otonom araçların okuyabilmesi gerektiğine karar verirsek, o zaman hangi okuduğunu anlama seviyesine ihtiyacımız olacak? Tipik bir sürücünün okuma seviyesinde mi okuyabilmeliler? Bu yüksek bir standart gibi görünüyor; ancak, yasayı anlamak söz konusu olduğunda otonom araçlara yönelik beklentilerimizin ne olduğuna karar vermemiz gerekiyor.

Aynı zamanda, hükümetler, otonom araçların ve diğer robotların yasal kısıtları yükleyip anlamasını kolaylaştıracak yasaları sunmanın standart bir yolunu oluşturmayı başlayabilirse, bu muhtemelen yararlı olacaktır. Kanunların tek tip olmaları gerekmiyor, ancak hem Nevada’nın (bulunduğum yer) hem de Kaliforniya’nın yasalarının standart olarak okunabilir bir formatı olsaydı, her iki eyalette de çalışabilecek robotlar yapmak çok daha kolay olurdu.

Temel olarak, robotlar için “sürücü testi”nin nasıl olacağına karar vermemiz gerektiğini düşünüyorum. Bu, hükümetlerin ve özel şirketlerin birlikte çalışabileceği başka bir alan.

Çetin: Otonom araç kazalarındaki sorumluluk popüler tartışmalardan biri. Siz sorumluluk konusunda ne düşünüyorsunuz? Örneğin, yazılımcının öngöremediği bir durum gerçekleştiğinde sorumluluk sorunu nasıl çözülmeli?

Kelley: Genel olarak, bence, otonom araçların mükemmelleştirilmesinden dolayı sorumluluk *daha az* ilgi çekecek alanlardan biri. ABD Ulusal Karayolu Trafik Güvenliği İdaresi (NHTSA), ABD’deki kazaların nedenlerini belirlemek için 2005’ten 2007’ye kadar kapsamlı bir analiz gerçekleştirdi. NHTSA, neredeyse tüm (yüzde 94) kazaların insan hatasıyla oluştuğunu tespit etti. Temel olarak, insanlar kaçınılmaz olarak kötü kararlar veriyorlar. Otonom araçlar bu tür bir kazayı önledikten sonra, kalan sorunların (son yüzde 6) belirlenmesi daha kolay olacaktır. Otonom araçlardaki gelişmiş sensörler ve YZ sayesinde, yolda bir lastiğin patlamasına neden olabilecek “aşınma ve yıpranma” gibi şeyler bile şimdi olduğundan daha erken tespit edilir.

Kazalar olsa bile, muhtemelen uçak kazalarında olduğu gibi ele alınacaktır. Her çarpışmayla ilgili her arabada olan “kara kutular”, söz konusu olay kapsamında alınacak, hükümet ve otonom araç üreticileri tarafından gelecekte benzer kazaların önlenmesini sağlayacak şekilde dikkatli bir şekilde analiz edilecektir.

Çetin: Otonom araçların 5 seviyeden oluştuğunu biliyoruz. Kamuya açık bir yolda 5. seviye bir araba ne gibi problemler yaratabilir? Bunların üstesinden nasıl gelebiliriz?

Kelley: Direksiyon olmadan istediğiniz yere gidebileceğiniz- gerçek bir “seviye 5 otonomi”ye sahip araçların birkaç yıl (belki de onlarca yıl) uzakta olduğunu söylemek istiyorum. Ama bu teknolojiye sahip olduğumuzda, sanırım sorular “bu tür bir aracı konuşlandırabilir miyiz?”den, “Bu otonomluk seviyesinden en iyi şekilde nasıl faydalanırız?”a doğru değişecek. Otonom sistemlerin rolü neredeyse her zaman bazı faaliyetlerin maliyetini azaltmaktır. Seviye 5 otonom araçların durumunda, fiziksel ulaşım maliyeti azalacaktır. Bu ekonomik teşvikleri değiştirecek ve hatta yoldaki araç sayısını bile artırabilir. Buradaki zorluk, otonomluğun daha fazla yoğunluğa veya daha uzun seyahat süresine yol açmadığından emin olmaktır. Diğer önemli konu ise istihdam. Örneğin, ABD’de kamyon sürücüsü olarak çok sayıda insan istihdam edilmektedir. Seviye 5 teknolojisinin gelişiminin tüm bu insanları işsiz bırakmayacağından emin olmalıyız. Bu sebeple, başka türden işler yapmak için sürücüleri yeniden eğitmemiz gerekebilir.

Çetin: Trafiğin yoğun olduğu ve bazı araçların da otonom olmadığı büyük şehirlerde otonom araçlara karşı manuel sürücülerin önyargıları nasıl aşılabilir?

Kelley: İnsanlarla etkin bir şekilde başa çıkmak, bana göre, otonom araçların son ve en büyük teknik zorluklarından biridir. Otonom arabaları “sosyal olarak zeki” yapmak için hala çok fazla araştırma yapılması gerekiyor. Aslında bu, araştırmamın çoğunun şu anda odaklandığı nokta ve bence cevap için oyun teorisine bakmamız gerekir. Geleneksel olarak, oyun teorisi sonlu sayıda sonuçlarla iyi tanımlanmış rekabetçi durumları analiz etmek için kullanılır. Fakat oyunun teorik analizini sürüş alanına genişletmenin yolları var ve şu anda öğrencilerimden birkaç tanesiyle birlikte çalışarak aramızda bu tür bir analiz yapabilmekteyiz. Şu anda otonom araçlar çok ölçülü davranıyorlar, çünkü çoğunlukla diğer sürücülerin niyetlerini modellemiyorlar, bu yüzden bu sürücülerin nasıl tepki vereceğini güvenilir bir şekilde tahmin edemiyorlar. Ekibim, insanların nasıl davranacağını tahmin etmede iyi olan “niyet tanıma” sistemleri oluşturuyor ve bu sistemleri, aracımızın karar verme yazılımına dahil ediyoruz, böylece saldırgan insan sürücüler tarafından zorbalığa uğrama olasılığı daha düşük oluyor.

Çetin: Fütüristik bir soru sormak istiyorum. Otonom araçların gelecekteki ilerlemesi nasıl olabilir? Otonom araçlar için 5. seviyenin üstünde bir yazılım öngörebiliyor musunuz?

Kelley: Seviye 5 otonomisi hala uzun bir yol olsa da bence bu otonom araçlar için gerçekten sadece bir başlangıç. Otonom araçların üstüne inşa edilmiş büyük bir ekonomi olacağını umuyorum, aynı şekilde karmaşık bir ekonomi Internet ve Web çevresinde büyümüştü. Örneğin, ulaşım ağları ekonomisi yeniden değerlendirilmeli. Arabalar bağımsız olarak hareket edebildiğinde, bu araçların kabin içi kullanıcı deneyimini dikkatlice tasarlama ihtiyacı doğacaktır. Arabalarımız bizi gezdirirken, eğlenecek yeni yollar bulacağız (umarım bugün Web’de sahip olduğumuzdan daha az reklamla). Daha geniş anlamda, seviye 5 otonomisi sağlayacak teknolojinin normal otomobillerden daha faydalı olacağını düşünüyorum. Seviye 5 otonom arabalara sahip olduğumuzda, aynı teknoloji muhtemelen daha küçük otonom dağıtım araçları da kullanacak.

Çetin: Son olarak, çoklu veya tüm otonom araçları çalıştırabilecek kolektif ve merkezi bir yazılım olabilir mi? Bunun sonuçları ne olurdu?

Kelley: Bu gerçekten ilginç bir soru! İnsansız hava araçları (dronelar) alanında, esas olarak NASA’nın UAS Trafik Yönetimi (UTM) projesi ile merkezi trafik yönetim sistemleri üzerinde çok fazla araştırma yapılmıştır. Nevada Eyaleti’nde UTM araştırmasına katılarak birkaç yıl çalıştım ve NASA’nın yaptığı işin, robotiklerin yaygınlaştığı her alanda merkezi robot kontrol ağlarının nasıl gelişeceğinin bir şablonu olduğunu düşünüyorum. Bireysel şirketlerin filolarını yönetmek için kendi merkezi sistemlerine sahip olmalarını umuyorum. Dahası, yerel yönetimlerin burada bir rolü olması söz konusu olabilir. Birçok aracın merkezileştirilmiş kontrolünün, merkezi olmayan yaklaşımlardan daha verimli olabileceğine dair bazı kanıtlar var, bu yüzden önümüzdeki yıllarda bu tür bir soruna yönelik pek çok pratik araştırma ve deney görmeyi umuyorum.

Siber Bülten abone listesine kaydolmak için formu doldurunuz

Veri skandalları 2018’e damgasını vurdu

2018 yılı teknolojik gelişmelerin birbirini izlediği, bunun yanında skandalların özellikle de veri skandallarının yaşandığı bir yıl oldu. 2018’in ilk aylarına dönecek olursak, Cambridge Analytica şirketinin milyonlarca Facebook kullanıcısının verilerini usulsüz kullandığının ortaya çıkması pek çok eleştiri almıştı. Facebook yöneticileri de sık sık ifade vermeye çağrılmıştı.

Mark Zuckerberg, Nisan ayında ABD Senatosu ve Mayıs ayında Avrupa Parlamentosu ile karşı karşıya kalmıştı. Yakın zamanda ise Washington DC Başsavcılığı, sosyal medya platformu Facebook’a kullanıcıların verilerini uygunsuz bir şekilde paylaştığı gerekçesiyle dava açtı. Başsavcı Karl Racine, yaptığı yazılı açıklamada Facebook’u kullanıcılarını kişisel verilerine kimlerin erişebildiği ve nasıl kullanıldığı konusunda da yanıltmakla suçladı. ( https://www.bbc.com/turkce/haberler-dunya-46628697) Normal bir yılda bu olaylar inanılmaz kabul edilecekken, yılın devamında yaşananlar bunları biraz gölgede bıraktı diyebiliriz.

Bu yıl en çok tartışılan ve gündemde kalan konularından biri Amerika’da gerçekleşen Uber kazası idi. Tempe kentinde meydana gelen kazada, Uber’in Volvo SC 90 model aracı sokakta karşıdan karşıya geçen birine çarpmış ve kişi hayatını kaybetmişti. Kaza anında aracın direksiyonunda bir sürü otursa da aracın “otomatik sürücü modunda” olduğu görülmekteydi. Dolayısıyla konuyla ilgili uzun zamandır tartışılan hukuksal tartışmalara yönelik ilk somut olay gerçekleşmiş oldu. Uber olay sonrası sürücüsüz araçlara yönelik olan test çalışmalarını durdurduğunu açıklamıştı. (https://www.bbc.com/turkce/haberler-dunya-43500904)

Gündemde olan diğer tartışmalar ise büyük çapta güvenlik ve mahremiyet üzerine idi. IBM’in NY polis departmanı ile gizlice çalıştığı ve New York sokaklarında binlerce insanın polis kamerasını kullanarak, ırk temelli yüz tanıma için “etnik köken tespiti” özelliği geliştirdikleri ortaya çıkmıştı. Bu durum, başta Amerika olmak üzerine devletlerin ve teknoloji şirketlerinin elde ettikleri verileri etik dışı kullandığı tartışmalarını artırmıştı. (https://theintercept.com/2018/09/06/nypd-surveillance-camera-skin-tone-search/)

 VERİ, 2018’E DAMGA VURDU

2018 yılının konusu ise kesinlikle “veri” idi. Özelikle yüksek riskli alanlarda kullanılan yapay zekâ sistemleri pek çok hak ihlaline sebep oldu. Mayıs ayında, İngiltere’de göç sahteciliğini tespit etme amacıyla tasarlanan bir ses tanıma sistemi binlerce vizeyi iptal etti ve bunun sonucunda birçok insan yanlışlıkla sınır dışı edildi. Temmuz ayında ise IBM Watson’ın “güvenli olmayan ve hatalı” kanser tedavisi önerileri ürettiği bildirildi.

Öte yandan Amazon’un kullandığı makine öğrenim sisteminin son zamanlarda kadınlara karşı ayrımcılık yaptığı, hatta sadece “kadın” kelimesini içeren özgeçmişleri aşağı sıralara çektiği ortaya çıktı. IBM, Facebook ve Microsoft gibi şirketler yapay zekâ sistemlerinde önyargı sorunlarının hafifletilmesine yardımcı olmayı vaat etmesine rağmen, yaşanan bu olaylar, bu sistemleri kullanan şirketlerin hesap verebilirliklerine yönelik eleştirilerin dalga dalga yayılmasına sebep oldu.  (https://medium.com/@AINowInstitute/ai-in-2018-a-year-in-review-8b161ead2b4e)

YAPAY ZEKÂ: BÜYÜK BİR SORU İŞARETİ

Birleşmiş Milletlerin yayımladığı raporda, yapay zekânın insanlığın en acil ihtiyaçları ile uyumlu olacağının garantisi bulunmadığı söylendi. Raporda ayrıca, YZ sistemlerinin “insan duygularını manipüle etmek ve yanlış bilgi yaymak ve hatta nefreti yaymak” ve “mevcut önyargıları ve dışlanma biçimlerini pekiştirme riskini üstlenmek” için daha fazla kullanıldığı belirtiliyordu. (https://www.un.org/development/desa/dpad/wp-content/uploads/sites/45/publication/WESS2018_full_web.pdf )

Üst üste yaşanan bu skandalları teknoloji şirketlerinin sektöre yönelik etik kodlar yayınlaması takip etti. Google YZ ilkeleri bunların en önemlisi olmuştu. (https://www.blog.google/technology/ai/ai-principles/) Bu ilkelerin dikkat çekenlerinden bazıları ise şöyle idi: Yapay zekâ;

  1. Toplumsal fayda sağlamalıdır.
  2. Ön yargıların doğmasına veya artmasına neden olmaktan kaçınmalıdır.
  3. Güvenli bir şekilde geliştirilmeli ve güvenliği test edilmelidir.
  4. İnsanlara hesap verebilir olmalıdır.
  5. Gizlilik ilkelerine uygun tasarımda olmalıdır.

 Verinin artan önemi karşısında bazı yasal düzenlemeler de 2018’in önemli gelişmeleri arasında yer aldı. Bunlardan en önemlisi şüphesiz 25 Mayıs’ta yürürlük kazanan, Avrupa Birliği ve Avrupa Ekonomik Bölgesi içindeki tüm bireyler için veri koruma ve mahremiyet ile ilgili düzenlemeler içeren AB Genel Veri Koruma Tüzüğü (GDPR) idi. Bunu takiben, Kaliforniya, ABD’deki en güçlü gizlilik yasasını yürürlüğe koydu.

TERMİNATÖRLERE HAYIR

Askeri alanda robotik teknolojilerin kullanımının yaygınlaşmaya başlaması karşısında artan tepkiler de 2018 gündeminde idi. Ağustos ayında BM nezdinde gerçekleşen ve 70’ten fazla ülkenin temsilcisinin katıldığı görüşmelerde biri kez daha bu teknolojinin askeri alanlardaki kullanımının kısıtlanmasının altı çizildi. Akabinde AB Parlamentosu da bu teknolojilerin askeri alanlardaki artan kullanımını desteklemediğine yönelik görüşlerini açıklamıştı. (http://www.europarl.europa.eu/news/en/press-room/20180906IPR12123/european-parliament-speaks-out-against-killer-robots)

AB 2018 yılı boyunca yapay zekâ konusunda pek çok çalışma gerçekleşti. En önemlisi Nisan ayında yayınlanan Yapay Zekâ Bildirisi olmuştu. (https://robotic.legal/ab-yapay-zeka-bildirgesi/) Bu bildiri çerçevesinde şu hususların altı çizildi:

  • Yapay zekâ kullanımında sorumluluğu temin etmek için, yapay zekâ ile ilgili etik ve yasal çerçeve konusunda görüş alışverişinin yapılması,
  • Avrupa düzeyinde yoğun bir Dijital İnovasyon Merkezi ağının kurulmasına katkıda bulunulması,
  • Şeffaflık ve hesap verebilirlik gibi prensiplerin yanı sıra kişisel verilerin gizliliği ve korunması da dahil olmak üzere, AB temel hak ve değerlerini temel alan yeterli yasal ve etik bir çerçeve sağlanması,
  • İşgücü piyasasının dönüşümü ve AB vatandaşlarının becerilerinin artırılması da dahil olmak üzere Avrupa’daki eğitim ve öğretim sistemlerinin modernize edilmesi gibi sosyo-ekonomik zorlukların ele alınması.

Bu bildiri sonrasında ise AB, Aralık ayında yapay zekâ ve etik konusunda yeni bir rehber yayınladı.( https://robotic.legal/guvenilir-yapay-zeka-icin-taslak-etik-esaslar/)  Bu rehberde “güvenilir yapay zekâ” için bir çerçeve oluşturmak amaçlanıyor. Bu rehbere göre güvenilir yapay zekanın iki bileşeni vardır: (1) Etik bir amaç sağlayacak şekilde temel haklara ve uygulanabilir düzenlemelere, muhtemel ilke ve düzenlemelere saygı göstermelidir. (2) Teknik olarak sağlam ve güvenilir olmalıdır, çünkü iyi niyetli olsa bile teknolojik hakimiyet eksikliği istenmeyen zararlara sebep olabilir.

DUPLEX: BÜYÜK TARTIŞMALARI TETİKLEDİ

Her ne kadar skandallar yılı olarak özetleyebilsek de teknolojik gelişmelerin yaşandığı bir yıl oldu 2018. Örneğin, Haziran ayında Google’ın geliştirdiği Duplex büyük ses getirdi. Sesli asistan özelliğine sahip olan Google Duplex, karşıdakinin gerçek bir kişiyle konuştuğunu hissedecek kadar doğal görüşmelere girilebilmekte, hatta “hmm” gibi düşünce ifadeleriyle konuşmaya gerçekçilik katabilmekte.(https://ai.googleblog.com/2018/05/duplex-ai-system-for-natural-conversation.html)

Öte yandan, Ford, Waymo, General Motors ve Tesla gibi şirketlerin araç teknolojisi ile ilgili çalışmaları da ses getirdi. SpaceX şirketinin ürettiği Falcon Heavy isimli roket, Elon Musk’ın Tesla spor arabasıyla beraber Florida eyaletindeki Kennedy Uzay Üssü’nden uzaya fırlatıldı. (https://www.bbc.com/turkce/haberler-dunya-42980048)

 TÜRKİYE’DE YAPAY ZEKÂ VE ROBOT POPÜLERLİK KAZANDI

Dünyada yaşananların paralelinde Türkiye’de de birtakım gelişmeler olduğunu söylemek mümkün. Yapay zekâ ve robot konuları 2018’de her kesim için popüler hale gelmeye başladı. Deep Learning Türkiye ekibinin Ekim ayında düzenlediği DeepCon konferansı şüphesiz en çok ses getiren etkinliklerden biri olmuştu.

Öte yandan Ocak ayında İstanbul Barosu’nda da yapay zekâ ve robotlar hukuksal boyutuyla tartışıldı. Yılın ilerleyen aylarında da sürücüsüz araçlar ve hukuk üzerine ikinci konferans düzenlendi ve bu konferansta da hem teknik hem de hukuksal tartışmalar üzerinde duruldu.

Bu yıl edebiyatta da robotların izlerini görmeye başladık. Sevgili Ayşe Acar’ın Türk edebiyatına kazandırdığı Bay Binet romanının devamı olan “Yeşil Adam” bu yıl okuyucusuyla buluştu. Yılın ilerleyen aylarında ise Prof. Cem Say’ın yapay zekâ konusunda oldukça sade bir dille yazılmış ve teknik alt yapısı olmayan kişilerin de kolayca okuyabildiği “50 Soruda Yapay Zekâ” kitabı yayınlandı.

Türkiye ve dünyada 2018, teknolojik gelişmelerin yaşandığı bir yıl olsa da büyük çapta veri konusunda yaşanan skandallarla geçen bir yıl oldu diyebiliriz. Bu da bize bireyleri koruyan yasal gelişmelerin teknolojinin hızına yetişmesi gerektiğini gösteriyor. 2019 yılının büyük teknolojik gelişmelere ve bunu takip eden akılcı yasal düzenlemelere sahip olması ümidiyle…

Ayın kitabı: “50 Soruda Yapay Zekâ”

Boğaziçi Üniversitesi Bilgisayar Mühendisliği Bölümü öğretim üyesi Prof. Cem Say’ın “50 Soruda Yapay Zekâ” adlı kitabı bu ay okurları ile buluştu. Pek çok farklı alandan insanın ilgi ile karşıladığı kitap, oldukça zengin bir içeriğe sahip.

Leibniz’in rüyasını gerçekleştirmek için cebir ve mantığı evlendiren Boole’den, kariyerini mantıkla matematiğin birleştirilmesi ülküsüne adayan Frege’ye kadar yapay zekaya uzanan serüvenin tarihsel akışını okurlara sunuyor.

Hoca’ya göre, sıradan bir insan, bilgisayarların her şeyi yapabilecekleri fikrine kapılmakta haklı sayılabilir. Çünkü bilgisayarlar, okul notlarımızdan, iş yerindeki maaşlarımıza, sigorta yaptırmaya niyetlenirsek kalan ömrümüze kadar her şeyimizi biliyorlar.

Kitapta ilginç bulduğum sorulardan biri “Beyin nasıl bir bilgisayardır?” sorusu. Hoca, sorunun içinde beyni bir bilgisayar olarak kabul ettiğini de ortaya koyarak kısaca şöyle açıklıyor: Beyin denilen organ bir ağ bellek işlevi görmekte ve duyu organlarınca uyarılan hücreler bu ağa girdi, kaslar gibi hareket vs. yollarla dış dünyada etki yaratabilecek olanlara sinyal taşıyanlar da çıktı olarak görülebilir. Yani beyin bir bilgi işlem makinesidir.

Kitapta bilgisayarların çeşitli kullanımlarına dair sorular sorarken, arada kendi anılarından da bahsederek okuyucuyu bağlayan bir dil kullanıyor. Hikâyeleştirilmiş anlatımı ile teknik sayılan bilgileri her kesimden okuyucunun anlayabileceği bir seviyeye indirmeyi başarıyor.

Keyifli bulduğum kısımlardan biri de herkesin tanımlamasını yaparken zorlandığı “yapay zekâ”nın hoca tarafından yıllarca önce yapılan tanımlamasına dair anlatım. Kendisi 20. yüzyılda yaptığı tanımlamayı eksik buluyor; çünkü o dönemlerde yapay zekâyı, birçok kombinasyondan doğru olanını bulmayı gerektiren bulmacaları hızlı çözebilmeyi bilgisayarlara yaptırmaktan ibaret olarak gördüklerini söylüyor. Dolayısıyla hocaya göre bu, yapay zekâ tanımlamasının sakat doğmasına sebep olmuştu. Yaptığı yeni tanımlama da mevcut. Meraklıları kitapta bunu bulabilir. 🙂

Bir hukukçu olarak, sabırsızlanıp ilk olarak okuduğum kısım ise “Bilgisayarlar avukatlık yapabilir mi?” sorusu idi. Kendisi bu sistemlerin dokümantasyon, içtihat arama ve karar tahmin etme gibi konularda avukatlardan daha başarılı olduğunu söylüyor ve bana göre bu konuda oldukça haklı. Avukatların saatlerini alan angarya pek çok iş bu sayede kolaylaşabilir.

Son soru ise bize sınırlarımızı hatırlatan cinsten: “İnsan zekâsının bir geleceği var mı?” Oldukça olumlu bir tablo çizerek bu “ek beyinlerin” geleceğimiz için faydalı olacağını söylerken, baskıcı yönetimlerce kötüye kullanımının ise insanlığı köreltebileceğinin vurgusunu yapıyor.

Kitapta yukarıdakilere ek olarak pek çok güncel ve sosyal alanlarla bağlantılı sorular da mevcut. “Robotlar aşık olabilir mi?” “Bilgisayarlar buluş yapabilir mi?” ya da “Robotlar askere alınsın mı?” gibi…

Okuması keyifli ve akıcı… Daha fazla ayrıntı vermek istemem ama kitabın son cümlesi çok umut verici: “Başarabiliriz.