Etiket arşivi: şeffaflık

SolarWinds CEO’su: İş başı yaptıktan birkaç gün sonra tarihi bir siber saldırıya uğradık

SolarWinds CEO'su: İş başı yaptıktan birkaç gün sonra tarihi bir siber saldırıya uğradık
                         SolarWinds CEO’su Sudhakar Ramakrishna

SolarWinds CEO’su Sudhakar Ramakrishna, ABD federal hükümetine bağlı birçok şirket, kurum ve bakanlıkta bir dizi büyük veri ihlaliyle sonuçlanan 2020 siber saldırısına ilişkin düşüncelerini kaleme aldı.

Fortune.com’a yazan Ramakrishn, 2020’de gerçekleştirilen saldırı için “tarihin en karmaşık siber saldırılarından biri” ifadesini kullandı. İşte Sudhakar Ramakrishna’nın yazısı: 

Aralık 2020’de bir akşam ailemle birlikte doğum günü yemeğimin tadını çıkarırken, cep telefonum çaldı. Telefonun diğer ucunda, birkaç hafta sonra CEO olarak aralarına katılacağım BT şirketi Solarwinds’in Genel Danışmanı bulunmaktaydı. Telefondaki kişi şirketin az önce bir siber saldırıya uğradığını belirtiyordu.

SolarWinds, bir gecede herkes tarafından bilinen bir şirket haline gelmişti.  Siber saldırının, ABD hükümeti tarafından Rusya’ya atfedilen ve SolarWinds dahil olmak üzere birçok teknoloji şirketini hedef alan son derece sofistike, iyi hazırlanmış bir siber saldırı olduğu anlaşıldı.

ABD’yi sarsan hacklemenin anatomisi: İşte SolarWinds saldırısının 8 maddelik özeti

O akşamdan bu yana edindiğim deneyim, müşteri güvenini yeniden inşa etmenin ve çalışanların motivasyonunu koruma pozisyonunda olan herhangi bir yönetici için bir dizi ders içermekteydi.

Olayın haberi ilk ulaştığında, birçok arkadaşım ve ailem bu pozisyonu üstlenip sayısız zorlukla başa çıkmak durumunda kalacağım düşüncesiyle kararımı sorguladı.

Nihayetinde, hatırlamam gereken tek şeyin çocuklarıma sayısız kez söylediğim şu sözler olduğunu düşündüm: “Bir kere söz verdikten sonra, takip etmek için elinizden gelenin en iyisini yaparsınız.”

CEO olarak, şirketin tonunu siz belirlersiniz ve çalışanlar istikrar noktasında sizin gözünüzün içine bakar. İlk günden itibaren mesajım, bu zorluğa karşı kafa kafaya mücadele edeceğimiz ve bundan daha güçlü çıkacağımızdı. 

SALDIRIYA  PANDEMİYE RAĞMEN BAŞARIYLA YANIT VERDİK

“Solarians” olarak adlandırdığımız yetenekli, becerikli ve özverili bireylerden oluşan bir ekibi miras aldığım için çok şanslıydım.” Çalışanlar hem yönetici değişikliği hem de siber saldırıya yanıt verme bakımından zorlu bir dönemle başarılı bir şekilde yüzleşmekle kalmadılar, aynı zamanda bütün bunları küresel bir salgın sırasında yaptılar.

Birçok “Solarian” günlerce tam mesai çalıştı. Önümüzdeki yolun kısa ya da kolay olmadığını biliyordum. Ekibimizi tükenmişlik sendromundan korumak için net beklentiler ve sınırlar belirlememiz gerekiyordu. Sürekli iletişim, ilerlemeye ilişkin güncel bilgiler ve cesaretlendirme bize yardımcı oldu.

Net ve acil hedefler koymak bizim için çok önemliydi. Öncelikle, olayın temeline inmeliydik. İkinci olarak, bu sorunu çözmeliydik ve üçüncü olarak, müşterilerimize destek vermeli ve kendilerine güvenli bir ortam sağlamalıydık. Bu üç cephede mümkün olan en kısa sürede çalışarak, sorunu tespit edebildik, bir çözüm belirlemek için sektör ortaklarıyla iş birliği yapabildik ve 48 saat içinde bir yazılım düzeltme eki geliştirip yayınlayabildik!

Acil konuların ele alınmasının ardından, yapmanız gereken sistemik iyileştirmelere konsantre olmak ve bunları kaynaklar, yatırımlar ve odaklanma ile uygun şekilde önceliklendirmek. “Tasarım Gereği Güvenli” ekibimizin odak noktası oldu.

MÜŞTERİLERE KARŞI ŞEFFAF OLUN  

Olay 100’den az müşteriyi etkiledi ve biz bunu aylar süren soruşturmamızın ilerleyen zamanlarına kadar bilmiyorduk. En başından beri bildiğimiz her şeyi, en kısa sürede tüm müşterilerimizle paylaştık. Bu, haklı olarak her zaman şeffaf bir şekilde cevapladığımız birçok sorusu olan müşterilerle yapılan birçok toplantı anlamına geliyordu.

Dürüst ve açık iletişime öncelik vermek onların güvenini yeniden kazanmamıza yardımcı oldu ve müşterilerin büyük çoğunluğunun bizimle çalışmaya devam ettiğini paylaşabilmekten mutluluk duyuyorum. Birçoğu şimdilerde kendi sistemlerini güçlendirmelerine yardımcı olmamız için bize geliyor.

Aralık 2020’de o akşam telefona cevap verdiğimde beni ve yeni ekibimi neyin beklediğine dair hiçbir fikrim yoktu. Takip etmemiz gereken bir plan veya yol haritası olmasa da şeffaflık, aciliyet, alçakgönüllülük ve öğrenmeye istekli olmaya ilişkin temel ilkelere odaklanmak suretiyle, tüm liderlik ekibimiz yalnızca müşteri güvenini özenle yeniden inşa etmekle kalmayıp aynı zamanda çalışanları motive edebildi.   

NATO yapay zeka alanında ilk stratejisini yayımladı

NATO, yapay zekanın sorumlu bir şekilde kullanımını teşvik eden ilk stratejisini yayımladı.

NATO savunma bakanları yapay zeka teknolojisinin geliştirilmesini ve sorumlu bir şekilde kullanılmasını destekleyen ilk strateji planını paylaştı.

Stratejinin ana ilkeleri şu başlıklar altında sıralandı:

A. Yasallık: Yapay zeka uygulamaları, uluslararası hukuka uygun olarak geliştirilecek ve kullanılacak.

B. Sorumluluk ve Hesap Verebilirlik: Yapay zeka uygulamaları, yeterli düzeyde muhakeme ve özenle geliştirilecek ve kullanılacak. Hesap verebilirliği sağlamak için net insan sorumluluğu geçerli olacak.

C. Açıklanabilirlik ve İzlenebilirlik: Yapay zeka uygulamaları, inceleme metodolojileri, kaynakları ve prosedürleri de dahil olmak üzere uygun şekilde anlaşılabilir ve şeffaf olacak. Bu, bir NATO ve/veya ulusal düzeyde doğrulama, değerlendirme ve onaylama mekanizmalarını kapsar.

Türkiye’nin Ulusal Yapay Zeka Stratejisi tanıtıldı: Kapsayıcı bir yasal uyum süreci işletilmeli

D. Güvenilirlik: Yapay zeka uygulamaları açık ve iyi tanımlanmış kullanım durumları olacak. Uygulamaların emniyeti, güvenliği ve sağlamlığı, yerleşik NATO ve ulusal sertifikasyon süreçleri de dahil olmak üzere tüm yaşam döngüleri boyunca bu kullanım durumlarında test ve güvenceye tabi olacak.

E. Yönetilebilirlik: Yapay zeka uygulamaları, amaçlanan işlevlerine göre geliştirilecek ve şu yöntemlerle kullanılacak: Doğru insan-makine etkileşimi; istenmeyen sonuçları tespit etme ve önleme yeteneği ve bu tür sistemler istenmeyen davranışlar gösterdiğinde sistemlerin devre dışı bırakılması.

F. Önyargıyı Azaltma: Yapay zeka uygulamalarının ve veri setlerinin geliştirilmesinde ve kullanılmasında herhangi bir istenmeyen önyargıyı en aza indirmek için etkin adımlar atılacak.

Facebook, dezenformasyon araştırmacılarını yanlış yönlendirmiş

Üç yıldan uzun bir süre önce, Facebook CEO’su Mark Zuckerberg, insanların sosyal ağda paylaşılan gönderiler ve haberlerle nasıl etkileşimde bulunduklarına ilişkin verileri araştırmacılarla paylaşma planını duyurmuştu.

Söz konusu veri paylaşımı ile araştırmacıların sitedeki dezenformasyon içeren bilgileri inceleyebilmesi amaçlanıyordu. Araştırmacılar, bu verileri son iki yıldır yanlış ve hatalı bilgilerin yayılmasını inceleyen çok sayıda araştırmada kullanmışlardı.

Ancak, dahili e-postalara ve araştırmacılarla yapılan görüşmelere göre, Facebook tarafından paylaşılan bilgilerin hatalı olduğu anlaşıldı. Şirketin yaptığı açıklamaya göre, paylaşılan veri, politik sayfalarla ilgilenen ABD’li Facebook kullanıcılarının tamamını değil sadece yarısına ilişkin bilgi içermekteydi. 

FACEBOOK’A GÜVENMEMEMİZ GEREKTİĞİNİ ARTIK BİLİYORUZ

New Jersey Teknoloji Enstitüsü’nde yardımcı doçent ve sosyal medya araştırmacısı olan Cody Buntain, “Bu durum, araştırmacıların Facebook’a olan güvenini zayıflatıyor.” dedi. Buntain aynı zamanda Facebook’un bilgi paylaşımında bulunduğu ve “Social Science One” olarak bilinen bir grup araştırmacıdan biri. 

Buntain, “Esasında Social Science One olarak Facebook’un nitelikli veriler paylaştığına güvenip güvenmememiz gerektiği konusunda endişemiz vardı. Artık Facebook’a çok da güvenmememiz gerektiğini ve verilerin geçerli olup olmadığını gösterme noktasında daha fazla çaba talep etmemiz gerektiğini biliyoruz.”

FACEBOOK ÖZÜR DİLEDİ

Öte yandan Facebook, bir e-postayla araştırmacılardan özür diledi. E-postada “Bunun neden olabileceği rahatsızlıktan dolayı tüm samimiyetimizle özür diler mümkün olduğunca fazla destek sunmak isteriz.” ifadeleri yer aldı. Facebook, sorunu çözmek için verileri güncellediğini, ancak büyük miktarda veri göz önüne alındığında, işin tamamlanmasının haftalar alacağını da sözlerine ekledi.

Facebook’un Açık Araştırma ve Şeffaflık Ekibinin iki üyesinin de dahil olduğu şirket temsilcileri araştırmacılarla bir çağrı yaptı ve hata için özür diledi.

Kimliklerinin açıklamamak kaydıyla konuşan Facebook temsilcileri, araştırma kayıtlarının yalnızca yüzde 30’unun ABD verilerine dayandığını söyledi. Ancak temsilciler, veri kümesinin diğer kısımlarının etkilenip etkilenmediğini hala bilmediklerini söyledi.

Savcılardan Facebook ve Twitter’a aşı uyarısı: Dezenformasyona karşı daha çok çaba göstermelisiniz

Kendilerine hatalı bilgi gönderilen çok sayıda araştırmacı, bu hata nedeniyle aylarca çalışmalarının boşuna gittiğini söyledi. Bir araştırmacı, doktora derecelerinin hata nedeniyle risk altında olduğunu söylerken, bir diğeri Facebook’un ihmalkar olduğu veya daha da kötüsü araştırmayı bilinçli olarak baltaladığı endişesini dile getirdi.

ARAŞTIRMA PROJELERİ ÇÖP OLDU

Araştırmacılardan biri olan Megan Squire, Facebook’un özür dilemesinin ardından yaptığı röportajda, “İnsan gücü olarak değerlendirdiğimizde, düşünün ki bugün bu çağrıyı alana 47 kişiyiz ve bu projelerin her biri risk altında, bazıları ise tamamen zarara uğradı.” dedi.

Facebook sözcüsü Mavis Jones ise sorunun teknik bir hatadan kaynaklandığını söyleyerek ekledi: “Etkilenen ortaklarımıza durumu proaktif olarak anlattık ve sorunu çözmek için hızla çalışıyoruz.”

VERİ KAZASI İLK DEĞİL

Veri setindeki hata ilk olarak İtalya’daki Urbino Üniversitesi’nde doçent olan sosyal medya araştırmacısı Fabio Giglietto tarafından tespit edildi. Giglietto, Facebook’un geçen ay halka açık bir şekilde yayınladığı verileri, şirketin yalnızca araştırmacılara sağladığı verilerle karşılaştırdıktan sonra yanlışlığı keşfettiğini söyledi. Giglietto iki farklı sonuç buldu.

Giglietto, hatayı keşfetmesine yol açan olaylar zincirinin “Küçük bir şeffaflığın bile şaşırtıcı sonuçlar sağlayabileceğinin harika bir göstergesi” olduğunu söyledi.

Bu, son haftalarda araştırmacıların ve gazetecilerin Facebook’un platformda daha fazla şeffaflık sağladığı veri kümelerinde tutarsızlıklar bulduğu ikinci vaka oldu. Ağustos ayı sonlarında Politico, 6 Ocak’taki kuşatmasından önceki ve sonraki günlerde on binlerce Facebook gönderisi gazeteciler ve araştırmacılar tarafından kullanılan sosyal ağın sahip olduğu bir analiz aracı olan Crowdtangle’dan kaybolmuştu.

Kişisel verilerde şeffaflığa uymayan WhatsApp’a 225 milyon avro ceza

İrlanda Veri Koruma Komisyonu (DPC), WhatsApp’a kişisel verilerdeki şeffaflık sorunu nedeniyle 225 milyon avro ceza verdi.

DPC’den yapılan yazılı açıklamada, kurumun Facebook bünyesinde bulunan WhatsApp’ın kişisel verileri kullanımına yönelik şeffaflık incelemesinin başlatıldığı belirtildi.

Açıklamada incelemenin Avrupa Birliği (AB) Genel Veri Koruma Tüzüğüne (GDPR) dayandığı vurgulandıç

AB’de Facebook için veri gizliliğinde baş denetim otoritesi olarak hareket eden DPC’nin açıklamasında, WhatsApp’a ilişkin sorunların, mesajlaşma uygulamasının 2018’de şeffaflık konusundaki AB veri kurallarına uyup uymadığına ilişkin olduğu belirtildi.

DPC’nin WhatsApp soruşturmasında öncü kararını, onayı gereken diğer Avrupa veri düzenleyicilerine Aralık 2020’de sunduğu belirtilen açıklamada, ancak sekiz düzenleyicinin karara itiraz ettiği ifade edildi.

AVRUPA VERİ KORUMA KURULU’NUN BAĞLAYICI KARARDA ETKİLİ OLDU

Avrupa Veri Koruma Kurulunun temmuzda veri ihlal cezalarının artırılması konusunda bağlayıcı bir karar aldığı hatırlatılan açıklamada, “Bu kararla DPC’den bir dizi faktör temelinde WhatsApp için önerilen cezayı yeniden değerlendirmesi ve artırması istendi.” denildi.

Alman Veri Koruma Otoritesinden Facebook’a WhatsApp yasağı

Açıklamada, “Bu yeniden değerlendirmenin ardından DPC, WhatsApp’a 225 milyon avro para cezası verdi.” ifadesine yer verildi.

DPC, WhatsApp’tan bir dizi belirli düzenleyici eylemde bulunarak faaliyetlerini AB veri kurallarıyla uygun hale getirmesini de istedi.

Facebook’un Avrupa Bölgesi merkezi İrlanda’da bulunurken, DPC, 2020 sonu itibarıyla Facebook ve bünyesinde bulunan WhatsApp ve Instagram hakkında 14 soruşturma başlattı.

Avrupa Birliği’nden kritik uyarı: Yapay zeka demokratik süreçleri etkileyebilir

Ekim 2020, Avrupa’nın yapay zekâ ve hukuk konusunda önemli adımlar attığı bir ay oldu. Bu adımlar hem Avrupa Birliği (AB) hem de Avrupa Konseyi tarafında görüldü. Avrupa Parlamentosu (AP), yapay zekâ tarafından etik, hukuki sorumluluk ve fikri mülkiyet alanlarında ortaya çıkan uzun vadeli fırsatları ve yasal zorlukları ele alan önerileri onayladı. Bu çerçevede Hukuk İşleri Komitesi, AB’nin yapay zekâyı en iyi şekilde düzenlerken yeniliğin, etik standartların ve teknolojiye olan güvenin nasıl artırılabileceğine ışık tutuyor.

Raporlardan biri, güvenlik, şeffaflık ve hesap verebilirliğin sağlanması, önyargı ve ayrımcılığın önlenmesi, sosyal ve çevresel sorumluluğun geliştirilmesi ve temel haklara saygı konularına odaklanıyor. Buna göre, AB Komisyonu yazılım, algoritmalar ve veriler dahil olmak üzere birlikte yapay zekâ, robotik ve ilgili teknolojileri geliştirirken, uygularken ve kullanırken uyulması gereken etik ilkeleri ve yasal yükümlülükleri özetleyen yeni bir yasal çerçeve oluşturmalı. Aynı zamanda ilerleyen dönemde oluşturulacak düzenlemeler, aşağıdakiler de dahil olmak üzere çeşitli yol gösterici ilkelere göre yapılmalı:

  • insan merkezli ve insan yapımı bir yapay zeka,
  • güvenlik, şeffaflık ve hesap verebilirlik,
  • önyargı ve ayrımcılığa karşı koruma sağlama,
  • tazminat hakkı,
  • sosyal ve çevresel sorumluluk; ve gizlilik ve veri korumasına saygı.

Bir diğer rapor ise sorumluluğa ilişkin. Buna göre, yüksek riskli yapay zekâ sistemleri işletenleri ortaya çıkan herhangi bir zarardan kesin bir şekilde sorumlu kılan, geleceğe yönelik bir hukuki sorumluluk çerçevesi oluşturulmalı. Oluşturulacak net bir yasal çerçeve, işletmelere hukuki belirlilik sağlayarak yeniliği teşvik etmek, vatandaşları korurken ve tehlikeli olabilecek faaliyetlerden caydırarak yapay zekâ teknolojilerine olan güvenlerini artıracak. Kurallar sağlığa, fiziksel bütünlüğe, eşyaya zarar veren faaliyetler ile maddi kayıplara neden olan faaliyetler bakımından hem fiziksel hem de sanal ortamda kullanılan yapay zekâ için geçerli olmalı.

“FİKRİ MÜLKİYET HAKKI YALNIZCA İNSANDA OLMALI”

Kabul edilen diğer rapor ise yapay zekâ konusunda etkili bir fikri mülkiyet hakları sistemi (IPR) ve yenilikçi geliştiricileri korumak amacıyla AB’nin patent sistemi için koruyucu önlemlerin alınması gerektiği, bu yapılırken insan yaratıcılarının çıkarları veya birliğin etik ilkelerine aykırı olmaması gerektiği vurgulanıyor. AP üyeleri yapay zekâ destekli insan eserleri ile yapay zekâ yaratımlarını ayırt etmenin önemli olduğuna inanıyor ve yapay zekanın hukuki kişiliğe sahip olmaması gerektiğini belirtiyor. Bu bakımdan, fikri mülkiyet hakkı yalnızca insanda olmalı. https://www.europarl.europa.eu/news/en/press-room/20201016IPR89544/parliament-leads-the-way-on-first-set-of-eu-rules-for-artificial-intelligence

Söz konusu gelişmeler ışığında, Avrupa Birliği Komisyonu’nun düzenleme önerisinin önümüzdeki yılın başlarında yapılması bekleniyor.

“YAPAY ZEKA DEMOKRATİK SÜREÇLERİ ETKİLEYEBİLİR”

Avrupa Konseyi tarafında da yapay zekâ ve hukuk odaklı gelişmeler yaşandı. Avrupa Konseyi Parlamenter Meclisi (AKPM) toplantısında aralarında Türkiye’den raporların da olduğu çeşitli raporlar sunuldu. https://pace.coe.int/en/pages/session-20201012 Bunlar;

  • Yapay zekânın demokratik yönetişim ihtiyacı
  • Algoritmik adalet
  • Yapay zekâ kullanımından kaynaklı ayrımcılığın önlenmesi
  • Beyin-bilgisayar ara yüzü: İnsan hakları konusunda yeni tehditler mi yeni haklar mı?
  • Sağlık hizmetlerinde yapay zekâ: tıbbi, hukuki ve etik zorluklar
  • İşgücü piyasası: Dost mu düşman mı?
  • Otonom araçlara hukuki yaklaşım

Raporlardan bazılarını özetleyecek olursak;

“Yapay zekânın demokratik yönetişim ihtiyacı” raporu, yapay zekânın demokrasi üzerindeki etkisine odaklanıyor. Yapay zekâ tabanlı teknoloji kullanımının demokratik kurumların ve süreçlerin işleyişini ve vatandaşların sosyopolitik davranışlarını etkileyebileceği ve etkilediği çeşitli yollara genel bir bakış sunuyor. Yapay zekâ kullanımının ve bunun Devletler ve Devlet kurumları ile büyük özel şirketler tarafından suiistimal edilme potansiyeli olduğu, bunun hak temelli demokrasilerimizin kurumları, süreçleri ve normları için gerçek bir tehdit oluşturduğu sonucuna varıyor. https://pace.coe.int/en/files/28723

 

Avrupa’da yapay zeka yarışı kızıştı: 5 ülkenin strateji karşılaştırması

 

“KİŞİSEL SAĞLIK VERİLERİNİN GÜVENLİĞİ DAHA FAZLA TARTIŞILMALI”

“Sağlık hizmetlerinde yapay zekâ: tıbbi, hukuki ve etik zorluklar” raporu, yapay zekânın temel etik ilkeleri etrafında geniş bir küresel fikir birliğine atıfta bulunuyor ve ilgili uluslararası kuruluşların, paydaşların ortak bakış açılarına dayalı olarak sağlık hizmetlerinde yapay zekâya ilişkin etik kılavuz geliştirmeye yönelik çalışmalar destekleniyor. Yapay zekâ hem bireylerin sağlığını hem de halk sağlığını iyileştirme konusunda büyük bir potansiyele sahip, ancak aynı zamanda bireysel hakları ve halk sağlığını yeni risklerle de karşı karşıya getirebiliyor. Yapay zekâ uygulamaları, onları düzenleyen yasal çerçeveden çok daha hızlı gelişim gösteriyor. Hassas kişisel sağlık verilerinin mahremiyeti ve siber güvenliği, bilgilendirmeye dayalı rıza ve paydaşların sorumluluğu için hukuki düzenlemelere ilişkin gereklilikler konusunda daha fazla tartışmaya ihtiyaç var. https://pace.coe.int/en/files/28737/html

“Otonom araçlara hukuki yaklaşım” raporu ise kısaca şunlara vurgu yapıyor: Yarı otonom araçların yollardaki sirkülasyonunun önümüzdeki yıllarda önemli ölçüde artması muhtemel ve bazı çevreler önümüzdeki on yıl içinde tamamen otonom olan araçların kullanıma sunulabileceğini düşünüyor. Bu gelişmeler, cezai ve hukuki sorumluluk, üreticilerin ve sigorta şirketlerinin yükümlülükleri ile karayolu taşımacılığının gelecekteki hukuki düzenlemelerine ilişkin sorular ortaya çıkarıyor. Bunlar aynı zamanda önemli etik ve mahremiyet endişeleri de doğuruyor. Beklenti, otonom araçların, insanlar tarafından kullanılanlara göre önemli ölçüde daha güvenli olacağı yönünde. Bu potansiyeli gerçekleştirmek için uygun düzenlemelere ihtiyaç duyulacak. Başlangıç noktası olarak, bu düzenleme yaşam hakkına tam saygıyı sağlamalı. https://pace.coe.int/en/files/28721/html

Avrupa tarafından yaşanan bu gelişmeler yakın zamanda yapay zeka konusunda bazı hukuki standartların belirleneceğine işaret ediyor.