Etiket arşivi: artificial intelligence

Japonya, doğum oranını yapay zekayla yükseltmek istiyor

Japonya’da doğum oranını yükseltmek için harekete geçen hükümet, sorunun çözümünü yapay zekada buldu. Tokyo yönetimi, yapay zekanın kullanıldığı eş bulma programları uygulayan belediyelere kaynak aktarma kararı aldı.

Yapay zeka tabanlı programları halen uygulamakta olan ya da uygulamaya başlamak isteyen yerel yönetimlere 2 milyar yen (yaklaşık 19 milyon dolar) fon verilecek.

Japonya’da çiftleri bebek sahibi olmaya teşvik için cömert programlar uygulanmasına karşın geçen yıl doğum oranları rekor seviyede düşmüştü. Yapay zeka kullanılan eş bulma programlarında gelir ve yaş gibi kriterlere bakılıyordu. Yerel medya, yapay zekanın kullanılacağı programlarda hobi ve değerler gibi başka kriterlerin de göz önüne alınacağını söylüyor.

Bir hükümet yetkilisi uluslararası basına yaptığı açıklamada, “Bu mali desteğin ülkenin düşen doğum oranlarını tersine çevirmesini umuyoruz.” ifadelerini kullandı.

İsrailli şirket yarışma açtı, 16 ülkeden 3500 hacker saldırdı

NÜFUS YÜZYILIN SONUNDA YARIYA DÜŞEBİLİR 

Japonya’nın 2017’de 128 milyon olan nüfusunun bu yüzyılın sonunda 53 milyonun altına ineceği tahmin ediliyor. Japonya Sağlık, Çalışma ve Sosyal Güvenlik Bakanlığı’nın verilerine göre ülkede 2019’da 864 bin bebek dünyaya geldi. Bunun, kayıtların tutulmaya başlandığı 1889’dan beri görülen en düşük seviye olduğu belirtiliyor.

Geçen yıl bir önceki yıla göre 54 bin daha az bebek doğdu. Ülkede dört yıldır her sene bir milyondan az bebek doğuyor. Ölüm oranı da savaş sonrası dönemde rekor kırdı. Geçen yıl 1 milyon 376 bin kişinin öldüğü belirtiliyor.

Kaynak: BBC Türkçe

Siber Bülten abone listesine kaydolmak için formu doldurunuz

Avrupa Birliği’nden kritik uyarı: Yapay zeka demokratik süreçleri etkileyebilir

Ekim 2020, Avrupa’nın yapay zekâ ve hukuk konusunda önemli adımlar attığı bir ay oldu. Bu adımlar hem Avrupa Birliği (AB) hem de Avrupa Konseyi tarafında görüldü. Avrupa Parlamentosu (AP), yapay zekâ tarafından etik, hukuki sorumluluk ve fikri mülkiyet alanlarında ortaya çıkan uzun vadeli fırsatları ve yasal zorlukları ele alan önerileri onayladı. Bu çerçevede Hukuk İşleri Komitesi, AB’nin yapay zekâyı en iyi şekilde düzenlerken yeniliğin, etik standartların ve teknolojiye olan güvenin nasıl artırılabileceğine ışık tutuyor.

Raporlardan biri, güvenlik, şeffaflık ve hesap verebilirliğin sağlanması, önyargı ve ayrımcılığın önlenmesi, sosyal ve çevresel sorumluluğun geliştirilmesi ve temel haklara saygı konularına odaklanıyor. Buna göre, AB Komisyonu yazılım, algoritmalar ve veriler dahil olmak üzere birlikte yapay zekâ, robotik ve ilgili teknolojileri geliştirirken, uygularken ve kullanırken uyulması gereken etik ilkeleri ve yasal yükümlülükleri özetleyen yeni bir yasal çerçeve oluşturmalı. Aynı zamanda ilerleyen dönemde oluşturulacak düzenlemeler, aşağıdakiler de dahil olmak üzere çeşitli yol gösterici ilkelere göre yapılmalı:

  • insan merkezli ve insan yapımı bir yapay zeka,
  • güvenlik, şeffaflık ve hesap verebilirlik,
  • önyargı ve ayrımcılığa karşı koruma sağlama,
  • tazminat hakkı,
  • sosyal ve çevresel sorumluluk; ve gizlilik ve veri korumasına saygı.

Bir diğer rapor ise sorumluluğa ilişkin. Buna göre, yüksek riskli yapay zekâ sistemleri işletenleri ortaya çıkan herhangi bir zarardan kesin bir şekilde sorumlu kılan, geleceğe yönelik bir hukuki sorumluluk çerçevesi oluşturulmalı. Oluşturulacak net bir yasal çerçeve, işletmelere hukuki belirlilik sağlayarak yeniliği teşvik etmek, vatandaşları korurken ve tehlikeli olabilecek faaliyetlerden caydırarak yapay zekâ teknolojilerine olan güvenlerini artıracak. Kurallar sağlığa, fiziksel bütünlüğe, eşyaya zarar veren faaliyetler ile maddi kayıplara neden olan faaliyetler bakımından hem fiziksel hem de sanal ortamda kullanılan yapay zekâ için geçerli olmalı.

“FİKRİ MÜLKİYET HAKKI YALNIZCA İNSANDA OLMALI”

Kabul edilen diğer rapor ise yapay zekâ konusunda etkili bir fikri mülkiyet hakları sistemi (IPR) ve yenilikçi geliştiricileri korumak amacıyla AB’nin patent sistemi için koruyucu önlemlerin alınması gerektiği, bu yapılırken insan yaratıcılarının çıkarları veya birliğin etik ilkelerine aykırı olmaması gerektiği vurgulanıyor. AP üyeleri yapay zekâ destekli insan eserleri ile yapay zekâ yaratımlarını ayırt etmenin önemli olduğuna inanıyor ve yapay zekanın hukuki kişiliğe sahip olmaması gerektiğini belirtiyor. Bu bakımdan, fikri mülkiyet hakkı yalnızca insanda olmalı. https://www.europarl.europa.eu/news/en/press-room/20201016IPR89544/parliament-leads-the-way-on-first-set-of-eu-rules-for-artificial-intelligence

Söz konusu gelişmeler ışığında, Avrupa Birliği Komisyonu’nun düzenleme önerisinin önümüzdeki yılın başlarında yapılması bekleniyor.

“YAPAY ZEKA DEMOKRATİK SÜREÇLERİ ETKİLEYEBİLİR”

Avrupa Konseyi tarafında da yapay zekâ ve hukuk odaklı gelişmeler yaşandı. Avrupa Konseyi Parlamenter Meclisi (AKPM) toplantısında aralarında Türkiye’den raporların da olduğu çeşitli raporlar sunuldu. https://pace.coe.int/en/pages/session-20201012 Bunlar;

  • Yapay zekânın demokratik yönetişim ihtiyacı
  • Algoritmik adalet
  • Yapay zekâ kullanımından kaynaklı ayrımcılığın önlenmesi
  • Beyin-bilgisayar ara yüzü: İnsan hakları konusunda yeni tehditler mi yeni haklar mı?
  • Sağlık hizmetlerinde yapay zekâ: tıbbi, hukuki ve etik zorluklar
  • İşgücü piyasası: Dost mu düşman mı?
  • Otonom araçlara hukuki yaklaşım

Raporlardan bazılarını özetleyecek olursak;

“Yapay zekânın demokratik yönetişim ihtiyacı” raporu, yapay zekânın demokrasi üzerindeki etkisine odaklanıyor. Yapay zekâ tabanlı teknoloji kullanımının demokratik kurumların ve süreçlerin işleyişini ve vatandaşların sosyopolitik davranışlarını etkileyebileceği ve etkilediği çeşitli yollara genel bir bakış sunuyor. Yapay zekâ kullanımının ve bunun Devletler ve Devlet kurumları ile büyük özel şirketler tarafından suiistimal edilme potansiyeli olduğu, bunun hak temelli demokrasilerimizin kurumları, süreçleri ve normları için gerçek bir tehdit oluşturduğu sonucuna varıyor. https://pace.coe.int/en/files/28723

 

Avrupa’da yapay zeka yarışı kızıştı: 5 ülkenin strateji karşılaştırması

 

“KİŞİSEL SAĞLIK VERİLERİNİN GÜVENLİĞİ DAHA FAZLA TARTIŞILMALI”

“Sağlık hizmetlerinde yapay zekâ: tıbbi, hukuki ve etik zorluklar” raporu, yapay zekânın temel etik ilkeleri etrafında geniş bir küresel fikir birliğine atıfta bulunuyor ve ilgili uluslararası kuruluşların, paydaşların ortak bakış açılarına dayalı olarak sağlık hizmetlerinde yapay zekâya ilişkin etik kılavuz geliştirmeye yönelik çalışmalar destekleniyor. Yapay zekâ hem bireylerin sağlığını hem de halk sağlığını iyileştirme konusunda büyük bir potansiyele sahip, ancak aynı zamanda bireysel hakları ve halk sağlığını yeni risklerle de karşı karşıya getirebiliyor. Yapay zekâ uygulamaları, onları düzenleyen yasal çerçeveden çok daha hızlı gelişim gösteriyor. Hassas kişisel sağlık verilerinin mahremiyeti ve siber güvenliği, bilgilendirmeye dayalı rıza ve paydaşların sorumluluğu için hukuki düzenlemelere ilişkin gereklilikler konusunda daha fazla tartışmaya ihtiyaç var. https://pace.coe.int/en/files/28737/html

“Otonom araçlara hukuki yaklaşım” raporu ise kısaca şunlara vurgu yapıyor: Yarı otonom araçların yollardaki sirkülasyonunun önümüzdeki yıllarda önemli ölçüde artması muhtemel ve bazı çevreler önümüzdeki on yıl içinde tamamen otonom olan araçların kullanıma sunulabileceğini düşünüyor. Bu gelişmeler, cezai ve hukuki sorumluluk, üreticilerin ve sigorta şirketlerinin yükümlülükleri ile karayolu taşımacılığının gelecekteki hukuki düzenlemelerine ilişkin sorular ortaya çıkarıyor. Bunlar aynı zamanda önemli etik ve mahremiyet endişeleri de doğuruyor. Beklenti, otonom araçların, insanlar tarafından kullanılanlara göre önemli ölçüde daha güvenli olacağı yönünde. Bu potansiyeli gerçekleştirmek için uygun düzenlemelere ihtiyaç duyulacak. Başlangıç noktası olarak, bu düzenleme yaşam hakkına tam saygıyı sağlamalı. https://pace.coe.int/en/files/28721/html

Avrupa tarafından yaşanan bu gelişmeler yakın zamanda yapay zeka konusunda bazı hukuki standartların belirleneceğine işaret ediyor.

 

“Yapay zeka önemli bir siber güvenlik silahı”

Amerika, Avrupa ve Asya’da dört bin güvenlik ve BT uzmanı ile gerçekleştirilen bir araştırmaya göre, uzmanlar, BT altyapıları içindeki gizli tehditlere karşı savaşı kazanmak için anahtar bir silah olarak yapay zekayı (AI) görüyorlar.

Araştırma, verileri ve diğer yüksek değerli varlıkları korumak için, makine öğrenimi ve diğer AI tabanlı teknolojileri içeren güvenlik sistemlerinin, kullanıcıları ve IoT cihazlarını hedefleyen saldırıları tespit etmek ve durdurmak için çok önemli olduğunu ortaya koydu. Yanıt verenlerin çoğunluğu AI fonksiyonuna sahip güvenlik ürünlerinin aşağıdaki konularda yardımcı olacağına katılıyor:

– Hatalı uyarıları azaltma (yüzde 68)

-Ekibin verimliliğini artırma (yüzde 63)

-Daha fazla araştırma verimliliği sağlama (yüzde 60)

-Çevre savunma sistemlerinden kaçan gizli saldırıları daha hızlı keşfetme ve bunlara cevap verme yeteneklerini geliştirme (yüzde 56)

Ankete katılanların yüzde yirmi beşi, şu anda bir tür AI tabanlı güvenlik çözümü kullandığını, yüzde 26’sı ise bu tür ürünleri önümüzdeki 12 ay içinde kullanmayı planladıklarını belirtiyorlar.

Ponemon Enstitüsü yönetim kurulu başkanı Larry Ponemon, “Siber güvenlik programlarına yapılan büyük yatırımlara rağmen araştırmamız, çoğu işletmenin gelişmiş ve hedefe yönelik saldırıları hala durduramadıklarını buldu, katılımcıların yüzde 45’i, 10’dan 75’e kadar eş zamanlı sevk edilen güvenlik araçlarından oluşan savunma unsurlarının tam değerini anlamadıklarına inanıyor.  Durum, ‘kusursuz bir fırtına’ haline geldi. Katılımcıların neredeyse yarısı, karmaşık ve dinamik olarak değişen saldırı yüzeylerini korumanın, özellikle şu an gerekli niteliklere ve uzmanlığa sahip yeterli güvenlik personelinin bulunmaması nedeniyle, bugünün inatçı, özel, oldukça yoğun eğitilmiş ve iyi finanse edilen saldırganlarıyla savaşmanın çok zor olduğunu söylüyor. Bu çerçevede, güvenlik programının diğer yönlerini yönetmek için görevleri otomatikleştirebilen ve böylece BT personelini serbest bırakabilen AI tabanlı güvenlik araçları, işletmelerin artan tehdit seviyelerine ayak uydurabilmeleri için kritik öneme sahip olarak görülüyorlar” dedi.

IoT cihazları önemli bir risk

Ponemon araştırmacıları, BT güvenlik ekiplerinin çoğunun, şirketlerinin genel güvenlik stratejisindeki önemli bir boşluğun, giriş noktası olarak IoT cihazlarını kullanan saldırıları tespit etmekte yetersiz olduklarına inanıyorlar. Aslında, ankete katılanların dörtte üçünden fazlası IoT cihazlarının güvenli olmadığına, yüzde 60’ı da basit IoT cihazlarının bile bir tehdit oluşturduğuna inanıyor.

Katılımcıların üçte ikisi, “nesnelerini” saldırılardan korumak için çok az beceriye sahip olduklarını ya da hiç sahip olmadıklarını itiraf ediyorlar. Ağ trafiğinin sürekli izlenmesi, kapalı devre algılama ve yanıt sistemleri ve IoT cihazları grupları arasındaki davranışsal anormallikleri tespit etmek, ortamlarını daha iyi korumak için en etkili yaklaşımlar olarak gösteriliyor.

Çalışanlar riski davranışlar göstermeye devam ediyor

Ponemon Enstitüsü çalışması, Haziran 2018’de 15 ülkede 7,000 çalışanla yapılan bir  Aruba küresel araştırmasından elde edilen bulgularla paralellik göstermektedir. Bu çalışma siber güvenliğin işverenler, özellikle de akıllı binalarda bulunanlar için zorlu bir iş olduğunu ortaya koydu.

Raporda, çalışanların siber güvenlik bilincinin daha yüksek düzeylerde olduğu bildirilmesine rağmen (% 52’si güvenlik konusunu sık sık veya günlük olarak düşünüyor), şirket verileri ve cihazlarla daha fazla risk aldıklarını da itiraf ediyorlar, yüzde 70’i şifre ve cihaz paylaşımı gibi riskli davranışları itiraf ediyor.

Ayrıca, çalışanların yüzde 25’i son on iki ay içinde potansiyel olarak güvensiz açık Wi-Fi’ye bağlandığını, yüzde 20’sinin aynı şifreyi birden fazla uygulama ve hesapta kullandığını ve yüzde 17’sinin hatırlamak için bir yere şifre yazdığını itiraf ettiği de belirtiliyor.

Siber Bülten abone listesine kaydolmak için formu doldurunuz

Google yapay zekası kendi şifreleme algoritmasını geliştirdi

Google Brain tarafından yapılan araştırmaların sonuçlarına göre yapay sinir ağları şifreleme metodları konusunda iyi, fakat şifre çözmede yeterince başarılı değil. Arstechnica sitesinin haberine göre üçüncü bir yapay zekanın aralarındaki haberleşmeye erişimini engellemek için kendi şifreleme algoritmalarını üreten iki yapay zeka geliştirildi.

Google Brain takımı Alice, Bob ve Eve isimlerini verdikleri üç sinir ağı ile araştırmasına başladı. Her bir yapay zekaya farklı görevler verildi. Alice, Bob’a güvenli bir mesaj göndermek için, Bob aldığı mesajın şifrelemesini çözmek için ve Eve de gönderilen mesaja gizlice erişmek için komutlandırıldı.

İLGİLİ HABER >> ABD ordusunun en iyi hackerları aslında insan değil

Yapay zekaların hepsi “karıştır ve dönüştür” sinir ağı mimarisini paylaşmasına rağmen hepsi ayrı ayrı başlatılıyordu. Üçünün Alice ve Bob’a ortak verilen gizli anahtar dışında hiçbir bağlantıları yoktu.

Yapay zekalara bir şeylerin nasıl şifreleneceği, güvenli haberleşmenin sağlanabilmesi için hangi yöntemlerin kullanılacağı öğretilmemişti. Görevlerini tamamlamak için her şeye baştan başlaması gereken yapay zekaların hedeflerine bakıldığında Alice’in göndereceği mesajı Bob’un çözebileceği ama Eve’nin çözemeyeceği şekilde şifrelemesi gerekiyor. Bob ile Eve de görevlerini tamamlamak için Alice’den gelen şifreli mesajı çözmeleri gerekiyor.

İki yapay zeka ürününün kendi kendilerine güvenli haberleşme yapmayı öğrendiği çalışmanın başarılı olduğunu söylemek mümkün. Bazı denemelerde Bob, Alice’in gönderdiği mesajları okuyamıyor fakat çoğu zaman minimum hata ile haberleşebildikleri bir sistem geliştirmeyi başarıyorlar. Bazı testlerde Eve’in şifrelemeyi çözme kapasitesini geliştirdiğine dair işaretler gösteriyor fakat Bob ve Alice bunun üzerine mesajlarındaki şifreleme tekniğini daha da arttırıp Eve’in mesajlara erişimini engelliyor.

Google araştırmacılarına göre sinir ağlarının mesajlarını korumayı öğrenebilecekleri kanıtlandı. Eve’in daha iyi bir casus olup olamayacağı konusuna gelindiğinde ise durum pek de iç açıcı değil. Araştırmacılar yapay zekaların şifre çözme alanında daha iyi hale gelmelerinin uzak bir ihtimal olduğunu belirtti.

SİBER BÜLTEN HAFTALIK RAPORUNA ABONE OLMAK İÇİN FORMU DOLDURUN

[wysija_form id=”2″]