Welcome to our monthly newsletter, which we have prepared to bring you current developments and informative content on Artificial Intelligence Security!
Bilimsel direktörlüğünü Yoshua Bengio’nun yürüttüğü, Montreal merkezli bir Yapay Zeka araştırma enstitüsü olan Mila, hukuk, sosyoloji ve felsefe gibi çeşitli alanlardan genç profesyonelleri bir araya getirerek Yapay Zeka Yönetişimi’nin karmaşık sorunlarını ele almayı planlıyor.
Apart Research ve Martian, model yönlendirme ve değerlendirme yoluyla daha akıllı Yapay Zeka sistemleri geliştirmeye odaklanan çığır açıcı bir hackathon düzenliyor. Katılımcılar, model çıktılarının kalitesini değerlendirmek için “hakemler” ve sorguları en uygun modellere yönlendirmek için “yönlendiriciler” geliştirecek. Amaç, daha güvenli ve daha verimli Yapay Zeka sistemleri oluşturmak.
Cambridge AI Safety Hub (CAISH) tarafından yürütülen bu araştırma programı, öğrenci ve profesyonel düzeyindeki araştırmacı adaylarını, Yapay Zeka Güvenliği alanında deneyimli mentorlarla buluşturuyor. Katılımcılar, teknik ya da politika odaklı alanlarda yarı zamanlı projeler üzerinde çalışacak.
Cambridge Boston Alignment Initiative (CBAI) tarafından düzenlenen bu yoğun tempolu ve tam burslu 8 haftalık program, hem teknik hem de yönetişim alanlarında Yapay Zeka Güvenliği alanında kariyerlerini ilerletmeyi hedefleyen yetenekli araştırmacılara destek sağlamak için tasarlandı. Bursiyerler, deneyimli mentorlarla yakın bir şekilde çalışacak, atölye çalışmalarına ve seminerlere katılacak, araştırma deneyimi kazanacak ve ağ kurma fırsatları elde edecekler.
ML4Good’un, etkili Yapay Zeka Yönetişimi katkıları sağlamak için gereken becerileri geliştirmeyi amaçlayan ilk bootcamp’i. Fransa’da düzenlenecek bu ücretsiz yüz yüze programda, teknik kodlama oturumları yerine yönetişim, strateji, iletişim ve kampüs sonrası planlama odaklı atölye çalışmaları yapılacak. Programa katılmak için önceden teknik bilgi gerekmiyor.
Vista Institute for AI Policy tarafından sunulan bu yarı zamanlı kurs, hukuk ve politika yüksek lisans öğrencileri, yeni mezunlar, politika profesyonelleri ve AI ulusal güvenlik riskleriyle ilgilenen personel için tasarlanmıştır. Katılımcılar, temel hukuki çerçeveleri ve Yapay Zeka hukuku ile politika alanındaki kritik konuları ele alan uzman liderliğindeki öğle arası oturumlarına katılacaklar.
Vista Institute for AI Policy tarafından sunulan bu çevrimiçi kurs, Yapay Zeka ajanlarının hukuki geleceğini anlamak ve şekillendirmek için bir yol sunuyor.
En son Yapay Zeka Eylem Zirvesi, Yapay Zeka Güvenliği konusunda uluslararası koordinasyonun popülerliğini kaybettiğini gösterse de, Singapur Mutabakatı Küresel Yapay Zeka Güvenliği Araştırma Öncelikleri konusunda cesur bir misyon üstlenerek, ABD ve Çin de dahil olmak üzere tüm ülkelerden araştırmacıları, en gelişmiş Yapay Zeka sistemlerinin güvenli bir şekilde nasıl inşa edilebileceğini araştırmak üzere bir araya getirmeyi amaçlıyor.
DeepMind’da Mekanistik Yorumlanabilirlik Ekibi’ni yöneten Neel Nanda, mevcut araştırma paradigmalarıyla (yorumlanabilirlik dahil) süper zekalı Yapay Zeka’nın güvenliğini değerlendirme veya izleme konusunda yüksek güvenilirlikte yöntemler elde etmenin olası olmadığını savunuyor. Nanda, en iyi yorumlanabilirlik tekniklerinin bile hizalanmamış davranışları güvenilir bir şekilde tespit etmede neden yetersiz kaldığını ve bunun neden devam edeceğini açıklıyor. Yorumlanabilirliği güvenlik araç setinin faydalı bir parçası olarak görse de, daha pragmatik, katmanlı ve “çok yönlü” bir savunma stratejisi öneriyor.
Trump hükûmeti, Yapay Zeka sistemlerindeki “politik doğruculuğu” hedef alan bir tutum benimsiyor.
Temsilciler Meclisinin bir komitesi, büyük teknolojik şirketlerine algoritmik yanlılığı azaltma çabaları hakkında çağrıda bulundu.
Ayrıca, Ticaret Bakanlığının standartlar enstitüsü NIST, rehber dokümanlarından “AI güvenliği” ve “sorumlu AI” gibi ifadeleri çıkardı ve bunların yerine Yapay Zeka araştırmacılarına modellerdeki ideolojik önyargıları azaltmaya odaklanmaları talimatını verdi.
Beyaz Saray, Biden hükûmeti dönemindeki Yapay Zeka Güvenliği ve şeffaflık önlemlerini kaldırdı ve federal kurumlara Yapay Zeka teknolojilerini hızla benimsemeleri yönünde talimat verdi.
7 Nisan’da yayımlanan genelge, Yapay Zeka kullanımındaki bürokratik kısıtlamaları kaldırarak Amerikan malı Yapay Zeka sistemlerin kullanımını teşvik etmeyi hedefliyor.