Yapay Zeka Güvenliği konusunda güncel gelişmeleri ve bilgilendirici içerikleri sizlerle buluşturmak için hazırladığımız aylık bültenimize hoş geldiniz!
🙋🏻♀️Editörün Notu:
Bu ay bülteni bir gün geç gönderdiğimizi fark ettiniz mi? 👀
Ama merak etmeyin! Gelecek aydan itibaren her zamanki gibi, her ayın ikinci haftasının ikinci günü buluşmaya devam edeceğiz.
Bu hibe programı, yapay zeka ve insan gelişiminin kesişimindeki yeni nesil düşünürleri ve yapıcıları destekliyor. Projeler genellikle disiplinlerarası ve insan merkezli bir yaklaşım benimserken, felsefe, bilgisayar bilimi, siyasi teori, ekonomi, doğal bilimler ve diğer alanlardan faydalanıyor.
NeurIPS’in düzenlediği CLAS 2024 yarışması, katılımcılara kritik Yapay Zeka güvenliği sorunlarını çözme zorluğunu sunuyor. Kazananlar, 30.000 dolarlık ödül havuzunu paylaşacak ve yarışma sonuçlarıyla ilgili bir yayında ortak yazar olma fırsatını elde edecekler.
LASR Labs, Londra’da teknik yapay zekâ güvenliği araştırmalarına odaklanan 3 aylık tam zamanlı, ücretli bir program sunuyor. Katılımcılar, deneyimli uzmanların gözetiminde küçük ekipler halinde çalışarak somut tehdit modellerini ele alıyor. Programın amacı, gelişmiş yapay zekâ sistemlerinden kaynaklanan riskleri azaltmaya yönelik akademik makaleler ve blog yazıları üretmektir. Bu yoğun deneyim, katılımcılara yapay zekâ güvenliği araştırmalarına derinlemesine katılma ve alana anlamlı katkılar sağlama fırsatı sunuyor.
Önceki sayımızda yer verdiğimiz, yapay zeka güvenliği açısından çok ses getiren SB1047 yasa tasarısı Kaliforniya eyalet yöneticisi tarafından veto edildi. Bu, yapay zeka güvenliğinin politik algısı açısından ne anlama geliyor?
Seul Yapay Zekâ Güvenliği Zirvesi’nde, ABD Ticaret Bakanı Gina Raimondo, Kenya’dan İngiltere’ye, Singapur’dan Kanada’ya kadar uzanan küresel bir Yapay Zekâ Güvenliği Enstitüleri Ağı (AISIs) kurulacağını duyurdu. Uluslararası Gelecek Nesiller Merkezi’nden Alex Petropoulos, AISIs’lerin ne olduğunu, planlanan faaliyetlerini ve ülkeler arasında nasıl farklılık gösterdiğini inceliyor.
OpenAI’da CTO (Baş Teknoloji Sorumlusu) Mira Murati, Baş Araştırma Sorumlusu Bob McGrew ve Araştırma Başkan Yardımcısı Barret Zoph’un ayrılığıyla yönetim kadrosunda önemli değişiklikler yaşanıyor.
CEO Sam Altman, istifaların dostane bir şekilde gerçekleştiğini ve liderlik pozisyonlarının getirdiği yoğun iş yükünden kaynaklandığını belirtti
OpenAI, 12 Eylül’de, “o1-preview” ve “o1-mini” adlı yeni yapay zeka modellerini tanıttı.
Bu modeller, karmaşık problemleri çözmek için “Chain of Thought” (Düşünce Zinciri) metodunu kullanarak daha uzun süre düşünebiliyor ve önceki modellere göre daha başarılı sonuçlar veriyor.
Yeni modeller, özellikle temel bilim, kodlama ve matematik alanlarında önemli gelişmeler gösteriyor. Örneğin, OpenAI’ın iddiasına göre, o1 modeli Uluslararası Matematik Olimpiyatı sorularında %83 başarı oranına ulaştı.
Avrupa Konseyi’nin “Yapay Zeka ve İnsan Hakları, Demokrasi ve Hukukun Üstünlüğü Çerçeve Sözleşmesi” (CETS No. 225), 5 Eylül tarihinde Vilnius’ta imzaya açıldı.
Bu sözleşme, yapay zeka sistemlerinin kullanımının insan hakları, demokrasi ve hukukun üstünlüğü ile uyumlu olmasını sağlamayı amaçlayan ilk yasal bağlayıcı uluslararası sözleşme olma özelliği taşıyor.
Sözleşme, aralarında Andorra, Gürcistan, İzlanda, Norveç, Moldova, San Marino, Birleşik Krallık, İsrail, ABD ve Avrupa Birliği’nin de bulunduğu birçok ülke ve kuruluş tarafından imzalandı.
AI Safety Türkiye Ekim 2024 buluşmamızda bu sene planladığımız online eğitimlerimizden, öğrenci topluluklarıyla düzenleyeceğimiz etkinliklerden ve Türkiye’de planlanan yapay zeka yasasıyla görebileceğimiz olası değişiklikleri konuştuk.
💌 Bir sonraki buluşmamızda sizi de aramızda görmek dileğiyle!