Yapay Zeka Güvenliği konusunda güncel gelişmeleri ve bilgilendirici içerikleri sizlerle buluşturmak için hazırladığımız aylık bültenimize hoş geldiniz!
🙋🏻♀️Editörün Notu:
Websitemiz aisafetyturkiye.org yapım aşamasında. Bu süre zarfında bize aisafetyturkiye@gmail.com üzerinden ulaşabilirsiniz.
AI Safety Fundamentals (Bluedot Impact) tarafından sunulan bu 9 haftalık kurs, dönüştürücü Yapay Zeka’yı ve ekonomik etkilerini daha iyi anlamak isteyen ekonomistler için tasarlanmıştır. Aynı ekip tarafından yürütülen 5 günlük hızlandırılmış bir versiyonu da mevcuttur.
🗓️ Son kayıt tarihi: Başvurular 9 haftalık kurs için 13 Şubat’a kadar, hızlandırılmış 1 haftalık kurs için sürekli kabul edilir.
Bluedot Impact’in 5 günlük Dönüştürücü Yapay Zeka’ya Giriş kursu, farklı geçmişlerden gelen bireylerin Yapay Zeka alanında bilgi edinmelerine ve profesyonel ağlarını geliştirmelerine yardımcı olmak için odaklanmış bir müfredat ve uzman liderliğinde tartışmalar sunuyor.
🗓️ Son kayıt tarihi: Başvurular sürekli kabul edilir.
Bu yaz okulu, Yapay Zeka, bilgisayar bilimi ve ilgili disiplinlerde (sosyoloji, ekonomi vb.) eğitim gören öğrenciler ve kariyerinin başındaki profesyonellere, yükselen bir alan olan Kooperatif Yapay Zeka konusunda sağlam bir temel sağlamayı amaçlıyor.
Alignment Research Engineer Accelerator (ARENA), Yapay Zeka Güvenliği’ne odaklanan 4-5 haftalık bir makine öğrenimi eğitim kampıdır. Katılımcılar, uzman öğretim asistanlarının rehberliğinde çiftler halinde ML programlama alıştırmaları yaparak becerilerini geliştirirler.
Bu Apart Sprint, donanım uzmanları, güvenlik araştırmacıları ve Yapay Zeka Güvenliği meraklılarını bir araya getirerek, Yapay Zeka eğitim faaliyetlerini yan kanal analizi yoluyla tespit etmeye yönelik doğrulama sistemleri geliştirmeyi ve test etmeyi amaçlaıyor. Katılımcılar, hesaplama kullanımını izlemek için yenilikçi çözümler oluşturmak üzere en son donanım sistemleriyle çalışacaklar.
Bu Apart Sprint, kadınları ve yeterince temsil edilmeyen grupları, uyumluluk, yönetişim, güvenlik ve değerlendirme gibi Yapay Zeka Güvenliği’nin kritik alanlarına katkıda bulunmaya teşvik eder. Katılım için Yapay Zeka Güvenliği konusunda önceki deneyim gerekmiyor.
Üniversite öğrencileri için düzenlenen bu 3 günlük konaklamalı atölye, kariyerlerinde büyük sosyal etki yaratabilecek alanları keşfetmek isteyen katılımcılara yönelik. Katılımcılar, Yapay Zeka ve biyoteknoloji güvenlik önlemlerinin iyileştirilmesi gerektiği konusunu inceleyecek ve bu alanlarda çalışan profesyonellerin kariyer yolculuklarını birinci elden dinleme fırsatı bulacaklar.
Bu bültenin birçok okuyucusu, Yapay Zeka’nın insanlığı güçsüzleştirebileceğine dair argümanları duymuş olabilir. Yeni bir makalede, Jan Kulveit, Değer Turan ve diğer yazarlar, Yapay Zeka ilerlemesinin bu sonuca nasıl kademeli olarak yol açabileceğini detaylı bir şekilde analiz ediyor. Yazarlar, Yapay Zeka sistemlerinin ekonomi, kültür ve yönetişim gibi temel toplumsal alanlarda insanlara giderek daha rekabetçi alternatifler haline geldikçe, insan katılımının gerekliliğine dayanan uyumun yerini farklı dinamiklerin alabileceğini öne sürüyor. Araştırmacılar, bir alandaki uyumsuzluğun diğer alanlardaki uyumsuzluğu daha da kötüleştirebileceğini ve bunun nihayetinde varoluşsal bir felakete ve insanlığın kalıcı güç kaybına yol açabileceğini vurguluyor.
AI Action Summit öncesi her ülkenin resmi bir delegasyon yaptığı, Yoshua Bengio dahil alanın öncüsü bilim insanları tarafından yazılan International AI Safety Report yayımlandı. Önceki rapora ek olarak Yapay Zeka risk yönetimiyle ilgili zengin bir bölümü bulunan raporun zirvedeki tartışmalara bilimsel bir rehber görevi görmesi bekleniyor.
ABD’de Yapay Zeka Yönetişimi’nde önemli bir değişim yaşanıyor; federal Yapay Zeka güvenlik testleri gerekliliklerinde temel değişiklikler yapıldığı bildiriliyor.
Önceki çerçeve, yüksek riskli Yapay Zeka sistemleri için zorunlu açıklama protokolleri oluşturmuştu.
Değişiklikler, Yapay Zeka inovasyonunu hızlandırmaya yönelik bir çaba olarak değerlendirilirken, güvenlik çerçevelerinin önemi konusundaki tartışmaları da beraberinde getiriyor.
Bu politika değişikliği, küresel Yapay Zeka Yönetişimi standartlarını etkileyebilir ve diğer ülkeler için emsal teşkil edebilir.
Birleşik Krallığın Yapay Zeka Güvenlik Enstitüsü (AISI), 100 milyon sterlinlik bütçesiyle Yapay Zeka risklerini değerlendirme konusunda dünyanın en gelişmiş hükümet programı olarak öne çıkıyor.
Enstitü, OpenAI, Google DeepMind ve Anthropic gibi önde gelen Yapay Zeka şirketleriyle anlaşmalar yaparak, en yeni modellere yayınlanmadan önce erişim ve test etme imkanı elde etti.
AISI, model ağırlıklarına erişim sağlayamasa da, biyolojik, kimyasal ve siber riskler için gelişmiş test metodolojileri geliştirdi.
Enstitünün çalışmaları, Yapay Zeka Güvenliği konusunda uluslararası işbirliğini teşvik ediyor ve diğer ülkeler için bir model teşkil ediyor.
AISI, teknik yetenek ile güçlü teknoloji şirketleriyle ilişkileri yönetmedeki diplomatik beceriyi dengeleyerek, Yapay Zeka gelişiminin hükümet gözetiminde önemli bir deney.
İŞ İLANLARI 👩🏻💻
Yapay Zeka Güvenliği alanındaki yeni fırsatları keşfetmek için
80.000 Hours’un iş ilanları sayfasına göz atabilirsiniz!