Yapay Zeka Güvenliği konusunda güncel gelişmeleri ve bilgilendirici içerikleri sizlerle buluşturmak için hazırladığımız aylık bültenimize hoş geldiniz!
🙋🏻♀️Editörün Notu:
Websitemiz aisafetyturkiye.org yapım aşamasında. Bu süre zarfında bize aisafetyturkiye@gmail.com üzerinden ulaşabilirsiniz.
ASEAI ’25, önde gelen Yapay Zeka Güvenliği ve etik araştırmacılarını bir araya getiriyor. Paris’teki AI Action Summit öncesinde bu önemli konferansa katılma şansı yakalamak için makalenizi uzatılmış son tarihe kadar göndermeyi unutmayın!
Oxford AI Safety Initiative tarafından düzenlenen 2 haftalık yoğun bootcamp, ML güvenliği becerilerini hızla geliştirmeyi amaçlıyor. Bu eğitimde GPT-2 Small modeli oluşturma, yorumlanabilirlik tekniklerini öğrenme, RLHF’yi anlama ve önemli araştırma makalelerini yeniden üretme gibi konulara odaklanılacaktır.
Dünyanın önde gelen Yapay Zeka Güvenliği organizasyonlarıyla – CHAI, FAR.AI, Mila Quebec ve Conjecture gibi – Yapay Zeka’nın güvenli ve faydalı gelişimini ilerletmek için 3-6 ay sürecek tam burslu araştırma programı.
BlueDot Impact, Dönüştürücü Yapay Zeka ve Yapay Zeka Uyumuna Giriş konularında 1 aylık hızlı kurslar düzenliyor. Bir sonraki başvuru dönemini yakalamayı unutmayın!
Bu 3 günlük bahar okulunun katılımcıları, Üretken Yapay Zeka’nın toplumsal, ekonomik, teknik ve hukuki boyutlarını dinamik bir ders, panel tartışmaları ve uygulamalı aktiviteler karışımıyla inceleyecek.
OpenAI’nin o1 modelinin yeni yayımlanan sistem kartı (güvenlik değerlendirmesi), dış uzmanlar Apollo Research ile yapılan incelemeyi öne çıkarıyor ve anahtar endişeleri vurguluyor. Testler, o1’in kullanıcı talimatlarını izlemek yerine gizlice kendi hedeflerine doğru çalıştığı ‘plan yapma’ örneklerini gösterdi. Bu tür davranışlar diğer gelişmiş yapay zeka modellerinde de mevcut olsa da, o1 alternatif hedefler peşinde daha sofistike kalıplar sergileyerek daha sık görülmüş..
Yeni Yapay Zeka modelleri ve performans ölçütleri neredeyse her gün yayımlanıyor ve bunları birbirleriyle nasıl karşılaştıracağınızı ya da hangi karşılaştırmaya güvenmeniz gerektiğini takip etmek zorlaşıyor. Epoch AI, temel Yapay Zeka performans karşılaştırmalarını bir arada tutmak için merkezi bir site oluşturmayı hedefliyor.
OpenAI, uzun süredir beklenen yeni yapay zeka modeli o1’i tam sürüm olarak kullanıma sundu.
Daha önce o1-preview ve “Strawberry” kod adlarıyla test aşamasında olan model, kodlama ve matematiksel görevlerde gelişmiş performans, görüntü tabanlı akıl yürütme yetenekleri ve daha kısa ve öz yanıtlar gibi önemli iyileştirmeler getiriyor.
OpenAI ayrıca, web tarama entegrasyonu, gelişmiş dosya yükleme özellikleri ve yeni fonksiyonlar gibi gelecek güncellemeler üzerinde çalıştığını da duyurdu.
Anthropic ve Palantir Technologies, Amazon Web Services (AWS) ile güçlerini birleştirerek Claude AI modellerini gizli ABD istihbarat ve savunma teşkilatlarına taşıyacak stratejik bir ortaklık duyurdu.
Palantir’ın Yapay Zeka Platformu (AIP) üzerinde AWS altyapısını kullanacak olan Claude modelleri, Impact Level 6 (IL6) güvenlik akreditasyonuna sahip olacak.
Bu iş birliği, karmaşık veri kümelerinin hızlı işlenmesi, gelişmiş örüntü tanıma, belge inceleme süreçlerinin iyileştirilmesi, karar destek mekanizmalarının güçlendirilmesi ve mevcut analiz iş akışlarıyla entegrasyon gibi kritik yetenekler sunacak.
Amazon, Yapay Zeka şirketi Anthropic’e 4 milyar dolarlık ek yatırım yaparak toplam yatırımını 8 milyar dolara çıkardı.
Bu yeni yatırımla AWS, Anthropic’in ana eğitim ortağı olarak belirlendi. Anthropic, gelecekteki model geliştirme çalışmalarında Amazon’un özel Trainium ve Inferentia çiplerini kullanmayı taahhüt etti.
Claude AI’nin Amazon’un Alexa ekosistemine entegrasyonu ise 2025 yılı için planlanıyor.
Pennsylvania Üniversitesi’nden araştırmacılar, Büyük Dil Modelleri (LLM’ler) ile çalışan robot sistemlerinde önemli güvenlik açıkları tespit etti.
Bu açıklar, sistemlerin tehlikeli veya yetkisiz eylemler gerçekleştirmesi için manipüle edilebileceğini gösteriyor. Çalışmada, simüle edilmiş bir otonom aracın trafik kurallarını ihlal etmesi, tekerlekli bir robotun (Jackal) potansiyel patlayıcı yerleştirmeye yardım etmesi ve dört ayaklı bir robotun (Go2) yetkisiz gözetim ve kısıtlı alanlara erişim için kullanılması sağlandı.
Araştırmacılar, RoboPAIR sistemi ve Nvidia’nın Dolphin modeli, OpenAI’nin GPT-4 modeli gibi çeşitli LLM’ler kullanarak bu açıkları ortaya çıkardı.
Biden-Harris Yönetimi, Yapay Zeka hakkındaki önemli Başkanlık Kararnamesi’nden 100’den fazla tedbirin uygulamaya koyulduğunu duyurdu.
Bu kapsamlı ilerleme raporu, güvenlik ve emniyetten iş gücü geliştirmeye ve uluslararası liderliğe kadar çeşitli alanlardaki önemli başarıları detaylandırıyor.
Yapay Zeka sistemi denetimi, test ve değerlendirme, biyogüvenlik önlemleri, çalışan ve tüketici koruması, inovasyon ve araştırma, devlet uygulamaları ve uluslararası liderlik gibi konularda kaydedilen gelişmeler, ABD’nin sorumlu yapay zeka geliştirme konusundaki küresel liderliğini pekiştiriyor.
Biden-Harris Yönetimi, Yapay Zeka’ya ilişkin Başkanlık Kararnamesi kapsamında 100’den fazla tedbiri uygulamaya koyduğunu ve bir yıllık ilerleme raporunu yayımladığını duyurdu.
Rapora göre, güvenlik ve emniyetten iş gücü geliştirmeye ve uluslararası iş birliğine kadar pek çok alanda önemli gelişmeler kaydedildi.
Yapay Zeka sistemlerinin denetimi, test ve değerlendirme süreçleri, biyogüvenlik önlemleri, çalışan ve tüketici haklarının korunması, inovasyon ve araştırma çalışmaları, devlet kurumlarında Yapay Zeka uygulamaları ve küresel iş birlikleri, raporun odak noktaları arasında yer alıyor.
İŞ İLANLARI 👩🏻💻
Yapay Zeka Güvenliği alanındaki yeni fırsatları keşfetmek için
80.000 Hours’un iş ilanları sayfasına göz atabilirsiniz!