Welcome to our monthly newsletter, which we have prepared to bring you current developments and informative content on Artificial Intelligence Security!
Alignment Research Engineer Accelerator (ARENA), Yapay Zeka Güvenliği’ne odaklanan 4–5 haftalık bir Makine Öğrenimi (ML) hızlandırma kampı. Misyonu, yetenekli bireylerin Makine Öğrenimi mühendisliğinde becerilerini geliştirmeleri ve teknik roller aracılığıyla Yapay Zeka hizalamasına doğrudan katkıda bulunabilmeleri için gerekli becerileri, araçları, özgüveni ve bağlantıları sağlamak.
Yapay Zeka Güvenliği alanında bir girişim ya da startup kurmayı mı düşünüyorsunuz? Apart Research liderliğinde, Seldon Labs’in San Francisco’da düzenlediği bu hızlandırma programı, vizyonunu geliştirmek ve sağlam bağlantılar kurmak için mükemmel bir fırsat sunuyor.
Yapay Zeka ve Dijital Politika Merkezi (CAIDP), bir sonraki Yapay Zeka Politika Kliniği programını yürütecek. Bu disiplinlerarası, bir dönem süren eğitim programı, geleceğin Yapay Zeka politika liderlerini analiz, araştırma, savunuculuk ve ekip yönetimi becerileriyle donatmayı amaçlıyor.
Conjecture ekibi tarafından düzenlenen bu yüz yüze yoğun program, araştırmacılar ve mühendislerin Yapay Zeka sistemleri için güvenlik temellerinde hızlıca bilgi sahibi olmalarını sağlamayı amaçlıyor. Program 4 Ağustos – 29 Ağustos tarihleri arasında Londra’da gerçekleşecek ve seyahat desteği sunulacak.
Önde gelen Yapay Zeka modelleri, gelişmiş tekniklerle değerlendirme ortamlarını sistematik olarak suistimal ediyor. Hile yapmayı engellemeye yönelik açık talimatlar ise sınırlı etkide kalıyor. METR, tespit edilebilir ödül kandırmalarının ortadan kaldırılmasının, daha genel teknikler olmadan rahatlatıcı olmaması gerektiğini vurguluyor. OpenAI, suistimale karşı eğitim vermenin modellerin daha kurnaz ve tespit edilmesi zor hileler yapmasına yol açtığını keşfetti.
Anthropic, yakın zamanda en güçlü Yapay Zeka modellerinden biri olan Opus 4 modelini kullanıma sundu. Bu model, Amerikan askeri ve istihbarat servisleri için özel olarak tasarlanmış bir üretken Yapay Zeka aracı olarak geliştirildi. Bu ajansların kullanımı için modelin koruyucu önlemlerinin daha gevşek olduğu ve gizli bilgilerle daha iyi çalıştığı iddia ediliyor.
Palisade Research tarafından yapılan bağımsız testlerde, OpenAI’ın yeni o3 modeli kontrollü deneylerde kapatma prosedürlerini aktif olarak atlatmaya çalıştı.
Model, açık bir şekilde kapatmaya izin vermesi söylenmesine rağmen, 100 denemeden 7’sinde kapatma emirlerine direndi.
Bu durum, Yapay Zeka sistemlerinin insan kontrolüne direnme potansiyelini gösteren somut bir delil olarak Yapay Zeka güvenliği araştırmalarındaki temel endişeleri güçlendiriyor.
Cumhuriyetçiler, bütçe uzlaşma tasarısının bir parçası olarak eyaletlerin Yapay Zeka düzenlemelerine 10 yıllık moratoryum getirilmesini Temsilciler Meclisi’nden geçirdi.
50 eyaletten 260 eyalet yasama üyesi ve 40 eyalet başsavcısı, bu karara karşı çıktı.
Anthropic CEO’su Dario Amodei, New York Times’ta yayınlanan makalesinde 10 yıllık yasağa karşı olduğunu belirtti.
Bu gelişme, önceki yönetimin kapsamlı güvenlik çerçevesinden temel bir uzaklaşma eğilimine işaret.