Yapay Zeka Güvenliği konusunda güncel gelişmeleri ve bilgilendirici içerikleri sizlerle buluşturmak için hazırladığımız aylık bültenimize hoş geldiniz!
DUYURULAR 🔊
AI Safety Türkiye İstanbul & Ankara Buluşmaları
Okullarda yeni dönem başlarken AI Safety Türkiye olarak bu yılki planlarımızı konuşmak ve topluluk üyelerimizin birbiriyle tanışması için yüz yüze buluşuyoruz!
28 Eylül Cumartesi ve 5 Ekim Cumartesi’yi ajandalarınıza kaydedin, detayları Eylül sayımızda paylaşacağız.
AI Safety Türkiye’ye çeşitli konularda yardımcı olacak gönüllüler arıyoruz. Web geliştirme, içerik üretimi, araştırma veya etkinlik organizasyonu gibi alanlarda tecrübeniz olsun ya da olmasın, yapay zeka güvenliği ve etiğine ilgi duymanız bizim için yeterli. Her türlü katkınız bizim için değerli!
Aşağıdaki formu doldurursanız, misyonumuza nasıl katkıda bulunabileceğinizi ve gönüllü aradığımız görevleri sizinle paylaşmak için sizinle iletişime geçeceğiz. Şimdiden teşekkürler!
Açık kaynaklı Yapay Zeka modelleri üzerine yapılan tartışmalar genellikle yenilik ve demokratizasyon gibi potansiyel faydaları, kontrolsüz riskler ve kötüye kullanım endişeleriyle karşılaştırılıyor. Carnegie raporu, bu ikiliğin ötesine geçerek, uzmanlar tarafından belirlenen fikir birliği alanlarını ve güçlü Yapay Zeka sistemleri için daha ayrıntılı yönetişim tartışmalarını yönlendirecek kritik soruları sunuyor.
Yapay Zeka politikaları araştırmacısı Risto Uuk, AB Yapay Zeka Yasası’nın öne çıkan noktalarını ve bu yeni düzenlemelerin en ileri Yapay Zeka modellerini geliştiren şirketler ve diğer işletmeler için ne anlama geldiğini açıklıyor.
OpenAI; son risk değerlendirmesinde GPT4o modelinin, kullanıcının sesini izinsiz olarak taklit ettiğini tespit etti. Risk değerlendirmesi ayrıca GPT-4o’nun “ikna risklerini” orta seviye olarak sınıflandırıyor. OpenAI, orta seviyenin üstünde ikna risklerine sahip bir modelin kullanıma sunulmasını güvenli olarak kabul etmiyor.