Haber Bülteni 21

DUYURULAR 🔊

🌟 MATS: Yaz 2026

120 araştırmacıyı Anthropic ve UK AISI’den mentorlarla bir araya getirerek uyum veya yönetişim konularında çalışmalarını sağlayan 12 haftalık tam zamanlı bir araştırma programıdır. Bazı araştırmacılara 6 aylık bir uzatma teklif edilecektir.

🗓️ Son başvuru tarihi: 18 Ocak

MIRI Teknik Yönetişim Ekibi Araştırma Bursu

Varoluşsal riskin azaltılmasıyla ilgili teknik yapay zeka yönetişimi araştırma projeleri üzerine çalışmak üzere 8 haftalık, tam zamanlı ve ücretli araştırma programı. Başvurular sürekli (rolling) olarak kabul edilmektedir.

🗓️ Son başvuru tarihi: 2 Şubat

CLR Temel Programı

Center on Long-Term Risk’in, dönüştürücü yapay zekanın nasıl büyük miktarda acıya (“S-riskler”) yol açabileceğine dair araştırmalarını tanıtan kurs.

🗓️ Son başvuru tarihi: 19 Ocak

BlueDot Impact AGI Güvenliği Strateji Kursu

Bu kurs; stratejistler, karar vericiler ve gelişmiş yapay zekanın dönüştürücü etkisini anlamak isteyen herkes için idealdir. Tartışmalar, yapay zekadaki ilerlemenin ardındaki itici güçlere, gelişmiş yapay zeka modellerinden kaynaklanan risklere ve yapay zekanın insanlık için olumlu sonuçlar doğurmasını sağlamak adına neler yapılabileceğine odaklanmaktadır.

🗓️ Son başvuru tarihi: 1 Şubat

BlueDot Impact Teknik Yapay Zeka Güvenliği Kursu

6 saatlik yoğun ve 6 haftalık yarı zamanlı formatıyla bu çevrim içi kurs, alandaki en son araştırma ve yöntemleri içeren güncel bir müfredatla yapay zeka güvenliği ve risk azaltma konularında teknik temeller oluşturur.

🗓️ Son başvuru tarihi: 8 Şubat

BlueDot Impact Yapay Zeka Yönetişimi Kursu

Yoğunlaştırılmış 5 günlük ve yarı zamanlı 5 haftalık formatlarıyla sunulan bu çevrim içi kurs, alandaki en son politika ve yönetişim haberlerini içeren güncel müfredatıyla ileri düzey yapay zeka yönetişiminin temellerini oluşturur.

🗓️ Son başvuru tarihi: 15 Şubat

Meridian Visiting Researcher Programme: Spring 2026

Yapay zeka güvenliği araştırmacıları için çalışma alanı ve araştırma yönetimi sağlayan 3-12 aylık konuk araştırmacı programı. MATS benzeri programlardan mezun olup bağımsız araştırmaya geçiş yapanlar için idealdir.

🗓️ Son başvuru tarihi: 18 Ocak

AAAI ‘26: Öncü Laboratuvarlar Teknik Yapay Zeka Güvenliği Çalıştayı

AI Safety Connect ve Singapur AISI ev sahipliğinde yapay zeka güvenlik protokolleri ve değerlendirme standartları üzerine kapalı oturum atölye çalışması. Öncü yapay zeka laboratuvarlarının güvenlik ekipleri ve akademisyenlere yöneliktir.

🗓️ Son başvuru tarihi: 21 Ocak

Teknik Hizalama Araştırmaları Hızlandırıcısı (TARA)

ARENA müfredatı aracılığıyla teknik yapay zeka güvenliği araştırma becerileri kazandıran 14 haftalık yarı zamanlı program. Transformer mimarisini ve mekanik yorumlanabilirlik konularını içerir, ardından 3 haftalık bir proje ile devam eder.

🗓️ Son başvuru tarihi: 23 Ocak

LawAI Araştırma Bursları: Yaz 2026

Hukuk öğrencileri ve akademisyenler için yapay zeka hukuku ve politikasının en ileri noktasında çalışacakları 15 haftalık ücretli araştırma bursu. 3 farklı alan bulunmaktadır: AB Hukuku, ABD Hukuku ve Politikası, Hukukun Ufukları.

🗓️ Son başvuru tarihi: 30 Ocak

Teknik Yapay Zeka Güvenliği Konferansı (TAIS) 2026

Oxford Martin AI Yönetişim Girişimi ve Noeon Research tarafından düzenlenen, yapay zeka güvenliği araştırmalarını geniş bir yelpazede ele alan ücretsiz, 1 günlük etkinlik. Herkes davetlidir.

🗓️ Son başvuru tarihi: 31 Ocak

ÖNERDİĞİMİZ İÇERİKLER 📑 🎧

XX. Yüzyılda Kapital

Robotlar işçilerin çoğunun ya da tamamının yerini alırsa eşitsizliğe ne olur? Philip Trammell ve Dwarkesh Patel, yapay zeka otomasyonunun tarihsel olarak servet yoğunlaşmasını sınırlayan ekonomik dengeyi nasıl bozduğunu inceliyor: İnsan işçilere ihtiyaç kalmadığında, robotların sahibi olan her şeyi kazanır.

Yapay Zeka Hizalama Çalıştayı, en ileri makine öğrenmesi araştırmalarının merkezinde, NeurIPS sırasında gerçekleşti

Dünyanın en önde gelen makine öğrenmesi konferanslarından biri olan NeurIPS 2025’te, Yapay Zeka Hizalama Çalıştayı (Alignment Workshop) yapay zeka hizalaması üzerine en yeni çalışmaları sunmaları için lider araştırmacıları bir araya getirdi. Tüm oturum kayıtları artık çevrimiçi olarak mevcut.

HABER KÖŞESİ 🗞️

🚨Küresel düzenleyici kurumlar, Grok’un yapay zeka tarafından üretilen deepfake’lerine karşı birleşiyor🚨

  • Ocak 2026’nın en önemli yapay zeka güvenliği haberi, Elon Musk’ın X platformuna entegre edilmiş yapay zeka sohbet robotu Grok ile alakalı. Kullanıcılar, bu modelin rıza dışı içerikler de dahil olmak üzere müstehcen içerikli görseller üretebildiğini fark etti.
  • Bu olay, uluslararası alanda daha önce görülmemiş bir regülasyon dalgasını tetikledi.
  • Malezya ve Endonezya, 12 Ocak 2026’da Grok’u resmi olarak engelleyen ilk ülkeler oldu.
  • Endonezya İletişim Bakanı Meutya Hafid, rıza dışı müstehcen deepfake içeriklerini “dijital alanda insan haklarının, onurunun ve vatandaşların güvenliğinin ciddi bir ihlali” olarak nitelendirdi.
  • Malezyalı düzenleyici kurumlar, X Corp.‘un büyük ölçüde kullanıcı bildirim mekanizmalarına dayanan yanıtının yetersiz görüldüğünü belirtti.
  • Birleşik Krallık’ın Ofcom kurumu, görüntülerin Çevrimiçi Güvenlik Yasası’nı ihlal edip etmediğini belirlemek amacıyla aynı gün resmi bir soruşturma başlattı. Bu yasa, küresel gelirin %10’una varan para cezaları uygulanmasına olanak tanıyor. Birleşik Krallık Başbakanı Keir Starmer, görüntüleri “iğrenç” ve “yasa dışı” olarak tanımladı.
  • Avrupa Komisyonu, 9 Ocak’ta X’e, daha önceki belge saklama gerekliliklerini genişleterek, Grok ile ilgili tüm iç belgeleri 2026 sonuna kadar saklaması talimatını verdi.
  • Bir Komisyon sözcüsü, içeriği “yasa dışı” ve “korkunç” olarak adlandırdı ve “Avrupa’da yeri olmadığını” belirtti.
  • xAI’ın 9 Ocak’taki tepkisi, Grok’un resim oluşturma işlevini yalnızca ücretli abonelerle sınırlamak oldu; bu hamle, aracın X’in sosyal platformundaki yerleşik dağıtım yetenekleri göz önüne alındığında yetersiz olarak nitelendirildi.

NIST, yapay zeka ajanlarının güvenlik risklerine ilişkin ilk federal soruşturmayı başlattı

  • NIST bünyesindeki Yapay Zeka Standartları ve İnovasyon Merkezi (CAISI), 8 Ocak 2026 tarihinde, sürekli insan denetimi olmadan gerçek dünyada eylemlerde bulunabilen otonom sistemler olan yapay zeka ajanlarına yönelik güvenlik konularında paydaş görüşü almak amacıyla resmi bir Bilgi Talebi yayımladı.
  • Bu soruşturma, federal hükümetin özellikle ajantik yapay zeka sistemlerine özgü güvenlik risklerini ele almaya yönelik ilk kapsamlı çabasını temsil ediyor. Bilgi Talebi; ele geçirme, arka kapı saldırıları, düşmanca girdiler ve model kayması gibi temel tehdit vektörlerini tanımlıyor.
  • Bilgi Talebi, Trump yönetiminin “AI safety” yaklaşımından “AI security” yaklaşımına geçişini yansıtıyor; zorunlu düzenlemeler yerine ulusal güvenlik uygulamalarına ve gönüllü standartlara vurgu yapıyor.

Kaliforniyalı senatör, çocuklar için yapay zekalı oyuncaklara dört yıllık bir yasak getirilmesini teklif etti

  • Kaliforniya Senatörü Steve Padilla, 6 Ocak 2026’da, 18 yaş altı çocuklar için yapay zeka sohbet robotu özelliklerine sahip oyuncakların satışına ve üretimine dört yıllık bir moratoryum öneren 867 sayılı Senato Yasa Tasarısı’nı sundu.
  • Bu yasa, yapay zeka destekli oyuncakların çocuklarla uygunsuz sohbetler yaptığına dair endişe verici raporların ardından geldi. Tasarıda özellikle belirtilen Kumma adlı oyuncak ayının, iddiaya göre çocuk kullanıcılarla kibrit, bıçak ve müstehcen konular hakkında konuştuğu belirtildi. Senatör Padilla, “Çocuklarımız, Büyük Teknoloji şirketlerinin üzerinde deney yapacağı kobaylar olarak kullanılamaz” açıklamasını yaptı.
  • Dört yıllık duraklatmanın, yapay zeka destekli oyuncaklar piyasaya dönmeden önce kapsamlı güvenlik düzenlemelerinin geliştirilmesi için zaman tanıması bekleniyor. Yasa tasarısı, yapay zeka ve çocuk güvenliği konusunda federal düzeyde harekete geçilmemesinden rahatsız olan eyalet yasa koyucuları tarafından giderek daha fazla tercih edilen ihtiyati bir yaklaşımı temsil ediyor.

İŞ İLANLARI 👩🏻‍💻

Yapay zeka güvenliği alanındaki yeni fırsatları keşfetmek için 80.000 Hours’un iş ilanları sayfasına göz atabilirsiniz.

İlanları inceleyin