Welcome to our monthly newsletter, which we have prepared to bring you current developments and informative content on Artificial Intelligence Security!
Yapay zekâ uyumluluğu (AI Safety Atlas ders kitabı doğrultusunda).
Bu program, yapay zekâ güvenliğiyle ilgilenen ve bu alana yeni adım atan kişiler için tasarlanmıştır. Katılımcıların hangi akademik veya mesleki geçmişe sahip olduğu fark etmeksizin herkesin katılımına açıktır.
Apart Research tarafından düzenlenen araştırma hackathon’u, yapay zekâ güvenliği alanındaki kritik sorunları ele almak isteyen fizikçiler için bir giriş noktası olarak tasarlandı. Katılımcılar, benzer teknik geçmişe ve analitik problem çözme tutkusuna sahip kişilerle birlikte çalışma fırsatı bulacaklar.
Önde gelen yapay zekâ geliştiricileri ve iddialı yapay zekâ planları olan ülkeler, çok büyük veri merkezlerine milyarlarca dolar yatırım yapıyorlar. Türkiye de büyük bir veri merkezi yatırımı planlarını açıkladı. Eğer yapay zekâ veri merkezleri en stratejik varlıklardan biri haline geliyorsa, bugün bu merkezlerin nasıl ve nerelerde yoğunlaştığını biliyor muyuz?
Yapay zekâ liderleri teknolojilerini giderek daha fazla nükleer silahlarla kıyaslayıp uluslararası yönetişim organları çağrısında bulunurken, iki politika uzmanı bu bakış açısını sorguluyor. Horowitz ve Kahn, yapay zekânın geniş uygulama alanı, nükleer maddeler gibi kontrol edilememesi ve sürekli değer yaratması nedeniyle nükleer tarzda bir yönetişimin uygun olmadığını savunuyorlar. Yeni uluslararası yapılar oluşturmak yerine, mevcut kurumların, FDA ve havacılık otoriteleri gibi, geliştirilmesini öneriyorlar.
Temmuz 2025’te ABD Senatosu, eyalet düzeyindeki yapay zeka düzenlemelerine moratoryum getirmeyi amaçlayan teklifi 99’a 1 gibi ezici bir oy çoğunluğuyla reddetti.
Bu karar, federal hükümetin birleşik bir politika oluşturma çabasının başarısız olduğunu gösteriyor ve eyaletleri ABD’nin fiili yapay zeka düzenleyicileri haline getiriyor.
Haziran 2025’te ABD, Yapay Zeka Güvenliği Enstitüsü’nü (USAISI) “Yapay Zeka Standartları ve İnovasyon Merkezi” (CAISI) olarak yeniden markalaştırdı. İngiltere de benzer bir adımla kendi enstitüsünü yeniden yapılandırdı.
Her iki ülkenin de yeni misyonu, yapay zeka güvenliği tanımını daraltarak ulusal güvenlik, savunma ve ekonomik rekabete odaklanmak olarak belirlendi.
Bu stratejik eksen kayması, önyargı ve ayrımcılık gibi daha geniş toplumsal zararları ikinci plana atarak, AB’nin hak temelli yaklaşımına karşı bir “Anglosfer Bloğu” oluşturuyor.
Haziran 2025’te Google DeepMind, insan DNA’sının protein kodlamayan %98’lik kısmının işlevini tahmin edebilen AlphaGenome modelini tanıttı.
Bu atılım, genetik hastalıkların nedenlerini anlamayı hızlandırırken, aynı zamanda yapay zeka destekli biyolojik silah tasarımı gibi riskleri de beraberinde getiriyor.
Meta’nın V-JEPA 2 ve 1X Technologies’in Redwood AI gibi “dünya modelleri”, robotların fiziksel gerçekliği anlamasını ve eylemlerinin sonuçlarını tahmin etmesini sağlıyor.
Bu ilerleme, yapay zekanın bilinen önyargı, kırılganlık ve öngörülemezlik gibi sorunlarını dijital alandan fiziksel alana taşıyor.
Gelişme, bedensiz dil modellerinden (LLM’ler) bedenlenmiş zekaya (robotlar) geçişi işaret ediyor ve “Bedenlenmiş Yapay Zeka Güvenliği” (Embodied AI Safety) adlı yeni bir araştırma alanı gerektiriyor.
JOB POSTINGS 👩🏻💻
To explore new opportunities in the field of Artificial Intelligence Security
You can take a look at 80.000 Hours' job postings page!