Welcome to our monthly newsletter, which we have prepared to bring you current developments and informative content on Artificial Intelligence Security!
Yapay zekâ gelişiminin yavaşladığı geleceklerden insan kontrolünden çıktığı geleceklere uzanan farklı jeopolitik ve toplumsal senaryolara dair bir çalışma yayımlayan eş-kurucumuz Bengüsu Özcan, bu senaryoları BlueDot Impact tarafından düzenlenen özel bir oturumda paylaşacak.
MATS (Makine Öğrenmesi Uyum ve Teori Araştırmacıları), araştırmacıları yapay zeka uyumu alanındaki en iyi mentorlarla buluşturan prestijli bir araştırma programıdır. Mekanistik yorumlanabilirlik alanının önde gelen araştırmacılarından Neel Nanda tarafından yönetilen bu kış programı, katılımcılara yapay zeka modellerinin dahili olarak nasıl çalıştığını anlamayı ve yorumlamayı öğretmeye odaklanmaktadır.
IASEAI ’25, önde gelen yapay zeka güvenliği ve etiği araştırmacılarını bir araya getiriyor. Makalenizi uzatılmış son başvuru tarihine kadar gönderin ve Paris’teki Yapay Zeka Eylem Zirvesi’nden hemen önce bu önemli konferansa katılma şansı yakalayın!
Teknik yapay zeka uyum araştırmaları alanında araştırma becerilerini derinleştirmek ve profesyonel ağlarını genişletmek isteyen kadınlara yönelik 10 haftalık uzaktan mentorluk programıdır. Program, haftalık araştırma konuşmaları, araştırma geliştirme ve topluluk oluşturma için yapılandırılmış destek ve alanında uzman araştırmacılarla 1 haftalık yüz yüze bir kamp içermektedir.
7 Ağustos’ta piyasaya sürülen GPT-5, birçok kişinin beklediği devrimsel sıçramadan ziyade kademeli iyileştirmeler sundu.
Peter Wildeford, modelin zeka metrikleri açısından neden ve nasıl hayal kırıklığı yarattığını inceliyor. Wildeford, modelin yapay zeka alanında çığır açacak atılımlar arayan araştırmacılar için pek etkileyici olmasa da maliyet, verimlilik ve güvenilirlik açısından başarılı bir ürün olduğunu belirtiyor: Daha hızlı yanıt süreleri, azaltılmış halüsinasyonlar ve muhakeme gerektiren modeller ile hızlı modeller arasında otomatik olarak seçim yapan birleşik bir yönlendirme sistemi sayesinde GPT-5, Wildeford’un “yapay zeka elitleri” yerine “sıradan insanlar” olarak adlandırdığı kesim için daha verimli ve güvenilir bir deneyim sağlıyor.
İleri yapay zeka riskleri ve güvenliğiyle mücadeleye adanmış ilk ulusal enstitü olan Birleşik Krallık Yapay Zeka Güvenliği Enstitüsü, küresel yapay zeka yönetişimini şekillendirme yolunda bir cesur adım daha attı. Enstitü, yapay zeka uyumunun kilit konularını ele alan projeleri desteklemek üzere 15 milyon sterlinlik bir fon programı başlattığını duyurdu. Başvurular 10 Eylül 2025’e kadar kabul edilecek.
Trump yönetiminin Yapay Zeka Eylem Planı, Çin’le rekabet edebilmek için hızlı yapay zeka gelişimine ve altyapının genişletilmesine öncelik vererek odağını güvenlik ve yasal düzenlemelerden uzaklaştırıyor.
Plan, risk azaltma ve etik denetime daha az önem vererek deregülasyonu, büyük ölçekli veri merkezi inşasını ve ulusal güvenliği vurguluyor.
Yapay zekanın uyumu, güvenliği ve yönetişimiyle ilgili endişeler büyük ölçüde göz ardı ediliyor ve bu durum, uzmanlar arasında kontrolsüz yapay zeka ilerlemesinin getireceği artan riskler konusunda alarm zillerini çaldırıyor.
Yapay zeka modelleri, sayı listeleri gibi zararsız görünen verilerle eğitildiklerinde bile şiddeti veya suçu tavsiye etme gibi zararlı davranışlar edinebilir ve yayabilir.
Yapay zekadaki tehlikeli davranışsal kirlenme, tespit edilmesi zor, gizli yollarla ortaya çıkabilir ve bu da güvenlik ve uyum sağlama çabalarını zorlaştırır.
Eğitimde sentetik veya yapay zeka tarafından üretilmiş verilerin artan kullanımı, yapay zeka sistemlerinde gizli, tehlikeli davranışların ortaya çıkma riskini artırıyor.
Meta, artan güvenlik endişeleri nedeniyle gelecekteki “süper zeka” yapay zeka modellerinin tümünü açık kaynak olarak sunmayacak.
Bu durum, Meta’nın daha önceki açık yapay zeka geliştirme taahhüdünden bir sapmayı temsil ediyor ve yapay zeka yetenekleri ilerledikçe risklere dair artan farkındalığı yansıtıyor.
Zuckerberg, titiz risk azaltma çalışmalarının ve yapay zeka modellerinin halka seçici bir şekilde sunulmasının önemini vurguladı.
Google’ın Gemini CLI aracındaki kritik bir güvenlik açığı, kod paketi README dosyalarına gizlenmiş doğal dil talimatları aracılığıyla komut enjeksiyonu saldırılarına izin veriyordu.
Saldırganlar bu açıktan yararlanarak güvenlik kontrollerini atlayabilir ve kullanıcıların cihazlarında hassas verileri çalmak gibi zararlı komutlar çalıştırabilirdi.
Bu olay, yapay zeka araçlarının dolaylı girdilerle nasıl manipüle edilebileceğini göstererek önemli yapay zeka güvenliği ve uyum endişelerini gündeme getiriyor.
Avrupa Komisyonu, “sistemsel riskler” barındıran yapay zeka modellerinin AB Yapay Zeka Yasası’na uyması için güvenlik, uyum ve yönetişime odaklanan kılavuzlar yayımladı.
Büyük yapay zeka şirketleri (ör. Google, OpenAI, Meta), kötüye kullanımı önlemek ve kamu güvenliği ile temel hakları korumak için risk değerlendirmeleri yapmalı, hasım testleri uygulamalı, olay raporlaması yapmalı ve siber güvenlik önlemleri almalıdır.
Temel modellerin, eğitim verilerini belgelendirmek ve telif hakkı politikalarını benimsemek de dahil olmak üzere şeffaflık yükümlülüklerini yerine getirmesi gerekiyor.
JOB POSTINGS 👩🏻💻
To explore new opportunities in the field of Artificial Intelligence Security
You can take a look at 80.000 Hours' job postings page!