Bu yazıyı AI Safety alanına ilgisi olan veya olabileceğini düşünen ama bu alanın tam olarak neleri kapsadığından emin olmayanlara bir başlangıç noktası sunmak adına hazırladık.

İngilizce kaynaklarda AI Safety olarak tanımlanan, Türkçe’ye Yapay Zeka Güvenliği olarak çevirebileceğimiz kavram ChatGPT’nin de söylediği gibi yapay sistemlerinin yol açacağı riskleri en aza indirgeme çabalarının bütünü olarak nitelendirilebilir. Türkçe’ye çevirilmiş hali akla bazen siber güvenliği getirse de Yapay Zeka Güvenliği siber güvenlikten oldukça farklı, yer yer onunla kesişse de siber güvenliğin bir üst ya da alt dalı değil. Bu yazıda Yapay Zeka Güvenliği kavramının dünyada nasıl ele alındığını kısaca özetlemeye çalışacağız.

Bu kavramı daha iyi anlamamız için önce yapay zeka sistemlerinden kaynaklı riskleri anlamamız gerekiyor. Bu riskler bazı yabancı kaynaklarda yakın dönemli ve uzak dönemli riskler olarak ikiye ayrılıyor. Farklı açılardan bakıldığında eksik olacağını kabul etmekle birlikte, genel bir resim çizme için bu riskleri basitçe şöyle açıklayalım:

  • Yakın dönemli riskler: Günümüzde aktif olarak kullanılan sistemlerden doğan ya da doğabileceğini ön gördüğümüz riskler olarak düşünebiliriz. Bu risklerin temel nedenlerinden bazıları yapay zekanın geliştirilmesinde kullanılan veri setindeki problemler veya bu sistemlerin güvenlik açığı ile kötü niyetli kullanıcılar tarafından istismar edilebilmesi. Örneğin Coded Bias belgeseli, ABD’de kullanılan bazı yüz tanıma algoritmalarının Afrikan-Amerikan insanların yüzlerini tanımadığını ve bunun bu algoritmalarda kullanılan veri setinin tüm ABD halkını yeterince temsil etmemesinden kaynaklandığını ortaya koydu. [1]
  • Uzak dönemli riskler: İleride daha gelişmiş, insan düzeyinde ya da insan ötesi kabiliyetlere sahip sistemlerden doğabilecek riskler olarak düşünebiliriz. Bu risklerin temel bir sebebi, kullandığımız en gelişmiş yapay zeka paradigmalarının ‘bu şartlar altında şunu yap’ gibi kuralları takip etmektense dağınık bir veri setinden kendi kendine kurallar çıkartarak kapalı bir kutu gibi çalışabiliyor olması. Henüz var olmayan risklere genelde o riskin boyutuna göre ehemmiyet gösterilir. Bu kapsamda bazı uzmanlar, yapay zekanın önümüzdeki yüz yıl içinde insanlığın var oluşunu tehdit edebileceğini savunuyor. Bu riskin ayağı yere basan nedenlerini öğrenmek için şu videoyu faydalı bulabilirsiniz.

Bu iki risk alanı bazen otorite mercilerinin dikkatini çekmek adına rekabet içindeymiş gibi görülüyor. [2] Fakat ileride doğacak riskleri anlamak adına var olan riskleri çözmenin önemi çok büyükken var olan risklerin de ileriye dönük yansımalarının düşünülmesi gerektiği, yani bu iki alanın birbiriyle sıkı sıkıya ilişkili olduğu yadsınamaz. [3]

Yapay zeka güvenliğinin temel amacına ve söz konus risklere kısaca değindikten sonra yazının temel amacına dönersek, bu alanla ilgiliyseniz, aşağıdaki motivasyonlardan birine sahip olabilirsiniz demektir:

  • Bir kullanıcı veya yapay zekayı işinin bir parçası haline getirmek isteyen bir profesyonel olarak bu sistemleri bilinçli kullanmak
  • Teknik alanlardan (bilgisayar bilimi, elektronik mühendisliği, matematik…) beşeri alanlara kadar (felsefe, hukuk, politika…) bu alanda kendine yer bulan ve ihtiyacı gittikçe artan uzmanlık ve iş alanlarını tanımak
  • Günümüzün en hızlı gelişen ve değişen teknolojisini takip edip dünyamızda yaratacağı etkileri kestirebilmek ve ortamlarda güzel bir tartışma döndürebilmek

Bu alana ilgi duyuyorsanız, hello@aisafetyturkey.org adresine e-posta atarak:

A. Ocak 2024 içinde paylaşacağımız AI Safety Kariyerleri sayfasının linkini e-posta olarak almayı isteyebilirsiniz

B. Sizin gibi insanları bir araya getirmeyi hedefleyen okuma gruplarından, hackathon’lardan veya parçası olabileceğiniz öğrenci gruplarından haberdar olabilirsiniz.

Eğer bize e-posta ile ulaşırsanız lütfen yukarıdaki iki iletişim seçeneğinden hangisini (A veya B) tercih ettiğinizi belirtin. Sizi spam’lemek istemeyiz. Kendinizi tanıtabilirsiniz de, tanışmaktan memnuniyet duyarız!

Yazıyı bitirirken eklememiz gerekir ki AI Safety anahtar kelimesi ile yola çıkarsanız bu kavramın genelde teknik yapay zeka güvenliği alanına girdiğini, bu işin toplumsal boyutunun ise daha çok AI Ethics ve AI Governance gibi anahtar kelimeler altında kaldığını görebilirsiniz. Bu alanların ayrıntılarını kapsayacak ve daha çok kaynağı anlamlı bir şekilde bir araya getirip özetleyecek Türkçe paylaşımlarımız devam edecek. O zamana kadar kendiniz başlamak isterseniz, incelemenizi tavsiye edebileceğimiz birkaç organizasyon (hepsi ABD veya İngiltere merkezli) şu şekilde: Center for AI Safety, Partnership on AI, Governance of AI, AI Now. Ayrıca Evrim Ağacı’nın şu yazısı da ilginizi çekebilir.

1 https://www.media.mit.edu/posts/how-i-m-fighting-bias-in-algorithms/

2 https://www.fhi.ox.ac.uk/wp-content/uploads/Near_term_long_term.pdf

3 https://www.nature.com/articles/s42256-018-0003-2