Scroll Top

AI Safety Nedir ?

AI Safety Nedir ?
Biz, yapay zeka güvenliğini, yakın ve uzak dönem riskleri kapsayan geniş bir araştırma ve ve uygulama alanı olarak görüyoruz.

Ülkemizde “yapay zeka güvenliği” olarak adlandırdığımız AI safety kavramı, Türkiye’de “güvenlik” kelimesi çoğunlukla siber güvenlik bağlamında kullanıldığından, eskiden daha çok kavram karmaşısı yaratıyordu. Yapay zekanın günlük hayatımıza hızla entegre olduğu son birkaç senede, yapay zeka güvenliğinin geniş kapsamı da daha iyi anlaşılır oldu. Yapay zeka güvenliği, yapay zeka teknolojilerinin bireyler, toplumlar ve geniş anlamda insanlık üzerinde oluşturabileceği risklere karşı güvenlik önlemleri geliştirmeyi ve bu teknolojinin insanlara en faydalı şekilde geliştirilmesini amaçlar. Bu, hem yapay zekanın güvenle kullanılabilecek bir teknik altyapıya sahip olmasını hem de toplumun gelişmekte olan yapay zeka teknolojisine uyum sağlamasını kapsar.

Yapay zeka, eksponansiyel gelişen bir teknoloji. Bu, yapay zekanın ona daha fazla kaynak ayrıldıkça sabit bir hızla değil gittikçe katlanarak, yani bizim takip edemeyeceğimiz bir hızla gelişen bir teknoloji olduğu anlamına geliyor. Bu yüzden yapay zeka güvenliği yalnızca mevcut sistemlerin değil; aynı zamanda gelecekteki yapay zeka sistemlerinin de güvenli olmasını hedefler. Bu bağlamı bazen ‘yakın dönem riskler’ ve ‘uzak dönem riskler’ veya ‘dar (narrow) yapay zeka uygulamaları’ ve ‘genel yapay zeka (AGI)’ riskleri olarak ikiye ayrılmış, bazen birbiriyle çatışan iki kavram olarak görebilirsiniz. Biz, farklı önceliklere sahip olsa da bu iki alanın birbiriyle kol kola çalışabileceğini, yapay zeka için bütüncül bir güvenlik çerçevesi sunabileceğini düşünüyoruz.

Bu iki farklı risk alanına örnekler verip kavramı biraz daha pekiştirelim

Yakın dönem riskleri, mevcut yapay zeka sistemlerinin toplum üzerindeki etkilerinden kaynaklanır. Bu riskler, halihazırda karşılaştığımız veya kısa vadede karşılaşma olasılığımız olan sorunları kapsar. Örneğin, bazı iş başvurusu veya kredi onay sistemleri, farkında olmadan belirli gruplara karşı ayrımcılık yapabilir. Yapay zekanın karar verme süreçlerinde bu önyargılı (bias) sonuçlar üretebilmesi, toplumsal adaletsizliğe katkıda bulunabilir. Bir diğer yakın dönem riski ise yanlış bilgilendirme (disinformation) ve propaganda ile ilgilidir. Yapay zeka destekli araçlar, sahte haberlerin hızla yayılmasını kolaylaştırabilir ve yanlış bilgilerin toplumsal algıyı çarpıtmasına neden olabilir. Bu tür sorunlar, demokratik süreçlerin güvenliğini tehdit eder ve bireylerin bilgiye dayalı kararlar almasını zorlaştırır. Yakın dönem güvenlik önlemleri, bu riskleri azaltmak amacıyla yapay zeka sistemlerini daha şeffaf, izlenebilir ve denetlenebilir hale getirmeye odaklanır. Bu, algoritmaların bağımsız denetimlerden geçirilmesi ve önyargıların en aza indirilmesi için düzenli olarak test edilmesi anlamına gelir.

Uzak dönem riskleri, gelecekte ortaya çıkması muhtemel olan ve genellikle daha karmaşık yapay zeka sistemlerinin toplumsal etkilerini kapsar. Bu bağlamda, karşımıza AGI (Artificial General Intelligence – Yapay Genel Zeka) ve ASI (Artificial Super Intelligence – Yapay Süper Zeka) gibi insanların yapabileceği hemen her görevi insandan daha iyi yapabilecek oldukça güçlü ve genel sistemler karşımıza çıkar. Bu sistemlerin mekaniğinin henüz tam olarak anlaşılmaması ama sistemlerin hızla geliştirilmesi, bu sistemlerin güvenli olup olmadığına veya toplumumuzun bu sistemlerle gelecek değişimlere hazır olup olmadığına dair sorular doğurur.

AGI ile ilgili en büyük endişelerden biri, “alignment problem” olarak bilinen, yapay zekanın niyetlerinin insan niyetleriyle örtüşüp örtüşmediğini anlama problemidir. Günümüzdeki büyük dil modelleri (LLM) gibi gelişmiş modeller ve bu modelleri geliştiren şirketlerin hedeflediği gelecekteki AGI sistemleri, mekaniği tam olarak anlaşılmayan kapalı sistemler gibi çalıştıklaır için insan kontrolü dışına çıkabilir ve riskli sonuçlar üretebilir. Örneğin, günümüzdeki en gelişmiş modellerin kendi kendine geliştirdiği amaçları insan kullanıcılardan gizlediğine dair bulgularımız var. Gelecekteki modeller, onlara verilen bir görevi yerine getirmek için erişimleri olan kaynakları kötüye kullanabilir veya etik olmayan çözümlere başvurabilir. Buna verilen popüler bir örnek, çok gelişmiş kişisel bir asistanı kapatmak isterseniz, ona verilen bir görev nedeniyle kapanmaya karşı çıkabileceğini anlatır. Sonuç olarak kapalı bir robot, size kahve getiremez.

Bir diğer uzak dönem riski, toplumun hızla gelişen yapay zeka teknolojilerine hazır olmama durumudur. Gelişmiş yapay zeka teknolojilerinin hazırlıksız yakalanacağımız büyük bir işsizlik kriziyle veya yapay zekadan elde edilecek ekonomik faydanın dünyadaki gelir uçurumunu daha da arttıracağına dair endişeler, hiç de yersiz değil. Bunun için evrensel sabit gelir gibi bambaşka ekonomi modelleri geliştirmemiz gerekebilir.

Biz, yapay zeka güvenliğini, yakın ve uzak dönem riskleri kapsayan geniş bir araştırma ve ve uygulama alanı olarak görüyoruz. Yapay zeka geliştirme sürecinde etik ve güvenlik standartlarının oluşturulması, toplumsal etki analizlerinin yapılması ve risk yönetim sistemlerinin geliştirilmesi… Bu alanda hem mühendislik, matematik gibi teknik alanlardan hem de politika, psikoloji, hukuk gibi beşeri alanlardan çok fazla uzmanın, hem global hem yerel ölçekte yapabileceği pek çok şey var. Yapay zeka güvenliği alanındaki bu çabalar, insanlığı kucaklayan, güvenli, şeffaf ve etik değerlere dayalı bir yapay zeka geleceğini mümkün kılmayı hedefliyor. Bu yüzden, yapay zeka teknolojilerinin her aşamasında güvenliği sağlama ve insan merkezli bir gelecek inşa etme gayretine sahip her efor, bizim yapay zeka güvenliği tanımımıza fazlasıyla uyuyor.