KVKK ve E-ticaret yasalarında olduğu üzere yapay zeka düzenlemeleri alanında da Türkiye, Avrupa Birliği’ni takip ediyor. AB’de 1 Ağustos 2024’te yürürlüğe giren EU AI Act’i model alarak hazırlanmış gibi görünen Yapay Zeka Yasa Teklifi, 1 Haziran 2024 tarihinde meclise sunuldu. Bu yazıda, Türkiye’deki teklif ile EU AI Act arasında önemli bulduğumuz farkları, bu yasa ile oluşabilecek gri bölgelerin ve fırsatların neler olabileceğini özetleyeceğiz.
EU AI Act ve Türkiye’deki Yapay Zeka Yasa Teklifi’ni Karşılaştıralım
Öncelikle EU AI Act’in geçmişinin uzun olduğundan bahsetmeliyiz. 2021’de tasarısı başlayan bu yasa, son bir yıl içinde gelişmiş dil modelleri (LLMs: Large Language Models) gibi genel amaçlı yapay zeka teknolojilerinin yaygınlaşmasıyla bu modellerin güvenliği, insanların kontrol ve beklentilerinin dışına çıkmamasını amaçlayan maddelerle son halini aldı. Türkiye’deki yasa teklifinin bir tasarı değil teklif olduğunun altını çizelim, yani henüz bir yasa kadar uzun ve ayrıntılı geliştirilmemiş olmasını beklemek makul. Uzunluğu, EU AI Act’in %10’u kadar, içeriği ve detayları da bir o kadar sade ve az kapsamlı. Yine de belli başlı ilkeler belirlemek adına bu teklifin iyi bir başlangıç olduğunu söyleyebiliriz.
Yasaklanan Yapay Zeka Uygulama Alanları
EU AI Act, aşağıdaki alanlarda yapay zeka kullanılmasını kesin olarak yasakladı:
- İnsanları kandırmak, davranışlarını kötüye yönlendirmeye çalışmak, insanların zayıflıklarını istismar etmek
- İnsanların rızası olmadan onların hassas verilerini toplamak, bu verilerle önyargı ve ayrımcılığa yol açmak
- İnsanların hizmetlere ve iş fırsatlarına erişimlerini etkileyecek sosyal skorlama sistemleri geliştirmek
- İnsanların halka açık alanlarda bilgileri veya rızaları olmadan gerçek-zamanlı kimliklerinin saptanması ve buna yönelik gözetleme ve görsel toplanması
- Eğitim ve iş dünyasında insanların duygularının saptanması
Bizdeki yasa teklifi ise yapay zekanın aşağıdaki prensiplere uyması gerektiğini söylemekle birlikte uygulama alanlarına belli sınırlar çekmiyor:
- Güvenlik: Yapay zeka sistemlerinin güvenli ve risksiz çalışması
- Şeffaflık: Yapay zeka sistemlerinin ve süreçlerinin açık ve anlaşılır olması
- Adillik: Yapay zeka sistemleri ayrımcılık yapmaması ve adil olması
- Hesap Verebilirlik: Yapay zeka sonuçlarından sorumlu kişi ve kurumların belirlenebilmesi ve denetlenebilmesi
- Gizlilik: Yapay zeka sistemlerinin kişisel verileri koruma ve gizli tutma prensiplerine uyması
Teklif, özerk araçlar ve tıbbi teşhis sistemleri gibi bazı uygulama alanlarının yüksek risk içeren sistemler sayılacağını ve daha sıkı kurallara tabii olacağını ifade etse de EU AI Act’teki kadar keskin çizgiler sunan ve vatandaş haklarını doğrudan merkezine alan uygulama yasakları içermiyor. Bu farklılığın en çok soru işareti doğuran yönü, önümüzde Çin gibi vatandaşlarını yapay zeka teknolojisi ile sıkı şekilde gözetim altında tutan bir örnek de olduğu için AB’de açıkça yasaklanan bazı uygulamaların Türkiye’de ne kadar esneklikle karşılanacağının net olmaması. Henüz teklif aşamasında bile olsa, bu kadar temel bir yaptırımın teklifte yer bulmaması, tasarı aşamasında değerlendirilip değerlendirilmeyeceği hususunda merak uyandırıyor. Öte yandan, listelenen bu beş prensibin yapay zekadan oluşacak riskleri önlemede önemli rol oynayacağını elbette öngörebiliriz. Bu prensipler, 2021-2025 yılı için açıklanan Ulusal Yapay Zeka Stratejisi’nde yerli yapay zeka ekosistemimizin takip etmesi hedeflenen prensiplerle de neredeyse tamamen örtüşüyor. Bu açıdan da bu yeni yasa teklifinin mevcut milli yapay zeka stratejisini güçlendiren ve destekleyen nitelikte bir teklif olduğunu söyleyebiliriz.
Yapay Zeka Ekosistemindeki Aktörlerin Tanımları
İkinci bir fark, EU AI Act’te yapay zeka aktörlerinin Türkiye’deki yasa tasarısından daha net bir şekilde tanımlanmış olması. Yasalardaki cezai yaptırımlar doğrudan bu tanımlar üzerinden yapıldığından bu tanımlardaki netlik de oldukça önem arz ediyor.
EU AI Act’in 68 maddelik bir tanımlar bölümü var. Yapay zeka, risk gibi temel kavramlardan tutun yapay zeka modeli dağıtımcısı, yapay zeka modeli ithalatçısı gibi niş kavramlara kadar geniş bir tanım listesi var. Türkiye’deki yasa teklifi de aslında gündelik hayatta çok kullanmadığımız ama yasayla bire bir ilintili olan yapay zeka, sağlayıcı, dağıtıcı / kullanıcı, ithalatçı, distribütör, yapay zeka operatörü tanımlarını genel olarak EU AI Act’teki tanımlara paralel bir şekilde yapmış.
Bu tanımlar belki de teklifin en dikkat çeken bölümlerinden birinde, tanımı yapılan bu aktörlere ne sorumluluklar ve cezalar uygun görüldüğünün açıklandığı yerde karşımıza çıkıyor. EU AI Act, sorumlulukların ve cezaların listelendiği bölümde distribütörlere, model geliştiricilerine, model dağıtıcılarına ve daha başka pek çok aktöre ayrı bir başlık açıyor. Türkiye’deki yasa teklifinde ise cezalar yapay zeka operatörleri olarak adlandırılan, tanımını aşağıda bire bir paylaştığımız, ekosistemdeki tüm aktörleri kapsayacak şekilde belirtilmiş.
Yapay Zeka Operatörleri: Bu tanım, yapay zeka ekosistemindeki tüm paydaşları kapsayacak
şekilde geniş tutulmuştur. Sağlayıcılar, dağıtıcılar, kullanıcılar, ithalatçılar ve distribütörlerin
tamamını içeren bu tanım, yasa kapsamında yer alan tüm tarafların sorumluluklarım ve
yükümlülüklerini belirlemekte merkezi bir rol oynamaktadır.
Örneğin, yükümlülüklerin ihlali olarak tanımlanan, 15 milyon TL veya organizasyonun yıllık cirosunun %3’üne kadar varabilen para cezası, yükümlülüklere uymayan bir model geliştiren şirkete mi, bu modelin yükümlülüklere uyup uymadığını denetlemeden modeli kullanıma almış bir kullanıcıya mı veya belki de yurt dışında geliştirilen bu modeli Türkiye’de sunan bir distribütöre mi uygulanacak, burası teklife göre şimdilik net görünmüyor. Bu cezaların caydırıcı bir faktör olacağı şüphesiz ancak mevcut metindeki haliyle bu cezalar, yapay zeka ekosistemindeki aktörlerin sorumluluklarını net anlayamamalarından kaynaklı bir endişeye yol açabilir.
Gelişmiş Genel Yapay Zeka
Üçüncü ve son değineceğimiz nokta ise, genel yapay zeka sistemlerinin EU AI Act’te önemli bir yeri olmasına rağmen bizdeki teklifte bu modellere değinilmemiş olması. Bunlar, ChatGPT’nin arka planındaki gibi çok gelişmiş ve çok amaçlı, sadece teknik geliştirme basamakları dahi milyonlarca dolara mal olan, üretilmeleri için kullanılan bilgisayar gücünün de belli bir miktardan yüksek olduğu modeller. Mevcut modeller henüz insanlığı tehlikeye sokabilecek potansiyelde görülmese de bu modellerin ne kadar hızlı bir şekilde yeni kapabiliteler kazanbildiğini gören yapay zeka uzmanları, çok daha gelişmiş ve riskli modellerin yakında üretileceğini öngörüyor ve bu modellerin güvenilir, transparan, insan değerleriyle ve niyetleriyle uyumlu olmasının çok büyük önem arz ettiğinin altını çiziyor. Bu alanda uluslararası işbirliği sağlamak amacıyla başlatılan AI Safety Summit serisine Türkiye de katılmıştı, Paris’te düzenlenecek bir sonraki zirveye de katılacağımızı öngörebiliriz. EU AI Act’te tanımlanan gelişmişlik düzeyinde modelleri üretebilen OpenAI, DeepMind gibi şirketler şimdilik sayılı. Türkiye’de bu seviyede modeller üreten özel veya milli bir girişim olup olmadığına dair de net bir bilgimiz yok. Dolayısıyla yasanın bu bölümünün, Türkiye ile çok bir ilgisi olduğunu söyleyemeyiz. Fakat yapay zekanın artık milli güvenlik ve ekonomik kalkınma planlarına girdiği günümüzde, Türkiye’nin gelişmiş yapay zeka modellerine karşı ne gibi bir politika izleyeceğini, Türkiye’deki şirketlerin bu alanda ne gibi adımlar atacağını da bilmiyoruz. Bu gelişmiş modellerin denetlenmesi, test edilmesi, bu modellerin kullanıldığı uygulamaların kontrol altında tutulması oldukça büyük bir denetleme ekosistemini beraberinde getirecek. Bu alanlarla ilgiliyseniz daha çok bilgi almak için bizimle iletişime geçebilirsiniz.
Bizi Neler Bekliyor?
Türkiye’deki yapay zeka yasa teklifi kabul edilirse uygulama düzeyindeki detayların çoğu muhtemelen sonradan tanımlanacak. Bu durum EU AI Act için de geçerli. AB, bu yasa tasarısı ışığında European AI Board ve EU AI Office adlı iki organizasyon kurdu. Bu ikisi arasından yasaların uygulanması, ilgili testlerin tanımlanması, yasalara uyumluluğun denetlenmesi ve ülkelerin koordinasyonu gibi operasyonel işler daha çok EU AI Office’in sorumluluğunda olacak gibi görünüyor. Şüphesiz ki bu süreçlerin tamamı AB’de özel sektörde de pek çok yeni aktörün doğmasına ve mevcut aktörlerin iş yapış süreçlerini değiştirmesine yol açacak. Türkiye’deki aktörler için öngördüklerimiz ise aşağıdaki gibi:
- Eğer Türkiye’de bu yasa çerçevesinde bir denetleme şirketi kurmak, bu yasanın düzenlenmesine danışmanlıkta bulunmak veya bir hukukçu olarak mevzuatı yakından takip etmek istiyorsanız EU AI Office, muhtemelen Türkiye’deki detaylı uygulamalar tanımlanırken radar altında tutulan merkezlerden biri olacaktır.
- Eğer yapay zeka üreten veya kullanan bir organizasyonsanız, yasanın yapım sürecinden çok size uygulanması bölümüyle ilgileneceksinizdir. Bu durumda 3 farklı aktör ön plana çıkıyor:
- Yapay zeka üreten veya kullanan organizasyonlar
- Bu alanda denetleme işi kurmak isteyen girişimciler veya mevcut aktörler
- Sigorta, iş güvenliği gibi bu alandaki uygulamaların dolaylı yoldan ilgilendirebileceği aktörler
Bu yasa kapsamında hatırı sayılır bir denetlemeden geçecek şirketlerin çoğu, denetlemeden önce bir hazırlık için bir tür danışmanlık veya ürün ihtiyacı duyacaktır. Bunu kendi içlerinde kurabilecekleri gibi dışarıdan danışmanlık veya bir çözüm olarak da almak isteyebilirler. Bunun yanında bu yasal düzenlemeyi resmi olarak denetleyecek kurumların da bir tür akreditasyondan geçen özel denetleme kuruluşları olacağını öngörmek mümkün. Dolayısıyla bu yasa tasarısı, denetleme alanında pek çok yeni girişime öncülük edebilir. Aynı şekilde dolaylı yoldan bu alanlarla etkileşimde bulunan sigorta ve iş güvenliği gibi alanların da bu yasa tasarısını yakından takip etmesi, şirketlerden bu yasaya karşı korunmak için gelen taleplere ne gibi ürünler sunacaklarını hazırlamaları için erken bir zaman diyemeyiz.
Peki ya denetlenecek olanlar? Muhtemelen en büyük belirsizlik onları bekliyor. Hem yüksek cezalarla karşılaşabilecek olma riski hem de yasa tasarısındaki mevcut belirsizlik, şirketlerde bir tedirginliğe yol açabilir, hatta yatırım bakış açısından inovasyona ve şirketlerin yapay zeka alanındaki AR-GE yatırımlarına ket vuracak bir hamle olarak yorumlanabilir. Öte yandan teknoloji ekosisteminin sürdürülebilir büyümesi için yeniliklerin insanları ve toplumları gözeten, iyileştiren, onlarla uyumlu hareket edebilen nitelikte olması şart. Bu açıdan bakıldığında, kısa vadede bir belirsizlik ve türbülans yaratabilecek bu gibi uygulamaların net, bilgiye dayalı bir şekilde tanımlandığı ve adil uygulandığı bir düzende her aktöre fayda getireceğini bekleyebiliriz.
Elbette bu yasa teklifini incelerken bu metnin sadece bir teklif olduğunu, dahası yasalarda kullanılan dilin çok spesifik olmasının da bazen yasayı darlaştırıcı bir etkisi olduğunu da göz önünde bulundurmak gerek. Tekliften tasarıya ve kabule uzanan bu yolculukta ayrıntılı tanımlar, hangi mevzuatı hangi kurumun sürdürüeceği ve denetleyeceği gibi pek çok detay belirlenecektir. İyi bir başlangıç olarak değerlendirdiğimiz bu teklifin bilhassa zamanla mevcut başlıklardan daha fazla başlığa ihtiyaç duyacağı şüphesiz. Örneğin, AB ile uyum süreci tekrar gündeme gelirse, EU AI Act’te olduğu gibi bizim yasamızda da yüksek riskli ve yasaklı uygulamaların açıkça belirtilmesi önem arz edecektir. Yapay zeka aktörlerinin tanımların ve her birinin sorumluluklarının da mevcut yasa teklifinden çok daha detaylı yapılması, bu yasa çerçevesinde işleyecek hukuki süreçlere güvenilirliği destekleyecektir. Bu gibi olumlu değişikliklerin yasa teklifinin ilerleyen aşamalarında yer bulmasını umarak süreci yakından takip etmeye ve sizlerle paylaşmaya devam edeceğiz.
Kaynaklar
EU AI Act’e dair önemli gelişmelere yer vereceğimiz aylık haber bültenimizi ve Risto Uuk tarafından düzenlenen, yalnızca EU AI Act’e odaklanan bu haber bültenini takip etmenizi öneririz.