Anthropic-Pentagon Krizi

· Blog

Anthropic-Pentagon Krizi

Bir yapay zekâ şirketi, dünyanın en güçlü ordusuna “hayır” derse ne olur?

Şubat 2026’nın son haftasından beri bu sorunun cevabını görüyoruz. Claude modellerinin geliştiricisi Anthropic, ABD Savunma Bakanlığının1 taleplerini reddetti. Birkaç gün içinde şirket “ulusal güvenlik tedarik zinciri riski” (supply chain risk) olarak tanımlandı; federal kurumlar genelinde kullanımın durdurulmasına dönük bir süreç başlatıldı ve yüz milyonlarca dolarlık sözleşmeleri tehlikeye girdi. Ardından Anthropic, Trump yönetimine dava açtı. Rakip şirketlerin bazı çalışanları Anthropic’i destekledi, ABD Kongresinde yapay zekâya yönelik yeni kısıtlamalar önerildi ve mesele hızla bir şirket-devlet anlaşmazlığının ötesine bir boyuta ulaştı.

Bu kriz bize önemli bir şeyi hatırlattı: yapay zekâ güvenliği tartışmaları artık yalnızca laboratuvarda yapılan testlerden, model kartlarından ya da soyut ilke metinlerinden ibaret değil. Güvenliğin bir kısmı artık ihale ilanlarında, tedarik sözleşmelerinde ve kullanım şartlarında yazılıyor. Bazen bir modelin geleceğini, bir ölçüt (benchmark) sonucu değil, sözleşmedeki tek bir ifade belirliyor: all lawful purposes yani “tüm hukuka uygun amaçlar”.

İşte bu yazıda tam olarak bunu konuşacağız. Anthropic’in neden geri adım atmadığını, Pentagon’un neden bu kadar sert karşılık verdiğini, OpenAI’ın neden aynı gün devreye girdiğini ve bütün bunların AI güvenliği açısından neden bir dönüm noktası olabileceğini.

Arka plan: Anthropic zaten savunma sanayii haricinde bir aktör değildi

Bu haber, “barışçıl bir şirket askerî alanla karşı karşıya geldi” tarzında bir öykü değil. Anthropic, ABD ulusal güvenlik kurumlarıyla 2024’ten bu yana çalışıyordu. Şirketin kendi açıklamalarına göre Claude modelleri istihbarat analizi, modelleme ve simülasyon, operasyonel planlama ve siber operasyonlar gibi alanlarda kullanılıyordu. Basın raporları ve dava dilekçeleri de anlaşmazlığın yaklaşık 200 milyon dolarlık bir Pentagon sözleşmesi ve gizli (classified) ortamlardaki konuşlandırmalar etrafında döndüğünü aktardı.

Bu ayrım önemli. Çünkü ortada “devletle çalışmayı ilkesel olarak reddeden” bir şirket yoktu. Daha çok, “çalışırım ancak bazı kullanımlara hayır derim” diyen bir şirket vardı. Anthropic’in pozisyonu “orduya asla AI verilmesin” değildi. Hatta şirket kendi resmî açıklamasında, Çin Komünist Partisi’yle bağlantılı olduğu değerlendirilen firmalardan önemli miktarda geliri reddettiğini, ÇKP destekli siber saldırıları engellediğini ve güçlü çip ihracat kontrolleri için lobi yaptığını özellikle vurguladı. Yani mesele işbirliğinin kendisi değil, işbirliğinin sınırlarıydı.

Tam da bu yüzden kriz bu kadar çarpıcıydı. Sorun “Şirket devlete karşı mı?” sorusu değil, “Şirket devletle çalışırken nereye kadar sınır koyabilir?” sorusuydu.

İki kırmızı çizgi: bu olay neden bu kadar büyüdü?

Anthropic’in ısrar ettiği iki istisna vardı ve kriz de büyük ölçüde bu iki çizgi etrafında döndü.

Birincisi: kitlesel iç gözetim (mass domestic surveillance). Anthropic, Claude’un Amerikan vatandaşlarını toplu olarak gözetlemek için kullanılmasına izin vermeyeceğini söyledi. Şirketin mantığı şuydu: yapay zekâ, güvenlik kameraları, konum verileri, finansal işlemler, iletişim kayıtları ve sosyal medya gibi parçalı veri kaynaklarını tek bir büyük gözetleme sisteminde birleştirebilir. Bugün ayrı ayrı duran veri akışları, güçlü modeller sayesinde tek merkezde işlenebilir, sınıflandırılabilir ve gerçek zamanlı hale getirilebilir. Şirket buna yalnızca teknik bir risk olarak değil, demokratik değerlere mugayir bir olasılık olarak bakıyordu.

İkincisi: tamamen otonom ölümcül silahlar (fully autonomous lethal weapons without human oversight). Anthropic, hedef seçiminde ve ateş açma kararını kendi kendine veren sistemler için Claude’un kullanılmasına izin vermeyeceğini açıkladı. Buradaki teknik argümanı da dikkat çekiciydi: bugünün sınır model sistemleri, bu kadar yüksek riskli görevler için yeterince güvenilir değil. Bir model yanlış sınıflandırabilir, bağlamı kaçırabilir, eksik veriden aşırı emin sonuçlar üretebilir ya da insan karar vericiler üzerinde olduğundan fazla güven etkisi yaratabilir. Böyle alanlarda hata maliyeti, sıradan bir ürün hatası maliyeti değildir. Mesele kötü kullanıcı deneyimi değil; mesele insan hayatıdır.

Burada önemli bir nüans var. Anthropic, tamamen otonom silahların gelecekte ulusal savunma açısından kritik olabileceğini kategorik olarak reddetmiyordu. Şirketin çizgisi daha çok şuydu: “Belki bir gün, ama bugün değil. Bu teknoloji henüz buna hazır değil.” Hatta Anthropic’in, bu tür sistemlerin güvenilirliğini artırmaya dönük ortak Ar-Ge seçeneğini masaya koyduğu; Pentagon’un ise esas olarak kullanım yetkisini genişletmeye odaklandığı basına yansıdı.

Pentagon’un pozisyonu ise farklı bir mantığa dayanıyordu. Basın raporlarına ve dava kayıtlarına göre Savunma Bakanlığı, sözleşmelerde “tüm hukuka uygun kullanımlar” (all lawful purposes) ifadesini standart hale getirmek istiyordu. Yönetimin mantığı kabaca şuydu: ulusal güvenlik görevlerinde son sözü şirketlerin kullanım politikaları değil, hukuk ve askerî komuta zinciri söylemelidir. Beyaz Saray sözcüsünün sözleri bunu kaba ama açık bir dille özetliyordu: “Ordumuz Anayasa’ya itaat edecek: herhangi bir ‘woke’ yapay zekâ şirketinin kullanım koşullarına değil.”

Bu argüman tamamen manasız değil. Devletin, özellikle savaş gibi yüksek riskli alanlarda, özel şirketlerin tek taraflı veto gücünden rahatsız olması beklenebilir. Ama AI güvenliği açısından kritik soru tam burada ortaya çıkıyor: Hangi hukuk? Bugünkü hukuk mu? Yarın değişebilecek hukuk mu? Belirsiz gri alanlar mı? Otonom silahlar konusunda uluslararası normlar hâlâ oturmuş değil. ABD’nin kendi politikası olan 3000.09 Numaralı Savunma Bakanlığı Yönergesi “uygun düzeyde insan muhakemesi” talep ediyor, ama mutlak ve kati bir yasak getirmiyor. Yani “hukuka uygun” ifadesi kulağa makul gelse de, teknolojinin hızına yetişemeyen bir hukuk düzeninde tek başına güven verici bir sınır oluşturmuyor.

Dananın kuyruğu da işte burada koptu.

Krizin kronolojisi: ültimatomdan kara listeye

Olayların akışını kısaca toparlayalım.

9 Ocak 2026: Savunma Bakanı Pete Hegseth, yapay zekâ stratejisini ortaya koyan bir iç muhtıra (memo[randum]) yayımladı. Bu belge, bakanlığın “AI-öncelikli savaş gücü” haline gelmesini ve ileri modellerin şirketlerin kendi kullanım kısıtlarından bağımsız biçimde değerlendirilmesini hedefliyordu.

Şubat sonu: Basın raporlarına göre müzakerelerin düğümlendiği noktalardan biri, Pentagon’un sözleşmeden büyük ölçekli veri analiziyle ilgili sınırlayıcı dili çıkarmak istemesiydi. Anthropic bunu, özellikle kitlesel iç gözetleme riskine karşı kalan son frenlerden biri olarak görüyordu.

24–27 Şubat: Basın raporları ve hukuki analizler, Pentagon’un Anthropic’e bir son tarih verdiğini ve iki tür baskı seçeneği sunduğunu aktardı: Savunma Üretim Yasası’nı (Defense Production Act) kullanarak işbirliğine zorlamak ya da şirketi “tedarik zinciri riski” ilan etmek.

Burada ilginç bir çelişki vardı. Eğer bir şirket Savunma Üretim Yasası devreye sokulacak kadar vazgeçilmezse aynı anda ulusal güvenlik tedarik zinciri için kabul edilemez risk olarak damgalanması nasıl açıklanacaktı? Eleştirmenlerin bir kısmı tam da bu mantıksal gerilime dikkat çekti.

27 Şubat: Anthropic geri adım atmadı. Dario Amodei, bakanlığın yüklenici seçme hakkını teslim etmekle birlikte, Claude’un silahlı kuvvetlere sağladığı değerin yeniden düşünülmesini umduğunu söyledi. Anthropic’in dava dilekçesine göre aynı gün Başkan Trump sosyal medya üzerinden federal kurumlara Anthropic teknolojisinin kullanımını durdurma çağrısı yaptı; Hegseth de şirketi “tedarik zinciri riski” ilan edeceğini duyurdu.

5 Mart: Anthropic, bu sınıflandırmayı doğrulayan resmî mektubu aldığını açıkladı. Şirket, ilgili yetkinin dar yorumlanması gerektiğini ve “en az kısıtlayıcı araç” ilkesinin göz ardı edildiğini savundu.

6 Mart: Basın raporlarına göre Pentagon CIO’su Kirsten Davies’in imzaladığı bir iç muhtıra, askeri komutanlara ve yüklenicilere 180 gün içinde Anthropic ürünlerini sistemlerinden çıkarmalarını bildirdi. Burada dikkat çekici olan yalnızca takvim değildi; kapsam da çok çarpıcıydı. Bu kaldırma sürecinin nükleer silah sistemleri, balistik füze savunması ve siber savaş altyapıları gibi çok hassas alanları kapsadığı bildirildi. Siyasi mesaj sertti. Teknik gerçeklik ise siyah-beyaz değildi: bir teknoloji tedarik zincirine bir kez gömüldüğünde, onu bir gecede söküp atmak kolay olmuyor.

9 Mart: Anthropic hem Kaliforniya Kuzey Bölgesi’nde hem de Washington D.C. hattında dava açtı. Şirketin hukuki çerçevesi üç eksende ilerliyordu: ifade özgürlüğüne misilleme, usule ilişkin hakların ihlali ve yetki aşımı.

Bu arada savaş alanında: Claude hâlâ kullanılıyordu

Krizin en çarpıcı boyutlarından biri, Claude’un fiili askerî operasyonlardaki rolüne dair basın raporlarıydı. Wall Street Journal ve Washington Post’un aktardığına göre Claude, Ocak ayında Venezuela Devlet Başkanı Nicolás Maduro’nun yakalanması operasyonunda ve İran’a yönelik askerî operasyonlarda istihbarat analizi ve hedefleme desteği için Palantir’in sistemleri üzerinden kullanıldı. Anthropic’e yakın kaynaklara dayanan haberlere göre Claude’un bu operasyonlardaki rolü, büyük hacimli istihbarat raporlarını analiz etmek, kalıpları tespit etmek ve bulguları insan analistlere sunmaktı; doğrudan “şu hedefi vur” tavsiyesi vermek değil.

Ama asıl dikkat çekici olan zamanlamaydı. Basın raporlarına göre Pentagon’un Claude’u “tedarik zinciri riski” ilan ettiği dönemde, ABD ordusu aktif operasyonlarda Claude kullanmaya devam ediyordu. Bir modelin aynı anda hem “ulusal güvenlik riski” sayılması hem de savaş alanında kullanılmaya devam etmesi, krizin mantıksal tutarsızlığını çok çarpıcı biçimde gösteriyordu.

Burada dikkatli olmak gerekiyor. Bu operasyonların ayrıntıları kamuya açık kayıtlarla bağımsız olarak doğrulanması zor bilgiler. Doğaları gereği anonim kaynaklara ve basın raporlarına dayanıyorlar. Yine de bu raporlar, kriz etrafındaki tartışmanın neden bu kadar sertleştiğini anlamak açısından önemli.

OpenAI’ın rolü: çözüm mü, güvenlik tiyatrosu mu?

Krizin en tartışmalı başlıklarından biri de buydu: basın raporlarına göre Anthropic’in cezalandırılmasından saatler sonra OpenAI, Pentagon ile kendi anlaşmasını duyurdu.

Önce olanı sade biçimde koyalım. OpenAI, modellerini Pentagon’un gizli sistemlerinde konuşlandırmak için bir anlaşma yaptığını açıkladı. CEO Sam Altman, bu anlaşmanın önceki örneklerden bile daha fazla koruma içerdiğini ve Anthropic’in savunduğu kırmızı çizgilerin özüne bağlı kaldığını söyledi.

OpenAI bunu nasıl çerçeveledi? Şirketin kamuoyuna açıkladığı çerçeveye göre modeller “tüm yasal amaçlar” için kullanılabilecekti; ama kitlesel iç gözetleme ve otonom silah yönlendirmesi yasaklı olacaktı. Sonraki güncellemelerde ABD vatandaşlarına yönelik gözetleme ve ticari olarak edinilmiş kişisel verilerle izleme de yasaklı alanlar arasına eklendi.

Peki Anthropic neden bunu yetersiz gördü? Çünkü kilit fark sözleşmenin yapısındaydı. Anthropic, bazı yasakların doğrudan sözleşme metninde bağlayıcı sınırlar olarak yer almasını istiyordu. OpenAI’ın yaklaşımı ise “all lawful purposes” ifadesini kabul edip bunun üzerine bir güvenlik katmanı koymak gibiydi. Kamuya sızan ve basında aktarıldığı kadarıyla Amodei, bu yaklaşımı “güvenlik tiyatrosu” (safety theater) diye eleştirdi. Altman da anlaşmanın zamanlamasının “fırsatçı ve özensiz göründüğünü” kabul etti, ama içeriğini savundu.

Burada bizim açımızdan asıl soru şu: Bu gelişmeyi nasıl okumalıyız?

İyi niyetli okuma şu olabilir: OpenAI çalışmayı kabul etti ama bunu katmanlı güvencelerle sınırladı. Daha kötümser okuma ise şu: “tüm yasal kullanımlar” dilini koruyup üstüne güvenlik söylemi eklemek, yönetişim sorununu çözmüyor; onu yalnızca yüzeyel olarak daha kabul edilebilir gösteriyor.

Üstelik temel problem ortada kalıyordu: yasakların kapsamı, nasıl uygulanacağı, kim tarafından denetleneceği ve ihlal halinde ne olacağı, tam sözleşme metni kamuya açık olmadığı için dışarıdan net biçimde görülemiyordu. OpenAI’ın kendi ulusal güvenlik politika sorumlusu Connie LaRossa’nın koşulların hâlâ müzakere edildiğini söylemesi de bu belirsizliği azaltmıyordu.

Bütün buna rağmen OpenAI’ın, Anthropic’e uygulanan “tedarik zinciri riski” etiketini desteklemediğini söylemesi de önemliydi. Yani bir yandan rakibinizin boşalttığı alanı dolduruyor, diğer yandan ona uygulanan yaptırımın tehlikeli bir emsal oluşturduğunu kabul ediyorsunuz. Bu da rekabet ile norm koyma arasındaki gerilimi açıkça gösteriyordu.

Anthropic yalnız kalmadı

Krizin belki de en dikkat çekici ve umut verici yönü, endüstri içinden gelen destek dalgasıydı.

Anthropic’in dava açtığı gün, 37’den fazla Google DeepMind ve OpenAI çalışanı (aralarında Google’ın baş bilimcisi Jeff Dean de vardı) Anthropic’i destekleyen bir amicus brief sundu. Çalışanlar kendi adlarına hareket ettiklerini söyledi. Mesajları netti: Anthropic’in kırmızı çizgileri, teknoloji dünyasında marjinal değil; bilakis, bilim camiasında ciddi biçimde hakim olan meşru kaygıların bir tezahürüydü.

Destek bununla sınırlı kalmadı. “We Will Not Be Divided” başlıklı açık mektup, Google ve OpenAI çalışanlarını Anthropic’in iki kırmızı çizgisi etrafında ortak tavra çağırdı. Basın raporlarına göre yüzlerce çalışan, Google tarafında 900’ün üzerinde imzayla bu çağrıya destek verdi. Microsoft da Anthropic lehine ayrı bir amicus brief sundu. IT Industry Council gibi büyük bir teknoloji ticaret birliği ise Pentagon’a mektup göndererek bu tür olağanüstü yetkilerin normalde yabancı düşmanlara karşı tasarlandığını hatırlattı.

Kongre tarafında da yankı vardı. Kaliforniya Temsilcisi Sam Liccardo, Savunma Üretim Yasası’nın güvenlik önlemleri alan teknoloji şirketlerine karşı misilleme aracı gibi kullanılmasını sınırlamaya dönük bir değişiklik teklifi sundu. Liccardo’nun özeti sertti: “Ortada yasa yok. Yasa teknolojinin yıllar gerisinde.” Teklif reddedildi; ama teşhis ortadan kalkmadı.

Bütün bunlar önemliydi, çünkü krizi “bir şirket Pentagon’a kafa tuttu” anlatısından çıkarıp daha geniş bir yönetişim tartışmasına dönüştürdü. Mesaj açıktı: bugün bir laboratuvar kırmızı çizgi koyduğu için cezalandırılırsa, yarın başka hiçbir laboratuvar bu çizgileri koymaya cesaret edemeyebilir.

Tarihsel paralel: Project Maven neden yeniden gündemde?

Bu kriz doğal olarak 2018’deki Google-Project Maven olayını hatırlattı. O dönem Google çalışanları, şirketin Pentagon için drone görüntülerini analiz eden bir AI projesinde yer almasına itiraz etmişti. Binlerce imza toplandı, çalışanlar istifa etti ve şirket sonunda sözleşmeyi yenilememe kararı aldı.

Ama 2026’nın şartları 2018’den farklı. O dönemde “çekilmek” daha gerçekçi bir seçenekti; çünkü yapay zekânın askerî entegrasyonu henüz daha başlangıç aşamasındaydı ve Pentagon’un seçenekleri sınırlıydı. 2026’da ise birden fazla sınır model laboratuvarı (mesela OpenAI, Google, xAI ve başkaları) savunma sözleşmeleri için aktif biçimde yarışıyor. Bu da benzeri bir çekilme stratejisini baştan zayıflatıyor, bu tarz maksimalist politikalar 2018’den çok daha az etkili. Bir şirket reddederse, diğeri çok kısa sürede devreye girebiliyor.

Yapay zekâ güvenliği açısından bu, oldukça endişe verici bir dibe doğru yarış (race to the bottom) dinamiği yaratıyor. Eğer güvenlik sınırları koymanız sizi pazarda cezalandırıyor ve rakibiniz bu sınırları esnetmeye daha istekliyse, piyasa teşvikleri güvenlik aleyhine çalışmaya başlıyor. Sonucun kaçınılmaz olduğunu söylemek için erken; ama riskin gerçek olduğunu inkâr etmek delilik olur.

Bu kriz bize ne öğretiyor?

Bu krize yalnızca “Anthropic mi haklı Pentagon mu haklı?” diye bakarsak resmi eksik görürüz. Pentagon’un argümanı basit: hiçbir devlet, savaş gibi bir alanda özel şirketlerin tek taraflı veto gücüyle yaşamak istemez. Anthropic’in argümanı da açık: mevcut modeller, kitlesel gözetleme ve otonom ölümcül kullanım gibi alanlarda güvenilir araçlar değildir. Sorun, bu iki pozisyonun ilk kez bu kadar açık ve sert biçimde çarpışması ve ortada bunu çözecek olgun bir yönetişim çerçevesinin bulunmaması.

Buradan birkaç önemli ders çıkıyor.

Birincisi: “Yasal olan” ile “güvenli olan” aynı şey değildir. Bu krizin gerçek omurgası bu. Yasalar otonom silahlar ve kitlesel gözetleme konusunda netleşmeden, “yasal olan her şey serbesttir” mantığı güvenli bir sınır oluşturmaz. O durumda sınırları, güvenlik mühendisliği ya da demokratik müzakere değil, mevcut güç ilişkileri belirlemeye başlar.

İkincisi: sözleşmeyle yönetişim (regulation-by-contract) kırılgan bir modeldir. Şu anda YZ’nin askerî kullanım sınırlarını kapsamlı yasalar ya da uluslararası anlaşmalar değil, fiilen tedarik sözleşmeleri ve şirket politikaları belirliyor. Bu model hızlı olabilir, ama demokratik açıdan sorunlu ve kurumsal olarak kırılgandır. Kapalı kapılar ardında kurulur, kamu denetimi sınırlıdır ve siyasi iklim değiştiğinde bir gecede tersine dönebilir.

Üçüncüsü: “insan denetimi” sihirli bir çözüm değildir. Bir sözleşmede “insan döngüde” (human in the loop) yazması tek başına yeterli değil. Asıl soru, insanın gerçekten etkili bir durdurma gücüne sahip olup olmadığıdır. Bir operatör son ekranda yalnızca “onayla” düğmesine basıyorsa ama sistemin önerisini anlamlı biçimde denetleyemiyorsa, buna ne kadar gerçek insan kontrolü diyeceğiz?

Dördüncüsü: dibe doğru yarış riski somuttur. Bir laboratuvar kırmızı çizgi koyduğunda cezalandırılıyor, diğeri aynı gün anlaşma imzalıyorsa, piyasaya verilen sinyal açıktır: daha esnek ol, daha çok iş al. Bu yüzden yapay zekâ güvenliğinde yalnızca şirketlerin iyi niyetine güvenmek yetmez. Güvenliği koruyan ortak taban kurallara, kurumlara ve daha dayanıklı standartlara ihtiyaç var.

Beşincisi: güvenlik taahhütleri ancak baskı altında test edildiğinde gerçek anlam kazanır. Anthropic çizgisini korudu; ama bunun bedeli çok yüksek oldu. Bu da bize önemli bir şeyi hatırlatıyor: yalnızca tek tek şirketlerin cesaretine dayanan bir güvenlik modeli sürdürülebilir değil. Bugün cesur bir şirket çıkabilir, yarın çıkmayabilir. Kalıcı olan şey, yapısal korumalar olmalı.

Şu an neredeyiz?

Mart 2026 ortası itibarıyla davalar sürüyor. Basın raporlarına göre yakın tarihlerde yeni duruşmalar bekleniyor. 180 günlük geçiş süreci ise ilginç bir tablo yaratıyor: Claude’un bazı askerî sistemlerde bir süre daha kullanılmaya devam etmesi muhtemel; tam da kaldırılması emredilirken.

Kamuya yansıyan açıklamalar da birbiriyle çelişiyor. Pentagon cephesi müzakerelerin fiilen bittiğini söylüyor. Anthropic ise görüşmelerin tamamen kapanmadığını ima ediyor. Bu da bize artık kamusal anlatıların yalnızca iletişim değil, aynı zamanda dava stratejisinin parçası olduğunu gösteriyor.

Önümüzde kabaca üç olasılık var. Mahkemeler Anthropic lehine ihtiyati tedbir kararı verebilir ve etiketin etkisini sınırlayabilir. Sektör genelinde ortak bir güvenlik çerçevesi üzerinde uzlaşı aranabilir. Ya da bunların hiçbiri olmaz ve daha esnek şirketlerin savunma piyasasında avantaj kazandığı, güvenlik sınırlarının ise rekabet baskısıyla aşındığı bir döneme girilebilir.

Kapanış

Bu kriz bize şunu gösterdi: Güçlü yapay zekâ modelleri için en önemli soru yalnızca “Ne yapılabilir?” değil. Belki daha önemlisi, “Ne yapılmamalı ve bunu kim söyleyebilir?”

Eğer bu sorunun cevabı yalnızca “yasalar neye izin veriyorsa o” olursa, teknolojik kapasite hukuki sınırları geriden sürüklemeye başlar. Eğer cevap yalnızca “şirket ne isterse o” olursa, bu kez demokratik meşruiyet sorunu doğar.

İhtiyaç duyduğumuz şey, ne tamamen şirket insafına bırakılmış ne de tamamen askerî satın alma mantığına teslim edilmiş bir yönetişim zemini. 2018’de Project Maven, çalışan itirazının bir sözleşmeyi durdurabileceğini göstermişti. 2026’daki Anthropic krizi ise daha zor bir soruyu karşımıza koydu: Çok güçlü yapay zekâ sistemlerinin savaş ve gözetleme ile birleştiği bir çağda, ortak kırmızı çizgileri gerçekten koruyabilecek miyiz?

Bu sorunun cevabı henüz yazılmış değil. Ama cevabın nasıl yazılacağını tartışmak ve mümkünse daha güvenli yazılmasına katkı sunmak tam olarak bizim işimiz ve bizden sonra gelecek olan nesillere olan bir borcumuz.


  1. Kriz boyunca sıkça karşımıza çıkan “Department of War” (Savaş Bakanlığı) ifadesi tesadüf değil. Eylül 2025’te yayımlanan bir başkanlık kararnamesi, Savunma Bakanlığı’nın yürütme organı içindeki yazışmalarda ve kamusal iletişimde bu adı “ikincil unvan” olarak kullanmasına izin verdi. Bu, Kongre’nin çıkardığı bir yasayla yapılmış tam bir isim değişikliği değildi; bakanlığın yasal adı hâlâ Department of Defense yani “Savunma Bakanlığı” ancak bu değişikliğin sembolik etkisi oldukça güçlü. ↩︎