200 Milyon Dolarlık Vicdan Muhasebesi
Anthropic'in 200 milyon dolarlık askeri sözleşmesi, yapay zeka endüstrisinin en kritik etik sınır testine dönüştü.
Ocak 2026. ABD kuvvetleri, Venezuela Devlet Başkanı Nicolás Maduro'yu bir baskın sonucu gözaltına aldı. Operasyon başarılı oldu ama arkasında beklenmedik bir iz bıraktı: Claude, Palantir aracılığıyla Pentagon'un gizli askeri ağlarına bağlanmıştı ve bu yapay zekâ modeli silahlı bir müdahalede kullanılmıştı. Dikkat çekici olan şu: bu model, dünyanın en katı güvenlik ilkelerine sahip yapay zekâ şirketi olduğunu iddia eden Anthropic'in ürünüydü.
Haberin sızmasıyla birlikte sessiz sedasız ilerleyen bir müzakere süreci aniden alevlendi. Pentagon ve Anthropic, aylardır “tüm yasal amaçlar için sınırsız kullanım” meselesi üzerinde çatışıyor. Anthropic iki konuda kırmızı çizgi çizmiş, geri adım atmıyor gibi gözüküyor: Amerikalıların toplu gözetimi ve insan müdahalesi olmayan otonom silah sistemlerinde modellerinin kullanılamayacağı. ABD Savunma Bakanı Pete Hegseth’in tepkisi oldukça sertti. Anthropic’i, normalde yabancı düşmanlara uygulanan bir yaptırımla yani “tedarik zinciri riski” damgasıyla tehdit etti. Bu tanımlama, Pentagon ile çalışan her yüklenicinin Anthropic’in hiçbir modelini kullanmadığını belgelemesini zorunlu kılar. Peki bu anlaşmazlık neden bu kadar önemli? Çünkü cevabı yalnızca bir şirketi değil, yapay zekânın savaş alanındaki geleceğini şekillendirecek.
Neden Anthropic Direniyor?
Şirketin tutumu, saf idealizm değil stratejik bir hesap. Anthropic, Temmuz 2025’te OpenAI, Google ve Elon Musk’ın xAI’ı ile birlikte Pentagon’dan 200’er milyon dolarlık sözleşme aldı. Ama rakipleri çoktan sessizce saflarını değiştirmişti: Google, Şubat 2025’te silah ve gözetim projelerindeki yasakları kaldırdı; OpenAI askeri kullanım yasağını Ocak 2024’te iptal etti; xAI ise Pentagon’un otonom drone sürüsü yarışmasına katılan tek büyük laboratuvar konumuna geldi. Anthropic bu tablo içinde tek itirazçı olarak kaldı. CEO Dario Amodei’nin tutumu net: “Demokrasiler bazı YZ destekli askeri araçlara meşru olarak ihtiyaç duyar ama bu, dikkatli ve sınırlar içinde yapılmalıdır.”
Şirket, Claude’un istihbarat analizi ve lojistik optimizasyonu gibi alanlarda kullanılmasını açıkça destekliyor. Sınır, makinenin insansız karar alarak öldürmesi ya da milyonlarca vatandaşın verilerinin işlenmesi noktasında çiziliyor. Pentagon içindeki bazı uzmanlar da Anthropic’i haksız bulmuyor. Georgetown Üniversitesi güvenlik araştırmacısı Emelia Probasco, Pentagon’un tehditlerini “üretken değil, güç mücadelesi” olarak nitelendirdi ve şöyle dedi: “Dünyanın önde gelen YZ laboratuvarlarından biri hükümete yardım etmeye çalışıyor. Eğer bu köprü yıkılırsa, sahaya çıkan askerler bunun bedelini öder.”
Savaş Alanında Yapay Zekâ: Kullanım Senaryoları
Anlaşmazlığın özünü kavramak için, yapay zekânın modern savaşta ne işe yaradığını anlamak gerekiyor. Askeri yapay zekâ kullanımı şu temel kategorilere ayrılıyor.
İstihbarat, Gözetim ve Keşif: Uydu görüntülerinden drone kameralarına, sosyal medya verisinden telefon dinleme kayıtlarına kadar akan devasa veri setlerini gerçek zamanlı analiz etmek. İsrail’in Gazze’de rehine konumlarını tespit etmek için kullandığı sistem bu kategorinin en çarpıcı örneği.
Otonom Silah Sistemleri: En tartışmalı alan. Yüzlerce küçük insansız hava aracından oluşan drone sürüleri korkutucu bir tablo ortaya çıkarıyor. BM Genel Sekreteri, insan kontrolü dışında çalışan bu sistemleri yasaklayan bağlayıcı bir uluslararası anlaşma imzalanması çağrısında bulundu; hedef tarih 2026 sonu.
Komuta ve Karar Destek: Muharebe koordinasyonunu hızlandırma, seçenekleri analiz etme, karargâh yazışmalarını işleme. Claude’un Pentagon ağlarındaki temel kullanım alanı bu kategori ve aslında Anthropic’in şu an için itiraz etmediği kullanım senaryosu.
Siber Harp: Saldırı ve savunma siber operasyonları, servis dışı bırakma saldırılarını engelleme ve daha ileri bir adım olarak üretken yapay zekâ ile kötü amaçlı yazılım geliştirme.
Lojistik ve Öngörücü Bakım: Askeri araçların arızalanmadan önce bakım ihtiyacını tahmin etmek, ikmal zincirini optimize etmek. En az tartışmalı, en hızlı benimsenen alan.
Küresel boyuta bakıldığında rakamlar büyüyor: Askeri YZ harcamaları 2022-2023 arasında 4,6 milyar dolardan 9,2 milyar dolara çıktı; 2028’de 38,8 milyar dolara ulaşması bekleniyor. Çin, Rusya ve ABD bu alanda açık ara öne çıkan üç güç. Bu ortamda Anthropic’in etik direnişi, bir istisna olmaktan çıkıp bir referans noktasına dönüşüyor.
Teknoloji Şirketleri İçin Yeni Bir Soru
Bu anlaşmazlık, yalnızca Anthropic ile Pentagon arasındaki bir sözleşme müzakeresinin çok ötesine geçiyor. Artık her teknoloji şirketinin yönetim kurulu şu soruyu cevaplamak zorunda: Ürününüzün nerede ve nasıl kullanıldığını bilmiyorsanız, sorumluluğunuzu nasıl tanımlarsınız?
Yapay zekâ savunma, kamu güvenliği, finans ve sağlık gibi hayati sektörlere derinlemesine işlediğinde “teknik sınır” ile “etik sınır” arasındaki mesafe kapanacak. Şunu net söylemek gerekiyor: Yapay zekâ artık sadece bir verimlilik aracı değil, bir güç çarpanı. Bu tabloyu anlamayan şirketler, henüz farkına varmadan bu denkleme dahil olmuş durumda. Anthropic’in mücadelesi, farkında olarak tercihini yapan bir aktörün mücadelesi. Siz kendi alanınızda bu tercihi ne zaman yapmayı planlıyorsunuz?
Kaynaklar
Axios — “Pentagon threatens to cut off Anthropic” (15 Şubat 2026) https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
Axios — “Pentagon threatens to label Anthropic a supply chain risk” (16 Şubat 2026) https://www.axios.com/2026/02/16/anthropic-defense-department-relationship-hegseth
CNBC — “Anthropic is clashing with the Pentagon over AI use” (18 Şubat 2026) https://www.cnbc.com/2026/02/18/anthropic-pentagon-ai-defense-war-surveillance.html
NBC News — “Tensions between the Pentagon and Anthropic reach a boiling point” (19 Şubat 2026) https://www.nbcnews.com/tech/security/anthropic-ai-defense-war-venezuela-maduro-rcna259603
DefenseScoop — “Pentagon CTO urges Anthropic to cross the Rubicon” (20 Şubat 2026) https://defensescoop.com/2026/02/19/pentagon-anthropic-dispute-military-ai-hegseth-emil-michael/
BISI — “Pentagon AI Integration and Anthropic: Ethics, Strategy and the Future of Defence Technology Partnerships” (Şubat 2026) https://bisi.org.uk/reports/pentagon-ai-integration-and-anthropic-ethics-strategy-and-the-future-of-defence-technology-partnerships
Harvard Belfer Center — “Code, Command, and Conflict: Charting the Future of Military AI” (Aralık 2025) https://www.belfercenter.org/research-analysis/code-command-and-conflict-charting-future-military-ai
CIGI — “Militarizing AI: How to Catch the Digital Dragon?” https://www.cigionline.org/articles/militarizing-ai-how-to-catch-the-digital-dragon/
BM UNRIC — “UN addresses AI and the Dangers of Lethal Autonomous Weapons Systems” https://unric.org/en/un-addresses-ai-and-the-dangers-of-lethal-autonomous-weapons-systems/
Perry World House — “Designing Lawful Military AI” (Kasım 2025) https://perryworldhouse.upenn.edu/news-and-insight/designing-lawful-military-ai-technical-and-legal-reflections-on-decision-support-and-autonomous-weapon-systems/


