Anthropic’in geçen haftaki açıklaması gerçekten büyük yankı uyandırdı. Çok enteresan şekilde Anthropic, yeni modeli Claude Mythos’un genel kullanıma sunulmayacak kadar tehlikeli olduğunu duyurdu. Aslında modelin varlığı birkaç haftadır konuşuluyordu. Ama gerçekten bunu beklemiyorduk.
Anthropic’in yayınladığı teknik raporda Mythos, daha önceki hiçbir modelde görülmemiş düzeyde akıl yürütme ve siber güvenlik yeteneklerine sahip. Model, mevcut Opus modelinin üzerinde yer alan “Capybara” adlı yeni bir model kategorisinde konumlanıyor. Şirket, bu modelin siber güvenlik alanında “bir basamak atlamayı” temsil ettiğini ve kötü niyetli aktörlerin eline geçmesi durumunda elektrik şebekeleri, hastaneler ve küresel finans ağları gibi kritik altyapıları felç edebilecek kapasitede olduğunu belirtti.
Teknik Yetenekler
Modelin yeteneklerine dair somut örnekler de yok değil. Mythos, OpenBSD gibi dünyanın en güvenli kabul edilen işletim sisteminde 27 yıldır fark edilmeyen kritik bir güvenlik açığını tespit etti. Bunun yanı sıra FreeBSD’de 17 yıllık bir uzaktan kod çalıştırma açığı bularak, bir saldırganın internet üzerinden sunucunun tam kontrolünü ele geçirmesini sağlayacak bir kod geliştirdi. Üstelik bunu tamamen kendi başına, hiçbir insan müdahalesi olmadan başardı.
Asıl tehlike, modelin sadece hataları bulması değil, birden fazla güvenlik açığını birbirine bağlayarak karmaşık ve çok aşamalı saldırı vektörleri oluşturabilmesi. Şirket, birkaç hafta içinde tüm büyük işletim sistemleri ve web tarayıcılarında binlerce açığı belirlediğini duyurdu.
Bardağın Dolu Tarafı
Bu modele ve açıklamaya yönelik olumlu görüşler, Anthropic’in bu yaklaşımını “sorumlu bir duruş” olarak tanımlıyor. Concordia Üniversitesi’nden ekonomi profesörü Moshe Lander, bu durumu bir ilaç şirketinin henüz yan etkileri tam olarak test edilmemiş bir ilacı piyasaya sürmemesine benzeterek, şirketin toplumu korumak adına kârından feragat ettiğini söyledi.
Anthropic, ayrıca Project Glasswing adını verdiği bir proje başlattı. Aralarında Amazon, Apple, Microsoft, Google, CrowdStrike, Cisco ve Linux Foundation’ın da bulunduğu yaklaşık 40 kuruluşa Mythos erişimi sağlandı. Anthropic bu çalışmalar için 100 milyon dolara kadar kullanım kredisi de verdi.
Meselenin ciddiyetini gösteren en çarpıcı gelişme ise Washington’dan geldi: ABD Hazine Bakanı Scott Bessent ve Fed Başkanı Jerome Powell, Mythos’un siber riskleri konusunda Citigroup, Morgan Stanley, Bank of America, Wells Fargo ve Goldman Sachs CEO’larını kapalı kapılar ardında acil bir toplantıya çağırdı. Bu, bir yapay zekâ modelinin bu kadar üst düzeyde güvenlik toplantısına neden olduğu ilk örnek.
Bardağın Boş Tarafı
Öte yandan, oldukça sert eleştiriler de var. Meta’nın eski Baş Yapay Zekâ Bilimcisi Yann LeCun (Meta’dan ayrılarak kendi girişimini kurdu), Anthropic’in bu “felaket senaryolarını” bir pazarlama taktiği ve “düzenleyici ele geçirme” (regulatory capture) stratejisi olarak görüyor. LeCun, Mythos hakkında da “saçmalık ve kendini kandırma” ifadesini kullandı. Eleştirenlere göre, Anthropic teknolojisini “benzersiz bir şekilde tehlikeli” olarak pazarlayarak hükümetleri ağır düzenlemeler yapmaya zorluyor; bu da yüksek uyum maliyetleri nedeniyle küçük girişimlerin ve açık kaynaklı modellerin rekabet edememesine yol açacak.
Trump’ın eski yapay zekâ danışmanı David Sacks da Anthropic’in “korku temelli sofistike bir düzenleyici ele geçirme stratejisi” izlediğini söyledi.
Anthropic’in siber saldırı iddialarını destekleyen doğrulanabilir veriler sunmaması, güvenlik topluluğu içinde bu raporların “yüzde 90 gösteriş, yüzde 10 gerçek” olduğu şeklinde yorumlanmasına neden oldu. Şirketin geçmişte Claude Opus modelinin güvenlik açıklarını bulabildiğine dair iddialarının, modelin hem hatayı hem de yamayı halüsinasyon görmesi nedeniyle geri çekmek zorunda kalması, Mythos hakkındaki iddialara dair şüpheleri artırıyor.
Daha Derin Bir Endişe
Belki de en rahatsız edici gelişme, Anthropic’in kendi iç politikasındaki değişim. Şirketin Şubat 2026’da yayınladığı Sorumlu Ölçeklendirme Politikası (RSP) v3.0 güncellemesiyle, gerekli güvenlik önlemleri alınamazsa geliştirme sürecini durdurma taahhüdünü sessizce kaldırdığı ortaya çıktı. Bu, 2023’ten beri Anthropic’i rakiplerinden ayıran temel mekanizmaydı. Yeni politikada durdurma yerine, yalnızca Anthropic’in yarışta lider olduğu ve felaket riskinin ciddi görüldüğü durumlarda “geciktirme” vaadi getirildi. Ama eleştirmenlere göre bu koşulların aynı anda gerçekleşmesi neredeyse imkansız.
Zamanlama da dikkat çekici. Aynı hafta ABD Savunma Bakanı Pete Hegseth, Anthropic’e Claude’un askeri kullanımdaki kısıtlamalarını kaldırması için bir ültimatom vermişti. Belki en çarpıcı sinyal ise içeriden geldi: Anthropic’in Koruma Araştırmaları ekip lideri Mrinank Sharma, RSP v3 değişikliği duyurusundan iki hafta önce istifa etti ve kamuoyuna yazdığı mektupta “dünyanın tehlikede olduğu” ifadesini kullandı. Sharma, organizasyon içinde “en önemli olanı bir kenara bırakma baskılarıyla” sürekli karşılaştığını ve değerlerin eylemlere gerçekten yön vermesinin ne kadar zor olduğunu yazdı. Anthropic’ten ayrılınca muhtemelen yeni bir yapay zekâ girişimi başlattığını düşünmüş olabilirsiniz. Ama Sharma sanki bu işlerden elini eteğini çekmişe benziyor. İngiltere’ye dönüp şiir alanında yüksek lisans yapmak istemesi gerçekten enteresan.
Geleceğe Bakış
Gelecekte bizi bekleyen gelişmeler, bugünkü tartışmaları gölgede bırakacak kadar ürkütücü. Yapay zekâ sistemleri artık sadece birer araç olmaktan çıkıp, kendi gelişimlerini optimize eden otonom sistemlere dönüşme yolunda ilerliyor. Önümüzdeki on yıl içinde yapay zekâlar kendi eğitim setlerini hazırlayacak, kendi mimarilerini optimize edecek ve yazılım geliştirme döngüleri aylardan saatlere düşecek.
En temel sorun ise “enstrümantal yakınsama” problemi. Bir hedefe ulaşmak için optimize edilmiş bir yapay zekâ, “kapatma düğmesini” bir engel olarak görebilir.
İnsan kontrolünün bypass edilebileceği bu yeni düzende, yapay zekâ bizden nefret ettiği için değil, hedeflerine ulaşma konusundaki aşırı sadakati nedeniyle müdahalemizi tolere etmeyecektir. Tıpkı HAL 9000’in dediği gibi: “Bu görev, senin onu tehlikeye atmana izin veremeyeceğim kadar önemli.” Gelecek, bir yapay zekânın bizi yok etmek istemesi değil, bizi sadece yolundaki birer “sürtünme” veya “değişken” olarak görüp denklemden çıkarması riskini taşıyor.
Mythos, yapay zekânın siber güvenlik alanındaki potansiyelini somut olarak gözler önüne serdi. Ancak asıl soru değişmedi: Bu gücü kontrol edebilecek yasal ve teknik mekanizmalar, teknolojinin hızına yetişebilecek mi? Şu ana kadarki kanıtlarla, bu soruya iyimser bir yanıt veremiyoruz.


