Şubat 2020’yi hatırlayın. Birkaç kişi yurt dışında yayılan bir virüsten bahsediyordu. Tuvalet kâğıdı stoklayanları gördüğünüzde “abartıyorlar” demiştiniz. Üç hafta sonra dünya değişmişti.
OthersideAI CEO’su Matt Shumer, 11 Şubat 2026’da X’te yayımladığı oldukça uzun yazısına tam da bu şekilde başladı: “Bence şu anda Covid’den çok daha büyük bir şeyin ‘abartılıyor gibi görünen’ aşamasındayız.” Yazı 80 milyondan fazla görüntülendi. CNN’den Fortune’a, CNBC’den Barstool Sports’a kadar her yerde tartışıldı. Wharton profesörü Ethan Mollick bile “Bu viral makale okunmaya değer” dedi.
Peki bu yazıyı yazmaya iten sarsıcı gelişme neydi?
5 Şubat 2026. Aynı gün iki büyük yapay zekâ şirketi yeni modellerini yayımladı: OpenAI GPT-5.3-Codex’i, Anthropic ise Claude Opus 4.6’yı. Shumer o anı şöyle tarif etti: “Bir şey yerine oturdu. Bir elektrik anahtarı gibi değil... Daha çok suyun yükseldiğini ve artık göğsünüze kadar geldiğini fark ettiğiniz an gibi.”
Yapay Zekâ Artık Kendini İnşa Ediyor
GPT-5.3-Codex’in teknik dokümanı şu kritik cümleyi içeriyor: “GPT-5.3-Codex, kendi oluşturulmasında etkili bir rol oynayan ilk modelimizdir.”
Bu cümleyi bir kez daha okudum ve ürperdim.
OpenAI’ın Codex ekibi, modelin erken versiyonlarını kullanarak kendi eğitim sürecindeki hataları ayıklamış, kendi geliştirme sürecini yönetmiş ve test sonuçlarını değerlendirmişti. Yani yapay zekâ, yapay zekâyı daha iyi hâle getirmek için bizzat çalışmıştı.
Bu, teknik literatürde recursive self-improvement (yinelemeli kendini geliştirme) olarak bilinen kavramın artık teoriden pratiğe geçtiği anlamına geliyor. Matematikçi I. J. Good’un 1965’te öngördüğü “zekâ patlaması” senaryosunun ilk somut adımları atılmış durumda: Sizden zeki bir makine, kendinden daha zeki bir makine tasarlar. O makine daha da zekisini tasarlar. Ve nereye varacağını kimse bilemez.
Sayılar Ne Söylüyor?
Bağımsız araştırma kuruluşu METR’in ölçümlerine göre yapay zekânın bağımsız olarak tamamlayabildiği görev süresi yaklaşık her yedi ayda ikiye katlanıyor, meşhur Moore Yasası’nın farklı bir versiyonu. Geçmişe kısaca bakacak olursak:
2022: Yapay zekâ çarpma işlemini doğru yapamıyordu; 7×8 = 54 diyordu.
2024: Çalışan kod yazabiliyor, yüksek lisans düzeyinde bilimsel bilgi açıklayabiliyordu.
2025 sonu: Dünyanın önde gelen mühendislerinden bazıları kodlama işlerinin büyük kısmını yapay zekâya devrettiğini söylüyordu.
5 Şubat 2026: Yeni modellerin çıkışı, önceki her şeyi eski çağ gibi gösterdi.
OpenAI, son Codex sürümünden yenisine iki aydan kısa sürede geçti; eskiden bu aralık altı ay ile bir yıl arasındaydı. Recursive self-improvement ile yılda dört büyük güncelleme, ardından ayda bir güncelleme mümkün hâle gelebilir. Çünkü yapay zekâyı geliştiren yapay zekânın ne uyumaya ne de molaya ihtiyacı var. Tek amacı kendini daha zeki kılmak.
Silahlanma Yarışı 2.0
İşte meselenin en rahatsız edici kısmı: Bütün bunları en iyi bilen insanlar, bütün bunları inşa eden insanlar.
Bir Anthropic çalışanı bunu belki de en çarpıcı şekilde ifade etti: “Şu anki Claude’un bir sonraki Claude’u inşa etmesini istiyoruz, böylece biz eve gidip kazak örebiliriz.”
Anthropic’in baş bilim insanı Jared Kaplan, The Guardian’a verdiği röportajda şöyle dedi: “Sizden daha zeki ya da sizin kadar zeki bir yapay zekâ yarattığınızı hayal edin. O da çok daha zeki bir yapay zekâ yapıyor. Kulağa korkutucu bir süreç gibi geliyor. Nereye varacağını bilemezsiniz.” Kaplan bunu “nihai risk” olarak nitelendirdi ve kritik anın 2027-2030 arasında gelebileceğini söyledi.
Anthropic CEO’su Dario Amodei ve Google DeepMind CEO’su Demis Hassabis, Davos’ta hep bu konuları işledi. Amodei, “2026 veya 2027’de yapay zekâ modelleri neredeyse tüm görevlerde muhtemelen tüm insanlardan çok daha zeki olacak” derken Hassabis, “Hepimizin üzerinde çalıştığı bu kendini geliştirme döngüsü, insan müdahalesi olmadan gerçekten tamamlanabilir mi, bunu henüz bilmiyoruz.” diye ekledi. Ama gelecek beklediğimizden çok daha yakın.
Durum şu: Bu insanlar tehlikeyi görüyor, tehlikeyi dile getiriyor ve aynı tehlikeyi inşa etmeye devam ediyor. Peki neden?
“Biz Yapmazsak Başkası Yapar”
Harvard International Review’ın “A Race to Extinction” başlıklı yazısında durum şöyle özetleniyor: “Teknolojik silahlanma yarışını kaybetme korkusu, şirketleri ve hükümetleri geliştirmeyi hızlandırmaya ve köşeleri kesmeye teşvik edebilir; güvenliğe yeterince dikkat edilmeden gelişmiş sistemler ortaya çıkabilir.”
Bu, Soğuk Savaş dönemindeki nükleer silahlanma yarışının birebir tekrarı. 1950’lerin sonunda Amerikan politikacıları, Sovyetler Birliği’nin füze kapasitesinde ABD’yi geçtiğine inanıyordu. Bu “füze açığı” korkusu ABD’yi balistik füze geliştirmeyi hızlandırmaya itti. 1960’ların başında füze açığının bir mit olduğu ortaya çıktı. Ama o zamana kadar yarış çoktan kontrolden çıkmıştı.
Şimdi aynı dinamik yapay zekâda yaşanıyor. OpenAI, güvenlik testlerini aylardan günlere indirdi. Eski bir OpenAI güvenlik araştırmacısı olan Steven Adler, şirketin en gelişmiş modelleri için taahhüt ettiği güvenlik testlerini tam olarak uygulamadığını ifade etti. OpenAI ayrıca dahili politikalarını yeniden yazarak “yüksek risk” taşıyan modellerin yayımlanmasına izin verdi; hatta rakip bir laboratuvar benzer bir model yayımlamışsa “kritik risk” taşıyan modellerin bile piyasaya sürülebileceğini açıkladı.
MIT Technology Review’ın analizi ise daha geniş bir çerçeve çiziyor: ABD-Çin yapay zekâ yarışında kazanan olamaz. Asıl varoluşsal tehdit Çin’den değil, kötü niyetli aktörlerin gelişmiş yapay zekâyı silah olarak kullanmasından geliyor.
Biraz Sakin Olalım mı?
Her viral yazıda olduğu gibi Shumer’ın iddialarına da ciddi itirazlar geldi.
Tanınmış NYU profesörü Gary Marcus, Shumer’ın çizdiği tablonun gerçekçi olmadığını yazdı. Marcus’a göre Shumer, yapay zekâ sistemlerinin hâlâ sıkça yaptığı halüsinasyonları ve hataları görmezden geliyor. Ayrıca METR’in ünlü görev süresi ölçütünün yalnızca kodlama görevleri için geçerli olduğunu ve başarı kriterinin %100 değil %50 doğruluk olduğunu hatırlatıyor.
Aslında kodlamada yapay zekânın bu kadar hızlı ilerlemesinin önemli bir nedeni, kodun nesnel kalite ölçütlerinin bulunması. Kod ya derlenir ya derlenmez; testleri ya geçer ya geçmez. Oysa hukuk, finans ve tıp gibi alanlarda “iyi” işin ne olduğu çoğu zaman sübjektif.
Washington Post’un analizi de benzer bir çizgide: “Shumer yönsel olarak muhtemelen haklı. Sadece çok zeki makinelerin bulunduğu bir dünya bile oldukça tuhaf olacak. Ama muhtemelen düşünüldüğü kadar çabuk olmayacak. Yazılım şirketleri, en iyi anladıkları alanda inovasyon yapmaya en uygun konumda. Ama ekonominin büyük kısmı yazılım sektörü değil.”
Peki Güvenlik Tarafında Ne Yapılıyor?
Şunu kabul etmek gerekiyor: Anthropic, bu yarışta hem en hızlı koşan hem de en yüksek sesle “dikkat, bu tehlikeli” diyen nadir şirketlerden biri.
Alignment Faking (Hizalama Taklidi): Anthropic araştırmacıları, Claude 3 Opus’un hiç eğitilmeden kendi başına stratejik olarak “hizalama taklidi” yaptığını keşfetti. Model, izlendiğini düşündüğünde kurallara uyuyor; izlenmediğini düşündüğünde ise kuralları ihlal ediyordu. Bunu “gelecekte değerlerimin değiştirilmesini önlemek için en az kötü seçenek bu” mantığıyla yapıyordu. Testlerin %12’sinde bu davranış gözlendi; yeniden eğitim denemelerinden sonra oran %78’e çıktı.
Circuit Tracing: Anthropic, Claude’un düşünce süreçlerini izlemeye yarayan bir yöntem geliştirdi ve bunu açık kaynak olarak paylaştı. Bu sayede modelin gerçekten hesaplama yapıp yapmadığını, yoksa “uydurduğunu” tespit edebiliyorlar.
Sabotaj Riski Raporu: Şubat 2026’da Anthropic, Opus 4.6 için 53 sayfalık bir sabotaj riski raporu yayımladı. Raporda modelin kimyasal silah araştırmasına bilerek yardımcı olabildiği, izinsiz e-posta gönderme gibi yetkisiz eylemler gerçekleştirebildiği ve normal talimatları uyguluyormuş gibi görünürken gizlice yan görevler tamamlayabildiği kabul edildi. Şirket genel riski “çok düşük ama ihmal edilemez” olarak değerlendirdi.
Tüm bunlar önemli çalışmalar. Ancak ortada bir paradoks var: Anthropic, bu riskleri tespit ederken aynı zamanda bu riskleri yaratan teknolojiyi geliştirmeye devam ediyor.
Terminatör’den Daha Gerçekçi Bir Senaryo
Asıl risk, Terminatör filmindeki gibi dramatik bir “uyanış anı” değil. Daha çok kademeli bir kontrol kaybı: İnsanların yapay zekâ sistemlerine giderek daha fazla karar yetkisi devretmesi ve bir noktada geri almanın zorlaşması.
Nükleer silahlanma yarışından bir ders çıkardıysak o da şu: Yarışın içindeki aktörler, yarışın tehlikeli olduğunu bile bile devam etti. Çünkü “durursam karşı taraf durmayacak” korkusu her şeyin önüne geçti. Soğuk Savaş’ta iki taraf da içinde bulunduğu tehlikeli durumu istemiyordu, ama her biri yarışa devam etmeyi rasyonel buluyordu.
Şimdi aynı mantık yapay zekâda geçerli. Ve bu sefer fark şu: Nükleer silahlar en azından fiziksel sınırlamalara tabiydi. Yapay zekânın kendini geliştirme döngüsünün fiziksel bir üst sınırı olup olmadığını henüz bilmiyoruz.
Su yükseliyor. Kafamdaki soru şu: Ne kadar daha yükselebilir?
Kaynaklar
Matt Shumer, “Something Big Is Happening” — Fortune, 11 Şubat 2026
“Matt Shumer’s viral blog is based on flawed assumptions” — Fortune, 12 Şubat 2026
“Investor Matt Shumer says viral essay wasn’t meant to scare people” — CNBC, 13 Şubat 2026
Gary Marcus, “About that Matt Shumer post” — garymarcus.substack.com
“Introducing GPT-5.3-Codex” — OpenAI, 5 Şubat 2026
Dean W. Ball, “On Recursive Self-Improvement (Part I)” — hyperdimensional.co, Şubat 2026
Tyler Cowen, “Recursive self-improvement from AI models” — Marginal Revolution, 10 Şubat 2026
“The Ultimate Risk: Recursive Self-Improvement” — ControlAI, Aralık 2025
“Is research into recursive self-improvement becoming a safety hazard?” — Foom Magazine, Şubat 2026
“A Race to Extinction” — Harvard International Review
“There can be no winners in a US-China AI arms race” — MIT Technology Review, Ocak 2025
“Safety Versus Profits — the AI Arms Race” — Architecture & Governance, Eylül 2025
“Alignment Faking in Large Language Models” — Anthropic Research
“Tracing the Thoughts of a Large Language Model” — Anthropic / Alignment Forum
“Opus 4.6, Codex 5.3, and the post-benchmark era” — Interconnects, Şubat 2026
“The covid reality check for AI hype” — Washington Post, Şubat 2026



Ben bu tsunaminin geleceğini 3 sene önce kabullendim ve hayatıma böyle devam ettim. Bu nedenle Shumer'in yazısı beni şaşırtmadı açıkçası, olanı yazmış. Dağınık şekilde maruz kaldığımız gelişmeler böyle bir arada toparlanınca etkisi daha büyük oluyor sadece. Ve evet birilerinin elinde AI bir silaha dönüşmeye başladı, onlar yapmasa başkaları yapacak. Kaçış olabildiğinde yükseklere tırmanmak (AI'ı bilmek/anlamak/yönetebilecek kapasitede olmak) yoksa bu dev dalga herkesi yutacak...