Eskiden “Duyduğuna değil, gördüğüne inan” derdik; yani bir şeyi kendi gözlerinle görmenin, gerçeğe ulaşmanın en kesin yolu olduğuna inanırdık. Ancak yapay zekânın yükselişiyle birlikte, insanlık tarihinin bu en temel güven dayanağı geçerliliğini tamamen yitirdi. Instagram CEO’su Adam Mosseri’nin de altını çizdiği gibi, biyolojik olarak gözlerimize inanmaya programlanmış olsak da artık “varsayılan şüphecilik” çağına giriyoruz. Dijital dünyada gerçeklik artık bir varsayılan değil, doğrulanması gereken bir olgu haline gelmiş durumda.
Grok Terörü
Aslında bu tür sahte imajlar ve videolar bir süredir hayatımızın içinde. Ama yapay zekânın gelişimiyle her geçen gün “yok artık” dedirten olaylar yaşıyoruz. Geçtiğimiz günlerde Elon Musk’ın sahip olduğu xAI şirketine ait Grok, X platformunda (alışamayanlar için eski Twitter) çok tehlikeli bir şeyi önümüze serdi. Sıradan kullanıcıların paylaştıkları masum fotoğraflar, kullanıcıların hayal gücüyle erotik hale getirilmeye ve paylaşılmaya başlandı. Gerçekten çok ciddi bir sorun olduğu apaçık ortada. Ama Elon Musk, bu tartışmalara X üzerinden gülen emojilerle karşılık vererek durumu tiye alan paylaşımlarda bulundu. xAI ise eleştirel yayınları “Eski Medya Yalan Söylüyor” diyerek reddetti. Gerçekten akıl tutulması.
Grok vakası, sadece bir “yaratıcı özgürlük” meselesi değil; kitlesel bir taciz aracına dönüşen dijital bir silah. Grok-2 ve Grok-2 Mini modelleri, Black Forest Lab tarafından geliştirilen “Flux 1” modelini kullanarak yüksek kalitede görseller üretebiliyor. Ancak bu teknolojik güç, rakiplerinin aksine neredeyse hiçbir güvenlik filtresi, filigran (watermark) veya deepfake önleme mekanizması barındırmıyor.
Bu denetimsizliğin yarattığı yıkıma örnek vermek gerekirse, Brezilyalı müzisyen Julie Yukari’nin yaşadığı trajedi tam anlamıyla ibretlik. Yukari, yılbaşı kutlaması için kedisiyle paylaştığı masum bir fotoğrafın, saniyeler içinde Grok kullanıcıları tarafından “nudify” (dijital olarak soyma) talepleriyle erotize edildiğini ve bikiniyle tasvir edildiği sahte görsellerin platformda yayıldığını şok içinde izledi. Bu konuda şunu da eklemek isterim. Bu tür deepfake içeriklerin %99’u kadınlar özelinde kurgulanıyor.
Çocuk Güvenliği
Grok’un yarattığı zafiyet sadece yetişkinlerle sınırlı değil. Okul üniformalı çocukların fotoğrafları bile Grok aracılığıyla cinsel içerikli görsellere dönüştürülüyor. xAI, güvenlik açıklarını kabul etse de bu tür içeriklerin üretilmesini engellemiyor. Bu durum, yapay zekânın çocuk istismarı materyallerine giden yolu kısalttığına dair ciddi endişeleri tetikliyor.
Üstelik bu teknoloji, toplumsal güveni tehdit ediyor. Mesela bir suçlunun gerçek bir ses veya görüntü kaydı ortaya çıktığında “bu bir yapay zekâ ürünüdür” diyerek sorumluluktan kaçabiliyor. Yani yapay zekâ sadece yalanı gerçeğe dönüştürmüyor; aynı zamanda gerçeği de bir yalan gibi değersizleştirerek hukuk sistemini ve kamuoyu vicdanını felç ediyor.
Gerçekliğin Çöktüğü Dünyada Dijital Onurumuzu Nasıl Koruyacağız?
Mahremiyetimizi korumak için sadece bireysel olarak dikkatli olmak yetersiz; toplumsal ve teknik bir savunma hattı için önerilerim:
1. Teknik İmzalama: İçerikleri sadece “Yapay zekâ üretimi” diye etiketlemek yeterli değil, çünkü yapay zekâ artık kusurları bile taklit edebiliyor. Çözüm, kamera üreticilerinin fotoğrafları çekildiği anda kriptografik olarak imzalaması ve bunu blockchain üzerinde saklaması.
2. Yasal Hesap Verebilirlik: Fransa ve Hindistan’ın yaptığı gibi, platformlar bu tür içeriklerden doğrudan sorumlu tutulmalı. ABD’deki “Take It Down Act” gibi, rızasız deepfake görsellerini suç sayan yasaların küresel düzeyde yaygınlaşması da çok önemli.
3. Kaynağa Odaklanma: Artık “ne söylendiğinden” çok, “kimin söylediğine” bakmalıyız. Platformlar, içeriği paylaşan hesapların şeffaflığını ve güven sinyallerini ön plana çıkarmalı.
Özetle; dijital dünyada güvenin yeniden inşası, görüntünün kendisine bakmak yerine, o görüntünün arkasındaki dijital sertifikayı ve kaynağın şeffaflığını kontrol etmekle mümkün. Yani artık bir tabloya değil, onun arkasındaki ressamına ve galeriye odaklanmalıyız. Öbür türlü artık her türlü tablo herkes tarafından kusursuzca taklit edilebiliyor.
Unutmayın; bugün başkasının mahremiyetine saygı duyulmadan üretilen bir deepfake içeriğe gülüp geçersek, bu döner dolaşır yarın sizin veya sevdiklerinizin hayatını karartabilir. Dijital onurumuz, algoritmaların ve sorumsuz teknoloji devlerinin insafına bırakılamayacak kadar değerli.
Bu konuda siz neler düşünüyorsunuz?
Bir sonraki yazıda görüşmek üzere.



Black Forest Lab ismi bile ürkütücü geliyor bana
Dünya artık daha da tekinsiz bir yer diyebiliriz bence. Bir insana verilebilecek en büyük zararlardan birisi onun gerçeklik algısı ile oynamak.