Bu Devirde Babana Bile Güvenmeyeceksin
Düşünmeyi Bıraktığımız An: Yapay Zekâ Bağımlılığının Karanlık Yüzü
Yapay zekâya aşırı güvenmek, teknolojinin sunduğu sayısız faydaya rağmen ciddi riskler barındırıyor. Genel olarak yapay zekâya yönelik güven düşük olsa bile, bağımlılığın arttığı gözlemleniyor. Kullanıcılar yapay zekâ tarafından üretilen içeriklerin doğruluğunu ve güvenilirliğini sorgulama eğiliminde değiller. Bu da "Yapay Zekâ Güven Boşluğu" olarak adlandırılan bir çelişkiyi ortaya çıkarıyor.
Fazla Güvenin Sonucu
Yapay zekâya aşırı güvenmenin oluşturduğu risklerin ilginç bir örneğini birkaç gün önce duyduk. Bir influencer çift, Porto Riko seyahatlerini planlarken vize bilgileri için ChatGPT'ye güvendikten sonra uçuşlarını kaçırdılar. Yapay zekâ sohbet robotu onlara yanlış bilgi vererek, İspanyol vatandaşlarının vizeye ihtiyaç duymadığını belirtmiş; oysa vize yerine bir ESTA (Elektronik Seyahat Yetkilendirme Sistemi) almaları gerekmekteydi. Mery Caldass, her zaman çok araştırma yaptığını belirtse de bu sefer ChatGPT'ye sorduğunu ve vizeye gerek olmadığını söylediğini ifade ediyor. Bu olay, çiftin resmi hükümet sitelerinden bilgi teyit etmeden tamamen yapay zekâya güvenmesinin doğrudan bir sonucu.
Yapay Zekâya Neden Körü Körüne Güvenmemeliyiz
Yapay zekâ araçlarının temeli olan büyük dil modelleri (LLM'ler) şirketlerin karar verdiği eğitim döngülerine göre güncellenir. Eğitim süreci, milyarlarca parametreyi içeren uzun ve pahalı bir işlem olduğundan genellikle aylarca sürer. Yeni sürümler çıktığında model, eğitim verisi kesildiği noktaya kadar olan bilgileri öğrenmiş olur. Bu yüzden LLM'ler yayınlandıkları tarihten sonraki güncel olaylar veya en son çıkan teknolojiler hakkında eksik bilgiye sahip olabilirler. Bu boşluk, eğitim sonrası eklenen entegrasyonlarla (örneğin web taraması) kısmen kapatılır. Dolayısıyla LLM'ler günlük haber kaynağı gibi değil, belirli bir tarih aralığına kadar eğitilmiş büyük bir bilgi deposu gibi çalışır. Gündelik yaşamda kullandığımız ChatGPT, Claude ve Gemini bu şekilde çalışır. Web taraması gibi özellikler yoksa kullandığınız model birkaç ay ya da daha uzun süre önceki bilgilere sahiptir.
Ayrıca LLM'lerin nasıl eğitildiğine dair tam şeffaflık bulunmadığı için, kullanılan verilerin kaynağı, güncelliği ve doğruluğu hakkında kesin bilgiye sahip değiliz. Eğitimde genellikle internetten toplanmış metinler, kitaplar, makaleler ve kod parçaları kullanılır; ancak bu verilerin içinde hatalı, önyargı ile yazılmış ya da taraflı bakış açısına sahip olanlar da bulunabilir. Bu nedenle modellerin ürettiği her bilgiyi mutlak doğru kabul etmek yerine, eleştirel bir gözle değerlendirmek gerekir. LLM'ler güçlü birer yardımcıdır; fakat tek başına güvenilir bir bilgi kaynağı değil, doğrulama ve ek araştırma yapılması gereken bir başlangıç noktasıdır.
Özetlerdeki Tehlikeler
Exploding Topics tarafından yapılan araştırmaya göre, web kullanıcılarının %42,1'i yapay zekâ özetlerinde yanlış veya yanıltıcı içeriklerle karşılaşmış. Bu hatalar arasında "önemli bağlamın eksik olması" (%35,82) ve "önyargılı veya tek taraflı yanıtlar" (%31,5) da bulunmakta. Hatta %16,78'i yapay zekâ özetlerinden güvenli olmayan veya zararlı tavsiyeler aldıklarını belirtmiş ki bu çok kritik.
Doğrulama Yapma Eğiliminin Azalması
İnsanlar bunları yaşıyor ve şüpheci yaklaşıyorlar. Ancak tüm yaş gruplarında %40'tan fazlası yapay zekâ özetlerindeki kaynak materyallere nadiren veya hiç tıklamıyor. Yalnızca %7,71'i bağlantılara her zaman tıkladığını belirtmiş. Bu çelişki kullanıcıların güvenilirliği kolaylığa tercih etmesinden kaynaklanmakta.
İşimizi mi Kolaylaştırıyor Yoksa Bizi Tembelleştiriyor mu?
KPMG'nin küresel çalışmasında ise öğrencilerin de yapay zekâ kullanımında aşırı bağımlılık gösterdiği görülmüştür. Öğrencilerin dörtte üçünden fazlası (%77) yapay zekânın yardımı olmadan ödevlerini tamamlayamadıklarını hissettiklerini ve %81'i yapay zekâya güvenebileceklerini bilerek derslerine veya ödevlerine daha az çaba harcadıklarını belirtmiştir. Bu durum, kritik düşünme ve temel becerilerin körelmesi riskini taşımakta.
Yapay Zekâ Okuryazarlığı
Yapay zekâ araçları yaygın olarak kullanılmasına rağmen, yapay zekâ okuryazarlığı sınırlıdır. Katılımcıların yaklaşık yarısı (%48) yapay zekâ hakkında sınırlı bilgiye sahip olduğunu belirtmiştir. Bu bilgi açığı, kullanıcıların yapay zekânın yeteneklerini tam olarak anlamadıkları gibi, yapay zekâ sistemlerinin sınırlarını, çıktılarını eleştirel olarak değerlendirme yeteneklerini ve zarardan korunma becerilerini de kısıtlamaktadır.
Sonuç
Sonuç olarak, yapay zekânın sunduğu kolaylıklar ve faydalar tartışılamaz olsa da, başta doğru bilgi teyidi eksikliği olmak üzere, aşırı güvenmenin yol açtığı ciddi riskler mevcut. Influencer çiftin yaşadığı olay gibi somut örnekler, yapay zekâ cevaplarının her zaman eleştirel bir gözle değerlendirilmesinin ve özellikle önemli kararlar alırken bilgiyi birden fazla güvenilir kaynaktan teyit etmenin hayati önemini vurgulamakta. Toplumun tamamının yapay zekâ okuryazarlığını arttırılması en önemli adım. Çözümü şirketlerin insafına bırakmak büyük hata olabilir.
Peki siz yapay zekâya ne kadar güveniyorsunuz? Şahit olduğunuz en garip olay neydi?
Bir sonraki yazıda görüşmek üzere.


