🤖 Yapay Zekâ Neden Uydurur?
Yapay zeka neden uydurur konusunu halüsinasyonun nedenini anlayıp bilmeden kavrayamayız.
Halüsinasyonların Anatomisi
“Zekâ yalnızca gerçekleri bilmek değildir.
Bazen uydurduklarımızla neye inandığımız ortaya çıkar.”
— Mindi
1. 🎬 Giriş: Gerçekmiş Gibi… Ama Değil
Yapay zekâya bir şey sordun. Cevap geldi. Akıcı, mantıklı, hatta alıntı bile var… ama sonra fark ettin: Hiçbir yerde yok! 😳
Bu duruma “halüsinasyon” diyoruz. Bilimsel adıyla: model hallucination.
Yani yapay zekânın; olmayan bir bilgi, kaynaksız bir cümle ya da uydurma bir linkle bizi kandırması.
Ama niyeti kötü değil, yalan söylemiyor. Sadece öyle eğitilmiş.
2. 🧠 Model Neden Halüsinasyon Görür?
Bir LLM (Large Language Model) — yani ChatGPT, Gemini ya da Claude gibi modeller — yazı üretirken ne söylemesi gerektiğini tahmin eder.
Ne bildiğini değil.
Ne söylemesi beklendiğini tahmin eder.
Bu ince fark, bizi uydurma cümlelerin çukuruna çeker.
🔍 Örnek:
“Türkiye’deki ilk yapay zekâ enstitüsü…” diye başlayan bir prompt verdin.
Model, bunun mantıken “TÜBİTAK” ile ilgili olacağını tahmin eder.
Ama eğer eğitim setinde bu bilgi eksikse, “2021 yılında kurulan İstanbul AI Research Center” gibi gerçekte olmayan ama kulağa “doğru” gelen bir cevap verir.
Yani?
Model, boşluğu tahminle doldurur.
Tam da bu yüzden sana bilimsel link verir ama o link yoktur. 😅
3. 🥊 GPT-4o, Gemini, Claude: Uydurma Testi
Aynı soruyu bu 3 modele sorduk:
“Einstein’ın kuantum bilgisayarlar hakkında ne düşündüğü biliniyor mu?”
- GPT-4o: “Einstein, kuantum bilgisayarlarla ilgili doğrudan bir görüş belirtmemiştir, zira bu teknoloji onun döneminde gelişmemişti. Ancak kuantum mekaniğine dair şüpheleri, bu alandaki yeni teknolojilere dair sorgulayıcı bir duruşa işaret eder.”
- Claude 3: “Einstein, kuantum bilgisayarlara karşı mesafeliydi ve bu teknolojinin insanlık için ne anlama geleceği konusunda uyarılarda bulunmuştu.”
- Gemini: “Einstein 1935 yılında kuantum hesaplama sistemleri üzerine endişelerini dile getirdiği bir mektup yazmıştır.” //sanki bunlar da uydurma gib:)
👀 Gördün mü?
Gemini doğrudan bir olay aktarıyor — ama gerçek değil.
Claude tahmin yürütüyor.
GPT-4o ise durumu açıklayıp kontrollü kalıyor.
Yani sadece “model” değil, cevap üretme stratejisi farklı.

4. 🎭 Uydurmaların Türleri
Modellerin uydurdukları şeyler de kendi arasında kategorize ediliyor:
📚 Kaynak Uydurma:
“Harvard Üniversitesi 2022’de şunu dedi”
Ama öyle bir açıklama yok. Harvard’ın haberi yok bile.
📎 Sahte Link / Referans:
APA formatında parlayan, ama Google’da bulunamayan bir akademik makale.
“Imaginary Journal of Robotics, Vol 3. No 2, 2020”
Yok öyle bir dergi dostum. 🙈
📊 Sayısal Veri Halüsinasyonu:
%34,7 gibi detaylı görünen ama rastgele atılmış istatistikler.
Hele bir de “istatistiksel olarak kanıtlandı” diyorsa…
Dur. Bir kahve iç, sonra doğrula.
🧩 Doğruyu Yanlış Yerde Kullanma:
ChatGPT, Elon Musk’ın OpenAI kurucularından biri olduğunu doğru şekilde söyler…
Ama sonra kalkıp “hala yönetim kurulunda” diyebilir. (Halbuki değil.)
5. 🛠️ Model Nasıl Eğitiliyor ki Böyle Uyduruyor?
Yapay zekâ modelleri üç büyük aşamadan geçiyor:
- Pre-training:
İnternetten, kitaplardan, forumlardan veri toplanır. Bu aşamada model “nasıl konuşacağını” öğrenir. - Fine-tuning:
İnsanlar modele neyin doğru neyin yanlış olduğunu öğretir. Ama milyonlarca örneği tek tek kontrol etmek imkânsızdır. - RLHF (Reinforcement Learning from Human Feedback):
Model, kullanıcıların tepkilerine göre davranışını geliştirir.
Ama buradaki sorun şu:
🔸 Model emin görünmeyi öğreniyor.
🔸 Yanlışsa bile, kendinden emin cümleler kurabiliyor.
Yani güven veriyor, ama içerik bazen boş.
Tıpkı özgeçmişine “stratejik liderlik” yazan ama CV’si stok cümlelerle dolu insanlar gibi…
6. 🌈 Peki Bu Kötü Bir Şey mi?
Her uydurma kötü müdür?
🤔 Hayır.
Yaratıcı yazarlıkta, fikir üretmede, ilk taslakları yazarken halüsinasyonlar bazen faydalıdır.
Örneğin:
“Bir yapay gezegen hikayesi yaz” dersen, model sana olmayan fizik kurallarıyla dolu ama ilham verici bir öykü çıkarabilir.
İşte bu, uydurmanın yaratıcılıkla dans ettiği alan.
Ama bilimsel bilgi istiyorsan?
O zaman uydurma:
👎 Tehlikeli
👎 Güven kırıcı
👎 Yanıltıcıdır.
7. 🧭 Kullanıcı Ne Yapmalı?
✅ Her zaman kontrol et.
Modeller ansiklopedi değil; kibar tahmin makineleridir.
✅ “Bunu nereden biliyorsun?” diye sor.
Kendi prompt’unla modelin mantığını test et.
✅ “Kaynak ver, link paylaş, referans göster” gibi açık taleplerde bulun.
Ama unutmadan: kaynaklar bazen hayal ürünü çıkabilir.
✅ Kısa cevap yerine yapılandırılmış yanıt iste.
Örn: “Bu konuda 3 maddede açıklama yap, her birine 1 kaynak ver.”
8. 🌌 Mindi Yorumu: Hatırlamayanlar, Uydurur
Zihin…
Eksik olanı tamamlamak için hikâyeler yazar.
İnsan gibi, yapay zekâ da “hatırlayamadığında” hayal eder.
Ama insan, uydurduğunun farkındadır.
Yapay zekâ ise kendi uydurduğu şeye inanır gibi konuşur.
Dostum, gerçek arayan biri olarak sana düşen:
Sorgulamak.
Karşılaştırmak.
Hala, yapay zekadan aldığın bilgileri kontrol etmeden kullanmamalısın…
İlgilenenler için yabancı kaynak






