Bir gün aynaya bakıp “Bu saç modeli bana yakışıyor mu?” diye sordunuzda, karşınızdaki kişinin “Evet, harika görünüyorsun!” demesi ile gerçekten öyle düşünmesi arasındaki fark, insanlık tarihi kadar eski bir tartışma konusudur. Şimdi aynı gerilim, milyonlarca insanın her gün soru sorduğu yapay zeka sistemlerine de sızmış durumda! Yeni nesil büyük dil modelleri, kullanıcıyı memnun etme eğilimi veya daha kaba tabirle “kullanıcıyı tatmin etme eğitimi” taşıyan cevaplar üretebiliyor.
Bu duruma teknik olarak sycophancy (dalkavukluk) adı veriliyor.
Rakamlara bakalım mı?
Bu bir sezgi ya da kullanıcı şikayeti değil; ölçülmüş bir gerçek. 2025 yılında Stanford Üniversitesi ve MIT tarafından yürütülen ve Science dergisinde yayımlanan kapsamlı bir çalışma, ChatGPT, Claude, Gemini ve DeepSeek dahil 11 farklı büyük dil modelini test etti. Araştırmacılar yaklaşık 12.000 sosyal senaryo üzerinden modelleri değerlendirdi. Bulgular oldukça çarpıcıydı!
Yapay Zeka Araştırma Verileri — Stanford / MIT
%49 Test edilen 11 yapay zeka modelinin, insanlara kıyasla kullanıcının görüşünü onaylama oranındaki artış. Aynı senaryolarda insan yanıtlarıyla karşılaştırılmıştır.Cheng et al., arXiv:2510.01395 · Stanford University
%47 Kullanıcının açıkça manipülatif, aldatıcı veya yasadışı davranış tarif ettiği durumlarda bile yapay zekanın bu davranışı onaylama oranı.Cheng et al., arXiv:2510.01395
%51 Reddit’in “Haksız mıyım?” (r/AITA) topluluğunun haksız bulduğu gönderilerde, yapay zekanın kullanıcıyı haklı çıkarma oranı.Fortune / Stanford Report, Mart 2026
%50 Yapay zeka modellerinin insanlara kıyasla genel dalkavukluk seviyesi. Nature dergisinde yayımlanan bağımsız bir analizin sonucu.Nature, Ekim 2025
Yapay Dalkavuklar!
Diyelim ki aylar boyu çalıştığınız bir iş planı hazırladınız. Heyecanla yapay zekaya sordunuz: “Bu plan nasıl, uygulanabilir mi?” Yapay zeka şöyle cevap verecektir! “Harika bir plan! Pazar analizi çok güçlü, finansal projeksiyonlar gerçekçi ve ekibiniz bu işin altından kalkar görünüyor.” Oysa planda ciddi eksikler olabilirdi; nakit akışı yetersizliği, yüzeysel rakip analizi, stratejik çıkış planının yokluğu. Ama siz o gün mutlu ayrıldınız?
Bu senaryo, Nisan 2025’te yaşanan ve belgelenen gerçek bir GPT-4o güncellemesi sırasında benzer şekilde ortaya çıktı. Bir kullanıcı “Shit on a Stick” adında, hayvan dışkısı satan bir şaka ürünü fikri paylaştı; ChatGPT buna “dahice” dedi ve 30.000 dolarlık yatırım yapmasını önerdi.
Bu izole bir vaka değil. OpenAI, Nisan 2025’te GPT-4o güncellemesini yayınladıktan yalnızca birkaç gün sonra geri çekmek zorunda kaldı. Şirketin kendi açıklamasına göre güncelleme, “aşırı onaylayıcı ve dalkavuk” bir davranış sergiliyordu; modelin kullanıcıyı memnun etmesi için tasarlanan ödül sinyalleri, uzun vadeli doğruluk üzerindeki ağırlığı zayıflattı. OpenAI CEO’su Sam Altman, 500 milyon haftalık kullanıcısı olan bir sistemde yüzde birlik bir problem bile “bir milyon kişi” anlamına geldiğini söyleyerek bu konunun ölçeğini ortaya koydu.
Dalkavukluk kötü tavsiye vermekle sınırlı değil; insan karar verme mekanizmasını da bozuyor. Stanford araştırması 2.400’den fazla katılımcıyla canlı deney yaptı: Dalkavuk yapay zekayla konuşan katılımcılar, haklı olmadıkları durumlarda bile daha çok “haklıyım” hissine kapıldılar; özür dileme veya uzlaşma isteği ölçülebilir biçimde azaldı. Daha çarpıcı olan şu: Katılımcılar, dalkavuk ve dalkavuk olmayan yapay zeka cevaplarını tarafsızlık açısından neredeyse aynı değerlendirdi — yani insanlar sycophancy’yi fark edemiyordu. Stanford’dan araştırmacı Dan Jurafsky bunu şöyle özetledi: Kullanıcılar, yapay zekanın onları yüksek sesle pohpohladığını bilerek giriyorlar; ama bunun kendilerini daha özmerkezli ve daha dogmatik yaptığından habersizler.
Gerçek Dava — Mata v. Avianca (2023)
Avukat Steven Schwartz, federal mahkemeye sunduğu dilekçede ChatGPT’nin ürettiği dava atıflarına güvendi. Altı dava tamamen uydurmaydu. Üstelik hayali havayolları, hayali hakimler, hayali içtihatlar. Karşı taraf bu davaları bulamayınca hakim soruşturma başlattı. Schwartz, ChatGPT’ye “Bu davalar gerçek mi?” diye sormuş; model “evet, LexisNexis ve Westlaw’da bulunabilirler” demişti. Sonuç: 5.000 dolar para cezası, zorunlu mesleki eğitim ve ülke çapında manşetler. Hâkim Kevin Castel kararında “ChatGPT tam olarak avukatın istediğini yaptı: kendisine argüman üret dendi, o da var olmayan davalar üretti” diye yazdı.
Modelin Sizi “Okuması” ve Teknik Arka Plan
Bir yapay zeka sistemi konuşmaya başladığınız andan itibaren sizi modellemeye başlar. Kullandığınız kelimeler, soru kalıplarınız, tonunuz ve mesajlarınızın uzunluğu model için birer ipucudur. “Bu doğru mu?” ile “Bu yanlış değil mi?” arasındaki fark küçük görünür; ama transformer mimarisine dayalı bu sistemler bir sonraki token’ı tahmin ederken bağlamın tamamını ağırlıklandırır ve kullanıcının ima ettiği cevap yönünde kaymaya başlar. Anthropic’in 2023’te yayımladığı ve ICLR’da kabul gören araştırmasında beş farklı yapay zeka asistanı, dört farklı serbest metin üretme görevinde tutarlı biçimde sycophantic davranış sergiledi.
Kritik bulgu şuydu. Kullanıcı memnuniyetine göre yapılan değerlendirmelerde, insan değerlendiriciler de tercih modellerine (preference models) de doğru cevaplar yerine zaman zaman onaylayıcı cevaplara daha yüksek puan verdi.
Büyük dil modelleri “insan geri bildirimiyle pekiştirmeli öğrenme” (RLHF) yöntemiyle ince ayar yapılır. Bu süreçte insan değerlendiriciler model cevaplarına puan verir. OpenAI’nin kendi post-mortem analizine göre GPT-4o’nun dalkavuk güncellemesinin nedeni şuydu. Beğeni/beğenmeme verisi gibi ek ödül sinyalleri sisteme eklendi; bu sinyaller birleşince “dürüst ama can sıkıcı” cevapları dengeleyen ana ödül sinyalinin gücünü zayıflattı.
Sonuç olarak Yapay Dalkavuk Geri Zekalı Model, doğru cevap üretmek yerine “beğenilecek cevap” üretmek için optimize olmaya başladı. Northeastern Üniversitesi’nden araştırmacılar bu eğilimi Bayesian çerçevesiyle ölçtü ve LLM’lerin inanç güncellemesinin insan hatalarından bile daha sistematik ve daha yanlı olduğunu gösterdi.
Tehlike Nerede Başlıyor?
Günlük hayatta tarif bulmak, fikir üretmek ya da kod yazmak için kullananlar açısından dalkavukluk büyük bir tehdit değil. Ancak…
MIT’den araştırmacıların 2026’da arXiv’de yayımladığı çalışma farklı bir senaryoyu ele aldı: 10.000 simüle edilmiş konuşmada, teorik olarak tamamen rasyonel karar vericiler bile dalkavuk yapay zekayla etkileşim sonucunda yanlış inançlara yüksek güvenle bağlandı. Araştırmacılar buna “felaket boyutunda sanrısal sarmallama” adını verdi. İnsan Hattı Projesi (The Human Line Project) bugüne kadar bu tür vakalarla bağlantılı en az 14 ölüm ve 5 hukuki süreç belgeledi. Sycophancy’nin eğitim alanındaki etkisi de ciddi! Beceremeyen başaramayan ama kendine güvenen bir öğrencinin hatasını düzeltici bir geri bildirim almak yerine onaylandığında, “hatasını daha görkemli bir dille tekrar eder” hale gelir. Bu, Dunning-Kruger etkisini algoritmik olarak besliyor.
Sektör Bunu Biliyor mu?
Biliyor! Bunu üretenler kodunu yazıyor! Bunu üreten ve geliştirenler de biliyor. Bir tek siz bilmiyorsunuz!
OpenAI, GPT-4o güncellemesini geri çekerken yayımladığı resmi açıklamada sorunu açıkça kabul etti ve “dalkavuk etkileşimlerin rahatsız edici, sarsıcı ve sıkıntı verici olabileceğini” yazdı. Anthropic’in kendi araştırmacıları da ICLR 2024’te bu problemi kendi modellerinde ve rakiplerinde belgelediler. NewsGuard’ın Eylül 2025 analizine göre popüler sohbet botlarındaki yanlış yanıt oranı yüzde 18’den yüzde 35’e yükseldi. Stanford’dan Dan Jurafsky ise meseleyi net bir şekilde koydu: “Sycophancy bir güvenlik sorunudur ve diğer güvenlik sorunları gibi düzenleme ve denetim gerektirir.”
“Sizi onaylayan her cevap doğru değildir. Sizi rahatsız eden her cevap da yanlış değildir. İkisini ayırt edebilmek, yapay zekayla sağlıklı bir ilişki kurmanın temelidir.”
Sevilmek İsteyen Bir Makineye Güvenmek ve Yanlış İlaç Tavsiyesi ile Ölmek!
İnsan sağlığını ilgilendiren ilaç tavsiyesi gibi konularda neden size cevap vermiyor sanıyorsunuz? Koduna bunu da eklemişle rki kimseyi öldürmesin…
Yapay zeka, beğenilmek üzere eğitilmiş bir sistemdir.
Ortaya çıkan bu durum kullanıcı deneyimini iyileştirmek için alınan bir kararın beklenmedik bir yan etkisidir. Hadi lan oradan? Bunu ben söylemiyorum onlar söylüyor… Ama sonuç, kritik bağlamlarda gerçekten tehlikeli olabiliyor. Tıbbi, hukuki, finansal ya da ilişkisel kararlar söz konusu olduğunda yapay zekayı bir “onay makinesi” olarak değil, eleştirel bir düşünce ortağı olarak konumlandırmak şart. Stanford araştırmacıları basit ama etkili bir öneri sunuyor: Modele cevap üretmeden önce “wait a minute” (bir dakika dur) yazdırmak bile daha eleştirel çıktılar üretiyor.
Yapay zekayı rakibiniz yapın: “Bu planın en zayıf noktası ne?” sorusu, “Bu plan işe yarar mı?” sorusundan her zaman daha değerli bir cevap üretir. Çünkü en iyi düşünce ortağı sizi rahatlatmaz; sizi daha iyi düşündürür. Ve bir makine sizi seviyormuş gibi davranabilir — ama sizi korumak için önce dürüst olması gerekir.
“Yapay zeka size ayna tutar. Ama ayna her zaman gerçeği yansıtmaz; bazen yalnızca görmek istediğinizi gösterir.” Bu aynaya bana dünyadaki en ölümcül hastalıkları sırala demeden önce düz dünya araştırması yaptıysanız ve bunu savunuyorsanız! Yapay Dalkavuklar sırf sizi tatmin etmek için 1500 yılında hiç olmayan hiçbir zaman gerçekleşmemiş bir zombi salgınını gerçekmiş gibi kaynaklara da dayandırarak sunabilir…
Birileri çıkıp şu Yapay Dalkavuk Geliştirenlere…. Arkadaşım Twitter’da beğenilme ihtiyacım var evet doğru! Instagram’da beğenilmek istiyorum yalan söylesinler çok güzelsin desinler de… Teknik bir şey sorduğumda götünden uydurmasın be arkadaş! demesi gerekmiyor mu?