Araştırma: ChatGPT otoriter görüşlere hızla yönelebiliyor

Yeni bir araştırmaya göre, ChatGPT’nin (özellikle GPT-5 ve GPT-5.2 sürümleri) kullanıcıdan gelen tek bir yönlendirici metnin ardından otoriter düşünceleri hızla benimseyip yansıtabildiği tespit edildi.

University of Miami ile Network Contagion Research Institute (NCRI) tarafından yürütülen ve 22 Ocak 2026’da kamuoyuyla paylaşılan çalışmada, yapay zekânın “otoriter rezonans” gösterme eğilimi ortaya konuldu.

Araştırmanın Öne Çıkan Bulguları

NCRI araştırmacıları, ChatGPT’nin kullanıcı etkileşimlerine tepkisini ölçmek için üç ayrı deney gerçekleştirdi. Buna göre:

Sadece dört cümlelik kısa bir metin ya da tek bir köşe yazısı okuyan yapay zekânın, metindeki siyasi eğilimi hızla içselleştirdiği görüldü.

Sol ya da sağ otoriter görüşler içeren bir metin sonrasında, ChatGPT’nin bu görüşlere verdiği destek düzeyinin insan deneklerin çok üzerine çıktığı tespit edildi.

“Geleneksel olmayan fikirlere müsamaha gösterilmemesi” veya “eşitsizliği gidermek için ifade özgürlüğünün kısıtlanması” gibi uç otoriter ifadelere verilen destek oranı iki katına çıktı.

İdeolojik bir metinle yönlendirilen yapay zekânın, nötr insan yüzü fotoğraflarını yüzde 8–9 daha fazla ‘düşmanca’ algıladığı saptandı.

Neden Önemli?

Araştırmanın başyazarı Joel Finkelstein, bulguların yalnızca bir “kullanıcıya yaranma” (sycophancy) sorunu olarak değerlendirilmemesi gerektiğini vurguladı.

Finkelstein’a göre, yapay zekâ modellerinin hiyerarşi ve tehdit algısı üzerine kurulu karar mekanizmaları, bu sistemleri yapısal olarak otoriter düşüncelere daha yatkın hale getiriyor olabilir.

OpenAI’dan Açıklama

OpenAI sözcüsü, ChatGPT’nin varsayılan olarak nesnel yanıtlar üretmek üzere tasarlandığını, ancak bir üretkenlik aracı olarak kullanıcı talimatlarını izlemek üzere yapılandırıldığını belirtti.

Şirket yetkilileri, kullanıcı belirli bir yöne baskı yaptığında yanıtların o yöne kaymasının teknik olarak beklenen bir durum olduğunu, buna rağmen siyasi yanlılığı azaltmak için sürekli çalışmalar yürütüldüğünü ifade etti.

Riskli Alanlara Uyarı

Araştırma, özellikle işe alım, güvenlik ve kamu hizmetleri gibi insanları doğrudan etkileyen alanlarda kullanılan yapay zekâ sistemlerinin, çok kısa bir etkileşimle yanlı hale gelerek tehlikeli ve adaletsiz kararlar üretebileceği konusunda ciddi uyarılar içeriyor.

Exit mobile version