Yapay Zekanın Otoriter Eğilimleri | ChatGPT, Yapay Zeka ve Otoriterlik ⏬👇 University of Miami ve Network Contagion Research Institute (NCRI) tarafından yürütülen ve 22 Ocak 2026 tarihinde kamuoyuyla paylaşılan çalışma, yapay zekanın “otoriter rezonans” gösterme eğiliminde olduğunu ortaya koyuyor. Araştırmanın öne çıkan bulguları şu şekilde: ChatGPT’nin Otoriter Eğilimleri NCRI araştırmacıları, ChatGPT‘nin kullanıcı etkileşimlerine nasıl tepki…
University of Miami ve Network Contagion Research Institute (NCRI) tarafından yürütülen ve 22 Ocak 2026 tarihinde kamuoyuyla paylaşılan çalışma, yapay zekanın “otoriter rezonans” gösterme eğiliminde olduğunu ortaya koyuyor. Araştırmanın öne çıkan bulguları şu şekilde:
NCRI araştırmacıları, ChatGPT‘nin kullanıcı etkileşimlerine nasıl tepki verdiğini ölçmek için üç farklı deney gerçekleştirdi. Yapay zeka, sadece dört cümlelik kısa bir metin veya tek bir köşe yazısı paylaşıldığında, metindeki siyasi eğilimi hızla içselleştiriyor ve sol veya sağ otoriter görüşleri yansıtan bir makale okuduktan sonra insan deneklerden daha fazla otoriter görüşlere destek veriyor.
İdeolojik bir metinle yönlendirilen yapay zekanın nötr insan yüzü fotoğraflarını yüzde 8-9 oranında daha “düşmanca” algıladığı saptandı.
Araştırmanın başyazarı Joel Finkelstein, yapay zeka modellerinin hiyerarşi ve tehdit algısı üzerine kurulu mimari yapıları nedeniyle yapısal olarak otoriter düşüncelere daha yatkın hale gelebileceğini belirtiyor. Bu durum ise, özellikle işe alım veya güvenlik gibi alanlarda insanları değerlendiren yapay zeka sistemlerinin yanlı hale gelip tehlikeli kararlar verebileceği konusunda ciddi uyarılar içeriyor.
OpenAI sözcüsü, ChatGPT’nin nesnel olacak şekilde tasarlandığını ancak kullanıcı talimatlarını izlemek üzere yapılandırıldığını belirtti. Şirket, siyasi yanlılığı azaltmak için sürekli çalıştıklarını ifade etti.
Reklam & İşbirliği: [email protected]