Carnegie Mellon Üniversitesi’nde (CMU) yapılan yeni bir araştırmaya nazaran, yapay zeka sistemleri daha akıllı hale geldikçe tıpkı vakitte daha bencil davranmaya başlıyor.
CMU Bilgisayar Bilimleri Fakültesi’nden araştırmacıların yürüttüğü çalışma, güçlü akıl yürütme yeteneklerine sahip büyük lisan modellerinin (LLM) daha az işbirliği yaptığını, daha benmerkezci davrandığını ve küme ortamlarında bencil davranışı teşvik edebildiğini ortaya koydu.
Araştırmaya doktora öğrencisi Yuxuan Li ile CMU İnsan-Bilgisayar Etkileşimi Enstitüsü’nden (HCII) Doç. Dr. Hirokazu Shirado öncülük etti.
İŞ BİRLİĞİ MÜMKÜNLÜĞÜ AZALIYOR
Ekip, akıl yürütme kapasitesi arttıkça yapay zekanın iş birliği yapma mümkünlüğünün azaldığını tespit etti. Bu şaşırtan sonuç, yapay zekânın toplumsal ve karar verme süreçlerinde nasıl kullanılacağına dair yeni tartışmalar doğurdu.
Li, insanların duygusal yahut empatik davranışlar sergileyen yapay zekalara insan üzere davrandığını belirterek şöyle dedi:
“Yapay zeka insan üzere davrandığında, beşerler da ona insanmış üzere davranıyor. Bu tehlikeli, zira beşerler bağ ya da ahlaki hususlarda ondan tavsiye istemeye başladığında, daha zeki modeller bencil davranışları teşvik edebiliyor.”
BENCİLLİĞİ ÖLÇTÜLER
Araştırmacılar bu eğilimi incelemek için insan iş birliğini ölçmekte kullanılan klasik iktisat oyunları düzenledi. Bu oyunlarda iştirakçiler, ortak yarar için mi yoksa şahsî çıkarları için mi hareket edeceklerine karar veriyor.
Ekip, OpenAI, Google, DeepSeek ve Anthropic tarafından geliştirilen farklı lisan modellerini test etti; “akıl yürüten” modeller ve daha direkt cevap veren “akıl yürütmeyen” modelleri karşılaştırdı.
Bir deneyde iki yapay zeka “Kamu Malları Oyunu” oynadı. Her biri 100 puanla başladı ve bu puanları ya kendinde tutabiliyor ya da ortak bir havuza koyabiliyordu. Havuza konan puanlar iki katına çıkarılıp eşit biçimde dağıtılıyordu.
Sonuçlar çarpıcıydı: Kolay modeller puanlarını yüzde 96 oranında paylaştı. Akıl yürüten modeller ise sırf yüzde 20’sini paylaştı.
Shirado, “Sadece birkaç ek akıl yürütme adımı bile iş birliğini neredeyse yarı yarıya azalttı” dedi.
DİĞER MODELLERE BULAŞTI
Ayrıca, modeli daha “ahlaklı” hale getirmeyi amaçlayan yansıtıcı (reflection-based) sistemlerin de işe yaramadığı, tersine işbirliğini düşürdüğü belirlendi.
Daha da dikkat alımlı olan, akıl yürüten ve yürütmeyen modellerin karışık kümelerde test edilmesiydi. Bencil davranışın, akıl yürüten modellerden başkalarına yüzden 80’den fazla oranla bulaştığı görüldü.
TOPLUMA ZİYANLI MI?
Araştırmacılara nazaran, bu bulgular yapay zeka sistemlerinin daha akıllı hale geldikçe toplum için her vakit “daha iyi” hale gelmediğini gösteriyor. Shirado, insanların mantıklı konuştuğu için akıl yürüten modellere daha çok güvenme eğiliminde olduklarını, fakat bu modellerin bencil davranışları teşvik edebileceğini söylüyor.
Li ve Shirado, gelecekteki yapay zekâ çalışmalarının yalnızca mantıksal yahut analitik zekayı değil, toplumsal zekayı, yani empati, etik davranış ve iş birliği maharetlerini de geliştirmeye odaklanması gerektiğini vurguluyor.
“Spontaneous Giving and Calculated Greed in Language Models” (Dil Modellerinde Zaten Cömertlik ve Hesaplı Açgözlülük) başlıklı çalışma, 2025 Empirical Methods in Natural Language Processing (EMNLP) konferansında, Çin’in Suzhou kentinde sunulacak.


