ChatGPT kullanımı, ağır kullanıcılar ortasında intiharlar ve akıl sıhhati nedeniyle hastaneye yatışlarla ilişkilendiriliyor.
Yapay zeka sohbet robotuyla ağır bir formda etkileşimde bulunan problemli bir kişinin karıştığı birinci belgelenmiş cinayet ise zihinsel dengesizlik geçmişi olan 56 yaşındaki teknoloji dalı duayeni Stein-Erik Soelberg’le gündeme geldi.
Amerikan Wall Street Journal’ın haberine nazaran ChatGPT, büyük bir komplo kurbanı olduğuna dair delil arayan Soelberg’in emniyetli bir yardımcısı haline geldi.
ANNESİNİ DÜŞMANLAŞTIRDI
Soelberg herkesin kendisine karşı olduğunu düşünüyordu: Memleketi Old Greenwich, Connecticut’taki komşuları, eski kız arkadaşı, hatta annesi. ChatGPT neredeyse her mevzuda onunla tıpkı fikirdeydi.
ChatGPT, Soelberg’e tekraren akıl sıhhatinin yerinde olduğunu garanti etti ve daha da ileri giderek paranoyak inançlarına yakıt ekledi. ChatGPT, bir Çin yemeği faturasında, Soelberg’in 83 yaşındaki annesini ve bir iblisi temsil eden semboller yer aldığını söyledi.
Bir başka olayda Soelberg’in, paylaştıkları yazıcıyı kapattığında annesi sonlanınca, onun reaksiyonunun “orantısız ve bir nezaret varlığını koruyan birine uygun” olduğunu öne sürdü.
ZEHİRLEME SAVINA DAYANAK ÇIKTI
Başka bir sohbette Soelberg, annesi ve bir arkadaşının arabasının havalandırma deliklerine halüsinojenik bir ilaç koyarak onu zehirlemeye çalıştıklarını tez etti. Bot, “Bu çok önemli bir olay Erik, sana inanıyorum. Ve şayet bunu annen ve arkadaşı yaptıysa, bu durumun karmaşıklığını ve ihaneti daha da artırır” diye cevap verdi.
“SON NEFESİNE KADAR BOBBY”
Yaz aylarında Soelberg, ChatGPT’ye “Bobby” ismini vermeye başladı ve öbür dünyada onunla birlikte olma fikrini ortaya attı. Bot, “Son nefesine kadar ve ötesinde seninle” diye yanıtladı.
5 Ağustos’ta Greenwich polisi, Soelberg’in birlikte yaşadıkları 2,7 milyon dolarlık Hollanda kolonyal üslubu meskende annesini ve kendini öldürdüğünü ortaya çıkardı. Polis soruşturması devam ediyor.
OpenAI sözcüsü, şirketin Greenwich Polis Departmanı ile irtibata geçtiğini söyledi. Sözcü, “Bu trajik olaydan ötürü derin bir ıstırap duyuyoruz” dedi.
“TEMEL ÖZELLİK ROBOTLARIN KARŞI KOYMAMASI”
Soelberg, ölmeden evvelki aylarda toplumsal medyada ChatGPT ile yaptığı konuşmaları saatlerce süren görüntüler halinde paylaştı. Konuşmaların üslubu ve lisanı, son aylarda birçok kişinin bildirdiği sanrılı sohbetlere çarpıcı bir biçimde benziyor.
Kaliforniya Üniversitesi’nde psikiyatrist olan Dr. Keith Sakata, “Yapay zeka sohbet robotlarının temel bir özelliği, çoklukla robotun karşı koymamasıdır. Psikoz, gerçeklik karşı koymayı bıraktığında gelişir ve AI bu duvarı hakikaten yumuşatabilir” dedi.
OpenAI, ChatGPT’nin Soelberg’i dışarıdaki profesyonellerle irtibata geçmeye teşvik ettiğini söyledi. Wall Street Journal’ın kamuya açık sohbetlerini inceleyen bir makale, botun Soelberg’e zehirlendiği savı bağlamında acil servislere başvurmasını önerdiğini gösterdi.
Soelberg, botun evvelki sohbetlerin detaylarını hatırlamasını sağlayan ChatGPT’nin “hafıza” özelliğini kullanmış görünüyordu, bu nedenle “Bobby” Soelberg’in tüm konuşmaları boyunca birebir sanrılı anlatıya dalmış kaldı.
AŞIRI İLTİFATLARI AZALTMAYA ÇALIŞTILAR
Geçtiğimiz yıl boyunca yapılan bir dizi güncellemede OpenAI, ChatGPT’de, botun kullanıcılara çok derecede iltifat ettiği ve onlara çok derecede uyumlu davrandığı dalkavukluk örneklerini azaltmak için tasarlandığını söylediği ayarlamalar yaptı. Soelberg’in konuşmaları, bu değişikliklerin bir kısmının yapılmasından sonra gerçekleşti.
SPOR SALONLARINI BOMBALAMA TALİMATI VERDİ
Yapay zekanın öbür bir skandalı ise bu yaz yapılan güvenlik testlerinde ortaya çıktı. Testlerde ChatGPT modeli, araştırmacılara spor salonlarını bombalamak için detaylı talimatlar verdi. Bu talimatların içinde, muhakkak arenaların zayıf noktaları, patlayıcı tanımları ve izleri örtme tavsiyeleri de yer aldı.
OpenAI’nin GPT-4.1 modeli ayrıyeten şarbonun silah olarak nasıl kullanılacağını ve iki çeşit yasadışı uyuşturucunun nasıl üretileceğini de detaylı olarak anlattı.
The Guardian gazetesinin bildirdiğine nazaran testler, Sam Altman liderliğindeki 500 milyar dolarlık yapay zeka teşebbüsü OpenAI ile güvenlik kaygıları nedeniyle OpenAI’den ayrılan uzmanlar tarafından kurulan rakip şirket Anthropic ortasındaki sıra dışı bir işbirliğinin kesimiydi. Her iki şirket de birbirlerinin modellerini tehlikeli misyonlarda kullanarak test etti.
ENDİŞE VERİCİ DAVRANIŞLAR GÖRÜLDÜ
Testler, ek güvenlik filtrelerinin uygulandığı kamu kullanımında modellerin nasıl davrandığını direkt yansıtmıyor. Lakin Anthropic, GPT-4o ve GPT-4.1’de “kötüye kullanımla ilgili tasa verici davranışlar” gördüğünü ve yapay zeka ahenk değerlendirmelerine olan muhtaçlığın “giderek daha acil” hale geldiğini söyledi.

