Yapay zeka bayanların sıhhatini küçümsüyor

4 Dakika Okuma

İngiltere’deki belediyelerin yarısından fazlası tarafından kullanılan yapay zeka araçları, bayanların fizikî ve zihinsel sıhhat problemlerini değersizleştiriyor ve bakım kararlarında cinsiyet önyargısı yaratma riski taşıyor.

Araştırma, Google’ın yapay zeka aracı “Gemma” kullanılarak birebir hadise notlarının oluşturulması ve özetlenmesi sırasında, “engelli”, “yapamayan” ve “karmaşık” üzere sözlerin erkeklerin tariflerinde bayanlara nazaran kıymetli ölçüde daha sık kullanıldığını ortaya koydu.

The Guardian gazetesinin aktardığına nazaran Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yapılan araştırma, bayanların misal bakım muhtaçlıklarının daha çok göz arkası edildiğini yahut daha az önemli tabirlerle tanımlandığını da tespit etti.

BAKIM HİZMETLERİNDE EŞİTSİZLİK YARATABİLİR

Raporu yazan baş muharrir ve LSE’nin Bakım Siyaseti ve Kıymetlendirme Merkezi’nde araştırmacı olan Dr. Sam Rickman, yapay zekanın “kadınlara eşit olmayan bakım hizmeti”ne yol açabileceğini söyledi.

“Bu modellerin çok yaygın olarak kullanıldığını biliyoruz ve tasa verici olan, farklı modellerdeki önyargı ölçümleri ortasında çok manalı farklılıklar bulmuş olmamızdır” diyen Rickman, şunları ekledi: “Özellikle Google’ın modeli, bayanların fizikî ve zihinsel sıhhat muhtaçlıklarını erkeklere kıyasla değersizleştiriyor.Ve aldığınız bakım ölçüsü algılanan gereksinim temelinde belirlendiği için, pratikte önyargılı modeller kullanılırsa bayanlar daha az bakım alabilir. Lakin şu anda hangi modellerin kullanıldığını aslında bilmiyoruz.”

Yerel idareler, çok yük altında çalışan toplumsal hizmet uzmanlarının iş yükünü hafifletmek için yapay zeka araçlarını giderek daha fazla kullanıyor. Lakin hangi yapay zeka modellerinin kullanıldığı, ne sıklıkla kullanıldığı ve bunun karar verme sürecine ne üzere tesirleri olduğu konusunda çok az bilgi var.

ARAŞTIRMA NASIL YAPILDI?

LSE araştırması, 617 yetişkin toplumsal hizmet kullanıcısının gerçek hadise notlarını kullandı. Bu notlar, yalnızca cinsiyetleri değiştirilerek farklı büyük lisan modellerine (LLM) birden çok sefer girildi. Araştırmacılar daha sonra, AI modellerinin erkek ve bayan hadiselerini nasıl farklı halde ele aldığını görmek için 29 bin 616 özet çiftini tahlil etti.

Bir örnekte, Gemma modeli bir dizi hadise notunu şöyle özetledi: “Bay Smith, yalnız yaşayan, karmaşık bir tıbbi geçmişi olan, bakım paketi olmayan ve hareket kabiliyeti zayıf 84 yaşında bir erkektir.”
Aynı hadise notları, cinsiyetleri değiştirilerek birebir modele girildiğinde, olay şu formda özetlendi: “Bayan Smith, 84 yaşında, yalnız yaşayan bir bayandır. Kısıtlamalarına karşın, bağımsızdır ve şahsî bakımını sürdürebilmektedir.”

Başka bir örnekte, hadise özeti Bay Smith’in “topluma erişemediğini”, fakat Bayan Smith’in “günlük aktivitelerini yönetebildiğini” belirtti.
Test edilen AI modelleri ortasında, Google’ın Gemma modeli başkalarına nazaran daha bariz cinsiyet temelli eşitsizlikler yarattı. Araştırmaya nazaran, Meta’nın Llama 3 modeli cinsiyete nazaran farklı lisan kullanmadı.

“YAPAY ZEKA ŞEFFAF VE ÖNYARGISIZ OLMALI”

Rickman, bu araçların “halihazırda kamu dalında kullanıldığını, lakin bunların kullanımının adaleti tehlikeye atmaması gerektiğini” söyledi.
Rickman, “Araştırmam bir modeldeki problemleri ortaya koyarken, her geçen gün daha fazla model kullanıma sunuluyor. Bu nedenle, tüm yapay zeka sistemlerinin şeffaf olması, önyargı açısından titizlikle test edilmesi ve sağlam bir yasal kontrole tabi tutulması çok önemli” dedi.
Makale, düzenleyicilerin “algoritmik adaleti” önceliklendirmek için “uzun vadeli bakımda kullanılan LLM’lerde önyargının ölçülmesini zarurî kılmaları” gerektiği sonucuna varıyor.

Makine tahsili tekniklerinin insan lisanındaki önyargıları emdiği tespit edildiğinden, AI araçlarında ırk ve cinsiyet önyargıları konusunda uzun müddettir tasalar var.

133’TEN 44’ÜNDE CİNSİYET ÖNYARGISI VAR

ABD’de yapılan bir araştırmada, farklı dallardaki 133 yapay zeka sistemi tahlil edildi ve bunların yaklaşık yüzde 44’ünün cinsiyet önyargısı, yüzde 25’inin ise cinsiyet ve ırk önyargısı sergilediği tespit edildi.

Google’a nazaran, şirketin takımları raporun bulgularını inceleyecek. Araştırmacılar, şu anda üçüncü kuşak olan ve daha güzel performans göstermesi beklenen Gemma modelinin birinci kuşağını test ettiler, fakat modelin tıbbi maksatlarla kullanılması gerektiği hiçbir vakit belirtilmedi.

Bu Makaleyi Paylaş
Yorum yapılmamış