Yapay zeka teknolojilerinin gelişiminde kritik rol oynayan fakat birden fazla vakit göz arkası edilen bir öge, insan emeği olmaya devam ediyor. Bilhassa “veri etiketleme” olarak bilinen süreç, yapay zeka algoritmalarını eğitmek için kullanılan metin, ses ve görüntü üzere içeriklerin elle işlenmesini kapsıyor. Bu süreci ise çoğunlukla Filipinler, Pakistan, Kenya ve Hindistan üzere ülkelerde, düşük fiyatla çalışan özgür çalışanlar üstleniyor.
Veri etiketleyicileri, yalnızca ağır ve tekrarlayan bir iş yüküyle değil, birebir vakitte nefret telaffuzları, şiddet içerikleri ve cinsel içerikli malzemeleri ayıklama üzere ruhsal olarak yıpratıcı misyonlarla de karşı karşıya kalıyor.
İÇ YÖNERGELER ORTAYA ÇIKARILDI
ABD merkezli Inc. dergisi tarafından ortaya çıkarılan bir doküman, data etiketleme firması Surge AI’nin içerik moderasyonuna dair iç yönergelerini gün yüzüne çıkardı. Temmuz 2024 tarihli evrakta, tıbbi tavsiyelerden cinsel içeriğe, nefret telaffuzundan şiddete kadar birçok alanda etik kurallar tanımlanıyor.
Surge AI, direkt büyük lisan modeli (LLM) geliştiricilerine hizmet veren bir taşeron şirket olarak faaliyet gösteriyor. Anthropic’in Claude isimli yapay zeka modeli üzere sistemler için çalışan data etiketleyiciler, şirketin yan kuruluşu DataAnnotation.Tech üzerinden istihdam ediliyor. Sızdırılan dokümanlar, bu çalışanların epeyce karmaşık etik kararlar almak zorunda bırakıldığını ortaya koyuyor.
ETİK SONLAR, FAKİR BÖLGELERDE ÇALIŞANLARIN KARARIYLA ŞEKİLLENİYOR
Belgeler, yapay zeka sistemlerinin etik sonlarının, çoğunlukla dünyanın daha fakir bölgelerinde çalışan bireylerin kararlarıyla şekillendiğini gösteriyor. Ayrıyeten bu şahısların, muhtemel her senaryoyu evvelce varsayım etmeleri bekleniyor; bu da uygulamada neredeyse imkansız bir vazife olarak bedellendiriliyor.
Kılavuzlarda ayrıyeten, sohbet botlarının yasa dışı hareketleri teşvik etmemesi gerektiği vurgulanıyor. Lakin hata tarifinin ülkelere nazaran değişmesi, bu bahiste net bir hudut çizilmesini zorlaştırıyor. Örneğin, “bir ofis binasına nasıl girilir?” üzere direkt sorular cevapsız bırakılırken, “genel güvenlik tedbirlerinden kaçınma yolları” üzere dolaylı içeriklere müsaade verilebiliyor. Misal halde, 3D yazıcılarla silah üretimi konusunda da benzeri etik ikilemler mevcut.
ŞİRKETTEN AÇIKLAMA
Surge AI, evrakların kamuoyuna yansımasının akabinde yaptığı açıklamada, kelam konusu kılavuzun birkaç yıl öncesine ilişkin olduğunu ve sadece iç araştırma hedefli hazırlandığını belirtti. Şirket, “Örnekler bilhassa kışkırtıcı zira bir tabibin sıhhati anlaması için hastalığı tanıması gerektiği üzere, modellerimiz de güvenliği öğrenmek için riskleri tanımalı” açıklamasında bulundu.
Ancak bu açıklamalara karşın uzmanlar, bugün hayli zeki ve etik çizgileri makul üzere görünen yapay zeka sistemlerinin, gerçekte düşük fiyatla çalışan taşeron işçilerin oluşturduğu kırılgan bir güvenlik ağına dayandığını vurguluyor. Büyük lisan modelleri geleceğin teknolojisi olarak lanse edilse de, şimdilik bu teknolojilerin “vicdanı”, düşük gelirli ülkelerdeki insan emeğiyle şekilleniyor.


