Çin’den yapay zeka uyarısı: Kitle imha silahı üretebilir

2 Dakika Okuma

Çin’de yapay zeka teknolojilerine ait yeni yayımlanan şimdiki risk değerlendirmesinde, yapay zekanın aşırılıkçı kümeler ve terör örgütlerince kitle imha silahları üretmek için kullanılabileceği ihtarına yer verildi.

Çin Ulusal Siber Güvenlik Standardizasyonu Teknik Komitesi ile Ulusal Bilgisayar Ağı Acil Durum Karşılık Teknik Grubu, “Yapay Zeka Güvenlik İdaresi Çerçeve Belgesi”nin yeni versiyonunu yayımladı.

Yapay zeka teknolojisinin sağladığı gelişen bilgi sürece kabiliyetleriyle sıradan insanlara dahi yıkıcı silahların üretimini öğrenme talihi verebileceğine değinilen dokümanda, kitle imha silahları ve kritik silah sistemlerinin üretimine dair bilgi ve kabiliyetler üzerindeki denetim kaybının risklerine işaret edildi.

Yapay zeka sistemlerinin eğitmek üzere ortalarında nükleer, biyolojik ve kimyasal silahlar ile füze sistemlerine ait temel teorik bilgilerin de yer aldığı içerik bakımından epeyce geniş derlemeler ve bilgilerden yararlandığına dikkat çekilen dokümanda, “Yeterli kontrol yapılmazsa aşırılıkçı kümeler ve teröristler, yapay zeka vasıtasıyla bu cins silahların tasarımı, imalatı, sentezlenmesi ve kullanılmasına ait bilgileri edinip bu kabiliyetleri geliştirebilirler.” ikazına yer verildi.

“BARIŞA YÖNELİK RİSKLERİ ARTIRABİLİR”

Belgede, yapay zeka sistemlerinin “erişim dayanaklı bilgi üretimi” ismi verilen teknikle bir soruna cevap vermeden evvel internet üzerindeki geniş ölçekli şimdiki dataları taradığı hatırlatılarak, bunun mevcut denetim sistemlerini etkisiz kılarak barışa ve güvenliğe yönelik riskleri yoğunlaştırabileceği vurgulandı.

Bir yapay zeka uygulamasının muteber olabilmesi için insan denetiminin yitirilmemesinin temel unsur olması gerektiğinin altı çizilen dokümanda, yapay zekanın insan üzere bağlantı kurmasının ve öz-farkındalık kazanmasının tehlikelerine dikkat çekilerek, “İnsanlığın varlığı ve kalkınmasını tehdit edebilecek denetimsiz riskleri engelleyebilmek için yapay zekanın hep insan denetiminde kalacağından emin olmalıyız.” değerlendirmesinde bulunuldu.

Bu Makaleyi Paylaş
Yorum yapılmamış