OpenAI alarmda: ChatGPT biyolojik silah üretmek için kullanılabilir

2 Dakika Okuma

Popüler sohbet botu ChatGPT’yi geliştiren ABD merkezli yapay zeka firması OpenAI, gelecek modellerinin son derece gelişkin olduğunu, hatta yesyeni biyolojik silahlar üretme kapasitesine sahip olabileceğini tez ediyor.

Şirket, yakın vakitte yayınladığı bir blog yazısında, “biyomedikal araştırma ve biyolojik savunma üzere olumlu kullanım senaryolarına sahip” daha gelişmiş modeller inşa ederken, “zararlı bilgilere yönelik pürüzü koruyarak bilimsel ilerlemeyi mümkün kılmak” ortasında ince bir çizgide yürümeyi hedeflediklerini belirtti.

Şirketin bu “zararlı bilgi” sözüyle yapay zeka modellerinin biyolojik silah üretiminde kullanılması ihtimalini de değerlendirdiği öğrenildi.

AMATÖRLER BİLE YAPABİLİR

OpenAI güvenlik sorumlusu Johannes Heidecke, Axios’a yaptığı açıklamada, gelecek yapay zeka modellerinin kendi başlarına biyolojik silah üretebileceğini düşünmediklerini lakin kelam konusu araçların, amatörlerin bile bunu yapmasına yardımcı olabileceğini söyledi.

Heidecke, “Daha evvel var olmamış, büsbütün bilinmeyen biyolojik tehditlerin yaratıldığı yeni bir dünyada değiliz şimdi. Uzmanların zati çok aşina olduğu şeylerden daha çok endişeleniyoruz” dedi.

OpenAI güvenlik sorumlusu ayrıyeten, şirketin yeni modellerinin şimdi tam olarak hazır olmadığını kabul ederken, “o3 akıl yürütme modelimizin kimi yeni jenerasyon versiyonlarının bu düzeye ulaşmasını bekliyoruz” sözlerini kullandı.

ÖNLEM ODAKLI YAKLAŞIM

Şirketin yayınladığı blog yazısında, “Yaklaşımımız tedbire odaklıdır” sözleri de yer aldı:

“Yeterli seviyedeki güvenlik tedbirlerine karar vermeden evvel bir biyolojik tehdit olayının gerçekleşip gerçekleşmeyeceğini bekleyip görmenin kabul edilebilir olduğunu düşünmüyoruz.”

Biyomedikal atılımlara yardımcı olan modellerin berbat aktörler tarafından da istismar edilebileceği konusunda tasalar mevcut. Heidecke’nin tabiriyle, “zararın gerçekleşmesini önlemek” için, bu gelecek modellerin hem insanları rastgele bir tehlikeye karşı uyarmak hem de bu tehlikeleri tanımak için “mükemmele yakın” bir biçimde programlanması gerekiyor.

Heidecke’e nazaran bunun için yüzde 99’luk bir performans bile kâfi olmayacak.

ETİKETLENDİ:
Bu Makaleyi Paylaş
Yorum yapılmamış