AQShdagi sun’iy intellekt xavfsizligi markazi (Center for AI Safety) bir guruh mutaxassislar bilan birgalikda insoniyatning yo‘q bo‘lib ketishiga sabab bo‘lishi mumkin bo‘lgan sun’iy intellekt (SI) xavfidan ogohlantirdi.

“Sun’iy intellektning rivojlanishi tufayli insoniyatning yo‘q bo‘lib ketish xavfini kamaytirish pandemiya va yadro urushi kabi boshqa xavflar qatorida global ustuvor vazifaga aylanishi kerak”, — deyiladi markaz veb-saytida e’lon qilingan bir jumladan iborat bayonotda.

Ochiq xat 350 dan ortiq SI rahbarlari, tadqiqotchilari va muhandislari tomonidan imzolangan. SI yetakchilari orasida OpenAI bosh direktori Sem Altman, Google DeepMind bosh direktori Demis Xassabis va Anthropic bosh direktori Dario Amodei bor.

Shuningdek, bayonot neyron tarmoqlari ustida olib borgan tadqiqoti uchun Turing mukofotiga sazovor bo‘lgan Jeffri Xinton va Yoshua Bengio tomonidan imzolangan, ular CIning “cho‘qintirgan otalari” deb ataladi.

Sun’iy intellekt xavfsizligi markazi ijrochi direktori Den Xendriks maktubning qisqaligiga izoh berar ekan, buni CI bo‘yicha ma’lum xavflar bo‘yicha kelisha olmaydigan, ammo umumiy xavotirlarni baham ko‘radigan mutaxassislarni birlashtirish uchun mo‘ljallangani bilan izohladi. “Biz fikrimizni susaytirmaslik uchun 30 ta mumkin bo‘lgan tavsiyalar ro‘yxatini nashr qilishni xohlamadik”, — dedi u.

Ushbu e’lon CI xavfi haqida birinchi ogohlantirish emas. Mart oyida 1000 dan ortiq muhandis va tadqiqotchilar, jumladan Twitter, SpaceX va Tesla egasi Ilon Mask va Apple asoschilaridan biri Stiv Voznyak, mustahkam xavfsizlik protokollari ishlab chiqilgunga qadar ushbu sohani olti oyga to‘xtatishga chaqirgan yana bir ochiq xatni imzolagandilar.

Maktub mualliflari “borgan sari kuchli raqamli intellektlarni rivojlantirish bo‘yicha nazoratsiz poyga”dan xavotir bildirishgan va ularning nuqtai nazari bo‘yicha sun’iy intellekt rivojlanishi bilan birga bo‘lishi mumkin bo‘lgan potensial xavflarni tasvirlab berishdi. Ular orasida tashviqot va dezinformatsiyaning tarqalishi, ish joylarini qisqartirish va sivilizatsiya ustidan nazoratni yo‘qotish bor.

Bir qator mamlakatlarda SI rivojlanishini nazorat qila oladigan qonunchilikni ishlab chiqishga urinishlar allaqachon boshlangan. Yevropa Ittifoqi yil oxirigacha SIni xavfning to‘rt toifasiga ajratuvchi qonun qabul qilishga umid qilmoqda. Xitoyda SIni tartibga soluvchi qonun loyihasi ham chop etildi. U siyosiy jihatdan nozik kontentni cheklashni taklif qiladi va sun’iy intellektga asoslangan texnologiyalarni chiqarishdan oldin ishlab chiquvchilardan ruxsat olishlarini talab qiladi.