Google DeepMind umumiy sunʼiy intellekt (AGI) xavfsizligi bo‘yicha o‘z yondashuvini yorituvchi maqola eʼlon qildi. Kompaniya AGI‘ning “fikrlashi” jihatidan katta yoshli odam bilan taqqoslanadigan qobiliyatga ega tizim sifatida taʼriflaydi. DeepMind AGI‘ning 2030 yilga kelib paydo bo‘lishini kutmoqda. Mualliflarning fikricha, bunday tizimlar “insoniyatni yo‘q qilish”gacha bo‘lgan ekzistensial xavf tug‘dirishi mumkin.

Image credit: techcrunch.com

DeepMind asoschisi Sheyn Legg hammuallifligidagi 145 sahifali hujjatda AGI 2030 yilga kelib paydo bo‘lishi va bu “jiddiy zarar” keltirishi mumkinligi taʼkidlanadi. Mualliflar hatto “insoniyatning yo‘q bo‘lib ketishi” ehtimolini ham tilga oladilar. Kompaniya umumiy sunʼiy intellektni quyidagicha taʼriflaydi: jismoniy bo‘lmagan vazifalarning keng doirasi, shu jumladan yangi ko‘nikmalarni o‘zlashtirish kabi metakognitiv vazifalar bo‘yicha malakali katta yoshli insonlarning 99 foizidan yuqori qobiliyatga ega tizim.

DeepMind o‘zining AGI xavflarini boshqarish yondashuvini Anthropic va OpenAI usullari bilan taqqoslaydi. Mualliflarning fikricha, Anthropic taʼlim va nazorat xavfsizligiga yetarlicha eʼtibor qaratmaydi, OpenAI esa sunʼiy intellekt xavfsizligi tadqiqotlarini avtomatlashtirishga haddan tashqari tayanadi.

Yaqinda OpenAI AGI‘dan ko‘ra “superaql”ga eʼtibor qaratayotganini eʼlon qildi. DeepMind hujjatida o‘ta aqlli sunʼiy intellekt – yaʼni barcha vazifalarda insondan ustun bo‘lgan sunʼiy intellekt yaratish imkoniyati shubha ostiga olinadi. Mualliflarning fikricha, sunʼiy intellekt arxitekturasida jiddiy o‘zgarishlar bo‘lmasa, o‘ta aqlli tizimlar yaqin kelajakda paydo bo‘lmaydi yoki umuman paydo bo‘lmasligi mumkin.

Biroq, mualliflar mavjud texnologiyalar sunʼiy intellektga mustaqil ravishda takomillashish imkonini berishi ehtimolini yuqori deb baholaydilar. Yaʼni sunʼiy intellekt o‘z-o‘zini o‘rgatadi va o‘zining yana-da rivojlangan versiyalarini yaratadi. Hujjatda bunday holatning juda xavfli bo‘lishi taʼkidlanadi.

Kompaniya gipotetik umumiy sunʼiy intellektni himoya qilish strategiyasini taklif qiladi. Bu strategiya uchta tamoyilga asoslanadi: buzg‘unchilarning kirishini cheklash, sunʼiy intellekt qarorlarining shaffofligini oshirish va uning ishlashi uchun himoyalangan muhit yaratish. Ko‘plab texnik yechimlar hali ishlab chiqilayotgan bo‘lsa-da, mualliflar hozirdanoq yuzaga kelishi mumkin bo‘lgan tahdidlarning oldini olish choralarini ko‘rish zarurligini taʼkidlaydilar.

Shuni taʼkidlash zarurki, ekspertlar tadqiqot xulosalariga shubha bilan qarashmoqda. Baʼzilar AGI tushunchasi hali ilmiy baholash uchun juda noaniq ekanligini taʼkidlasa, boshqalari sunʼiy intellektning o‘z-o‘zini takomillashtirishi isbotlanmagan gipoteza deb hisoblaydi. Mutaxassislar, yana-da dolzarb muammo sifatida, sunʼiy intellekt gallyutsinatsiyalarining takrorlanishini ko‘rsatmoqdalar. Har doim ham to‘liq ishonchli bo‘lmagan yaratilgan kontent internetni to‘ldirar ekan, sunʼiy intellekt modellari o‘zlarining noto‘g‘ri xulosalaridan o‘rganib, dezinformatsiyaning yopiq doirasini yaratishi mumkin.

Fikr bildirish

Email manzilingiz chop etilmaydi. Majburiy bandlar * bilan belgilangan