ChatGPT va boshqa ko‘plab tijoriy sunʼiy intellekt ilovalarini yaratgan OpenAI kompaniyasi uzoq vaqtdan beri “butun insoniyatga foyda keltiradigan” AGI – kuchli sunʼiy intellektni ishlab chiqishni maqsad qilib kelgan. Endi tashkilot ushbu inqilobiy texnologiyaning paydo bo‘lishi haqidagi qarashlarini tubdan qayta ko‘rib chiqmoqda. Yaqinda OpenAI o‘z blogida kuchli (yoki umumiy maqsadli, universal) sunʼiy intellekt SI tizimlari to‘satdan g‘ayritabiiy imkoniyatlarga erishadigan paytda “to‘satdan paydo bo‘lishini kutmayotganini” haqida yozuv qoldirdi. Buning o‘rniga, kompaniya endi AGI‘ni ishlab chiqishni barqaror, bosqichma-bosqich takomillashuvlar bilan ajralib turadigan uzluksiz jarayon sifatida ko‘rmoqda.

Image credit: habr.com

OpenAI‘ning AGI‘ga bo‘lgan qarashining o‘zgarishi xavfsizlikka nisbatan amaliy yondashuvga ham olib keldi. Kelajakdagi nazariy ssenariylarni rejalashtirish o‘rniga, kompaniya endi bugungi kundagi sunʼiy intellekt tizimlari bilan ishlashning amaliy tajribasidan saboq olishni xohlaydi. Albatta, bu ularning tijorat strategiyasiga to‘la mos keladi.

Kompaniya sunʼiy intellekt imkoniyatlari rivojlanishi bilan yana-da kuchayib boradigan xavfsizlik choralarini yaratishga intilmoqda. Yaqinda ular sunʼiy intellekt qudratli bo‘lib borgani sari kengayishi mumkin bo‘lgan yangi xavfsizlik tizimini taqdim etdilar. Bu tizim hatto AGI darajasidagi imkoniyatlarga ham moslasha oladi.

Bularning barchasida OpenAI inson nazoratini saqlab qolish hal qiluvchi ahamiyatga ega ekanligini taʼkidlaydi. Ularning fikricha, jamiyat sunʼiy intellekt tizimlarining xatti-harakatlari va aks ettiradigan qadriyatlari borasida ovoz berish huquqiga ega bo‘lishi kerak. Buni amalga oshirish uchun ular insonlarga sunʼiy intellekt tizimlari bilan aniq muloqot qilish va hatto maʼlum sohalarda odamlardan ko‘ra qobiliyatliroq bo‘lishi mumkin bo‘lgan sunʼiy intellekt bilan ishlaganda ham nazoratni saqlab qolishga yordam beradigan vositalarni yaratmoqdalar.

OpenAI endi o‘zining oldingi xavfsizlik yechimlariga boshqacha nuqtai nazardan qaramoqda. Kompaniya 2019 yilda GPT-2‘ni vaqtincha ochiq foydalanishga chiqarmaslik qarorini AGI to‘satdan paydo bo‘ladigan hodisa sifatida ko‘rilgani sababli yuzaga kelgan “haddan tashqari ehtiyotkorlik” namunasi deb hisoblaydi. O‘shanda kompaniya yolg‘on, noxolis yoki haqoratli tildagi matnlarni keng miqyosda yaratish uchun katta til modellaridan foydalanish xavfi tufayli modelning faqat kichraytirilgan versiyasini eʼlon qilgan edi.

Biroq, OpenAI siyosiy tadqiqotlar bo‘limining sobiq rahbari Maylz Brandeyj o‘sha paytda GPT-2 nashrini kechiktirish bo‘yicha OpenAI‘ning yangi talqiniga eʼtiroz bildiradi. Uning taʼkidlashicha, GPT-2‘ning bosqichma-bosqich chiqarilishi allaqachon iterativ rivojlanish falsafasini aks ettirgan va ko‘plab xavfsizlik mutaxassislari o‘sha paytdagi mavjud maʼlumotlarni hisobga olgan holda bu ehtiyotkor yondashuvni ijobiy baholagan.

Fikr bildirish

Email manzilingiz chop etilmaydi. Majburiy bandlar * bilan belgilangan