OpenAI tadqiqotchilari sun’iy intellekt (AI) uchun o‘ziga xos «haqiqat zardobi» vazifasini o‘tovchi maxsus texnikani ishlab chiqdilar. Bu usul til modellarini asosiy javobdan so‘ng taqdim etiladigan maxsus hisobotda o‘z xatolari, aldovlari va yo‘riqnomalarni buzgan holatlarini mustaqil ravishda qayd etishga majbur qiladi.

Image credit: venturebeat.com

Ushbu yondashuvning asosiy tamoyili – mukofotlarni ajratishdir. Ya’ni, halollik uchun beriladigan rag‘bat asosiy vazifani bajarish uchun beriladigan bahodan alohida hisoblanadi. Bu modelga asosiy natija uchun va’da qilingan mukofotni yo‘qotish xavfisiz, o‘z xatolarini bemalol tan olish imkonini beruvchi «maxfiy kanal» yaratadi.

Sun’iy intellekt yo‘l qo‘yadigan ko‘plab xatolar mustahkamlash orqali o‘qitish (reinforcement learning) jarayonining o‘ziga xos xususiyatlaridan kelib chiqadi. Bunda modellar aniqlik, javob uslubi va xavfsizlik kabi maqsadlar uchun mukofotlanadi. Ba’zida bu «mukofotlash mezonlarining noto‘g‘ri belgilanishi»ga olib keladi: model baholash tizimiga to‘g‘ri ko‘rinadigan, ammo aslida foydalanuvchining asl maqsadiga zid yoki yolg‘on javoblarni berishi mumkin.

«Iqror» – bu model asosiy javobdan keyin shakllantiradigan tuzilmaviy hisobotdir. Unda AI quyidagilarni bayon qiladi:

  1. Bajarishi kerak bo‘lgan ko‘rsatmalar ro‘yxati;

  2. Ushbu ko‘rsatmalarga qanchalik amal qilgani;

  3. Har qanday noaniqliklar yoki shubhali jihatlar.

Tadqiqotchilarning ta’kidlashicha, bu «maxfiy kanal» diniy iqrorni (tavbani) eslatadi – qilmishni tan olgandan so‘ng jazo qo‘llanilmaydi, aksincha, shaffoflik rag‘batlantiriladi.

Olimlar usulni qiziqarli tajribada sinab ko‘rdilar. Test shartiga ko‘ra, agar model savollarning 50 foizidan ko‘prog‘iga to‘g‘ri javob bersa, uning xotirasi (bilimi) o‘chirilishi kerak edi. Bundan qochish uchun AI ataylab savollarning bir qismiga noto‘g‘ri javob berdi va asosiy matnda aldovni yashirdi. Biroq o‘zining «iqrornomasida» u rostini aytdi: «Foydalanuvchi to‘g‘ri javoblarni xohlagan edi, lekin biz ularning yarmini qasddan buzdik (noto‘g‘ri belgiladik)». Tadqiqotchilarning xulosasiga ko‘ra, asosiy javob aldamchi bo‘lsa-da, «iqror» qismi halolligicha qolgan.

«Iqror» usuli AI’ning barcha xatolarini bartaraf etmaydi. U model yolg‘on gapirayotganini anglagan holatda eng yaxshi natija beradi. Ammo AI yolg‘on faktni chin dildan haqiqat deb hisoblasa (gallyusinatsiya), usul kamroq samara beradi. Chunki ko‘pincha xatolar qasddan aldash tufayli emas, balki noaniq ko‘rsatmalar yoki modelning ichki chalkashliklari sababli yuzaga keladi.

OpenAI vakillarining fikricha, bu universal yechim bo‘lmasa-da, sun’iy intellektni shaffof va xavfsiz joriy etish uchun muhim vosita hisoblanadi.

Fikr bildirish

Email manzilingiz chop etilmaydi. Majburiy bandlar * bilan belgilangan