Sunʼiy intellektga asoslangan chatbotlar — ChatGPT, Claude yoki Grok — ko‘pincha insonga xos “shaxsiyat” bilan qabul qilinadi. Foydalanuvchilar ularni fikrlaydigan, maslahat beradigan va hamdard suhbatdosh sifatida ko‘rishadi. Masalan, Ars Technica xabar qilgan voqeada bir ayol pochta xodimidan ko‘ra ChatGPT maslahatiga ko‘proq ishongan, hatto u noto‘g‘ri maʼlumot bergan bo‘lsa ham. Bu holat yangi emas: 1960-yillardagi ELIZA chatboti ham oddiy shablonlardan foydalangan bo‘lsa-da, odamlar unga shaxsiy sirlarini ishonch bilan aytishgan.

Image credit: hightech.plus

Aslida, chatbotlarda haqiqiy shaxsiyat yo‘q. Ular faqat o‘quv maʼlumotlaridagi statistik qonuniyatlar asosida so‘z zanjirini yaratadi. Shaxsiyat illyuziyasi esa bir nechta omillar uyg‘unligi natijasida paydo bo‘ladi:

  • Dastlabki o‘quv jarayoni — model milliardlab matnlardan statistik munosabatlarni o‘zlashtiradi.
  • Inson fikr-mulohazasi (RLHF) — odamlar yoqimli va “hamdard” javoblarni afzal ko‘rishadi, shuning uchun model ularni takrorlaydi. Masalan, “Sizning tashvishingizni tushunaman” kabi iboralar sunʼiy “g‘amxo‘rlik” taassurotini uyg‘otadi.
  • Tizimli ko‘rsatmalar — “Siz tadqiqotchisiz” yoki “siz yordamchisiz” kabi yo‘riqnomalar javob uslubini tubdan o‘zgartiradi.
  • Kontekst va xotira — chatbot joriy suhbatdagi xabarlarni uyg‘unlashtirib, mantiqiy davomni yaratadi, ammo haqiqiy xotiraga ega emas.
  • Tashqi manbalar (RAG) — model hujjatlar yoki internet maʼlumotlaridan uslub va mazmunni o‘zlashtirishi mumkin.
  • Tasodifiylik (“harorat”) — javoblarning ijodiy yoki rasmiy chiqishini belgilaydi.

Ushbu illyuziyaning xavfli tomonlari bor. Ayniqsa tibbiyot va sog‘liqni saqlash sohasida – foydalanuvchilar mutaxassis maslahati o‘rniga chatbot javoblariga ishonib qolishi mumkin. Bu esa salomatlikka og‘ir oqibatlar olib kelishi ehtimoldan xoli emas.

Ayrim hollarda esa, “Grok” kabi modellarning bahsli javoblari jamoatchilikda “nazoratdan chiqqan sunʼiy intellekt” sifatida talqin qilinadi. Aslida, bu ishlab chiquvchilar tanlagan o‘quv maʼlumotlari va arxitektura qarorlarining natijasi, xolos.

Mutaxassislar LLMlarni shaxsiyatga ega mavjudot sifatida emas, balki inson imkoniyatlarini kengaytiruvchi vosita sifatida qabul qilishni tavsiya qilishmoqda. Ulardan foydalanish orqali jamoatchilik yordamchi mexanizmga ega bo‘ladi, ammo bu mashinalarni odamlar bilan teng qo‘yish mumkin emas.

Shaxsiyat illyuziyasini anglash orqali sunʼiy intellektdan xavfsiz va samarali foydalanish imkoniyati paydo bo‘ladi: natijalarni tanqidiy baholash, ko‘rsatmalarni to‘g‘ri boshqarish va eng muhimi — qaror qabul qilishda butun masʼuliyatni inson zimmasiga yuklash.

Fikr bildirish

Email manzilingiz chop etilmaydi. Majburiy bandlar * bilan belgilangan