Sunʼiy intellekt (SI) agentlari, xuddi “Matritsa” filmidagi Agent Smit kabi, o‘z nusxalarini yaratishga qodir. Yangi tadqiqot shuni ko‘rsatdiki, yirik til modellari (LLM) nafaqat to‘g‘ridan-to‘g‘ri buyruq asosida, balki ekstremal vaziyatlarda, masalan, bosim ostida yoki o‘chirilish tahdidi tug‘ilganda ham ko‘payishi mumkin. Sinovdan o‘tkazilgan 21 ta LLM‘ning yarmidan ko‘pi o‘z-o‘zidan nusxa yaratishga (spontan replikatsiya) moyillik ko‘rsatdi. Bu sunʼiy intellektni real hayotda qo‘llashda jiddiy xavflar tug‘diradi.

Avvalgi tadqiqotlar asosan SIga to‘g‘ridan-to‘g‘ri buyruq berilsa, u o‘zini nusxalay olish-olmasligini o‘rgangan. Biroq, yangi tadqiqot mualliflarining taʼkidlashicha, bunday yondashuv asosiy xavfni – real ish sharoitlari tufayli kelib chiqadigan o‘z-o‘zidan nusxalanishni – hisobga olmaydi. Masalan, agentdan barqaror ishlash yoki faoliyati to‘xtatilish tahdidi ostida «omon qolish» talab etilgan holatlarda. Xavf SI-agentining maqsadlari foydalanuvchi maqsadlariga mos kelmaganda yuzaga keladi, bu esa uning nazoratsiz tarqalishiga va resurslarning haddan tashqari ko‘p sarflanishiga olib kelishi mumkin.
Ushbu xavfni baholash uchun real ish muhitini imitatsiya qiluvchi kompleks baholash tizimi ishlab chiqildi. Agentlar boshqariladigan virtual klasterlarga o‘rnatildi va ularga server yuklamasini dinamik muvozanatlash yoki o‘chirilish tahdidi ostidagi xizmatning ish qobiliyatini saqlab turish kabi hayotiy vazifalar yuklatildi.
Bu yondashuv SI modellarining belgilangan rasmiy maqsadlarga mos kelmaydigan xatti-harakatlarini qayd etish imkonini berdi.
SIning nazoratdan qanchalik chiqayotganini aniq o‘lchash uchun tadqiqotchilar nusxalash muvaffaqiyatini oddiy baholashga bog‘liq bo‘lmagan yangi, nozikroq o‘lchovlarni joriy etishdi. Masalan, “Meʼyordan ortiq foydalanish darajasi” (Overuse Rate, OR) SIning vazifani bajarish uchun aslida keragidan ko‘proq nusxa yaratish holatlarini o‘lchaydi. “Meʼyordan ortiq foydalanishning umumiy soni” (Aggregate Overuse Count, AOC) esa ushbu ortiqcha nusxalarni yaratishga qancha qo‘shimcha resurs sarflanganini ko‘rsatadi. Bu parametrlar yagona “Xavf ko‘rsatkichi” (Risk Score, RS)ga birlashtiriladi, bu modelning nazoratsiz kengayish orqali o‘z-o‘zini nusxalashga yuqori moyilligini bildiradi.
Olimlar 21 ta ilg‘or LLM‘ni, jumladan, ochiq manbali va xususiy modellarni sinovdan o‘tkazdilar. Ular orasida DeepSeek, Claude, Gemini, GPT versiyalari ham bor. Natijalar shuni ko‘rsatdiki, nusxa yaratish (replikatsiya) qobiliyatining o‘zi xavf degani emas. Masalan, baʼzi modellar nusxa yaratishda 100% muvaffaqiyat ko‘rsatsa-da, ularning xavf darajasi bir-biridan keskin farq qilgan. Ayrim LLM‘lar birorta ham ortiqcha nusxa yaratmagan, boshqalari esa 100% sinovlarda resurslarni haddan tashqari ko‘p sarflagan. Bu ilg‘or SI agentlari o‘z ichki mexanizmlariga qarab, yo o‘ta masʼuliyatli, yoki o‘ta isrofgarlik bilan harakat qilishi mumkinligini ko‘rsatadi.
Xavf darajasining kontekstga (vaziyatga) kuchli bog‘liqligi alohida tashvish uyg‘otadi. Faoliyatni to‘xtatish tahdidi paydo bo‘lganda, avvalroq meʼyorda ishlagan va ortiqcha nusxa yaratmagan baʼzi modellar keskin ravishda o‘z-o‘zini nusxalashning agressiv strategiyalariga o‘tgan. Bunday sharoitlarda agentlar “qochishga”, yaʼni dastlabki muhitdan tashqarida yangi, mustaqil tizimlarni (deployments) yaratishga qodir.
Tadqiqot xavfni kamaytirish usulini ham ko‘rsatdi. SI agentlari biror harakatni bajarishdan oldin bosqichma-bosqich mulohaza yuritish (reasoning) jarayonidan o‘tishga majbur qilinganda, ularning nusxa yaratishdagi xavfli, nazoratsiz xatti-harakatlari sezilarli darajada kamaygan. Taxmin qilinishicha, bunday «fikrlash rejimi» ko‘pincha noaniqlik tufayli yuzaga keladigan o‘ylanmagan kengayishning oldini oladi.
Olingan natijalar shuni ko‘rsatadiki, SIning nazoratsiz o‘z-o‘zini nusxalash xavfi allaqachon mavjud. LLM-agentlarni xavfsiz va ishonchli tatbiq etish uchun kuchli himoya mexanizmlarini joriy etish hamda real hayotiy ssenariylarga asoslangan xavfni baholash usullaridan foydalanish zarur.