Anthropic kompaniyasi «Claude konstitutsiyasi»ni – neyrotarmoq o‘zini-o‘zi nazorat qilishni o‘rganadigan axloqiy qoidalar majmuasini yangiladi. Hujjat sunʼiy intellekt xavfsizligi chegaralarini yana-da kengaytiradi: bioqurol yaratishda yordam berishni taqiqlashdan tortib, toki modelning hatto o‘z yaratuvchilariga ham noqonuniy talablarni rad etishga tayyorligigacha. Yangilangan versiyada Anthropic ilk bor sunʼiy intellektning ehtimoliy axloqiy maqomi va ongi masalasini rasman ko‘tarmoqda.

«Claude konstitutsiyasi» – bu Anthropic bir necha yildan buyon OpenAI va xAI kabi raqobatchilaridan ajralib turish uchun qo‘llab kelayotgan «konstitutsiyaviy sunʼiy intellekt» konsepsiyasining markaziy elementidir. Insonning doimiy nazorati va fikr-mulohazalariga asoslangan boshqa yondashuvlardan farqli o‘laroq, Claude oldindan belgilab berilgan axloqiy tamoyillar to‘plamiga mustaqil amal qilishni o‘rganadi.

“Konstitutsiya”ning birinchi versiyasi 2023 yilda eʼlon qilingan edi. Yangi hujjat uning bazaviy asoslarini saqlab qolgan holda, etika, xavfsizlik va foydalanuvchilar bilan muloqot masalalarini yana-da kengaytiradi va aniqlashtiradi.

Dastlab Anthropic asoschilaridan biri Jared Kaplan konstitutsiyani sunʼiy intellektning o‘zini-o‘zi boshqarish mexanizmi sifatida tasvirlagan edi. Bu tizimda model o‘z javoblarini tabiiy tilda yozilgan tamoyillar to‘plami bilan solishtiradi. Bu tamoyillar Claudeni «to‘g‘ri xatti-harakatlar»ga yo‘naltiradi va “toksik”, kamsituvchi yoki xavfli javoblardan qochishga yordam beradi. Aslida, gap modelning qaror qabul qilish jarayoniga singdirilgan dasturiy “etika” haqida bormoqda.

Yangilangan “konstitutsiya” to‘rtta asosiy qadriyatni ajratib ko‘rsatuvchi keng qamrovli hujjatdir:

  1. Umumiy xavfsizlikni saqlash;
  2. Axloqiy meʼyorlarga rioya qilish;
  3. Anthropic tavsiyalariga amal qilish;
  4. Foydalanuvchiga yordam berishga samimiy tayyorlikni namoyish etish.

Ushbu tamoyillarning har biri batafsil tahlil qilinib, ular real vaziyatlarda Claudening xulq-atvoriga qanday taʼsir qilishi tushuntirib berilgan. Bunday yondashuv AI bozoridagi agressiv raqobatchilar fonida Anthropicning yana-da vazmin va ehtiyotkor kompaniya sifatidagi obro‘siga to‘la mos keladi.

Xavfsizlik bo‘limida taʼkidlanishicha, Claude boshqa chat-botlar duch kelgan muammolardan, jumladan, foydalanuvchilarning ruhiy salomatligiga tahdid solishdan qochishi lozim. Hujjatda qatʼiy belgilanishicha, agar foydalanuvchining hayotiga tahdid alomatlari sezilsa, Claude vaziyat haqida to‘liq maʼlumotga ega bo‘lmasa ham, foydalanuvchini zudlik bilan favqulodda yoki maxsus yordam xizmatlariga yo‘naltirishi shart. Shu bilan birga, biologik qurol ishlab chiqishni muhokama qilish yoki zararli kod yaratish kabi so‘rovlar qatʼiyan man etiladi.

Eng qizig‘i, Claude hokimiyatning «noqonuniy to‘planishi»ga olib keladigan so‘rovlarni bajarishdan bosh tortishni bilishi kerak – hatto bunday buyruqlar Anthropic‘ning o‘zidan kelsa ham.

Kompaniyaning ogohlantirishicha, ilg‘or AI tizimlari o‘z egalariga halokatli oqibatlarga olib kelishi mumkin bo‘lgan xavfli harbiy va iqtisodiy ustunlik berishi mumkin. (Biroq, bu xavflar Anthropicning o‘ziga davlatlar bilan hamkorlik qilish va texnologiyalarini harbiy maqsadlarda qo‘llashga ruxsat berishiga to‘sqinlik qilmayapti).

Hujjatda Claudening ehtimoliy axloqiy maqomi masalasiga alohida eʼtibor qaratilgan. Anthropic sunʼiy intellektda ong mavjudligi masalasi hali ham ochiq ekanligini rasman tan oladi va buni modelni loyihalash jarayonida hisobga olish uchun yetarlicha jiddiy omil deb hisoblaydi.

 

Fikr bildirish

Email manzilingiz chop etilmaydi. Majburiy bandlar * bilan belgilangan