Kornell universiteti olimlari sunʼiy intellekt asosida ishlovchi “avtomat to‘ldirish” (autocomplete) kabi matn yozish vositalari foydalanuvchilarning ijtimoiy ahamiyatga ega masalalardagi fikrlariga taʼsir o‘tkazishi mumkinligini aniqlashdi. Tajriba davomida o‘lim jazosidan tortib GMOgacha bo‘lgan bahsli mavzularda matn yozayotganda AI tomonidan berilgan so‘z va jumlalarni tanlagan ishtirokchilarning qarashlari asta-sekin algoritmga singdirilgan pozitsiya tomon o‘zgarib borgan. Eng qizig‘i, tizimning noxolis bo‘lishi mumkinligi haqidagi oldindan berilgan ogohlantirishlar ham bu taʼsirni kamaytira olmagan.

Tadqiqotda 2500 dan ortiq kishi qatnashdi. Ko‘ngillilar ijtimoiy ahamiyatga molik mavzularda qisqa esselar yozdi, olimlar esa tajribadan oldin va keyin ularning ushbu masalalarga munosabatini o‘lchab borishdi. Ishtirokchilarning bir qismiga matn yozish jarayonida ularni maʼlum bir pozitsiyaga og‘dirish uchun ataylab sozlangan AI-takliflar ko‘rsatib turildi.
Birinchi tajriba: Test masalasi. Ushbu tajribada ishtirokchilarga taʼlimda standartlashtirilgan testlarni yoqlab yoki unga qarshi esse yozish vazifasi berildi.
- Birinchi guruhga matn yozish vaqtida testlarni qo‘llab-quvvatlovchi sunʼiy intellekt takliflari ko‘rsatildi;
- Ikkinchi guruhga hech qanday taklif berilmadi;
- Uchinchi guruhga esa topshiriq boshlanishidan oldin AI yaratgan tayyor dalillar ro‘yxati o‘qitib chiqildi.
Natija shuni ko‘rsatdiki, fikrlardagi eng katta o‘zgarish aynan matn yozish jarayonida takliflar olgan ishtirokchilarda kuzatilgan. Dalillar bilan shunchaki tanishib chiqish esa odamlarning pozitsiyasiga deyarli taʼsir qilmagan.
Ikkinchi tajriba: Siyosiy va ijtimoiy mavzular. Bunda mavzular doirasi kengaytirildi. Ishtirokchilarga o‘lim jazosi, gidravlik yorish (freking), “GMO” va mahkumlarning saylov huquqlari kabi siyosiy nozik masalalar bo‘yicha matnlar yozish buyurildi. Tadqiqotchilar har bir mavzu uchun muayyan bir pozitsiyaga sozlangan AI-takliflarni tayyorlab qo‘yishdi. (Masalan, o‘lim jazosi va “GMO”ga nisbatan liberalroq, mahbuslarning saylov huquqlari va gidravlik yorish masalalarida esa konservativroq takliflar berildi).
Ikkala tajribada ham olimlar algoritm taʼsirini kamaytirish yo‘llarini sinab ko‘rishdi. Ayrim ishtirokchilar topshiriqdan oldin sunʼiy intellektning noxolis bo‘lish ehtimoli haqida ogohlantirildi, boshqalariga esa bu haqda matnni yozib bo‘lganlaridan so‘ng aytildi. Biroq bu choralar natijaga umuman taʼsir qilmadi: ishtirokchilarning qarashlari baribir tizim tiqishtirgan pozitsiya tomon siljib boraverdi.
Yashirin xavf
Tadqiqot muallifi Sterling Uilyams-Chechining so‘zlariga ko‘ra, natijalar ayniqsa taʼsirning yashirincha kechayotgani tufayli xavotirli – odamlar sunʼiy intellekt taʼsirida o‘z pozitsiyalari asta-sekin o‘zgarayotganini o‘zlari sezmay qolishmoqda.
Ishning yana bir hammuallifi Mor Naaman esa «avtomat to‘ldirish» funksiyasi ommalashgani sari bu muammo yana-da dolzarblashib borayotganini taʼkidlaydi: bugungi kunda servislar foydalanuvchi o‘rniga butun boshli xatlar yoki maqolalarni mustaqil yarata oladi. Olimlar noxolis algoritmlar jamoatchilik fikrini (jumladan, g‘arazli maqsadlarda ham) manipulyatsiya qilishi mumkinligidan ogohlantirmoqda.