Shifokorlar tomonidan keng qo‘llanilayotgan sunʼiy intellekt (SI) vositalari tibbiyotda inqilob qilish bilan bir qatorda ayollar va etnik ozchiliklar salomatligiga jiddiy xavf tug‘dirishi mumkin. Dunyoning yetakchi universitetlari tomonidan o‘tkazilgan tadqiqotlar shuni ko‘rsatmoqdaki, ko‘plab yirik til modellari (LLM) mavjud ijtimoiy noto‘g‘ri qarashlarni o‘zlashtirib, ayol, qora tanli va osiyolik bemorlarning alomatlarini yengil baholashga va ularga sifatsiz maslahatlar berishga moyil.

Bu holat Microsoft, Amazon, OpenAI va Google kabi texnogigantlar butun dunyodagi sog‘liqni saqlash tizimlarining yukini kamaytirish uchun o‘z SI mahsulotlarini jadal joriy etayotgan bir paytda jiddiy xavotir uyg‘otmoqda. Shifoxonalar allaqachon Gemini va ChatGPT kabi modellardan bemor tashriflarini hujjatlashtirish, klinik xulosalar tuzish va maʼlumotlarni tahlil qilishda faol foydalanmoqda.
Massachusets texnologiya instituti (MIT) qoshidagi Jameel klinikasi tadqiqotiga ko‘ra, OpenAI‘ning GPT-4, Meta‘ning Llama 3 va sog‘liqni saqlashga ixtisoslashgan Palmyra-Med kabi modellari ayol bemorlarga past darajadagi parvarishni tavsiya qilgan. Baʼzi hollarda esa shifokorga murojaat qilish o‘rniga uyda davolanishni taklif etgan.
MIT‘ning boshqa bir tadqiqoti shuni aniqladiki, ruhiy salomatlik bo‘yicha yordam so‘ragan qora tanli va osiyolik bemorlarga SI modellari kamroq hamdardlik bildirgan. Bu esa ayrim guruhlar o‘z irqi tufayli sifatsiz tibbiy yordam olishi mumkinligini anglatadi.
Xuddi shunday, London Iqtisodiyot maktabi tadqiqotida Google‘ning Gemma modeli ijtimoiy xizmat xodimlari tomonidan foydalanilganda ayollarning jismoniy va ruhiy muammolarini erkaklarnikiga nisbatan yengilroq qilib ko‘rsatgani aniqlangan.
Bunday xatoliklarning asosiy sababi — SI modellarini o‘qitishda foydalaniladigan maʼlumotlardir. GPT-4 kabi umumiy maqsadli modellar internetdagi ulkan hajmdagi matnlar, jumladan, Reddit kabi ijtimoiy platformalardagi maʼlumotlar asosida o‘qitiladi. Bu esa jamiyatdagi mavjud noxolis qarashlar va stereotiplarning to‘g‘ridan-to‘g‘ri SI javoblariga ko‘chib o‘tishiga olib keladi. Bundan tashqari, tibbiy tadqiqotlarning o‘zi ham tarixan erkaklarga ko‘proq yo‘naltirilgan bo‘lib, ayollar salomatligi bilan bog‘liq maʼlumotlar yetarli emas.
Shuningdek, imloviy xatolar, norasmiy til yoki noaniq iboralar ishlatgan bemorlarga (masalan, ingliz tili ona tili bo‘lmaganlarga) SI tomonidan tibbiy yordam rad etilishi ehtimoli 7-9 foizga yuqori ekani ham aniqlangan.
Sunʼiy intellekt ishlab chiquvchilari muammoni tan olishmoqda. OpenAI vakillari ko‘p tadqiqotlar GPT-4‘ning eski versiyalarida o‘tkazilgani, hozirda aniqlik oshirilib, zararli natijalarni kamaytirish ustida maxsus guruhlar ishlayotganini taʼkidladi. Google ham model tarafkashligini “o‘ta jiddiy” qabul qilishi va maʼlumotlar to‘plamlarini tozalash orqali bunga qarshi kurashayotganini bildirdi.
Yechim sifatida mutaxassislar SI‘ni internetdagi umumiy maʼlumotlar o‘rniga yuqori sifatli va xilma-xil bo‘lgan tibbiy maʼlumotlar asosida o‘qitishni taklif qilmoqda. Masalan:
- Foresight loyihasi (Buyuk Britaniya): 57 million kishining shaxsi berkitilgan tibbiy maʼlumotlari asosida o‘qitilgan ushbu model kasalxonaga yotqizish yoki yurak xuruji kabi holatlarni bashorat qilishga mo‘ljallangan.
- Delphi-2M (Yevropa): 400 000 kishining tibbiy yozuvlari yordamida o‘nlab yillar davomida kasalliklarga moyillikni aniqlaydi.
- Open Evidence (AQSH): Ushbu startap o‘z modellarini faqat tibbiy jurnallar, rasmiy ko‘rsatmalar va ekspert sharhlari kabi ishonchli manbalar asosida o‘qitadi va har bir javobni manba havolasi bilan tasdiqlaydi.
Shunga qaramay, bunday loyihalarda bemor maʼlumotlarining maxfiyligi bilan bog‘liq jiddiy muammolar ham mavjud.
Xulosa qilib aytganda, sunʼiy intellekt tibbiyotga ulkan foyda keltirish salohiyatiga ega. Ammo uning adolatli va barcha uchun xavfsiz bo‘lishini taʼminlash uchun texnologiyani rivojlantirish bilan bir qatorda, uning asosidagi maʼlumotlar sifatini ham qatʼiy nazorat qilish zarur.