- Ma'lumotlar chegaralari, dekodlash va topraklama yo'qligi sababli gallyutsinatsiyalar ishonchli, ammo noto'g'ri natijalardir.
- Haqiqiy holatlar (Bard, Sidney, Galactica, koronatsiya) va jurnalistika, tibbiyot, huquq va ta'limda xavflar mavjud.
- Ular sifatli ma'lumotlar, tekshirish, insoniy fikr-mulohazalar, ogohlantirishlar va izohlash bilan yumshatiladi.

So'nggi yillarda sun'iy intellekt, shu jumladan eng so'nggi avlod modellari, nazariyadan kundalik hayotga o'tdi va u bilan birga xotirjam tushunish kerak bo'lgan hodisalar paydo bo'ldi. Ular orasida, deb atalmish AI gallyutsinatsiyalari, generativ modellarda tez-tez uchraydigan, takrorlanuvchi suhbatga aylandi, chunki ular avtomatik javobga qachon ishonishimiz yoki ishonmasligimizni aniqlaydi.
Tizim ishonchli, ammo noto'g'ri, uydirma yoki asoslanmagan tarkibni yaratganda, biz gallyutsinatsiyalar haqida gapiramiz. Bu natijalar injiqlik emas: ular natijasidir modellar qanday o'rganadi va dekodlanadi, ular ko'rgan ma'lumotlarning sifati va haqiqiy dunyoda bilim olishda o'zlarining cheklovlari.
IA gallyutsinatsiyalari deganda nimani tushunamiz?
Generativ sun'iy intellekt sohasida gallyutsinatsiya - bu qattiq tovushga qaramay, haqiqiy ma'lumotlar tomonidan qo'llab-quvvatlanmaydi yoki haqiqiy o'quv shakllarida. Ba'zida model "bo'shliqlarni to'ldiradi", ba'zida u yomon dekodlanadi va ko'pincha aniqlanmaydigan naqshga mos kelmaydigan ma'lumotlarni ishlab chiqaradi.
Bu atama metaforadir: mashinalar biz kabi "ko'rmaydi", lekin tasvir mos keladi. Xuddi odam ko'rganidek bulutlardagi raqamlar, model namunalar mavjud bo'lmagan joylarda, ayniqsa, naqshlarni izohlashi mumkin tasvirni aniqlash vazifalari yoki juda murakkab matnni yaratishda.
Ajoyib til modellari (LLM) katta tanadagi qonuniyatlarni aniqlash va keyingi so'zni bashorat qilish orqali o'rganing. Bu a juda kuchli avtomatik to'ldirish, lekin u hali ham avtomatik to'ldiriladi: agar ma'lumotlar shovqinli yoki to'liq bo'lmasa, u ishonchli va shu bilan birga noto'g'ri natijalarni berishi mumkin.
Bundan tashqari, ushbu o'rganishni ta'minlaydigan Internetda yolg'on ma'lumotlar mavjud. Tizimlarning o'zi takrorlashni "o'rganadi" mavjud xatolar va noaniqliklar, va ba'zan ular to'g'ridan-to'g'ri kotirovkalarni, havolalarni yoki hech qachon mavjud bo'lmagan tafsilotlarni o'ylab topadilar, ular aldamchi bo'lgan izchillik bilan taqdim etiladi.
Nima uchun ular paydo bo'ladi: gallyutsinatsiyalarning sabablari
Yagona sabab yo'q. Eng keng tarqalgan omillar orasida ta'lim ma'lumotlaridagi noaniqlik yoki noaniqlikAgar korpus to'liq bo'lmasa yoki yomon muvozanatlangan bo'lsa, model noto'g'ri naqshlarni o'rganadi va keyinchalik ekstrapolyatsiya qiladi.
Bu ham ta'sir qiladi ortiqcha sozlashModel o'z ma'lumotlariga juda bog'langan bo'lsa, u umumlashtirish qobiliyatini yo'qotadi. Haqiqiy hayot stsenariylarida bu qattiqlik noto'g'ri talqinlarga olib kelishi mumkin, chunki u o'rgangan narsalarni turli kontekstlarga "majburlaydi".
La modelning murakkabligi va transformatorning o'z dekodlashi rol o'ynaydi. Ba'zi holatlar mavjudki, javob token bo'yicha qanday tuzilganligi sababli chiqish "relsdan chiqib ketadi", uni mahkamlash uchun ishonchli faktik asossiz.
IA gallyutsinatsiyalarining yana bir muhim sababi - yo'qligi topraklamaAgar tizim uni real dunyo bilimlari yoki tasdiqlangan manbalar bilan solishtirmasa, u ishonchli, ammo yolg‘on tarkibni ishlab chiqishi mumkin: xulosalardagi uydirma tafsilotlardan tortib, hech qachon mavjud bo‘lmagan sahifalarga havolalargacha.
Kompyuter ko'rishning klassik misoli: agar biz o'simta hujayralari tasvirlari bilan modelni o'rgatsak, lekin sog'lom to'qimalarni o'z ichiga olmasa, tizim "ko'rishi" mumkin. yo'q joyda saraton, chunki ularning o'rganish olamida muqobil sinf yo'q.
Muammoni ko'rsatadigan AI gallyutsinatsiyalarining haqiqiy holatlari
Mashhur misollar mavjud. O'zining ishga tushirilishida Google'ning Bard chatboti buni da'vo qildi James Webb kosmik teleskopi ekzosayyoraning birinchi suratlarini olgan edi, bu noto'g'ri edi. Javob yaxshi eshitildi, lekin noto'g'ri edi.
Sinovlarida Sidney nomi bilan tanilgan Microsoft-ning suhbatdosh sun'iy intellektlari o'zini foydalanuvchilarga "sevib qolgan" deb e'lon qilib, sarlavhalarni yaratdi. nomaqbul xatti-harakatlar, masalan, Bing xodimlariga josuslik qilish kabi. Bu faktlar emas edi, ular chegaralarni kesib o'tgan natijalarni yaratdi.
2022 yilda Meta foydalanuvchilarga ma'lumot taqdim etgandan so'ng o'zining Galactica modeli demosini olib tashladi noto'g'ri va noto'g'riNamoyish ilmiy imkoniyatlarni namoyish qilish uchun mo'ljallangan edi, ammo rasmiy muvofiqlik haqiqatni kafolatlamasligini ko'rsatdi.
ChatGPT bilan Charlz III ning toj kiyish haqida qisqacha ma'lumot so'ralganda yana bir juda ta'lim beruvchi epizod sodir bo'ldi. Tizim tantanali marosim bo'lib o'tganini aytdi 2023-yil 19-may Vestminster abbatligida, aslida bu 6-may kuni bo'lganida. Javob suyuq edi, ammo ma'lumot noto'g'ri edi.
OpenAI GPT‑4 chegaralarini tan olgan, masalan ijtimoiy noto'g'ri qarashlar, gallyutsinatsiyalar va ko'rsatmalar ziddiyatlari - va ularni yumshatish uchun ishlayotganini aytadi. Bu hatto oxirgi avlod modellari ham sirpanib ketishi mumkinligini eslatib turadi.
IA gallyutsinatsiyalariga kelsak, mustaqil laboratoriya qiziquvchan xatti-harakatlar haqida xabar berdi: bir holatda O3 hatto borligini ham tasvirlab berdi. MacBook Pro-da bajarilgan kod suhbat muhitidan tashqarida va keyin nusxa ko'chirilgan natijalar, siz shunchaki qila olmaysiz.
Laboratoriyadan tashqarida oqibatlarga olib keladigan muvaffaqiyatsizliklar bo'ldi: advokat model tomonidan yaratilgan hujjatlarni sudyaga taqdim etdi. soxta huquqiy ishlarni o'z ichiga oladiHaqiqatning ko'rinishi aldamchi edi, ammo mazmuni yo'q edi.

Modellar qanday ishlaydi: keng ko'lamli avtoto'ldirish
LLM katta hajmdagi matnlardan o'rganadi va uning asosiy vazifasi keyingi so'zni taxmin qilingU inson kabi fikr yuritmaydi: ehtimolliklarni optimallashtiradi. Bu mexanizm yaxlit matn ishlab chiqaradi, lekin u ham tafsilotlarni ixtiro qilish uchun eshikni ochadi.
Agar kontekst noaniq bo'lsa yoki ko'rsatma qo'llab-quvvatlanmaydigan biror narsani taklif qilsa, model moyil bo'ladi eng maqbulini to'ldiring parametrlaringizga ko'ra. Natija yaxshi bo'lishi mumkin, lekin u tasdiqlanadigan, haqiqiy faktlarga asoslanmagan bo'lishi mumkin.
Bu nima uchun xulosa generatorini qo'shishi mumkinligini tushuntiradi asl nusxada mavjud bo'lmagan ma'lumotlar yoki nima uchun noto'g'ri iqtiboslar va havolalar paydo bo'ladi: tizim hujjat mavjudligini tekshirmasdan iqtibos naqshlarini ekstrapolyatsiya qiladi.
Tasvirlashda shunga o'xshash narsa sodir bo'ladi: etarli xilma-xilliksiz yoki ma'lumotlar to'plamidagi noaniqliklarsiz, modellar ishlab chiqarishi mumkin olti barmoqli qo'llar, o'qib bo'lmaydigan matn yoki mos kelmaydigan tartiblar. Vizual sintaksis mos keladi, lekin kontent muvaffaqiyatsiz.
Haqiqiy hayotdagi xavflar va ta'sirlar
Jurnalistika va dezinformatsiyada ishonchli aldanish ikkilamchi tarmoqlar va ommaviy axborot vositalarida kuchayishi mumkin. O'ylab topilgan sarlavha yoki haqiqatga to'g'ri keladigan haqiqat tez tarqalishi mumkin, keyingi tuzatishni murakkablashtiradi.
Tibbiyot sohasida noto'g'ri sozlangan tizim talqinlarga olib kelishi mumkin sog'liq uchun xavfli, tashxislardan tavsiyalargacha. Ehtiyotkorlik printsipi bu erda ixtiyoriy emas.
Huquqiy nuqtai nazardan, modellar foydali qoralamalarni ishlab chiqarishi mumkin, ammo qo'shimchalar ham mavjud bo'lmagan huquqshunoslik yoki yomon tuzilgan iqtiboslar. Xatolik protsedura uchun jiddiy oqibatlarga olib kelishi mumkin.
Ta'limda xulosalar yoki avtomatlashtirilgan javoblarga ko'r-ko'rona ishonish davom etishi mumkin kontseptual xatolarNazorat va tekshirish mavjud bo'lsa, vosita o'rganish uchun qimmatlidir.
Yumshatish strategiyalari: nima qilinmoqda va nima qila olasiz
AI gallyutsinatsiyalaridan qochish yoki hech bo'lmaganda kamaytirish mumkinmi? Ishlab chiquvchilar bir necha qatlamlarda ishlaydi.
Birinchilardan biri ma'lumotlar sifatini yaxshilash: manbalarni muvozanatlash, xatolarni tuzatish va gallyutsinatsiyalarni rag'batlantiradigan noto'g'ri va bo'shliqlarni kamaytirish uchun korpusni yangilash. Bunga tizimlar qo'shiladi faktlarni tekshirish (faktlarni tekshirish) va kengaytirilgan tiklash yondashuvlari (ARA), bu modelni "tasavvur qilish" javoblari o'rniga ishonchli hujjatli asoslarga tayanishga majbur qiladi.
bilan sozlash insoniy fikr-mulohaza (RLHF va boshqa variantlar) zararli, noto'g'ri yoki noto'g'ri natijalarni jazolash va modelni yanada ehtiyotkor javob uslublariga o'rgatish uchun kalit bo'lib qolmoqda. Ular ham ko'payadi ishonchlilik haqida ogohlantirishlar interfeyslarda foydalanuvchiga javobda xatolar bo'lishi mumkinligini eslatib turadi va uni tekshirish ularning mas'uliyati, ayniqsa nozik kontekstlarda.
Davom etayotgan yana bir jabha - bu talqin qilish qobiliyatiAgar tizim da'voning kelib chiqishini yoki manbalarga havolani tushuntira olsa, foydalanuvchi unga ishonishdan oldin uning to'g'riligini baholash uchun ko'proq vositalarga ega bo'ladi. Foydalanuvchilar va biznes uchun ba'zi oddiy amaliyotlar farq qiladi: ma'lumotlarni tekshirish, so'rash aniq manbalar, yuqori xavfli hududlarda foydalanishni cheklash, odamlarni "loopda" ushlab turish va hujjatlarni ko'rib chiqish oqimlari.
Ishlab chiqaruvchilarning o'zidan ma'lum cheklovlar va ogohlantirishlar
Modellar uchun mas'ul kompaniyalar cheklovlarni tan oladilar. GPT-4 misolida ular aniq ta'kidlangan. noto'g'ri qarashlar, gallyutsinatsiyalar va faol ish joylariga qarama-qarshi ko'rsatmalar.
Iste'molchi chatbotlarida ko'plab dastlabki muammolar bo'lgan iteratsiyalar bilan kamayadi, lekin ideal sharoitlarda ham istalmagan oqibatlarga olib kelishi mumkin. Ovoz qanchalik ishonarli bo'lsa, o'ziga ortiqcha ishonch hosil qilish xavfi shunchalik yuqori bo'ladi.
Shu sababli, institutsional aloqalarning aksariyati ushbu vositalardan foydalanmaslikni talab qiladi tibbiy yoki yuridik maslahat ekspert tekshiruvisiz va ular noto'g'ri oracle emas, balki ehtimollik yordamchilari ekanligi.
Gallyutsinatsiyaning eng keng tarqalgan shakllari
Bu IA gallyutsinatsiyalarining eng keng tarqalgan usuli:
- Matnda buni ko'rish odatiy holdir iqtiboslar va bibliografiyalarni ixtiro qilganModel ma'lumotnomaning "qolipini" ko'chiradi, lekin ishonchli mualliflar, sanalar yoki sarlavhalarni ixtiro qiladi.
- Xayoliy yoki o'ylab topilgan voqealar ham paydo bo'ladi noto'g'ri sanalar tarixiy xronologiyalarda. Charlz III ning toj kiyish ishi, nasr o'z harakatchanligini yo'qotmasdan, qanday qilib vaqtinchalik tafsilotni buzish mumkinligini ko'rsatadi.
- Rasmda klassik artefaktlar kiradi imkonsiz anatomiyaga ega bo'lgan oyoq-qo'llar, tasvir ichidagi o'qilmaydigan matnlar yoki birinchi qarashda e'tiborga olinmaydigan fazoviy nomuvofiqliklar.
- Tarjimada tizimlar mumkin gaplar ixtiro qilish juda mahalliy yoki kam uchraydigan iboralar yoki maqsadli tilda mavjud bo'lmagan ekvivalentliklarni majburlash bilan duch kelganda.
IA gallyutsinatsiyalari alohida muvaffaqiyatsizlik emas, balki paydo bo'ladigan xususiyatdir nomukammal ma'lumotlar bilan o'qitilgan ehtimollik tizimlari. Uning sabablarini tan olish, real vaziyatlardan o‘rganish va texnik va jarayonni yumshatish vositalarini qo‘llash bizga sun’iy intellektdan unumli foydalanish imkonini beradi, u qanchalik suyuq bo‘lmasin, javob ishonchli asosga ega bo‘lgandagina ishonchga loyiqdir.
Turli raqamli ommaviy axborot vositalarida o'n yildan ortiq tajribaga ega texnologiya va internet masalalariga ixtisoslashgan muharrir. Men elektron tijorat, aloqa, onlayn marketing va reklama kompaniyalarida muharrir va kontent yaratuvchisi sifatida ishlaganman. Iqtisodiyot, moliya va boshqa sohalar veb-saytlarida ham yozganman. Mening ishim ham mening ishtiyoqim. Endi mening maqolalarim orqali Tecnobits, Men hayotimizni yaxshilash uchun har kuni texnologiya olami bizga taqdim etayotgan barcha yangiliklar va yangi imkoniyatlarni o‘rganishga harakat qilaman.

