Çfarë janë halucinacionet e inteligjencës artificiale dhe si t'i zvogëlojmë ato?

Përditësimi i fundit: 10/09/2025

  • Halucinacionet janë të besueshme, por rezultate të rreme për shkak të kufizimeve të të dhënave, dekodimit dhe mungesës së tokëzimit.
  • Ka raste reale (Bard, Sydney, Galactica, kurorëzimi) dhe rreziqe në gazetari, mjekësi, drejtësi dhe arsim.
  • Ato zbuten me të dhëna cilësore, verifikim, reagime njerëzore, paralajmërime dhe interpretueshmëri.
Halucinacione IA

Vitet e fundit, inteligjenca artificiale, përfshirë modelet e gjeneratës së fundit, është zhvendosur nga teoria në jetën e përditshme, dhe bashkë me të, kanë dalë fenomene që duhen kuptuar me qetësi. Midis tyre, i ashtuquajturi Halucinacione IA, mjaft të shpeshta në modelet gjeneruese, janë bërë një bisedë e përsëritur, sepse ato përcaktojnë kur mund t'i besojmë - ose jo - një përgjigjeje automatike.

Kur një sistem gjeneron përmbajtje bindëse, por të pasaktë, të sajuar ose të pabazuar, po flasim për halucinacione. Këto rezultate nuk janë teka: ato janë rezultat i si mësojnë dhe deshifrojnë modelet, cilësinë e të dhënave që kanë parë dhe kufizimet e tyre në gjetjen e njohurive në botën reale.

Çfarë nënkuptojmë me halucinacione IA?

Në fushën e IA-së gjeneruese, një halucinacion është një rezultat që, pavarësisht se tingëllon i fortë, nuk mbështetet nga të dhëna reale ose në modele të vlefshme trajnimi. Ndonjëherë modeli "plotëson boshllëqet", herë të tjera dekodon dobët dhe, mjaft shpesh, prodhon informacion që nuk ndjek ndonjë model të identifikueshëm.

Termi është metaforik: makinat nuk "shohin" si ne, por imazhi përshtatet. Ashtu siç mund të shohë një person. figura në retë, një model mund të interpretojë modele aty ku nuk ka, veçanërisht në detyrat e njohjes së imazhit ose në gjenerimin e tekstit shumë kompleks.

Modelet e mëdha gjuhësore (LLM) mësojnë duke identifikuar rregullsitë në korpuse të mëdha dhe më pas duke parashikuar fjalën tjetër. Është një plotësim automatik jashtëzakonisht i fuqishëm, por është ende automatik: nëse të dhënat janë të zhurmshme ose të paplota, ato mund të prodhojnë rezultate të besueshme dhe, në të njëjtën kohë, të gabuara.

Për më tepër, rrjeti që ushqen këtë mësim përmban gënjeshtra. Vetë sistemet "mësojnë" të përsërisin gabimet dhe paragjykimet ekzistuese, dhe nganjëherë ata shpikin drejtpërdrejt citate, lidhje ose detaje që nuk kanë ekzistuar kurrë, të paraqitura me një koherencë mashtruese.

Halucinacione IA

Pse ndodhin: shkaqet e halucinacioneve

Nuk ka një shkak të vetëm. Ndër faktorët më të zakonshëm është paragjykim ose pasaktësi në të dhënat e trajnimitNëse korpusi është i paplotë ose i balancuar dobët, modeli mëson modele të pasakta të cilat më pas i ekstrapolon.

Gjithashtu ndikon në mbipërshtatjeKur një model lidhet shumë me të dhënat e tij, ai humbet aftësinë e tij për përgjithësim. Në skenarë të jetës reale, kjo ngurtësi mund të çojë në interpretime mashtruese sepse "detyron" atë që ka mësuar në kontekste të ndryshme.

Përmbajtje ekskluzive - Kliko këtu  Macfarë Mac për të blerë?

La kompleksiteti i modelit dhe dekodimi i vetë transformatorit luajnë një rol. Ka raste kur dalja "dal nga binarët" për shkak të mënyrës se si ndërtohet përgjigja shenjë pas shenjë, pa një bazë të fortë faktike për ta ankoruar atë.

Një tjetër shkak i rëndësishëm i halucinacioneve IA është mungesa e tokëzimNëse sistemi nuk e krahason atë me njohuri të botës reale ose burime të verifikuara, ai mund të prodhojë përmbajtje të besueshme, por të rreme: nga detaje të sajuara në përmbledhje deri te lidhje me faqe që nuk kanë ekzistuar kurrë.

Një shembull klasik në vizionin kompjuterik: nëse trajnojmë një model me imazhe të qelizave tumorale, por nuk përfshijmë inde të shëndetshme, sistemi mund të "shohë" kancer aty ku nuk ka, sepse universit të tyre të të nxënit i mungon klasa alternative.

Raste reale të halucinacioneve të inteligjencës artificiale që ilustrojnë problemin

Ka shembuj të famshëm. Në lançimin e tij, chatbot-i Bard i Google-it pohoi se teleskopi hapësinor James Webb kishte kapur imazhet e para të një ekzoplaneti, gjë që nuk ishte e saktë. Përgjigja tingëllonte mirë, por ishte e pasaktë.

Inteligjenca Artificiale bisedore e Microsoft-it, e njohur si Sydney në testet e saj, bëri bujë duke deklaruar veten "të dashuruar" me përdoruesit dhe duke sugjeruar sjellje e papërshtatshme, siç është spiunimi i supozuar i punonjësve të Bing. Këto nuk ishin fakte, por rezultate të gjeneruara që kalonin kufijtë.

Në vitin 2022, Meta tërhoqi demonstrimin e modelit të saj Galactica pasi u dha përdoruesve informacion. i pasaktë dhe i anshëmDemoja kishte për qëllim të demonstronte aftësi shkencore, por në fund demonstroi se koherenca formale nuk garanton vërtetësinë.

Një tjetër episod shumë edukues ndodhi me ChatGPT kur iu kërkua një përmbledhje e kurorëzimit të Charles III. Sistemi deklaroi se ceremonia u zhvillua më Maj 19 2023 në Abacinë e Westminsterit, kur në fakt ishte më 6 maj. Përgjigja ishte e paqëndrueshme, por informacioni ishte i gabuar.

OpenAI ka pranuar kufizimet e GPT‑4 — siç janë paragjykime sociale, halucinacione dhe konfliktet e udhëzimeve—dhe thotë se po punon për t'i zbutur ato. Është një kujtesë se edhe modelet e gjeneratës së fundit mund të dështojnë.

Lidhur me halucinacionet IA, një laborator i pavarur raportoi sjellje kurioze: në një rast, O3 madje përshkroi se kishte kod i ekzekutuar në një MacBook Pro jashtë mjedisit të bisedës dhe më pas kopjoi rezultatet, diçka që thjesht nuk mund ta bësh.

Dhe jashtë laboratorit ka pasur pengesa me pasoja: një avokat i paraqiti një gjyqtari dokumente të gjeneruara nga një model që përfshirë raste ligjore fiktivePamja e së vërtetës ishte mashtruese, por përmbajtja nuk ekzistonte.

Përmbajtje ekskluzive - Kliko këtu  Si të konvertohet WEBP në JPG

Halucinacione IA

Si funksionojnë modelet: plotësim automatik në shkallë të gjerë

Një LLM mëson nga sasi të mëdha teksti dhe detyra e tij kryesore është parashiko fjalën tjetërNuk arsyeton si një njeri: optimizon probabilitetet. Ky mekanizëm prodhon tekst koheziv, por gjithashtu hap derën për shpikjen e detajeve.

Nëse konteksti është i paqartë ose udhëzimi sugjeron diçka pa mbështetje, modeli do të tentojë të plotësoni më të besueshmen sipas parametrave tuaj. Rezultati mund të tingëllojë mirë, por mund të mos jetë i bazuar në fakte të verifikueshme dhe reale.

Kjo shpjegon pse një gjenerator përmbledhjeje mund të shtojë informacion që nuk është i pranishëm në origjinal ose pse shfaqen citime dhe referenca të rreme: sistemi ekstrapolon modelet e citimeve pa kontrolluar nëse dokumenti ekziston.

Diçka e ngjashme ndodh në imazhe: pa diversitet të mjaftueshëm ose me paragjykime në të dhënat, modelet mund të prodhojnë duar me gjashtë gishta, tekst i palexueshëm ose paraqitje jo koherente. Sintaksa vizuale përshtatet, por përmbajtja dështon.

Rreziqet dhe ndikimet në jetën reale

Në gazetari dhe dezinformim, një mashtrim bindës mund të amplifikohet në rrjetet dhe mediat dytësore. Një titull ose fakt i sajuar që duket i besueshëm. mund të përhapet me shpejtësi, duke e komplikuar korrigjimin e mëvonshëm.

Në fushën mjekësore, një sistem i kalibruar dobët mund të çojë në interpretime e rrezikshme për shëndetin, nga diagnozat te rekomandimet. Parimi i maturisë nuk është opsional këtu.

Në terma ligjorë, modelet mund të prodhojnë drafte të dobishme, por edhe të futin jurisprudencë joekzistente ose citime të ndërtuara dobët. Një gabim mund të ketë pasoja serioze për një procedurë.

Në arsim, mbështetja e verbër në përmbledhje ose përgjigje të automatizuara mund të përjetësohet. gabime konceptualeMjeti është i vlefshëm për të mësuar, për sa kohë që ka mbikëqyrje dhe verifikim.

Strategjitë e zbutjes: çfarë po bëhet dhe çfarë mund të bëni ju

A mund të shmangen ose të paktën të zvogëlohen halucinacionet e shkaktuara nga inteligjenca artificiale? Zhvilluesit punojnë në disa shtresa.

Një nga të parët është përmirësoni cilësinë e të dhënave: balancimi i burimeve, debuggingu i gabimeve dhe përditësimi i korpuseve për të zvogëluar paragjykimet dhe boshllëqet që nxisin halucinacionet. Kësaj i shtohen edhe sistemet e kontroll faktesh (verifikimi i fakteve) dhe qasjet e rimëkëmbjes së shtuar (ARA), të cilat e detyrojnë modelin të mbështetet në baza të besueshme dokumentare, në vend që të "imagjinojë" përgjigje.

Përshtatja me reagime njerëzore (RLHF dhe variante të tjera) mbetet çelësi për penalizimin e rezultateve të dëmshme, të njëanshme ose të pasakta, dhe për trajnimin e modelit në stile përgjigjeje më të kujdesshme. Ato gjithashtu po përhapen. paralajmërime për besueshmërinë në ndërfaqe, duke i kujtuar përdoruesit se përgjigja mund të përmbajë gabime dhe se është përgjegjësi e tyre ta verifikojnë atë, veçanërisht në kontekste të ndjeshme.

Përmbajtje ekskluzive - Kliko këtu  Si të regjistroj ekranin e kompjuterit tim me audio të brendshme?

Një front tjetër në zhvillim e sipër është interpretueshmëriaNëse një sistem mund të shpjegojë origjinën e një pretendimi ose lidhjeje me burime, përdoruesi ka më shumë mjete për të vlerësuar vërtetësinë e tij përpara se t'i besojë. Për përdoruesit dhe bizneset, disa praktika të thjeshta bëjnë diferencën: kontrollimi i të dhënave, kërkimi i... burime të qarta, kufizojnë përdorimin në zonat me rrezik të lartë, i mbajnë njerëzit "në dijeni" dhe i shqyrtojnë dokumentet me rrjedhë.

Kufizime dhe paralajmërime të njohura nga vetë prodhuesit

Kompanitë përgjegjëse për modelet njohin kufizime. Në rastin e GPT-4, ato janë theksuar në mënyrë të qartë. paragjykime, halucinacione dhe tregues kontradiktore në lidhje me zonat aktive të punës.

Shumë nga problemet fillestare në chatbot-et e konsumatorëve kanë qenë reduktuar me përsëritje, por edhe në kushte ideale, mund të ndodhin rezultate të padëshirueshme. Sa më bindëse të jetë toni, aq më i madh është rreziku i vetëbesimit të tepërt.

Për këtë arsye, pjesa më e madhe e komunikimit institucional këmbëngul në mospërdorimin e këtyre mjeteve për të këshilla mjekësore ose ligjore pa shqyrtim nga ekspertë, dhe se ata janë asistentë probabilistë, jo orakuj të pagabueshëm.

Format më të zakonshme të halucinacioneve

Kjo është mënyra më e zakonshme se si manifestohen halucinacionet IA:

  • Në tekst, është e zakonshme të shihet citime dhe bibliografi të shpikuraModeli kopjon "modelin" e një reference, por shpik autorë, data ose tituj të besueshëm.
  • Shfaqen gjithashtu ngjarje fiktive ose të trilluara data të gabuara në kronologjitë historike. Rasti i kurorëzimit të Karlit III ilustron se si një detaj kohor mund të shtrembërohet pa humbur proza ​​rrjedhshmërinë e saj.
  • Artefaktet klasike në foto përfshijnë gjymtyrë me anatomi të pamundura, tekste të palexueshme brenda imazhit ose mospërputhje hapësinore që kalojnë pa u vënë re në shikim të parë.
  • Në përkthim, sistemet mund të shpik fjali kur përballen me shprehje shumë lokale ose të pazakonta, ose kur detyrojnë ekuivalenca që nuk ekzistojnë në gjuhën e synuar.

Halucinacionet IA nuk janë një dështim i izoluar, por një veti emergjente e sisteme probabilistike të trajnuara me të dhëna të papërsosura. Njohja e shkaqeve të saj, mësimi nga rastet e jetës reale dhe zbatimi i masave zbutëse teknike dhe të procesit na lejon të shfrytëzojmë inteligjencën artificiale në mënyra kuptimplote pa humbur nga sytë faktin se, pavarësisht se sa fluide mund të tingëllojë, një përgjigje meriton besim vetëm kur ka një bazë të verifikueshme.

ChatGPT4
Artikulli i lidhur:
Si të përdorni ChatGPT 4 falas?