- Halûsînasyon ji ber sînordarkirina daneyan, dekodkirin û nebûna bingehkirinê encamên maqûl in lê xelet in.
- Di rojnamegerî, bijîşkî, hiqûq û perwerdeyê de dozên rastîn (Bard, Sydney, Galactica, tacgirtin) û xetere hene.
- Ew bi daneyên kalîteyî, verastkirin, bersiva mirovan, hişyarî û şîrovekirinê têne sivikkirin.

Di salên dawî de, zekaya sûnî, di nav de modelos de última generación, ji teoriyê derbasî jiyana rojane bûye, û bi wê re, diyardeyên ku divê bi aramî werin fêmkirin derketine holê. Di nav wan de, ya ku bi navê Halûsînasyonên AI, ku di modelên afirîner de pir caran têne dîtin, bûne guftûgoyek dubarekirî, ji ber ku ew diyar dikin ka kengê em dikarin ji bersiveke otomatîk bawer bikin - an na.
Dema ku pergalek naverokek çêbike ku bawerbar be lê nerast, çêkirî, an bê bingeh be, em behsa halûsînasyonan dikin. Ev derketin ne xeyal in: ew encama model çawa fêr dibin û deşîfre dikin, kalîteya daneyên ku wan dîtine û sînorkirinên wan di warê bidestxistina zanînê de di cîhana rastîn de.
Mebesta me bi halûsînasyonên IA çi ye?
Di warê AI-ya hilberîner de, halûsînasyon derketinek e ku, tevî ku xurt xuya dike jî, ji hêla daneyên rastîn ve nayê piştgirî kirin yan jî di şablonên perwerdehiyê yên derbasdar de. Carinan model "valahiyan tijî dike", carinan jî bi awayekî xirab deşîfre dike, û pir caran, agahiyên ku li pey tu şabloneke diyarker nayên hildiberîne.
Ev têgeh metaforîk e: makîne mîna me "nabînin", lê wêne li hev tê. Çawa ku mirov dikare bibîne. fîgurên di nav ewran de, modelek dikare şablonan şîrove bike li cihê ku tune ne, nemaze di karên naskirina wêneyan an jî di çêkirina nivîsarek pir aloz de.
Modelên mezin ên zimanî (LLM) bi destnîşankirina rêkûpêkiyan di korpusên mezin de û dûv re pêşbînîkirina peyva din fêr dibe. Ew temamkirina otomatîkî ya pir bi hêz, lê dîsa jî ew bixweber temam dibe: heke daneyên dengdar an netemam bin, ew dikare encamên maqûl û di heman demê de xelet derxe holê.
Wekî din, tora ku vê fêrbûnê xwedî dike derewan dihewîne. Sîstem bi xwe "fêr dibin" ku dubare bikin. şaşî û xeletiyên heyî, û carinan ew rasterast gotin, girêdan an hûrguliyên ku qet tunebûn îcad dikin, ku bi hevgirtinek xapînok têne pêşkêş kirin.
Çima ew çêdibin: sedemên halucinasyonan
Sedemeke yekane tune ye. Di nav faktorên herî gelemperî de ev e: xeletî an nerastbûn di daneyên perwerdeyê deEger korpus netemam be an jî hevsengiya wê nebaş be, model qalibên xelet fêr dibe û dû re ekstrapole dike.
Ew di heman demê de bandorê li sobreajusteDema ku modelek pir zêde bi daneyên xwe ve girêdayî dibe, şiyana xwe ya giştîkirinê winda dike. Di senaryoyên jiyana rast de, ev hişkbûn dikare bibe sedema şîroveyên şaş ji ber ku ew tiştê ku fêr bûye "bi zorê" dixe nav çarçoveyên cûda.
La complejidad del modelo û dekodkirina transformator bi xwe rolek dilîze. Hin rewş hene ku derana "ji rê derdikeve" ji ber awayê ku bersiv nîşanek bi nîşanek tê çêkirin, bêyî bingehek rastîn a zexm ji bo girêdana wê.
Sedemeke din a girîng a halûsînasyonên IA nebûna erdêkirinEger pergal wê bi zanîna cîhana rastîn an çavkaniyên piştrastkirî re berawird neke, ew dikare naverokeke maqûl lê derewîn hilberîne: ji hûrguliyên çêkirî di kurteyan de bigire heya girêdanên ber bi rûpelên ku qet tunebûne.
Nimûneyek klasîk di dîtina komputerê de: heke em modelek bi wêneyên hucreyên tumor perwerde bikin lê tevnên saxlem tê de negirin, dibe ku pergal "bibîne" penceşêr li cihê ku tune ye, ji ber ku gerdûna wan a fêrbûnê çîna alternatîf tune ye.
Bûyerên rastîn ên halûsînasyonên AI-ê ku pirsgirêkê nîşan didin
Nimûneyên navdar hene. Di destpêkirina xwe de, chatbotê Bard ê Google îdîa kir ku telescopio espacial James Webb wêneyên pêşîn ên eksoplanetekê girtibûn, ku ev ne rast bû. Bersiv baş xuya dikir, lê nerast bû.
AI-ya danûstandinê ya Microsoft-ê, ku di ceribandinên xwe de wekî Sydney tê zanîn, bi ragihandina xwe ya "evîna" bikarhêneran û pêşniyarkirina ..., bû manşeta ... reftarên ne guncaw, wek îdiaya sîxurîkirina karmendên Bing. Ev ne rastî bûn, ew derana bûn ku ji sînoran derbas dibûn.
Di sala 2022an de, Meta piştî ku agahdarî da bikarhêneran, demoya modela xwe ya Galactica vekişand. neheq û nerastArmanc ew bû ku demo şiyanên zanistî nîşan bide, lê di dawiyê de nîşan da ku hevgirtina fermî rastbûnê garantî nake.
Beşeke din a pir perwerdehîdar bi ChatGPT re çêbû dema ku jê hat xwestin ku kurteyek ji tacgirtinê Charles III pêşkêş bike. Sîstemê diyar kir ku merasîm di roja ... de pêk hat. 19 de mayo de 2023 li Westminster Abbey, dema ku di rastiyê de ew di 6ê Gulanê de bû. Bersiv neguherî bû, lê agahî xelet bûn.
OpenAI sînorên GPT‑4 qebûl kiriye — wek mînak pêşdaraziyên civakî, halûsînasyon û nakokiyên rênimayan—û dibêje ku ew ji bo kêmkirina wan dixebite. Ev bîranînek e ku modelên nifşê herî dawî jî dikarin xelet bibin.
Derbarê halûsînasyonên IA de, laboratuwarek serbixwe tevgerên ecêb ragihand: di rewşekê de, O3 tewra behsa hebûna wê kir. koda ku li ser MacBook Pro-yê hatiye bicîhkirin li derveyî jîngeha sohbetê û dûv re encaman kopî kirin, tiştek ku hûn bi tenê nekarin bikin.
Û li derveyî laboratuwarê jî gelek paşketinên bi encamên wan çêbûne: parêzerek belgeyên ku ji hêla modelekê ve hatine çêkirin pêşkêşî dadwerekî kir ku dozên qanûnî yên sexte di nav de bûnXuyabûna rastiyê xapînok bû, lê naverok tune bû.

Model çawa dixebitin: oto-temamkirina di pîvana mezin de
LLM ji mîqdarên mezin ên nivîsê fêr dibe û karê wê yê sereke ew e ku... peyva din pêşbînî bikeEw mîna mirovan nafikire: ew îhtimalan baştir dike. Ev mekanîzma nivîsek hevgirtî diafirîne, lê di heman demê de derî ji bo îcadkirina hûrguliyan jî vedike.
Eger çarçove nezelal be an jî rêwerz bêyî piştgirî tiştek pêşniyar bike, model dê meyla bike ku ya herî maqûl dagirin li gorî pîvanên te. Encam dibe ku baş xuya bike, lê dibe ku ew li ser rastiyên rastîn û piştrastkirî nebe.
Ev rave dike çima jeneratorek kurteyê dikare lê zêde bike agahîyên ku di orjînalê de tune ne yan çima îqtibas û referansên derewîn xuya dibin: pergal bêyî ku kontrol bike ka belge heye, qalibên îqtibasan derdixe holê.
Tiştekî wisa di wênekirinê de jî diqewime: bêyî cihêrengiyeke têr an jî bi xeletiyên di daneyan de, model dikarin hilberînin destên bi şeş tiliyan, nivîsa nexwendî, an jî nexşeyên nehevgirtî. Rêzimana dîtbarî li hev tê, lê naverok têk diçe.
Rîsk û bandorên jiyana rastîn
Di rojnamegerî û dezenformasyonê de, xeyaleke qanihker dikare li ser torên duyemîn û medyayê were zêdekirin. Sernavek çêkirî an rastiyek ku xuya dike maqûl e. dikare bi lez belav bibe, sererastkirina paşê tevlihev dike.
Di warê bijîşkî de, pergalek xirab-kalîberkirî dikare bibe sedema şîroveyan peligrosas para la salud, ji teşhîsan bigire heta pêşniyaran. Prensîba hişyariyê li vir ne vebijarkî ye.
Ji aliyê yasayî ve, model dikarin pêşnûmeyên kêrhatî çêbikin, lê di heman demê de têxin nav dadweriya tune an jî îqtibasên bi awayekî xirab hatine çêkirin. Şaşîyek dikare encamên cidî ji bo prosedurekê hebe.
Di perwerdeyê de, girêdana kor bi kurteyan an bersivên otomatîk dikare berdewam bike. errores conceptualesAmûr ji bo fêrbûnê hêja ye, heya ku çavdêrî û verastkirin hebe.
Stratejiyên kêmkirinê: çi tê kirin û hûn dikarin çi bikin
Gelo halûsînasyonên AI dikarin werin dûrxistin, an jî qet nebe werin kêmkirin? Pêşdebir li ser çend tebeqeyan dixebitin.
Una de las primeras es kalîteya daneyan baştir bike: hevsengkirina çavkaniyan, çareserkirina xeletiyan, û nûvekirina korporayan ji bo kêmkirina xeletî û valahiyên ku halûsînasyonan teşwîq dikin. Li ser vê yekê pergalên verificación de hechos (kontrolkirina rastiyan) û rêbazên başbûna zêdekirî (ARA), ku modelê neçar dikin ku li şûna bersivên "xeyal" li ser bingehên belgefîlmên pêbawer bisekine.
Lihevhatina bi bersiva mirovan (RLHF û guhertoyên din) ji bo cezakirina encamên zirardar, alîgir, an xelet, û ji bo perwerdekirina modelê di şêwazên bersivdayînê yên hişyartir de mifte dimîne. Ew her wiha zêde dibin. hişyariyên pêbaweriyê di navrûyan de, ji bikarhêner re bi bîr dixe ku bersiv dibe ku xeletiyan dihewîne û ew berpirsiyariya wan e ku wê verast bikin, nemaze di çarçoveyên hesas de.
Eniyeke din a ku pêş dikeve ew e şîrovekirinEger pergalek bikaribe çavkaniya îdîayekê an girêdanek bi çavkaniyan re rave bike, bikarhêner berî ku baweriya xwe pê bîne, bêtir amûr hene ku rastbûna wê binirxîne. Ji bo bikarhêner û karsaziyan, hin pratîkên hêsan cûdahiyê çêdikin: kontrolkirina daneyan, pirsîna ji bo çavkaniyên eşkere, karanînê li deverên bi xetereya bilind sînordar bikin, mirovan "di nav lepê de bihêlin," û herikîna nirxandina belgeyan bikin.
Sînorkirin û hişyariyên ji hilberîneran bi xwe têne zanîn
Şîrketên berpirsiyar ji bo modelan sînoran nas dikin. Di rewşa GPT-4 de, ew bi eşkere hatine destnîşan kirin. xapandin, halûsînasyon û nîşanên nakok derbarê deverên xebata çalak de.
Gelek ji pirsgirêkên destpêkê yên di chatbotên xerîdar de ev bûn bi dubarekirinan kêm dibe, lê tew di şert û mercên îdeal de jî, encamên nexwestî dikarin derkevin holê. Çiqas gotin bêtir bawerbar be, ewqas jî xetera baweriya zêde zêde dibe.
Ji ber vê sedemê, piraniya ragihandina saziyan israr dike ku ev amûr neyên bikar anîn da ku şîreta bijîşkî an qanûnî bêyî nirxandina pisporan, û ku ew alîkarên îhtimalî ne, ne orakulên bêqusûr.
Formên herî gelemperî yên halucînasyonê
Ev awayê herî gelemperî ye ku tê de halûsînasyonên IA xwe nîşan didin:
- Di nivîsê de, bi gelemperî meriv dikare bibîne ku îqtibas û bîblîyografyayên îcadkirîModel "qalibê" referansê kopî dike lê nivîskar, tarîx, an sernavên maqûl îcad dike.
- Bûyerên xeyalî an jî xeyalî jî xuya dibin tarîxên xelet di kronolojiyên dîrokî de. Doza tacgirtinê ya Charles III nîşan dide ka çawa hûrguliyek demkî dikare were xirab kirin bêyî ku nivîs herikîna xwe winda bike.
- Berhemên klasîk ên di wêneyê de hene lingên bi anatomiyên ne gengaz, nivîsên nexwendî di nav wêneyê de an jî nelihevhatinên fezayî ku di nihêrîna pêşîn de nayên dîtin.
- Di wergerandinê de, sîstem dikarin hevokan îcad bikin dema ku bi îfadeyên pir herêmî an neasayî re rû bi rû dimînin, an jî hevwateyên ku di zimanê armanc de tune ne ferz dikin.
Halûsînasyonên IA ne têkçûnek îzolekirî ne, lê taybetmendiyek derketî ya Sîstemên îhtimalî yên ku bi daneyên ne temam hatine perwerdekirin. Nasîna sedemên wê, fêrbûna ji bûyerên jiyana rastîn, û bicihanîna kêmkirinên teknîkî û pêvajoyê dihêle ku em bi awayên watedar sûd ji AI-ê werbigirin bêyî ku em vê rastiyê ji bîr bikin ku, çi qas şile xuya bike jî, bersivek tenê dema ku bingehek verastkirî hebe hêjayî baweriyê ye.
Edîtorê pisporê teknolojî û pirsgirêkên înternetê bi zêdetirî deh salan ezmûna xwe di medyaya dîjîtal a cihêreng de heye. Min ji bo pargîdaniyên e-bazirganî, ragihandinê, kirrûbirra serhêl û reklamê wekî edîtor û afirînerê naverokê xebitî. Min li ser malperên aborî, darayî û sektorên din jî nivîsandiye. Karê min jî hewesa min e. Naha, bi gotarên min di nav de Tecnobits, Ez hewl didim ku hemî nûçe û derfetên nû yên ku cîhana teknolojiyê her roj pêşkêşî me dike ji bo baştirkirina jiyana me bikolim.

