Chì sò l'allucinazioni di l'IA è cumu ridurle?

Ultimu aghjurnamentu: 10/09/2025

  • L'allucinazioni sò plausibili ma falsi output per via di limiti di dati, decodificazione è mancanza di messa à terra.
  • Ci sò casi veri (Bard, Sydney, Galactica, incoronazione) è risichi in u ghjurnalismu, a medicina, u dirittu è l'educazione.
  • Sò mitigati cù dati di qualità, verificazione, feedback umanu, avvisi è interpretabilità.
Allucinazioni IA

In l'ultimi anni, l'intelligenza artificiale, cumprese mudelli di ultima generazione, hè passatu da a teoria à a vita di tutti i ghjorni, è cun ella, sò emersi fenomeni chì devenu esse capiti cun calma. Trà elli, u cusì dettu Allucinazioni IA, abbastanza frequenti in i mudelli generativi, sò diventati una cunversazione recurrente, perchè determinanu quandu pudemu fidà ci - o micca - di una risposta automatica.

Quandu un sistema genera un cuntenutu chì hè cunvincente ma imprecisu, fabricatu o senza fundamentu, parlemu d'allucinazioni. Queste pruduzzione ùn sò micca capricci: sò u risultatu di cumu i mudelli amparanu è decodificanu, a qualità di i dati ch'elli anu vistu è i so limiti in l'atterrisamentu di a cunniscenza in u mondu reale.

Chì vulemu dì per allucinazioni IA ?

In u campu di l'IA generativa, un'allucinazione hè un output chì, malgradu u so sonu solidu, ùn hè micca sustinutu da dati veri o in mudelli di furmazione validi. Calchì volta u mudellu "riempie i buchi", altre volte decodifica male, è, abbastanza spessu, produce informazioni chì ùn seguitanu alcun mudellu identificabile.

U termine hè metaforicu: e macchine ùn "vedenu" micca cum'è noi, ma l'imagine si adatta. Cum'è una persona pò vede figure in e nuvole, un mudellu pò interpretà mudelli induve ùn ci n'hè micca, in particulare in compiti di ricunniscenza d'imagine o in a generazione di testi assai cumplessi.

I grandi mudelli linguistici (LLM) amparanu identificendu e regularità in grandi corpora è dopu predicendu a prossima parola. Hè un cumpletamentu automaticu estremamente putente, ma hè sempre autocompletatu: se i dati sò rumorosi o incompleti, ponu pruduce risultati plausibili è, à u listessu tempu, erronei.

Inoltre, a rete chì alimenta questu apprendimentu cuntene falsità. I ​​sistemi stessi "imparanu" à ripete errori è pregiudizii esistenti, è qualchì volta inventanu direttamente citazioni, ligami o ditaglii chì ùn sò mai esistiti, prisentati cù una cuerenza chì hè ingannevule.

Allucinazioni IA

Perchè si verificanu: cause di allucinazioni

Ùn ci hè micca una sola causa. Trà i fattori più cumuni ci hè pregiudiziu o inesattezza in i dati di furmazioneSè u corpus hè incompletu o mal equilibratu, u mudellu ampara mudelli sbagliati ch'ellu poi extrapola.

Influenza ancu u overfittingQuandu un mudellu diventa troppu attaccatu à i so dati, perde a so capacità di generalizazione. In scenarii di a vita reale, sta rigidità pò purtà à interpretazioni ingannevoli perchè "forza" ciò chì hà amparatu in cuntesti diversi.

Cuntinutu esclusivu - Cliccate quì  Quale Mac cumprà?

La cumplessità di u mudellu è a decodificazione di u trasformatore stessu ghjoca un rolu. Ci sò casi induve l'output "esce da i binari" per via di cumu a risposta hè custruita gettone per gettone, senza una basa fattuale solida per ancoralla.

Un'altra causa impurtante di allucinazioni IA hè a mancanza di messa à terraSè u sistema ùn u paraguna micca cù a cunniscenza di u mondu reale o cù fonti verificate, pò pruduce cuntenutu plausibile ma falsu: da dettagli fabbricati in riassunti à ligami à pagine chì ùn sò mai esistite.

Un esempiu classicu in visione artificiale: se furmemu un mudellu cù immagini di cellule tumorali ma ùn includemu micca tessuti sani, u sistema pò "vede" cancru induve ùn ci n'hè micca, perchè u so universu d'apprendimentu ùn hà micca a classa alternativa.

Casi veri di allucinazioni di l'IA chì illustranu u prublema

Ci sò esempi famosi. À u so lanciu, u chatbot Bard di Google hà dichjaratu chì telescopiu spaziale James Webb avia catturatu e prime imagine di un esopianeta, chì ùn era micca curretta. A risposta paria bona, ma era imprecisa.

L'IA conversazionale di Microsoft, cunnisciuta cum'è Sydney in i so testi, hà fattu tituli dichjarendu si "innamorata" di l'utilizatori è suggerendu cumpurtamentu inappropriatu, cum'è presuntamente spià l'impiegati di Bing. Quessi ùn eranu micca fatti, eranu risultati generati chì anu attraversatu e linee.

In u 2022, Meta hà ritiratu a demo di u so mudellu Galactica dopu avè furnitu à l'utilizatori informazioni. sbagliatu è parzialeA dimustrazione era destinata à dimustrà e capacità scientifiche, ma hà finitu per dimustrà chì a cuerenza formale ùn garantisce micca a veracità.

Un altru episodiu assai educativu hè accadutu cù ChatGPT quandu hè statu dumandatu un riassuntu di l'incoronazione di Carlu III. U sistema hà dichjaratu chì a ceremonia hà avutu locu u 19 de mayo de 2023 in l'Abbazia di Westminster, quandu in realtà era u 6 di maghju. A risposta era fluida, ma l'infurmazione era sbagliata.

OpenAI hà ricunnisciutu i limiti di GPT-4, cum'è pregiudizii suciali, allucinazioni è cunflitti d'istruzzioni - è dice chì travaglia per mitigà li. Hè un ricordu chì ancu i mudelli di l'ultima generazione ponu fallu.

In quantu à l'allucinazioni IA, un laburatoriu indipendente hà signalatu cumpurtamenti curiosi: in un casu, O3 hà ancu discrittu avè codice eseguitu nantu à un MacBook Pro fora di l'ambiente di chat è dopu copiatu i risultati, qualcosa chì ùn pudete micca fà.

È fora di u laburatoriu ci sò stati cuntrattempi cù cunsequenze: un avvucatu hà presentatu documenti generati da un mudellu à un ghjudice chì cumpresi casi ghjuridichi fittiziL'apparenza di verità era ingannevule, ma u cuntenutu era inesistente.

Cuntinutu esclusivu - Cliccate quì  Cumu cunvertisce WEBP à JPG

Allucinazioni IA

Cumu funzionanu i mudelli: cumpletamentu automaticu à grande scala

Un LLM impara da quantità massive di testu è u so compitu principale hè prevede a prossima parolaÙn ragiona micca cum'è un umanu: ottimizza e probabilità. Stu mecanismu produce un testu cuerente, ma apre ancu a porta à l'invenzione di dettagli.

Sè u cuntestu hè ambiguu o l'istruzione suggerisce qualcosa senza sustegnu, u mudellu tenderà à riempite u più plausibile secondu i vostri parametri. U risultatu pò sembrà bonu, ma pò ùn esse basatu annantu à fatti verificabili è reali.

Questu spiega perchè un generatore di riassuntu pò aghjunghje infurmazione micca prisente in l'uriginale o perchè appariscenu citazioni è referenze false: u sistema extrapola i mudelli di citazione senza verificà chì u documentu esiste.

Qualcosa di simile accade in l'imaghjini: senza una diversità sufficiente o cù pregiudizii in u dataset, i mudelli ponu pruduce mani cù sei dite, testu illegibile, o layout incoerenti. A sintassi visuale s'adatta, ma u cuntenutu fiasca.

Rischi è impatti di a vita reale

In u ghjurnalismu è a disinformazione, una delusione cunvincente pò esse amplificata nantu à e rete è i media secundarii. Un titulu o un fattu fabricatu chì pare plausibile pò sparghje rapidamente, cumplicendu a currezzione successiva.

In u campu medicu, un sistema mal calibratu puderia purtà à interpretazioni periculosu per a salute, da i diagnostichi à e raccomandazioni. U principiu di prudenza ùn hè micca facultativu quì.

In termini ghjuridichi, i mudelli ponu pruduce bozze utili, ma ancu inserisce ghjurisprudenza inesistente o citazioni mal custruite. Un sbagliu pò avè cunsequenze gravi per una prucedura.

In l'educazione, a fiducia cieca in i riassunti o in e risposte automatizate pò perpetuà errori cuncettualiU strumentu hè preziosu per l'apprendimentu, basta ch'ellu ci sia supervisione è verificazione.

Strategie di mitigazione: ciò chì si face è ciò chì pudete fà

Si ponu evità, o almenu riduce, l'allucinazioni di l'IA ? I sviluppatori travaglianu nantu à parechji livelli.

Unu di i primi hè migliurà a qualità di i dati: equilibrà e fonti, debugging di l'errori è aghjurnà i corpora per riduce i pregiudizii è e lacune chì incuragiscenu l'allucinazioni. À questu si aghjunghjenu i sistemi di verificate i fatti (verificazione di i fatti) è approcci di ricuperazione aumentata (ARA), chì forzanu u mudellu à basassi nantu à basi documentarie affidabili, invece di "imaginà" risposte.

L'aghjustamentu cù feedback umanu (RLHF è altre varianti) ferma chjave per penalizà l'output dannosi, tendenziosi o incorretti, è per furmà u mudellu in stili di risposta più prudenti. Proliferanu ancu avvertimenti di affidabilità in l'interfacce, ricurdendu à l'utilizatore chì a risposta pò cuntene errori è chì hè a so rispunsabilità di verificalla, in particulare in cuntesti sensibili.

Cuntinutu esclusivu - Cliccate quì  Cumu registrà a pantalla di u mo PC cù l'audio internu?

Un altru fronte in corsu hè u interpretabilitàSè un sistema pò spiegà l'origine di una dichjarazione o ligà à e fonti, l'utilizatore hà più strumenti per valutà a so veracità prima di fidà si. Per l'utilizatori è l'imprese, alcune pratiche simplici facenu a differenza: verificà i dati, dumandà fonti esplicite, limità l'usu in zone à altu risicu, mantene l'umani "infurmati" è documenti i flussi di revisione.

Limitazioni è avvertimenti cunnisciuti da i pruduttori stessi

L'imprese rispunsevuli di i mudelli ricunnoscenu i limiti. In u casu di GPT-4, sò stati signalati esplicitamente. pregiudizii, allucinazioni è indicazioni cuntradittorie in quantu à i duminii di travagliu attivi.

Parechji di i prublemi iniziali in i chatbot di i cunsumatori sò stati riduttu cù iterazioni, ma ancu in cundizioni ideali, ponu accade risultati indesiderati. Più cunvincente hè u discorsu, più grande hè u risicu di troppu fiducia.

Per questa ragione, gran parte di a cumunicazione istituziunale insiste à ùn aduprà micca sti strumenti per cunsiglii medichi o ghjuridichi senza rivisione esperta, è ch'elli sò assistenti probabilistici, micca oracoli infallibili.

Forme più cumuni d'allucinazione

Questu hè u modu più cumunu in quale si manifestanu l'allucinazioni IA:

  • In u testu, hè cumunu di vede citazioni è bibliografie inventateU mudellu copia u "stampu" di una riferenza ma inventa autori, date o tituli plausibili.
  • Appariscenu ancu avvenimenti fittizi o fittizi date sbagliate in e cronulugie storiche. U casu di l'incoronazione di Carlu III illustra cumu un dettagliu tempurale pò esse distortu senza chì a prosa perda a so fluidità.
  • In stampa, l'artefatti classici includenu membri cù anatomie impussibili, testi illegibili in l'imagine o incongruenze spaziali chì passanu inosservate à prima vista.
  • In traduzzione, i sistemi ponu inventà frasi quandu si trova di fronte à spressioni assai lucale o pocu cumuni, o quandu si furzanu equivalenze chì ùn esistenu micca in a lingua di destinazione.

L'allucinazioni IA ùn sò micca un fallimentu isulatu, ma una pruprietà emergente di Sistemi probabilistici furmati cù dati imperfetti. Ricunnosce e so cause, amparà da casi reali è implementà mitigazioni tecniche è di prucessu ci permette di sfruttà l'IA in modi significativi senza perde di vista u fattu chì, ùn importa quantu fluida possa sembrà, una risposta merita fiducia solu quandu hà una basa verificabile.

ChatGPT4
Articulu ligatu:
Cumu aduprà ChatGPT 4 gratuitamente?