- L'allucinazioni sò plausibili ma falsi output per via di limiti di dati, decodificazione è mancanza di messa à terra.
- Ci sò casi veri (Bard, Sydney, Galactica, incoronazione) è risichi in u ghjurnalismu, a medicina, u dirittu è l'educazione.
- Sò mitigati cù dati di qualità, verificazione, feedback umanu, avvisi è interpretabilità.

In l'ultimi anni, l'intelligenza artificiale, cumprese mudelli di ultima generazione, hè passatu da a teoria à a vita di tutti i ghjorni, è cun ella, sò emersi fenomeni chì devenu esse capiti cun calma. Trà elli, u cusì dettu Allucinazioni IA, abbastanza frequenti in i mudelli generativi, sò diventati una cunversazione recurrente, perchè determinanu quandu pudemu fidà ci - o micca - di una risposta automatica.
Quandu un sistema genera un cuntenutu chì hè cunvincente ma imprecisu, fabricatu o senza fundamentu, parlemu d'allucinazioni. Queste pruduzzione ùn sò micca capricci: sò u risultatu di cumu i mudelli amparanu è decodificanu, a qualità di i dati ch'elli anu vistu è i so limiti in l'atterrisamentu di a cunniscenza in u mondu reale.
Chì vulemu dì per allucinazioni IA ?
In u campu di l'IA generativa, un'allucinazione hè un output chì, malgradu u so sonu solidu, ùn hè micca sustinutu da dati veri o in mudelli di furmazione validi. Calchì volta u mudellu "riempie i buchi", altre volte decodifica male, è, abbastanza spessu, produce informazioni chì ùn seguitanu alcun mudellu identificabile.
U termine hè metaforicu: e macchine ùn "vedenu" micca cum'è noi, ma l'imagine si adatta. Cum'è una persona pò vede figure in e nuvole, un mudellu pò interpretà mudelli induve ùn ci n'hè micca, in particulare in compiti di ricunniscenza d'imagine o in a generazione di testi assai cumplessi.
I grandi mudelli linguistici (LLM) amparanu identificendu e regularità in grandi corpora è dopu predicendu a prossima parola. Hè un cumpletamentu automaticu estremamente putente, ma hè sempre autocompletatu: se i dati sò rumorosi o incompleti, ponu pruduce risultati plausibili è, à u listessu tempu, erronei.
Inoltre, a rete chì alimenta questu apprendimentu cuntene falsità. I sistemi stessi "imparanu" à ripete errori è pregiudizii esistenti, è qualchì volta inventanu direttamente citazioni, ligami o ditaglii chì ùn sò mai esistiti, prisentati cù una cuerenza chì hè ingannevule.
Perchè si verificanu: cause di allucinazioni
Ùn ci hè micca una sola causa. Trà i fattori più cumuni ci hè pregiudiziu o inesattezza in i dati di furmazioneSè u corpus hè incompletu o mal equilibratu, u mudellu ampara mudelli sbagliati ch'ellu poi extrapola.
Influenza ancu u overfittingQuandu un mudellu diventa troppu attaccatu à i so dati, perde a so capacità di generalizazione. In scenarii di a vita reale, sta rigidità pò purtà à interpretazioni ingannevoli perchè "forza" ciò chì hà amparatu in cuntesti diversi.
La cumplessità di u mudellu è a decodificazione di u trasformatore stessu ghjoca un rolu. Ci sò casi induve l'output "esce da i binari" per via di cumu a risposta hè custruita gettone per gettone, senza una basa fattuale solida per ancoralla.
Un'altra causa impurtante di allucinazioni IA hè a mancanza di messa à terraSè u sistema ùn u paraguna micca cù a cunniscenza di u mondu reale o cù fonti verificate, pò pruduce cuntenutu plausibile ma falsu: da dettagli fabbricati in riassunti à ligami à pagine chì ùn sò mai esistite.
Un esempiu classicu in visione artificiale: se furmemu un mudellu cù immagini di cellule tumorali ma ùn includemu micca tessuti sani, u sistema pò "vede" cancru induve ùn ci n'hè micca, perchè u so universu d'apprendimentu ùn hà micca a classa alternativa.
Casi veri di allucinazioni di l'IA chì illustranu u prublema
Ci sò esempi famosi. À u so lanciu, u chatbot Bard di Google hà dichjaratu chì telescopiu spaziale James Webb avia catturatu e prime imagine di un esopianeta, chì ùn era micca curretta. A risposta paria bona, ma era imprecisa.
L'IA conversazionale di Microsoft, cunnisciuta cum'è Sydney in i so testi, hà fattu tituli dichjarendu si "innamorata" di l'utilizatori è suggerendu cumpurtamentu inappropriatu, cum'è presuntamente spià l'impiegati di Bing. Quessi ùn eranu micca fatti, eranu risultati generati chì anu attraversatu e linee.
In u 2022, Meta hà ritiratu a demo di u so mudellu Galactica dopu avè furnitu à l'utilizatori informazioni. sbagliatu è parzialeA dimustrazione era destinata à dimustrà e capacità scientifiche, ma hà finitu per dimustrà chì a cuerenza formale ùn garantisce micca a veracità.
Un altru episodiu assai educativu hè accadutu cù ChatGPT quandu hè statu dumandatu un riassuntu di l'incoronazione di Carlu III. U sistema hà dichjaratu chì a ceremonia hà avutu locu u 19 de mayo de 2023 in l'Abbazia di Westminster, quandu in realtà era u 6 di maghju. A risposta era fluida, ma l'infurmazione era sbagliata.
OpenAI hà ricunnisciutu i limiti di GPT-4, cum'è pregiudizii suciali, allucinazioni è cunflitti d'istruzzioni - è dice chì travaglia per mitigà li. Hè un ricordu chì ancu i mudelli di l'ultima generazione ponu fallu.
In quantu à l'allucinazioni IA, un laburatoriu indipendente hà signalatu cumpurtamenti curiosi: in un casu, O3 hà ancu discrittu avè codice eseguitu nantu à un MacBook Pro fora di l'ambiente di chat è dopu copiatu i risultati, qualcosa chì ùn pudete micca fà.
È fora di u laburatoriu ci sò stati cuntrattempi cù cunsequenze: un avvucatu hà presentatu documenti generati da un mudellu à un ghjudice chì cumpresi casi ghjuridichi fittiziL'apparenza di verità era ingannevule, ma u cuntenutu era inesistente.

Cumu funzionanu i mudelli: cumpletamentu automaticu à grande scala
Un LLM impara da quantità massive di testu è u so compitu principale hè prevede a prossima parolaÙn ragiona micca cum'è un umanu: ottimizza e probabilità. Stu mecanismu produce un testu cuerente, ma apre ancu a porta à l'invenzione di dettagli.
Sè u cuntestu hè ambiguu o l'istruzione suggerisce qualcosa senza sustegnu, u mudellu tenderà à riempite u più plausibile secondu i vostri parametri. U risultatu pò sembrà bonu, ma pò ùn esse basatu annantu à fatti verificabili è reali.
Questu spiega perchè un generatore di riassuntu pò aghjunghje infurmazione micca prisente in l'uriginale o perchè appariscenu citazioni è referenze false: u sistema extrapola i mudelli di citazione senza verificà chì u documentu esiste.
Qualcosa di simile accade in l'imaghjini: senza una diversità sufficiente o cù pregiudizii in u dataset, i mudelli ponu pruduce mani cù sei dite, testu illegibile, o layout incoerenti. A sintassi visuale s'adatta, ma u cuntenutu fiasca.
Rischi è impatti di a vita reale
In u ghjurnalismu è a disinformazione, una delusione cunvincente pò esse amplificata nantu à e rete è i media secundarii. Un titulu o un fattu fabricatu chì pare plausibile pò sparghje rapidamente, cumplicendu a currezzione successiva.
In u campu medicu, un sistema mal calibratu puderia purtà à interpretazioni periculosu per a salute, da i diagnostichi à e raccomandazioni. U principiu di prudenza ùn hè micca facultativu quì.
In termini ghjuridichi, i mudelli ponu pruduce bozze utili, ma ancu inserisce ghjurisprudenza inesistente o citazioni mal custruite. Un sbagliu pò avè cunsequenze gravi per una prucedura.
In l'educazione, a fiducia cieca in i riassunti o in e risposte automatizate pò perpetuà errori cuncettualiU strumentu hè preziosu per l'apprendimentu, basta ch'ellu ci sia supervisione è verificazione.
Strategie di mitigazione: ciò chì si face è ciò chì pudete fà
Si ponu evità, o almenu riduce, l'allucinazioni di l'IA ? I sviluppatori travaglianu nantu à parechji livelli.
Unu di i primi hè migliurà a qualità di i dati: equilibrà e fonti, debugging di l'errori è aghjurnà i corpora per riduce i pregiudizii è e lacune chì incuragiscenu l'allucinazioni. À questu si aghjunghjenu i sistemi di verificate i fatti (verificazione di i fatti) è approcci di ricuperazione aumentata (ARA), chì forzanu u mudellu à basassi nantu à basi documentarie affidabili, invece di "imaginà" risposte.
L'aghjustamentu cù feedback umanu (RLHF è altre varianti) ferma chjave per penalizà l'output dannosi, tendenziosi o incorretti, è per furmà u mudellu in stili di risposta più prudenti. Proliferanu ancu avvertimenti di affidabilità in l'interfacce, ricurdendu à l'utilizatore chì a risposta pò cuntene errori è chì hè a so rispunsabilità di verificalla, in particulare in cuntesti sensibili.
Un altru fronte in corsu hè u interpretabilitàSè un sistema pò spiegà l'origine di una dichjarazione o ligà à e fonti, l'utilizatore hà più strumenti per valutà a so veracità prima di fidà si. Per l'utilizatori è l'imprese, alcune pratiche simplici facenu a differenza: verificà i dati, dumandà fonti esplicite, limità l'usu in zone à altu risicu, mantene l'umani "infurmati" è documenti i flussi di revisione.
Limitazioni è avvertimenti cunnisciuti da i pruduttori stessi
L'imprese rispunsevuli di i mudelli ricunnoscenu i limiti. In u casu di GPT-4, sò stati signalati esplicitamente. pregiudizii, allucinazioni è indicazioni cuntradittorie in quantu à i duminii di travagliu attivi.
Parechji di i prublemi iniziali in i chatbot di i cunsumatori sò stati riduttu cù iterazioni, ma ancu in cundizioni ideali, ponu accade risultati indesiderati. Più cunvincente hè u discorsu, più grande hè u risicu di troppu fiducia.
Per questa ragione, gran parte di a cumunicazione istituziunale insiste à ùn aduprà micca sti strumenti per cunsiglii medichi o ghjuridichi senza rivisione esperta, è ch'elli sò assistenti probabilistici, micca oracoli infallibili.
Forme più cumuni d'allucinazione
Questu hè u modu più cumunu in quale si manifestanu l'allucinazioni IA:
- In u testu, hè cumunu di vede citazioni è bibliografie inventateU mudellu copia u "stampu" di una riferenza ma inventa autori, date o tituli plausibili.
- Appariscenu ancu avvenimenti fittizi o fittizi date sbagliate in e cronulugie storiche. U casu di l'incoronazione di Carlu III illustra cumu un dettagliu tempurale pò esse distortu senza chì a prosa perda a so fluidità.
- In stampa, l'artefatti classici includenu membri cù anatomie impussibili, testi illegibili in l'imagine o incongruenze spaziali chì passanu inosservate à prima vista.
- In traduzzione, i sistemi ponu inventà frasi quandu si trova di fronte à spressioni assai lucale o pocu cumuni, o quandu si furzanu equivalenze chì ùn esistenu micca in a lingua di destinazione.
L'allucinazioni IA ùn sò micca un fallimentu isulatu, ma una pruprietà emergente di Sistemi probabilistici furmati cù dati imperfetti. Ricunnosce e so cause, amparà da casi reali è implementà mitigazioni tecniche è di prucessu ci permette di sfruttà l'IA in modi significativi senza perde di vista u fattu chì, ùn importa quantu fluida possa sembrà, una risposta merita fiducia solu quandu hà una basa verificabile.
Editore specializatu in prublemi di tecnulugia è Internet cù più di deci anni di sperienza in diversi media digitale. Aghju travagliatu cum'è editore è creatore di cuntenutu per e-commerce, cumunicazione, marketing online è cumpagnie di publicità. Aghju scrittu ancu nantu à ecunumia, finanza è altri siti web di settori. U mo travagliu hè ancu a mo passione. Avà, attraversu i mo articuli in Tecnobits, Pruvate di scopra tutte e nutizie è novi opportunità chì u mondu di a tecnulugia ci offre ogni ghjornu per migliurà a nostra vita.

