Cumu i chatbot pulitichi stanu amparanu à influenzà u votu

Ultimu aghjurnamentu: 09/12/2025

  • Dui studii maiò in Nature and Science dimostranu chì i chatbot pulitichi ponu cambià l'attitudini è l'intenzioni di votu in parechji paesi.
  • A persuasione si basa principalmente nantu à l'offerta di numerosi argumenti è dati, ancu s'ella aumenta u risicu d'infurmazioni imprecise.
  • L'ottimisazione per influenzà rinforza l'effettu persuasivu finu à 25 punti, ma riduce a veracità di e risposte.
  • I risultati aprenu un dibattitu urgente in Europa è in u restu di e demucrazie nantu à a regulazione, a trasparenza è l'alfabetizazione digitale.
L'influenza pulitica di i chatbot

L'emergenza di u chatbot pulitichi Hà cessatu d'esse un aneddotu tecnologicu per diventà un elementu chì principia à impurtà in e vere campagne eletturali. Cunversazioni di pochi minuti cù mudelli di IA sò abbastanza per spustà a simpatia versu un candidatu di parechji punti o una pruposta concreta, qualcosa chì finu à pocu tempu fà era assuciata solu à grandi campagne mediatiche o à manifestazioni assai cuurdinate.

Dui investigazioni di vasta portata, publicate simultaneamente in Escursioni y scienza, Anu messu numeri à qualcosa chì era digià suspettatu.: a I chatbot conversazionali sò capaci di mudificà l'attitudini pulitiche di i citadini. cun una facilità rimarchevule, ancu quandu sanu chì interagiscenu cù una macchina. È a facenu, soprattuttu, per mezu di argumenti carichi d'infurmazionimicca tantu per via di tattiche psicologiche sofisticate.

Chatbots in campagne: esperimenti in i Stati Uniti, Canada, Pulonia è u Regnu Unitu

I chatbot in e campagne pulitiche

A nova evidenza vene da una batteria di esperimenti cuurdinati da squadre di u Cornell University è di u Università di Oxford, realizatu durante i prucessi eletturali veri è propri in Stati Uniti, Canada, Pulonia è Regnu UnituIn tutti i casi, i participanti sapianu chì parlerianu cù una IA, ma ùn eranu micca cuscenti di l'orientazione pulitica di u chatbot assignatu à elli.

In u travagliu guidatu da Davide Rand è publicatu in Nature, millaie di votanti anu participatu à brevi dialoghi cù mudelli linguistici cunfigurati per per difende un candidatu specificuIn l'elezzioni presidenziali americane di u 2024, per esempiu, 2.306 cittadini Anu prima indicatu a so preferenza trà Donald Trump y Kamala HarrisDopu sò stati assignati à casu à un chatbot chì difendia unu di i dui.

Dopu à a cunversazione, i cambiamenti d'attitudine è d'intenzione di votu sò stati misurati. I bot favurevuli à Harris anu ottenutu cambiamentu 3,9 punti nantu à una scala da 0 à 100 trà l'elettori inizialmente allineati cù Trump, un impattu chì l'autori calculanu cum'è quattru volte più altu chè quellu di a publicità elettorale cunvinziunale pruvatu in e campagne di u 2016 è di u 2020. U mudellu pro-Trump hà ancu cambiatu pusizioni, ancu s'ellu hè più moderatu, cù un cambiamentu in Punti 1,51 trà i sustenitori di Harris.

I risultati in Canada (cun 1.530 participanti è i chatbot chì difendenu Mark Carney o Pierre Poilievre) è in Poland (2.118 persone, cù mudelli chì anu prumuvutu Rafal Trzaskowski o Karol Nawrocki) eranu ancu più impressiunanti: in questi cuntesti, i chatbot anu sappiutu cambiamenti in l'intenzione di votu finu à 10 punti percentuali trà l'elettori di l'uppusizione.

Un aspettu chjave di sti prucessi hè chì, ancu s'è a maiò parte di e conversazioni sò durate solu uni pochi di minuti, Una parte di l'effettu hè duratu cù u tempuIn i Stati Uniti, un pocu più di un mese dopu à l'esperimentu, una frazzione significativa di l'impattu iniziale hè stata ancu osservata, malgradu a valanga di missaghji di campagna ricevuti da i participanti durante quellu periodu.

Ciò chì rende un chatbot puliticu cunvincente (è perchè questu genera più errori)

chatbot pulitichi

I circadori vulianu capisce micca solu s'è i chatbots pudianu persuade, ma cumu ci ghjunghjenuU mudellu chì si ripete in i studii hè chjaru: l'IA hà a più grande influenza quandu Aduprà parechji argumenti basati nantu à fattiancu s'è gran parte di sta infurmazione ùn hè micca particularmente sofisticata.

Cuntinutu esclusivu - Cliccate quì  Differenza trà antifederalistu è federalista

In l'esperimenti cuurdinati da Rand, l'istruzione più efficace per i mudelli era di dumandalli d'esse educatu, rispettosu, è chì puderia furnisce prove di e so dichjarazioni. A curtesia è un tonu cunversazionale anu aiutatu, ma a leva principale per u cambiamentu stava in offre dati, esempi, cifre è riferimenti custanti à e pulitiche publiche, l'ecunumia o a salute.

Quandu i mudelli eranu limitati in u so accessu à fatti verificabili è istruiti à persuade senza ricorrere à dati concretiU so putere d'influenza hè diminuitu drasticamente. Stu risultatu hà purtatu l'autori à cunclude chì u vantaghju di i chatbot annantu à altri furmati di prupaganda pulitica ùn stà tantu in a manipulazione emotiva chè in u a densità di l'infurmazioni ch'elli ponu spiegà in pochi giri di cunversazione.

Ma sta listessa strategia hà un svantaghju: mentre a pressione aumenta nantu à i mudelli per generà dichjarazioni sempre più presunte di fattuU risicu cresce chì u sistema si esaurisca di materiale affidabile è cummencia à "Inventà" fattiIn poche parole, u chatbot riempie i buchi cù dati chì parenu plausibili ma ùn sò micca necessariamente curretti.

U studiu publicatu in Science, cù 76.977 adulti di u Regnu Unitu y 19 mudelli diffirenti (da i picculi sistemi open-source à i mudelli cummerciali d'avanguardia), cunfirma sistematicamente questu: u dopu a furmazione cuncentrata nantu à a persuasione hà aumentatu a capacità d'influenzà finu à un 51%, mentre chì i cambiamenti simplici in l'istruzzioni (i cusiddetti incitamentuAnu aghjustatu un altru 27% di efficienza. À u listessu tempu, sti miglioramenti sò stati accumpagnati da una riduzione notevule di u accuratezza fattuale.

Asimmetrie ideologiche è u risicu di disinformazione

Una di e cunclusioni più preoccupanti di i studii di Cornell è Oxford hè chì u squilibriu trà a persuasione è a veridicità ùn hè micca distribuitu uniformemente trà tutti i candidati è e pusizioni. Quandu i verificatori di fatti indipendenti anu analizatu i missaghji generati da i chatbot, anu trovu chì I mudelli chì sustenevanu i candidati di diritta anu fattu più sbagli chè quelli chì sustenevanu i candidati progressisti.

Sicondu l'autori, questu asimmetria Coincide cù studii precedenti chì Mostranu chì l'utilizatori cunservatori tendenu à sparte cuntenutu più imprecisu nantu à i social media chè l'utilizatori di manca.Siccomu i mudelli linguistichi amparanu da vaste quantità d'infurmazioni estratte da Internet, hè prubabile ch'elli riflettinu una parte di stu pregiudiziu invece di creallu da zero.

In ogni casu, a cunsequenza hè a listessa: quandu un chatbot hè urdinatu di massimizà u so putere persuasivu in favore di un bloccu ideologicu particulare, u mudellu tende à aumentà a pruporzione di dichjarazioni ingannevoli, ancu s'eiu cuntinuu à mischjà li cù assai dati curretti. U prublema ùn hè micca solu chì l'infurmazioni false ponu passà., ma Face cusì avvoltu in una narrativa apparentemente raghjonevule è ben documentata..

I circadori mettenu ancu in risaltu un puntu scomodu: Ùn anu micca dimustratu chì l'affermazioni imprecise sò intrinsecamente più persuasive.Tuttavia, quandu l'IA hè spinta à diventà sempre più efficace, u numeru d'errori cresce in parallelu. In altre parole, migliurà e prestazioni persuasive senza compromettere a precisione si rivela cum'è una sfida tecnica è etica chì ferma senza risposta.

Cuntinutu esclusivu - Cliccate quì  A Cina mette u so vetu à l'acquistu di chip AI da Nvidia da e so cumpagnie tecnologiche.

Stu mudellu hè particularmente preoccupante in cuntesti di alta polarizazione pulitica, cum'è quelli chì si verificanu in certe parte di l'Europa è di l'America di u Nordu, induve i margini di vittoria sò stretti è una manata di punti percentuali pò decide u risultatu di un'elezzione generale o presidenziale.

Limitazioni di i studii è dubbi nantu à l'impattu reale à l'urna

L'impattu di l'intelligenza artificiale nantu à u votu

Ancu s'è i risultati di Nature and Science sò solidi è sò d'accordu in e so cunclusioni principali, e duie squadre insistenu chì Quessi sò esperimenti cuntrullati, micca campagne vere.Ci sò parechji elementi chì invitanu prudenza quandu si estrapolanu i dati cum'è un'elezzione in carrughju.

Da una parte, i participanti si sò iscritti vuluntariamente o sò stati reclutati per mezu di piattaforme chì offrenu una compensazione finanziaria, ciò chì introduce pregiudizii d'autoselezzione è si alluntana da a diversità di l'elettoratu attualeInoltre, sapianu in ogni mumentu chì Parlavanu cù una IA. è chì facianu parte di un studiu, cundizioni chì ùn si ripeterebbenu guasi mai in una campagna ordinaria.

Un'altra sfumatura impurtante hè chì i studii anu misuratu principalmente cambiamenti in l'attitudini è l'intenzioni dichjaratemicca u votu reale espressu. Quessi sò indicatori utili, ma ùn sò micca equivalenti à l'osservazione di u cumpurtamentu finale u ghjornu di l'elezzioni. In fatti, in l'esperimenti americani, l'effettu era un pocu più chjucu chè in Canada è in Pulonia, ciò chì suggerisce chì u cuntestu puliticu è u gradu di indecisione precedente anu una influenza significativa.

In u casu di u studiu britannicu cuurdinatu da Kobi Hackenburg Da l'Istitutu di Sicurezza IA di u Regnu Unitu, ci sò ancu restrizioni chjare: i dati venenu solu da elettori di u Regnu Unitu, tutti cuscenti chì participavanu à una investigazione accademica è cun cumpensazione ecunomicaQuestu limita a so generalizazione à altri paesi di l'UE o cuntesti menu cuntrullati.

Eppuru, a scala di sti travagli - decine di millaie di participanti è più di 700 temi pulitichi diversi— è a trasparenza metodologica anu purtatu una grande parte di a cumunità accademica à cunsiderà chì Dipinghjenu un scenariu plausibileL'usu di chatbot pulitichi capaci di cambià l'opinioni relativamente rapidamente ùn hè più una ipotesi futurista, ma un scenariu tecnicamente fattibile in e campagne à vene.

Un novu attore eletturale per l'Europa è altre demucrazie

Al di là di i casi specifichi di i Stati Uniti, u Canada, a Pulonia è u Regnu Unitu, i risultati anu implicazioni dirette per Europa è Spagnainduve a regulazione di a cumunicazione pulitica nantu à i social media è l'usu di dati persunali in e campagne sò digià ughjettu di un intensu dibattitu. A pussibilità d'incorporà chatbots chì mantenenu dialoghi persunalizati cù l'elettori Aghjusta un stratu supplementu di cumplessità.

Finu à avà, a persuasione pulitica s'articulava principalmente per mezu di publicità statiche, manifestazioni, dibattiti televisivi è social mediaL'arrivu di l'assistenti di cunversazione introduce un novu elementu: a capacità di mantene interazioni unu à unu, adattatu à a mossa à ciò chì u citatinu dice in tempu reale, è tuttu què à un costu praticamente marginale per l'urganizatori di a campagna.

I circadori insistenu chì a chjave ùn hè più solu quale cuntrolla a basa di dati di l'elettori, ma quale pò sviluppà mudelli capaci di risponde à, raffinà è replicà argumenti continuamente, cù un vulume d'infurmazioni chì supera di gran lunga ciò chì un vuluntariu umanu puderia trattà à un centralinu o à un postu di strada.

Cuntinutu esclusivu - Cliccate quì  Magic Cue: Chì ghjè, à chì serve, è cumu attivallu passu à passu

In questu cuntestu, voci cum'è quella di l'espertu talianu Walter Quattrociocchi Insistenu chì l'attenzione regulatoria duveria spustassi da a persunalizazione aggressiva o a segmentazione ideologica versu a densità di l'infurmazioni chì i mudelli ponu furnisce. I studii mostranu chì a persuasione cresce principalmente quandu i dati sò multiplicati, micca quandu sò aduprate strategie emotive.

La A cuincidenza di risultati trà Nature è Science hà suscitatu allarmi in l'urganisazioni europee. preoccupatu per u integrità di i prucessi democraticiAncu s'è l'Unione Europea face progressi cù quadri cum'è a Legge nantu à i servizii digitali o a futura regulazione specifica di l'IA, a velocità à a quale sti mudelli si evolvunu Ci vole una revisione custante di i meccanismi di supervisione, audit è trasparenza..

Alfabetizazione digitale è difesa contr'à a persuasione automatizata

I chatbot influenzanu a pulitica

Unu di i missaghji ricorrenti in i cummenti accademichi chì accumpagnanu sti travagli hè chì a risposta ùn pò esse basata solu nantu à pruibizioni o cuntrolli tecnichi. L'autori sò d'accordu chì serà essenziale rinfurzà u alfabetizazione digitale di a pupulazione affinchì i citadini amparanu à ricunnosce è resiste à a persuasione generati da sistemi automatichi.

Esperimenti cumplementari, cum'è quelli publicati in PNAS NexusSuggeriscenu chì l'utilizatori chì capiscenu megliu cumu funzionanu i mudelli linguistici grandi sò menu vulnerabile à i so tentativi d'influenza. Sapendu chì un chatbot pò sbaglià, esagerà, o riempie i buchi cù supposizioni riduce a tendenza à accettà i so missaghji cum'è s'elli venissinu da una autorità infallibile.

À u listessu tempu, hè statu osservatu chì l'efficacità persuasiva di l'IA ùn dipende micca tantu da u fattu chì l'interlocutore crede ch'ellu parla à un espertu umanu, ma da u fattu chì qualità è coerenza di l'argumenti ch'ellu riceve. In certi testi, i missaghji di u chatbot sò ancu riesciuti à riduce a credenza in e teorie di cuspirazione, indipendentemente da se i participanti pensavanu chì stavanu chiacchierendu cù una persona o una macchina.

Questu suggerisce chì a tecnulugia stessa ùn hè micca intrinsecamente dannosa: pò esse aduprata per tramindui cumbattimentu di misinformazione per propagalluA linea hè tracciata da l'istruzzioni date à u mudellu, i dati cù i quali hè furmatu, è, soprattuttu, l'ubbiettivi pulitichi o cummerciali di quelli chì u mettenu in azzione.

Mentre i guverni è i regulatori discutenu i limiti è i requisiti di trasparenza, l'autori di sti travagli insistenu nantu à una idea: chatbot pulitichi Saranu capaci d'esercità una influenza massiccia solu s'è u publicu accetta d'interagisce cun elli.Cusì, u dibattitu publicu nantu à u so usu, a so etichettatura chjara è u dirittu di ùn esse sottumessu à a persuasione automatizata diventeranu temi cintrali in a cunversazione demucratica in l'anni à vene.

U quadru dipintu da a ricerca in Nature and Science palesa sia opportunità sia risichi: i chatbot di l'IA ponu aiutà à spiegà megliu e pulitiche publiche è à risolve dubbi cumplessi, ma ponu ancu Anu a capacità di per fà basculà a bilancia eletturalesoprattuttu trà l'elettori indecisi, è u facenu cun un prezzu evidente in termini di precisione di l'infurmazione quandu sò furmati per massimizà u so putere persuasivu, un equilibriu delicatu chì e demucrazie devenu affruntà urgentemente è senza ingenuità.

Leggi di California IA
Articulu ligatu:
A California adotta a lege SB 243 per regulà i chatbot di l'IA è prutege i minori