Come i chatbot politici stanno imparando a influenzare il voto

Ultimo aggiornamento: 09/12/2025

  • Due importanti studi pubblicati su Nature e Science dimostrano che i chatbot politici possono modificare gli atteggiamenti e le intenzioni di voto in diversi Paesi.
  • La persuasione si basa principalmente sull'offerta di numerosi argomenti e dati, anche se aumenta il rischio di informazioni inaccurate.
  • L'ottimizzazione per influenzare rafforza l'effetto persuasivo fino a 25 punti, ma riduce la veridicità delle risposte.
  • I risultati aprono un dibattito urgente in Europa e nel resto delle democrazie su regolamentazione, trasparenza e alfabetizzazione digitale.
Influenza politica dei chatbot

L'emergere del chatbot politici Ha smesso di essere un aneddoto tecnologico per diventare un elemento che sta iniziando a contare nelle campagne elettorali reali. Conversazioni di pochi minuti con modelli di intelligenza artificiale sono sufficienti per spostare la simpatia verso un candidato di diversi punti o una proposta concreta, qualcosa che fino a poco tempo fa era associata solo a grandi campagne mediatiche o a raduni altamente coordinati.

Due indagini di vasta portata, pubblicate simultaneamente in Natura y Scienze, Hanno attribuito dei numeri a qualcosa che era già sospettato.: L' I chatbot conversazionali sono in grado di modificare gli atteggiamenti politici dei cittadini. con notevole facilità, anche quando sanno di interagire con una macchina. E lo fanno, soprattutto, attraverso argomenti carichi di informazioninon tanto attraverso sofisticate tattiche psicologiche.

Chatbot nelle campagne: esperimenti negli Stati Uniti, in Canada, in Polonia e nel Regno Unito

Chatbot nelle campagne politiche

Le nuove prove provengono da una serie di esperimenti coordinati da team provenienti dall' Università di Cornell e della Università di Oxford, effettuate durante i veri processi elettorali in Stati Uniti, Canada, Polonia e Regno UnitoIn tutti i casi, i partecipanti sapevano che avrebbero parlato con un'intelligenza artificiale, ma non erano a conoscenza dell'orientamento politico del chatbot loro assegnato.

Nel lavoro condotto da David Rand e pubblicato su Nature, migliaia di elettori sono stati sottoposti a brevi dialoghi con modelli linguistici configurati per per difendere un candidato specificoNelle elezioni presidenziali statunitensi del 2024, ad esempio, 2.306 cittadini Hanno indicato per primi la loro preferenza tra Donald Trump y Kamala HarrisSono stati poi assegnati in modo casuale a un chatbot che difendeva uno dei due.

Dopo la conversazione, sono stati misurati i cambiamenti di atteggiamento e di intenzione di voto. I bot favorevoli a Harris hanno ottenuto spostamento di 3,9 punti su una scala da 0 a 100 tra gli elettori inizialmente allineati con Trump, un impatto che gli autori calcolano come quattro volte superiore a quello della pubblicità elettorale convenzionale testato nelle campagne del 2016 e del 2020. Anche il modello pro-Trump ha cambiato posizione, seppur in modo più moderato, con un cambiamento di 1,51 punti tra i sostenitori di Harris.

I risultati in Canada (Con I partecipanti 1.530 e chatbot che difendono Mark Carney o Pierre Poilievre) e in polonia (2.118 persone, con modelli che hanno promosso Rafal Trzaskowski o Karol Nawrocki) erano ancora più sorprendenti: in questi contesti, i chatbot riuscivano a modifiche nell'intenzione di voto fino a 10 punti percentuali tra gli elettori dell'opposizione.

Un aspetto fondamentale di queste sperimentazioni è che, sebbene la maggior parte delle conversazioni durasse solo pochi minuti, Parte dell'effetto è durato nel tempoNegli Stati Uniti, poco più di un mese dopo l'esperimento, si è ancora osservata una frazione significativa dell'impatto iniziale, nonostante la valanga di messaggi di campagna ricevuti dai partecipanti in quel periodo.

Cosa rende convincente un chatbot politico (e perché genera più errori)

chatbot politici

I ricercatori volevano capire non solo se i chatbot potessero persuadere, ma come ci riuscivano?Il modello che si ripete negli studi è chiaro: l’intelligenza artificiale ha la maggiore influenza quando Utilizza molti argomenti basati sui fattianche se molte di queste informazioni non sono particolarmente sofisticate.

Contenuti esclusivi: clicca qui  Differenza tra antifederalista e federalista

Negli esperimenti coordinati da Rand, l'istruzione più efficace per i modelli era chiedere loro di essere educato, rispettoso e che potrebbe fornire prove delle sue dichiarazioni. Cortesia e tono colloquiale hanno aiutato, ma la leva principale per il cambiamento è stata quella di offrire dati, esempi, cifre e riferimenti costanti alle politiche pubbliche, all'economia o all'assistenza sanitaria.

Quando i modelli erano limitati nel loro accesso ai fatti verificabili e istruiti a persuadere senza ricorrere a dati concretiIl loro potere di influenza è diminuito drasticamente. Questo risultato ha portato gli autori a concludere che il vantaggio dei chatbot rispetto ad altri formati di propaganda politica non risiede tanto nella manipolazione emotiva quanto nella densità di informazioni che possono esprimere in pochi passaggi di conversazione.

Ma questa stessa strategia ha un lato negativo: man mano che aumenta la pressione sui modelli per generare affermazioni sempre più presumibilmente fattualiAumenta il rischio che il sistema esaurisca il materiale affidabile e inizi a “inventare” i fattiIn parole povere, il chatbot colma le lacune con dati che sembrano plausibili ma non sono necessariamente corretti.

Lo studio pubblicato su Science, con 76.977 adulti dal Regno Unito y 19 diversi modelli (dai piccoli sistemi open source ai modelli commerciali all'avanguardia), lo conferma sistematicamente: il post-formazione focalizzata sulla persuasione aumentato la capacità di influenzare fino a 51%, mentre semplici cambiamenti nelle istruzioni (i cosiddetti suggerimentoNe hanno aggiunto un altro 27% di efficienza. Allo stesso tempo, questi miglioramenti sono stati accompagnati da una notevole riduzione della accuratezza fattuale.

Asimmetrie ideologiche e rischio di disinformazione

Una delle conclusioni più preoccupanti degli studi di Cornell e Oxford è che lo squilibrio tra persuasività e veridicità non è distribuito uniformemente tra tutti i candidati e le posizioni. Quando fact-checker indipendenti hanno analizzato i messaggi generati dai chatbot, hanno scoperto che I modelli che hanno sostenuto i candidati di destra hanno commesso più errori rispetto a coloro che hanno sostenuto candidati progressisti.

Secondo gli autori, questo asimmetria Coincide con studi precedenti che Dimostrano che gli utenti conservatori tendono a condividere sui social media contenuti più inaccurati rispetto agli utenti di sinistra.Poiché i modelli linguistici apprendono da grandi quantità di informazioni estratte da Internet, è probabile che riflettano parte di tale pregiudizio anziché crearlo da zero.

In ogni caso, la conseguenza è la stessa: quando un chatbot viene istruito a massimizzare il suo potere persuasivo a favore di un particolare blocco ideologico, il modello tende a aumentare la percentuale di affermazioni fuorvianti, anche se continuo a mescolarli con molti dati corretti. Il problema non è solo che possono trapelare informazioni false., ma Lo fa avvolto in una narrazione apparentemente ragionevole e ben documentata.

I ricercatori sottolineano anche un punto scomodo: Non hanno dimostrato che le affermazioni inaccurate siano intrinsecamente più persuasive.Tuttavia, quando l'intelligenza artificiale viene spinta a diventare sempre più efficace, il numero di errori aumenta parallelamente. In altre parole, migliorare le prestazioni persuasive senza compromettere l'accuratezza si rivela una sfida tecnica ed etica che rimane irrisolta.

Contenuti esclusivi: clicca qui  La Cina pone il veto all'acquisto da parte di Nvidia di chip AI dalle sue aziende tecnologiche

Questo modello è particolarmente preoccupante nei contesti di elevata polarizzazione politica, come quelli sperimentati in alcune parti d'Europa e del Nord America, dove i margini di vittoria sono ristretti e una manciata di punti percentuali può decidere l'esito di un'elezione generale o presidenziale.

Limiti degli studi e dubbi sul reale impatto alle urne

L'impatto dell'intelligenza artificiale sul voto

Sebbene i risultati di Nature e Science siano solidi e concordi nelle loro conclusioni principali, entrambi i team insistono sul fatto che Si tratta di esperimenti controllati, non di campagne reali.Ci sono diversi elementi che invitano l' attenzione nell'estrapolazione dei dati proprio come un'elezione in piazza.

Da un lato, i partecipanti si sono iscritti volontariamente o sono stati reclutati tramite piattaforme che offrono una compensazione finanziaria, il che introduce pregiudizi di autoselezione e si allontana dalla diversità dell'elettorato effettivoInoltre, sapevano in ogni momento che Stavano parlando con un'intelligenza artificiale. e che facevano parte di uno studio, condizioni che difficilmente si ripeterebbero in una normale campagna.

Un'altra sfumatura importante è che gli studi hanno misurato principalmente cambiamenti negli atteggiamenti e nelle intenzioni dichiarateNon il voto effettivamente espresso. Questi sono indicatori utili, ma non equivalgono all'osservazione del comportamento finale il giorno delle elezioni. Infatti, negli esperimenti statunitensi, l'effetto è stato leggermente inferiore rispetto a quelli in Canada e Polonia, il che suggerisce che il contesto politico e il grado di indecisione precedente abbiano un'influenza significativa.

Nel caso dello studio britannico coordinato da Kobi Hackenburg Anche dall'AI Security Institute del Regno Unito ci sono delle chiare restrizioni: i dati provengono solo da elettori del Regno Unito, tutti consapevoli di partecipare ad un'indagine accademica e con compensazione finanziariaCiò limita la sua generalizzazione ad altri paesi dell'UE o a contesti meno controllati.

Tuttavia, la portata di queste opere – decine di migliaia di partecipanti e più di 700 diversi argomenti politici— e la trasparenza metodologica hanno portato gran parte della comunità accademica a considerare che Dipingono uno scenario plausibileL'impiego di chatbot politici in grado di modificare le opinioni in tempi relativamente rapidi non è più un'ipotesi futuristica, ma uno scenario tecnicamente fattibile nelle prossime campagne elettorali.

Un nuovo attore elettorale per l’Europa e le altre democrazie

Oltre ai casi specifici degli Stati Uniti, del Canada, della Polonia e del Regno Unito, i risultati hanno implicazioni dirette per Europa e Spagnadove la regolamentazione della comunicazione politica sui social media e l'uso dei dati personali nelle campagne sono già oggetto di un intenso dibattito. La possibilità di incorporare chatbot che mantengano dialoghi personalizzati con gli elettori Aggiunge un ulteriore livello di complessità.

Fino ad ora, la persuasione politica era principalmente articolata attraverso pubblicità statiche, raduni, dibattiti televisivi e social mediaL'arrivo degli assistenti conversazionali introduce un nuovo elemento: la capacità di mantenere interazioni individuali, adattato al volo a ciò che il cittadino dice in tempo reale, e tutto questo a un costo praticamente marginale per gli organizzatori della campagna.

I ricercatori sottolineano che la chiave non è più solo chi controlla il database degli elettori, ma chi può sviluppare modelli capaci di rispondere, perfezionare e replicare gli argomenti continuamente, con un volume di informazioni che supera di gran lunga quello che un volontario umano potrebbe gestire a un centralino o a un posto di guardia.

Contenuti esclusivi: clicca qui  Magic Cue: cos'è, a cosa serve e come attivarlo passo dopo passo

In questo contesto, voci come quella dell'esperto italiano Walter Quattrociocchi Insistono sul fatto che l’attenzione normativa dovrebbe spostarsi dalla personalizzazione aggressiva o dalla segmentazione ideologica verso densità di informazioni che i modelli possono fornire. Gli studi dimostrano che la persuasione cresce principalmente quando i dati vengono moltiplicati, non quando vengono utilizzate strategie emotive.

La La coincidenza dei risultati tra Nature e Science ha sollevato allarmi nelle organizzazioni europee preoccupato per il integrità dei processi democraticiSebbene l’Unione Europea stia facendo progressi con quadri normativi come il Digital Services Act o la futura regolamentazione specifica dell’IA, la velocità con cui questi modelli si evolvono Richiede una revisione costante dei meccanismi di supervisione, auditing e trasparenza..

Alfabetizzazione digitale e difesa contro la persuasione automatizzata

I chatbot influenzano la politica

Uno dei messaggi ricorrenti nei commenti accademici che accompagnano queste opere è che la risposta non può basarsi esclusivamente su divieti o controlli tecnici. Gli autori concordano sul fatto che sarà essenziale rafforzare la alfabetizzazione digitale della popolazione affinché i cittadini imparino a riconoscere e resistere alla persuasione generati da sistemi automatici.

Esperimenti complementari, come quelli pubblicati in Nesso PNASSuggeriscono che gli utenti che comprendono meglio come funzionano i modelli linguistici di grandi dimensioni sono meno vulnerabile ai suoi tentativi di influenza. Sapere che un chatbot può sbagliarsi, esagerare o colmare le lacune con supposizioni riduce la tendenza ad accettare i suoi messaggi come se provenissero da un'autorità infallibile.

Allo stesso tempo, è stato osservato che l'efficacia persuasiva dell'IA non dipende tanto dal fatto che l'interlocutore creda di parlare con un essere umano esperto, quanto dal fatto che qualità e coerenza degli argomenti che riceve. In alcuni test, i messaggi del chatbot sono persino riusciti a ridurre la credenza nelle teorie del complotto, indipendentemente dal fatto che i partecipanti pensassero di chattare con una persona o con una macchina.

Ciò suggerisce che la tecnologia in sé non è intrinsecamente dannosa: può essere utilizzata per entrambi combattere la disinformazione per diffonderloIl confine è tracciato dalle istruzioni fornite al modello, dai dati con cui viene addestrato e, soprattutto, dagli obiettivi politici o commerciali di chi lo mette in atto.

Mentre governi e autorità di regolamentazione dibattono sui limiti e sui requisiti di trasparenza, gli autori di queste opere insistono su un'idea: chatbot politici Saranno in grado di esercitare un'influenza significativa solo se il pubblico accetterà di interagire con loro.Pertanto, il dibattito pubblico sul suo utilizzo, sulla sua chiara etichettatura e sul diritto a non essere sottoposti a persuasione automatizzata diventeranno questioni centrali nel dibattito democratico dei prossimi anni.

Il quadro dipinto dalla ricerca su Nature e Science rivela sia opportunità che rischi: i chatbot AI possono aiutare a spiegare meglio le politiche pubbliche e a risolvere dubbi complessi, ma possono anche avere la capacità di per far pendere la bilancia elettoralesoprattutto tra gli elettori indecisi, e lo fanno con un prezzo evidente in termini di accuratezza delle informazioni quando vengono addestrati a massimizzare il loro potere persuasivo, un delicato equilibrio che le democrazie dovranno affrontare con urgenza e senza ingenuità.

Leggi della California IA
Articolo correlato:
La California approva la legge SB 243 per regolamentare i chatbot basati sull'intelligenza artificiale e proteggere i minori