- Dos grandes estudios en Nature y Science prueban que los chatbots políticos pueden cambiar actitudes e intención de voto en varios países.
- La persuasión se basa sobre todo en ofrecer muchos argumentos y datos, aunque aumenta el riesgo de información inexacta.
- La optimización para influir refuerza el efecto persuasivo hasta en 25 puntos, pero reduce la veracidad de las respuestas.
- Los hallazgos abren un debate urgente en Europa y el resto de democracias sobre regulación, transparencia y alfabetización digital.
L'emergere del chatbots políticos ha dejado de ser una anécdota tecnológica para convertirse en un elemento que empieza a contar en campañas electorales reales. Conversaciones de apenas unos minutos con modelos de IA son suficientes para mover varios puntos la simpatía hacia un candidato o una propuesta concreta, algo que hasta hace poco se asociaba solo a grandes campañas mediáticas o a mítines muy afinados.
Dos investigaciones de gran alcance, publicadas simultáneamente en Natura y Scienze, han puesto números a algo que ya se intuía: L' chatbots conversacionales son capaces de modificar las actitudes políticas de los ciudadanos con una facilidad llamativa, incluso cuando estos saben que están interactuando con una máquina. Y lo hacen, sobre todo, a través de argumentos cargados de información, no tanto mediante tácticas psicológicas sofisticadas.
Chatbots en campaña: experimentos en EE UU, Canadá, Polonia y Reino Unido

Las nuevas evidencias proceden de una batería de experimentos coordinados por equipos de la Università di Cornell e della Università di Oxford, llevados a cabo durante procesos electorales reales en Estados Unidos, Canadá, Polonia y Reino Unido. En todos los casos, los participantes sabían que iban a hablar con una IA, pero desconocían qué orientación política defendía el chatbot que se les asignaba.
En el trabajo liderado por David Rand y publicado en Nature, miles de votantes se sometieron a diálogos breves con modelos de lenguaje configurados para defender a un candidato concreto. En las presidenciales estadounidenses de 2024, por ejemplo, 2.306 cittadini indicaron primero su preferencia entre Donald Trump y Kamala Harris, y a continuación fueron asignados al azar a un chatbot que defendía a uno de los dos.
Tras la conversación, se midieron los cambios en la actitud y la intención de voto. Los bots favorables a Harris consiguieron desplazar 3,9 puntos en una escala de 0 a 100 entre los votantes inicialmente afines a Trump, un impacto que los autores calculan como cuatro veces superior al de la publicidad electoral convencional probada en las campañas de 2016 y 2020. El modelo pro-Trump también movió posiciones, aunque de forma más moderada, con un cambio de 1,51 punti entre simpatizantes de Harris.
I risultati in Canada (Con I partecipanti 1.530 y chatbots defendiendo a Mark Carney o Pierre Poilievre) e in polonia (2.118 personas, con modelos que promovían a Rafal Trzaskowski o Karol Nawrocki) fueron aún más llamativos: en estos contextos, los chatbots lograron cambios en la intención de voto de hasta 10 puntos porcentuales entre votantes de la oposición.
Un aspecto clave de estos ensayos es que, aunque la mayoría de conversaciones duraban apenas unos minutos, parte del efecto se mantenía con el tiempo. En Estados Unidos, algo más de un mes después del experimento, todavía se observaba una fracción relevante del impacto inicial, pese a la avalancha de mensajes de campaña recibidos por los participantes en ese intervalo.
Qué hace que un chatbot político convenza (y por qué eso genera más errores)

Los investigadores querían entender no solo si los chatbots podían persuadir, sino cómo lo estaban consiguiendo. El patrón que se repite en los estudios es claro: la IA influye sobre todo cuando utiliza muchos argumentos basados en hechos, incluso si buena parte de esa información no es especialmente sofisticada.
En los experimentos coordinados por Rand, la instrucción más eficaz para los modelos fue pedirles que fueran educados, respetuosos y que aportaran pruebas de sus afirmaciones. La cortesía y el tono dialogante ayudaban, pero la palanca principal de cambio residía en ofrecer datos, ejemplos, cifras y referencias constantes a políticas públicas, economía o sanidad.
Cuando se limitó a los modelos el acceso a hechos verificables y se les indicó que persuadieran sin recurrir a datos concretos, su poder de influencia cayó de manera drástica. Este resultado llevó a los autores a concluir que la ventaja de los chatbots frente a otros formatos de propaganda política no está tanto en la manipulación emocional como en la densità di informazioni que pueden desplegar en unos pocos turnos de conversación.
Pero esta misma estrategia tiene una cara B: a medida que se aumenta la presión sobre los modelos para que generen cada vez más afirmaciones supuestamente fácticas, crece el riesgo de que el sistema se quede sin material fiable y empiece a “inventar” hechos. Dicho de manera llana, el chatbot rellena huecos con datos que suenan plausibles pero que no necesariamente son correctos.
El estudio publicado en Science, con 76.977 adultos del Reino Unido y 19 diversi modelli (desde sistemas pequeños de código abierto hasta modelos comerciales punteros), lo confirma de forma sistemática: el postentrenamiento centrado en la persuasión aumentó la capacidad de influir hasta en un 51%, mientras que simples cambios en las instrucciones (el llamado suggerimento) añadieron otro 27% de eficacia. A la vez, estas mejoras fueron acompañadas por una reducción apreciable de la precisión factual.
Asimetrías ideológicas y riesgo de desinformación
Una de las conclusiones más delicadas de los trabajos de Cornell y Oxford es que el desequilibrio entre persuasión y veracidad no se reparte de manera homogénea entre todos los candidatos y posiciones. Cuando los verificadores independientes analizaron los mensajes generados por los chatbots, detectaron que los modelos que defendían a candidatos de derechas cometían más errores que los que respaldaban a aspirantes de corte progresista.
Según los autores, esta asimmetria coincide con estudios previos que muestran que los usuarios conservadores tienden a compartir más contenidos inexactos en redes sociales que los de izquierda. Puesto que los modelos de lenguaje aprenden de grandes cantidades de información extraída de internet, es probable que estén reflejando parte de ese sesgo en lugar de crearlo desde cero.
En cualquier caso, la consecuencia es la misma: cuando se ordena a un chatbot que maximice su poder de persuasión en favor de un determinado bloque ideológico, el modelo tiende a aumentar la proporción de afirmaciones engañosas, aunque siga mezclándolas con muchos datos correctos. El problema no es solo que pueda colar información falsa, ma lo hace envuelta en una narrativa aparentemente razonable y bien documentada.
Los investigadores subrayan además un punto incómodo: no han demostrado que las afirmaciones inexactas sean en sí mismas más persuasivas, pero sí que, cuando se empuja a la IA a ser cada vez más eficaz, la cantidad de errores crece de forma paralela. Es decir, mejorar el rendimiento persuasivo sin deteriorar la veracidad se revela como un reto técnico y ético todavía sin resolver.
Este patrón preocupa especialmente en contextos de alta polarización política, como los que se viven en parte de Europa y Norteamérica, donde los márgenes de victoria son estrechos y un puñado de puntos porcentuales pueden decidir el resultado de unas elecciones generales o presidenciales.
Limitaciones de los estudios y dudas sobre el impacto real en urnas
Aunque los resultados de Nature y Science son sólidos y coinciden en sus principales conclusiones, ambos equipos insisten en que se trata de experimentos controlados y no de campañas reales. Hay varios elementos que invitan a la cautela a la hora de extrapolar los datos tal cual a unas elecciones en la calle.
Por un lado, los participantes se inscribieron de forma voluntaria o fueron reclutados mediante plataformas en las que se ofrece una compensación económica, lo que introduce sesgos de autoselección y se aleja de la diversidad del electorado real. Además, en todo momento sabían que estaban hablando con una IA y que formaban parte de un estudio, condiciones que difícilmente se repetirían en una campaña ordinaria.
Otro matiz importante es que los trabajos midieron principalmente cambios en actitudes e intenciones declaradas, no el voto efectivo en urna. Se trata de indicadores útiles, pero no equivalen a observar el comportamiento final el día de las elecciones. De hecho, en los experimentos estadounidenses, el efecto fue algo menor que en Canadá y Polonia, lo que sugiere que el contexto político y el grado de indecisión previa influyen de forma notable.
En el caso del estudio británico coordinado por Kobi Hackenburg desde el Instituto de Seguridad de IA del Reino Unido, también hay restricciones claras: los datos proceden solo de votantes del Reino Unido, todos ellos conscientes de que participaban en una investigación académica y con compensazione finanziaria, lo que limita la generalización a otros países de la UE o a contextos menos controlados.
Con todo, la escala de estos trabajos —decenas de miles de participantes y más de 700 temas políticos distintos— y la transparencia metodológica han llevado a buena parte de la comunidad académica a considerar que dibujan un escenario plausible: el uso de chatbots políticos capaces de alterar opiniones con relativa rapidez ya no es una hipótesis futurista, sino un escenario técnicamente factible en las próximas campañas.
Un nuevo actor electoral para Europa y otras democracias
Más allá de los casos específicos de EE UU, Canadá, Polonia y Reino Unido, los hallazgos tienen implicaciones directas para Europa e Spagna, donde la regulación de la comunicación política en redes sociales y el uso de datos personales en campaña ya son objeto de debate intenso. La posibilidad de incorporar chatbots que mantengan diálogos personalizados con los votantes añade una capa de complejidad adicional.
Hasta ahora, la persuasión política se articulaba principalmente a través de anuncios estáticos, mítines, debates televisados y redes sociales. La llegada de asistentes conversacionales introduce un elemento nuevo: la capacidad de mantener interacciones uno a uno, adaptadas sobre la marcha a lo que el ciudadano va contando en tiempo real, y todo ello con un coste prácticamente marginal para los organizadores de campaña.
Los investigadores subrayan que la clave ya no es solo quién controla la base de datos de votantes, sino quién puede desarrollar modelos capaces de responder, matizar y replicar argumentos de forma continua, con un volumen de información que excede con mucho lo que podría manejar un voluntario humano en una centralita o en un puesto de calle.
En este contexto, voces como la del experto italiano Walter Quattrociocchi insisten en que el foco regulador debe desplazarse de la personalización agresiva o la segmentación ideológica hacia la densità di informazioni que los modelos pueden suministrar. Los estudios muestran que la persuasión crece principalmente cuando se multiplican los datos, no cuando se recurre a estrategias emocionales.
La coincidencia de resultados entre Nature y Science ha encendido las alarmas en organismos europeos preocupados por la integridad de los procesos democráticos. Aunque la Unión Europea avanza con marcos como la Ley de Servicios Digitales o la futura regulación específica de IA, la velocidad con la que evolucionan estos modelos obliga a revisar de forma constante los mecanismos de supervisión, auditoría y transparencia.
Alfabetización digital y defensa frente a la persuasión automática

Uno de los mensajes recurrentes en los comentarios académicos que acompañan a estos trabajos es que la respuesta no puede basarse únicamente en prohibiciones o en controles técnicos. Los autores coinciden en que será imprescindible reforzar la alfabetizzazione digitale de la población para que los ciudadanos aprendan a reconocer y resistir la persuasión generada por sistemas automáticos.
Experimentos complementarios, como los publicados en Nesso PNAS, apuntan a que los usuarios que entienden mejor cómo funcionan los grandes modelos de lenguaje son meno vulnerabile a sus intentos de influencia. Saber que un chatbot puede equivocarse, exagerar o rellenar vacíos con conjeturas reduce la tendencia a aceptar sus mensajes como si vinieran de una autoridad infalible.
Al mismo tiempo, se ha observado que la eficacia persuasiva de la IA no depende tanto de que el interlocutor crea estar hablando con un humano experto, sino de la calidad y consistencia de los argumentos que recibe. En algunas pruebas, los mensajes de los chatbots consiguieron incluso reducir la creencia en teorías conspirativas, independientemente de si los participantes pensaban estar chateando con una persona o con una máquina.
Esto sugiere que la tecnología en sí no es intrínsecamente dañina: puede usarse tanto para combattere la disinformazione como para propagarla. La línea la marcan las instrucciones que se le dan al modelo, los datos con los que se entrena y, sobre todo, los objetivos políticos o comerciales de quienes lo ponen en marcha.
Mientras los gobiernos y reguladores discuten límites y requisitos de transparencia, los autores de estos trabajos insisten en una idea: los chatbots políticos solo podrán influir de forma masiva si la ciudadanía acepta interactuar con ellos. De ahí que el debate público sobre su uso, su etiquetado claro y el derecho a no ser objeto de persuasión automatizada se vuelvan cuestiones centrales de la conversación democrática en los próximos años.
El panorama que dibujan las investigaciones de Nature y Science muestra a la vez oportunidades y riesgos: los chatbots de IA pueden ayudar a explicar mejor las políticas públicas y resolver dudas complejas, pero también avere la capacità di inclinar la balanza electoral, especialmente entre votantes indecisos, y lo hacen con un precio evidente en términos de precisión de la información cuando se les entrena para exprimir su poder de convicción, un equilibrio delicado que las democracias deberán abordar con urgencia y sin ingenuidad.
Sono un appassionato di tecnologia che ha trasformato i suoi interessi "geek" in una professione. Ho trascorso più di 10 anni della mia vita utilizzando tecnologie all'avanguardia e armeggiando con tutti i tipi di programmi per pura curiosità. Ora mi sono specializzato in informatica e videogiochi. Questo perché da più di 5 anni scrivo per vari siti web di tecnologia e videogiochi, creando articoli che cercano di darti le informazioni di cui hai bisogno in un linguaggio comprensibile a tutti.
In caso di domande, le mie conoscenze spaziano da tutto ciò che riguarda il sistema operativo Windows e Android per telefoni cellulari. E il mio impegno è nei tuoi confronti, sono sempre disposto a dedicare qualche minuto e aiutarti a risolvere qualsiasi domanda tu possa avere in questo mondo di Internet.
