- Dos grandes estudios en Nature y Science prueban que los chatbots políticos pueden cambiar actitudes e intención de voto en varios países.
- La persuasión se basa sobre todo en ofrecer muchos argumentos y datos, aunque aumenta el riesgo de información inexacta.
- La optimización para influir refuerza el efecto persuasivo hasta en 25 puntos, pero reduce la veracidad de las respuestas.
- Los hallazgos abren un debate urgente en Europa y el resto de democracias sobre regulación, transparencia y alfabetización digital.
的出現 chatbots políticos ha dejado de ser una anécdota tecnológica para convertirse en un elemento que empieza a contar en campañas electorales reales. Conversaciones de apenas unos minutos con modelos de IA son suficientes para mover varios puntos la simpatía hacia un candidato o una propuesta concreta, algo que hasta hace poco se asociaba solo a grandes campañas mediáticas o a mítines muy afinados.
Dos investigaciones de gran alcance, publicadas simultáneamente en 性質 y 科學, han puesto números a algo que ya se intuía: chatbots conversacionales son capaces de modificar las actitudes políticas de los ciudadanos con una facilidad llamativa, incluso cuando estos saben que están interactuando con una máquina. Y lo hacen, sobre todo, a través de argumentos cargados de información, no tanto mediante tácticas psicológicas sofisticadas.
Chatbots en campaña: experimentos en EE UU, Canadá, Polonia y Reino Unido

Las nuevas evidencias proceden de una batería de experimentos coordinados por equipos de la 康奈爾大學 和 牛津大學, llevados a cabo durante procesos electorales reales en Estados Unidos, Canadá, Polonia y Reino Unido. En todos los casos, los participantes sabían que iban a hablar con una IA, pero desconocían qué orientación política defendía el chatbot que se les asignaba.
En el trabajo liderado por 大衛·蘭德 y publicado en Nature, miles de votantes se sometieron a diálogos breves con modelos de lenguaje configurados para defender a un candidato concreto. En las presidenciales estadounidenses de 2024, por ejemplo, 2.306名市民 indicaron primero su preferencia entre 唐納德·特朗普 y 卡馬拉·哈里斯, y a continuación fueron asignados al azar a un chatbot que defendía a uno de los dos.
Tras la conversación, se midieron los cambios en la actitud y la intención de voto. Los bots favorables a Harris consiguieron desplazar 3,9 puntos en una escala de 0 a 100 entre los votantes inicialmente afines a Trump, un impacto que los autores calculan como cuatro veces superior al de la publicidad electoral convencional probada en las campañas de 2016 y 2020. El modelo pro-Trump también movió posiciones, aunque de forma más moderada, con un cambio de 1,51點 entre simpatizantes de Harris.
結果在 加拿大 (帶 1.530名參加者 y chatbots defendiendo a 馬克·卡尼 o 皮埃爾·波利耶夫)和 波尼亞 (2.118 personas, con modelos que promovían a 拉法·特扎斯科夫斯基(RafałTrzaskowski) o 卡羅爾·納沃羅基) fueron aún más llamativos: en estos contextos, los chatbots lograron cambios en la intención de voto de hasta 10 puntos porcentuales entre votantes de la oposición.
Un aspecto clave de estos ensayos es que, aunque la mayoría de conversaciones duraban apenas unos minutos, parte del efecto se mantenía con el tiempo. En Estados Unidos, algo más de un mes después del experimento, todavía se observaba una fracción relevante del impacto inicial, pese a la avalancha de mensajes de campaña recibidos por los participantes en ese intervalo.
Qué hace que un chatbot político convenza (y por qué eso genera más errores)

Los investigadores querían entender no solo si los chatbots podían persuadir, sino cómo lo estaban consiguiendo. El patrón que se repite en los estudios es claro: la IA influye sobre todo cuando utiliza muchos argumentos basados en hechos, incluso si buena parte de esa información no es especialmente sofisticada.
En los experimentos coordinados por Rand, la instrucción más eficaz para los modelos fue pedirles que fueran educados, respetuosos y que aportaran pruebas de sus afirmaciones. La cortesía y el tono dialogante ayudaban, pero la palanca principal de cambio residía en ofrecer datos, ejemplos, cifras y referencias constantes a políticas públicas, economía o sanidad.
Cuando se limitó a los modelos el acceso a hechos verificables y se les indicó que persuadieran sin recurrir a datos concretos, su poder de influencia cayó de manera drástica. Este resultado llevó a los autores a concluir que la ventaja de los chatbots frente a otros formatos de propaganda política no está tanto en la manipulación emocional como en la 信息密度 que pueden desplegar en unos pocos turnos de conversación.
Pero esta misma estrategia tiene una cara B: a medida que se aumenta la presión sobre los modelos para que generen cada vez más afirmaciones supuestamente fácticas, crece el riesgo de que el sistema se quede sin material fiable y empiece a “inventar” hechos. Dicho de manera llana, el chatbot rellena huecos con datos que suenan plausibles pero que no necesariamente son correctos.
El estudio publicado en Science, con 76.977 adultos del Reino Unido y 19種不同型號 (desde sistemas pequeños de código abierto hasta modelos comerciales punteros), lo confirma de forma sistemática: el postentrenamiento centrado en la persuasión aumentó la capacidad de influir hasta en un 51%, mientras que simples cambios en las instrucciones (el llamado 提示) añadieron otro 27% de eficacia. A la vez, estas mejoras fueron acompañadas por una reducción apreciable de la precisión factual.
Asimetrías ideológicas y riesgo de desinformación
Una de las conclusiones más delicadas de los trabajos de Cornell y Oxford es que el desequilibrio entre persuasión y veracidad no se reparte de manera homogénea entre todos los candidatos y posiciones. Cuando los verificadores independientes analizaron los mensajes generados por los chatbots, detectaron que los modelos que defendían a candidatos de derechas cometían más errores que los que respaldaban a aspirantes de corte progresista.
Según los autores, esta 不對稱 coincide con estudios previos que muestran que los usuarios conservadores tienden a compartir más contenidos inexactos en redes sociales que los de izquierda. Puesto que los modelos de lenguaje aprenden de grandes cantidades de información extraída de internet, es probable que estén reflejando parte de ese sesgo en lugar de crearlo desde cero.
En cualquier caso, la consecuencia es la misma: cuando se ordena a un chatbot que maximice su poder de persuasión en favor de un determinado bloque ideológico, el modelo tiende a aumentar la proporción de afirmaciones engañosas, aunque siga mezclándolas con muchos datos correctos. El problema no es solo que pueda colar información falsa,但是 lo hace envuelta en una narrativa aparentemente razonable y bien documentada.
Los investigadores subrayan además un punto incómodo: no han demostrado que las afirmaciones inexactas sean en sí mismas más persuasivas, pero sí que, cuando se empuja a la IA a ser cada vez más eficaz, la cantidad de errores crece de forma paralela. Es decir, mejorar el rendimiento persuasivo sin deteriorar la veracidad se revela como un reto técnico y ético todavía sin resolver.
Este patrón preocupa especialmente en contextos de alta polarización política, como los que se viven en parte de Europa y Norteamérica, donde los márgenes de victoria son estrechos y un puñado de puntos porcentuales pueden decidir el resultado de unas elecciones generales o presidenciales.
Limitaciones de los estudios y dudas sobre el impacto real en urnas
Aunque los resultados de Nature y Science son sólidos y coinciden en sus principales conclusiones, ambos equipos insisten en que se trata de experimentos controlados y no de campañas reales. Hay varios elementos que invitan a la cautela a la hora de extrapolar los datos tal cual a unas elecciones en la calle.
Por un lado, los participantes se inscribieron de forma voluntaria o fueron reclutados mediante plataformas en las que se ofrece una compensación económica, lo que introduce sesgos de autoselección y se aleja de la diversidad del electorado real. Además, en todo momento sabían que estaban hablando con una IA y que formaban parte de un estudio, condiciones que difícilmente se repetirían en una campaña ordinaria.
Otro matiz importante es que los trabajos midieron principalmente cambios en actitudes e intenciones declaradas, no el voto efectivo en urna. Se trata de indicadores útiles, pero no equivalen a observar el comportamiento final el día de las elecciones. De hecho, en los experimentos estadounidenses, el efecto fue algo menor que en Canadá y Polonia, lo que sugiere que el contexto político y el grado de indecisión previa influyen de forma notable.
En el caso del estudio británico coordinado por Kobi Hackenburg desde el Instituto de Seguridad de IA del Reino Unido, también hay restricciones claras: los datos proceden solo de votantes del Reino Unido, todos ellos conscientes de que participaban en una investigación académica y con 經濟補償, lo que limita la generalización a otros países de la UE o a contextos menos controlados.
Con todo, la escala de estos trabajos —decenas de miles de participantes y más de 700 temas políticos distintos— y la transparencia metodológica han llevado a buena parte de la comunidad académica a considerar que dibujan un escenario plausible: el uso de chatbots políticos capaces de alterar opiniones con relativa rapidez ya no es una hipótesis futurista, sino un escenario técnicamente factible en las próximas campañas.
Un nuevo actor electoral para Europa y otras democracias
Más allá de los casos específicos de EE UU, Canadá, Polonia y Reino Unido, los hallazgos tienen implicaciones directas para 歐洲和西班牙, donde la regulación de la comunicación política en redes sociales y el uso de datos personales en campaña ya son objeto de debate intenso. La posibilidad de incorporar chatbots que mantengan diálogos personalizados con los votantes añade una capa de complejidad adicional.
Hasta ahora, la persuasión política se articulaba principalmente a través de anuncios estáticos, mítines, debates televisados y redes sociales. La llegada de asistentes conversacionales introduce un elemento nuevo: la capacidad de mantener interacciones uno a uno, adaptadas sobre la marcha a lo que el ciudadano va contando en tiempo real, y todo ello con un coste prácticamente marginal para los organizadores de campaña.
Los investigadores subrayan que la clave ya no es solo quién controla la base de datos de votantes, sino quién puede desarrollar modelos capaces de responder, matizar y replicar argumentos de forma continua, con un volumen de información que excede con mucho lo que podría manejar un voluntario humano en una centralita o en un puesto de calle.
En este contexto, voces como la del experto italiano 沃爾特·夸特羅喬基 insisten en que el foco regulador debe desplazarse de la personalización agresiva o la segmentación ideológica hacia la 信息密度 que los modelos pueden suministrar. Los estudios muestran que la persuasión crece principalmente cuando se multiplican los datos, no cuando se recurre a estrategias emocionales.
La coincidencia de resultados entre Nature y Science ha encendido las alarmas en organismos europeos preocupados por la integridad de los procesos democráticos. Aunque la Unión Europea avanza con marcos como la Ley de Servicios Digitales o la futura regulación específica de IA, la velocidad con la que evolucionan estos modelos obliga a revisar de forma constante los mecanismos de supervisión, auditoría y transparencia.
Alfabetización digital y defensa frente a la persuasión automática

Uno de los mensajes recurrentes en los comentarios académicos que acompañan a estos trabajos es que la respuesta no puede basarse únicamente en prohibiciones o en controles técnicos. Los autores coinciden en que será imprescindible reforzar la 數字素養 de la población para que los ciudadanos aprendan a reconocer y resistir la persuasión generada por sistemas automáticos.
Experimentos complementarios, como los publicados en PNAS 連結, apuntan a que los usuarios que entienden mejor cómo funcionan los grandes modelos de lenguaje son 不那麼脆弱 a sus intentos de influencia. Saber que un chatbot puede equivocarse, exagerar o rellenar vacíos con conjeturas reduce la tendencia a aceptar sus mensajes como si vinieran de una autoridad infalible.
Al mismo tiempo, se ha observado que la eficacia persuasiva de la IA no depende tanto de que el interlocutor crea estar hablando con un humano experto, sino de la calidad y consistencia de los argumentos que recibe. En algunas pruebas, los mensajes de los chatbots consiguieron incluso reducir la creencia en teorías conspirativas, independientemente de si los participantes pensaban estar chateando con una persona o con una máquina.
Esto sugiere que la tecnología en sí no es intrínsecamente dañina: puede usarse tanto para 打擊錯誤信息 como para propagarla. La línea la marcan las instrucciones que se le dan al modelo, los datos con los que se entrena y, sobre todo, los objetivos políticos o comerciales de quienes lo ponen en marcha.
Mientras los gobiernos y reguladores discuten límites y requisitos de transparencia, los autores de estos trabajos insisten en una idea: los chatbots políticos solo podrán influir de forma masiva si la ciudadanía acepta interactuar con ellos. De ahí que el debate público sobre su uso, su etiquetado claro y el derecho a no ser objeto de persuasión automatizada se vuelvan cuestiones centrales de la conversación democrática en los próximos años.
El panorama que dibujan las investigaciones de Nature y Science muestra a la vez oportunidades y riesgos: los chatbots de IA pueden ayudar a explicar mejor las políticas públicas y resolver dudas complejas, pero también tienen capacidad para inclinar la balanza electoral, especialmente entre votantes indecisos, y lo hacen con un precio evidente en términos de precisión de la información cuando se les entrena para exprimir su poder de convicción, un equilibrio delicado que las democracias deberán abordar con urgencia y sin ingenuidad.
我是一名技術愛好者,已將自己的“極客”興趣變成了職業。出於純粹的好奇心,我花了 10 多年的時間使用尖端技術並修改各種程序。現在我專攻電腦技術和電玩遊戲。這是因為五年多來,我一直在為各種技術和視頻遊戲網站撰寫文章,力求以每個人都能理解的語言為您提供所需的資訊。
如果您有任何疑問,我的知識範圍涵蓋與 Windows 作業系統以及手機 Android 相關的所有內容。我對您的承諾是,我總是願意花幾分鐘幫助您解決在這個網路世界中可能遇到的任何問題。
