- Dos grandes estudios en Nature y Science prueban que los chatbots políticos pueden cambiar actitudes e intención de voto en varios países.
- La persuasión se basa sobre todo en ofrecer muchos argumentos y datos, aunque aumenta el riesgo de información inexacta.
- La optimización para influir refuerza el efecto persuasivo hasta en 25 puntos, pero reduce la veracidad de las respuestas.
- Los hallazgos abren un debate urgente en Europa y el resto de democracias sobre regulación, transparencia y alfabetización digital.
의 등장 chatbots políticos ha dejado de ser una anécdota tecnológica para convertirse en un elemento que empieza a contar en campañas electorales reales. Conversaciones de apenas unos minutos con modelos de IA son suficientes para mover varios puntos la simpatía hacia un candidato o una propuesta concreta, algo que hasta hace poco se asociaba solo a grandes campañas mediáticas o a mítines muy afinados.
Dos investigaciones de gran alcance, publicadas simultáneamente en 자연 y 과학, han puesto números a algo que ya se intuía: chatbots conversacionales son capaces de modificar las actitudes políticas de los ciudadanos con una facilidad llamativa, incluso cuando estos saben que están interactuando con una máquina. Y lo hacen, sobre todo, a través de argumentos cargados de información, no tanto mediante tácticas psicológicas sofisticadas.
Chatbots en campaña: experimentos en EE UU, Canadá, Polonia y Reino Unido

Las nuevas evidencias proceden de una batería de experimentos coordinados por equipos de la 코넬 대학교 과 옥스퍼드 대학교, llevados a cabo durante procesos electorales reales en Estados Unidos, Canadá, Polonia y Reino Unido. En todos los casos, los participantes sabían que iban a hablar con una IA, pero desconocían qué orientación política defendía el chatbot que se les asignaba.
En el trabajo liderado por 데이비드 랜드 y publicado en Nature, miles de votantes se sometieron a diálogos breves con modelos de lenguaje configurados para defender a un candidato concreto. En las presidenciales estadounidenses de 2024, por ejemplo, 시민 2.306 명 indicaron primero su preferencia entre 도널드 트럼프 y 카말라 해리스, y a continuación fueron asignados al azar a un chatbot que defendía a uno de los dos.
Tras la conversación, se midieron los cambios en la actitud y la intención de voto. Los bots favorables a Harris consiguieron desplazar 3,9 puntos en una escala de 0 a 100 entre los votantes inicialmente afines a Trump, un impacto que los autores calculan como cuatro veces superior al de la publicidad electoral convencional probada en las campañas de 2016 y 2020. El modelo pro-Trump también movió posiciones, aunque de forma más moderada, con un cambio de 1,51 점 entre simpatizantes de Harris.
결과는 캐나다 (함께 1.530 참가자 y chatbots defendiendo a 마크 카니 o 피에르 푸리에브르) 및 폴란드 (2.118 personas, con modelos que promovían a 라팔 트르자스코프스키 o 카롤 나브로키) fueron aún más llamativos: en estos contextos, los chatbots lograron cambios en la intención de voto de hasta 10 puntos porcentuales entre votantes de la oposición.
Un aspecto clave de estos ensayos es que, aunque la mayoría de conversaciones duraban apenas unos minutos, parte del efecto se mantenía con el tiempo. En Estados Unidos, algo más de un mes después del experimento, todavía se observaba una fracción relevante del impacto inicial, pese a la avalancha de mensajes de campaña recibidos por los participantes en ese intervalo.
Qué hace que un chatbot político convenza (y por qué eso genera más errores)

Los investigadores querían entender no solo si los chatbots podían persuadir, sino cómo lo estaban consiguiendo. El patrón que se repite en los estudios es claro: la IA influye sobre todo cuando utiliza muchos argumentos basados en hechos, incluso si buena parte de esa información no es especialmente sofisticada.
En los experimentos coordinados por Rand, la instrucción más eficaz para los modelos fue pedirles que fueran educados, respetuosos y que aportaran pruebas de sus afirmaciones. La cortesía y el tono dialogante ayudaban, pero la palanca principal de cambio residía en ofrecer datos, ejemplos, cifras y referencias constantes a políticas públicas, economía o sanidad.
Cuando se limitó a los modelos el acceso a hechos verificables y se les indicó que persuadieran sin recurrir a datos concretos, su poder de influencia cayó de manera drástica. Este resultado llevó a los autores a concluir que la ventaja de los chatbots frente a otros formatos de propaganda política no está tanto en la manipulación emocional como en la 정보 밀도 que pueden desplegar en unos pocos turnos de conversación.
Pero esta misma estrategia tiene una cara B: a medida que se aumenta la presión sobre los modelos para que generen cada vez más afirmaciones supuestamente fácticas, crece el riesgo de que el sistema se quede sin material fiable y empiece a “inventar” hechos. Dicho de manera llana, el chatbot rellena huecos con datos que suenan plausibles pero que no necesariamente son correctos.
El estudio publicado en Science, con 76.977 adultos del Reino Unido y 19가지 다른 모델 (desde sistemas pequeños de código abierto hasta modelos comerciales punteros), lo confirma de forma sistemática: el postentrenamiento centrado en la persuasión aumentó la capacidad de influir hasta en un 51 %, mientras que simples cambios en las instrucciones (el llamado 격려) añadieron otro 27 % de eficacia. A la vez, estas mejoras fueron acompañadas por una reducción apreciable de la precisión factual.
Asimetrías ideológicas y riesgo de desinformación
Una de las conclusiones más delicadas de los trabajos de Cornell y Oxford es que el desequilibrio entre persuasión y veracidad no se reparte de manera homogénea entre todos los candidatos y posiciones. Cuando los verificadores independientes analizaron los mensajes generados por los chatbots, detectaron que los modelos que defendían a candidatos de derechas cometían más errores que los que respaldaban a aspirantes de corte progresista.
Según los autores, esta 어울리지 않음 coincide con estudios previos que muestran que los usuarios conservadores tienden a compartir más contenidos inexactos en redes sociales que los de izquierda. Puesto que los modelos de lenguaje aprenden de grandes cantidades de información extraída de internet, es probable que estén reflejando parte de ese sesgo en lugar de crearlo desde cero.
En cualquier caso, la consecuencia es la misma: cuando se ordena a un chatbot que maximice su poder de persuasión en favor de un determinado bloque ideológico, el modelo tiende a aumentar la proporción de afirmaciones engañosas, aunque siga mezclándolas con muchos datos correctos. El problema no es solo que pueda colar información falsa그러나 lo hace envuelta en una narrativa aparentemente razonable y bien documentada.
Los investigadores subrayan además un punto incómodo: no han demostrado que las afirmaciones inexactas sean en sí mismas más persuasivas, pero sí que, cuando se empuja a la IA a ser cada vez más eficaz, la cantidad de errores crece de forma paralela. Es decir, mejorar el rendimiento persuasivo sin deteriorar la veracidad se revela como un reto técnico y ético todavía sin resolver.
Este patrón preocupa especialmente en contextos de alta polarización política, como los que se viven en parte de Europa y Norteamérica, donde los márgenes de victoria son estrechos y un puñado de puntos porcentuales pueden decidir el resultado de unas elecciones generales o presidenciales.
Limitaciones de los estudios y dudas sobre el impacto real en urnas
Aunque los resultados de Nature y Science son sólidos y coinciden en sus principales conclusiones, ambos equipos insisten en que se trata de experimentos controlados y no de campañas reales. Hay varios elementos que invitan a la cautela a la hora de extrapolar los datos tal cual a unas elecciones en la calle.
Por un lado, los participantes se inscribieron de forma voluntaria o fueron reclutados mediante plataformas en las que se ofrece una compensación económica, lo que introduce sesgos de autoselección y se aleja de la diversidad del electorado real. Además, en todo momento sabían que estaban hablando con una IA y que formaban parte de un estudio, condiciones que difícilmente se repetirían en una campaña ordinaria.
Otro matiz importante es que los trabajos midieron principalmente cambios en actitudes e intenciones declaradas, no el voto efectivo en urna. Se trata de indicadores útiles, pero no equivalen a observar el comportamiento final el día de las elecciones. De hecho, en los experimentos estadounidenses, el efecto fue algo menor que en Canadá y Polonia, lo que sugiere que el contexto político y el grado de indecisión previa influyen de forma notable.
En el caso del estudio británico coordinado por Kobi Hackenburg desde el Instituto de Seguridad de IA del Reino Unido, también hay restricciones claras: los datos proceden solo de votantes del Reino Unido, todos ellos conscientes de que participaban en una investigación académica y con 경제적 보상, lo que limita la generalización a otros países de la UE o a contextos menos controlados.
Con todo, la escala de estos trabajos —decenas de miles de participantes y más de 700 temas políticos distintos— y la transparencia metodológica han llevado a buena parte de la comunidad académica a considerar que dibujan un escenario plausible: el uso de chatbots políticos capaces de alterar opiniones con relativa rapidez ya no es una hipótesis futurista, sino un escenario técnicamente factible en las próximas campañas.
Un nuevo actor electoral para Europa y otras democracias
Más allá de los casos específicos de EE UU, Canadá, Polonia y Reino Unido, los hallazgos tienen implicaciones directas para 유럽과 스페인, donde la regulación de la comunicación política en redes sociales y el uso de datos personales en campaña ya son objeto de debate intenso. La posibilidad de incorporar chatbots que mantengan diálogos personalizados con los votantes añade una capa de complejidad adicional.
Hasta ahora, la persuasión política se articulaba principalmente a través de anuncios estáticos, mítines, debates televisados y redes sociales. La llegada de asistentes conversacionales introduce un elemento nuevo: la capacidad de mantener interacciones uno a uno, adaptadas sobre la marcha a lo que el ciudadano va contando en tiempo real, y todo ello con un coste prácticamente marginal para los organizadores de campaña.
Los investigadores subrayan que la clave ya no es solo quién controla la base de datos de votantes, sino quién puede desarrollar modelos capaces de responder, matizar y replicar argumentos de forma continua, con un volumen de información que excede con mucho lo que podría manejar un voluntario humano en una centralita o en un puesto de calle.
En este contexto, voces como la del experto italiano Walter Quattrociocchi insisten en que el foco regulador debe desplazarse de la personalización agresiva o la segmentación ideológica hacia la 정보 밀도 que los modelos pueden suministrar. Los estudios muestran que la persuasión crece principalmente cuando se multiplican los datos, no cuando se recurre a estrategias emocionales.
La coincidencia de resultados entre Nature y Science ha encendido las alarmas en organismos europeos preocupados por la integridad de los procesos democráticos. Aunque la Unión Europea avanza con marcos como la Ley de Servicios Digitales o la futura regulación específica de IA, la velocidad con la que evolucionan estos modelos obliga a revisar de forma constante los mecanismos de supervisión, auditoría y transparencia.
Alfabetización digital y defensa frente a la persuasión automática

Uno de los mensajes recurrentes en los comentarios académicos que acompañan a estos trabajos es que la respuesta no puede basarse únicamente en prohibiciones o en controles técnicos. Los autores coinciden en que será imprescindible reforzar la 디지털 문해력 de la población para que los ciudadanos aprendan a reconocer y resistir la persuasión generada por sistemas automáticos.
Experimentos complementarios, como los publicados en PNAS 넥서스, apuntan a que los usuarios que entienden mejor cómo funcionan los grandes modelos de lenguaje son 덜 취약하다 a sus intentos de influencia. Saber que un chatbot puede equivocarse, exagerar o rellenar vacíos con conjeturas reduce la tendencia a aceptar sus mensajes como si vinieran de una autoridad infalible.
Al mismo tiempo, se ha observado que la eficacia persuasiva de la IA no depende tanto de que el interlocutor crea estar hablando con un humano experto, sino de la calidad y consistencia de los argumentos que recibe. En algunas pruebas, los mensajes de los chatbots consiguieron incluso reducir la creencia en teorías conspirativas, independientemente de si los participantes pensaban estar chateando con una persona o con una máquina.
Esto sugiere que la tecnología en sí no es intrínsecamente dañina: puede usarse tanto para 허위 정보와 싸우다 como para propagarla. La línea la marcan las instrucciones que se le dan al modelo, los datos con los que se entrena y, sobre todo, los objetivos políticos o comerciales de quienes lo ponen en marcha.
Mientras los gobiernos y reguladores discuten límites y requisitos de transparencia, los autores de estos trabajos insisten en una idea: los chatbots políticos solo podrán influir de forma masiva si la ciudadanía acepta interactuar con ellos. De ahí que el debate público sobre su uso, su etiquetado claro y el derecho a no ser objeto de persuasión automatizada se vuelvan cuestiones centrales de la conversación democrática en los próximos años.
El panorama que dibujan las investigaciones de Nature y Science muestra a la vez oportunidades y riesgos: los chatbots de IA pueden ayudar a explicar mejor las políticas públicas y resolver dudas complejas, pero también tienen capacidad para inclinar la balanza electoral, especialmente entre votantes indecisos, y lo hacen con un precio evidente en términos de precisión de la información cuando se les entrena para exprimir su poder de convicción, un equilibrio delicado que las democracias deberán abordar con urgencia y sin ingenuidad.
나는 그의 "괴짜" 관심을 직업으로 바꾼 기술 열광자입니다. 나는 10년 넘게 최첨단 기술을 사용하고 순수한 호기심으로 온갖 프로그램을 만지작거리며 살아왔습니다. 이제 저는 컴퓨터 기술과 비디오 게임을 전공했습니다. 왜냐하면 저는 5년 넘게 기술 및 비디오 게임에 관한 다양한 웹사이트에 글을 쓰고 모든 사람이 이해할 수 있는 언어로 필요한 정보를 제공하려는 기사를 작성해 왔기 때문입니다.
질문이 있으시면 제가 알고 있는 지식은 Windows 운영 체제는 물론 휴대폰용 Android까지 다양합니다. 그리고 저는 여러분을 위한 헌신을 하고 있습니다. 저는 항상 몇 분씩만 시간을 내어 이 인터넷 세계에서 여러분이 가질 수 있는 모든 질문을 해결하도록 도와드릴 의향이 있습니다.
