- Två stora studier i Nature och Science visar att politiska chattrobotar kan förändra attityder och röstintentioner i flera länder.
- Övertalning bygger främst på att erbjuda många argument och data, även om det ökar risken för felaktig information.
- Att optimera för att påverka stärker den övertygande effekten med upp till 25 poäng, men minskar sanningsenligheten i svaren.
- Resultaten inleder en brådskande debatt i Europa och resten av demokratierna om reglering, transparens och digital kompetens.
Framväxten av politiska chatbotar Det har upphört att vara en teknologisk anekdot att bli ett element som börjar spela roll i verkliga valkampanjer. Samtal på bara några minuter med AI-modeller räcker för att förskjut sympatin mot en kandidat med flera poäng eller ett konkret förslag, något som fram tills nyligen bara förknippades med stora mediekampanjer eller starkt samordnade demonstrationer.
Två omfattande undersökningar, publicerade samtidigt i Natur y Vetenskap, De har satt siffror på något som redan misstänktes.: den Konversationella chattrobotar kan förändra medborgares politiska attityder. med anmärkningsvärd lätthet, även när de vet att de interagerar med en maskin. Och de gör det framför allt genom argument laddade med informationinte så mycket genom sofistikerade psykologiska taktiker.
Chatbotar i kampanjer: experiment i USA, Kanada, Polen och Storbritannien

De nya bevisen kommer från en rad experiment som samordnats av team från Cornell University och University of Oxford, utförda under faktiska valprocesser i USA, Kanada, Polen och StorbritannienI samtliga fall visste deltagarna att de skulle prata med en AI, men de var omedvetna om den politiska inriktningen hos den chatbot som tilldelats dem.
I arbetet som leds av David Rand och publicerad i Nature, genomgick tusentals väljare korta dialoger med språkmodeller konfigurerade för att att försvara en specifik kandidatI det amerikanska presidentvalet 2024, till exempel, 2.306 medborgare De angav först sin preferens mellan Donald Trump y Kamala HarrisDe tilldelades sedan slumpmässigt en chatbot som försvarade en av de två.
Efter samtalet mättes förändringar i attityd och röstintention. Botar som var gynnsamma för Harris uppnåddes. förskjutning 3,9 poäng på en skala från 0 till 100 bland väljare som initialt stöttade Trump, en effekt som författarna beräknar som fyra gånger högre än konventionell valreklam testades under kampanjerna 2016 och 2020. Pro-Trump-modellen ändrade också positioner, om än mer måttligt, med en förändring i 1,51 poäng bland Harris anhängare.
Resultaten i Kanada (Med 1.530 deltagare och chatbots som försvarar Mark Carney o Pierre Poilievre) och in polonia (2 118 personer, med modeller som marknadsförde Rafal Trzaskowski o Karol Nawrocki) var ännu mer slående: i dessa sammanhang hanterade chatbotar förändringar i röstningsavsikten på upp till 10 procentenheter bland oppositionsväljare.
En viktig aspekt av dessa prövningar är att, även om de flesta samtal bara varade i några minuter, En del av effekten varade över tidI USA, drygt en månad efter experimentet, observerades fortfarande en betydande del av den initiala effekten, trots den lavinartade mängd kampanjbudskap som deltagarna mottog under den perioden.
Vad gör en politisk chatbot övertygande (och varför det genererar fler fel)

Forskarna ville inte bara förstå om chatbotar kunde övertala, utan hur lyckades de med detMönstret som upprepar sig i studierna är tydligt: AI har störst inflytande när Den använder många faktabaserade argumentäven om mycket av den informationen inte är särskilt sofistikerad.
I experimenten som Rand koordinerade var den mest effektiva instruktionen till modellerna att be dem att vara artig, respektfull och som kunde tillhandahålla bevis av hans uttalanden. Artighet och en samtalston hjälpte, men den främsta drivkraften för förändring låg i att erbjuda data, exempel, siffror och ständiga hänvisningar till offentlig politik, ekonomin eller hälso- och sjukvården.
När modellerna hade begränsad tillgång till verifierbara fakta och instruerades att övertyga utan att tillgripa konkreta uppgifterDeras inflytande minskade drastiskt. Detta resultat ledde författarna till slutsatsen att fördelen med chatbotar jämfört med andra format av politisk propaganda inte så mycket ligger i emotionell manipulation som i informationstäthet som de kan använda på bara några få samtal.
Men samma strategi har en nackdel: i takt med att trycket ökar på modellerna att generera allt fler påstådda faktabaserade påståendenRisken ökar att systemet får slut på tillförlitligt material och börjar "uppfinna" faktaEnkelt uttryckt fyller chatboten i luckorna med data som låter trovärdig men inte nödvändigtvis är korrekt.
Studien publicerad i Science, med 76 977 vuxna från Storbritannien y 19 olika modeller (från små system med öppen källkod till banbrytande kommersiella modeller), bekräftar den systematiskt detta: efterutbildning med fokus på övertalning ökade förmågan att påverka upp till en 51%, medan enkla ändringar i instruktioner (den s.k. vilket fickDe lade till ytterligare en 27% av effektivitet. Samtidigt åtföljdes dessa förbättringar av en märkbar minskning av faktisk noggrannhet.
Ideologiska asymmetrier och risken för desinformation
En av de mest oroande slutsatserna från Cornell- och Oxford-studierna är att obalansen mellan övertygande kraft och sanningsenlighet inte är jämnt fördelad mellan alla kandidater och positioner. När oberoende faktagranskare analyserade meddelandena som genererades av chattrobotarna fann de att Modeller som stödde högerextrema kandidater gjorde fler misstag än de som stödde progressiva kandidater.
Enligt författarna, detta asymmetri Det sammanfaller med tidigare studier som De visar att konservativa användare tenderar att dela mer felaktigt innehåll på sociala medier än vänsterlutande användare.Eftersom språkmodeller lär sig av stora mängder information som hämtas från internet, återspeglar de sannolikt en del av den partiskheten snarare än att skapa den från grunden.
I vilket fall som helst är konsekvensen densamma: när en chatbot instrueras att maximera sin övertygande kraft till förmån för ett visst ideologiskt block, tenderar modellen att öka andelen vilseledande påståenden, även om jag fortsätter att blanda dem med en hel del korrekt data. Problemet är inte bara att falsk information kan slinka igenom.men Det gör det insvept i en till synes rimlig och väl dokumenterad berättelse..
Forskarna lyfter också fram en obekväm punkt: De har inte visat att felaktiga påståenden i sig är mer övertygande.Men när AI pressas att bli alltmer effektiv ökar antalet fel parallellt. Med andra ord visar sig förbättring av övertygande prestanda utan att kompromissa med noggrannheten vara en teknisk och etisk utmaning som förblir olöst.
Detta mönster är särskilt oroande i sammanhang med hög politisk polarisering, liksom de som upplevts i delar av Europa och Nordamerika, där segermarginalerna är små och en handfull procentenheter kan avgöra resultatet av ett parlamentsval eller presidentval.
Studiernas begränsningar och tvivel om den verkliga effekten vid valurnorna
Även om resultaten från Nature och Science är solida och överensstämmer i sina huvudsakliga slutsatser, insisterar båda grupperna på att Det här är kontrollerade experiment, inte riktiga kampanjer.Det finns flera element som inbjuder till försiktighet vid extrapolering av data precis som ett val på gatan.
Å ena sidan anmälde sig deltagarna antingen frivilligt eller rekryterades via plattformar som erbjuder ekonomisk ersättning, vilket introducerar självvalsbias och det rör sig bort från mångfalden i den faktiska väljarkårenDessutom visste de hela tiden att De pratade med en AI. och som var en del av en studie, förhållanden som knappast skulle upprepas i en vanlig kampanj.
En annan viktig nyans är att studierna främst mätte förändringar i attityder och uttalade avsikterinte den faktiska röstningen. Dessa är användbara indikatorer, men de motsvarar inte att observera slutligt beteende på valdagen. Faktum är att effekten i de amerikanska experimenten var något mindre än i Kanada och Polen, vilket tyder på att det politiska sammanhanget och graden av tidigare obeslutsamhet har en betydande inverkan.
När det gäller den brittiska studien som samordnades av Kobi Hackenburg Från Storbritanniens AI Security Institute finns det också tydliga begränsningar: uppgifterna kommer endast från väljare i Storbritannien, alla medvetna om att de deltog i en akademisk undersökning och med ekonomisk kompensationDetta begränsar dess generalisering till andra EU-länder eller mindre kontrollerade sammanhang.
Ändå är omfattningen av dessa verk – tiotusentals deltagare och mer än 700 olika politiska ämnen— och metodologisk transparens har lett till att en stor del av den akademiska världen anser att De målar upp ett rimligt scenarioAnvändningen av politiska chatbotar som kan ändra åsikter relativt snabbt är inte längre en futuristisk hypotes, utan ett tekniskt genomförbart scenario i kommande valkampanjer.
En ny valaktör för Europa och andra demokratier
Utöver de specifika fallen i USA, Kanada, Polen och Storbritannien har resultaten direkta konsekvenser för Europa och Spaniendär regleringen av politisk kommunikation på sociala medier och användningen av personuppgifter i kampanjer redan är föremål för intensiv debatt. Möjligheten att införliva chatbotar som underhåller personliga dialoger med väljarna Det adderar ett extra lager av komplexitet.
Fram tills nu har politisk övertalning främst formulerats genom statiska annonser, demonstrationer, tv-sända debatter och sociala medierAnkomsten av samtalsassistenter introducerar ett nytt element: möjligheten att upprätthålla en-mot-en-interaktioner, anpassad i realtid till vad medborgaren säger, och allt detta till en praktiskt taget marginell kostnad för kampanjorganisatörerna.
Forskarna betonar att nyckeln inte längre bara är vem som kontrollerar väljardatabasen, utan vem som kan utveckla modeller som kan bemöta, förfina och replikera argument kontinuerligt, med en informationsvolym som vida överstiger vad en mänsklig volontär skulle kunna hantera vid en växel eller gatupost.
I detta sammanhang, röster som den italienska expertens Walter Quattrociocchi De insisterar på att det regulatoriska fokuset bör flyttas från aggressiv personalisering eller ideologisk segmentering till informationstäthet som modeller kan ge. Studier visar att övertalningsförmågan främst växer när data multipliceras, inte när emotionella strategier används.
La Sammanträffandet av resultat från Nature och Science har väckt oro i europeiska organisationer. oroad över integriteten i demokratiska processerÄven om Europeiska unionen gör framsteg med ramverk som lagen om digitala tjänster eller den framtida specifika regleringen av AI, är den hastighet med vilken dessa modeller utvecklas Det kräver en ständig översyn av mekanismerna för tillsyn, revision och transparens..
Digital kompetens och försvar mot automatiserad övertalning

Ett av de återkommande budskapen i de akademiska kommentarerna som åtföljer dessa arbeten är att svaret inte kan baseras enbart på förbud eller tekniska kontroller. Författarna är överens om att det kommer att vara avgörande att stärka digital kompetens av befolkningen så att medborgarna lär sig att känna igen och motstå övertalning genereras av automatiska system.
Kompletterande experiment, såsom de som publicerats i PNAS NexusDe föreslår att användare som bäst förstår hur stora språkmodeller fungerar är mindre sårbara till dess försök till påverkan. Att veta att en chatbot kan ha fel, överdriva eller fylla i luckorna med gissningar minskar tendensen att acceptera dess meddelanden som om de kom från en ofelbar auktoritet.
Samtidigt har det observerats att AI:s övertalningseffektivitet inte så mycket beror på att samtalspartnern tror att de pratar med en expertmänniska, utan på argumentens kvalitet och konsekvens som den tar emot. I vissa tester lyckades chatbotmeddelandena till och med minska tron på konspirationsteorier, oavsett om deltagarna trodde att de chattade med en person eller en maskin.
Detta tyder på att tekniken i sig inte är i sig skadlig: den kan användas för båda bekämpa desinformation för att sprida detGränsen dras av instruktionerna som ges till modellen, de data som den tränas med och framför allt de politiska eller kommersiella målen hos dem som omsätter den i praktiken.
Medan regeringar och tillsynsmyndigheter debatterar gränser och krav för transparens, insisterar författarna till dessa verk på en idé: politiska chatbotar De kommer bara att kunna utöva ett massivt inflytande om allmänheten går med på att interagera med dem.Därför kommer den offentliga debatten om dess användning, dess tydliga märkning och rätten att inte bli utsatt för automatiserad övertalning att bli centrala frågor i den demokratiska samtalet under de kommande åren.
Bilden som målas upp av forskningen i Nature och Science avslöjar både möjligheter och risker: AI-chattrobotar kan bidra till att bättre förklara offentlig politik och lösa komplexa tvivel, men de kan också har kapacitet att att tippa valvågensärskilt bland osäkra väljare, och de gör det med en tydligt pris i termer av informationsnoggrannhet när de tränas för att maximera sin övertygande kraft, en ömtålig balans som demokratierna måste ta itu med snarast och utan naivitet.
Jag är en teknikentusiast som har gjort sina "nördar"-intressen till ett yrke. Jag har tillbringat mer än 10 år av mitt liv med att använda den senaste tekniken och mixtrat med alla typer av program av ren nyfikenhet. Nu har jag specialiserat mig på datateknik och tv-spel. Detta beror på att jag i mer än 5 år har arbetat med att skriva för olika webbplatser om teknik och videospel, skapa artiklar som försöker ge dig den information du behöver på ett språk som är begripligt för alla.
Om du har några frågor sträcker sig min kunskap från allt som rör operativsystemet Windows samt Android för mobiltelefoner. Och mitt engagemang är för dig, jag är alltid villig att spendera några minuter och hjälpa dig att lösa alla frågor du kan ha i den här internetvärlden.
