Hvordan politiske chatbots lærer at påvirke afstemningen

Sidste opdatering: 09/12/2025

  • To store studier i Nature og Science beviser, at politiske chatbots kan ændre holdninger og stemmeintentioner i adskillige lande.
  • Overtalelse er primært baseret på at tilbyde mange argumenter og data, selvom det øger risikoen for unøjagtige oplysninger.
  • Optimering for at påvirke styrker den overtalende effekt med op til 25 point, men reducerer sandfærdigheden af ​​svarene.
  • Resultaterne åbner en presserende debat i Europa og resten af ​​demokratierne om regulering, gennemsigtighed og digital færdighed.
Chatbots' politiske indflydelse

Udbruddet af politiske chatbots Det er ophørt med at være en teknologisk anekdote at blive et element, der begynder at få betydning i rigtige valgkampagner. Samtaler på blot et par minutter med AI-modeller er nok til at forskyd sympatien mod en kandidat med flere point eller et konkret forslag, noget der indtil for nylig kun blev forbundet med store mediekampagner eller stærkt koordinerede demonstrationer.

To vidtrækkende undersøgelser, offentliggjort samtidigt i Natur y Videnskab, De har sat tal på noget, der allerede var mistænkt.: den Samtalechatbots er i stand til at ændre borgernes politiske holdninger. med bemærkelsesværdig lethed, selv når de ved, at de interagerer med en maskine. Og de gør det frem for alt gennem argumenter fyldt med informationikke så meget gennem sofistikerede psykologiske taktikker.

Chatbots i kampagner: eksperimenter i USA, Canada, Polen og Storbritannien

Chatbots i politiske kampagner

De nye beviser stammer fra en række eksperimenter koordineret af hold fra Cornell University og af Oxford University, udført under faktiske valgprocesser i USA, Canada, Polen og StorbritannienI alle tilfælde vidste deltagerne, at de ville tale med en AI, men de var ikke klar over den politiske orientering af den chatbot, der var tildelt dem.

I arbejdet ledet af David Rand og offentliggjort i Nature, gennemgik tusindvis af vælgere korte dialoger med sprogmodeller konfigureret til at forsvare en specifik kandidatVed det amerikanske præsidentvalg i 2024, for eksempel, 2.306 borgere De angav først deres præference mellem Donald Trump y Kamala HarrisDe blev derefter tilfældigt tildelt en chatbot, der forsvarede en af ​​de to.

Efter samtalen blev ændringer i holdning og stemmeintention målt. Bots, der var til fordel for Harris, opnåede skift 3,9 point på en skala fra 0 til 100 blandt vælgere, der oprindeligt støttede Trump, en effekt, som forfatterne beregner som fire gange højere end ved konventionel valgreklame testet i kampagnerne i 2016 og 2020. Pro-Trump-modellen ændrede også holdning, omend mere moderat, med en ændring i 1,51 point blandt Harris' tilhængere.

Resultaterne i Canada (med 1.530 deltagere og chatbots der forsvarer Mark Carney o Pierre Poilievre) og i Polen (2.118 personer, med modeller der promoverede Rafał Trzaskowski o Karol Nawrocki) var endnu mere slående: i disse sammenhænge administrerede chatbots ændringer i stemmeintentionen på op til 10 procentpoint blandt oppositionens vælgere.

Et centralt aspekt ved disse forsøg er, at selvom de fleste samtaler kun varede et par minutter, En del af effekten varede ved over tidI USA blev en betydelig brøkdel af den oprindelige effekt stadig observeret lidt over en måned efter eksperimentet, på trods af den lavine af kampagnebudskaber, som deltagerne modtog i den periode.

Hvad gør en politisk chatbot overbevisende (og hvorfor det genererer flere fejl)

politiske chatbots

Forskerne ønskede ikke kun at forstå, om chatbots kunne overtale, men hvordan opnåede de detMønsteret, der gentager sig i studierne, er tydeligt: ​​AI har den største indflydelse, når Den bruger mange faktabaserede argumenterselvom mange af disse oplysninger ikke er særligt sofistikerede.

Eksklusivt indhold - Klik her  GPT Image 1.5: Sådan vil OpenAI forvandle ChatGPT til et kreativt billedstudie

I de eksperimenter, som Rand koordinerede, var den mest effektive instruktion til modellerne at bede dem om at være høflig, respektfuld og som kunne fremlægge beviser af hans udtalelser. Høflighed og en samtaletone hjalp, men den primære drivkraft for forandring lå i at tilbyde data, eksempler, tal og konstante referencer til offentlige politikker, økonomien eller sundhedsvæsenet.

Da modeller havde begrænset adgang til verificerbare fakta og blev instrueret i at overtale uden at ty til konkrete dataDeres indflydelse faldt drastisk. Dette resultat førte forfatterne til den konklusion, at fordelen ved chatbots i forhold til andre formater for politisk propaganda ikke så meget ligger i følelsesmæssig manipulation som i informationstæthed som de kan implementere i løbet af bare et par samtaler.

Men den samme strategi har en ulempe: efterhånden som presset på modellerne for at generere stiger stadig flere angiveligt faktuelle påstandeRisikoen øges for, at systemet løber tør for pålideligt materiale og begynder at "opfinde" faktaKort sagt udfylder chatbotten hullerne med data, der lyder plausible, men ikke nødvendigvis er korrekte.

Undersøgelsen er offentliggjort i Science, med 76.977 voksne fra Storbritannien y 19 forskellige modeller (fra små open source-systemer til banebrydende kommercielle modeller), bekræfter den systematisk dette: efteruddannelse med fokus på overtalelse øget evne til at påvirke op til en 51%, mens simple ændringer i instruktioner (den såkaldte tilskyndelseDe tilføjede endnu en 27% af effektivitet. Samtidig blev disse forbedringer ledsaget af en mærkbar reduktion i faktuel nøjagtighed.

Ideologiske asymmetrier og risikoen for desinformation

En af de mest bekymrende konklusioner fra Cornell- og Oxford-studierne er, at ubalancen mellem overbevisningsevne og sandfærdighed ikke er jævnt fordelt blandt alle kandidater og stillinger. Da uafhængige faktatjekkere analyserede de beskeder, der blev genereret af chatbots, fandt de ud af, at Modeller, der støttede højreorienterede kandidater, begik flere fejl end dem, der støttede progressive kandidater.

Ifølge forfatterne er dette asymmetri Det stemmer overens med tidligere undersøgelser, der De viser, at konservative brugere har en tendens til at dele mere unøjagtigt indhold på sociale medier end venstreorienterede brugere.Da sprogmodeller lærer af enorme mængder information udvundet fra internettet, afspejler de sandsynligvis noget af denne bias snarere end at skabe den fra bunden.

Under alle omstændigheder er konsekvensen den samme: når en chatbot instrueres i at maksimere sin overtalelseskraft til fordel for en bestemt ideologisk blok, har modellen en tendens til at øge andelen af ​​vildledende påstande, selvom jeg fortsætter med at blande dem med en masse korrekte data. Problemet er ikke kun, at falske oplysninger kan slippe igennem.men Det gør den indhyllet i en tilsyneladende rimelig og veldokumenteret fortælling..

Forskerne fremhæver også et ubehageligt punkt: De har ikke påvist, at unøjagtige påstande i sagens natur er mere overbevisende.Men når AI presses til at blive stadig mere effektiv, vokser antallet af fejl parallelt. Med andre ord viser forbedring af overbevisningsevne uden at gå på kompromis med nøjagtigheden sig som en teknisk og etisk udfordring, der forbliver uløst.

Eksklusivt indhold - Klik her  Grok revolutionerer regnearksredigering: alt om xAIs nye tilbud

Dette mønster er især bekymrende i sammenhænge med høj politisk polarisering, ligesom dem, der opleves i dele af Europa og Nordamerika, hvor sejrsmarginerne er små, og en håndfuld procentpoint kan afgøre resultatet af et parlaments- eller præsidentvalg.

Studiernes begrænsninger og tvivl om den reelle effekt ved stemmeurnerne

Indvirkningen af ​​kunstig intelligens på afstemning

Selvom resultaterne fra Nature og Science er solide og stemmer overens i deres hovedkonklusioner, insisterer begge hold på, at Dette er kontrollerede eksperimenter, ikke rigtige kampagner.Der er flere elementer, der inviterer til forsigtighed ved ekstrapolering af dataene ligesom et valg på gaden.

På den ene side tilmeldte deltagerne sig enten frivilligt eller blev rekrutteret via platforme, der tilbyder økonomisk kompensation, hvilket introducerer selvvalgsbias, og det bevæger sig væk fra mangfoldigheden i det faktiske vælgerkorpsDesuden vidste de hele tiden, at De talte med en AI. og som var en del af en undersøgelse, forhold der næppe ville blive gentaget i en almindelig kampagne.

En anden vigtig nuance er, at studierne primært målte ændringer i holdninger og erklærede intentionerikke den faktiske afgivelse af stemmer. Disse er nyttige indikatorer, men de svarer ikke til at observere den endelige adfærd på valgdagen. Faktisk var effekten i de amerikanske eksperimenter noget mindre end i Canada og Polen, hvilket tyder på, at den politiske kontekst og graden af ​​forudgående ubeslutsomhed har en betydelig indflydelse.

I tilfældet med den britiske undersøgelse koordineret af Kobi Hackenburg Fra Storbritanniens AI Security Institute er der også klare begrænsninger: dataene kommer kun fra vælgere i Storbritannien, alle var klar over, at de deltog i en akademisk undersøgelse og med økonomisk kompensationDette begrænser generaliseringen til andre EU-lande eller mindre kontrollerede kontekster.

Ikke desto mindre er omfanget af disse værker – titusindvis af deltagere og mere end 700 forskellige politiske emner— og metodologisk gennemsigtighed har fået en stor del af det akademiske samfund til at overveje, at De tegner et plausibelt scenarieBrugen af ​​politiske chatbots, der er i stand til at ændre meninger relativt hurtigt, er ikke længere en futuristisk hypotese, men et teknisk muligt scenarie i kommende kampagner.

En ny valgmand for Europa og andre demokratier

Ud over de specifikke tilfælde i USA, Canada, Polen og Storbritannien har resultaterne direkte konsekvenser for Europa og Spanienhvor reguleringen af ​​politisk kommunikation på sociale medier og brugen af ​​personoplysninger i kampagner allerede er genstand for intens debat. Muligheden for at inkorporere chatbots, der vedligeholder personlige dialoger med vælgerne Det tilføjer et ekstra lag af kompleksitet.

Indtil nu blev politisk overtalelse primært formuleret gennem statiske reklamer, demonstrationer, tv-transmitterede debatter og sociale medierAnkomsten af ​​samtaleassistenter introducerer et nyt element: evnen til at vedligeholde en-til-en interaktioner, tilpasset on-the-fly til, hvad borgeren siger i realtid, og alt dette til en praktisk talt marginal omkostning for kampagnearrangørerne.

Forskerne understreger, at nøglen ikke længere kun er, hvem der kontrollerer vælgerdatabasen, men hvem der kan udvikle modeller, der er i stand til at reagere på, forfine og replikere argumenter kontinuerligt, med en informationsmængde, der langt overstiger, hvad en menneskelig frivillig kunne håndtere ved en telefoncentral eller gadepost.

Eksklusivt indhold - Klik her  ChatGPT-studietilstand vs. Gemini-guidet læring: Hvordan de adskiller sig, og hvilken er den rigtige for dig

I denne sammenhæng stemmer som den italienske eksperts Walter Quattrociocchi De insisterer på, at det regulatoriske fokus bør skifte fra aggressiv personalisering eller ideologisk segmentering til informationstæthed som modeller kan levere. Undersøgelser viser, at overtalelse primært vokser, når data multipliceres, ikke når følelsesmæssige strategier anvendes.

La Sammenfaldet af resultater fra Nature og Science har skabt bekymring i europæiske organisationer bekymret over integriteten af ​​demokratiske processerSelvom Den Europæiske Union gør fremskridt med rammer som f.eks. loven om digitale tjenester eller den fremtidige specifikke regulering af AI, er den hastighed, hvormed disse modeller udvikler sig Det kræver en konstant gennemgang af mekanismerne for tilsyn, revision og gennemsigtighed..

Digital læsefærdighed og forsvar mod automatiseret overtalelse

Chatbots påvirker politik

Et af de tilbagevendende budskaber i de akademiske kommentarer, der ledsager disse værker, er, at reaktionen ikke udelukkende kan baseres på forbud eller tekniske kontroller. Forfatterne er enige om, at det vil være afgørende at styrke digital læsefærdighed af befolkningen, så borgerne lærer at genkende og modstå overtalelse genereret af automatiske systemer.

Supplerende eksperimenter, såsom dem der er offentliggjort i PNAS NexusDe foreslår, at brugere, der bedst forstår, hvordan store sprogmodeller fungerer, er mindre sårbare til dens forsøg på indflydelse. At vide, at en chatbot kan tage fejl, overdrive eller udfylde hullerne med gætværk, reducerer tendensen til at acceptere dens beskeder, som om de kom fra en ufejlbarlig autoritet.

Samtidig er det blevet observeret, at AI's overtalelseseffektivitet ikke så meget afhænger af, at samtalepartneren tror, ​​at de taler med et ekspertmenneske, men af argumenternes kvalitet og konsistens som den modtager. I nogle tests lykkedes det endda chatbot-beskederne at mindske troen på konspirationsteorier, uanset om deltagerne troede, de chattede med en person eller en maskine.

Dette antyder, at teknologien i sig selv ikke er iboende skadelig: den kan bruges til begge dele bekæmpe misinformation for at udbrede detGrænsen trækkes af de instruktioner, der gives til modellen, de data, den er trænet med, og frem for alt de politiske eller kommercielle mål hos dem, der sætter den i værk.

Mens regeringer og tilsynsmyndigheder diskuterer grænser og krav til gennemsigtighed, insisterer forfatterne af disse værker på én idé: politiske chatbots De vil kun kunne udøve en massiv indflydelse, hvis offentligheden accepterer at interagere med dem.Derfor vil den offentlige debat om dens anvendelse, dens klare mærkning og retten til ikke at blive udsat for automatiseret overtalelse blive centrale emner i den demokratiske samtale i de kommende år.

Billedet, der tegnes af forskningen i Nature og Science, afslører både muligheder og risici: AI-chatbots kan bidrage til bedre at forklare offentlige politikker og løse komplekse tvivlsspørgsmål, men de kan også har kapacitet til at tippe valgvægtenisær blandt uafklarede vælgere, og de gør det med en tydelig pris med hensyn til informationsnøjagtighed, når de er trænet til at maksimere deres overtalelseskraft, en delikat balance som demokratierne bliver nødt til at tage hånd om hurtigt og uden naivitet.

Californiens love i Iowa
Relateret artikel:
Californien vedtager SB 243 for at regulere AI-chatbots og beskytte mindreårige