- To store studier i Nature og Science viser at politiske chatboter kan endre holdninger og stemmeintensjoner i flere land.
- Overtalelse er først og fremst basert på å tilby mange argumenter og data, selv om det øker risikoen for unøyaktig informasjon.
- Optimalisering for å påvirke styrker den overtalende effekten med opptil 25 poeng, men reduserer sannferdigheten i svarene.
- Funnene åpner for en presserende debatt i Europa og resten av demokratiene om regulering, åpenhet og digital kompetanse.
Innbruddet av politiske chatboter Det har sluttet å være en teknologisk anekdote å bli et element som begynner å spille noen rolle i virkelige valgkamper. Samtaler på bare noen få minutter med AI-modeller er nok til å forskyve sympatien mot en kandidat med flere poeng eller et konkret forslag, noe som inntil nylig bare ble assosiert med store mediekampanjer eller svært koordinerte demonstrasjoner.
To omfattende undersøkelser, publisert samtidig i Natur y Vitenskap, De har satt tall på noe som allerede var mistenkt.: den Samtalechatboter er i stand til å endre borgernes politiske holdninger. med bemerkelsesverdig letthet, selv når de vet at de samhandler med en maskin. Og de gjør det fremfor alt gjennom argumenter lastet med informasjonikke så mye gjennom sofistikerte psykologiske taktikker.
Chatboter i kampanjer: eksperimenter i USA, Canada, Polen og Storbritannia

De nye bevisene kommer fra en rekke eksperimenter koordinert av team fra Cornell-universitetet og av University of Oxford, utført under faktiske valgprosesser i USA, Canada, Polen og StorbritanniaI alle tilfeller visste deltakerne at de ville snakke med en AI, men de var ikke klar over den politiske orienteringen til chatboten som var tildelt dem.
I arbeidet ledet av David Rand og publisert i Nature, gjennomgikk tusenvis av velgere korte dialoger med språkmodeller konfigurert til å å forsvare en spesifikk kandidatI det amerikanske presidentvalget i 2024, for eksempel, 2.306 borgere De indikerte først sin preferanse mellom Donald Trump y Kamala HarrisDe ble deretter tilfeldig tildelt en chatbot som forsvarte en av de to.
Etter samtalen ble endringer i holdning og stemmeintensjon målt. Boter som var gunstige for Harris oppnådde forskyvning 3,9 poeng på en skala fra 0 til 100 blant velgere som i utgangspunktet støttet Trump, en effekt som forfatterne beregner som fire ganger høyere enn konvensjonell valgreklame testet i kampanjene i 2016 og 2020. Pro-Trump-modellen endret også posisjoner, om enn mer moderat, med en endring i 25 000 poeng blant Harris-tilhengere.
Resultatene i Canada (med 1.530 deltakere og chatboter som forsvarer Mark Carney o Pierre Poilievre) og i Polen (2.118 personer, med modeller som promoterte Rafal Trzaskowski o Karol Nawrocki) var enda mer slående: i disse sammenhengene klarte chatboter endringer i stemmeintensjonen på opptil 10 prosentpoeng blant opposisjonsvelgerne.
Et sentralt aspekt ved disse rettssakene er at selv om de fleste samtalene bare varte i noen få minutter, En del av effekten varte over tidI USA, litt over en måned etter eksperimentet, ble en betydelig brøkdel av den første effekten fortsatt observert, til tross for skredet av kampanjebudskap som deltakerne mottok i løpet av den perioden.
Hva gjør en politisk chatbot overbevisende (og hvorfor det genererer flere feil)

Forskerne ønsket ikke bare å forstå om chatboter kunne overtale, men hvordan oppnådde de detMønsteret som gjentar seg i studiene er tydelig: AI har størst innflytelse når Den bruker mange faktabaserte argumenterselv om mye av informasjonen ikke er spesielt sofistikert.
I eksperimentene koordinert av Rand var den mest effektive instruksjonen til modellene å be dem om å være høflig, respektfull og som kunne fremlegge bevis av uttalelsene hans. Høflighet og en samtaletone hjalp, men den viktigste drivkraften for endring lå i å tilby data, eksempler, tall og konstante referanser til offentlig politikk, økonomien eller helsevesenet.
Da modeller hadde begrenset tilgang til verifiserbare fakta og ble bedt om å overtale uten å ty til konkrete dataDeres innflytelseskraft falt drastisk. Dette resultatet førte forfatterne til å konkludere med at fordelen med chatboter fremfor andre formater for politisk propaganda ikke ligger så mye i emosjonell manipulasjon som i informasjonstetthet som de kan implementere i løpet av bare noen få samtaler.
Men den samme strategien har en ulempe: etter hvert som presset øker på modellene for å generere stadig flere angivelig faktabaserte påstanderRisikoen øker for at systemet går tom for pålitelig materiale og begynner å «finne opp» faktaEnkelt sagt fyller chatboten inn hullene med data som høres plausible ut, men som ikke nødvendigvis er riktige.
Studien publisert i Science, med 76 977 voksne fra Storbritannia y 19 forskjellige modeller (fra små systemer med åpen kildekode til banebrytende kommersielle modeller), bekrefter den systematisk dette: etter trening med fokus på overtalelse økte evnen til å påvirke opptil en 51 %, mens enkle endringer i instruksjoner (den såkalte oppfordringDe la til en annen 27 % av effektivitet. Samtidig ble disse forbedringene ledsaget av en merkbar reduksjon i faktisk nøyaktighet.
Ideologiske asymmetrier og risikoen for desinformasjon
En av de mest urovekkende konklusjonene fra Cornell- og Oxford-studiene er at ubalansen mellom overbevisningsevne og sannferdighet ikke er jevnt fordelt blant alle kandidater og stillinger. Da uavhengige faktasjekkere analyserte meldingene generert av chatbotene, fant de ut at Modeller som støttet høyreekstreme kandidater gjorde flere feil enn de som støttet progressive kandidater.
Ifølge forfatterne, dette asymmetri Det samsvarer med tidligere studier som De viser at konservative brukere har en tendens til å dele mer unøyaktig innhold på sosiale medier enn venstreorienterte brukere.Siden språkmodeller lærer av enorme mengder informasjon hentet fra internett, gjenspeiler de sannsynligvis noe av denne skjevheten i stedet for å skape den fra bunnen av.
Uansett er konsekvensen den samme: når en chatbot blir bedt om å maksimere sin overtalelseskraft til fordel for en bestemt ideologisk blokk, har modellen en tendens til å øke andelen av villedende påstander, selv om jeg fortsetter å blande dem med mye korrekt data. Problemet er ikke bare at falsk informasjon kan slippe gjennom.men Det gjør det pakket inn i en tilsynelatende rimelig og veldokumentert fortelling..
Forskerne fremhever også et ubehagelig poeng: De har ikke vist at unøyaktige påstander iboende er mer overbevisende.Men når AI presses til å bli stadig mer effektiv, øker antallet feil parallelt. Med andre ord, å forbedre overbevisningsytelsen uten å gå på kompromiss med nøyaktigheten viser seg å være en teknisk og etisk utfordring som fortsatt er uløst.
Dette mønsteret er spesielt bekymringsfullt i sammenhenger med høy politisk polarisering, som de som har opplevd i deler av Europa og Nord-Amerika, hvor seiersmarginene er små og en håndfull prosentpoeng kan avgjøre utfallet av et stortingsvalg eller presidentvalg.
Studienes begrensninger og tvil om den reelle effekten ved valgurnene
Selv om resultatene fra Nature og Science er solide og samsvarer i hovedkonklusjonene, insisterer begge teamene på at Dette er kontrollerte eksperimenter, ikke ekte kampanjer.Det er flere elementer som inviterer til forsiktighet ved ekstrapolering av dataene akkurat som et valg på gaten.
På den ene siden meldte deltakerne seg enten frivillig eller ble rekruttert gjennom plattformer som tilbyr økonomisk kompensasjon, noe som introduserer selvvalgsskjevheter og det beveger seg bort fra mangfoldet i det faktiske velgerkorpsetDessuten visste de til enhver tid at De snakket med en AI. og som var en del av en studie, forhold som neppe ville blitt gjentatt i en vanlig kampanje.
En annen viktig nyanse er at studiene primært målte endringer i holdninger og uttalte intensjonerikke den faktiske avgitte stemmen. Dette er nyttige indikatorer, men de er ikke likeverdige med å observere endelig oppførsel på valgdagen. Faktisk var effekten noe mindre i amerikanske eksperimenter enn i Canada og Polen, noe som tyder på at den politiske konteksten og graden av tidligere ubesluttsomhet har en betydelig innflytelse.
Når det gjelder den britiske studien koordinert av Kobi Hackenburg Fra Storbritannias AI Security Institute finnes det også klare begrensninger: dataene kommer kun fra velgerne i Storbritannia, alle var klar over at de deltok i en akademisk undersøkelse og med økonomisk kompensasjonDette begrenser generaliseringen til andre EU-land eller mindre kontrollerte kontekster.
Likevel er omfanget av disse arbeidene – titusenvis av deltakere og mer enn 700 forskjellige politiske emner— og metodisk åpenhet har ført til at en stor del av det akademiske miljøet har vurdert at De tegner et plausibelt scenarioBruken av politiske chatboter som er i stand til å endre meninger relativt raskt er ikke lenger en futuristisk hypotese, men et teknisk gjennomførbart scenario i kommende valgkamper.
En ny valgaktør for Europa og andre demokratier
Utover de spesifikke tilfellene i USA, Canada, Polen og Storbritannia, har funnene direkte implikasjoner for Europa og Spaniader regulering av politisk kommunikasjon på sosiale medier og bruk av personopplysninger i kampanjer allerede er gjenstand for intens debatt. Muligheten for å innlemme chatboter som vedlikeholder personlige dialoger med velgerne Det legger til et ekstra lag med kompleksitet.
Frem til nå har politisk overtalelse hovedsakelig blitt artikulert gjennom statiske annonser, demonstrasjoner, TV-sendte debatter og sosiale medierAnkomsten av samtaleassistenter introduserer et nytt element: evnen til å opprettholde en-til-en-interaksjoner, tilpasset underveis til hva innbyggeren sier i sanntid, og alt dette til en praktisk talt marginal kostnad for kampanjearrangørene.
Forskerne understreker at nøkkelen ikke lenger bare er hvem som kontrollerer velgerdatabasen, men hvem som kan utvikle modeller som er i stand til å respondere på, forbedre og gjenskape argumenter kontinuerlig, med en informasjonsmengde som langt overgår det en menneskelig frivillig kunne håndtere ved en sentralbord eller gatepost.
I denne sammenhengen stemmer som den italienske eksperten Walter Quattrociocchi De insisterer på at det regulatoriske fokuset bør skifte fra aggressiv personalisering eller ideologisk segmentering til informasjonstetthet som modeller kan gi. Studier viser at overtalelse vokser først og fremst når data multipliseres, ikke når emosjonelle strategier brukes.
La Sammenfallet av resultater fra Nature og Science har skapt bekymring i europeiske organisasjoner. bekymret for integriteten til demokratiske prosesserSelv om EU gjør fremskritt med rammeverk som loven om digitale tjenester eller den fremtidige spesifikke reguleringen av AI, er hastigheten som disse modellene utvikler seg med Det krever en kontinuerlig gjennomgang av mekanismene for tilsyn, revisjon og åpenhet..
Digital kompetanse og forsvar mot automatisert overtalelse

Et av de tilbakevendende budskapene i de akademiske kommentarene som følger med disse verkene er at responsen ikke kan baseres utelukkende på forbud eller tekniske kontroller. Forfatterne er enige om at det vil være viktig å styrke digital kompetanse av befolkningen slik at innbyggerne lærer å gjenkjenne og motstå overtalelse generert av automatiske systemer.
Komplementære eksperimenter, slik som de som er publisert i PNAS NexusDe antyder at brukere som best forstår hvordan store språkmodeller fungerer er mindre sårbar til dens forsøk på påvirkning. Å vite at en chatbot kan ta feil, overdrive eller fylle inn hullene med gjetting reduserer tendensen til å akseptere meldingene som om de kom fra en ufeilbarlig autoritet.
Samtidig har det blitt observert at den overtalende effektiviteten til AI ikke avhenger så mye av at samtalepartneren tror de snakker med et ekspertmenneske, men av kvaliteten og konsistensen av argumentene som den mottar. I noen tester klarte chatbot-meldingene til og med å redusere troen på konspirasjonsteorier, uavhengig av om deltakerne trodde de chattet med en person eller en maskin.
Dette antyder at teknologien i seg selv ikke er iboende skadelig: den kan brukes til begge deler bekjempe feilinformasjon som å spre detGrensen trekkes av instruksjonene som gis til modellen, dataene den er trent med, og fremfor alt de politiske eller kommersielle målene til de som setter den ut i livet.
Mens myndigheter og regulatorer diskuterer grenser og krav til åpenhet, insisterer forfatterne av disse verkene på én idé: politiske chatboter De vil bare kunne utøve en massiv innflytelse hvis publikum samtykker i å samhandle med dem.Derfor vil den offentlige debatten om bruken av den, den tydelige merkingen og retten til ikke å bli utsatt for automatisert overtalelse bli sentrale temaer i den demokratiske samtalen i årene som kommer.
Bildet som tegnes av forskningen i Nature og Science avslører både muligheter og risikoer: AI-chatboter kan bidra til å bedre forklare offentlig politikk og løse komplekse tvil, men de kan også har kapasitet til å tippe valgvektenespesielt blant usikre velgere, og de gjør det med en tydelig pris når det gjelder informasjonsnøyaktighet når de er opplært til å maksimere sin overtalelseskraft, en delikat balansegang som demokratiene må ta tak i raskt og uten naivitet.
Jeg er en teknologientusiast som har gjort sine "geek"-interesser til et yrke. Jeg har brukt mer enn 10 år av livet mitt på å bruke banebrytende teknologi og fikse med alle slags programmer av ren nysgjerrighet. Nå har jeg spesialisert meg på datateknologi og videospill. Dette er fordi jeg i mer enn 5 år har skrevet for forskjellige nettsteder om teknologi og videospill, og laget artikler som prøver å gi deg den informasjonen du trenger på et språk som er forståelig for alle.
Hvis du har spørsmål, spenner min kunnskap fra alt relatert til Windows-operativsystemet samt Android for mobiltelefoner. Og mitt engasjement er til deg, jeg er alltid villig til å bruke noen minutter og hjelpe deg med å løse eventuelle spørsmål du måtte ha i denne internettverdenen.
