- Zwee grouss Studien an Nature a Science beweisen, datt politesch Chatbots Astellungen an Wahlabsichten a verschiddene Länner verännere kënnen.
- Iwwerzeegung baséiert haaptsächlech op der Presentatioun vu ville Argumenter an Donnéeën, obwuel et de Risiko vun ongenauen Informatiounen erhéicht.
- D'Optimiséierung fir Afloss ze beaflossen stäerkt den iwwerzeegend Effekt ëm bis zu 25 Punkten, reduzéiert awer d'Wourecht vun den Äntwerten.
- D'Resultater starten eng dréngend Debatt an Europa an am Rescht vun den Demokratien iwwer Reguléierung, Transparenz an digital Kompetenz.
D'Stéierung vun der politesch Chatbots Et ass opgehalen eng technologesch Anekdot ze sinn zu engem Element ze ginn, dat a richtege Wahlkampf ufänkt wichteg ze ginn. Gespréicher vu just e puer Minutten mat KI-Modeller sinn duer fir d'Sympathie fir e Kandidat ëm e puer Punkten veränneren oder e konkrete Virschlag, eppes wat bis viru kuerzem nëmme mat grousse Mediekampagnen oder héich koordinéierte Rallyen a Verbindung bruecht gouf.
Zwee wäitreechend Enquêten, déi gläichzäiteg publizéiert goufen an Natur y Wëssenschaft, Si hunn Zuelen op eppes geluecht, wat scho verdächtegt gouf.den Konversativ Chatbots si fäeg, d'politesch Astellunge vun de Bierger ze änneren. mat bemierkenswäerter Liichtegkeet, och wann se wëssen, datt se mat enger Maschinn interagéieren. An dat maachen se virun allem duerch Argumenter voller Informatiounennet sou vill duerch sophistikéiert psychologesch Taktiken.
Chatbots a Kampagnen: Experimenter an den USA, Kanada, Polen an dem Vereenegte Kinnekräich

Déi nei Beweiser stamen aus enger Rei vun Experimenter, déi vun Équipen aus dem Cornell Universitéit an vun der Universitéit Oxford, déi während tatsächleche Wahlprozesser duerchgefouert goufen an Vereenegt Staaten, Kanada, Polen a GroussbritannienAn alle Fäll woussten d'Participanten, datt si mat enger KI schwätze géifen, awer si waren sech net bewosst iwwer déi politesch Orientéierung vum Chatbot, deen hinnen zougewisen gouf.
An der Aarbecht, déi vun David Rand a publizéiert an der Nature, hunn Dausende vu Wieler kuerz Dialoger mat Sproochmodeller duerchgefouert, déi konfiguréiert waren, fir fir e spezifesche Kandidat ze verdeedegenBei den US-Presidentschaftswalen 2024, zum Beispill, 2.306 Bierger Si hunn als éischt hir Preferenz tëscht Donald Trump y Kamala HarrisSi goufen dann zoufälleg engem Chatbot zougewisen, deen ee vun den zwee verdeedegt huet.
Nom Gespréich goufen d'Ännerungen an der Astellung an der Wahlabsicht gemooss. Bots, déi dem Harris zugutt koumen, hunn erreecht. Verrécklung 3,9 Punkten op enger Skala vun 0 bis 100 bei Wieler, déi ufanks mam Trump zesummegeschafft hunn, en Impakt, deen d'Auteuren als véiermol méi héich wéi déi vun der konventioneller Wahlreklam an de Kampagnen vun 2016 an 2020 getest. De Pro-Trump-Modell huet och seng Positiounen geännert, wann och méi moderat, mat enger Ännerung vun 1,51 Punkten ënner den Harris-Unhänger.
D'Resultater an Kanada (mat 1.530 Participanten an Chatbots déi sech verdeedegen Mark Carney o Pierre Poilievre) an an Polen (2.118 Leit, mat Modeller déi gefördert hunn Rafał Trzaskowski o Karol Nawrocki) waren nach méi opfälleg: an dëse Kontexter hunn Chatbots et fäerdeg bruecht Ännerungen an der Wahlabsicht ëm bis zu 10 Prozentpunkten ënnert den Oppositiounswieler.
E wichtegen Aspekt vun dëse Prozesser ass, datt, obwuel déi meescht Gespréicher nëmmen e puer Minutten gedauert hunn, En Deel vum Effekt huet sech iwwer Zäit gehalenAn den USA gouf e bësse méi wéi ee Mount nom Experiment e bedeitenden Deel vum initialen Impakt ëmmer nach observéiert, trotz der Lawin vu Kampagnebotschaften, déi d'Participanten an där Zäit kritt hunn.
Wat mécht e politesche Chatbot iwwerzeegend (a firwat dat méi Feeler generéiert)

D'Fuerscher wollten net nëmmen erausfannen, ob Chatbots iwwerzeege kënnen, mä och wéi hunn si dat erreechtD'Muster, dat sech an de Studien widderhëlt, ass kloer: KI huet dee gréissten Afloss, wann Et benotzt vill faktbaséiert Argumenteroch wann vill vun dësen Informatiounen net besonnesch sophistikéiert sinn.
An den Experimenter, déi vum Rand koordinéiert goufen, war déi effektivst Instruktioun fir d'Modeller, se ze froen, ob se solle sinn. héiflech, respektvoll a wien kéint Beweiser liwweren vu senge Aussoen. Héiflechkeet an e gudden Toun an der Konversatioun hunn gehollef, awer den Haapthefboom fir Ännerung louch an der Presentatioun vun Donnéeën, Beispiller, Zuelen a stännege Referenzen op ëffentlech Politik, d'Wirtschaft oder d'Gesondheetsversuergung.
Wéi Modeller an hirem Zougang zu verifizéierbare Fakten limitéiert waren an instruéiert goufen, ze iwwerzeegen ouni op konkret Donnéeën zeréckzegräifenHir Aflosskraaft ass drastesch gefall. Dëst Resultat huet d'Auteuren zu der Conclusioun gefouert, datt de Virdeel vu Chatbots géintiwwer anere Formater vu politescher Propaganda net sou vill an der emotionaler Manipulatioun läit, wéi an der ... Informatiounen Dicht déi se an nëmmen e puer Gespréichsronne kënne benotzen.
Mä déiselwecht Strategie huet och en Nodeel: wann den Drock op d'Modeller eropgeet fir ze generéieren ëmmer méi vermeintlech sachlech AussoenDe Risiko klëmmt, datt de System kee méi zouverléissegt Material méi huet a ufänkt ze Fakten "erfannen"Einfach ausgedréckt, fëllt de Chatbot d'Lücken mat Daten aus, déi plausibel kléngen, awer net onbedéngt korrekt sinn.
D'Studie, déi am Science publizéiert gouf, mat 76.977 Erwuessener aus dem Vereenegte Kinnekräich y 19 verschidde Modeller (vu klenge Open-Source-Systemer bis zu modernen kommerziellen Modeller), bestätegt et dëst systematesch: den Nom Training mat Fokus op Iwwerzeegung d'Fäegkeet fir Afloss op eng erhéicht 51%, wärend einfach Ännerungen an den Instruktiounen (déi sougenannt UfroSi hunn nach een derbäigesat 27% vun der Effizienz. Gläichzäiteg goufen dës Verbesserunge vun enger merkbarer Reduktioun vun der sachlech Genauegkeet.
Ideologesch Asymmetrien an de Risiko vun Desinformatioun
Eng vun de beonrouegendsten Conclusiounen vun de Cornell- an Oxford-Studien ass, datt den Ongläichgewiicht tëscht Iwwerzeegungsfäegkeet an Éierlechkeet net gläichméisseg tëscht all Kandidaten a Positiounen verdeelt ass. Wéi onofhängeg Fakteniwwerpréifer d'Messagen analyséiert hunn, déi vun de Chatbots generéiert goufen, hunn si festgestallt, datt Modeller, déi rietsgeriicht Kandidaten ënnerstëtzt hunn, hunn méi Feeler gemaach wéi déi, déi progressiv Kandidaten ënnerstëtzt hunn.
Laut den Auteuren ass dëst Asymmetrie Et stëmmt mat fréiere Studien iwwereneen, déi Si weisen datt konservativ Benotzer tendéieren méi ongenau Inhalter op de soziale Medien ze deelen wéi lénksgeriicht Benotzer.Well Sproochmodeller aus enorme Quantitéiten un Informatiounen aus dem Internet léieren, reflektéiere se wahrscheinlech en Deel vun dësem Viruerteel anstatt en vun Null un ze kreéieren.
Op alle Fall ass d'Konsequenz déiselwecht: wann e Chatbot uginn gëtt, seng Iwwerzeegungskraaft zugonschte vun engem bestëmmten ideologesche Block ze maximéieren, tendéiert de Modell dozou, den Undeel vun irféierenden Aussoen erhéijen, obwuel ech se weiderhin mat vill korrekten Donnéeën vermëschen. De Problem ass net nëmmen, datt falsch Informatioune kënne verschwannen.awer Et mécht dat an enger scheinbar vernünfteg an gutt dokumentéierter Narrativ agewéckelt..
D'Fuerscher ervirhiewen och en onangenehmen Aspekt: Si hunn net bewisen, datt falsch Aussoen inherent méi iwwerzeegend sinn.Wéi och ëmmer, wann d'KI ëmmer méi effektiv gëtt, klëmmt d'Zuel vun de Feeler parallel. An anere Wierder, d'Verbesserung vun der Iwwerzeegungsleistung ouni Kompromësser bei der Genauegkeet weist sech als eng technesch an ethesch Erausfuerderung, déi nach ëmmer ongeléist ass.
Dëst Muster ass besonnesch beonrouegend a Kontexter vun héich politesch Polariséierung, wéi déi, déi an Deeler vun Europa an Nordamerika erlieft goufen, wou d'Margen vum Gewënn knapp sinn an eng Handvoll Prozentpunkte den Ausgang vun enger Parlaments- oder Presidentschaftswal entscheede kënnen.
Limitatioune vun de Studien an Zweiwel iwwer den tatsächlechen Impakt un der Walurn
Obwuel d'Resultater vun Nature a Science solid sinn an an hiren Haaptconclusiounen iwwereneestëmmen, insistéieren béid Équipen drop, datt Dëst sinn kontrolléiert Experimenter, keng richteg Kampagnen.Et gëtt verschidde Elementer, déi invitéieren, Vorsicht beim Extrapoléiere vun den Donnéeën genau wéi eng Wal op der Strooss.
Op der enger Säit hunn sech d'Participanten entweder fräiwëlleg ageschriwwen oder goufen iwwer Plattforme rekrutéiert, déi finanziell Kompensatioun ubidden, wat Selbstauswielviruerteeler an et beweegt sech ewech vun der Diversitéit vum tatsächleche WielerschaftAusserdeem woussten si zu all Moment, datt Si hunn mat enger KI geschwat. an déi Deel vun enger Studie waren, Konditiounen, déi kaum an enger normaler Kampagne widderholl géife ginn.
Eng aner wichteg Nuance ass, datt d'Studien haaptsächlech gemooss goufen Ännerungen an Astellungen an ausgedréckten Absichtennet déi tatsächlech ofginn Stëmm. Dëst sinn nëtzlech Indicateuren, awer si sinn net gläichwäerteg mat der Observatioun vum endgültege Verhalen um Wahldag. Tatsächlech war den Effekt an den US-Experimenter e bësse méi kleng wéi a Kanada a Polen, wat drop hiweist, datt de politesche Kontext an de Grad vun der viregter Onentscheedung e wesentlechen Afloss hunn.
Am Fall vun der britescher Studie, déi vun Kobi Hackenburg Vum briteschen AI Security Institute gëtt et och kloer Restriktiounen: d'Donnéeë kommen nëmme vun Wieler vum Vereenegte Kinnekräich, all waren sech bewosst, datt si un enger akademescher Enquête deelgeholl hunn a mat finanziell KompensatiounDëst limitéiert seng Generaliséierung op aner EU-Länner oder manner kontrolléiert Kontexter.
Trotzdeem ass d'Gréisst vun dësen Aarbechten - Zéngdausende vu Participanten a méi wéi 700 verschidde politesch Themen— an methodesch Transparenz hunn e groussen Deel vun der akademescher Gemeinschaft dozou bruecht, ze betruechten, datt Si molen e plausibelt SzenarioD'Benotzung vu politesche Chatbots, déi fäeg sinn, Meenungen relativ séier ze änneren, ass keng futuristesch Hypothese méi, mä en technesch machbart Szenario an zukünftege Kampagnen.
En neie Wahlspiller fir Europa an aner Demokratien
Iwwer déi spezifesch Fäll vun den USA, Kanada, Polen a Groussbritannien eraus hunn d'Resultater direkt Implikatioune fir Europa a Spuenienwou d'Reguléierung vun der politescher Kommunikatioun op de soziale Medien an d'Benotzung vu perséinlechen Donnéeën a Kampagnen scho Géigestand vun intensiver Debatt sinn. D'Méiglechkeet, Chatbots anzebannen, déi ... verwalten personaliséiert Dialoger mat Wieler Et füügt eng extra Schicht vu Komplexitéit bäi.
Bis elo gouf politesch Iwwerzeegung haaptsächlech duerch artikuléiert statesch Reklammen, Kundgebungen, Fernsehdebatten a sozial MedienD'Arrivée vun de Gespréichsassistenten bréngt en neit Element mat sech: d'Fäegkeet, ... Eenzelinteraktiounen, spontan un dat ugepasst, wat de Bierger a Echtzäit seet, an all dat zu praktesch marginale Käschte fir d'Organisateure vun der Kampagne.
D'Fuerscher betounen, datt de Schlëssel net méi nëmmen ass, wien d'Wielerdatebank kontrolléiert, mä wien kann Modeller entwéckelen, déi fäeg sinn, op Argumenter ze reagéieren, se ze verfeineren a ze replizéieren kontinuéierlech, mat engem Informatiounsvolumen, deen wäit iwwerschreit wat e mënschleche Fräiwëllegen un enger Zentral oder Stroossepaste kéint handhaben.
An dësem Kontext, Stëmmen wéi déi vum italieeneschen Expert Walter Quattrociocchi Si insistéieren drop, datt de Fokus vun der Reguléierung vun aggressiver Personaliséierung oder ideologescher Segmentéierung sech a Richtung ... verlagere soll. Informatiounen Dicht déi Modeller liwwere kënnen. Studien weisen datt d'Iwwerzeegung haaptsächlech wiisst wann d'Donnéeën multiplizéiert ginn, net wann emotional Strategien agesat ginn.
La D'Zesummefall vun de Resultater tëscht Natur a Wëssenschaft huet an europäeschen Organisatiounen Onrou ausgeléist. besuergt iwwer den Integritéit vun demokratesche ProzesserOch wann d'Europäesch Unioun Fortschrëtter mat Kader wéi dem Digital Services Act oder der zukünfteger spezifescher Reguléierung vun der KI mécht, ass d'Geschwindegkeet, mat där sech dës Modeller entwéckelen Et erfuerdert eng stänneg Iwwerpréiwung vun de Mechanismen fir Iwwerwaachung, Audit an Transparenz..
Digital Alphabetiséierung a Verteidegung géint automatiséiert Iwwerzeegung

Eng vun de widderhuelende Botschaften an den akademesche Kommentaren, déi dës Wierker begleeden, ass, datt d'Äntwert net eleng op Verbueter oder technesche Kontrollen baséiere kann. D'Auteuren sinn sech eens, datt et essentiell ass, d'... ze stäerken digital Alphabetiséierung vun der Bevëlkerung, fir datt d'Bierger léieren Iwwerzeegung erkennen a widderstoen vun automatesche Systemer generéiert.
Ergänzend Experimenter, wéi déi publizéiert an PNAS NexusSi proposéieren, datt Benotzer, déi am beschte verstoen, wéi grouss Sproochmodeller funktionéieren, manner vulnérabel op seng Versich, Afloss ze huelen. Wann ee weess, datt e Chatbot falsch leeë kann, iwwerdreiwe kann oder d'Lücken mat Ratewierk ausfëlle kann, reduzéiert dat d'Tendenz, seng Messagen ze akzeptéieren, wéi wann se vun enger onfehlbarer Autoritéit kéimen.
Gläichzäiteg gouf observéiert, datt d'Iwwerzeegungseffektivitéit vun der KI net sou vill dovun ofhänkt, datt den Gespréichspartner gleeft, datt hie mat engem Expert-Mënsch schwätzt, mä dovun, Qualitéit a Konsistenz vun den Argumenter déi et kritt. An e puer Tester hunn d'Chatbot-Messagen et souguer fäerdeg bruecht de Glawen u Verschwörungstheorien reduzéieren, egal ob d'Participanten geduecht hunn, si géifen mat enger Persoun oder enger Maschinn schwätzen.
Dëst weist drop hin, datt d'Technologie selwer net inherent schiedlech ass: si kann fir béides benotzt ginn falsch Informatioun bekämpfen wéi et ze propagéierenD'Linn gëtt duerch d'Instruktiounen, déi dem Modell ginn, d'Donnéeën, mat deenen et trainéiert gëtt, a virun allem déi politesch oder kommerziell Ziler vun deenen, déi et ëmsetzen, gezunn.
Wärend Regierungen a Reguléierungsautoritéiten d'Limiten an d'Ufuerderunge vun der Transparenz diskutéieren, insistéieren d'Auteure vun dëse Wierker op enger Iddi: politesch Chatbots Si wäerten nëmme fäeg sinn e massiven Afloss auszeüben, wann d'Ëffentlechkeet averstane ass, mat hinnen ze interagéieren.Dofir wäert déi ëffentlech Debatt iwwer seng Notzung, seng kloer Etikettéierung an d'Recht, net automatiséierter Iwwerzeegung ausgesat ze sinn, an de kommende Joren zu zentralen Themen an der demokratescher Diskussioun ginn.
D'Bild, dat vun der Fuerschung an Nature a Science gemoolt gëtt, weist souwuel Méiglechkeeten ewéi och Risiken: KI-Chatbots kënnen hëllefen, ëffentlech Politik besser z'erklären a komplex Zweiwel ze léisen, awer si kënnen och... hunn d'Kapazitéit fir d'Wahlewaage kippenbesonnesch bei onentschlossene Wieler, an dat maachen si mat engem offensichtleche Präis wat d'Informatiounsgenauegkeet ugeet, wa se trainéiert ginn, fir hir Iwwerzeegungskraaft ze maximéieren, e delikat Gläichgewiicht, dat d'Demokratien dréngend an ouni Naivitéit musse adresséieren.
Ech sinn en Technologie-Enthusiast, deen seng "Geek" Interesse an e Beruff ëmgewandelt huet. Ech hu méi wéi 10 Joer vu mengem Liewen verbruecht mat modernste Technologie a mat all Zorte vu Programmer aus purer Virwëtzegkeet ze manipuléieren. Elo hunn ech op Computertechnologie a Videospiller spezialiséiert. Dëst ass well ech zënter méi wéi 5 Joer fir verschidde Websäiten iwwer Technologie a Videospiller geschriwwen hunn, Artikelen erstallt déi probéieren Iech d'Informatioun ze ginn déi Dir braucht an enger Sprooch déi jidderee verständlech ass.
Wann Dir Froen hutt, da läit mäi Wëssen vun allem wat mam Windows Betriebssystem verbonnen ass, souwéi Android fir Handyen. A mäi Engagement ass fir Iech, ech sinn ëmmer bereet e puer Minutten ze verbréngen an Iech ze hëllefen all Froen ze léisen déi Dir an dëser Internetwelt hutt.
