- Zwei bedeutende Studien in Nature und Science belegen, dass politische Chatbots in mehreren Ländern Einstellungen und Wahlabsichten verändern können.
- Überzeugung beruht in erster Linie auf dem Anbieten vieler Argumente und Daten, obwohl dies das Risiko ungenauer Informationen erhöht.
- Die Optimierung zur Beeinflussung verstärkt die Überzeugungswirkung um bis zu 25 Punkte, verringert aber die Wahrhaftigkeit der Antworten.
- Die Ergebnisse eröffnen eine dringende Debatte in Europa und den übrigen Demokratien über Regulierung, Transparenz und digitale Kompetenz.
Der Einbruch der politische Chatbots Es ist keine bloße technologische Anekdote mehr. Sie wird zu einem Element, das in realen Wahlkämpfen zunehmend an Bedeutung gewinnt. Schon wenige Minuten lange Gespräche mit KI-Modellen genügen, um die Sympathie für einen Kandidaten um mehrere Punkte verschieben oder ein konkreter Vorschlag, etwas, das bis vor kurzem nur mit großen Medienkampagnen oder hochgradig koordinierten Kundgebungen in Verbindung gebracht wurde.
Zwei weitreichende Untersuchungen, die gleichzeitig veröffentlicht wurden in Natur y Wissenschaft, Sie haben etwas, das man bereits vermutet hatte, mit Zahlen untermauert.: Die Konversationelle Chatbots sind in der Lage, die politischen Einstellungen der Bürger zu verändern. mit bemerkenswerter Leichtigkeit, selbst wenn sie wissen, dass sie mit einer Maschine interagieren. Und das tun sie vor allem durch Argumente wurden mit Informationen geladennicht so sehr durch ausgeklügelte psychologische Taktiken.
Chatbots in Wahlkampagnen: Experimente in den USA, Kanada, Polen und Großbritannien

Die neuen Erkenntnisse stammen aus einer Reihe von Experimenten, die von Teams der Universität koordiniert wurden. Cornell-Universität und der University of Oxford, die während tatsächlicher Wahlprozesse durchgeführt wurden in Vereinigte Staaten, Kanada, Polen und Vereinigtes KönigreichIn allen Fällen wussten die Teilnehmer, dass sie mit einer KI sprechen würden, aber sie waren sich der politischen Ausrichtung des ihnen zugewiesenen Chatbots nicht bewusst.
In der von David Rand und in Nature veröffentlicht, führten Tausende von Wählern kurze Dialoge mit Sprachmodellen, die so konfiguriert waren, dass einen bestimmten Kandidaten verteidigenBei den US-Präsidentschaftswahlen 2024 zum Beispiel 2.306 Bürger Sie gaben zunächst ihre Präferenz an zwischen Donald Trump y Kamala HarrisAnschließend wurden sie nach dem Zufallsprinzip einem Chatbot zugewiesen, der jeweils einen der beiden verteidigte.
Nach dem Gespräch wurden Veränderungen der Einstellung und der Wahlabsicht gemessen. Bots, die Harris positiv gegenüberstanden, erreichten Verschiebung um 3,9 Punkte auf einer Skala von 0 bis 100 unter Wählern, die sich ursprünglich mit Trump identifizierten, eine Auswirkung, die die Autoren wie folgt berechnen: viermal höher als die herkömmlicher Wahlwerbung Das Modell wurde in den Wahlkämpfen 2016 und 2020 getestet. Auch das Pro-Trump-Modell veränderte seine Positionen, wenn auch moderater, mit einem Wechsel in 1,51 Punkte unter den Harris-Anhängern.
Die Ergebnisse in Kanada (Mit 1.530 Teilnehmer und Chatbots verteidigen Mark Carney o Pierre Poilievre) und in Polen (2.118 Personen, mit Modellen, die Werbung machten) Rafał Trzaskowski o Karol Nawrocki) waren noch auffälliger: In diesen Kontexten gelang es Chatbots Änderungen der Wahlabsicht um bis zu 10 Prozentpunkte unter Wählern der Opposition.
Ein wesentlicher Aspekt dieser Versuche ist, dass die meisten Gespräche zwar nur wenige Minuten dauerten, Ein Teil des Effekts hielt über die Zeit an.In den Vereinigten Staaten war etwas mehr als einen Monat nach dem Experiment noch immer ein erheblicher Teil der anfänglichen Wirkung zu beobachten, trotz der Flut von Kampagnenbotschaften, die die Teilnehmer in diesem Zeitraum erreichten.
Was macht einen politischen Chatbot überzeugend (und warum das mehr Fehler verursacht)

Die Forscher wollten nicht nur verstehen, ob Chatbots überzeugen können, sondern Wie haben sie das erreicht?Das in den Studien wiederkehrende Muster ist eindeutig: KI hat den größten Einfluss, wenn Es verwendet viele faktenbasierte Argumente.auch wenn ein Großteil dieser Informationen nicht besonders differenziert ist.
In den von Rand koordinierten Experimenten erwies sich die Aufforderung an die Modelle, … als die effektivste Anweisung für sie. höflich, respektvoll und in der Lage, Beweise vorzulegen Seine Aussagen waren zwar höflich und in einem lockeren, gesprächigen Tonfall gehalten, der entscheidende Hebel für Veränderungen lag jedoch darin, Daten, Beispiele, Zahlen und ständige Bezüge zu öffentlichen Maßnahmen, der Wirtschaft oder dem Gesundheitswesen anzubieten.
Als Models nur eingeschränkten Zugang zu überprüfbaren Fakten hatten und angewiesen wurden, zu überzeugen ohne auf konkrete Daten zurückzugreifenIhr Einfluss nahm drastisch ab. Dieses Ergebnis veranlasste die Autoren zu dem Schluss, dass der Vorteil von Chatbots gegenüber anderen Formen politischer Propaganda weniger in der emotionalen Manipulation liegt als vielmehr in der Informationsdichte die sie in nur wenigen Gesprächsrunden einsetzen können.
Diese Strategie hat jedoch auch einen Nachteil: Mit zunehmendem Druck auf die Modelle, Daten zu generieren, steigt die Anzahl der generierten Daten. zunehmend vermeintlich faktische BehauptungenDas Risiko steigt, dass dem System das zuverlässige Material ausgeht und es zu kippen beginnt. „erfinden“ FaktenVereinfacht gesagt, füllt der Chatbot die Lücken mit Daten, die plausibel klingen, aber nicht unbedingt korrekt sind.
Die in Science veröffentlichte Studie, mit 76.977 Erwachsene aus dem Vereinigten Königreich y 19 verschiedene Modelle (von kleinen Open-Source-Systemen bis hin zu hochmodernen kommerziellen Modellen) bestätigt es dies systematisch: Nachbereitung der Schulung mit Schwerpunkt auf Überzeugung erhöhte die Fähigkeit, Einfluss auf bis zu eine 51%während einfache Änderungen der Anweisungen (die sogenannten AufforderungSie fügten noch einen hinzu 27% der Effizienz. Gleichzeitig ging diese Verbesserung mit einer spürbaren Reduzierung der sachliche Richtigkeit.
Ideologische Asymmetrien und das Risiko von Desinformation
Eine der beunruhigendsten Schlussfolgerungen der Studien von Cornell und Oxford ist, dass das Ungleichgewicht zwischen Überzeugungskraft und Wahrhaftigkeit nicht gleichmäßig auf alle Kandidaten und Positionen verteilt ist. Als unabhängige Faktenchecker die von den Chatbots generierten Nachrichten analysierten, stellten sie fest, dass Models, die rechtsgerichtete Kandidaten unterstützten, machten mehr Fehler. als diejenigen, die progressive Kandidaten unterstützten.
Laut den Autoren ist dies Asymmetrie Es stimmt mit früheren Studien überein, dass Sie zeigen, dass konservative Nutzer eher ungenaue Inhalte in sozialen Medien teilen als linksorientierte Nutzer.Da Sprachmodelle aus riesigen Mengen an Informationen lernen, die aus dem Internet extrahiert werden, spiegeln sie wahrscheinlich eher einen Teil dieser Voreingenommenheit wider, als sie von Grund auf neu zu erzeugen.
In jedem Fall ist die Konsequenz dieselbe: Wenn ein Chatbot angewiesen wird, seine Überzeugungskraft zugunsten eines bestimmten ideologischen Blocks zu maximieren, neigt das Modell dazu, den Anteil irreführender Behauptungen erhöhen, obwohl ich sie weiterhin mit vielen korrekten Daten vermische. Das Problem besteht nicht nur darin, dass falsche Informationen durchsickern können.Aber Dies geschieht in Form einer scheinbar vernünftigen und gut dokumentierten Erzählung..
Die Forscher weisen auch auf einen unangenehmen Punkt hin: Sie haben nicht bewiesen, dass ungenaue Behauptungen an sich überzeugender sind.Wenn KI jedoch zu immer größerer Effektivität angestrebt wird, steigt parallel dazu auch die Anzahl der Fehler. Anders ausgedrückt: Die Verbesserung der Überzeugungskraft ohne Einbußen bei der Genauigkeit erweist sich als technische und ethische Herausforderung, die weiterhin ungelöst ist.
Dieses Muster ist besonders besorgniserregend in Kontexten von hohe politische PolarisierungÄhnlich wie in Teilen Europas und Nordamerikas, wo die Wahlsiege knapp ausfallen und eine Handvoll Prozentpunkte über den Ausgang einer Parlaments- oder Präsidentschaftswahl entscheiden können.
Einschränkungen der Studien und Zweifel an der tatsächlichen Auswirkung auf die Wahlurne
Obwohl die Ergebnisse von Nature und Science fundiert sind und in ihren Hauptschlussfolgerungen übereinstimmen, bestehen beide Teams darauf, dass Dies sind kontrollierte Experimente, keine echten Kampagnen.Es gibt mehrere Elemente, die dazu einladen Vorsicht bei der Extrapolation der Daten genau wie eine Wahl auf der Straße.
Zum einen meldeten sich die Teilnehmer entweder freiwillig an oder wurden über Plattformen rekrutiert, die eine finanzielle Vergütung anbieten, was Folgendes mit sich bringt: Selbstselektionsverzerrungen und eine Abkehr von der Vielfalt der tatsächlichen WählerschaftDarüber hinaus wussten sie jederzeit, dass Sie sprachen mit einer KI. und das war Teil einer Studie, Bedingungen, die sich in einem normalen Wahlkampf kaum wiederholen würden.
Eine weitere wichtige Nuance ist, dass die Studien hauptsächlich gemessen haben Veränderungen der Einstellungen und geäußerten AbsichtenEs geht nicht um die tatsächlich abgegebene Stimme. Diese Indikatoren sind zwar nützlich, aber nicht gleichbedeutend mit dem tatsächlichen Wahlverhalten am Wahltag. Tatsächlich war der Effekt in den US-amerikanischen Experimenten etwas geringer als in Kanada und Polen, was darauf hindeutet, dass der politische Kontext und der Grad der vorherigen Unentschlossenheit einen erheblichen Einfluss haben.
Im Falle der britischen Studie, die koordiniert wurde von Kobi Hackenburg Vom britischen AI Security Institute gibt es ebenfalls klare Einschränkungen: Die Daten stammen ausschließlich von Wähler des Vereinigten Königreichs, alle in dem Bewusstsein, dass sie an einer wissenschaftlichen Untersuchung teilnahmen und mit finanzielle EntschädigungDies schränkt die Übertragbarkeit auf andere EU-Länder oder weniger kontrollierte Kontexte ein.
Dennoch ist der Umfang dieser Werke – Zehntausende von Teilnehmern und mehr als 700 verschiedene politische Themen— und methodische Transparenz haben einen großen Teil der akademischen Gemeinschaft dazu veranlasst, dies zu berücksichtigen. Sie schildern ein plausibles SzenarioDer Einsatz politischer Chatbots, die in der Lage sind, Meinungen relativ schnell zu verändern, ist keine Zukunftsvision mehr, sondern ein technisch machbares Szenario in den kommenden Wahlkämpfen.
Ein neuer Akteur im Wahlkampf für Europa und andere Demokratien
Über die spezifischen Fälle der USA, Kanadas, Polens und Großbritanniens hinaus haben die Ergebnisse direkte Auswirkungen auf Europa und SpanienDie Regulierung politischer Kommunikation in sozialen Medien und die Nutzung personenbezogener Daten in Wahlkämpfen sind bereits Gegenstand intensiver Debatten. Die Möglichkeit, Chatbots einzusetzen, die … personalisierte Dialoge mit Wählern Es fügt eine zusätzliche Komplexitätsebene hinzu.
Bislang wurde politische Überzeugung vor allem durch folgende Mittel zum Ausdruck gebracht: Statische Werbeanzeigen, Kundgebungen, Fernsehdebatten und soziale MedienMit dem Aufkommen von Konversationsassistenten kommt ein neues Element hinzu: die Fähigkeit, … Einzelinteraktionen, spontan an das angepasst, was der Bürger in Echtzeit sagt, und all dies zu praktisch marginalen Kosten für die Kampagnenorganisatoren.
Die Forscher betonen, dass es nicht mehr nur darauf ankommt, wer die Wählerdatenbank kontrolliert, sondern wer dazu in der Lage ist. Modelle entwickeln, die in der Lage sind, auf Argumente zu reagieren, diese zu verfeinern und zu replizieren kontinuierlich und mit einer Informationsmenge, die weit über das hinausgeht, was ein menschlicher Freiwilliger an einer Telefonzentrale oder einem Straßenposten bewältigen könnte.
In diesem Kontext sind Stimmen wie die des italienischen Experten wichtig. Walter Quattrociocchi Sie bestehen darauf, dass sich der regulatorische Fokus von aggressiver Personalisierung oder ideologischer Segmentierung hin zu Informationsdichte Das können Modelle liefern. Studien zeigen, dass Überzeugungskraft vor allem durch die Vervielfachung von Daten zunimmt, nicht durch den Einsatz emotionaler Strategien.
La Die Übereinstimmung der Ergebnisse in Nature und Science hat in europäischen Organisationen Besorgnis ausgelöst. besorgt über die Integrität demokratischer ProzesseObwohl die Europäische Union mit Rahmenwerken wie dem Digital Services Act oder der künftigen spezifischen Regulierung von KI Fortschritte erzielt, entwickelt sich dieses Modell nicht so schnell. Es erfordert eine ständige Überprüfung der Mechanismen für Aufsicht, Kontrolle und Transparenz..
Digitale Kompetenz und Abwehr gegen automatisierte Beeinflussung

Eine der wiederkehrenden Aussagen in den wissenschaftlichen Kommentaren zu diesen Arbeiten ist, dass die Reaktion nicht allein auf Verboten oder technischen Kontrollen beruhen kann. Die Autoren stimmen darin überein, dass es unerlässlich sein wird, die digitale Kompetenz der Bevölkerung, damit die Bürger lernen Überredung erkennen und ihr widerstehen Von automatischen Systemen generiert.
Ergänzende Experimente, wie sie beispielsweise in PNAS-NexusSie legen nahe, dass diejenigen Nutzer am besten verstehen, wie große Sprachmodelle funktionieren, weniger anfällig zu seinen Einflussversuchen. Das Wissen, dass ein Chatbot sich irren, übertreiben oder Lücken mit Vermutungen füllen kann, verringert die Tendenz, seine Nachrichten so zu akzeptieren, als kämen sie von einer unfehlbaren Autorität.
Gleichzeitig wurde beobachtet, dass die Überzeugungskraft von KI weniger davon abhängt, ob der Gesprächspartner glaubt, mit einem menschlichen Experten zu sprechen, sondern vielmehr von der Qualität und Konsistenz der Argumente die es empfängt. In einigen Tests gelang es den Chatbot-Nachrichten sogar, den Glauben an Verschwörungstheorien verringernunabhängig davon, ob die Teilnehmer glaubten, mit einer Person oder einer Maschine zu chatten.
Dies deutet darauf hin, dass die Technologie an sich nicht schädlich ist: Sie kann für beides verwendet werden. Desinformation bekämpfen um es zu verbreitenDie Grenze wird gezogen durch die Anweisungen, die dem Modell gegeben werden, die Daten, mit denen es trainiert wird, und vor allem durch die politischen oder kommerziellen Ziele derjenigen, die es in die Praxis umsetzen.
Während Regierungen und Regulierungsbehörden über Transparenzgrenzen und -anforderungen debattieren, beharren die Autoren dieser Werke auf einer Idee: politische Chatbots Einen massiven Einfluss können sie nur dann ausüben, wenn die Öffentlichkeit mit ihnen interagiert.Daher werden die öffentliche Debatte über seine Verwendung, seine eindeutige Kennzeichnung und das Recht, nicht automatisierter Beeinflussung unterworfen zu werden, in den kommenden Jahren zu zentralen Themen im demokratischen Diskurs werden.
Die in Nature und Science veröffentlichten Forschungsergebnisse zeigen sowohl Chancen als auch Risiken auf: KI-Chatbots können dazu beitragen, politische Maßnahmen besser zu erklären und komplexe Unklarheiten zu beseitigen, aber sie können auch die Fähigkeit dazu haben um das Wahlergebnis zu beeinflusseninsbesondere unter unentschlossenen Wählern, und sie tun dies mit einem Der Preis dafür ist offensichtlich: die Genauigkeit der Informationen, wenn sie darauf trainiert werden, ihre Überzeugungskraft zu maximieren.Es handelt sich um ein heikles Gleichgewicht, dem sich Demokratien dringend und ohne Naivität stellen müssen.
Ich bin ein Technik-Enthusiast, der seine „Geek“-Interessen zum Beruf gemacht hat. Ich habe mehr als 10 Jahre meines Lebens damit verbracht, modernste Technologie zu nutzen und aus purer Neugier an allen möglichen Programmen herumzubasteln. Mittlerweile habe ich mich auf Computertechnik und Videospiele spezialisiert. Das liegt daran, dass ich seit mehr als fünf Jahren für verschiedene Websites zum Thema Technologie und Videospiele schreibe und Artikel erstelle, die Ihnen die Informationen, die Sie benötigen, in einer für jeden verständlichen Sprache vermitteln möchten.
Bei Fragen reicht mein Wissen von allem rund um das Windows-Betriebssystem bis hin zu Android für Mobiltelefone. Und mein Engagement gilt Ihnen, ich bin immer bereit, ein paar Minuten zu investieren und Ihnen bei der Lösung aller Fragen in dieser Internetwelt zu helfen.
