Jak se političtí chatboti učí ovlivňovat hlasování

Poslední aktualizace: 01.02.2024

  • Dvě velké studie v časopisech Nature a Science dokazují, že političtí chatboti mohou změnit postoje a volební záměry v několika zemích.
  • Přesvědčování je založeno především na nabízení mnoha argumentů a dat, i když zvyšuje riziko nepřesných informací.
  • Optimalizace za účelem ovlivnění posiluje přesvědčovací efekt až o 25 bodů, ale snižuje pravdivost odpovědí.
  • Zjištění otevírají v Evropě a zbytku demokracií naléhavou debatu o regulaci, transparentnosti a digitální gramotnosti.
Politický vliv chatbotů

Vpád politické chatboti Přestalo to být technologickou anekdotou stát se prvkem, který začíná hrát roli v reálných volebních kampaních. Stačí jen párminutové rozhovory s modely umělé inteligence posunout sympatie směrem ke kandidátovi o několik bodů nebo konkrétní návrh, něco, co bylo donedávna spojováno pouze s velkými mediálními kampaněmi či vysoce koordinovanými shromážděními.

Dva rozsáhlé výzkumy, publikované současně v Příroda y Věda, Přiřadili čísla k něčemu, co už bylo podezřelé.: ten/ta/to Konverzační chatboti jsou schopni ovlivnit politické postoje občanů. s pozoruhodnou lehkostí, i když vědí, že interagují se strojem. A dělají to především prostřednictvím argumenty plné informacíne tolik prostřednictvím sofistikovaných psychologických taktik.

Chatboti v kampaních: experimenty v USA, Kanadě, Polsku a Velké Británii

Chatboti v politických kampaních

Nové důkazy pocházejí ze série experimentů koordinovaných týmy z... Cornellova univerzita a z Oxfordská univerzita, prováděné během skutečných volebních procesů v Spojené státy, Kanada, Polsko a Spojené královstvíVe všech případech účastníci věděli, že budou hovořit s umělou inteligencí, ale nebyli si vědomi politické orientace chatbota, který jim byl přidělen.

V práci vedené David Rand a publikované v časopise Nature, tisíce voličů absolvovaly krátké dialogy s jazykovými modely konfigurovanými tak, aby obhajovat konkrétního kandidátaNapříklad v prezidentských volbách v USA v roce 2024 2.306 občanů Nejprve naznačili svou preferenci mezi Donald Trump y Kamala HarrisováPoté byli náhodně přiřazeni k chatbotovi, který jednoho z nich dvou bránil.

Po konverzaci byly měřeny změny v postoji a záměru volit. Boti naklonění Harrisovi dosáhli posun o 3,9 bodu na stupnici od 0 do 100 mezi voliči, kteří původně podporovali Trumpa, což je dopad, který autoři vypočítali jako čtyřikrát vyšší než u konvenční volební reklamy testováno v kampaních v letech 2016 a 2020. Protrumpovský model také změnil postoje, i když mírněji, se změnou v 1,51 bodů mezi Harrisovými příznivci.

Výsledky v Kanada (s 1.530 účastníků a chatboti bránící Mark Carney o Pierre Poilievre) a v Polsko (2 118 lidí s modelkami, které propagovaly Rafał Trzaskowski o Karol Nawrocki) byly ještě výraznější: v těchto kontextech se chatbotům podařilo změny v úmyslu voličů až o 10 procentních bodů mezi voliči opozice.

Klíčovým aspektem těchto soudních procesů je, že ačkoli většina rozhovorů trvala jen několik minut, Část efektu trvala v průběhu časuVe Spojených státech, něco málo přes měsíc po experimentu, byla stále pozorována významná část původního dopadu, a to navzdory lavině kampaňových sdělení, která účastníci během tohoto období obdrželi.

Co dělá politického chatbota přesvědčivým (a proč to generuje více chyb)

politické chatboti

Výzkumníci chtěli pochopit nejen to, zda chatboti dokáží přesvědčovat, ale jak toho dosáhliVzorec, který se ve studiích opakuje, je jasný: AI má největší vliv, když Používá mnoho argumentů založených na faktechi když velká část těchto informací není nijak zvlášť sofistikovaná.

Exkluzivní obsah – klikněte zde  GPT Image 1.5: Takto chce OpenAI proměnit ChatGPT v kreativní obrazové studio

V experimentech koordinovaných Randovou bylo nejúčinnější instrukcí pro modely požádat je, aby byly zdvořilý, uctivý a který by mohl poskytnout důkazy jeho výroků. Zdvořilost a konverzační tón pomohly, ale hlavní pákou změny bylo nabízení dat, příkladů, čísel a neustálých odkazů na veřejné politiky, ekonomiku nebo zdravotnictví.

Když měl model omezený přístup k ověřitelným faktům a byl pověřen přesvědčováním bez použití konkrétních datJejich vlivová síla drasticky poklesla. Tento výsledek vedl autory k závěru, že výhoda chatbotů oproti jiným formátům politické propagandy nespočívá ani tak v emoční manipulaci, jako spíše v informační hustota které mohou nasadit během několika málo konverzačních obratů.

Tato strategie má ale i nevýhodu: s rostoucím tlakem na modely, aby generovaly stále více údajně věcných tvrzeníZvyšuje se riziko, že systému dojde spolehlivý materiál a začne „vymýšlet si“ faktaJednoduše řečeno, chatbot doplňuje mezery daty, která zní věrohodně, ale nemusí být nutně správná.

Studie publikovaná v časopise Science, s... 76 977 dospělých ze Spojeného království y 19 různé modely (od malých open-source systémů až po špičkové komerční modely), systematicky to potvrzuje: post-trénink zaměřený na přesvědčování zvýšila schopnost ovlivňovat až 51 %, zatímco jednoduché změny v instrukcích (tzv. podněcováníPřidali další 27 % efektivity. Zároveň tato vylepšení doprovázelo znatelné snížení faktická přesnost.

Ideologické asymetrie a riziko dezinformací

Jedním z nejznepokojivějších závěrů studií Cornellovy a Oxfordské univerzity je, že nerovnováha mezi přesvědčivostí a pravdivostí není rovnoměrně rozložena mezi všemi kandidáty a pozicemi. Když nezávislí ověřovatelé faktů analyzovali zprávy generované chatboty, zjistili, že Modelky, které podporovaly pravicové kandidáty, udělaly více chyb než ti, kteří podporovali progresivní kandidáty.

Podle autorů toto asymetrie Shoduje se to s předchozími studiemi, které Ukazují, že konzervativní uživatelé mají tendenci sdílet na sociálních sítích více nepřesného obsahu než levicově orientovaní uživatelé.Vzhledem k tomu, že jazykové modely se učí z obrovského množství informací získaných z internetu, pravděpodobně část tohoto zkreslení spíše odrážejí, než aby ho vytvářely od nuly.

V každém případě je důsledek stejný: když je chatbot instruován, aby maximalizoval svou přesvědčovací sílu ve prospěch konkrétního ideologického bloku, model má tendenci zvýšit podíl zavádějících tvrzení, i když je nadále mísím s mnoha správnými daty. Problém není jen v tom, že se mohou proklouznout falešné informace.ale Dělá to zabalené do zdánlivě rozumného a dobře zdokumentovaného příběhu.

Výzkumníci také zdůrazňují jednu nepříjemnou věc: Neprokázali, že nepřesná tvrzení jsou ze své podstaty přesvědčivější.Nicméně, když je umělá inteligence tlačena k rostoucí efektivitě, počet chyb s tím souběžně roste. Jinými slovy, zlepšení přesvědčovacího výkonu bez kompromisů v přesnosti se ukazuje jako technická a etická výzva, která zůstává nevyřešena.

Exkluzivní obsah – klikněte zde  Grok způsobuje revoluci v úpravách tabulek: vše o nové nabídce xAI

Tento vzorec je obzvláště znepokojivý v kontextech vysoká politická polarizace, jako jsou ty, které zažíváme v některých částech Evropy a Severní Ameriky, kde je rozdíl v vítězství těsný a o výsledku všeobecných nebo prezidentských voleb může rozhodnout hrstka procentních bodů.

Omezení studií a pochybnosti o skutečném dopadu na volební urny

Dopad umělé inteligence na hlasování

Ačkoli jsou výsledky z Nature a Science přesvědčivé a shodují se ve svých hlavních závěrech, oba týmy trvají na tom, že Jde o kontrolované experimenty, nikoli o skutečné kampaně.Existuje několik prvků, které k tomu vybízejí opatrnost při extrapolaci dat stejně jako volby na ulici.

Na jedné straně se účastníci buď zaregistrovali dobrovolně, nebo byli rekrutováni prostřednictvím platforem, které nabízejí finanční odměnu, což zavádí zkreslení sebevýběru a odklání se od rozmanitosti skutečného elektorátuNavíc vždy věděli, že Mluvili s umělou inteligencí. a které byly součástí studie, podmínky, které by se v běžné kampani jen stěží opakovaly.

Dalším důležitým detailem je, že studie primárně měřily změny postojů a deklarovaných záměrůnikoli skutečný počet odevzdaných hlasů. To jsou užitečné ukazatele, ale nejsou ekvivalentní pozorování konečného chování v den voleb. Ve skutečnosti byl v amerických experimentech efekt poněkud menší než v Kanadě a Polsku, což naznačuje, že politický kontext a míra předchozí nerozhodnosti mají významný vliv.

V případě britské studie koordinované Kobi Hackenburg Britský Institut pro bezpečnost umělé inteligence (AI Security Institute) také stanovil jasná omezení: data pocházejí pouze z… voliči Spojeného království, všichni si byli vědomi toho, že se účastní akademického výzkumu a s finanční kompenzaceTo omezuje jeho zobecnění na jiné země EU nebo méně kontrolované kontexty.

Rozsah těchto prací – desítky tisíc účastníků a více než 700 různých politických témat— a metodologická transparentnost vedly velkou část akademické obce k úvaze, že Malují věrohodný scénářVyužití politických chatbotů schopných relativně rychle měnit názory již není futuristickou hypotézou, ale technicky proveditelným scénářem v nadcházejících kampaních.

Nový volební hráč pro Evropu a další demokracie

Kromě specifických případů USA, Kanady, Polska a Spojeného království mají zjištění přímé důsledky pro Evropa a Španělskokde je regulace politické komunikace na sociálních sítích a používání osobních údajů v kampaních již předmětem intenzivní debaty. Možnost začlenění chatbotů, kteří udržují personalizované dialogy s voliči Přidává to další vrstvu složitosti.

Až doposud se politické přesvědčování projevovalo primárně prostřednictvím statické reklamy, shromáždění, televizní debaty a sociální médiaPříchod konverzačních asistentů přináší nový prvek: schopnost udržovat interakce jeden na jednoho, za chodu přizpůsobované tomu, co občan říká v reálném čase, a to vše za prakticky marginální náklady pro organizátory kampaně.

Výzkumníci zdůrazňují, že klíčem už není jen to, kdo ovládá databázi voličů, ale kdo ji může... vyvíjet modely schopné reagovat na argumenty, zdokonalovat je a replikovat nepřetržitě, s objemem informací, který daleko přesahuje to, co by lidský dobrovolník zvládl u ústředny nebo na pouliční sloupce.

Exkluzivní obsah – klikněte zde  Studijní režim ChatGPT vs. Gemini Guided Learning: Jak se liší a který je pro vás ten pravý

V této souvislosti se objevují hlasy jako například hlas italského experta Walter Quattrociocchi Trvají na tom, že by se regulační zaměření mělo přesunout od agresivní personalizace nebo ideologické segmentace směrem k informační hustota které modely mohou poskytnout. Studie ukazují, že přesvědčování roste primárně, když se znásobují data, nikoli když se používají emoční strategie.

La Shoda výsledků mezi Nature a Science vyvolala poplach v evropských organizacích znepokojen tím, integrita demokratických procesůAčkoli Evropská unie dosahuje pokroku s rámci, jako je zákon o digitálních službách nebo budoucí specifická regulace umělé inteligence, rychlost, s jakou se tyto modely vyvíjejí Vyžaduje to neustálý přezkum mechanismů dohledu, auditu a transparentnosti..

Digitální gramotnost a obrana proti automatizovanému přesvědčování

Chatboti ovlivňují politiku

Jedním z opakujících se sdělení v akademických komentářích doprovázejících tyto práce je, že reakce nemůže být založena pouze na zákazech nebo technických kontrolách. Autoři se shodují, že bude nezbytné posílit digitální gramotnost populace, aby se občané naučili rozpoznat a odolat přesvědčování generované automatickými systémy.

Doplňkové experimenty, jako například ty publikované v PNAS NexusNaznačují, že uživatelé, kteří nejlépe rozumí fungování rozsáhlých jazykových modelů, jsou méně zranitelný k jeho pokusům o ovlivňování. Vědomí, že chatbot se může mýlit, přehánět nebo zaplňovat mezery dohady, snižuje tendenci přijímat jeho zprávy, jako by pocházely od neomylné autority.

Zároveň bylo pozorováno, že přesvědčovací účinnost umělé inteligence nezávisí ani tak na tom, zda si promluvce myslí, že mluví s odborníkem, ale spíše na tom, kvalita a konzistence argumentů které přijímá. V některých testech se zprávám chatbotů dokonce podařilo snížit víru v konspirační teorie, bez ohledu na to, zda si účastníci mysleli, že chatují s člověkem nebo se strojem.

To naznačuje, že technologie sama o sobě není inherentně škodlivá: lze ji použít k oběma účelům. bojovat proti dezinformacím aby se to šířiloHranici určují instrukce zadané modelu, data, s nimiž je trénován, a především politické nebo komerční cíle těch, kteří jej uvádějí do praxe.

Zatímco vlády a regulátoři diskutují o limitech a požadavcích na transparentnost, autoři těchto prací trvají na jedné myšlence: politické chatboti Budou schopni uplatnit obrovský vliv pouze tehdy, pokud s nimi veřejnost bude souhlasit.Veřejná debata o jeho používání, jasném označování a právu nebýt vystaven automatizovanému přesvědčování se proto v nadcházejících letech stanou ústředními tématy demokratické konverzace.

Výzkum v časopise Nature and Science odhaluje jak příležitosti, tak i rizika: chatboti s umělou inteligencí mohou pomoci lépe vysvětlit veřejné politiky a vyřešit složité pochybnosti, ale mohou také... mít kapacitu převážit nad volbamizejména mezi nerozhodnutými voliči, a to s zjevná cena z hlediska přesnosti informací, pokud jsou vyškoleni k maximalizaci své přesvědčovací síly, což je křehká rovnováha, kterou budou muset demokracie naléhavě a bez naivity řešit.

Kalifornské zákony IA
Související článek:
Kalifornie schválila zákon SB 243, který reguluje chatboty s umělou inteligencí a chrání nezletilé.