- Dwa ważne badania opublikowane w czasopismach Nature i Science dowodzą, że polityczne chatboty mogą zmieniać postawy i intencje wyborcze w wielu krajach.
- Perswazja opiera się przede wszystkim na przedstawianiu wielu argumentów i danych, chociaż wiąże się to z większym ryzykiem podania nieprawdziwych informacji.
- Optymalizacja pod kątem wpływu wzmacnia efekt perswazji nawet o 25 punktów, ale zmniejsza prawdziwość odpowiedzi.
- Odkrycia te zapoczątkowują pilną debatę w Europie i innych demokracjach na temat regulacji, przejrzystości i kompetencji cyfrowych.
Pojawienie się polityczne chatboty Przestało być to już anegdotą technologiczną stać się elementem, który zaczyna mieć znaczenie w rzeczywistych kampaniach wyborczych. Wystarczy kilka minut rozmów z modelami AI, aby przesunąć sympatię w stronę kandydata o kilka punktów lub konkretna propozycja, coś, co do niedawna kojarzono jedynie z dużymi kampaniami medialnymi lub ściśle skoordynowanymi wiecami.
Dwa szeroko zakrojone śledztwa, opublikowane jednocześnie w Natura y Nauka, Nadali pewne liczby czemuś, co już było podejrzane.: the Chatboty konwersacyjne są w stanie zmieniać postawy polityczne obywateli. z niezwykłą łatwością, nawet gdy wiedzą, że wchodzą w interakcję z maszyną. I robią to przede wszystkim poprzez argumenty pełne informacjinie tyle poprzez wyrafinowane taktyki psychologiczne.
Chatboty w kampaniach: eksperymenty w USA, Kanadzie, Polsce i Wielkiej Brytanii

Nowe dowody pochodzą z serii eksperymentów koordynowanych przez zespoły z Uniwersytet Cornella i University of Oxford, przeprowadzane w trakcie rzeczywistych procesów wyborczych w Stany Zjednoczone, Kanada, Polska i Wielka BrytaniaWe wszystkich przypadkach uczestnicy wiedzieli, że będą rozmawiać ze sztuczną inteligencją, ale nie byli świadomi orientacji politycznej przydzielonego im chatbota.
W pracy kierowanej przez Dawid Rand i opublikowano w czasopiśmie Nature, w którym tysiące wyborców przeszło krótkie dialogi z modelami językowymi skonfigurowanymi tak, aby bronić konkretnego kandydataNa przykład w wyborach prezydenckich w USA w 2024 r. 2.306 mieszkańców Najpierw wskazali swoje preferencje pomiędzy Donald Trump y Kamala HarrisNastępnie zostali losowo przydzieleni do chatbota, który bronił jednego z nich.
Po rozmowie zmierzono zmiany w nastawieniu i intencji głosowania. Boty przychylne Harrisowi osiągnęły przesunięcie o 3,9 punktów w skali od 0 do 100 wśród wyborców początkowo popierających Trumpa, co według autorów stanowi wpływ czterokrotnie wyższa niż w przypadku konwencjonalnej reklamy wyborczej przetestowane w kampaniach w 2016 i 2020 roku. Model protrumpowski również zmienił stanowiska, choć w bardziej umiarkowanym stopniu, wraz ze zmianą Punkty 1,51 wśród zwolenników Harrisa.
Wyniki w Kanada (Z 1.530 uczestników i chatboty broniące Mark Carney o Pierre'a Polievre'a) i w Polonia (2.118 osób, z modelkami, które promowały Rafała Trzaskowskiego o Karol Nawrocki) były jeszcze bardziej uderzające: w tych kontekstach chatboty potrafiły zmiany w zamiarze głosowania do 10 punktów procentowych wśród wyborców opozycji.
Kluczowym aspektem tych prób jest to, że chociaż większość rozmów trwała tylko kilka minut, Część efektu utrzymywała się przez dłuższy czasW Stanach Zjednoczonych, nieco ponad miesiąc po eksperymencie, nadal można było zaobserwować znaczną część początkowego wpływu, pomimo lawiny wiadomości kampanijnych otrzymanych w tym okresie przez uczestników.
Co sprawia, że chatbot polityczny jest przekonujący (i dlaczego generuje więcej błędów)

Naukowcy chcieli zrozumieć nie tylko, czy chatboty potrafią przekonywać, ale także jak to osiągnęliPowtarzający się w badaniach schemat jest wyraźny: sztuczna inteligencja ma największy wpływ, gdy Używa wielu argumentów opartych na faktachnawet jeśli wiele z tych informacji nie jest szczególnie skomplikowanych.
W eksperymentach koordynowanych przez Rand najskuteczniejszą instrukcją dla modeli było poproszenie ich o uprzejmy, pełen szacunku i potrafiący przedstawić dowody jego wypowiedzi. Uprzejmość i konwersacyjny ton pomogły, ale główną dźwignią zmiany było oferowanie danych, przykładów, liczb i ciągłe odwoływanie się do polityki publicznej, gospodarki czy opieki zdrowotnej.
Gdy modelom ograniczono dostęp do weryfikowalnych faktów i polecono przekonać bez odwoływania się do konkretnych danychIch siła wpływu drastycznie spadła. Ten wynik doprowadził autorów do wniosku, że przewaga chatbotów nad innymi formami propagandy politycznej leży nie tyle w manipulacji emocjonalnej, co w gęstość informacji które mogą wdrożyć w zaledwie kilku zdaniach rozmowy.
Ale ta sama strategia ma też swoją wadę: wraz ze wzrostem presji na modele, które mają generować coraz bardziej rzekomo faktyczne twierdzeniaZwiększa się ryzyko, że w systemie zabraknie niezawodnego materiału i zacznie on działać „wymyślać” faktyMówiąc prościej, chatbot uzupełnia luki danymi, które brzmią wiarygodnie, ale niekoniecznie są poprawne.
Badanie opublikowane w czasopiśmie Science, 76 977 dorosłych z Wielkiej Brytanii y 19 różne modele (od małych systemów open-source po najnowocześniejsze modele komercyjne) systematycznie potwierdza: po szkoleniu skoncentrowanym na perswazji zwiększyła zdolność wpływania aż do 51%, podczas gdy proste zmiany w instrukcjach (tzw. podszeptDodali kolejny 27% wydajności. Jednocześnie tym ulepszeniom towarzyszyła zauważalna redukcja dokładność faktograficzna.
Asymetrie ideologiczne i ryzyko dezinformacji
Jednym z najbardziej niepokojących wniosków z badań Cornell i Oxford jest to, że nierównowaga między perswazyjnością a prawdomównością nie rozkłada się równomiernie wśród wszystkich kandydatów i stanowisk. Kiedy niezależni weryfikatorzy faktów przeanalizowali wiadomości generowane przez chatboty, odkryli, że Modelki, które wspierały kandydatów prawicowych, popełniły więcej błędów niż ci, którzy popierali kandydatów postępowych.
Zdaniem autorów, to asymetria Zgadza się to z wynikami poprzednich badań, które Wyniki wskazują, że użytkownicy o poglądach konserwatywnych mają tendencję do dzielenia się w mediach społecznościowych większą ilością nieprawdziwych treści niż użytkownicy o poglądach lewicowych.Ponieważ modele językowe uczą się na podstawie ogromnych ilości informacji pobranych z Internetu, najprawdopodobniej odzwierciedlają część tych uprzedzeń, zamiast tworzyć je od podstaw.
W każdym przypadku skutek jest taki sam: gdy chatbotowi polecono maksymalizację siły perswazji na rzecz określonego bloku ideologicznego, model ma tendencję do zwiększyć odsetek wprowadzających w błąd oświadczeń, choć nadal mieszam je z wieloma poprawnymi danymi. Problemem nie jest tylko to, że mogą przedostać się fałszywe informacje., ale Czyni to w sposób pozornie rozsądny i dobrze udokumentowany, opakowując w to narrację.
Naukowcy podkreślają również pewną niewygodną kwestię: Nie udowodniono, że nieprawdziwe twierdzenia są z natury bardziej przekonujące.Jednak wraz ze wzrostem skuteczności sztucznej inteligencji, liczba błędów rośnie. Innymi słowy, poprawa skuteczności perswazji bez utraty precyzji okazuje się wyzwaniem technicznym i etycznym, które pozostaje nierozwiązane.
Ten wzór jest szczególnie niepokojący w kontekstach wysoka polaryzacja polityczna, podobnie jak miało to miejsce w niektórych częściach Europy i Ameryki Północnej, gdzie margines zwycięstwa jest niewielki, a o wyniku wyborów powszechnych lub prezydenckich może zadecydować kilka punktów procentowych.
Ograniczenia badań i wątpliwości co do rzeczywistego wpływu głosowania
Chociaż wyniki badań Nature i Science są rzetelne i zgodne w głównych wnioskach, oba zespoły twierdzą, że Są to kontrolowane eksperymenty, a nie prawdziwe kampanie.Istnieje kilka elementów, które zapraszają ostrożność przy ekstrapolacji danych jak wybory na ulicy.
Z jednej strony uczestnicy albo zapisali się dobrowolnie, albo zostali zrekrutowani za pośrednictwem platform oferujących wynagrodzenie finansowe, co wprowadza błędy wynikające z samoselekcji i oddalają się od różnorodności rzeczywistego elektoratuCo więcej, wiedzieli przez cały czas, że Rozmawiali ze sztuczną inteligencją. i były częścią badań, warunków, które raczej nie powtórzyłyby się w zwykłej kampanii.
Innym ważnym niuansem jest to, że badania mierzyły przede wszystkim zmiany postaw i deklarowanych intencjiNie chodzi tu o faktyczny oddany głos. Są to przydatne wskaźniki, ale nie są one równoważne z obserwacją ostatecznego zachowania w dniu wyborów. W rzeczywistości, w eksperymentach w USA efekt był nieco mniejszy niż w Kanadzie i Polsce, co sugeruje, że kontekst polityczny i stopień wcześniejszej niezdecydowania mają istotny wpływ.
W przypadku brytyjskiego badania koordynowanego przez Kobi Hackenburg Brytyjski Instytut Bezpieczeństwa Sztucznej Inteligencji również przedstawił jasne ograniczenia: dane pochodzą wyłącznie z wyborców Zjednoczonego Królestwa, wszyscy zdawali sobie sprawę, że uczestniczą w badaniu naukowym i rekompensata ekonomicznaOgranicza to jego generalizację do innych krajów UE lub mniej kontrolowanych kontekstów.
Niemniej jednak skala tych prac – dziesiątki tysięcy uczestników i ponad 700 różnych tematów politycznych— i przejrzystość metodologiczna sprawiły, że znaczna część społeczności akademickiej uważa, że Malują prawdopodobny scenariuszWykorzystanie politycznych chatbotów, które są w stanie stosunkowo szybko zmieniać opinie, nie jest już futurystyczną hipotezą, lecz technicznie wykonalnym scenariuszem w nadchodzących kampaniach.
Nowy gracz wyborczy dla Europy i innych demokracji
Oprócz konkretnych przypadków w USA, Kanadzie, Polsce i Wielkiej Brytanii, wyniki te mają bezpośrednie implikacje dla Europa i Hiszpaniagdzie regulacje dotyczące komunikacji politycznej w mediach społecznościowych i wykorzystywania danych osobowych w kampaniach są już przedmiotem intensywnej debaty. Możliwość włączenia chatbotów, które utrzymują spersonalizowane dialogi z wyborcami Dodaje to kolejny poziom złożoności.
Do tej pory przekonania polityczne wyrażano głównie poprzez statyczne reklamy, wiece, debaty telewizyjne i media społecznościowePojawienie się asystentów konwersacyjnych wprowadza nowy element: możliwość utrzymywania interakcje jeden na jeden, dostosowywane na bieżąco do tego, co mówią na bieżąco obywatele, i to wszystko przy praktycznie minimalnych kosztach dla organizatorów kampanii.
Naukowcy podkreślają, że kluczem nie jest już tylko to, kto kontroluje bazę wyborców, ale kto może opracowywać modele zdolne do reagowania na argumenty, ich udoskonalania i powielania nieprzerwanie, z ilością informacji znacznie przekraczającą to, z czym mógłby sobie poradzić wolontariusz przy centrali telefonicznej lub na posterunku ulicznym.
W tym kontekście głosy takie jak głos włoskiego eksperta Waltera Quattrociocchiego Twierdzą, że nacisk regulacyjny powinien zostać przeniesiony z agresywnej personalizacji lub segmentacji ideologicznej na gęstość informacji jakie mogą zapewnić modele. Badania pokazują, że siła perswazji rośnie przede wszystkim w wyniku mnożenia danych, a nie stosowania strategii emocjonalnych.
La Zbieżność wyników czasopism „Nature” i „Science” wywołała alarm w organizacjach europejskich zaniepokojony tym integralność procesów demokratycznychChociaż Unia Europejska czyni postępy w zakresie ram prawnych, takich jak ustawa o usługach cyfrowych czy przyszłe szczegółowe regulacje dotyczące sztucznej inteligencji, szybkość, z jaką te modele ewoluują, Wymaga to ciągłego przeglądu mechanizmów nadzoru, audytu i przejrzystości..
Umiejętności cyfrowe i obrona przed automatyczną perswazją

Jednym z powtarzających się przesłań w komentarzach akademickich towarzyszących tym pracom jest to, że reakcja nie może opierać się wyłącznie na zakazach lub kontrolach technicznych. Autorzy zgadzają się, że niezbędne będzie wzmocnienie umiejętności cyfrowe populacji, aby obywatele nauczyli się rozpoznawać i opierać się perswazji generowane przez systemy automatyczne.
Eksperymenty uzupełniające, takie jak te opublikowane w Nexus PNASSugerują, że użytkownicy, którzy najlepiej rozumieją, jak działają duże modele językowe, mniej bezbronny na próby wywierania wpływu. Wiedza, że chatbot może się mylić, wyolbrzymiać lub uzupełniać luki domysłami, zmniejsza tendencję do akceptowania jego komunikatów, jakby pochodziły od nieomylnego autorytetu.
Jednocześnie zaobserwowano, że skuteczność perswazji sztucznej inteligencji zależy nie tyle od tego, czy rozmówca wierzy, że rozmawia z ekspertem, ile od tego, jakość i spójność argumentów które otrzymuje. W niektórych testach wiadomości chatbota udało się nawet zmniejszyć wiarę w teorie spiskoweniezależnie od tego, czy uczestnicy sądzili, że rozmawiają z człowiekiem czy z maszyną.
Sugeruje to, że sama technologia nie jest z natury szkodliwa: można ją wykorzystywać w obu celach zwalczać dezinformację jak to propagowaćGranicę tę wyznaczają instrukcje przekazane modelowi, dane, na których jest szkolony, i, przede wszystkim, polityczne lub komercyjne cele tych, którzy go wdrażają.
Podczas gdy rządy i organy regulacyjne debatują nad limitami i wymogami przejrzystości, autorzy tych prac upierają się przy jednej idei: polityczne chatboty Będą mogli wywierać ogromny wpływ tylko wtedy, gdy społeczeństwo zgodzi się z nimi współdziałać.Dlatego publiczna debata na temat jego stosowania, jasnego etykietowania i prawa do niepodlegania automatycznej perswazji staną się centralnymi zagadnieniami demokratycznej dyskusji w nadchodzących latach.
Obraz przedstawiony w badaniach opublikowanych w czasopismach „Nature” i „Science” ujawnia zarówno szanse, jak i zagrożenia: chatboty oparte na sztucznej inteligencji mogą pomóc lepiej wyjaśniać polityki publiczne i rozwiązywać złożone wątpliwości, ale mogą również mieć zdolność do przechylić szalę wyborcząszczególnie wśród niezdecydowanych wyborców i robią to z oczywista cena w postaci dokładności informacji, gdy są szkoleni w celu maksymalizacji swojej siły perswazji, delikatną równowagę, którą demokracje będą musiały pilnie i bez naiwności osiągnąć.
Jestem entuzjastą technologii, który swoje „geekowskie” zainteresowania przekształcił w zawód. Spędziłem ponad 10 lat mojego życia, korzystając z najnowocześniejszych technologii i majsterkując przy wszelkiego rodzaju programach z czystej ciekawości. Teraz specjalizuję się w technologii komputerowej i grach wideo. Dzieje się tak dlatego, że od ponad 5 lat piszę dla różnych serwisów poświęconych technologii i grom wideo, tworząc artykuły, których celem jest dostarczenie potrzebnych informacji w języku zrozumiałym dla każdego.
Jeśli masz jakieś pytania, moja wiedza obejmuje wszystko, co jest związane z systemem operacyjnym Windows, a także Androidem dla telefonów komórkowych. Moje zaangażowanie jest wobec Ciebie. Zawsze jestem gotowy poświęcić kilka minut i pomóc Ci rozwiązać wszelkie pytania, jakie możesz mieć w tym internetowym świecie.
