- Dve večji študiji v revijah Nature in Science dokazujeta, da lahko politični klepetalni roboti spremenijo stališča in volilne namene v več državah.
- Prepričevanje temelji predvsem na ponujanju številnih argumentov in podatkov, čeprav povečuje tveganje netočnih informacij.
- Optimizacija za vplivanje okrepi prepričevalni učinek za do 25 točk, vendar zmanjša resničnost odgovorov.
- Ugotovitve odpirajo nujno razpravo v Evropi in preostalih demokracijah o regulaciji, preglednosti in digitalni pismenosti.
Izbruh politični klepetalni roboti To ni več tehnološka anekdota postati element, ki začenja biti pomemben v resničnih volilnih kampanjah. Že nekajminutni pogovori z modeli umetne inteligence so dovolj, da premakniti simpatije proti kandidatu za več točk ali konkreten predlog, nekaj, kar je bilo do nedavnega povezano le z velikimi medijskimi kampanjami ali zelo usklajenimi shodi.
Dve daljnosežni preiskavi, objavljeni hkrati v Narava y Znanost, Številke so pripisali nečemu, kar je bilo že sumljivo.: the Pogovorni klepetalni roboti so sposobni spreminjati politična stališča državljanov. z izjemno lahkoto, tudi ko vedo, da komunicirajo s strojem. In to počnejo predvsem prek argumenti, polni informacijne toliko s pomočjo prefinjenih psiholoških taktik.
Klepetalni roboti v kampanjah: poskusi v ZDA, Kanadi, na Poljskem in v Združenem kraljestvu

Novi dokazi izhajajo iz vrste poskusov, ki so jih koordinirale ekipe iz Univerza Cornell in od Univerza v Oxfordu, izvedeno med dejanskimi volilnimi procesi v Združene države Amerike, Kanada, Poljska in Združeno kraljestvoV vseh primerih so udeleženci vedeli, da se bodo pogovarjali z umetno inteligenco, vendar se niso zavedali politične usmerjenosti klepetalnega robota, ki jim je bil dodeljen.
V delu, ki ga je vodil David Rand in objavljeno v reviji Nature, je na tisoče volivcev sodelovalo v kratkih dialogih z jezikovnimi modeli, konfiguriranimi za zagovarjati določenega kandidataNa primer, na ameriških predsedniških volitvah leta 2024 2.306 državljanov Najprej so izrazili svojo preferenco med Donald Trump y Kamala HarrisNato so jih naključno dodelili klepetalnemu robotu, ki je branil enega od obeh.
Po pogovoru so bile izmerjene spremembe v odnosu in nameri glasovanja. Boti, ki so bili naklonjeni Harrisu, so dosegli premik 3,9 točke na lestvici od 0 do 100 med volivci, ki so bili sprva naklonjeni Trumpu, vpliv, ki ga avtorji izračunajo kot štirikrat več kot pri konvencionalnem volilnem oglaševanju preizkušeno v kampanjah 2016 in 2020. Tudi pro-Trumpov model je spremenil stališča, čeprav bolj zmerno, s spremembo v 1,51 točk med Harrisovimi podporniki.
Rezultati v Kanada (z 1.530 udeležencev in klepetalni roboti, ki branijo Mark Carney o Pierre Poilievre) in v Poljska (2.118 ljudi, z modeli, ki so promovirali Rafał Trzaskowski o Karol Nawrocki) so bili še bolj presenetljivi: v teh kontekstih so klepetalni roboti uspeli spremembe volilne namere do 10 odstotnih točk med volivci opozicije.
Ključni vidik teh sojenj je, da je večina pogovorov trajala le nekaj minut, Del učinka je trajal dlje časaV Združenih državah Amerike je bil nekaj več kot mesec dni po poskusu še vedno opazen znaten del začetnega učinka, kljub plazu sporočil kampanje, ki so jih udeleženci prejeli v tem obdobju.
Kaj naredi političnega klepetalnega robota prepričljivega (in zakaj to povzroča več napak)

Raziskovalci niso želeli razumeti le, ali lahko klepetalni roboti prepričujejo, ampak kako so to dosegliVzorec, ki se v študijah ponavlja, je jasen: umetna inteligenca ima največji vpliv, kadar Uporablja veliko argumentov, ki temeljijo na dejstvihčetudi večina teh informacij ni posebej dovršenih.
V poskusih, ki jih je koordiniral Rand, je bilo najučinkovitejše navodilo za modele, da jih prosijo, naj bodo vljuden, spoštljiv in ki bi lahko predložil dokaze njegovih izjav. Vljudnost in pogovorni ton sta pomagala, vendar je bil glavni vzvod za spremembe ponujanje podatkov, primerov, številk in nenehno sklicevanje na javne politike, gospodarstvo ali zdravstvo.
Ko so imeli modeli omejen dostop do preverljivih dejstev in so jim naročili, naj prepričujejo brez zatekanja k konkretnim podatkomNjihova vplivna moč se je drastično zmanjšala. Ta rezultat je avtorje pripeljal do zaključka, da prednost klepetalnih robotov pred drugimi oblikami politične propagande ni toliko v čustveni manipulaciji kot v informacijska gostota ki jih lahko uporabijo v le nekaj obratih pogovora.
Vendar ima ta strategija tudi slabo stran: ko se pritisk na modele za ustvarjanje povečuje vse več domnevno dejanskih trditevPoveča se tveganje, da bo sistemu zmanjkalo zanesljivega materiala in bo začel "Izumljajte si" dejstvaPreprosto povedano, klepetalni robot zapolni vrzeli s podatki, ki se slišijo verjetno, vendar niso nujno pravilni.
Študija, objavljena v reviji Science, z 76.977 odraslih iz Združenega kraljestva y 19 različni modeli (od majhnih odprtokodnih sistemov do najsodobnejših komercialnih modelov), to sistematično potrjuje: po usposabljanju, osredotočeno na prepričevanje povečala sposobnost vplivanja do 51 %, medtem ko preproste spremembe navodil (t. i. spodbujanjeDodali so še enega 27 % učinkovitosti. Hkrati so te izboljšave spremljale opazne spremembe dejanska točnost.
Ideološke asimetrije in tveganje dezinformacij
Eden najbolj zaskrbljujočih zaključkov študij Cornella in Oxforda je, da neravnovesje med prepričljivostjo in resničnostjo ni enakomerno porazdeljeno med vsemi kandidati in položaji. Ko so neodvisni preverjevalci dejstev analizirali sporočila, ki so jih ustvarili klepetalni roboti, so ugotovili, da Manekenke, ki so podpirale desničarske kandidate, so naredile več napak kot tisti, ki so podpirali progresivne kandidate.
Po mnenju avtorjev je to asimetrija To sovpada s prejšnjimi študijami, ki so Kažejo, da konservativni uporabniki na družbenih omrežjih običajno delijo več netočnih vsebin kot levičarji.Ker se jezikovni modeli učijo iz ogromnih količin informacij, pridobljenih z interneta, verjetno odražajo del te pristranskosti, namesto da bi jo ustvarili iz nič.
V vsakem primeru je posledica enaka: ko je klepetalnemu robotu naročeno, da maksimizira svojo prepričevalno moč v korist določenega ideološkega bloka, model ponavadi povečati delež zavajajočih trditev, čeprav jih še naprej mešam z veliko pravilnimi podatki. Težava ni le v tem, da se lahko izmuznejo lažne informacije.ampak To stori zavito v na videz razumno in dobro dokumentirano pripoved..
Raziskovalci poudarjajo tudi neprijetno točko: Niso dokazali, da so netočne trditve same po sebi bolj prepričljive.Ko pa se umetna inteligenca spodbuja k vse večji učinkovitosti, se vzporedno povečuje tudi število napak. Z drugimi besedami, izboljšanje prepričevalne učinkovitosti brez ogrožanja natančnosti se izkaže za tehnični in etični izziv, ki ostaja nerešen.
Ta vzorec je še posebej zaskrbljujoč v kontekstih visoka politična polarizacija, kot so tiste v delih Evrope in Severne Amerike, kjer so razlike v zmagi majhne in lahko peščica odstotnih točk odloči o izidu splošnih ali predsedniških volitev.
Omejitve študij in dvomi o dejanskem vplivu na volišča
Čeprav so rezultati revij Nature in Science trdni in se v glavnih zaključkih ujemajo, obe ekipi vztrajata, da To so kontrolirani poskusi, ne prave kampanje.Obstaja več elementov, ki vabijo previdnost pri ekstrapolaciji podatkov tako kot volitve na ulici.
Po eni strani so se udeleženci prijavili bodisi prostovoljno bodisi so bili rekrutirani prek platform, ki ponujajo finančno nadomestilo, kar uvaja pristranskosti samoizbire in se oddaljuje od raznolikosti dejanskega volilnega telesaPoleg tega so ves čas vedeli, da Pogovarjali so se z umetno inteligenco. in ki so bili del študije, pogoji, ki bi se v običajni kampanji težko ponovili.
Drug pomemben odtenek je, da so študije merile predvsem spremembe v stališčih in izraženih namenihne dejanski oddani glasovi. To so uporabni kazalniki, vendar niso enakovredni opazovanju končnega vedenja na dan volitev. Pravzaprav je bil v ameriških poskusih učinek nekoliko manjši kot v Kanadi in na Poljskem, kar kaže na to, da imata politični kontekst in stopnja predhodne neodločnosti pomemben vpliv.
V primeru britanske študije, ki jo je koordiniral Kobi Hackenburg Tudi britanski Inštitut za varnost umetne inteligence je določil jasne omejitve: podatki prihajajo le iz volivci Združenega kraljestva, vsi so se zavedali, da sodelujejo v akademski preiskavi in z finančno nadomestiloTo omejuje njegovo posploševanje na druge države EU ali manj nadzorovane kontekste.
Kljub temu je obseg teh del – več deset tisoč udeležencev in več kot 700 različnih političnih tem— in metodološka preglednost sta velik del akademske skupnosti pripeljala do tega, da je začel razmišljati o tem Slikajo verjeten scenarijUporaba političnih klepetalnih robotov, ki lahko relativno hitro spreminjajo mnenja, ni več futuristična hipoteza, temveč tehnično izvedljiv scenarij v prihajajočih kampanjah.
Nov volilni akter za Evropo in druge demokracije
Poleg specifičnih primerov ZDA, Kanade, Poljske in Združenega kraljestva imajo ugotovitve neposredne posledice za Evropa in Španijakjer sta regulacija političnega komuniciranja na družbenih omrežjih in uporaba osebnih podatkov v kampanjah že predmet intenzivne razprave. Možnost vključitve klepetalnih robotov, ki vzdržujejo osebni dialogi z volivci Dodaja dodatno plast kompleksnosti.
Do sedaj se je politično prepričevanje izražalo predvsem prek statični oglasi, shodi, televizijske debate in družbeni medijiPrihod pogovornih asistentov uvaja nov element: sposobnost vzdrževanja interakcije ena na ena, sproti prilagojen temu, kar državljan govori v realnem času, in vse to s praktično zanemarljivimi stroški za organizatorje kampanje.
Raziskovalci poudarjajo, da ključ ni več le to, kdo nadzoruje bazo volivcev, ampak kdo lahko razviti modele, ki se lahko odzivajo na argumente, jih izpopolnjujejo in posnemajo neprekinjeno, s količino informacij, ki daleč presega tisto, kar bi lahko obdelal prostovoljec na telefonski centrali ali ulični postaji.
V tem kontekstu so se pojavili glasovi, kot je glas italijanskega strokovnjaka Walter Quattrociocchi Vztrajajo, da se mora regulativni fokus preusmeriti z agresivne personalizacije ali ideološke segmentacije na informacijska gostota ki jih lahko zagotovijo modeli. Študije kažejo, da prepričevanje raste predvsem z množenjem podatkov, ne pa z uporabo čustvenih strategij.
La Sovpadanje rezultatov med Nature in Science je sprožilo zaskrbljenost v evropskih organizacijah zaskrbljen zaradi integriteta demokratičnih procesovČeprav Evropska unija napreduje z okviri, kot sta zakon o digitalnih storitvah ali prihodnja specifična ureditev umetne inteligence, je hitrost, s katero se ti modeli razvijajo Zahteva stalen pregled mehanizmov za nadzor, revizijo in preglednost..
Digitalna pismenost in obramba pred avtomatiziranim prepričevanjem

Eno od ponavljajočih se sporočil v akademskih komentarjih, ki spremljajo ta dela, je, da odziv ne more temeljiti zgolj na prepovedih ali tehničnih nadzorih. Avtorji se strinjajo, da bo bistveno okrepiti digitalna pismenost prebivalstva, da se državljani naučijo prepoznati in se upreti prepričevanju ki jih ustvarjajo avtomatski sistemi.
Dopolnilni poskusi, kot so tisti, objavljeni v PNAS NexusPredlagajo, da so uporabniki, ki najbolje razumejo delovanje velikih jezikovnih modelov, manj ranljivi na njegove poskuse vplivanja. Zavedanje, da se lahko klepetalni robot moti, pretirava ali zapolnjuje vrzeli z ugibanji, zmanjšuje nagnjenost k sprejemanju njegovih sporočil, kot da prihajajo od nezmotljive avtoritete.
Hkrati je bilo ugotovljeno, da prepričevalna učinkovitost umetne inteligence ni toliko odvisna od tega, ali sogovornik verjame, da se pogovarja s strokovnjakom, temveč od tega, kakovost in doslednost argumentov ki jih prejme. V nekaterih testih so sporočila klepetalnega robota celo uspela zmanjšati vero v teorije zarote, ne glede na to, ali so udeleženci mislili, da klepetajo z osebo ali strojem.
To kaže, da tehnologija sama po sebi ni škodljiva: uporablja se lahko za oboje boj proti dezinformacijam da bi ga širiliMejo določajo navodila, dana modelu, podatki, s katerimi se usposablja, in predvsem politični ali komercialni cilji tistih, ki ga izvajajo.
Medtem ko vlade in regulatorji razpravljajo o omejitvah in zahtevah glede preglednosti, avtorji teh del vztrajajo pri eni ideji: politični klepetalni roboti Velik vpliv bodo lahko imeli le, če se bo javnost strinjala z interakcijo z njimi.Zato bodo javna razprava o njegovi uporabi, njegovem jasnem označevanju in pravici, da se ne sme biti podvržen avtomatiziranemu prepričevanju, v prihodnjih letih postala osrednja vprašanja demokratičnega pogovora.
Slika, ki jo je naslikala raziskava v reviji Nature and Science, razkriva tako priložnosti kot tveganja: klepetalni roboti z umetno inteligenco lahko pomagajo bolje razložiti javne politike in rešiti kompleksne dvome, lahko pa tudi imeti zmogljivost za prevesiti volilno tehtnicozlasti med neodločenimi volivci, in to počnejo z očitna cena v smislu natančnosti informacij, ko so usposobljeni za maksimiranje svoje prepričevalne moči, občutljivo ravnovesje, ki ga bodo morale demokracije nujno in brez naivnosti obravnavati.
Sem tehnološki navdušenec, ki je svoja "geek" zanimanja spremenil v poklic. Več kot 10 let svojega življenja sem porabil za uporabo vrhunske tehnologije in premleval najrazličnejše programe iz čiste radovednosti. Zdaj sem se specializiral za računalniško tehnologijo in video igre. To je zato, ker že več kot 5 let pišem za različna spletna mesta o tehnologiji in video igrah ter ustvarjam članke, ki vam želijo dati informacije, ki jih potrebujete, v jeziku, ki je razumljiv vsem.
Če imate kakršna koli vprašanja, moje znanje sega od vsega v zvezi z operacijskim sistemom Windows kot tudi Androidom za mobilne telefone. In moja zaveza je vam, vedno sem pripravljen porabiti nekaj minut in vam pomagati razrešiti kakršna koli vprašanja, ki jih morda imate v tem internetnem svetu.
