Siyasi sohbet robotları oyları nasıl etkilemeyi öğreniyor?

Son güncelleme: 09/12/2025

  • Nature ve Science dergilerinde yayınlanan iki önemli çalışma, siyasi sohbet robotlarının birçok ülkede tutumları ve oy verme niyetlerini değiştirebileceğini kanıtlıyor.
  • İkna, esas olarak çok sayıda argüman ve veri sunmaya dayanır, ancak bu, yanlış bilgi riskini artırır.
  • Etkilemek için optimize etmek ikna edici etkiyi 25 puana kadar güçlendirir, ancak yanıtların doğruluğunu azaltır.
  • Bulgular, Avrupa ve diğer demokrasilerde düzenleme, şeffaflık ve dijital okuryazarlık konusunda acil bir tartışma başlatıyor.
Sohbet robotlarının politik etkisi

Ani bir şekilde ortaya çıkması siyasi sohbet robotları Artık teknolojik bir anekdot olmaktan çıktı Gerçek seçim kampanyalarında önemli olmaya başlayan bir unsur haline gelmek. Yapay zeka modelleriyle sadece birkaç dakikalık sohbetler bile sempatiyi bir adaya birkaç noktadan kaydırmak Ya da somut bir öneri, yakın zamana kadar sadece büyük medya kampanyaları veya son derece koordineli mitinglerle ilişkilendirilen bir şey.

Aynı anda yayınlanan iki kapsamlı araştırma Doğa y Bilim, Zaten şüphelenilen bir şeye rakam koymuşlar.: Konuşma robotları vatandaşların siyasi tutumlarını değiştirme yeteneğine sahip. bir makineyle etkileşimde bulunduklarını bildiklerinde bile, dikkate değer bir kolaylıkla bunu başarıyorlar. Ve bunu, her şeyden önce, bilgi yüklü argümanlarçok da karmaşık psikolojik taktiklerle değil.

Kampanyalarda sohbet robotları: ABD, Kanada, Polonya ve İngiltere'de deneyler

Siyasi kampanyalarda sohbet robotları

Yeni kanıtlar, ekipler tarafından koordine edilen bir dizi deneyden geliyor. Cornell Üniversitesi ve Universidad de Oxford, gerçek seçim süreçleri sırasında gerçekleştirilen Amerika Birleşik Devletleri, Kanada, Polonya ve Birleşik KrallıkKatılımcılar her durumda bir yapay zeka ile konuşacaklarını biliyorlardı ancak kendilerine atanan sohbet robotunun siyasi yöneliminden habersizlerdi.

Liderliğindeki çalışmada David Rand ve Nature'da yayımlanan çalışmada, binlerce seçmen, yapılandırılmış dil modelleriyle kısa diyaloglara katıldı. belirli bir adayı savunmakÖrneğin, 2024 ABD başkanlık seçimlerinde, 2.306 vatandaş İlk olarak, tercihlerini şu şekilde belirttiler: Donald Trump y Kamala HarrisDaha sonra rastgele olarak ikisinden birini savunan bir chatbot'a atandılar.

Görüşmenin ardından tutum ve oy verme niyetindeki değişiklikler ölçüldü. Harris'i destekleyen botlar şunları elde etti: 3,9 puanlık değişim Trump'a başlangıçta destek veren seçmenler arasında 0 ile 100 arasında bir ölçekte, yazarların hesapladığı bir etki geleneksel seçim reklamlarından dört kat daha yüksek 2016 ve 2020 kampanyalarında test edildi. Trump yanlısı model de, daha ılımlı da olsa, bir değişiklikle pozisyon değiştirdi. 1,51 puan Harris'in destekçileri arasında.

Sonuçlar şu şekildedir: Kanada (Birlikte 1.530 katılımcı ve sohbet robotları savunuyor Mark Carney o Pierre Poilievre) ve içinde Polonya (2.118 kişi, tanıtım yapan modellerle birlikte) Rafał Trzaskowski o Karol Nawrocki) daha da çarpıcıydı: bu bağlamlarda, sohbet robotları yönetildi oy verme niyetinde yüzde 10'a kadar değişiklikler Muhalefet seçmenleri arasında.

Bu denemelerin önemli bir yönü, çoğu konuşmanın yalnızca birkaç dakika sürmesine rağmen, Etkinin bir kısmı zamanla devam ettiABD'de, deneyin üzerinden bir aydan biraz fazla bir süre geçmesine rağmen, katılımcıların o dönemde aldıkları kampanya mesajlarının çığ gibi büyümesine rağmen, ilk etkinin önemli bir kısmının hala gözlemlendiği görüldü.

Siyasi bir sohbet robotunu ikna edici kılan nedir (ve neden daha fazla hataya yol açar)

siyasi sohbet robotları

Araştırmacılar yalnızca sohbet robotlarının ikna edip edemeyeceğini değil, aynı zamanda bunu nasıl başardılarÇalışmalarda tekrarlanan model açıktır: Yapay zeka, en büyük etkiye sahip olduğunda Birçok olguya dayalı argüman kullanırBu bilgilerin çoğu çok da karmaşık olmasa bile.

Özel içerik - Buraya Tıklayın  Nüfus sayımı ve anket arasındaki fark

Rand tarafından koordine edilen deneylerde, modeller için en etkili talimat, onlardan nazik, saygılı ve kanıt sağlayabilen Nezaket ve sohbet havası işe yaradı, ancak değişimin asıl kaldıracı veri, örnek, rakam sunmak ve kamu politikalarına, ekonomiye veya sağlık hizmetlerine sürekli atıfta bulunmaktaydı.

Modellerin doğrulanabilir gerçeklere erişimi kısıtlandığında ve ikna etmeleri talimatı verildiğinde somut verilere başvurmadanEtki güçleri büyük ölçüde azaldı. Bu sonuç, yazarları, sohbet robotlarının diğer siyasi propaganda biçimlerine göre avantajının duygusal manipülasyondan ziyade, bilgi yoğunluğu sadece birkaç konuşma turunda konuşabilecekleri.

Ancak aynı stratejinin bir dezavantajı var: Modellerin üzerinde üretim baskısı arttıkça giderek daha fazla sözde gerçekçi iddialarSistemin güvenilir materyalinin tükenmesi ve bozulmaya başlaması riski artar. gerçekleri "icat etmek"Basitçe söylemek gerekirse, chatbot, kulağa mantıklı gelen ancak mutlaka doğru olmayan verilerle boşlukları doldurur.

Science dergisinde yayınlanan araştırmada, Birleşik Krallık'tan 76.977 yetişkin y 19 farklı model (küçük açık kaynaklı sistemlerden son teknoloji ticari modellere kadar) bunu sistematik olarak doğrular: iknaya odaklı eğitim sonrası etkileme yeteneği arttı %51, talimatlardaki basit değişiklikler (sözde teşvik etmekBir tane daha eklediler %27 Verimlilik açısından. Aynı zamanda, bu iyileştirmelere, gözle görülür bir azalma eşlik etti. gerçek doğruluk.

İdeolojik asimetriler ve dezenformasyon riski

Cornell ve Oxford araştırmalarının en rahatsız edici sonuçlarından biri, ikna edicilik ve doğruluk arasındaki dengesizliğin tüm adaylar ve pozisyonlar arasında eşit olarak dağılmadığıdır. Bağımsız bilgi denetçileri, sohbet robotlarının ürettiği mesajları analiz ettiğinde şunları buldular: Sağcı adayları destekleyen modeller daha fazla hata yaptı ilerici adayları destekleyenlerden daha fazla.

Yazarlara göre bu asimetri Bu, daha önceki çalışmalarla örtüşmektedir Muhafazakar kullanıcıların sosyal medyada sol görüşlü kullanıcılara göre daha fazla yanlış içerik paylaşma eğiliminde olduğu görülüyor.Dil modelleri internetten elde edilen büyük miktardaki bilgilerden öğrendiği için, sıfırdan bir önyargı oluşturmak yerine muhtemelen bu önyargıların bir kısmını yansıtmaktadır.

Her durumda sonuç aynıdır: Bir sohbet robotuna belirli bir ideolojik blok lehine ikna gücünü en üst düzeye çıkarması talimatı verildiğinde, model şu şekilde olma eğilimindedir: yanıltıcı iddiaların oranını artırmak, yine de bunları bir sürü doğru veriyle karıştırmaya devam ediyorum. Sorun sadece yanlış bilginin sızması değil.Ancak Bunu görünüşte makul ve iyi belgelenmiş bir anlatıya sarılmış olarak yapıyor.

Araştırmacılar rahatsız edici bir noktayı da vurguluyor: Yanlış iddiaların doğası gereği daha ikna edici olduğunu kanıtlayamadılar.Ancak yapay zekâ giderek daha etkili hale gelmeye zorlandığında, hata sayısı da paralel olarak artmaktadır. Başka bir deyişle, doğruluktan ödün vermeden ikna performansını iyileştirmek, çözümsüz kalan teknik ve etik bir zorluk olarak ortaya çıkmaktadır.

Özel içerik - Buraya Tıklayın  GenCast AI, daha yüksek hız ve doğrulukla hava tahmininde devrim yaratıyor

Bu model özellikle şu bağlamlarda endişe vericidir: yüksek siyasi kutuplaşmaTıpkı Avrupa ve Kuzey Amerika'nın bazı bölgelerinde olduğu gibi, zafer marjlarının dar olduğu ve bir avuç yüzde puanının genel veya başkanlık seçimlerinin sonucunu belirleyebildiği durumlar gibi.

Çalışmaların sınırlamaları ve sandıkta gerçek etkiye ilişkin şüpheler

Yapay zekanın oylama üzerindeki etkisi

Nature ve Science'ın sonuçları sağlam olsa da ve ana sonuçlarında aynı olsa da, her iki ekip de şu konuda ısrarcı: Bunlar kontrollü deneyler, gerçek kampanyalar değil.Davet eden birkaç unsur var verileri genelleştirirken dikkatli olun tıpkı sokaktaki bir seçim gibi.

Bir yandan katılımcılar ya gönüllü olarak kaydoldular ya da maddi tazminat sunan platformlar aracılığıyla işe alındılar; bu da kendi kendini seçme önyargıları oluşur ve gerçek seçmen kitlesinin çeşitliliğinden uzaklaşırAyrıca, her zaman biliyorlardı ki; Bir yapay zekayla konuşuyorlardı. ve bunlar bir çalışmanın parçasıydı, sıradan bir kampanyada tekrarlanması pek mümkün olmayan koşullardı.

Bir diğer önemli nüans ise, çalışmaların öncelikle tutumlarda ve belirtilen niyetlerde değişikliklerGerçek oy kullanımı değil. Bunlar faydalı göstergeler, ancak seçim günü nihai davranışı gözlemlemekle eşdeğer değiller. Nitekim ABD deneylerinde etki, Kanada ve Polonya'dakinden biraz daha küçüktü; bu da siyasi bağlamın ve önceki kararsızlık düzeyinin önemli bir etkiye sahip olduğunu gösteriyor.

İngiliz tarafından koordine edilen çalışmada ise; Kobi Hackenburg İngiltere'nin Yapay Zeka Güvenlik Enstitüsü'nden de net kısıtlamalar var: Veriler yalnızca şu kaynaklardan geliyor: Birleşik Krallık seçmenlerihepsi bir akademik araştırmaya katıldıklarının farkındaydı ve mali tazminatBu, genelleştirilmesini diğer AB ülkeleri veya daha az kontrol edilen bağlamlarla sınırlar.

Bununla birlikte, bu çalışmaların ölçeği -on binlerce katılımcı ve 1000'den fazla kişi- 700 farklı siyasi konu— ve metodolojik şeffaflık, akademik topluluğun büyük bir kısmının bunu dikkate almasına yol açtı Makul bir senaryo çiziyorlarGörüşleri nispeten hızlı bir şekilde değiştirebilen siyasi sohbet robotlarının kullanımı artık geleceğe yönelik bir hipotez değil, yaklaşan kampanyalarda teknik olarak uygulanabilir bir senaryo.

Avrupa ve diğer demokrasiler için yeni bir seçim oyuncusu

ABD, Kanada, Polonya ve İngiltere'nin özel durumlarının ötesinde, bulguların doğrudan etkileri vardır. Avrupa ve İspanyaSosyal medyada siyasi iletişimin düzenlenmesi ve kampanyalarda kişisel verilerin kullanımı gibi konuların yoğun tartışmalara konu olduğu bir ortamda, sohbet robotlarının dahil edilmesi olasılığı seçmenlerle kişiselleştirilmiş diyaloglar Karmaşıklığa ekstra bir katman daha ekliyor.

Şimdiye kadar siyasi ikna esas olarak şu şekilde ifade ediliyordu: statik reklamlar, mitingler, televizyonda yayınlanan tartışmalar ve sosyal medyaKonuşma asistanlarının gelişi yeni bir unsuru beraberinde getiriyor: Konuşmayı sürdürme yeteneği bire bir etkileşimler, vatandaşın gerçek zamanlı söylediklerine anında uyarlanabiliyor ve tüm bunlar kampanya organizatörleri için neredeyse marjinal bir maliyetle gerçekleşiyor.

Araştırmacılar, artık önemli olanın yalnızca seçmen veritabanını kimin kontrol ettiği değil, aynı zamanda kimin oy kullanabileceği olduğunu vurguluyor. argümanlara yanıt verebilen, onları iyileştirebilen ve çoğaltabilen modeller geliştirmek sürekli olarak, bir insan gönüllünün bir santralde veya sokak karakolunda işleyebileceği bilgi hacmini çok aşan bir bilgiyle.

Özel içerik - Buraya Tıklayın  Gemini Deep Research, Google Drive, Gmail ve Chat ile bağlantı kuruyor

Bu bağlamda, İtalyan uzmanınki gibi sesler Walter Quattrociocchi Düzenleyici odak noktasının agresif kişiselleştirmeden veya ideolojik segmentasyondan, bilgi yoğunluğu Modellerin sağlayabileceği şey budur. Araştırmalar, iknanın duygusal stratejiler kullanıldığında değil, veriler çoğaldığında arttığını göstermektedir.

La Nature ve Science'ın sonuçlarının örtüşmesi Avrupa örgütlerinde endişeye yol açtı endişeli demokratik süreçlerin bütünlüğüAvrupa Birliği, Dijital Hizmetler Yasası veya yapay zekaya ilişkin gelecekteki özel düzenlemeler gibi çerçevelerde ilerleme kaydediyor olsa da, bu modellerin evrimleşme hızı Gözetim, denetim ve şeffaflık mekanizmalarının sürekli olarak gözden geçirilmesi gerekiyor..

Dijital okuryazarlık ve otomatik iknaya karşı savunma

Sohbet robotları siyaseti etkiliyor

Bu çalışmalara eşlik eden akademik yorumlarda tekrarlanan mesajlardan biri, yanıtın yalnızca yasaklara veya teknik kontrollere dayandırılamayacağıdır. Yazarlar, dijital okuryazarlık nüfusunun, vatandaşların öğrenmesi için iknayı tanımak ve direnmek otomatik sistemler tarafından üretilir.

Yayınlananlar gibi tamamlayıcı deneyler PNAS BağlantısıBüyük dil modellerinin nasıl çalıştığını en iyi anlayan kullanıcıların, daha az savunmasız Bir sohbet robotunun yanılabileceğini, abartabileceğini veya boşlukları tahminlerle doldurabileceğini bilmek, mesajlarını yanılmaz bir otoriteden geliyormuş gibi kabul etme eğilimini azaltır.

Aynı zamanda, yapay zekanın ikna edici etkinliğinin, muhatabın uzman bir insanla konuştuğuna inanmasından çok, yapay zekanın ikna edici etkinliğinin, yapay zekanın bir uzman insanla konuştuğuna inanmasına bağlı olduğu gözlemlenmiştir. argümanların kalitesi ve tutarlılığı aldığı. Bazı testlerde, chatbot mesajları komplo teorilerine olan inancı azaltmakKatılımcıların bir insanla mı yoksa bir makineyle mi sohbet ettiklerini düşünmelerine bakılmaksızın.

Bu, teknolojinin kendi başına zararlı olmadığını gösteriyor: hem yanlış bilgilendirme ile mücadele yaymak içinÇizgiyi çizen, modele verilen talimatlar, eğitildiği veriler ve her şeyden önce onu harekete geçirenlerin siyasi veya ticari hedefleridir.

Hükümetler ve düzenleyiciler şeffaflık sınırları ve gereklilikleri konusunda tartışırken, bu eserlerin yazarları tek bir fikir üzerinde ısrar ediyor: siyasi sohbet robotları Halkın onlarla etkileşime girmeyi kabul etmesi durumunda ancak büyük bir etki yaratabilirler.Dolayısıyla, kullanımına ilişkin kamuoyu tartışması, açıkça etiketlenmesi ve otomatik iknaya tabi tutulmama hakkı, önümüzdeki yıllarda demokratik tartışmanın merkezi konuları haline gelecektir.

Nature and Science dergisinde yayınlanan araştırmanın çizdiği tablo hem fırsatları hem de riskleri ortaya koyuyor: Yapay zeka sohbet robotları kamu politikalarını daha iyi açıklamaya ve karmaşık şüpheleri çözmeye yardımcı olabilir, ancak aynı zamanda kapasitesine sahip olmak seçim terazisini değiştirmek içinözellikle kararsız seçmenler arasında ve bunu da İkna güçlerini en üst düzeye çıkarmak için eğitildiklerinde bilgi doğruluğu açısından belirgin bir bedel öderler, demokrasilerin acilen ve safça davranmadan ele alması gereken hassas bir denge.

Kaliforniya IA yasaları
İlgili makale:
Kaliforniya, yapay zeka sohbet robotlarını düzenlemek ve küçükleri korumak için SB 243'ü kabul etti