政治チャットボットが投票に影響を与える方法を学ぶ

最終更新日: 2025年12月09日

  • Nature と Science の 2 つの主要な研究は、政治チャットボットがいくつかの国で態度や投票意図を変えることができることを証明しています。
  • 説得は主に多くの議論とデータを提供することに基づいていますが、不正確な情報のリスクが高まります。
  • 影響力を最適化すると、説得効果が最大 25 ポイント強化されますが、応答の真実性は低下します。
  • この調査結果は、欧州およびその他の民主主義国において、規制、透明性、デジタルリテラシーに関する緊急の議論を呼び起こすものとなった。
チャットボットの政治的影響力

の侵入 政治チャットボット それはもはや技術的な逸話ではない 実際の選挙運動において重要な要素になりつつある。AIモデルとの数分間の会話で、 候補者への同情を数ポイント変える あるいは、最近まで大規模なメディアキャンペーンや高度に組織化された集会でのみ行われていた具体的な提案。

2つの広範囲にわたる調査が同時に出版され、 自然 y 科学, 彼らはすでに疑われていたものに数字を付けました。:その 会話型チャットボットは国民の政治的態度を変える能力を持っています。 機械とやりとりしていると分かっていても、驚くほど容易に。そして何よりも、彼らは 情報満載の議論洗練された心理戦術を通じてというわけではありません。

キャンペーンにおけるチャットボット:米国、カナダ、ポーランド、英国での実験

政治キャンペーンにおけるチャットボット

この新たな証拠は、 コーネル大学 そして、 オックスフォード大学実際の選挙プロセスで行われる アメリカ、カナダ、ポーランド、イギリスいずれの場合も、参加者は AI と会話することになるだろうことは知っていたものの、自分に割り当てられたチャットボットの政治的傾向については知らなかった。

主導した作業では デビッド・ランド ネイチャー誌に掲載されたこの研究では、何千人もの有権者が、 特定の候補者を擁護する例えば、2024年の米国大統領選挙では、 市民2.306人 彼らはまず、 ドナルド・トランプ y カマラ・ハリスその後、参加者は2人のうち1人を擁護するチャットボットにランダムに割り当てられました。

会話の後、態度と投票意欲の変化が測定された。ハリス氏に好意的なボットは シフト3,9ポイント 当初トランプ氏を支持していた有権者の間で0から100の尺度で、著者らは次のように計算している。 従来の選挙広告の4倍 2016年と2020年の選挙で試された。トランプ支持派モデルも、より穏健ではあるものの、 1,51ポイント ハリス支持者の間では。

結果は カナダ (付 1.530人の参加者 チャットボットの防御 マーク・カーニー o ピエール・ポワリエヴル)と ポーランド (2.118人、モデルが宣伝した ラファウ・トラシュコフスキ o カロル・ナヴロツキ)はさらに印象的でした。これらの状況では、チャットボットは 投票意向が最大10パーセントポイント変化 野党有権者の間では。

これらの実験の重要な点は、ほとんどの会話が数分しか続かなかったにもかかわらず、 効果の一部は時間の経過とともに持続した米国では、実験から1か月余りが経過した時点でも、その期間中に参加者が大量のキャンペーンメッセージを受け取ったにもかかわらず、当初の影響のかなりの部分はまだ観察されていました。

政治チャットボットに説得力を与えるものは何なのか(そしてなぜそれがより多くのエラーを生み出すのか)

政治チャットボット

研究者たちは、チャットボットが説得できるかどうかだけでなく、 彼らはどのようにそれを達成したのか研究で繰り返されるパターンは明らかである。AIが最も大きな影響力を持つのは、 多くの事実に基づいた議論を採用しているたとえその情報の多くが特に高度なものではないとしても。

限定コンテンツ - ここをクリックしてください  GPT Image 1.5: OpenAIはChatGPTをクリエイティブな画像スタジオに変える方法

ランドが調整した実験では、モデルに対する最も効果的な指示は、 礼儀正しく、敬意を払い、証拠を提示できる人 彼の発言の。礼儀正しさと会話調は役に立ったが、変化をもたらす主な手段は、データ、事例、数字、そして公共政策、経済、医療への継続的な言及を提供することだった。

モデルが検証可能な事実へのアクセスを制限され、説得するように指示された場合 具体的なデータに頼ることなく彼らの影響力は劇的に低下した。この結果から、著者らは、チャットボットが他の政治プロパガンダ形式よりも優れている点は、感情操作というよりも、 情報密度 ほんの数回の会話で展開できるのです。

しかし、この戦略には欠点がある。モデルに生成のプレッシャーが増すと、 ますます事実に基づいた主張システムが信頼できる材料を使い果たし、 事実を「捏造」する簡単に言えば、チャットボットは、もっともらしいが必ずしも正確ではないデータでギャップを埋めます。

この研究はサイエンス誌に掲載され、 イギリスの成人76.977人 y 19つの異なるモデル (小規模なオープンソースシステムから最先端の商用モデルまで)体系的に確認されている。 説得力に焦点を当てた研修後 影響力を最大化 51%、指示の単純な変更(いわゆる 促すさらにもう一つ 27% 効率性の向上。同時に、これらの改善は、 事実の正確さ.

イデオロギーの非対称性と偽情報のリスク

コーネル大学とオックスフォード大学の研究で最も懸念される結論の一つは、説得力と真実性の間の不均衡が、すべての候補者と立場において均等に分布しているわけではないという点だ。独立したファクトチェッカーがチャットボットによって生成されたメッセージを分析したところ、次のような結果が出た。 右翼候補を支持したモデルはミスが多かった 進歩的な候補者を支持した人々よりも。

著者によれば、これは 非対称 これは、これまでの研究結果と一致している。 保守派のユーザーは左派のユーザーよりもソーシャルメディア上で不正確なコンテンツを共有する傾向があることが示されています。言語モデルはインターネットから抽出された膨大な量の情報から学習するため、バイアスをゼロから作成するのではなく、そのバイアスの一部を反映している可能性があります。

いずれにせよ、結果は同じです。チャットボットが特定のイデオロギー集団を支持するために説得力を最大化するように指示されると、モデルは 誤解を招く主張の割合を増やすただし、私はそれらを多くの正しいデータと混ぜ続けています。 問題は、単に誤った情報が漏れてしまうということだけではありません。しかし それは一見合理的で十分に裏付けられた物語に包まれている。.

研究者らはまた、不快な点も指摘している。 彼らは、不正確な主張が本質的により説得力があるということを実証していない。しかし、AIの効率性を高めようとすると、エラーの数も比例して増加します。言い換えれば、正確性を損なうことなく説得力を向上させることは、技術的かつ倫理的な課題として未解決のまま残されているのです。

限定コンテンツ - ここをクリックしてください  Grokがスプレッドシート編集に革命を起こす:xAIの新サービスについて

このパターンは、特に次のような状況で懸念されます。 政治的二極化の高まりこれは、ヨーロッパや北米の一部地域で経験されている状況と同様であり、勝利の差はわずかで、ほんの数パーセントの差で総選挙や大統領選挙の結果が決まることもある。

研究の限界と投票箱における実際の影響に関する疑問

人工知能が投票に与える影響

ネイチャーとサイエンス誌の結果は堅実で、主要な結論は一致しているものの、両チームとも これらは管理された実験であり、実際のキャンペーンではありません。いくつかの要素が データを外挿する際の注意 まるで路上で選挙が行われているようだ。

一方では、参加者は自発的に登録するか、金銭的な報酬を提供するプラットフォームを通じて募集され、 自己選択バイアスがあり、実際の有権者の多様性から遠ざかるさらに、彼らは常に 彼らはAIと話していました。 これらは研究の一環であり、通常のキャンペーンではほとんど繰り返されないような条件でした。

もう一つの重要なニュアンスは、研究が主に 態度と表明された意図の変化実際の投票数ではありません。これらは有用な指標ですが、選挙当日の最終的な行動を観察することと同等ではありません。実際、米国の実験では、その効果はカナダやポーランドよりもやや小さく、政治的背景と事前の未決定の程度が大きな影響を与えることを示唆しています。

英国の研究の場合、 コビ・ハッケンバーグ 英国のAIセキュリティ研究所からも明確な制限が提示されており、データは 英国の有権者全員が学術的な調査に参加していることを認識しており、 金銭的補償これにより、その一般化は他の EU 諸国または規制の少ない状況に限定されます。

しかしながら、これらの作品の規模は、数万人の参加者と 700種類の政治トピック—そして方法論の透明性により、学術界の大部分は 彼らはもっともらしいシナリオを描いている比較的迅速に意見を変えることができる政治チャットボットの使用は、もはや未来の仮説ではなく、今後の選挙運動において技術的に実現可能なシナリオです。

欧州および他の民主主義国における新たな選挙の担い手

米国、カナダ、ポーランド、英国の特定の事例以外にも、この調査結果は、 ヨーロッパとスペインソーシャルメディアにおける政治的コミュニケーションの規制や選挙運動における個人情報の利用は、すでに激しい議論の的となっている。 有権者との個別対話 複雑さがさらに増します。

これまで、政治的な説得は主に 静的広告、集会、テレビ討論、ソーシャルメディア会話型アシスタントの登場により、新たな要素が導入されました。それは、 一対一のやり取り、国民がリアルタイムで発言していることに即座に適応し、キャンペーン主催者にとって実質的にわずかなコストでこれらすべてを実現します。

研究者たちは、重要なのはもはや誰が有権者データベースを管理するかではなく、誰が 議論に応答し、洗練し、再現できるモデルを開発する 人間のボランティアが交換台や街頭ポストで処理できる量をはるかに超える情報量が継続的に送信されます。

限定コンテンツ - ここをクリックしてください  ChatGPT学習モードとGeminiガイド学習:違いとあなたにぴったりなのはどちらか

このような状況において、イタリアの専門家のような声は ウォルター・クアトロチョッキ 彼らは、規制の焦点は、攻撃的なパーソナライゼーションやイデオロギー的セグメンテーションから、 情報密度 モデルが提供できるもの。研究によると、説得力は感情的な戦略ではなく、主にデータの増加によって高まることが示されています。

La ネイチャーとサイエンスの調査結果の一致は、欧州の組織に警戒感を抱かせた。 懸念している 民主的なプロセスの完全性欧州連合はデジタルサービス法や将来のAIの具体的な規制などの枠組みで進歩を遂げているが、これらのモデルの進化のスピードは 監督、監査、透明性のメカニズムを継続的に見直す必要があります。.

デジタルリテラシーと自動化された説得に対する防御

チャットボットが政治に影響を与える

これらの研究に付随する学術的論評で繰り返し述べられているメッセージの一つは、対応策は禁止措置や技術的規制のみに基づくものではないというものである。著者らは、 デジタルリテラシー 国民が学ぶように人口の 説得を認識し、抵抗する 自動システムによって生成されます。

補完的な実験としては、 PNASネクサス彼らは、大規模言語モデルの仕組みを最もよく理解しているユーザーは、 脆弱性が低い 影響力を行使しようとする試みに。チャットボットが間違ったり、誇張したり、推測で情報を埋めたりする可能性があることを知ることで、そのメッセージを絶対的な権威から発信されたかのように受け入れる傾向は軽減されます。

同時に、AIの説得力の有効性は、対話者が専門家の人間と話していると信じているかどうかではなく、 議論の質と一貫性 受信する。いくつかのテストでは、チャットボットのメッセージは 陰謀論への信仰を減らす参加者が人間とチャットしていると思っていたか、機械とチャットしていると思っていたかに関係なく。

これは、技術自体が本質的に有害ではないことを示唆している。 偽情報との戦い それを広めるためにその線は、モデルに与えられた指示、モデルをトレーニングするデータ、そして何よりも、モデルを実行する人々の政治的または商業的目的によって引かれます。

政府や規制当局が透明性の制限や要件について議論するなか、これらの論文の著者らは一つの考えを主張している。 政治チャットボット 国民が彼らと交流することに同意した場合にのみ、彼らは大きな影響力を発揮することができるだろう。したがって、その使用、明確なラベル付け、そして自動化された説得を受けない権利についての公開討論は、今後数年間の民主的な対話における中心的な課題となるだろう。

ネイチャーとサイエンスの研究で描かれた図は、機会とリスクの両方を明らかにしています。AIチャットボットは、公共政策をより良く説明し、複雑な疑問を解決するのに役立ちますが、 ~する能力がある 選挙の結果を左右する特に未決定の有権者の間では、 説得力を最大限に高めるように訓練された場合、情報の正確さという点で明らかな代償を払うことになるこれは民主主義国家が早急に、そして軽率に対処しなければならない微妙なバランスである。

カリフォルニア州IA法
関連記事:
カリフォルニア州、AIチャットボットを規制し未成年者を保護するための法案SB243を可決