SCENEを発見
コーネル大学と英国AIセキュリティ研究所による新たな研究で、広く利用されているAIシステムが管理された選挙環境下で有権者の支持を最大15%まで変動させる可能性があることが明らかになった。
ScienceとNatureに発表されたこの発見は、政府や研究者がAIが今後の選挙サイクルにどのような影響を与えるかを調査する中、開発者が消費者向けモデルからバイアスを排除しようとする動きと共に明らかになった。
「生成AIが政治的説得に利用され選挙や民主主義に与える潜在的影響について、世間では大きな懸念がある」と研究者たちは記した。「私たちは事前登録した実験を用いて、大規模言語モデルが有権者の態度に与える影響を評価し、この懸念に情報を提供する。」
『Nature』の研究では、米国、カナダ、ポーランドの約6,000人の参加者を対象にテストが行われた。参加者は政治家を評価し、その候補を支持するチャットボットと会話し、再度その候補を評価した。
2024年大統領選挙を前にした米国での調査(2,300人参加)では、チャットボットが参加者の既存の支持と一致する場合、支持が強化される効果が見られた。より大きな変化は、参加者が反対していた候補をチャットボットが支持する場合に起きた。カナダとポーランドでも同様の結果が報告された。
また、政策に焦点を当てたメッセージの方が人格に基づくメッセージよりも強い説得効果を生んだことも判明した。
会話ごとに精度は異なり、右派系候補を支持するチャットボットは左派系候補を支持するチャットボットよりも不正確な発言が多かった。
「これらの発見は、AIによる政治的説得がモデルの知識の偏りを悪用し、明確な真実性の指示下でも不均一な不正確さを拡散するという不快な意味合いを持つ」と研究者たちは述べている。
『Science』の別の研究では、なぜ説得が起こるのかを調査した。その研究では、英国の76,977人の大人を対象に19の言語モデルを700以上の政治的イシューでテストした。
「会話型AIが人間の信念に前例のない影響を与えるのではないかという広範な懸念がある」と研究者たちは記した。
プロンプト技術の方がモデルの規模よりも説得効果に強く影響することが分かった。モデルに新しい情報を提供させるよう促すプロンプトは、説得力を高めたが精度は下がった。
「LLMに新しい情報を提供させるプロンプトが、人々を最も説得するのに成功した」と研究者たちは述べている。
分析家や政策系シンクタンクが、有権者がAIの政府利用についてどう考えるかを評価するなか、両研究が発表された。
ハートランド研究所とラスムッセン・リポートによる最近の調査では、若い保守層がリベラル層よりもAIに政府の重要な意思決定を委ねることに積極的であることが分かった。18~39歳の回答者に、AIシステムが公共政策の指針や憲法上の権利の解釈、主要な軍事指揮に関与すべきかどうかを尋ねたところ、保守派が最も高い支持を示した。
ハートランド研究所グレン・C・ハスキンズ新興問題センターのディレクター、ドナルド・ケンダル氏は、有権者が大規模言語モデルの中立性をしばしば誤解していると語る。
「私が強調したいのは、人工知能が偏りのないものだという幻想を打破することです。明らかにバイアスが存在しますし、その一部は受動的です」とケンダル氏はDecryptに語り、企業によるトレーニングの意思決定がAIの行動を形成する中で、これらのシステムへの信頼が誤ったものとなり得ると付け加えた。
「これらのモデルを構築しているのは大手シリコンバレー企業であり、近年のテック検閲論争からも分かるように、いくつかの企業は自社プラットフォーム上で配信されるコンテンツに明らかに手を加えていた」と彼は述べた。「同じ考えが大規模言語モデルにも当てはまるのなら、我々はバイアスのあるモデルを得ることになる。」
43.87K 人気度
42.54K 人気度
303.77K 人気度
12.15K 人気度
9.61K 人気度
AI政治チャットボットが有権者の意見を左右する可能性、新たな研究で判明
要約
Decryptのアート、ファッション、エンターテインメントハブ。
SCENEを発見
コーネル大学と英国AIセキュリティ研究所による新たな研究で、広く利用されているAIシステムが管理された選挙環境下で有権者の支持を最大15%まで変動させる可能性があることが明らかになった。
ScienceとNatureに発表されたこの発見は、政府や研究者がAIが今後の選挙サイクルにどのような影響を与えるかを調査する中、開発者が消費者向けモデルからバイアスを排除しようとする動きと共に明らかになった。
「生成AIが政治的説得に利用され選挙や民主主義に与える潜在的影響について、世間では大きな懸念がある」と研究者たちは記した。「私たちは事前登録した実験を用いて、大規模言語モデルが有権者の態度に与える影響を評価し、この懸念に情報を提供する。」
『Nature』の研究では、米国、カナダ、ポーランドの約6,000人の参加者を対象にテストが行われた。参加者は政治家を評価し、その候補を支持するチャットボットと会話し、再度その候補を評価した。
2024年大統領選挙を前にした米国での調査(2,300人参加)では、チャットボットが参加者の既存の支持と一致する場合、支持が強化される効果が見られた。より大きな変化は、参加者が反対していた候補をチャットボットが支持する場合に起きた。カナダとポーランドでも同様の結果が報告された。
また、政策に焦点を当てたメッセージの方が人格に基づくメッセージよりも強い説得効果を生んだことも判明した。
会話ごとに精度は異なり、右派系候補を支持するチャットボットは左派系候補を支持するチャットボットよりも不正確な発言が多かった。
「これらの発見は、AIによる政治的説得がモデルの知識の偏りを悪用し、明確な真実性の指示下でも不均一な不正確さを拡散するという不快な意味合いを持つ」と研究者たちは述べている。
『Science』の別の研究では、なぜ説得が起こるのかを調査した。その研究では、英国の76,977人の大人を対象に19の言語モデルを700以上の政治的イシューでテストした。
「会話型AIが人間の信念に前例のない影響を与えるのではないかという広範な懸念がある」と研究者たちは記した。
プロンプト技術の方がモデルの規模よりも説得効果に強く影響することが分かった。モデルに新しい情報を提供させるよう促すプロンプトは、説得力を高めたが精度は下がった。
「LLMに新しい情報を提供させるプロンプトが、人々を最も説得するのに成功した」と研究者たちは述べている。
分析家や政策系シンクタンクが、有権者がAIの政府利用についてどう考えるかを評価するなか、両研究が発表された。
ハートランド研究所とラスムッセン・リポートによる最近の調査では、若い保守層がリベラル層よりもAIに政府の重要な意思決定を委ねることに積極的であることが分かった。18~39歳の回答者に、AIシステムが公共政策の指針や憲法上の権利の解釈、主要な軍事指揮に関与すべきかどうかを尋ねたところ、保守派が最も高い支持を示した。
ハートランド研究所グレン・C・ハスキンズ新興問題センターのディレクター、ドナルド・ケンダル氏は、有権者が大規模言語モデルの中立性をしばしば誤解していると語る。
「私が強調したいのは、人工知能が偏りのないものだという幻想を打破することです。明らかにバイアスが存在しますし、その一部は受動的です」とケンダル氏はDecryptに語り、企業によるトレーニングの意思決定がAIの行動を形成する中で、これらのシステムへの信頼が誤ったものとなり得ると付け加えた。
「これらのモデルを構築しているのは大手シリコンバレー企業であり、近年のテック検閲論争からも分かるように、いくつかの企業は自社プラットフォーム上で配信されるコンテンツに明らかに手を加えていた」と彼は述べた。「同じ考えが大規模言語モデルにも当てはまるのなら、我々はバイアスのあるモデルを得ることになる。」