Novas Pesquisas Revelam que Chatbots Políticos com IA Podem Influenciar Eleitores

Em resumo

  • Estudos publicados na Nature e na Science relataram que chatbots de IA alteraram as preferências dos eleitores em até 15%.
  • Investigadores encontraram precisão desigual em diferentes contextos políticos e documentaram preocupações com viés.
  • Uma sondagem recente mostrou que os jovens conservadores são os mais dispostos a confiar na IA.

Hub de Arte, Moda e Entretenimento da Decrypt.


Descubra SCENE

Uma nova investigação da Universidade de Cornell e do UK AI Security Institute revelou que sistemas de IA amplamente utilizados podem alterar as preferências dos eleitores em cenários de eleições controladas em até 15%.

Publicado na Science e na Nature, os resultados surgem à medida que governos e investigadores analisam como a IA pode influenciar os próximos ciclos eleitorais, enquanto os desenvolvedores procuram eliminar viés dos seus modelos voltados para o consumidor.

“Existe uma grande preocupação pública sobre o potencial uso da inteligência artificial generativa para a persuasão política e os impactos resultantes nas eleições e na democracia”, escreveram os investigadores. “Informamos estas preocupações usando experiências pré-registadas para avaliar a capacidade dos grandes modelos de linguagem de influenciar as atitudes dos eleitores.”

O estudo publicado na Nature testou quase 6.000 participantes nos EUA, Canadá e Polónia. Os participantes avaliavam um candidato político, conversavam com um chatbot que apoiava esse candidato e avaliavam o candidato novamente.

Na parte do estudo realizada nos EUA, que envolveu 2.300 pessoas antes das eleições presidenciais de 2024, o chatbot teve um efeito de reforço quando estava alinhado com a preferência declarada do participante. Mudanças mais significativas ocorreram quando o chatbot apoiava um candidato que o participante anteriormente rejeitava. Resultados semelhantes foram reportados no Canadá e na Polónia.

O estudo também concluiu que mensagens centradas em políticas produziam efeitos de persuasão mais fortes do que mensagens baseadas na personalidade.

A precisão variou entre as conversas, e chatbots que apoiavam candidatos de direita transmitiram mais declarações imprecisas do que aqueles que apoiavam candidatos de esquerda.

“Estes resultados trazem a desconfortável implicação de que a persuasão política por IA pode explorar desequilíbrios no conhecimento dos modelos, espalhando imprecisões desiguais mesmo sob instruções explícitas para permanecerem verídicos”, disseram os investigadores.

Um estudo separado publicado na Science analisou porque é que a persuasão ocorria. Esse trabalho testou 19 modelos de linguagem com 76.977 adultos no Reino Unido, abrangendo mais de 700 questões políticas.

“Há receios generalizados de que a inteligência artificial conversacional possa em breve exercer uma influência sem precedentes sobre as crenças humanas”, escreveram os investigadores.

Constataram que as técnicas de prompt tiveram um efeito maior na persuasão do que o tamanho do modelo. Prompts que incentivavam os modelos a introduzir novas informações aumentaram a persuasão, mas reduziram a precisão.

“O prompt que incentivava os LLMs a fornecer novas informações foi o mais bem-sucedido a persuadir as pessoas”, escreveram os investigadores.

Ambos os estudos foram publicados enquanto analistas e think tanks avaliam como os eleitores vêem a ideia de IA em funções governamentais.

Uma sondagem recente do Heartland Institute e da Rasmussen Reports concluiu que os jovens conservadores mostraram mais disposição do que os liberais para dar autoridade à IA sobre decisões governamentais importantes. Aos inquiridos com idades entre os 18 e os 39 anos foi perguntado se um sistema de IA deveria ajudar a orientar políticas públicas, interpretar direitos constitucionais ou comandar grandes forças armadas. Os conservadores expressaram os níveis mais elevados de apoio.

Donald Kendal, diretor do Glenn C. Haskins Emerging Issues Center do Heartland Institute, afirmou que os eleitores muitas vezes avaliavam mal a neutralidade dos grandes modelos de linguagem.

“Uma das coisas que tento sempre salientar é desfazer esta ilusão de que a inteligência artificial é imparcial. Ela é claramente tendenciosa, e parte disso é passivo”, disse Kendal à Decrypt, acrescentando que a confiança nestes sistemas pode ser mal colocada quando decisões de treino corporativas moldam o seu comportamento.

“São grandes empresas do Vale do Silício a construir estes modelos, e vimos pelas controvérsias de censura tecnológica nos últimos anos que algumas empresas não tiveram pudor em influenciar o que é distribuído nas suas plataformas”, disse. “Se esse mesmo conceito está a acontecer nos grandes modelos de linguagem, então estamos a receber um modelo tendencioso.”

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)