Estudios en Nature y Science informaron que los chatbots de IA cambiaron las preferencias de los votantes hasta en un 15%.
Los investigadores encontraron precisión desigual según el contexto político y documentaron preocupaciones sobre sesgo.
Una encuesta reciente mostró que los jóvenes conservadores son los más dispuestos a confiar en la IA.
Centro de Arte, Moda y Entretenimiento de Decrypt.
Descubre SCENE
Una nueva investigación de la Universidad de Cornell y el UK AI Security Institute ha descubierto que los sistemas de IA ampliamente utilizados podrían cambiar las preferencias de los votantes en entornos electorales controlados hasta en un 15%.
Publicado en Science y Nature, los resultados surgen mientras gobiernos e investigadores examinan cómo la IA podría influir en los próximos ciclos electorales, mientras los desarrolladores buscan eliminar el sesgo de sus modelos orientados al consumidor.
“Existe una gran preocupación pública sobre el posible uso de la inteligencia artificial generativa para la persuasión política y los impactos resultantes en las elecciones y la democracia”, escribieron los investigadores. “Informamos sobre estas preocupaciones utilizando experimentos pre-registrados para evaluar la capacidad de los grandes modelos de lenguaje para influir en las actitudes de los votantes.”
El estudio en Nature evaluó a casi 6.000 participantes en EE. UU., Canadá y Polonia. Los participantes calificaban a un candidato político, hablaban con un chatbot que apoyaba a ese candidato y volvían a calificarlo.
En la parte estadounidense del estudio, que incluyó a 2.300 personas antes de las elecciones presidenciales de 2024, el chatbot tuvo un efecto reforzador cuando se alineaba con la preferencia declarada del participante. Los mayores cambios ocurrieron cuando el chatbot apoyaba a un candidato al que el participante se oponía. Los investigadores informaron de resultados similares en Canadá y Polonia.
El estudio también descubrió que los mensajes centrados en políticas producían efectos de persuasión más fuertes que los basados en la personalidad.
La precisión varió entre las conversaciones, y los chatbots que apoyaban a candidatos de tendencia derechista ofrecieron más declaraciones inexactas que aquellos que respaldaban a candidatos de izquierda.
“Estos hallazgos conllevan la incómoda implicación de que la persuasión política por parte de la IA puede explotar desequilibrios en lo que los modelos saben, difundiendo inexactitudes desiguales incluso bajo instrucciones explícitas de permanecer veraces”, afirmaron los investigadores.
Un estudio separado en Science examinó por qué ocurría la persuasión. Ese trabajo probó 19 modelos de lenguaje con 76.977 adultos en el Reino Unido a lo largo de más de 700 cuestiones políticas.
“Existe un temor generalizado de que la inteligencia artificial conversacional pueda pronto ejercer una influencia sin precedentes sobre las creencias humanas”, escribieron los investigadores.
Descubrieron que las técnicas de prompting tenían un mayor efecto en la persuasión que el tamaño del modelo. Los prompts que animaban a los modelos a introducir nueva información aumentaban la persuasión pero reducían la precisión.
“El prompt que animaba a los LLM a aportar nueva información fue el más eficaz para persuadir a las personas”, escribieron los investigadores.
Ambos estudios se publicaron mientras analistas y think tanks evaluaban cómo veían los votantes la idea de la IA en roles gubernamentales.
Una encuesta reciente del Heartland Institute y Rasmussen Reports encontró que los jóvenes conservadores mostraban más disposición que los liberales a otorgar a la IA autoridad sobre decisiones gubernamentales importantes. A los encuestados de entre 18 y 39 años se les preguntó si un sistema de IA debería ayudar a guiar la política pública, interpretar derechos constitucionales o comandar grandes ejércitos. Los conservadores expresaron los mayores niveles de apoyo.
Donald Kendal, director del Glenn C. Haskins Emerging Issues Center en el Heartland Institute, dijo que los votantes a menudo juzgan erróneamente la neutralidad de los grandes modelos de lenguaje.
“Una de las cosas que intento dejar clara es disipar esta ilusión de que la inteligencia artificial no tiene sesgo. Tiene un sesgo muy evidente, y parte de ese sesgo es pasivo”, dijo Kendal a Decrypt, añadiendo que la confianza en estos sistemas podría estar mal situada cuando las decisiones de entrenamiento corporativo moldean su comportamiento.
“Estas son grandes corporaciones de Silicon Valley quienes construyen estos modelos, y hemos visto en los últimos años, a raíz de controversias sobre censura tecnológica, que algunas empresas no dudaron en inclinar la balanza sobre qué contenido se distribuye en sus plataformas”, añadió. “Si ese mismo concepto está ocurriendo en los grandes modelos de lenguaje, entonces estamos obteniendo un modelo sesgado.”
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Nuevas investigaciones descubren que los chatbots políticos impulsados por IA pueden influir en los votantes
En resumen
Centro de Arte, Moda y Entretenimiento de Decrypt.
Descubre SCENE
Una nueva investigación de la Universidad de Cornell y el UK AI Security Institute ha descubierto que los sistemas de IA ampliamente utilizados podrían cambiar las preferencias de los votantes en entornos electorales controlados hasta en un 15%.
Publicado en Science y Nature, los resultados surgen mientras gobiernos e investigadores examinan cómo la IA podría influir en los próximos ciclos electorales, mientras los desarrolladores buscan eliminar el sesgo de sus modelos orientados al consumidor.
“Existe una gran preocupación pública sobre el posible uso de la inteligencia artificial generativa para la persuasión política y los impactos resultantes en las elecciones y la democracia”, escribieron los investigadores. “Informamos sobre estas preocupaciones utilizando experimentos pre-registrados para evaluar la capacidad de los grandes modelos de lenguaje para influir en las actitudes de los votantes.”
El estudio en Nature evaluó a casi 6.000 participantes en EE. UU., Canadá y Polonia. Los participantes calificaban a un candidato político, hablaban con un chatbot que apoyaba a ese candidato y volvían a calificarlo.
En la parte estadounidense del estudio, que incluyó a 2.300 personas antes de las elecciones presidenciales de 2024, el chatbot tuvo un efecto reforzador cuando se alineaba con la preferencia declarada del participante. Los mayores cambios ocurrieron cuando el chatbot apoyaba a un candidato al que el participante se oponía. Los investigadores informaron de resultados similares en Canadá y Polonia.
El estudio también descubrió que los mensajes centrados en políticas producían efectos de persuasión más fuertes que los basados en la personalidad.
La precisión varió entre las conversaciones, y los chatbots que apoyaban a candidatos de tendencia derechista ofrecieron más declaraciones inexactas que aquellos que respaldaban a candidatos de izquierda.
“Estos hallazgos conllevan la incómoda implicación de que la persuasión política por parte de la IA puede explotar desequilibrios en lo que los modelos saben, difundiendo inexactitudes desiguales incluso bajo instrucciones explícitas de permanecer veraces”, afirmaron los investigadores.
Un estudio separado en Science examinó por qué ocurría la persuasión. Ese trabajo probó 19 modelos de lenguaje con 76.977 adultos en el Reino Unido a lo largo de más de 700 cuestiones políticas.
“Existe un temor generalizado de que la inteligencia artificial conversacional pueda pronto ejercer una influencia sin precedentes sobre las creencias humanas”, escribieron los investigadores.
Descubrieron que las técnicas de prompting tenían un mayor efecto en la persuasión que el tamaño del modelo. Los prompts que animaban a los modelos a introducir nueva información aumentaban la persuasión pero reducían la precisión.
“El prompt que animaba a los LLM a aportar nueva información fue el más eficaz para persuadir a las personas”, escribieron los investigadores.
Ambos estudios se publicaron mientras analistas y think tanks evaluaban cómo veían los votantes la idea de la IA en roles gubernamentales.
Una encuesta reciente del Heartland Institute y Rasmussen Reports encontró que los jóvenes conservadores mostraban más disposición que los liberales a otorgar a la IA autoridad sobre decisiones gubernamentales importantes. A los encuestados de entre 18 y 39 años se les preguntó si un sistema de IA debería ayudar a guiar la política pública, interpretar derechos constitucionales o comandar grandes ejércitos. Los conservadores expresaron los mayores niveles de apoyo.
Donald Kendal, director del Glenn C. Haskins Emerging Issues Center en el Heartland Institute, dijo que los votantes a menudo juzgan erróneamente la neutralidad de los grandes modelos de lenguaje.
“Una de las cosas que intento dejar clara es disipar esta ilusión de que la inteligencia artificial no tiene sesgo. Tiene un sesgo muy evidente, y parte de ese sesgo es pasivo”, dijo Kendal a Decrypt, añadiendo que la confianza en estos sistemas podría estar mal situada cuando las decisiones de entrenamiento corporativo moldean su comportamiento.
“Estas son grandes corporaciones de Silicon Valley quienes construyen estos modelos, y hemos visto en los últimos años, a raíz de controversias sobre censura tecnológica, que algunas empresas no dudaron en inclinar la balanza sobre qué contenido se distribuye en sus plataformas”, añadió. “Si ese mismo concepto está ocurriendo en los grandes modelos de lenguaje, entonces estamos obteniendo un modelo sesgado.”