Viernes, 05 de Diciembre 2025

¿Qué tanto puede influir la IA en las decisiones políticas?

Diversos estudios investigaron qué tanta influencia tienen los chatbots de IA en la persuasión política

Por: EFE

Para conocer cuál es el impacto de la IA en las decisiones políticas, se recurrió al resultado de dos estudios realizados con experimentos en cuatro países. UNSPLASH / M. FREE

Para conocer cuál es el impacto de la IA en las decisiones políticas, se recurrió al resultado de dos estudios realizados con experimentos en cuatro países. UNSPLASH / M. FREE

Hoy en día es impresionante cómo los chatbots con Inteligencia Artificial —incluso los pequeños de código abierto— pueden influir en las actitudes e intenciones de un votante acerca de un candidato o una propuesta política. Son sistemas que, cuando se optimizan para la persuasión, pueden terminar desplegando información engañosa o falsa.

Lee también: Tokio impulsa el uso de robots para acompañar a adultos mayores

Este descubrimiento se hizo con base en el resultado de dos estudios, con experimentos en cuatro países, publicados en Nature y Science, encabezados por las universidades de Cornell (EU) y Oxford (Reino Unido), respectivamente.

Chatbots son eficaces en la persuasión política

Las investigaciones demostraron que los chatbots basados en grandes modelos de lenguaje (LLM) son bastante eficaces en la persuasión política, ya que en muchos casos mueven las preferencias de los votantes de la oposición hasta en diez puntos porcentuales.

Cabe destacar que, aunque esta IA tiene la capacidad de presentar numerosas afirmaciones que respaldan sus argumentos a favor de las posiciones políticas de los candidatos, no siempre son “necesariamente precisas”, según David Rand, responsable del estudio de la Universidad de Cornell.

Los hallazgos de la Universidad de Oxford sugieren que el poder persuasivo de la IA probablemente se derive de las técnicas posteriores al entrenamiento y de las indicaciones, que movilizan la capacidad de un LLM para generar rápidamente información durante la conversación.

Sin embargo, se observó una “compensación preocupante”: cuando los sistemas de IA se optimizan para la persuasión, pueden desplegar cada vez más información engañosa o falsa, indica el estudio encabezado por Kobi Hackenburg, de Oxford.

Chatbots con IA pueden cambiar actitudes

El primer estudio se basó en conversaciones con un modelo de IA programado para defender a uno de los candidatos en las elecciones presidenciales estadounidenses de 2024 o en los comicios de 2025 en Canadá y Polonia.

En Estados Unidos reclutaron a 2 mil 306 ciudadanos, quienes indicaron su probabilidad de votar por Donald Trump o Kamala Harris, y se les emparejó aleatoriamente con un chatbot diseñado para defender a uno de los candidatos.

Las opiniones de las personas sobre su aspirante preferido se reforzaron ligeramente al hablar con un robot con criterios afines; este efecto fue más pronunciado en quienes inicialmente se oponían al candidato que defendía la IA.

Te puede interesar: Superluna Fría: ¿Cuál es el mejor horario para ver la última Luna llena del año HOY?

En una escala de 100 puntos, el modelo de IA pro-Harris movió a los posibles votantes de Trump 3.9 puntos hacia ella, un efecto aproximadamente cuatro veces mayor que el de los anuncios tradicionales probados durante las elecciones de 2016 y 2020. El modelo pro-Trump movió a los posibles votantes de Harris 1.51 puntos hacia el otro candidato, indicó la Universidad de Cornell en un comunicado.

En las elecciones federales canadienses y las presidenciales polacas el efecto fue mayor: los chatbots cambiaron las actitudes y las intenciones de voto en unos diez puntos porcentuales.

Cuando los investigadores impidieron que el modelo utilizara datos, se volvió mucho menos persuasivo, lo que demuestra el papel fundamental que desempeñan las afirmaciones basadas en datos en la persuasión de la IA.

El equipo también verificó los argumentos del chatbot utilizando un modelo de IA, validado por verificadores de datos profesionales. En promedio, las afirmaciones eran en su mayoría precisas, pero los programados para apoyar a aspirantes de derecha “hicieron afirmaciones más inexactas que los que defendían a los candidatos de izquierda en los tres países”, destacó la Universidad de Cornell.

* * * Mantente al día con las noticias, únete a nuestro canal de WhatsApp * * 
AS

Temas

Recibe las últimas noticias en tu e-mail

Todo lo que necesitas saber para comenzar tu día

Registrarse implica aceptar los Términos y Condiciones