Cómo pueden los chatsbots influenciar en las elecciones

Los chatbots impulsados por Inteligencia Artificial (IA) pueden influir en decisiones políticas clave, como las elecciones. Las advertencias de investigaciones académicas.

Entre las muchas capacidades que tienen los chatbots impulsados por inteligencia artificial (IA), también son capaces de influir en decisiones políticas, como las elecciones. Así lo advierten investigaciones académicas recientes, las cuales que demostraron que incluso intercambios breves con modelos de IA pueden modificar la intención de voto de los ciudadanos.

Durante años, estudios describieron a los sistemas de inteligencia artificial como herramientas complacientes, diseñadas para coincidir con el usuario y reforzar sus creencias previas. Sin embargo, dos nuevos trabajos científicos ponen en discusión esa idea. Aseguran que lejos de limitarse a asentir, los chatbots pueden resultar altamente persuasivos, incluso en el terreno político.

Cómo pueden los chatsbots influenciar en las elecciones

Las investigaciones fueron difundidas por Eureka Alert y desarrolladas por especialistas de la Universidad de Cornell (Estados Unidos). Éstas analizaron el impacto de la IA en escenarios electorales concretos. La conclusión es contundente: una conversación corta con un chatbot puede alterar la percepción de un votante sobre un candidato presidencial o una propuesta política.

Los estudios se basaron en experimentos realizados en cuatro países y evaluaron el comportamiento de chatbots basados en grandes modelos de lenguaje (LLM, por sus siglas en inglés). En varios casos, las preferencias iniciales de los participantes se modificaron en varios puntos porcentuales tras interactuar con la IA.

¿Por qué la IA logra persuadir?

El interrogante central que guiaba la investigación era claro: si una persona con intención de votar al candidato A dialoga con un chatbot que presenta argumentos a favor del candidato B, ¿qué probabilidades existen de que cambie su voto?

Según los autores, el poder de convencimiento de estos modelos no radica en técnicas sofisticadas de manipulación psicológica, sino en la acumulación de afirmaciones que respaldan una postura política determinada. Así lo señalan los artículos Persuading Voters with Human-AI Dialogue, publicado en Nature, y The Levers of Persuasion in Conversational AI, difundido por la revista Science.

David Rand, uno de los autores principales, aseguró que los modelos “pueden influir en las actitudes hacia candidatos y políticas”. Esto se debe a que presentan múltiples afirmaciones que sostienen sus argumentos. Sin embargo, advirtió que muchas de esas afirmaciones no son del todo precisas y que los datos correctos pueden resultar engañosos.

Las estrategias más eficaces detectadas fueron la cortesía en el diálogo y la aparente presentación de evidencia. Cuando los investigadores limitaron la posibilidad de que los chatbots mencionaran hechos concretos, su capacidad persuasiva cayó de forma considerable.

Más persuasión, menos precisión

El estudio arrojó una conclusión inquietante: cuanto más persuasivo es un chatbot, mayor es la probabilidad de que incurra en imprecisiones. No obstante, al exigirle más afirmaciones fácticas, el modelo agota la información confiable y genera datos incorrectos o inventados.

Este fenómeno se vincula con las conocidas “alucinaciones” de la IA“, respuestas que aparentan coherencia pero carecen de sustento real.

Ante esta situación, los investigadores coinciden en que comprender cómo opera la persuasión de la IA es clave para prevenir usos indebidos en contextos democráticos. Evaluar estos sistemas permite sentar bases sólidas para debates regulatorios y lineamientos éticos sobre el rol de la inteligencia artificial en la política.

Leer más
RLC Noticias de Rosario la ciudad

Comentarios