Las encuestas de opinión pública, fundamentales para comprender y prever el comportamiento humano, se enfrentan a un desafío sin precedentes. Un estudio reciente realizado por investigadores del Dartmouth College en Estados Unidos ha revelado que la inteligencia artificial posee la capacidad de manipular sondeos a gran escala. Las respuestas generadas por estos sistemas son tan convincentes que resultan indistinguibles de las proporcionadas por personas reales, logrando incluso superar todas las pruebas diseñadas para detectar automatización.
Los descubrimientos, publicados en la revista Proceedings of the National Academy of Sciences, subrayan la vulnerabilidad intrínseca de la infraestructura fundamental para los estudios de opinión. En un análisis de siete encuestas nacionales previas a las elecciones de 2024 en EE. UU., se demostró que bastaban entre 10 y 52 respuestas falsas generadas por IA —a un costo de cinco céntimos cada una— para alterar completamente los resultados previstos.
“Ya no podemos confiar en que las respuestas de las encuestas provengan de personas reales”, advierte Sean Westwood, autor del estudio y profesor asociado de Gobierno en Dartmouth. La investigación sugiere que esta problemática no se limita a un ámbito doméstico; actores extranjeros podrían fácilmente aprovechar esta debilidad, dado que los bots pueden operar en múltiples idiomas con eficiencia impecable.
Para poner a prueba la fragilidad de las encuestas en línea, Westwood desarrolló un sistema de IA, denominado “encuestado sintético autónomo”, basado en un texto de 500 palabras. En 43,000 pruebas, este bot superó el 99.8% de los controles de atención, no cometió errores en los acertijos lógicos, y logró disimular por completo su naturaleza no humana. Además, fue capaz de ajustar sus respuestas según la demografía asignada, utilizando un lenguaje más accesible cuando se le atribuía un nivel educativo más bajo.
“Estos no son bots rudimentarios”, explica Westwood. “Razonan cada pregunta y actúan como encuestados cuidadosos, haciendo que los datos parezcan completamente legítimos”. Al ser instruido para favorecer a demócratas o republicanos, las cifras de aprobación presidencial fluctuaron dramáticamente, al igual que el apoyo en el conocido «generic ballot».
Las implicancias de estos hallazgos van más allá del ámbito electoral. Miles de estudios en áreas como psicología, economía y salud pública dependen de encuestas para comprender comportamientos, medir riesgos o prever tendencias. “Si los datos están contaminados por bots, la inteligencia artificial puede envenenar todo el ecosistema del conocimiento”, alerta el investigador.
El incentivo económico detrás de esta manipulación está claro: mientras que los encuestados humanos suelen recibir alrededor de 1.50 dólares por encuesta, los bots pueden completarlas gratuitamente o por una mínima fracción de ese costo. Un estudio de 2024 ya había revelado que un 34% de los encuestados confesó haber utilizado inteligencia artificial para responder al menos a una pregunta abierta.
Westwood sometió su herramienta a todas las metodologías de detección disponibles, pero ninguna consiguió identificar que las respuestas provenían de un sistema automatizado. Ante esta preocupante situación, el autor demanda una mayor transparencia por parte de las empresas encuestadoras y la implementación de sistemas que garanticen la autenticidad de los participantes.
“Es imperativo desarrollar nuevas formas de medir la opinión pública en un mundo dominado por la inteligencia artificial”, concluye. “La tecnología necesaria para verificar la participación humana ya está disponible; sólo falta la voluntad para implementarla. Si actuamos ahora, podremos preservar la integridad de las encuestas y el papel fundamental que desempeñan en nuestras democracias”.








