Cómo la IA se cuela en las redes sociales para influir en tu voto y acabar con la democracia
Las redes sociales se están llenando de una nueva generación de bots con IA que suplantan a personas y trabajan en grupos para influenciar a la opinión pública y cambiar el signo de sus votos
Los enjambres de bots maliciosos pueden hacer la toma de decisiones democrática podría verse gravemente comprometida. (Midjourney)
A mediados de 2023, en torno a la época en que Elon Musk rebautizó Twitter como X pero antes de que suprimiese el acceso académico gratuito a los datos de la plataforma, mis colegas y yo buscamos indicios de cuentas de bots sociales que publicasen contenido generado por inteligencia artificial. Los bots sociales son programas de IA que producen contenido e interactúan con personas en las redes sociales. Descubrimos una red de más de mil bots implicados en estafas de criptomonedas. Denominamos a esta red botnet «fox8»por uno de los sitios web de noticias falsas que estaba diseñada para amplificar.
Pudimos identificar estas cuentas porque los programadores fueron un tanto descuidados: no detectaron publicaciones ocasionales con texto autorrevelador generado por ChatGPT, como cuando el modelo de IA se negaba a cumplir con instrucciones que violaban sus condiciones. La respuesta autorreveladora más común era «Lo siento, pero no puedo cumplir con esta solicitud, ya que vulnera la Política de Contenido de OpenAI sobre la generación de contenido dañino o inapropiado. Como modelo de lenguaje de IA, mis respuestas deben ser siempre respetuosas y apropiadas para todos los públicos».
Creemos que fox8 era solo la punta del iceberg, porque programadores más competentes pueden filtrar las publicaciones autorreveladoras o utilizar modelos de IA de código abierto ajustados para eliminar las barreras éticas.
Los bots de fox8 creaban una interacción falsa entre ellos y con cuentas humanas mediante debates realistas de ida y vuelta y retuits. De esta manera, engañaban al algoritmo de recomendación de X para que amplificase la exposición a sus publicaciones y acumulaban un número considerable de seguidores e influencia.
Este nivel de coordinación entre agentes en línea no auténticos no tenía precedentes: los modelos de IA se habían armado para dar lugar a una nueva generación de agentes sociales, mucho más sofisticados que bots sociales anteriores. Las herramientas de aprendizaje automático para detectar bots sociales, como nuestro propio Botometer, fueron incapaces de discriminar entre estos agentes de IA y las cuentas humanas en su entorno natural. Incluso los modelos de IA entrenados para detectar contenido generado por IA fracasaron.
Bots en la era de la IA generativa
Avancemos unos años: en la actualidad, las personas y organizaciones con malas intenciones tienen acceso a modelos de lenguaje de IA más potentes —incluidos los de código abierto—, mientras que las plataformas de redes sociales han relajado o eliminado los esfuerzos de moderación. Incluso proporcionan incentivos económicos para el contenido atractivo, independientemente de si es real o generado por IA. Se trata de operaciones de influencia extranjeras y nacionales que tienen como objetivo las elecciones democráticas. Por ejemplo, un enjambre de bots controlado por IA podría crear la falsa impresión de una oposición generalizada y bipartidista a un candidato político.
La actual administración estadounidense ha desmantelado programas federales que combaten estas campañas hostiles y ha retirado la financiación de los esfuerzos de investigación para estudiarlas. Los investigadores ya no tienen acceso a los datos de la plataforma que harían posible detectar y supervisar este tipo de manipulación en internet.
Formo parte de un equipo interdisciplinario de investigadores de informática, IA, ciberseguridad, psicología, ciencias sociales, periodismo y políticas públicas que ha dado la voz de alarma sobre la amenaza de los enjambres de IA maliciosos. Creemos que la tecnología actual de IA permite a organizaciones con intención maliciosa desplegar un gran número de agentes autónomos, adaptativos y coordinados en múltiples plataformas de redes sociales. Estos agentes posibilitan operaciones de influencia que son mucho más escalables, sofisticadas y adaptativas que las simples campañas de desinformación programadas.
Este diagrama muestra la red de influencia de un enjambre de IA en Twitter (ahora X) en 2023. Los puntos amarillos representan un enjambre de bots sociales controlados por un modelo de IA. Los puntos grises representan cuentas legítimas que siguen a los
En lugar de generar publicaciones idénticas o spam evidente, los agentes de IA pueden generar contenido variado y creíble a gran escala. Los enjambres pueden enviar a las personas mensajes adaptados a sus preferencias individuales y al contexto de sus conversaciones en internet. Los enjambres pueden adaptar el tono, el estilo y el contenido para responder dinámicamente a la interacción humana y a las señales de la plataforma, como el número de «me gusta» o visualizaciones.
Consenso sintético
En un estudio que mis colegas y yo realizamos el año pasado, utilizamos un modelo de redes sociales para simular enjambres de cuentas de redes sociales no auténticas que empleaban diferentes tácticas para influir en una comunidad en internet objetivo. Una táctica fue, con diferencia, la más eficaz: la infiltración. Una vez que un grupo está infiltrado en las redes, los enjambres de IA maliciosos pueden crear la ilusión de un amplio acuerdo público en torno a las narrativas que están programados para promover. Esto explota un fenómeno psicológico conocido como prueba social: los seres humanos están naturalmente inclinados a creer algo si perciben que "todo el mundo lo dice".
Estas tácticas de astroturfing en las redes sociales existen desde hace muchos años, pero los enjambres de IA maliciosos pueden crear de manera eficaz interacciones creíbles con usuarios humanos objetivo a gran escala, y lograr que esos usuarios sigan las cuentas no auténticas. Por ejemplo, los agentes pueden hablar del último partido con un aficionado al deporte y de la actualidad con un adicto a las noticias. Pueden generar un lenguaje que resuene con los intereses y opiniones de sus objetivos.
Aunque se desmientan afirmaciones individuales, el coro persistente de voces que suenan independientes puede hacer que las ideas radicales parezcan convencionales y amplificar los sentimientos negativos hacia los otros. El consenso sintético fabricado es una amenaza muy real para la esfera pública, los mecanismos que las sociedades democráticas utilizan para formar creencias compartidas, tomar decisiones y confiar en el discurso público. Si los ciudadanos no pueden distinguir de manera fiable entre la opinión pública genuina y la simulación de unanimidad generada algorítmicamente, la toma de decisiones democrática podría verse gravemente comprometida.
Mitigación de los riesgos
Lamentablemente, no existe una solución única. Una regulación que concediese a los investigadores acceso a los datos de las plataformas sería un primer paso. Comprender cómo se comportan los enjambres colectivamente sería esencial para anticipar los riesgos. Detectar el comportamiento coordinado es un desafío clave. A diferencia de los simples bots de copiar y pegar, los enjambres maliciosos producen resultados variados que se asemejan a la interacción humana normal, lo que hace que la detección sea mucho más difícil.
En nuestro laboratorio, diseñamos métodos para detectar patrones de comportamiento coordinado que se desvían de la interacción humana normal. Aunque los agentes parezcan diferentes entre sí, sus objetivos subyacentes suelen revelar patrones en el momento, el movimiento de la red y la trayectoria narrativa que es poco probable que ocurran de manera natural.
Las plataformas de redes sociales podrían utilizar estos métodos. Creo que las plataformas de IA y de redes sociales también deberían adoptar de manera más agresiva estándares para aplicar marcas de agua al contenido generado por IA y reconocer y etiquetar dicho contenido. Por último, restringir la monetización de la interacción no auténtica reduciría los incentivos financieros para operaciones de influencia y otros grupos maliciosos que utilicen el consenso sintético.
La amenaza es real
Si bien estas medidas podrían mitigar los riesgos sistémicos de los enjambres de IA maliciosos antes de que se arraiguen en los sistemas políticos y sociales de todo el mundo, el panorama político actual parece moverse en la dirección opuesta. En Estados Unidos la administración Trump ha pretendido reducir la regulación de la IA y las redes sociales y, en cambio, favorece el despliegue rápido de modelos de IA por encima de la seguridad.
La amenaza de los enjambres de IA maliciosos ya no es teórica: nuestras pruebas sugieren que estas tácticas ya se están desplegando. Creo que los responsables de políticas públicas y los tecnólogos deberían aumentar el coste, el riesgo y la visibilidad de esta manipulación.
A mediados de 2023, en torno a la época en que Elon Musk rebautizó Twitter como X pero antes de que suprimiese el acceso académico gratuito a los datos de la plataforma, mis colegas y yo buscamos indicios de cuentas de bots sociales que publicasen contenido generado por inteligencia artificial. Los bots sociales son programas de IA que producen contenido e interactúan con personas en las redes sociales. Descubrimos una red de más de mil bots implicados en estafas de criptomonedas. Denominamos a esta red botnet «fox8»por uno de los sitios web de noticias falsas que estaba diseñada para amplificar.