Es noticia
Te recomiendo tener miedo de la opinión de las inteligencias artificiales en política
  1. Mundo
Lo que las máquinas ocultan

Te recomiendo tener miedo de la opinión de las inteligencias artificiales en política

Los mensajes de máquinas programadas en redes sociales cada vez son más comunes. Lo que es más inusual es la capacidad que han desarrollado para expresar ideas políticas

Foto: Inteligencia artificial, Tecnología. (Istock)
Inteligencia artificial, Tecnología. (Istock)

¿Por qué la inteligencia artificial es un riesgo geopolítico?

Tiene el potencial de alterar el equilibrio de poder entre las naciones. La IA puede utilizarse para crear nuevas armas, automatizar la producción y aumentar las capacidades de vigilancia, todo lo cual puede dar a ciertos países una ventaja sobre otros. También puede utilizarse para manipular la opinión pública e interferir en las elecciones, lo que puede desestabilizar gobiernos y provocar conflictos.

Este autor no escribió el párrafo anterior. Lo ha hecho un chatbot de inteligencia artificial. Y el hecho de que el chatbot sea tan sincero sobre el caos político que puede desatar es bastante preocupante.

Foto: El CEO de Apple, Tim Cook. (Reuters / Stpehen Lam)

¿Hasta qué punto es la IA una amenaza para la democracia?

Bueno, los bots no pueden (todavía) inmiscuirse en las elecciones o difundir noticias falsas para influir en la opinión pública por sí solos. Pero los autoritarios, los populistas y los oportunistas pueden desplegar la IA para ayudar a hacer ambas cosas mejor y más rápido.

El presidente filipino Ferdinand Marcos Jr. confió mucho en su ejército de 'trolls' en TikTok para ganar los votos de los jóvenes filipinos en las elecciones de 2022. Automatizar el proceso con bots le permitiría a él, o a cualquier político con acceso a IA, lanzar una red más amplia y saltar a conversaciones virales casi de inmediato en una plataforma social que ya funciona con un algoritmo impulsado por IA.

Foto: Las inteligencias artificiales necesitan dormir para aprender más (Owen Beard para Unsplash)

Otro problema son los deepfakes, vídeos de personas cuyos rostros o cuerpos se alteran para que parezcan ser otra persona, normalmente destinados a la desinformación política (véase el Obama de Jordan Peele). La IA los hace ahora tan bien que son muy difíciles de detectar. De hecho, DARPA —la misma agencia del Pentágono que nos trajo Internet— está perfeccionando sus propios deepfakes para desarrollar tecnología que ayude a detectar qué es real y qué es falso.

Sin embargo, cuanto más "inteligente" se vuelve la IA a la hora de propagar mentiras en las redes sociales, y cuanto más se extiende su uso por parte de políticos desvergonzados, más peligrosa se vuelve la IA. Cuando se demuestre que un contenido viral es falso, puede que ya sea demasiado tarde.

Imaginemos que los partidarios de Narendra Modi, primer ministro nacionalista hindú de la India, quieren encender a sus bases avivando las llamas sectarias. Si la IA puede ayudarles a crear un vídeo deepfake medio decente de musulmanes sacrificando una vaca —animal sagrado para los hindúes— que se difunda con la suficiente rapidez, la ira podría desbordarse antes de que la gente compruebe si el vídeo es real, si es que confían en alguien para verificarlo de forma independiente.

* Si no ves correctamente este formulario, haz click aquí

La IA también puede perturbar la política haciendo que los bots hagan cosas que solo los humanos, por imperfectos que sean, deberían hacer. De hecho, automatizar el proceso de toma de decisiones políticas "puede dar lugar a resultados sesgados y a posibles abusos de poder", explica el bot.

Eso es lo que está ocurriendo ahora mismo en China, un Estado autoritario que sueña con dominar la IA y que ya está utilizando esta tecnología en los tribunales. Una vez que los jueces robot estén totalmente sincronizados con el orwelliano sistema de crédito social de Pekín, no sería difícil que fallaran en contra de las personas que han criticado a Xi Jinping en las redes sociales.

Entonces, ¿qué pueden hacer los gobiernos democráticos al respecto, si es que pueden hacer algo, antes de que la IA lo arruine todo? El bot tiene algunas ideas.

"Los gobiernos pueden proteger la democracia frente a la inteligencia artificial regulando el uso de la IA, garantizando que se utiliza de forma ética y responsable", afirma. "Esto podría incluir el establecimiento de normas para la recopilación y el uso de datos, así como garantizar que la IA no se utilice para manipular o influir en la opinión pública".

De acuerdo, pero ¿quién y cómo debe regularlo? Durante años, la ONU ha estado trabajando en la llamada Convención de Ginebra digital, que establecería normas mundiales para gobernar el ciberespacio, incluida la IA. Pero las conversaciones se han visto empantanadas por (¡sorpresa!) Rusia, cuyo presidente, Vladímir Putin, ya advirtió en 2017 que la nación que lidere la IA gobernará el mundo.

Foto: Fotografía de archivo, tomada el 28 02 2018, de un visitante al Mobile World Congress (MWC) de Barcelona. (EFE/Andreu Dalmau)

Los gobiernos, añade el bot, "también deben garantizar que la IA sea transparente y responsable, y que su uso sea supervisado y evaluado. Por último, [deben] garantizar que la IA se utiliza para beneficiar a la sociedad, en lugar de para socavarla".

El bot plantea una cuestión justa: La IA también puede hacer mucho bien a la humanidad. Un buen ejemplo es cómo el aprendizaje automático puede ayudarnos a vivir más sanos y durante más tiempo, detectando antes las enfermedades y mejorando ciertas cirugías.

Pero, como subraya el informe de Eurasia Group, "eso es lo que ocurre con las tecnologías revolucionarias, desde la imprenta hasta la fisión nuclear e Internet: su poder para impulsar el progreso humano se ve igualado por su capacidad para amplificar las tendencias más destructivas de la humanidad".

¿Por qué la inteligencia artificial es un riesgo geopolítico?

Inteligencia Artificial
El redactor recomienda