La IA dispara el riesgo de guerra nuclear. Los expertos urgen un tratado internacional
No será como en 'Terminator', pero el uso de IA en la toma de decisiones nucleares estratégicas aumenta radicalmente el riesgo de un conflicto atómico global, explican los expertos
:format(jpg)/f.elconfidencial.com%2Foriginal%2F0d3%2F8c6%2F602%2F0d38c6602b7084bf72833d3026a6419e.jpg)
"Tenemos que asegurarnos de que el uso de la IA en la esfera militar esté bajo control humano, especialmente con respecto a las armas nucleares". Son las palabras de John Tasioulas, director del Instituto de Ética en IA de la Universidad de Oxford y miembro de un comité que asesora al primer ministro griego sobre IA. "Va a haber competencia [en IA], no hay duda, pero también tiene que haber una cooperación importante." Él y el resto de expertos en la materia afirman que debemos llegar a un acuerdo porque estamos arriesgando la supervivencia de la civilización humana.
Es muy urgente que todas las potencias del planeta busquen cuanto antes un acuerdo global para prohibir el uso de la inteligencia artificial en sistemas nucleares estratégicos. De lo contrario, afirman los expertos, el riesgo de un conflicto atómico que acabe con la vida en la Tierra aumentará de forma radical.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Ff19%2F478%2F89e%2Ff1947889e7995ae9d1e3b89d78a04354.jpg)
El riesgo aumenta
Vladislav Chernavskikh, investigador del Instituto Internacional de Estudios para la Paz de Estocolmo (SIPRI), detalla que "el uso de IA en estos sistemas puede tener un impacto en las prácticas de disuasión y tiene el potencial de acabar con la estabilidad estratégica, lo que supone un mayor riesgo de conflicto nuclear por una escalada deliberada, involuntaria o incluso accidental". Esto significa que una inteligencia artificial mal programada o con errores en su análisis de amenazas podría interpretar señales equivocadas y desencadenar un ataque nuclear sin intervención humana.
Por eso, según Tasioulas, la inteligencia artificial aplicada a sistemas armamentísticos debe mantenerse siempre bajo control humano, especialmente cuando se trata de armas nucleares.
Pero la realidad es que la IA ya está siendo adoptada por las fuerzas militares de todas las potencias nucleares sin ningún control. Estados Unidos, China, Rusia, Reino Unido, Francia, India, Pakistán y Corea del Norte, están todos integrando la IA en sus sistemas de combate a varios niveles. Solo el Pentágono ha incrementado el valor de sus contratos relacionados con inteligencia artificial de 261 a 675 millones de dólares entre 2022 y 2023, según datos del Brookings Institution.
La capacidad de estos sistemas para tomar decisiones en combate podría acelerar los tiempos de respuesta hasta niveles en los que los humanos no puedan intervenir a tiempo, lo que podría desembocar en una escalada nuclear accidental.
La comunidad internacional reconoce estos peligros, pero no existe consenso global para abordarlos. China, por ejemplo, presentó en 2021 un documento en el que instaba a aplicar "prudencia y responsabilidad" en el uso militar de la IA. En la cumbre entre Joe Biden y Xi Jinping en 2023, ambos líderes acordaron mantener el control humano sobre el uso de armas nucleares, pero en 2024 China se negó a firmar un acuerdo que pedía garantizar "el control y la implicación humana en todas las acciones relacionadas con el uso de armas nucleares". Su decisión ha generado alarma en la comunidad internacional, sobre todo porque su doctrina oficial siempre había defendido la supervisión humana en estos sistemas.
Paul Scharre, director de estudios del Centro para una Nueva Seguridad Americana (CNAS), advierte de que "las dos grandes potencias mundiales en inteligencia artificial son ahora mismo China y los EE.UU., por ese orden". Ambas naciones no sólo están desarrollando IA para sus arsenales nucleares, sino que también han avanzado en la creación de enjambres de drones autónomos y otras armas capaces de actuar sin intervención humana. Scharre señala que "el ritmo de la acción de combate eclipsa la capacidad de respuesta de los humanos, y estos no tienen más remedio que ceder las decisiones a las máquinas o perderán ante su enemigo".
Sin acuerdos a la vista
A pesar del aumento cierto del riesgo, la regulación real sigue siendo inexistente. Países con capacidad atómica como Rusia no han asumido ningún compromiso. Nicola Leveringhaus, especialista en estudios de guerra en el King’s College de Londres, sostiene que "es necesario establecer comportamientos responsables en espacios no regulados –como la inteligencia artificial en el ámbito militar– y los canales de comunicación son clave". No obstante, advierte que "debemos ser realistas respecto a la voluntad política de los países y los intereses que podrían impedir la aparición de normativas o códigos de conducta sólidos".
Neil Davison, asesor del Comité Internacional de la Cruz Roja, apunta a otro problema grave: la imprevisibilidad de las armas autónomas. "Es el arma misma la que desencadena un ataque contra un objeto o una persona. Y eso es la clave del problema humanitario", explica. Si una IA militar autónoma falla en su análisis de amenazas, podría provocar un ataque nuclear basado en información errónea o en una interpretación defectuosa de la situación táctica.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fe5c%2F260%2F398%2Fe5c26039858630319c8ced3e5a31e840.jpg)
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fe5c%2F260%2F398%2Fe5c26039858630319c8ced3e5a31e840.jpg)
La ONG ‘Stop Killer Robots’ también ha denunciado estos peligros y ha pedido la prohibición total de los sistemas de armas autónomas diseñados para atacar personas, sin hacer distinción entre nucleares y convencionales. Catherine Connolly, directora de Investigación sobre Decisiones Automatizadas en la organización, lo deja claro: "los sistemas que no puedan ser utilizados bajo un control humano significativo también deben ser prohibidos".
Mientras tanto, China y Estados Unidos continúan avanzando en la automatización de la guerra. Scharre advierte que "la inteligencia artificial está cambiando los aspectos cognitivos de la guerra", lo que significa que el ritmo de los combates será tan rápido que las decisiones críticas serán tomadas por máquinas. La negativa de China a comprometerse con un marco regulador para la IA en sistemas nucleares es una señal alarmante de lo que podría venir en el futuro. Si no se logra un acuerdo internacional cuanto antes, la humanidad podría enfrentarse a un escenario donde las máquinas decidan el destino del mundo sin control humano. Una mala decisión a destiempo, un mal dato, un accidente, tendrían consecuencias catastróficas para todos.
"Tenemos que asegurarnos de que el uso de la IA en la esfera militar esté bajo control humano, especialmente con respecto a las armas nucleares". Son las palabras de John Tasioulas, director del Instituto de Ética en IA de la Universidad de Oxford y miembro de un comité que asesora al primer ministro griego sobre IA. "Va a haber competencia [en IA], no hay duda, pero también tiene que haber una cooperación importante." Él y el resto de expertos en la materia afirman que debemos llegar a un acuerdo porque estamos arriesgando la supervivencia de la civilización humana.