China se niega a prohibir que la inteligencia artificial controle armas atómicas
Pekín es el único gobierno que no ha firmado un acuerdo no vinculante para hacer imposible que la inteligencia artificial lance ataques nucleares por su cuenta
En una escena que parece sacada del preámbulo de Terminator, China se ha negado a firmar un acuerdo clave que —aunque no sea vinculante— iba a poner la bases para establecer un tratado mundial contra el control de armas nucleares por la inteligencia artificial. La sorprendente negativa de Pekín llega en uno de los momentos más delicados de la historia de la humanidad, donde se está decidiendo la regulación de la IA en armas de todo tipo. China parecía a favor de esto último, con una doctrina interna que afirmaba que la IA siempre estaría bajo control humano, pero esta negativa dice justo lo contrario en algo vital que está llamado a decidir el futuro de la civilización.
La creciente preocupación internacional sobre el uso de la inteligencia artificial (IA) en la toma de decisiones militares críticas ha alcanzado este punto crítico durante la cumbre sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM) 2024, que acaba de terminar en Seúl, Corea del Sur. El foco se centró en una cuestión fundamental: si las máquinas deberían tomar decisiones sobre el uso de armas nucleares. La negativa de China a prohibir esta práctica ha encendido las alarmas en la comunidad internacional. Rusia no estaba invitada al evento, por cierto, debido a la invasión ilegal de Ucrania.
El encuentro reunió a representantes de más de 90 países y concluyó con la adopción del documento Blueprint for Action (plan para actuar en español), un acuerdo no vinculante que insta a mantener el "control y la implicación humana en todas las acciones relacionadas con el uso de armas nucleares". Según el comunicado oficial del Ministerio de Exteriores de Corea del Sur, “China no firmó el acuerdo, a pesar de su participación en las discusiones” .
La carrera armamentística con IA y el peligro que implica China
La decisión de China de no comprometerse a regular la IA para el control de las armas nucleares llega en un momento crítico en el que las grandes potencias avanzan a pasos agigantados en el desarrollo de tecnologías autónomas. Según Paul Scharre, director de estudios del Centro para una Nueva Seguridad Americana (CNAS), “Las dos grandes potencias mundiales en inteligencia artificial son ahora mismo China y los EEUU, por ese orden” . Scharre señala que ambas naciones no solo desarrollan IA para sus sistemas armamentísticos, sino que también están creando armas autónomas, como enjambres de drones autónomos para acompañar cazas de combate y atacar enemigos..
El documento Blueprint for Action, respaldado por 61 países, recalca que las aplicaciones de IA en el dominio militar "deben ser éticas y centradas en el ser humano" . Pero la negativa de China a adherirse a estas directrices plantea serias preguntas sobre el impacto de su decisión en la seguridad global. El científico y pensador James Lovelock ya había advertido sobre los riesgos de permitir que las máquinas tomen decisiones críticas. En su libro Novaceno: La próxima era de la hiperinteligencia, Lovelock afirmaba que "es horrible que nuestros líderes, casi todos ellos completamente ignorantes en asuntos de ciencia e ingeniería, estén fomentando estas armas".
Riesgos de una guerra autónoma sin supervisión humana
El desarrollo de armas autónomas ha sido una preocupación constante para los expertos en derechos humanos y organizaciones internacionales. Neil Davison, asesor científico y político del Comité Internacional de la Cruz Roja (CICR), apunta que las armas autónomas, que pueden decidir atacar sin intervención humana, representan un peligro significativo para los civiles: “Es el arma misma la que desencadena un ataque contra un objeto o una persona. Y eso es la clave del problema humanitario” .
Además, el uso de IA en la toma de decisiones bélicas podría acelerar los tiempos de respuesta en el campo de batalla hasta el punto de que los humanos no puedan seguir el ritmo. Scharre señala que “el ritmo de la acción de combate eclipsa la capacidad de respuesta de los humanos, y éstos no tienen más remedio que ceder las decisiones a las máquinas o perderán ante su enemigo”. La posibilidad de que los sistemas de IA determinen el uso de armas nucleares de forma autónoma podría resultar en un apocalipsis nuclear como tantas películas de ciencia ficción han advertido.
A pesar de los avances tecnológicos, la oposición a las armas autónomas sigue creciendo. La ONG ‘Stop Killer Robots’ lleva años luchando para que se prohíban los sistemas de armas autónomas diseñados para atacar a personas. Catherine Connolly, directora de Investigación sobre Decisiones Automatizadas en la organización, sostiene que “nos gustaría que se prohibieran los sistemas de armas autónomas diseñados para atacar a las personas” .
El Comité Internacional de la Cruz Roja también ha pedido que las armas autónomas que sean impredecibles o cuyo funcionamiento cambie durante su uso sean prohibidas. Davison explica que "las armas autónomas controladas por inteligencia artificial podrían ser impredecibles y tendrían que ser prohibidas debido a que no hay suficiente conocimiento sobre su funcionamiento tal y como está la tecnología en estos momentos". Las grandes potencias, sin embargo, siguen bloqueando los esfuerzos para restringir estas tecnologías.
China, IA y la guerra futura
Scharre advierte también que "la inteligencia artificial está cambiando los aspectos cognitivos de la guerra". Es más que probable que el uso de enjambres de drones y sistemas autónomos genere un campo de batalla en el que las decisiones se tomen tan rápido que los seres humanos no tengan más remedio que ceder el control a las máquinas.
En un escenario donde la IA tome decisiones sobre la vida o la muerte, la amenaza no solo es tecnológica, sino profundamente ética. Como lo resumió Connolly, “los sistemas que no puedan ser utilizados bajo un control humano significativo también deben ser prohibidos” .
El panorama bélico del futuro se encuentra en una encrucijada. Con países como China y Estados Unidos liderando el desarrollo de IA para el uso militar, la negativa de China a regular la aplicación de la IA en el uso de armas nucleares abre un capítulo incierto con un final impredecible. Si la nueva era en la carrera armamentística de la IA ya era preocupante, este nuevo episodio nos coloca en una vía potencialmente desastrosa para la civilización.
En una escena que parece sacada del preámbulo de Terminator, China se ha negado a firmar un acuerdo clave que —aunque no sea vinculante— iba a poner la bases para establecer un tratado mundial contra el control de armas nucleares por la inteligencia artificial. La sorprendente negativa de Pekín llega en uno de los momentos más delicados de la historia de la humanidad, donde se está decidiendo la regulación de la IA en armas de todo tipo. China parecía a favor de esto último, con una doctrina interna que afirmaba que la IA siempre estaría bajo control humano, pero esta negativa dice justo lo contrario en algo vital que está llamado a decidir el futuro de la civilización.
La creciente preocupación internacional sobre el uso de la inteligencia artificial (IA) en la toma de decisiones militares críticas ha alcanzado este punto crítico durante la cumbre sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM) 2024, que acaba de terminar en Seúl, Corea del Sur. El foco se centró en una cuestión fundamental: si las máquinas deberían tomar decisiones sobre el uso de armas nucleares. La negativa de China a prohibir esta práctica ha encendido las alarmas en la comunidad internacional. Rusia no estaba invitada al evento, por cierto, debido a la invasión ilegal de Ucrania.