Es noticia
La próxima generación de armas que cambiará la guerra en el futuro
  1. Tecnología
  2. Novaceno
y como evitarlas

La próxima generación de armas que cambiará la guerra en el futuro

En la segunda entrega de 'Control Z: las armas definitivas', abordamos la guerra del futuro. Un escenario posible que está basado en horas de conversación con expertos internacionales

Las decisiones de la guerra del futuro no las tomarán ni los soldados ni los generales. En estos momentos, las grandes potencias están trabajando en el desarrollo de armas totalmente autónomas que serán controladas por sistemas tácticos y estratégicos inteligentes con acceso a billones de datos recogidos en tiempo real. Los seres humanos seremos incapaces de competir con la velocidad de procesamiento de estas máquinas.

La nueva guerra se llevará a cabo en un tablero cada vez más complejo que requerirá tomar decisiones inmediatas. La potencia que se haga con la inteligencia artificial más avanzada y rápida tendrá la ventaja en el campo de batalla. Pero, sin los humanos detrás de la toma última de decisiones, las consecuencias de un conflicto serán imprevisibles, a no ser que tomemos medidas para evitarlo.

Foto: La desaparición del cromosoma Y puede generar nuevas especies humanas. (Whitehead Institute for Biomedical Research)

James Lovelock, uno de nuestros pensadores de cabecera y la persona a la que debemos el nombre de esta sección, fue un gran defensor del avance que supone la inteligencia artificial para nuestra civilización. En su Libro ‘Novaceno: La próxima era de la hiperinteligencia’, especula con un futuro donde las máquinas con cerebros sintéticos avanzados se conviertan en una nueva forma de vida que tendrá que coexistir con los humanos para asegurar el progreso de ambos. A pesar de que películas muy populares como Terminator o Matrix muestran una visión de la inteligencia artificial muy distópica, la versión de Lovelock es abrumadoramente optimista. El prestigioso investigador cree que los escenarios que plantean aquellas películas son demasiado exagerados y, según él, la única manera en la que algo así pudiera ocurrir en la vida real es permitir que las máquinas tengan el poder de decidir autónomamente sobre la vida o la muerte de las personas.

“La noción de permitir la evolución de sistemas informáticos adaptativos en plataformas militares me parece la idea más mortífera que se ha introducido hasta ahora para la sustitución de la vida humana y de otras formas de vida orgánica en la Tierra”, escribe Lovelock en su libro. “Es horrible que nuestros líderes, casi todos ellos completamente ignorantes en asuntos de ciencia e ingeniería, estén fomentando estas armas”.

Foto: Lovelock, ya tiene su nuevo libro Novaceno en español. (EFE)

Desgraciadamente, la voz de Lovelock se apagó el pasado mes de julio a la edad de 103 años. Y las potencias militares siguen invirtiendo millones de dólares en crear nuevas máquinas de guerra autónomas con capacidad letal y sofisticados sistemas de inteligencia tácticos para dirigirlas.

La guerra de Ucrania es el primer paso

El concepto de arma autónoma no es nuevo en la guerra. Como nos explicó Neil Davison, asesor científico y político del Comité Internacional de la Cruz Roja (CICR), los ejércitos llevan años usando versiones rudimentarias desde hace décadas. Las minas antipersona, por ejemplo, tienen sensores que cuando se activan hacen detonar una bomba. También hay sistemas de defensa aérea que tienen modos autónomos que pueden detectar y lanzar contramedidas que destruyen misiles entrantes o obuses. Ahora, en la actual guerra de Ucrania, se ha normalizado también el uso de drones de merodeo, que son una mezcla entre un misil y un avión no tripulado. Estos drones son capaces de sobrevolar una zona durante cierto tiempo y, basándose en los datos obtenidos por sus sensores, pueden ejecutar un ataque de forma autónoma.

placeholder Un dron merodeador. (AeroVironment)
Un dron merodeador. (AeroVironment)

“Esa es la característica común a todas las armas autónomas. Es el arma misma la que desencadena un ataque contra un objeto o una persona. Y eso es la clave del problema humanitario. Las minas antipersona han planteado muchas preocupaciones humanitarias y peligros para los civiles y por esa razón están siendo prohibidas”, asegura Davison. “Pero lo que estamos viendo con los desarrollos militares actuales es un interés mucho más amplio en el uso de las armas autónomas en áreas y periodos de tiempo más grandes y sin supervisión humana. Ahora el objetivo son las personas y una mayor variedad de objetos como vehículos que también podrían ser utilizados por los civiles”.

La evolución contínua de la guerra hace que los ejércitos estén constantemente a la búsqueda de nuevas tecnologías para sacar ventaja a sus enemigos. Paul Scharre, director de estudios del Centro para una Nueva Seguridad Americana (CNAS) y autor del libro ‘Army of None: Autonomous Weapons and the Future of War’, asegura que uno de los cambios más significativos que estamos viendo en la guerra es la forma en que la tecnología disponible comercialmente se está importando al espacio militar.

“Esto incluye cosas como las herramientas cibernéticas, la guerra de la información —el uso de la propaganda en las redes sociales— así como los aviones no tripulados [drones] que han proliferado en todo el mundo y ahora están siendo ampliamente utilizados en Ucrania por las fuerzas rusas y ucranianas”, dice Scharre. “Hay más de 100 países y grupos no estatales que tienen aviones no tripulados hoy en día, y los drones están siendo ampliamente utilizados en los conflictos en todo el mundo. No sólo se están utilizando en Ucrania, sino que se utilizaron por los rebeldes Houthi en Yemen, en Nagorno Karabaj, en Libia, por el Estado Islámico en Irak o en Siria”.

placeholder La nueva generación de cazas de EEUU con enjambres de drones. (Lockheed Martim)
La nueva generación de cazas de EEUU con enjambres de drones. (Lockheed Martim)

Las potencias militares también utilizan tecnologías que vienen del sector comercial, como los ordenadores o redes informáticas o la inteligencia artificial, y luego las adaptan para la guerra. “La mayor parte del tiempo, los ejércitos están en paz y la guerra es rara”, dice Scharre. “Así que los militares se enfrentan al inusual reto de ser como un equipo deportivo que necesita prepararse para un partido que se puede disputar una vez cada 30 años, donde las reglas cambian constantemente y los errores son de vida o muerte. Una de las cosas que estamos viendo desarrollarse en Ucrania hoy es que la sorpresa es un elemento constante en esta guerra. Muchos dentro del conflicto, y claramente dentro de Rusia, pero también otros observadores externos y muchos analistas militares se han sorprendido por cómo se ha desarrollado la guerra hasta ahora”.

Armas autónomas conectadas entre sí

Uno de los elementos más importantes que llegan a la guerra del ámbito civil es la información. Todos llevamos en el bolsillo aparatos que generan montañas de datos que creamos y compartimos constantemente por internet. Esa tendencia sigue en aumento y continuará haciéndolo según vayamos adoptando nuevos dispositivos que se conectan a la red. De hecho, según Scharre, se está empleando casi el doble de dinero anualmente en tecnologías de la información que en todo el gasto militar combinado por todos los países de la Tierra, contando la investigación, el desarrollo, los gastos de personal y la compra de material militar. Esa información, esos datos obtenidos, son el principal alimento de las inteligencias artificiales.

“Una de las tendencias más dramáticas que estamos viendo en la tecnología de la información es en la inteligencia artificial, donde desde 2010 hasta nuestro días hemos visto aumentar 10.000 millones de veces la cantidad de potencia de cálculo que usan las aplicaciones de aprendizaje automático más modernas”, sostiene el investigador. “Los sistemas de IA pueden usarse simplemente para guiar la toma de decisiones de los humanos. Pero en algunos casos, puede ser beneficioso construir sistemas autónomos más capaces que puedan hacerse cargo de las tareas que realizan los humanos. Uno de los lugares donde vemos esto es en los coches con piloto automático, donde con cada generación de automóviles, hay más y más funcionalidades autónomas que se añaden. Algo similar sucede con los sistemas de armas avanzados, aviones y otros tipos de aparatos militares que van teniendo más características autónomas con el tiempo, a menudo de forma muy gradual”.

placeholder El presidente chino, Xi Jinping, envejecido para el 2035 con IA. (Omar Kardoudi)
El presidente chino, Xi Jinping, envejecido para el 2035 con IA. (Omar Kardoudi)

Las dos grandes potencias mundiales en inteligencia artificial son ahora mismo China y los EEUU, por ese órden. Ambos cuentan con un gran número de investigadores que están desarrollando nuevas inteligencias artificiales y con grandes caladeros de datos para entrenar a sus inteligencias artificiales. Y ambos están desarrollando armas con nuevas capacidades autónomas, como la nueva generación de cazas que estarán acompañados de enjambres de drones autónomos que estarán coordinados entre sí. Estos aparatos responderán a las órdenes del piloto, le protegerán y podrán atacar los objetivos que éste les marque.

“Eso se está investigando activamente por supuesto”, nos comenta Vincent Boulanin, investigador del Instituto Internacional de Estudios para la Paz de Estocolmo (SIPRI). “Lo que es potencialmente interesante con los drones y los enjambres de drones, es la idea de que pueden operar de una manera que podría complicar la vida de los sistemas defensivos. Podrían ser más maniobrables y potencialmente podrían evolucionar de una manera que podría ser más dinámica. Y obviamente, si quieres operar un enjambre, necesitas la autonomía. Hay que asegurarse de que un individuo no tenga que operar necesariamente todos los enjambres al mismo tiempo, así que tienes que tener un cierto nivel de autonomía para hacerlo”.

Este tipo de armas, nos dice el investigador, se usarán en un principio en áreas remotas donde potencialmente no hay civiles, en alta mar o en el cielo a gran altitud. Pero estos enjambres de drones también pueden funcionar sin tener un piloto cerca y recibiendo órdenes directamente desde un centro de control. Estos aparatos funcionan de manera coordinada y pueden servir para labores de reconocimiento, defensa, ataque o para construir un puente de comunicaciones entre dos zonas para transmitir información. Pero también para gestionar la logística y transportar suministros a las tropas en el frente.

placeholder Defensa aérea con rayos de alta energía. (Raytheon)
Defensa aérea con rayos de alta energía. (Raytheon)

“El propio enjambre se las arregla para llevar a cabo esas tareas y, de forma autónoma, los elementos individuales del enjambre se comunican entre sí y averiguan cuál de ellos tiene que ir a dónde”, dice Scharre. “Y eso es potencialmente una forma mucho mejor de controlar un gran número de sistemas robóticos. Los enjambres se han probado en experimentos tanto en laboratorios de investigación como en ejercicios militares. Estados Unidos, China, Israel y otros países han hecho demostraciones de enjambres, supuestamente. Israel ha utilizado recientemente un enjambre en operaciones reales de reconocimiento, así que estamos empezando a ver cómo se emplean para la guerra”.

Una guerra más inhumana

Estas armas autónomas podrían estar listas en los próximos años, pero no serán las únicas tecnologías que se aplicarán en las guerras del futuro a medio plazo. Igual que la irrupción de tecnologías herederas de la revolución industrial, como el tren o las ametralladoras, tuvo un impacto significativo en la capacidad letal y logística de los ejércitos durante la primera y la segunda Guerra Mundial, la revolución de la información y la inteligencia artificial tendrá un efecto determinante en los próximos conflictos.

“La inteligencia artificial está cambiando los aspectos cognitivos de la guerra”, comenta Scharre. “Así que podría, con el tiempo, conducir a una situación en la que los militares tienen más información sobre lo que está sucediendo en el campo de batalla. También son capaces de procesar esa información para tomar decisiones más rápidamente, lo que podría conducir a un campo de batalla más transparente, donde es más difícil esconderse porque hay constantemente drones sobrevolando”.

Además de esos drones, sensores colocados en tierra informarán de los movimientos de las fuerzas enemigas, permitiendo a los mandos militares detectar ataques cuando empiezan a producirse y poder responder a gran velocidad.

“Creo que eso es lo que probablemente veremos en las próximas décadas en cuanto a cómo la IA cambiará la guerra”, explica Scharre. “Ahora bien, algunos investigadores chinos han planteado la hipótesis de que, a largo plazo, podría producirse un cambio de paradigma fundamental en la guerra, lo que han denominado la singularidad en la guerra, en la que el ritmo de acción en el campo de batalla, impulsado por la inteligencia artificial, se vuelve demasiado rápido para que los seres humanos estén informados de todo. Y hemos visto esto en otras áreas como el mercado de acciones, donde hay sistemas de comercio de alta frecuencia que ocurren en milisegundos mucho más rápido de lo que los humanos pueden reaccionar. Y es posible que algo así ocurra en la guerra, donde el ritmo de la acción de combate eclipsa la capacidad de respuesta de los humanos, y éstos no tienen más remedio que ceder las decisiones a las máquinas o van a perder ante su enemigo, que ya lo ha hecho”.

placeholder Visualización de un posible sistema táctico inteligente. (L3Harris)
Visualización de un posible sistema táctico inteligente. (L3Harris)

Evidentemente, el escenario que plantea el director de estudios del CNAS es a muy largo plazo y muchas cosas se tienen que dar para que exista una IA táctica que sea capaz de tomar ese tipo de decisiones tan complejas que requieren estar al tanto de innumerables variantes. Estaríamos hablando de una inteligencia artificial general que supere las capacidades del cerebro humano, y eso todavía está por suceder, si es que sucede alguna vez. Sin embargo, con el ritmo exponencial al que avanza esta tecnología no se puede descartar del todo. Además si combinamos este cerebro digital con el desarrollo de sofisticadas armas autónomas llegaríamos al futuro catastrófico del que nos alertaba Lovelock.

Un futuro que se puede evitar

Los defensores de estas tecnologías argumentan que usarlas llevaría a un tipo de guerra más humana y sin víctimas civiles. Donde los objetivos están claramente definidos y los ataques se ejecutan con una precisión nunca vista hasta ahora. Una máquina podría evitar atrocidades como torturas y violaciones contra la población civil como las que han ido cometiendo los soldados en todas las guerras. Pero son precisamente los aspectos éticos y la defensa de los derechos humanos y de las leyes de la guerra lo que ha provocado el rechazo más frontal contra estas tecnologías.

“Según las leyes de la guerra, el derecho humanitario, los que están luchando tienen que ser capaces de controlar el efecto de sus actos” asegura Neil Davison. “Tienen que asegurarse de que sólo atacan objetivos militares legales y tienen que tomar precauciones para proteger a los civiles. Así que las armas donde el usuario no sabe exactamente quién o qué va a ser atacado o dónde y cuándo, son un problema. Son tecnologías que ponen en riesgo la protección de los civiles”.

La ONG ‘Stop Killer Robots’ lleva años luchando por establecer una nueva legislación sobre los sistemas de armas autónomas. Hablamos con Catherine Connolly, su directora de Investigación sobre Decisiones Automatizadas, que nos contó la propuesta que hacen desde su iniciativa: un nuevo instrumento jurídicamente vinculante que contenga una mezcla de prohibiciones y obligaciones.

placeholder Un prototipo de caza estadounidense de sexta generación. (Air Force Research Laboratory)
Un prototipo de caza estadounidense de sexta generación. (Air Force Research Laboratory)

“Nos gustaría que se prohibieran los sistemas de armas autónomas diseñados para atacar a las personas” explica Connolly. “Creemos que debería haber una prohibición general de los sistemas diseñados específicamente para atacar a las personas. Y luego pensamos que todos los sistemas de armas autónomas deben ser utilizados con un control humano significativo. Y si hay un sistema que no puede ser utilizado bajo ese control también debe ser prohibido. Luego, lo que nos gustaría ver son obligaciones positivas. Los sistemas que no están prohibidos deberían estar sujetos a obligaciones positivas para garantizar un control humano significativo”.

En la misma línea va la propuesta que hacen desde Cruz Roja. “Lo que recomendamos es que lo que llamaríamos armas autónomas impredecibles, cuyos efectos no pueden ser suficientemente anticipados y controlados, deberían ser prohibidas. Un ejemplo sería el de las armas autónomas que cambian su funcionamiento durante su uso. Las armas autónomas controladas por inteligencia artificial podrían ser impredecibles y tendrían que ser prohibidas debido a que no hay suficiente conocimiento sobre su funcionamiento tal y como está la tecnología en estos momentos”, comenta Davison. “La otra área es, y esto es realmente una recomendación importante, que las armas autónomas que son diseñadas y utilizadas para atacar directamente a las personas deben ser prohibidas. Aquí las preocupaciones legales son particularmente significativas, como he mencionado, si un objetivo humano puede cambiar en un momento dado eso requiere un juicio humano específico del contexto. La otra perspectiva es la preocupación ética, y diríamos que las armas autónomas en general plantean preocupaciones éticas sobre la pérdida de control humano, una pérdida de juicio en el uso de la fuerza en las decisiones de matar y destruir”.

Ya ha habido movimientos en este sentido. Las primeras reuniones tuvieron lugar hace casi una década en la sede de la ONU en Ginebra. Allí, se reunieron grupos de expertos de todo el mundo para hablar de armas autónomas. Estas reuniones se han ido repitiendo a lo largo de los años, pero a pesar de que ya cuentan con iniciativas concretas —como la que ha presentado la plataforma Stop Killer Robots o el propio CICR— y con un número cada vez mayor de países alineados con implementar una nueva legislación más restrictiva, las grandes potencias han ido bloqueando su aplicación.

placeholder Los mandatarios tienen en su mano evitar la proliferación de estas armas.
Los mandatarios tienen en su mano evitar la proliferación de estas armas.

El desacuerdo fundamental está en el grado de implicación de los seres humanos en estas tecnologías. Países como Estados Unidos y Rusia quieren evitar cualquier tipo de límite en su desarrollo para no tener nuevas restricciones en lo que se les permite hacer con ella. Y mientras esto no se solucione, los ejércitos de los países seguirán adelante con su desarrollo por miedo de quedarse atrás ante potenciales nuevas capacidades de sus enemigos.

“No sólo Rusia y Estados Unidos han dicho que no apoyarán un tratado, sino que China ha propuesto una prohibición que en realidad no es tal y que permitiría a los ejércitos tener la libertad de seguir construyendo estas armas. Solo que, según China, no las usarían. Entonces, ¿por qué necesitarías estas armas si no piensas usarlas?” se pregunta Scharre. “Así que la mayoría de los expertos no ven esta propuesta como algo muy serio, sino como un intento de tener lo mejor de los dos mundos y de que China gane algunos puntos diplomáticos mientras sigue desarrollando la tecnología”.

Las decisiones de la guerra del futuro no las tomarán ni los soldados ni los generales. En estos momentos, las grandes potencias están trabajando en el desarrollo de armas totalmente autónomas que serán controladas por sistemas tácticos y estratégicos inteligentes con acceso a billones de datos recogidos en tiempo real. Los seres humanos seremos incapaces de competir con la velocidad de procesamiento de estas máquinas.

Inteligencia Artificial Militar
El redactor recomienda