Drones y bombas que 'hablan': la IA es la gran revolución militar, y nadie está al mando
  1. Tecnología
TECNOLOGÍA MILITAR

Drones y bombas que 'hablan': la IA es la gran revolución militar, y nadie está al mando

El camino por recorrer con estas tecnologías es largo, pero se avanza a velocidad de vértigo. Hay proyectos en varios puntos del mundo, pero solo EEUU supera los 1.000 millones de inversión al año

placeholder Foto: Concepto de trabajo en red del FCAS. (Dassault)
Concepto de trabajo en red del FCAS. (Dassault)

Las nuevas tecnologías siempre han cambiado la forma de entender la defensa y el modo de hacer la guerra. Cuando aún estamos asimilando el enorme salto que se ha dado con el empleo de armas o vehículos controlados de forma remota, nos encontramos ya con otro salto que se nos viene encima de repente, casi sin avisar: se trata del empleo de inteligencia artificial (IA). Las posibilidades que se abren con vehículos que actúen por sí solos pueden ser enormes, casi de ciencia ficción, pero también los riesgos, pues siempre nos podremos hacer la pregunta de ¿quién está al mando?

Foto: Espectácular capacidad de carga del B-52H (USAF)

La IA va más allá de una mera respuesta parametrizada. Se busca una máquina dotada de sensores que sean capaces de captar la situación de su entorno, evaluar los datos y tomar la decisión adecuada para cumplir la tarea asignada. En el fondo, se trata de replicar el modelo cognitivo de un ser humano y tanto mejor será esa IA cuanto más se acerque al comportamiento de una persona.

Las aplicaciones son infinitas y su impacto en nuestra vida cotidiana puede ser enorme. Si las aplicaciones en el campo civil son inmensas, el salto al terreno militar era obvio. Cada vez se oye hablar más y más de este tipo de sistemas y de sus posibilidades. Son pequeñas noticias aisladas que nos indican que el camino por recorrer es largo, pero también que se avanza a velocidad de vértigo.

Tecnología vanguardista

¿Han oído hablar de Golden Horde o Skyborg? Son dos programas norteamericanos de defensa que parecen sacados de una de esas películas de la saga ‘Terminator’. Rozan la ciencia ficción, pero la diferencia es que esto va muy en serio. La Fuerza Aérea (USAF) trabaja en una línea que denomina ‘Vanguard’, con tecnologías futuristas y que abarca tres programas: Skyborg, NTS-3 y Golden Horde. Los está desarrollando la AFRL (Air Force Research Laboratory), un organismo de la USAF que investiga con tecnologías vanguardistas. Como dice su lema, “desarrollando la tecnología del mañana”.

Skyborg trata de buscar la integración de sistemas de inteligencia artificial en vehículos aéreos autónomos no tripulados, de tal manera que sean capaces no solo de funcionar ellos solos, sino de integrarse con una formación de aviones tripulados y no tripulados. Es, por así decirlo, avanzar en el concepto del ‘loyal wingman’, un avión no tripulado capaz de realizar múltiples misiones y de colaborar en equipo con aviones tripulados.

placeholder Un F-15E Strike Eagle con una carga de 20 GBU-39B Small Diameter Bomb. (USAF)
Un F-15E Strike Eagle con una carga de 20 GBU-39B Small Diameter Bomb. (USAF)

El objetivo es claro: abaratar el coste, cada vez más desorbitado, de los aviones de combate tripulados. Con Skyborg, se conseguiría un conjunto de elementos de combate aéreo capaces de trabajar junto a aeronaves tripuladas, seguir sus instrucciones o actuar de manera independiente, tomando decisiones y actuando en cualquier rol, como elemento defensivo, atacante o de reconocimiento.

¿Cómo funciona Skyborg?

El funcionamiento es (en la teoría) muy sencillo. Trata de emular lo que haría un piloto humano en situación de combate, que en el fondo es recibir una misión y una serie de ROE ('rules of engagement') que establecen, por así decirlo, las ‘reglas del juego’. El piloto, en el curso de la acción, recibe diferente información de múltiples fuentes, bien sean los propios sensores de su avión, información de otras aeronaves, inteligencia, etc. y, por supuesto, lo que él percibe: la importante ‘conciencia situacional’. Todo esto lo evalúa y toma sus decisiones de combate.

placeholder Imagen de la prueba del día 20 de diciembre de 2020 con un F-22, F-35 y XQ-58A en formación. (USAF)
Imagen de la prueba del día 20 de diciembre de 2020 con un F-22, F-35 y XQ-58A en formación. (USAF)

Las aeronaves autónomas recibirían estas ‘reglas del juego’ en forma de matriz parametrizada, dispondrían de sensores y fuentes de información y tratarían de evaluar la situación y tomar sus propias decisiones, utilizando para ello unos algoritmos muy complejos. Si por ejemplo, su misión es atacar un objetivo concreto, imaginemos una estación de radar, en el curso de la acción puede detectar un avión enemigo. Evaluará el tipo de amenaza, sus posibilidades y sus prioridades y decidirá si intenta evadirse o eliminarlo.

Sobre la zona del objetivo utilizará sus sensores para analizar el entorno y, si por ejemplo detectara otro objetivo como un centro de mando enemigo, tomará la decisión de atacar el nuevo objetivo o continuar con la misión. Todo ello en un entorno donde no tendría necesariamente que mantener comunicación con el centro de mando propio, que es la gran ventaja actual de las aeronaves tripuladas sobre los UCAV o drones de combate controlados en remoto.

Puede sonar a algo del futuro, pero ya se está probando. El pasado 20 de diciembre de 2020, un avión F-22 y un F-35 de la USAF, ambos como sabemos de quinta generación, realizaron con éxito una importante prueba en la que volaron en formación con el XQ-58A Valkyrie, un vehículo aéreo no tripulado que en esa prueba funcionó de forma autónoma.

Esto no es cosa solo de los norteamericanos. Por citar un ejemplo, el programa europeo FCAS que persigue ese futuro avión de combate multinacional, está concebido como un ‘sistema de sistemas’, donde una parte muy importante del mismo va más allá de la mera plataforma aérea (el avión en sí) y busca la creación de un conjunto de aeronaves tripuladas y no tripuladas con capacidad de trabajar en equipo.

Bombas que ‘se hablan’

El programa Navigation Technology Satellite-3 (NTS-3) es quizás el más pragmático y desarrolla nuevos receptores GPS que incorporen múltiples señales para las unidades militares. Parece un simple avance en una tecnología cotidiana, pero resulta trascendental en caso de conflicto y para operaciones militares. Baste pensar la cantidad de ingenios y armas que hoy en día basan su precisión (su eficacia) en establecer su situación geográfica, rutas y objetivos mediante posicionamiento satelital.

placeholder Lanzamiento del XQ-58A. (USAF)
Lanzamiento del XQ-58A. (USAF)

Más en la línea de lo que venimos hablando está Horda Dorada. Se trata de un programa que investiga para lograr un armamento que trabaje de forma conjunta e inteligente. Se denomina Air Force Golden Horde Vanguard, pero se suelen referir a él como ‘Golden Horde’. En Horda Dorada se busca un sistema de armas, en general bombas o misiles guiados, capaces de funcionar en modo colaborativo unas con otras. La idea es que un grupo o enjambre de armas compartan entre sí determinados datos, como podría ser la ubicación de sus objetivos y de sus defensas. Esta información compartida consigue una mayor eficacia que el trabajo independiente de cada una.

Las armas actúan de acuerdo a un conjunto de parámetros establecidos cargado previamente en sus ordenadores. Estos parámetros condicionan su modo de funcionamiento de tal manera que analizan la situación y la información que les llega, la comparan con su conjunto de parámetros (que se denomina ‘playbook’) y eligen la opción más adecuada. Supone sin duda un gran avance frente a los ingenios convencionales, cuya misión está fijada con antelación y donde una reacción inesperada del enemigo puede dar al traste con todo.

Con este programa, un enjambre de bombas o misiles interconectados podría reaccionar en tiempo real ante un escenario cambiante, podrían saturar a las defensas del enemigo, repartirse tareas y lograr una efectividad sin precedentes. Esta tecnología también se ha puesto a prueba y el 15 de diciembre pasado un F-16 lanzó dos bombas ‘colaborativas’ denominadas CSDB ('collaborative small diameter bombs').

placeholder Cuatro bombas CSDB bajo el ala de un F-16. Dos de ellas serían lanzadas en la prueba del 20 de diciembre de 2020. (Air Force Research Laboratory)
Cuatro bombas CSDB bajo el ala de un F-16. Dos de ellas serían lanzadas en la prueba del 20 de diciembre de 2020. (Air Force Research Laboratory)

Estas bombas son en realidad una modificación de la GBU-39, un ingenio de altísima precisión y peso reducido (unos 130 kg) con una pequeña carga explosiva, entre los 90 y 20 kg, y con diferentes tipos de guiado, desde GPS —inercial, radar, infrarrojos y láser—. Durante la prueba las bombas, una vez lanzadas, se dirigieron en vuelo de planeo hasta la zona de sus objetivos. Una vez allí y en modo colaborativo, fueron capaces de identificar un objetivo enemigo no previsto.

¿Quién está al mando?

Si alguien pensaba que el desarrollo de la IA militar iba a ser un camino de rosas, se equivoca. Por un lado, están las ingentes cantidades de dinero que se están invirtiendo en este tema. Solo EEUU dedica cada año más de 1.000 millones de dólares a investigación militar para IA, de los que, por ejemplo, casi 200 millones han ido al trabajo de bombas colaborativas.

Pero también hay que tener en cuenta los problemas que están surgiendo y pueden surgir. Muchos de ellos desde el punto de vista técnico, pero también desde una perspectiva de seguridad, confianza e incluso moral. Ya han surgido voces en este sentido alertando de los riesgos de una tecnología descontrolada en la que, en un momento dado, nos preguntemos quién está de verdad al mando.

placeholder Un F-22 Raptor y un F-35A Lightning II, volando en formación con el XQ-58A Valkyrie. (USAF)
Un F-22 Raptor y un F-35A Lightning II, volando en formación con el XQ-58A Valkyrie. (USAF)

Uno de los retos tecnológicos es el de la seguridad. Nos referimos al riesgo de que el avión autónomo sea ‘pirateado’ y el enemigo le engañe o tome el control de sus funciones. No es para tomarlo a broma. En marzo de 2019 un laboratorio chino especializado en seguridad demostró que podía engañar a los sofisticados algoritmos de IA de los automóviles Tesla. Les hizo cometer errores en su modo de conducción autónoma. Las alarmas se encendieron en Estados Unidos hasta el punto de que el general Mattis, entonces Secretario de Defensa, alertó al presidente Trump de que otros países, como China, les estaban tomando la delantera.

También está el tema moral. La cuestión es, ¿hasta dónde puede una máquina tomar decisiones que impliquen acciones de guerra?, ¿dónde se pone el límite? Y ya ha habido algunas reacciones a esto. La propia Unión Europea emitió una directriz el pasado mes de diciembre, indicando que “los sistemas autónomos letales deben estar sujetos al control humano”. Es decir, debe haber siempre un responsable humano de la última decisión.

Posiciones como esta siempre generan polémica y algunos analistas aseguran que es como “pegarse un tiro en el pie”, ya que otros países como Estados Unidos, Rusia o China, a buen seguro no van a tener tal tipo de consideraciones, mientras que esta decisión podría condicionar alguno de los modernos desarrollos de defensa europeos. Un tema controvertido, sin duda, que deja muy abierto al debate

Tecnología militar Drone Inteligencia Artificial
El redactor recomienda