Es noticia
Robots y drones asesinos: así serán las armas de las guerras del futuro
  1. Tecnología
¿Estamos preparados para las armas autónomas?

Robots y drones asesinos: así serán las armas de las guerras del futuro

Paul Scharre, un analista de defensa que trabajó en el Pentágono, acaba de publicar un libro en el que detalla los peligros de las armas autónomas del porvenir

Foto: Los ejércitos disponen de armas cada vez más automatizadas y muchos expertos ya se plantean si hay que establecer límites (Fuente: Wikimedia Commons)
Los ejércitos disponen de armas cada vez más automatizadas y muchos expertos ya se plantean si hay que establecer límites (Fuente: Wikimedia Commons)

"Estamos de acuerdo en que la decisión de llevarse una vida humana nunca debería delegarse en una máquina. [...] Estigmatizar e impedir una carrera armamentística de este tipo debería ser una prioridad para la seguridad nacional y mundial”. Elon Musk, Jaan Tallinn (cofundador de Skype), los tres creadores de DeepMind (una puntera empresa de inteligencia artificial propiedad de Google) y otros 2.500 investigadores firmaron recientemente una petición para pedir que los gobiernos frenen el avance de las armas letales autónomas. Y no es la primera vez que decenas de expertos luchan con ese fin.

El debate sobre el uso de los llamados robots asesinos ha llegado incluso a Naciones Unidas, donde en agosto se retomarán las conversaciones para abordar sus desafíos. “Creo que es absolutamente fundamental empezar a pensar sobre esto ahora mismo”, afirma Paul Scharre, investigador principal en el Centro Nacional para una Nueva Seguridad Estadounidense (CNAS), un ‘think-tank’ que trata temas de Defensa. “No creo que haya una carrera armamentística de armas autónomas en marcha hoy en día. [...] Pero veo que estamos en el punto de partida de esa carrera armamentística, hay potencial. Y si es posible, sería bueno evitarla”.

Foto:

Scharre conoce bien el campo. Antiguo ‘ranger’ del ejército estadounidense, trabajó entre 2008 y 2013 en la Oficina de la Secretaría de Defensa del Pentágono, donde desarrolló algunas de las primeras políticas estadounidenses relacionadas precisamente con la autonomía. Ahora, acaba de publicar un libro (‘Army of None: Autonomous Weapons and the Future of War’) para el que ha investigado a fondo los desafíos para controlar las armas del futuro. “Escribí el libro para entender mejor cómo los ejércitos están tratando de resolver esto y cuáles son los pros y contras”, explica a Teknautas.

Armas que ya cruzan fronteras

En realidad, la mayoría de países no han compartido sus planes para el desarrollo de armas autónomas. Sin embargo, el Departamento de Defensa estadounidense ha mencionado la autonomía en varias de sus hojas de ruta. Por ejemplo, la de 2011, en la que el propio Scharre colaboró, ya apuntaba que serían necesarias pautas para los sistemas autónomos que aplicaran la fuerza.

“En un futuro previsible, las decisiones sobre el uso de la fuerza y la elección de qué objetivos individuales se relacionan con la fuerza letal se mantendrán bajo control humano en sistemas no tripulados”, destacaba la guía, donde también se mencionaban los beneficios de la automatización (menos carga de trabajo para los humanos, ahorro de tiempo y más velocidad en la toma de decisiones).

Pero, ¿cuál debe ser ese control humano? Uno de los problemas que Scharre apunta en el libro es la falta de acuerdo sobre qué se consideran sistemas armados autónomos, ya que en muchas ocasiones sencillamente se asocian con la imagen de Terminator.

placeholder El presidente francés Emmanuel Macron ante uno de los drones del ejército francés. (Foto: Reuters)
El presidente francés Emmanuel Macron ante uno de los drones del ejército francés. (Foto: Reuters)

Él parte de que lo son aquellas armas en las que el bucle completo (buscar al objetivo, detectarlo, decidir atacarlo y atacar) está automatizado, sin que el humano intervenga en el proceso. “Creo que la tecnología hará factible desarrollar armas autónomas que tengan sus propios objetivos. Pero lo que no tengo claro es qué harán las fuerzas armadas y si elegirán cruzar la línea”, opina Scharre.

De hecho, algunas armas del presente demuestran que las líneas ya no están del todo claras y que cada vez más países están interesados en la automatización de sus sistemas. No en vano, el Departamento de Defensa estadounidense cuenta con más de 7.000 drones y desplegó un total de 6.000 robots terrestres en Irak y Afganistán.

Una investigación realizada por el propio analista indica además que al menos treinta países (entre los que se cuentan Estados Unidos, China, Francia, Alemania, Reino Unido, Rusia, Israel o India) utilizan actualmente sistemas armados autónomos supervisados en barcos, vehículos o bases de defensa. Es decir, cuando se activan, estos sistemas disparan cohetes, misiles o morteros sin intervención humana, si bien los militares vigilan la operación.

Un ejemplo es el sistema antimisiles Aegis de Lockheed Martin. En él, un cerebro inteligente, conectado con los radares de un buque, ataca objetivos terrestres, submarinos o naves para proteger la flota automáticamente cuando detecte amenazas.

placeholder Varios países cuentan en sus flotas con los sistemas antimisiles Aegis (Fuente: Lockheed Martin)
Varios países cuentan en sus flotas con los sistemas antimisiles Aegis (Fuente: Lockheed Martin)

Por otro lado, más de 90 países ya disponen de drones para patrullar los cielos. Aunque la mayoría de ellos se dedica a la vigilancia, Scharre calcula que al menos 16 países ya poseen drones armados (Egipto, Turquía, Arabia Saudí, Emiratos Árabes Unidos, Estados Unidos, Israel o Reino Unido). Entre ellos también figura China, que además provee la mayoría de esos vehículos aéreos no tripulados a los países que deciden adquirirlos.

Aunque hasta el momento es un controlador humano el que da las órdenes desde tierra a los drones, ¿qué ocurrirá si en un futuro es posible prescindir de él y que el arma actúe por sí sola?

Scharre puntualiza que ya hay un dron que él considera completamente autónomo: Harpy, fabricado por la empresa israelí Israel Aerospace Industries y vendido a países como China, India, Corea del Sur o Turquía. Este vehículo aéreo puede permanecer 2,5 horas en el aire buscando sistemas de radar enemigos en un radio de 500 kilómetros, y él mismo decide el objetivo a destruir.

¿Y si los demás desarrollan robots asesinos?

Además de preocuparse por las armas del presente, ya hay quien está reflexionando sobre los peligros de las que están actualmente en desarrollo. Stuart Russell, profesor de la Universidad de California en Berkeley y asesor del Future of Life Institute (la institución que ha publicado esa carta contra las armas autónomas respaldada por Musk y otros muchos expertos) ha mostrado sus recelos por algunos programas de DARPA.

FLA (un programa que está desarrollando algoritmos para conseguir que los drones vuelen autónomamente por habitaciones o pasillos sin comunicarse con el operador) o CODE (un sistema para que las aeronaves no tripuladas trabajen de forma colaborativa “bajo el control de supervisión de una sola persona”) son dos de esos proyectos de la agencia de Estados Unidos dedicada a la investigación militar.

Sin bien ninguno implica necesariamente el desarrollo de armas completamente autónomas, Russell defiende que su impulso parece sugerir que Estados Unidos quiere crearlas. Pero, ¿es ese el objetivo? Para descubrirlo, el propio Scharre ha charlado con investigadores de DARPA o altos cargos del Pentágono. Entre ellos, Robert Work, vicesecretario de Defensa estadounidense de 2014 a 2017.

Work sí ve aceptable que ciertos sistemas de inteligencia artificial elijan sus propios objetivos, pero defiende, al mismo tiempo, que los humanos deberían estar siempre dirigiendo esas armas. Además, descarta que Estados Unidos pretenda desarrollar armas con inteligencia artificial general capaces de “mejorar su propio código” y tomar decisiones por su cuenta. Pese a ello, admite que otros países podrían desplegar algunas que “decidan a quién atacar, cuándo atacar y cómo atacar” por sí mismas, y si Estados Unidos estuviera en desventaja, tendrían que “reconsiderar su postura”.

placeholder Robert Work junto al barco autónomo del ejército estadounidense desarrollado por DARPA 'Sea Hunter'. (Foto: Reuters)
Robert Work junto al barco autónomo del ejército estadounidense desarrollado por DARPA 'Sea Hunter'. (Foto: Reuters)

De hecho, mientras Estados Unidos o Reino Unido comparten al menos algunos de sus planes (tras una polémica, el Gobierno británico negó tener sistemas armados autónomos en 2016 y dijo no tener “intención de desarrollarlos o adquirirlos”), o las webs de empresas como Lockheed Martin o BAE muestran los detalles de algunas de sus armas, poco se sabe de otros países.

Entre ellos, Rusia. En concreto, el país eslavo está embarcado en el desarrollo de unos cuantos robots terrestres armados. Uno de ellos es el Uran-9, un tanque robótico controlado de forma remota, dotado de diferentes misiles y que recientemente se ha puesto a prueba en Siria.

En un artículo de 2013, el Jefe del Estado Mayor Ruso, el general Valery Gerasimov, aseguró que “en el futuro cercano se creará una unidad totalmente robotizada, capaz de conducir por sí misma operaciones militares”. “Rusia ha dicho que intentará desarrollar unidades robóticas completas que colocarán en el campo de batalla y que serán capaces de realizar operaciones independientes. Si Rusia lo hace, ¿cómo responderán el resto de países?”, se pregunta Scharre. “Uno de los temores es que tendrán que construir armas autónomas para sobrevivir, quieran o no”.

Así que, aunque este analista considera que la nueva carrera armamentística aún no está en marcha, cree que hay pocas formas de prevenirla. “El problema es que no hay buena forma de probar a otros países que no estás desarrollando armas autónomas”, comenta. “Un arma autónoma que puede determinar su propio objetivo y las armas semiautónomas en las que los humanos están en el bucle parecen las mismas desde fuera, las diferencias están en el código”.

Otro de los altos cargos del Pentágono estaba más preocupado por los drones comerciales que por los robots rusos. Al fin y al cabo, el Estado Islámico lleva tiempo haciendo uso de pequeños multirrotores comerciales o caseros cargados de pequeñas bombas en Siria e Irak.

placeholder Dron usado por el ejército israelí y encontrado en Líbano. (Foto: Reuters)
Dron usado por el ejército israelí y encontrado en Líbano. (Foto: Reuters)

El propio Scharre se percató investigando por su cuenta de lo fácil que es fabricar uno. Lógicamente, esas armas aún no son autónomas (no identifican sus objetivos) pero Scharre se pregunta en ‘Army of None’ si las redes neuronales (algoritmos que imitan el comportamiento de nuestro cerebro), que ya sirven para el reconocimiento de imágenes y que incluso están disponibles ‘online’, no podrán ser utilizadas en un futuro por los grupos terroristas.

“Creo que es un gran problema porque la gente puede acceder a los drones y por separado habrá más autonomía. El problema empeorará porque los drones harán más cosas y podrán usarse varios a la vez para muchos ataques pequeños”, explica Scharre.

placeholder El analista de defensa Paul Scharre lleva años investigando los problemas de las armas autónomas (Fuente: CNAS)
El analista de defensa Paul Scharre lleva años investigando los problemas de las armas autónomas (Fuente: CNAS)

A todo ello se suma, según este investigador, el peligro de la ciberguerra. Por un lado, los enemigos pueden encontrar más vulnerabilidades si los sistemas del ejército están cada vez más conectados. Además, aunque las armas autónomas no tengan por qué ser obligatoriamente más vulnerables, las consecuencias de una intromisión serían mayores. Por otro lado, los avances en inteligencia artificial permitirán a las ciberarmas operar con más autonomía.

La (compleja) lucha para detener las armas

Pese a que su libro aborda los peligros de las armas autónomas, en realidad Scharre considera que la automatización sí puede tener sus ventajas. “Creo que la mejor idea es encontrar formas de combinar humanos y máquinas en sistemas cognitivos que funcionen mejor que las máquinas o los humanos por sí solos. No hay que elegir entre uno y otro, podemos elegir los dos”.

Pero, por su propia experiencia militar, sabe que hay situaciones en las que sería mejor no delegar decisiones a una máquina. Él mismo relata cómo, durante su misión en Afganistán, se encontraron con una niña que los talibanes podrían haber enviado para explorar la zona. Aunque en el marco de la operación podrían haberla disparado, decidieron no hacerlo: optaron por lo moralmente correcto. Sin embargo, las máquinas carecen de ética.

placeholder Uran-9, un tanque robótico ruso (Fuente: Wikimedia Commons)
Uran-9, un tanque robótico ruso (Fuente: Wikimedia Commons)

“Creo que es importante el rol humano en la guerra para tomar decisiones y para mantener la responsabilidad en el uso de la fuerza en el campo de batalla”, defiende. No es el único que lo piensa. Él mismo ha hablado con numerosos expertos en profundidad sobre la ética de las armas autónomas.

Entre ellos, varios de los promotores de la campaña Stop Killer Robots. Formada por organizaciones de una treintena de países, reclama “una prohibición amplia y preventiva del desarrollo, la producción y el uso de armas completamente autónomas” a través de mecanismos como un tratado internacional.

Según los cálculos de Stop Killer Robots, 26 países se han mostrado favorables ya a una prohibición completa, si bien muchos de ellos no son potencias militares. “Para la mayoría de estos países apoyar una prohibición no es por proteger a los civiles, es un intento de atar las manos de las naciones más poderosas”, opina Scharre.

placeholder La coalición Stop Killer Robots reclama la prohibición total de las armas autónomas (Fuente: Stop Killer Robots)
La coalición Stop Killer Robots reclama la prohibición total de las armas autónomas (Fuente: Stop Killer Robots)

En 2016, la ONU decidió establecer un grupo de expertos gubernamentales para estudiar los desafíos de las armas que pueden identificar y atacar objetivos sin intervención humana, del que ha tomado parte la coalición Stop Killer Robots.

Pero, ¿se conseguirá llegar a esa prohibición total de las armas autónomas? Scharre cree que las reuniones podrán dar algunos frutos, pero no se llegará a ese extremo. “Es casi seguro que no va a pasar la CCW [Convención de Armas Convencionales, por sus siglas en inglés], donde necesita consenso, pero incluso si lo hiciera, es difícil ver cómo esas reglas seguirían siendo viables en tiempos de guerra”, detalla en el libro.

El mundo que estamos creando es uno con máquinas inteligentes, pero no para ellas. Es para nosotros

Así que él plantea otros tres escenarios posibles: prohibir solo las armas que tengan a humanos como objetivo (“la repulsa de la gente podría ser un factor decisivo para conseguir un apoyo político a la prohibición”), desarrollar ciertas directrices para las armas autónomas o establecer un principio muy general en el marco del derecho humanitario internacional sobre el papel que deberían desempeñar las personas.

Ocurra lo que ocurra, Scharre considera que es el momento de que todos comencemos a preguntarnos cuál debe ser el papel del juicio humano en la guerra. “El mundo que estamos creando es uno con máquinas inteligentes, pero no es uno para ellas. El mundo es para nosotros”, concluye su volumen. Así que este experto nos anima a pensar antes de que sea demasiado tarde.

"Estamos de acuerdo en que la decisión de llevarse una vida humana nunca debería delegarse en una máquina. [...] Estigmatizar e impedir una carrera armamentística de este tipo debería ser una prioridad para la seguridad nacional y mundial”. Elon Musk, Jaan Tallinn (cofundador de Skype), los tres creadores de DeepMind (una puntera empresa de inteligencia artificial propiedad de Google) y otros 2.500 investigadores firmaron recientemente una petición para pedir que los gobiernos frenen el avance de las armas letales autónomas. Y no es la primera vez que decenas de expertos luchan con ese fin.

Inteligencia Artificial Reino Unido ONU Afganistán DARPA California Irak
El redactor recomienda