Es noticia
El desastre global que viene si no paramos los nuevos drones IA que ya aparecen en Ucrania
  1. Tecnología
  2. Novaceno
Si no hacemos nada para pararlo

El desastre global que viene si no paramos los nuevos drones IA que ya aparecen en Ucrania

El experto en armas autónomas Vicent Boulanin analiza los sueños de drones inteligentes de Elon Musk y sus consecuencias para EEUU y el mundo

Foto: Un enjambre de HX-2 coordinados entre ellos para atacar. (Helsing)
Un enjambre de HX-2 coordinados entre ellos para atacar. (Helsing)

En 2017, Elon Musk predijo que la inteligencia artificial nos conduciría inevitablemente a la Tercera Guerra Mundial. Sus comentarios evocaron imágenes apocalípticas de robots aplastando cráneos humanos y drones cazando personas al más puro estilo James Cameron. Y con razón, porque ése es exactamente el futuro que nos espera si no tomamos las medidas adecuadas hoy. Pero ahora que le conviene —cuando él y compañías de IA y robótica militar como Palantir y Anduril pueden sacar tajada de su influencia sobre el Presidente electo de los EEUU— el emperador marciano ha cambiado de opinión.

Musk afirma que el F-35 “es un diseño de mierda” Según él, los cazas sólo hacen que los pilotos mueran y que los oficiales de la Fuerza Aérea se lleven a chicas a la cama como si fueran Tom Cruise. En vez de estas máquinas que cuestan cientos de millones dólares por unidad, hay que utilizar miles de enjambres de drones controlados por inteligencia artificial que sólo cuestan decenas. No es la primera vez que Musk expresa opiniones similares. Hace cuatro años, ya argumentó que Estados Unidos debería dejar de fabricar cazas tripulados como el F-35 y centrarse en sistemas no tripulados.

Foto: Captura de un fotograma previo al impacto. (SPECIAL KHERSON CAT)

Es verdad que, potencialmente, los drones serán económicamente más eficientes en el futuro. Y es cierto que la guerra está avanzando en esa dirección. Pero la visión de Musk no se ajusta a la realidad. Los drones autónomos aún están en una etapa inicial de desarrollo y no tienen, ni de lejos, la capacidad operativa de las aeronaves tripuladas. Lo que es peor: su actual y futura capacidad para identificar y atacar objetivos por su cuenta, sin supervisión humana, choca frontalmente con el derecho internacional vigente. Sugerir que Estados Unidos reemplace por completo los cazas tripulados por drones es un salto que plantea serias e ineludibles preocupaciones prácticas y éticas.

Para comentar las palabras de Musk y el futuro de la guerra con máquinas equipadas con IA, hablé por videoconferencia con el Dr. Vincent Boulanin, director del programa de Gobernanza de Inteligencia Artificial en el Instituto Internacional de Investigaciones para la Paz de Estocolmo.

Lo primero que me dijo cuando le pregunté sobre sus vaticinios fue directo a la yugular, elegantemente: “Conviene tomar las predicciones de Elon Musk con cautela.”

placeholder La Dra. Sibylle Bauer, Directora de Estudios de Armamento y Desarme y el Dr. Vincent Boulanin.
La Dra. Sibylle Bauer, Directora de Estudios de Armamento y Desarme y el Dr. Vincent Boulanin.

Vincent Boulanin: El historial de predicciones de Elon Musk no siempre ha sido acertado. Por ejemplo, no hace mucho aseguró que habría un millón de robotaxis para 2020. No veo muchos robotaxis ahí fuera. Creo que, a veces, sus declaraciones son exageradas y generales, quizá demasiado optimistas o simplificadas con fines publicitarios.

Sobre si estamos en camino hacia la autonomía completa, por varias razones diría que no. No creo que la idea de un desarrollo lineal hacia la autonomía total tenga mucho sentido, al menos a corto plazo. Por varias razones, será necesario mantener algún nivel de intervención humana, ya sea por motivos legales, operativos o incluso éticos. Lo más probable es que tengamos un espectro de combinaciones entre humanos y máquinas dependiendo del contexto y el escenario.

Por ejemplo, la autonomía puede ser útil en ciertos contextos, como en conflictos de alta intensidad donde se necesita resiliencia contra interferencias electrónicas o cuando la acción debe ser rápida. En otros escenarios, es imprescindible que los humanos mantengan cierto control, ya sea para tomar decisiones en situaciones cambiantes o para evitar violaciones del derecho internacional humanitario, como en casos donde haya civiles en la zona de conflicto.

EC: Entonces, ¿sugiere que el contexto determinará si un sistema autónomo es viable o seguro de implementar?

VB: Exacto. En algunos contextos, puede ser seguro y legal operar en modo totalmente autónomo, como en operaciones marítimas donde no haya civiles en las cercanías. Sin embargo, en otros casos, la presencia humana será esencial, no sólo para garantizar el cumplimiento de la legalidad vigente, sino también para tomar decisiones en situaciones críticas. Por ejemplo, si es necesario comunicarse con otra aeronave o evaluar rápidamente un entorno complejo.

Sobre el [papel del F-35 como avión coordinador de drones sobre el teatro de operaciones], creo que lo planteaste bien. Se espera que el F-35 actúe como una especie de nave nodriza que pueda operar en conjunto con drones, posiblemente en enjambres o en formaciones mixtas con otros sistemas autónomos no tripulados. Esto no significa que siempre se trate de sistemas homogéneos. Podríamos imaginar plataformas variadas colaborando, algunas tripuladas y otras no. Pero incluso con enjambres, un elemento tripulado podría servir como respaldo en situaciones críticas, ya sea para seguir protocolos de las reglas de enfrentamiento militar o para tomar decisiones rápidas.

En algunos casos, tener humanos en el bucle no sólo es práctico, sino también complementario a las capacidades de las máquinas. Por eso, el equilibrio adecuado entre humanos y máquinas será un desafío clave. Alcanzar una colaboración efectiva entre humanos y sistemas autónomos es un problema complejo que, por ejemplo, la aviación comercial lleva años intentando resolver.

EC: ¿Diría entonces que la autonomía completa aún está lejos, incluso con avances significativos?

VC: Sí. Si vemos la autonomía como una escala del 1 al 10, llegar al nivel 10, donde todo es completamente autónomo, es relativamente sencillo desde el punto de vista técnico. Pero lograr un equilibrio en el nivel 5, donde humanos y máquinas colaboren efectivamente, es lo realmente complicado. Resolver problemas de interacción entre humanos y máquinas sigue siendo un desafío, y lo mismo ocurre con vehículos autónomos. ¿Qué sucede si algo falla? ¿Cuál debería ser el mecanismo de seguridad? Todo esto aún está en fase de investigación.

placeholder Una vista del HX-2. (Helsing)
Una vista del HX-2. (Helsing)

EC: ¿El principal obstáculo para la visión de Musk sería el marco legal internacional, particularmente en cuanto a las reglas de enfrentamiento?

VC: Correcto. El derecho internacional ya establece ciertos límites, aunque cómo se apliquen dependerá del contexto. Por ejemplo, operar de forma totalmente autónoma puede ser legal en algunos casos, pero en otros sería problemático. El marco legal proporciona reglas claras que Estados Unidos debe seguir, pero también entran en juego las necesidades operativas. A veces, incluso los sistemas más avanzados pueden ser inútiles dependiendo de la situación.

Para ilustrarlo, tener un Lamborghini en una carretera en mal estado no permitirá aprovechar su velocidad y probablemente lo dañe. De la misma manera, no siempre es práctico implementar sistemas autónomos si no son adecuados para el contexto operativo.

EC: Cambiando de tema, he leído que China no quiso firmar un documento sobre la regulación de la IA militar. ¿Tiene algún comentario al respecto?

VC: Sí, lo que mencionas es que China no firmó el documento final de la cumbre sobre la Responsabilidad de la IA en el Dominio Militar (REAIM), que es un acuerdo político no vinculante, no un tratado. La primera cumbre fue en los Países Bajos, y la segunda en Corea. China firmó el primer documento, pero no el segundo, posiblemente porque era más sustancial o porque lo percibieron como una iniciativa occidental.

En ese documento se mencionan referencias al control nuclear basado en IA. Además, en una reunión bilateral entre Biden y Xi, ambos reconocieron los riesgos potenciales de integrar la IA en el control nuclear. Aunque no se firmó ningún acuerdo formal, ambos hicieron declaraciones públicas indicando que entendían los riesgos de estas tecnologías en contextos de alta sensibilidad.

placeholder Vista del Fury. (Anduril)
Vista del Fury. (Anduril)

EC: ¿Cómo ha influido la guerra en Ucrania en la percepción global sobre las armas autónomas?

VC: La guerra en Ucrania ha destacado el valor de las plataformas robóticas, especialmente las de bajo coste. En lugar de depender de unos pocos sistemas avanzados como el F-35, este tipo de conflictos demuestra la ventaja de tener muchas plataformas robóticas asequibles, incluso comerciales. Ucrania pierde cientos de drones al día, pero su abundancia cambia las reglas del juego.

Esto ha impulsado a los planificadores militares a valorar más las plataformas robóticas, aunque el debate sobre el grado de autonomía sigue abierto. En términos de regulación, algunos estados se han vuelto más cautelosos sobre cómo abordar estas tecnologías, mientras que otros ven la necesidad urgente de establecer normas durante tiempos de paz para evitar problemas en conflictos futuros.

Lo que la guerra también ha mostrado es cómo, en tiempos de conflicto, los principios generales sobre el uso responsable de la autonomía pueden quedar en segundo plano. Ucrania, por ejemplo, no está pensando en principios regulatorios; simplemente están luchando una guerra [por su supervivencia]. Esto subraya el valor de acordar normas en tiempos de paz, ya que en situaciones de conflicto, los actores tienden a adaptarse rápidamente a lo que necesitan para sobrevivir, incluso si esto implica flexibilizar ciertas reglas o normas.

La ONU ha invitado a los estados a avanzar en este tema, con la esperanza de llegar a un acuerdo sustancial para 2026 en el marco de la Convención sobre Armas Convencionales. Sin embargo, el contenido y el alcance de dicho acuerdo dependerá de las dinámicas geopolíticas, que complican la posibilidad de un tratado vinculante.

Lo que se discute actualmente es un enfoque "escalonado" para la regulación. Esto incluiría dos elementos: uno, definir lo que está prohibido en todos los casos, como sistemas autónomos que cumplan ciertos criterios específicos; y dos, establecer requisitos o limitaciones en el diseño y uso de estas tecnologías. Por ejemplo, garantizar que los sistemas incluyan mecanismos antimanipulación, que los usuarios reciban formación adecuada o que los ejércitos implementen procesos para revisar la seguridad de los sistemas antes de su despliegue.

Ya existe una lista preliminar de ideas acordadas que podría formar la base de este marco, pero aún queda por decidir cuán extensos serán estos requisitos y cuál será su estatus legal. ¿Será solo una declaración política vinculante o logrará convertirse en un instrumento legal? Esto sigue siendo objeto de debate. Además, el panorama geopolítico no facilita las cosas, ya que muchas potencias son reacias a apoyar algo que limite significativamente sus capacidades, especialmente si hay problemas de confianza sobre si otras partes cumplirán con el acuerdo.

En 2017, Elon Musk predijo que la inteligencia artificial nos conduciría inevitablemente a la Tercera Guerra Mundial. Sus comentarios evocaron imágenes apocalípticas de robots aplastando cráneos humanos y drones cazando personas al más puro estilo James Cameron. Y con razón, porque ése es exactamente el futuro que nos espera si no tomamos las medidas adecuadas hoy. Pero ahora que le conviene —cuando él y compañías de IA y robótica militar como Palantir y Anduril pueden sacar tajada de su influencia sobre el Presidente electo de los EEUU— el emperador marciano ha cambiado de opinión.

Defensa Inteligencia Artificial
El redactor recomienda