Musk quiere eliminar los pilotos de combate pero su alternativa nos aboca al desastre global
Musk ha dicho que el F-35 es un fracaso y tiene razón. Aboga por el despliegue de enjambres de drones autónomos controlados por IA, algo que abre la puerta a un escenario apocalíptico a nivel planetario
Elon Musk parece haber olvidado sus temores sobre la inteligencia artificial y su potencial para llevarnos al apocalipsis de una Tercera Guerra Mundial. El director de DOGE—el nuevo departamento fuera del gobierno que supuestamente recortará el ‘gasto excesivo’ de Estados Unidos—afirma que hay que eliminar a los pilotos de combate y sustituir los cazas tripulados como el F-35 Lightning II por enjambres de drones controlados por una mente IA. Sin embargo, en situaciones reales de combate, donde no existe la posibilidad de que los humanos aprueben los ataques gracias a las contramedidas electrónicas enemigas, estos enjambres deberán tomar decisiones letales de manera autónoma. La pendiente resbaladiza a la que esto nos aboca es evidente para cualquiera que haya visto cualquier película de ciencia ficción. Es incontestable que no hay un final feliz para un mundo en el que IAs autónomas controlan armas sin control humano.
A pesar del obvio desenlace, en la mente de ‘enfant terrible’ de Musk los enjambres de drones son una solución superior para el combate aéreo porque son mucho más baratos y supuestamente más eficaces que los cazas furtivos que desea reemplazar. En parte no se equivoca. Ucrania lo ha demostrado con rotundidad en su guerra defensiva contra Rusia, utilizando con éxito estas pequeñas máquinas voladoras para destruir costosos tanques, sistemas de defensa aérea, helicópteros, aviones, unidades de infantería y cualquier cosa que se mueva. Algunos de estos drones están diseñados como robots suicidas, kamikazes que se autodestruyen contra el objetivo para eliminarlo. Otros están diseñados para lanzar bombas pero son desechables, lo que significa que son tan baratos que perder uno no importa demasiado.
El fabricante Lockheed Martin—a quienes Musk llama "idiotas"—defiende que sus aviones son excepcionales y letales. También es cierto pero, objetivamente, el coste de desarrollo y fabricación del F-35 y el F-22 (y de cualquier otro caza o bombardero moderno tripulado) es enorme en comparación con los enjambres de drones. Son máquinas extremadamente caras que requieren extensas pruebas y desarrollo, en parte porque son pilotadas por humanos y en parte debido a sus avanzados sistemas de aviónica, sensores y las numerosas armas que transportan. Los drones, incluso los más caros como los Predator de General Dynamics, son órdenes de magnitud más baratos.
Para hacerse una idea del precio prohibitivo de estas máquinas, cada F-35 cuesta de 80 a 100 millones de dólares dependiendo de la variante —despegue normal o despegue vertical— y tiene un coste operativo de aproximadamente 42.000 dólares por hora de vuelo, siendo superado solo por los 85.000 dólares del F-22, el más caro de todos los aviones de combate existentes. Todo esto sin contar el coste del desarrollo, que también fue pagado por el gobierno norteamericano.
Según la Oficina de Rendición de Cuentas del Gobierno de EEUU (GAO, en sus siglas en inglés), el coste de mantenimiento de la flota de F-35 sigue aumentando, pasando de 1,1 billones de dólares en 2018 a 1,58 billones en 2033. Se proyecta que alcanzará los 2 billones. "Sin embargo, el Departamento de Defensa planea volar el F-35 menos de lo originalmente estimado, en parte debido a problemas de fiabilidad con la aeronave", señala la GAO. "La capacidad del F-35 para cumplir su misión también ha disminuido en los últimos cinco años". A pesar de ello, se ha convertido en el pilar de la superioridad aérea de EEUU: hay unos 630 F-35 y el Pentágono planea adquirir unos 1.800 más hasta 2044. El F-35 también ha sufrido numerosos problemas que han afectado gravemente su historial operativo. Desde su introducción, ha sido retirado de servicio temporalmente en varias ocasiones debido a problemas técnicos con los motores, las líneas de combustible y otros fallos que han comprometido seriamente su preparación para el combate.
Un peligro para la humanidad
Así que sí, Musk tiene razón al decir que el F-35 es un desastre (nota aparte: con los datos en la mano, es increíble que España se esté planteando comprarlos con la que está cayendo en vez de optar por otros aviones que serían mucho mejor para nuestras fuerzas armadas, como el Gripen sueco). Y sí, los drones podrían ser mucho más eficaces en muchos niveles. Pero Musk ignora a propósito el gran inconveniente de su idea: los enjambres de drones controlados por IA necesitan operar en escenarios bélicos reales en los que no tendrán conexión con supervisores humanos y, por tanto, deberán tomar decisiones de vida o muerte de manera autónoma, identificando objetivos y destruyéndolos sin intervención humana alguna.
Según Musk, los enjambres de drones son una mejor opción para las guerras del futuro. Son prescindibles. Pueden ejecutar maniobras que ningún piloto humano podría realizar, soportar fuerzas G más altas y llevar a cabo acciones evasivas que incapacitarían a cualquier piloto. Pueden estar en servicio, patrullando, vigilando y atacando, sin necesidad de pausas ni riesgo de fatiga del piloto. Su coste por unidad es una fracción ridícula del de un F-35, haciendo que las pérdidas sean más que aceptables. El argumento de Musk a favor de los drones se basa en la eficiencia: una flota de drones puede ser producida, desplegada y destruida a un coste mucho menor que el de entrenar y mantener pilotos de élite y cazas multimillonarios.
Sin embargo, la ventaja de la autonomía en un entorno A2/AD (anti-acceso/negación de área) también encierra una trampa mortal para toda la humanidad. Cuando operan en estas zonas, los enlaces de comunicación entre los drones y sus operadores humanos son vulnerables. Las interferencias, la guerra electrónica y las medidas antisatélite obligan a estos drones a entrar en modo totalmente autónomo. Sin supervisión humana en tiempo real, estas máquinas son responsables de identificar amenazas y tomar decisiones de ataque por sí mismas.
Es inevitable que la IA cometa errores. Un enjambre de drones encargado de eliminar una unidad de defensa aérea enemiga, por ejemplo, deberá evaluar su objetivo de forma independiente, lo que podría llevar a identificar erróneamente vehículos civiles o estructuras no combatientes. Neil Davison, antiguo asesor científico y político del Comité Internacional de la Cruz Roja, comentó a Novaceno en una entrevista para el documental Control Z sobre armas autónomas que "es el arma la que desencadena un ataque contra un objeto o una persona. Y ése es el problema humanitario clave". Con la autonomía se pierde la responsabilidad humana en las decisiones de vida o muerte. Estas armas, diseñadas para ser impredecibles con el fin de contrarrestar defensas sofisticadas, no son fiables en la toma decisiones que se alineen con los estándares éticos de la guerra. Davison enfatiza que este tipo de sistemas autónomos impredecibles deben ser prohibidos, especialmente aquellos que operan sin control humano alguno y pueden cambiar su funcionalidad durante su despliegue. Exactamente lo que propone el presidente en la sombra de los EEUU.
Incluso si la IA tuviera un funcionamiento perfecto, surge el problema de que estas mentes sintéticas militares tomarán decisiones en microsegundos para cumplir su directiva principal la victoria contra el enemigo. Los cálculos algorítmicos diseñados para lograr objetivos tácticos sin tener en cuenta la proporcionalidad o las consecuencias estratégicas más amplias pueden escalar rápidamente un conflicto, como explicó Paul Scharre, vicepresidente ejecutivo y director de estudios del Center for a New American Security, para el documental de Control Z: "El ritmo de la acción en el combate eclipsa la capacidad de los humanos para responder". Esto podría llevar a una dependencia de sistemas autónomos que tomen decisiones de ataque preventivo sin intervención humana. Es algo que tanto China como Estados Unidos están explorando activamente.
Estas potencias lideran el desarrollo de la IA para uso militar, incluyendo drones y sistemas autónomos terrestres y marinos. Ambas están a la vanguardia tanto en el desarrollo de capacidades de IA como en la creación de armas como enjambres de drones autónomos. Sin embargo, sus diseños actuales contemplan que estos enjambres sean controlados de cerca por pilotos humanos que vuelan aviones como el F-35 estadounidense y el J-20 chino, que son los que marcarán los objetivos finales. En este caso, los drones actúan como cualquier otro sistema de armas. El humano siempre está al mando, incluso en zonas A2/AD altamente disputadas. La IA se encarga de ejecutar el vuelo y los ataques, sí, pero el piloto es quien, en teoría, aprueba siempre el ataque.
Un futuro oscuro
En otra entrevista para Control Z, Catherine Connolly, directora de investigación sobre decisiones automatizadas de la ONG Stop Killer Robots, nos contó que "todos los sistemas de armas autónomos deben usarse con un control humano significativo", y aquellos que no puedan ser utilizados de esta manera también deberían ser prohibidos. Su afirmación todavía tiene validez hoy y, de hecho, tanto EEUU como China habían estado de acuerdo hasta hace poco.
Pero, a juzgar por los comentarios de Musk, Estados Unidos podría estar avanzando rápidamente en la dirección opuesta. Y lo más terrorífico es que, incluso sin Musk, este camino ominoso puede ser inevitable. La demostración de que las cosas están avanzando en el sentido incorrecto y sin frenos está en la negativa de China a firmar el acuerdo en la cumbre REAIM sobre IA Responsable en el Ámbito Militar de 2024 en Seúl. El acuerdo, respaldado por 61 países, pedía un compromiso para mantener el control humano en acciones relacionadas con el uso de armas nucleares. La abstención de China sugiere que no está interesada en limitar el papel de la IA en la guerra, particularmente en sistemas autónomos potencialmente letales.
Si China toma este camino, no cabe duda de que Estados Unidos hará lo mismo. El Departamento de Defensa estadounidense no puede permitirse quedarse atrás. Quien posea la ventaja en IA tendrá una superioridad estratégica y táctica insuperable en el campo de batalla. Dejar a los humanos fuera de la ecuación es necesario para alcanzar la máxima velocidad de decisión y ganar la guerra.
La trayectoria es más que preocupante. No importa que científicos y pensadores aboguen firmemente contra la adopción de la IA para las armas de cualquier tipo. En un futuro dominado por sistemas militares controlados por IA, donde la toma de decisiones se transfiere de los humanos a las máquinas, el potencial para llegar a un resultado apocalíptico regional o global aumenta de forma exponencial.
Quizás Musk debería leer el último libro de James Lovelock: Novaceno: La próxima era de la hiperinteligencia. El creador de la idea de la Tierra como un organismo autorregulado llamado Gaia creía que la IA podría llevar a la humanidad a una nueva era de luz, felicidad y abundancia. Pero también lanzó una dura advertencia sobre el peligro existencial de permitir que la IA militar evolucione sin control. Es horrible que los líderes de estas potencias, casi todos completamente ignorantes en materias de ciencia e ingeniería, fomenten estas armas, advierte. Estos sistemas autónomos no comprenden las complejas decisiones éticas involucradas en la guerra; solo calculan probabilidades y resultados.
Una vez que se cruce el umbral en el que las máquinas deciden de forma independiente quién vive y quién muere, será difícil, si no imposible, retroceder. Musk puede ver los enjambres de drones como el futuro inevitable y ultraeficiente de la guerra, pero su fabricación más barata y su coste operativo se cobrarán un precio infinitamente más alto para la humanidad. Uno que quizás deje a sus futuros colonos marcianos solos en el cosmos.
Elon Musk parece haber olvidado sus temores sobre la inteligencia artificial y su potencial para llevarnos al apocalipsis de una Tercera Guerra Mundial. El director de DOGE—el nuevo departamento fuera del gobierno que supuestamente recortará el ‘gasto excesivo’ de Estados Unidos—afirma que hay que eliminar a los pilotos de combate y sustituir los cazas tripulados como el F-35 Lightning II por enjambres de drones controlados por una mente IA. Sin embargo, en situaciones reales de combate, donde no existe la posibilidad de que los humanos aprueben los ataques gracias a las contramedidas electrónicas enemigas, estos enjambres deberán tomar decisiones letales de manera autónoma. La pendiente resbaladiza a la que esto nos aboca es evidente para cualquiera que haya visto cualquier película de ciencia ficción. Es incontestable que no hay un final feliz para un mundo en el que IAs autónomas controlan armas sin control humano.