EEUU acelera el desarrollo de robots asesinos 100% autónomos
Según varios expertos, EEUU y la OTAN están acelerando el desarrollo de armas letales totalmente autónomas para no perder la ventaja contra China y Rusia
El ejército de EEUU está intensificando su compromiso con el desarrollo y uso de armas autónomas, como lo confirma una actualización de una Directiva del Departamento de Defensa. La actualización, publicada el 25 de enero de 2023, es la primera en una década que se centra en las armas autónomas con inteligencia artificial. Sigue un plan de implementación relacionado, publicado por la OTAN el 13 de octubre de 2022, que tiene como objetivo preservar la "ventaja tecnológica" de la alianza en lo que a veces se denomina "robots asesinos".
Ambos anuncios reflejan una lección crucial que los militares de todo el mundo han aprendido de las recientes operaciones de combate en Ucrania y Nagorno-Karabaj: La inteligencia artificial armada es el futuro de la guerra.
“Sabemos que los comandantes ven un valor militar en las municiones merodeadoras en Ucrania”, dijo Richard Moyes, director de Artículo 36, una organización humanitaria enfocada en reducir el daño de las armas, me dijo en una entrevista. Estas armas, que son un cruce entre una bomba y un dron, pueden flotar durante prolongados períodos mientras esperan que aparezca su objetivo. Por ahora, estos misiles semiautónomos generalmente son operados por un humano con un control significativo sobre las decisiones clave, dijo.
Presión de guerra
Pero a medida que aumentan las bajas en Ucrania, también aumenta la presión para lograr ventajas decisivas en el campo de batalla con armas totalmente autónomas: robots que pueden elegir, cazar y atacar a sus objetivos por sí mismos, sin necesidad de supervisión humana.
Este mes, un fabricante ruso clave anunció planes para desarrollar una nueva versión de combate de su robot de reconocimiento Marker, un vehículo terrestre no tripulado, para aumentar las fuerzas existentes en Ucrania. Ya se están utilizando drones completamente autónomos para defender las instalaciones energéticas de Ucrania de otros drones. Wahid Nawabi, director ejecutivo del contratista de defensa de EEUU que fabrica el semiautónomo dron semiautónomo Switchblade, dijo que la tecnología para convertir estas armas en armas completamente autónomas está ya a nuestro alcance.
'Android Technology' and the 'Foundation for Advanced Research' (FPI) test the Marker UGV carrying out patrol duties at the Russian spaceport (Vostochny Cosmodrome). #ugv #unmanned #uncrewed #robotics #russianfederation #combat #patrol #security #autonomy #autonomousvehicles pic.twitter.com/jbIX7GQPzU
— Melanie Rovery (@MelanieRovery) October 8, 2021
Mykhailo Fedorov, ministro de transformación digital de Ucrania, ha argumentado que las armas totalmente autónomas son el “siguiente paso lógico e inevitable” en la guerra y recientemente dijo que los soldados podrían verlas en el campo de batalla en los próximos seis meses.
Los defensores de los sistemas de armas totalmente autónomas argumentan que la tecnología mantendrá a los soldados fuera de peligro manteniéndolos fuera del campo de batalla. También permitirán que las decisiones militares se tomen a una velocidad sobrehumana, lo que permitirá mejorar radicalmente las capacidades defensivas.
Actualmente, las armas semiautónomas, como las municiones merodeadoras que rastrean sus objetivos para eliminarlos, requieren un humano en el proceso. Pueden recomendar acciones pero requieren que sus operadores las inicien.
Por el contrario, los drones totalmente autónomos, como los llamados “cazadores de drones" ahora desplegados en Ucrania, pueden rastrear y desactivar vehículos aéreos no tripulados día y noche, sin necesidad de intervención del operador y más rápidamente que los sistemas de armas controlados por humanos.
Necesitamos un tiempo muerto
A los críticos como La campaña para detener a los robots asesinos han estado abogando durante más de una década para prohibir la investigación y el desarrollo de sistemas de armas autónomas. Apuntan a un futuro en el que los sistemas de armas autónomos estarán diseñados específicamente para atacar a los humanos, no solo a los vehículos, la infraestructura y otras armas. Argumentan que las decisiones en tiempos de guerra sobre la vida y la muerte deben permanecer en manos humanas. Entregarlos a un algoritmo equivale a la última forma de deshumanización digital.
Juntos con la organización Human Rights Watch, La Campaña para detener a los robots asesinos argumenta que los sistemas de armas autónomos carecen del juicio humano necesario para distinguir entre civiles y objetivos militares legítimos. También rebajan el umbral de la guerra al reducir los riesgos percibidos y erosionan el control humano significativo sobre lo que sucede en el campo de batalla.
Las organizaciones argumentan que los militares que están invirtiendo más fuertemente en sistemas de armas autónomos — incluidos EEUU, Rusia, China, Corea del Sur y la Unión Europea — están lanzando al mundo a una nueva carrera armamentista costosa y desestabilizadora. Una consecuencia podría ser que esta peligrosa nueva tecnología caiga en el manos de terroristas y otros agentes fuera del control de los gobiernos.
La directiva actualizada del Departamento de Defensa trata de abordar algunas de estas preocupaciones clave. Declara que EEUU utilizará sistemas de armas autónomos con “niveles apropiados de juicio humano sobre el uso de la fuerza.” Pero Human Rights Watch respondió con una declaración que afirma que la nueva directiva no aclara qué significa la frase "nivel apropiado" y no establece pautas sobre quién debe determinarlo.
Como dice Gregory Allen, — un experto del think tank de defensa nacional y relaciones internacionales Centro de Estudios Estratégicos e Internacionales, argumenta — el lenguaje del Pentágono establece un umbral inferior que el “control humano significativo” exigido por los críticos. La redacción del Departamento de Defensa, señala, permite la posibilidad de que en ciertos casos, como con aviones de vigilancia, el nivel de control humano considerado apropiado “puede ser poco o nada”.
La directiva actualizada también incluye un lenguaje que promete el uso ético de los sistemas de armas autónomos, específicamente al establecer un sistema de supervisión para desarrollar y emplear esta tecnología, e insistiendo en que las armas se utilizarán de acuerdo con las leyes de guerra internacionales existentes. Sin embargo, Moyes señala que el derecho internacional actualmente no proporciona un marco adecuado para comprender, y mucho menos regular, el concepto de autonomía de las armas.
El marco legal actual no deja claro, por ejemplo, que los comandantes sean responsables de comprender qué activarán los sistemas que utilizan o que deben limitar el área y el tiempo durante el cual operarán esos sistemas. “El peligro es que no hay una línea clara entre donde estamos ahora y donde estaremos aceptando lo inaceptable”, dijo Moyes.
¿Equilibrio imposible?
La actualización del Pentágono demuestra un compromiso simultáneo con el despliegue de sistemas de armas autónomos y con el cumplimiento del derecho internacional humanitario. Queda por ver cómo Estados Unidos equilibrará estos compromisos, si es que tal equilibrio es posible.
El Comité Internacional de la Cruz Roja, custodio del derecho internacional humanitario, insiste en que las obligaciones legales de los comandantes y operadores “no se puede transferir a una máquina, algoritmo o sistema de armas”. En este momento, los seres humanos tienen la responsabilidad de proteger a los civiles y limitar los daños de combate asegurándose de que el uso de la fuerza sea proporcional a los objetivos militares.
En caso de que se desplieguen armas inteligentes en el campo de batalla, ¿quién será considerado responsable cuando se produzcan muertes civiles innecesarias? Todavía no hay una respuesta clara a esa pregunta tan importante.
—
Este artículo ha sido traducido y publicado en Novaceno con licencia Creative Commons. Puede leer el artículo original aquí.
El ejército de EEUU está intensificando su compromiso con el desarrollo y uso de armas autónomas, como lo confirma una actualización de una Directiva del Departamento de Defensa. La actualización, publicada el 25 de enero de 2023, es la primera en una década que se centra en las armas autónomas con inteligencia artificial. Sigue un plan de implementación relacionado, publicado por la OTAN el 13 de octubre de 2022, que tiene como objetivo preservar la "ventaja tecnológica" de la alianza en lo que a veces se denomina "robots asesinos".