Rusia quiere que sus robots autónomos puedan matar sin ningún control humano
  1. Tecnología
  2. Novaceno
Armas con inteligencia artificial

Rusia quiere que sus robots autónomos puedan matar sin ningún control humano

Moscú es la única nación que se no está de acuerdo en implementar nueva regulación que impida que las armas autónomas tomen la última decisión a la hora de acabar con la vida de un humano

placeholder Foto: El Kargu-2 drone es capaz de lanzar bombas autónomamente. (STM)
El Kargu-2 drone es capaz de lanzar bombas autónomamente. (STM)

Rusia se ha desmarcado del resto de países que apuestan por impedir que las armas autónomas controladas por algoritmos puedan decidir por su cuenta matar a una persona. Ha sido durante la conferencia que la ONU ha organizado estos días para discutir sobre los problemas éticos que suscitan este tipo de tecnologías.

Foto: Las setas como las psilocybes pueden ser claves para la colonización de Marte . (Thomas Angus - Reuters)

Según cuenta el diario británico The Telegraph, el representante ruso ha dicho durante su intervención que no hay "ninguna justificación convincente para imponer nuevas restricciones o prohibiciones". Para Rusia es suficiente con que estos robots cumplan con los principios de necesidad y proporcionalidad como hacen los soldados humanos. Además están convencidos de que los algoritmos actuales son lo suficientemente avanzados como para distinguir perfectamente entre amigos, enemigos y civiles.

"El alto nivel de autonomía de estas armas les permite operar en una situación dinámica de conflicto y en diversos entornos, manteniendo un nivel adecuado de selectividad y precisión”, aseguró el delegado ruso. "Esto garantiza el cumplimiento de las normas [existentes] del derecho internacional humanitario".

Foto: Soldados norteamericanos a punto de comenzar a derribar drones. (Epirus)

Aunque el ataque de un ejercito de robots asesinos parezca el argumento de una película ambientada en un futuro distópico, el peligro de este tipo de armas autónomas es muy real y puede que ya estemos llegando tarde para regularlo. Según un informe del Grupo de Expertos del Consejo de Seguridad de la ONU sobre Libia, un dron Kargu 2 encontró y atacó a un objetivo humano en el país árabe en 2020. De ser cierto, esta sería la primera vez que tenemos constancia de un ataque a un ser humano realizado por uno de estos robots autónomos.

Rusia no es la única nación que está invirtiendo en la implementación de este tipo de armas. Países como Israel, China, Reino Unido, Corea del Sur, Australia o los EE.UU. las tienen también. Y aunque, como señala un informe de Human Rights Watch, algunos de estos países han considerado en el pasado que es muy pronto para empezar a tomar medidas, ahora parecen haber cambiado de idea. Según afirma The Telegraph, todos menos Rusia han mostrado estar de acuerdo con la necesidad de una regulación de este tipo de armas a nivel internacional.

“Un algoritmo no debería decidir quién vive o muere”

La frase sobre estas líneas la ha pronunciado el Dr. Neil Davison, asesor científico y político del Comité Internacional de la Cruz Roja (CICR), en una entrevista para la radio de la BBC. Davison afirma que los sistemas autónomos son peligrosos porque "el usuario no elige realmente contra qué se dispara, cuándo se dispara o dónde se dispara exactamente, por lo que existe un riesgo inherente para los civiles".

La ONG, Human Rights Watch también es muy activa en este asunto y es una de las fundadoras de la Campaign to Stop Killer Robots (Campaña para Detener los Robots Asesinos), en la que participan más de 180 ONGs de 67 países y que aboga por un tratado que mantenga el control humano sobre el uso de la fuerza. Esta ONG ha presentado junto con investigadores del International Human Rights Clinic de la Universidad de Harvard un informe en el que se insta a las naciones a no delegar en las máquinas las decisiones sobre la vida y muerte.

placeholder Activistas de la Campaign to Stop Killer Robots. (REUTERS)
Activistas de la Campaign to Stop Killer Robots. (REUTERS)

"Es necesario ampliar el derecho internacional para crear nuevas normas que garanticen el control humano y la responsabilidad en el uso de la fuerza", afirma Bonnie Docherty, investigadora principal sobre armas en Human Rights Watch y directora asociada de conflictos armados y protección civil en el Human Rights Clinic de Harvard. "Los problemas morales, jurídicos y de seguridad fundamentales que plantean los sistemas de armas autónomas justifican una respuesta firme y urgente en forma de un nuevo tratado internacional".

placeholder El científico inglés James Lovelock. (EFE)
El científico inglés James Lovelock. (EFE)

La cuestión sobre los límites de la inteligencia artificial viene de lejos y su potestad de matar de manera autónoma siempre se ha visto como una línea roja. Uno de nuestros pensadores de cabecera, el prestigioso investigador y futurista James Lovelock, advierte en un capítulo de su libro Novacene —donde especula con un futuro donde las máquinas con inteligencia artificial avanzada se conviertan en una nueva forma de vida que tendrá que coexistir con los humanos—, que el temor a una guerra entre máquinas y humanos al estilo 'Terminator' es muy poco probable. Aunque, según él, la única manera en la que esto podría ocurrir es permitir que las máquinas tengan el poder de decidir sobre la vida o la muerte.

“La noción de permitir la evolución de sistemas informáticos adaptativos en plataformas militares me parece la idea más mortífera que se ha introducido hasta ahora para la sustitución de la vida humana y de otras formas de vida orgánica en la Tierra”, escribe Lovelock en su libro. “Es horrible que nuestros líderes, casi todos ellos completamente ignorantes en asuntos de ciencia e ingeniería, estén fomentando estas armas”.

Tendencias de futuro Inteligencia Artificial Armas de fuego
El redactor recomienda