"NO SE DEBE DOTAR DE INTELIGENCIA A LAS ARMAS"

Hawking, Musk, Wozniak y Chomsky firman una carta contra Terminator

Consideran que es una vía especialmente peligrosa para preservar la paz en la Tierra

Foto: Hawking, Musk, Wozniak y Chomsky firman una carta contra Terminator

Expertos en tecnología, científicos como Stephen Hawking y filósofos como Noam Chomsky, entre otros referentes culturales y científicos, firmaron una carta en contra del desarrollo de armas de inteligencia artificial, difundida hoy en un congreso en Buenos Aires.

Centenares de investigadores de todo el mundo rubrican un texto que advierte sobre la aplicación de la inteligencia artificial al desarrollo de armas a nivel global, ya que es "factible" que en cuestión de "años, no décadas" nos encontremos con equipos capaces de seleccionar, fijar y atacar objetivos sin ninguna intervención humana.

"La decisión clave que debe tomar la humanidad hoy es si empezar una carrera armamentística de inteligencia artificial o evitarla. Si algún poder militar principal empuja hacia el desarrollo de armas de inteligencia artificial, esa carrera será virtualmente inevitable y el final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los kalashnikovs del mañana", apuntan en la carta, presentada hoy en el Conferencia Internacional de Inteligencia Artificial.

'La decisión clave que debe tomar la humanidad hoy es si empezar una carrera armamentística de inteligencia artificial o evitarla'

También firman el texto el cofundador de Apple, Steve Wozniak; Elon Musk, presidente de Tesla y SpaceX; y el responsable de inteligencia artificial de Google, Demis Hassabis, entre otros.

"Es cuestión de tiempo que lleguen al mercado negro"

Agregan, además, que sería solo cuestión de tiempo que esas armas terminen en el mercado negro y en manos de terroristas y señores de la guerra, ya que, a diferencia de las armas nucleares, no requieren costosos materiales difíciles de conseguir y se volverían baratas de obtener y de producir masivamente.

Son ideales para tareas como asesinatos selectivos de personas o grupos étnicos o desestabilización de naciones, por lo que los rubricantes recalcan que la inteligencia artificial militar "no sería beneficiosa para la humanidad", pese a que se defiendan ventajas como que minimizarían el número de bajas en las operaciones, lo que no sería enteramente positivo, ya que "hará que baje el umbral por el que merezca la pena ir a la guerra".

'Igual que la mayoría de los químicos o los biólogos, la mayoría de los investigadores en inteligencia artificial no tienen interés en crear armas'

Sí que hay, aseguran, muchas formas en las que la inteligencia artificial puede hacer que los escenarios de conflictos bélicos sean más seguros para los humanos, especialmente para los civiles, sin que haga falta crear nuevas herramientas para matar personas. "Igual que la mayoría de los químicos o los biólogos no tienen ningún interés en desarrollar armas químicas o biológicas, la mayoría de los investigadores en inteligencia artificial no tienen interés en crear armas autónomas."

Al final del escrito, hacen un llamamiento a todos los desarrolladores de inteligencia artificial del mundo, para que se sumen a su postura. "No queremos que nadie empañe este campo construyendo  armas, creando una potencial reacción pública en contra de la inteligencia artificial que pueda cercenar sus beneficios sociales en el futuro". 

Tecnología

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
2 comentarios
Por FechaMejor Valorados
Mostrar más comentarios