Es noticia
Los españoles que luchan contra la 'nueva bomba atómica' de Google y el Pentágono
  1. Tecnología
en la campaña 'stop killer robots'

Los españoles que luchan contra la 'nueva bomba atómica' de Google y el Pentágono

Investigadores de la Universidad Autónoma de Barcelona han participado en los debates de Naciones Unidas sobre robots asesinos y luchan contra el acuerdo entre Google y el Pentágono

Foto: Roser Martínez y Joaquín Rodríguez han participado en un grupo de expertos de Naciones Unidas sobre los peligros de las armas autónomas (Universidad Autónoma de Barcelona)
Roser Martínez y Joaquín Rodríguez han participado en un grupo de expertos de Naciones Unidas sobre los peligros de las armas autónomas (Universidad Autónoma de Barcelona)

Colaborar con el Pentágono en un programa de inteligencia artificial ha desatado una tormenta en Google en los últimos meses. Más de 3.000 empleados firmaron una carta dirigida a Sundar Pichai para pedir al CEO que pusiera fin a su participación en el Proyecto Maven. Una docena de empleados dimitieron por su oposición al proyecto, destinado al desarrollo de un sistema para analizar las imágenes captadas por drones. La polémica ha sido tan fuerte que Google habría supuestamente cancelado la renovación de su contrato con el Pentágono, según diversos medios, aunque la compañía aún no lo ha confirmado ni desmentido oficialmente.

Fuera de la compañía, también se han escuchado críticas notables. 1.100 investigadores, entre ellos varias figuras relevantes en el campo de la inteligencia artificial, rubricaban otra misiva para pedir al todopoderoso buscador abandonar el proyecto y comprometerse a no desarrollar tecnología militar ni armas autónomas.

Foto: Elon Musk, fundador de Tesla y SpaceX. (Reuters)

La carta abierta, difundida por el International Committee for Robots Arms Control (ICRAC), una organización sin ánimo de lucro formada por expertos preocupados por los futuros robots militares, también tuvo el apoyo de algunos españoles. Entre ellos, Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC.

Otro de los firmantes ha sido Joaquín Rodríguez, profesor de la Escuela de Prevención y Seguridad Integral de la Universidad Autónoma de Barcelona (UAB). “Con esta nueva colaboración anunciada entre Google y el Departamento de Defensa avanzaríamos en lo que podría ser un nuevo Proyecto Manhattan”, asegura Rodríguez, que compara el acuerdo con el proyecto secreto estadounidense para crear la bomba atómica en la II Guerra Mundial.

“Una compañía de estas dimensiones debería ser más franca con sus clientes y sus accionistas a la hora de especificar a qué tipo de trato se está llegando. Nosotros lo que estamos viendo es que esto sí podría ser el inicio de una carrera armamentística que puede evolucionar muy rápido”, considera este profesor.

placeholder Empleados de Google y expertos en inteligencia artificial han sido muy críticos con la colaboración entre Google y el Pentágono (Ken Yeung | Flickr)
Empleados de Google y expertos en inteligencia artificial han sido muy críticos con la colaboración entre Google y el Pentágono (Ken Yeung | Flickr)

Desde Google han asegurado que tendrán en cuenta la respuesta de los empleados para redactar un conjunto de principios sobre el desarrollo de inteligencia artificial militar. Sin embargo, el Proyecto Maven va más allá de la colaboración con el gigante tecnológico, y las preocupaciones por el desarrollo de armas cada vez más inteligentes también exceden ese controvertido programa.

¿Prohibir las armas autónomas?

Precisamente el ICRAC, la organización que ha difundido esa crítica carta, fue uno de los miembros fundadores de la campaña Stop Killer Robots que se puso en marcha hace ya un lustro. Esta coalición, formada por organizaciones de una treintena de países, reclama “una prohibición amplia y preventiva del desarrollo, la producción y el uso de armas completamente autónomas” a través de un tratado internacional u otras medidas.

Joaquín Rodríguez comenzó a preocuparse por los llamados ‘killer robots’ cuando realizaba su tesis doctoral, precisamente sobre la gobernanza de las nuevas tecnologías. Su directora de tesis era Roser Martínez, profesora de Derecho Administrativo en la UAB y especializada en armamento. Los dos son ahora los únicos miembros españoles del ICRAC.

“Estamos abriendo un escenario en el que puede que algunas de esas fases [en el desarrollo y despliegue de un arma] ya no estén controladas por humanos sino por sistemas autónomos, y esto nosotros entendemos que podría ser una violación de la dignidad humana y de las premisas éticas y legales sobre las que se estructuran ahora mismo los conflictos bélicos”, defiende Rodríguez. “Nuestro sistema de Estado democrático establece que los poderes exorbitantes de este tipo tienen que estar en manos humanas, no en manos de máquinas [...] Lo veo arbitrario e ilegal”, señala Martínez.

La lucha contra los robots asesinos se ha popularizado en los últimos años al conseguir el respaldo del fallecido Stephen Hawking, Steve Wozniak o Elon Musk: los tres firmaron en 2015 otra carta para pedir su prohibición. El CEO de Tesla ha continuado esa cruzada desde entonces: ha alertado de que no reaccionaremos hasta que “veamos robots por la calle matando gente” y ha defendido que la inteligencia artificial en malas manos puede convertirse en “un dictador inmortal del que nunca podríamos escapar”.

placeholder Elon Musk es uno de los magnates más preocupados por el desarrollo de los robots asesinos (Heisenberg Media | Flickr)
Elon Musk es uno de los magnates más preocupados por el desarrollo de los robots asesinos (Heisenberg Media | Flickr)

Naciones Unidas también ha tomado cartas en el asunto. En 2014, se celebró en Ginebra un primer encuentro sobre las implicaciones éticas y humanitarias del uso de sistemas de armas autónomos letales. Dos años después, se estableció un grupo de expertos gubernamentales para estudiar los desafíos de las armas que pueden identificar y atacar a los objetivos sin intervención humana, que celebró su primera reunión hace unos meses.

El embajador de la India ante la Conferencia de Desarme de la ONU, Amandeep Gill, que presidió el grupo, señaló tras la cita que los robots “no están apoderándose del mundo” y que los “humanos todavía están a cargo”. Mientras tanto, desde la coalición Stop Killer Robots criticaban la “falta de ambición” en las conversaciones para tomar medidas antes de que sea tarde.

En abril, el grupo de expertos, con la participación de representantes de los países que de la citada convención (España entre ellos), organizaciones internacionales o instituciones académicas, volvió a reunirse. Los dos profesores de la UAB también han acudido a esas reuniones en Ginebra como miembros del ICRAC y de Stop Killer Robots.

“Nuestro trabajo en Naciones Unidas, además de participar con voz propia, era hablar con los diferentes representantes diplomáticos de los Estados y ver su posición”, comenta Martínez. “Ahora mismo, la parte difícil es que las grandes potencias, países como Estados Unidos o Rusia, trabajen en esta línea del tratado internacional y de instrumentos realmente vinculantes para limitar el desarrollo de esta tipología de armamento”, añade Rodríguez.

Según los cálculos de Stop Killer Robots, 26 países estarían a favor de una prohibición de las armas completamente autónomas. Sin embargo, los ejércitos de varias naciones, entre ellas Estados Unidos, Reino Unido, Israel o China, ya cuentan con drones armados. “Hay pocos países en el mundo con capacidad para desarrollar esos armamentos, y esto lo que producirá es una mayor separación entre los países industrializados ricos y aquellos que no lo son, llevando a unas dinámicas de opresión y de inequidad del mundo que pueden ser más fuertes que las actuales”, opina el profesor de la UAB.

placeholder Roser Martínez durante los debates en Ginebra (Roser Martínez)
Roser Martínez durante los debates en Ginebra (Roser Martínez)

Otra de las cuestiones polémicas que se debatieron en Naciones Unidas fue la necesidad de que los humanos sigan llevando la batuta para evitar que los sistemas autónomos tomen decisiones letales de forma independiente. “Deberían prohibirse armas que no tuvieran un control humano significativo”, opina Martínez.

En cuanto al alcance de esa supervisión obligatoria, las directrices del ICRAC defienden que podría ser aceptable un sistema armado que proponga una lista de objetivos a atacar para que el humano elija uno, si se demuestra que se ha deliberado sobre la decisión. Sin embargo, consideran inaceptable que un programa seleccione un objetivo y un humano lo apruebe antes del ataque (a su juicio, existiría un sesgo) y obviamente también un ataque sin intervención humana alguna.

“La mera investigación en construcción de un paso más de este tipo de máquinas [...] es otro tema controvertido que en poco tiempo vamos a sufrir”, apunta Roser. “Si se desarrollan y el Derecho no está a tiempo de establecer estos controles, va a ser un genocidio, va a ser un desastre, no vamos a poder controlar ni a los Estados democráticos ni a los Estados autoritarios”. La preocupación de esta investigadora incluso va más allá: ¿qué ocurriría si en Estados Unidos los propios ciudadanos reivindicaran su derecho a tener un arma autónoma?

Stop Killer Robots en España

Las conversaciones en Naciones Unidas se reanudarán en agosto y noviembre. “Creo que para el año que viene deberíamos estar elaborando ya algún tratado sobre la materia”, espera la profesora de la UAB. Mientras tanto, este par de investigadores planea seguir trabajando: han escrito dos artículos sobre el tema, que están a la espera de publicación, y están preparando un libro porque consideran importante que la población conozca los problemas que podría acarrear el desarrollo de armas autónomas.

placeholder Uno de los objetivos es concienciar acerca de los riesgos de las armas autónomas (Robot Huffstutter | Flickr)
Uno de los objetivos es concienciar acerca de los riesgos de las armas autónomas (Robot Huffstutter | Flickr)

“Seguimos trabajando para concienciar a la ciudadanía y a los políticos de que no es un futuro de ciencia ficción y que hay que poner regulación de por medio”, reclama Martínez. Con ese mismo objetivo, tienen previsto organizar un acto en Barcelona para presentar la campaña Stop Killer Robots en los próximos meses, junto con otros investigadores y organizaciones implicadas con la campaña, convirtiéndose así en la voz de la iniciativa en España.

“No entendemos que se tenga que investigar en esta tipología de armamento si luego no hay intención real de implementarla. Y sabemos desde la bomba atómica que en el momento que tienes la tecnología disponible, la tentación de usarla, y dependiendo de quién sea el gobernante, puede ser una verdadera catástrofe para el planeta”, sentencia Rodríguez.

Colaborar con el Pentágono en un programa de inteligencia artificial ha desatado una tormenta en Google en los últimos meses. Más de 3.000 empleados firmaron una carta dirigida a Sundar Pichai para pedir al CEO que pusiera fin a su participación en el Proyecto Maven. Una docena de empleados dimitieron por su oposición al proyecto, destinado al desarrollo de un sistema para analizar las imágenes captadas por drones. La polémica ha sido tan fuerte que Google habría supuestamente cancelado la renovación de su contrato con el Pentágono, según diversos medios, aunque la compañía aún no lo ha confirmado ni desmentido oficialmente.

Tecnología militar Inteligencia Artificial Elon Musk Tecnología ONU Bomba atómica
El redactor recomienda