Es noticia
Un 'radar' para identificar objetivos: quién está detrás de la polémica IA que usa Israel en Gaza
  1. Tecnología
ASÍ ES HABSORA

Un 'radar' para identificar objetivos: quién está detrás de la polémica IA que usa Israel en Gaza

Tel Aviv está utilizando una herramienta llamada The Gospel para dar con objetivos militares ocultos entre los civiles, pero sus fallos han hecho que se convierta en "una fábrica de asesinatos masivos"

Foto: Un soldado israelí, en una zona devastada en la Franja de Gaza. (EFE/Pablo Duer)
Un soldado israelí, en una zona devastada en la Franja de Gaza. (EFE/Pablo Duer)
EC EXCLUSIVO Artículo solo para suscriptores

La inteligencia artificial está mostrando una de sus caras más letales en Gaza. Desde el ataque de Hamás del 7 de octubre, las Fuerzas de Defensa de Israel (IDF, por sus siglas en inglés) han estado empleando Habsora —El Evangelio en castellano o The Gospel en inglés—, una herramienta de IA que les señala los supuestos objetivos militares a los que atacar, aunque estén ocultos entre civiles. El problema es que ese sistema está demasiado lejos de ser perfecto, hasta el punto de estar provocando la muerte de ciudadanos que nada tienen que ver con Hamás, pero a los que se identifica como tales.

Sin embargo, sigue sin quedar del todo claro quién está tras ese software, aunque hay claros sospechosos. Se trata de Palantir, Booz Allen Hamilton y Anduril Tech, que son las únicas grandes compañías de tecnología militar que han apoyado públicamente a Israel. "En el mundo moderno, la defensa es hardware, más software, más IA. Eso se traduce en cómo identificas un objetivo, qué munición necesitas para enfrentarte a él, si puedes hacerlo con seguridad...", deslizaba el consejero delegado de la primera, Alex Karp, el pasado fin de semana durante el Foro Reagan de Defensa Nacional.

El hecho de que apenas horas después de las revelaciones de Habsora hiciera estas declaraciones no fue lo único que levantó las suspicacias sobre su papel. Karp también cargó contra las tecnológicas estadounidenses que no han apoyado de una forma más activa a Israel. "Estamos fracasando de forma abismal a la hora de enfrentarnos a la gente que es antiamericana", disparó.

"De alguna manera, la élite empresarial de este país piensa que cuando es el momento de hacer dinero, hay que actuar. Y que cuando es el momento de actuar, hay que irse a jugar al golf". En sus palabras, por cierto, también ponía de relieve el posicionamiento de Booz Allen Hamilton y Anduril Tech, ambas con cometidos y productos similares a los de Palantir.

Es lo que ha hecho que muchos piensen que estas empresas han tenido un papel relevante en el desarrollo de The Gospel, aunque cabe recordar que Israel también tiene capacidades importantes en este campo. La tecnología —y, particularmente, la rama militar– es uno de los puntos más fuertes de la industria israelí. Ahí está el caso de la Cúpula de Hierro, un escudo antimisiles que lleva en funcionamiento desde 2011 y fue creado por Rafael Advanced Defense Systems, empresa estatal y una de las más punteras del país. En los últimos dos meses, su funcionamiento ha sido clave para evitar ataques.

Sin embargo, la efectividad de ese sistema está lejos de lo que se ha revelado sobre Habsora. Fuentes militares citadas por The Guardian y 972 Magazine señalan que en la IDF "no están siendo quirúrgicos" a la hora de atacar los verdaderos objetivos militares. Pese a que Israel ha estado durante años desarrollando estas herramientas —por ejemplo, en la guerra de 11 días, en mayo de 2021, ya usó aprendizaje automático—, estas no están siendo precisas para atacar objetivos militares y están sirviendo para señalar a civiles. En expresión de los funcionarios, se ha convertido en "una fábrica de asesinatos masivos".

Foto: Un trabajador comprueba una cámara de vigilancia en Shanghái, China. (Reuters/Aly Song)

Hace unas semanas, la IDF publicaba un post en el que explicaba que Habsora se utiliza para "identificar objetivos a un ritmo rápido" a través de "la extracción rápida y automática de inteligencia". En total, se habrían recopilado datos de entre 30.000 y 40.000 sospechosos a través de distintas técnicas, que van desde la obtención de información a través de redes sociales o cámaras de vigilancia, así como fuentes estatales o de inteligencia. Es decir, lo mismo que llevan años haciendo Palantir y otras empresas en EEUU a través de contratos con el Departamento de Seguridad Nacional, solo que aquí el fin va mucho más allá de identificar delincuentes y sirven para elaborar listas de personas a las que consideran lícito atacar.

"Israel siempre ha dicho que la IA les facilita el trabajo, pero estamos viendo que no es así", comenta Vicente Aguilera, director de la consultora Internet Security Auditors, que considera que "dejar en manos de un proceso automático una decisión tan crítica como acabar con vidas humanas solo puede ser un error". Este especialista remarca la dificultad de reconocer objetivos de Hamás o la Yihad ocultos entre civiles, algo que no quita que "digan que Habsora puede detallar hasta dónde viven los sospechosos". El problema es que hay demasiadas evidencias de los sesgos en los que incurre este tipo de sistemas. "Por ejemplo, está demostrado que fallan más con afroamericanos y asiáticos que con el resto", agrega.

placeholder El primer ministro de Israel, Benjamín Netanyahu. (Reuters/Abir Sultan)
El primer ministro de Israel, Benjamín Netanyahu. (Reuters/Abir Sultan)

De hecho, la propia Palantir ha sido cuestionada desde hace años por los distintos fallos y problemas que ha generado su tecnología. Sin embargo, eso no evitó que se llevara unas jugosas contrataciones públicas, ayudada por el propio Donald Trump y toda una estrategia de lobby capitaneada por el fundador de la compañía, Peter Thiel.

Habsora, según dijeron, cuenta con una verificación humana, de modo que tenga que coincidir su visión con la de la IA antes de efectuar el ataque. Es así como, de acuerdo con lo publicado, se habrían acabado atacando objetivos civiles inocentes. "Aun dando por cierta esa verificación, en un contexto como ese dudo que alguien pueda tener los datos necesarios para tomar una decisión informada sobre el objetivo", defiende Aguilera sobre este punto.

Esto ya ha pasado antes en Ucrania

Las herramientas de IA ya habían sido probadas antes sobre el terreno, aunque se desconoce si también se habían aplicado sobre objetivos militares camuflados entre civiles. En concreto, en Ucrania, que también se convirtió en un laboratorio en el que poner a prueba a escala real la última tecnología que lanzaban las empresas de defensa. De hecho, la inteligencia artificial de Palantir ha estado presente desde los inicios del conflicto a través de EEUU y los miembros de la OTAN.

Allí, este software les permite tener información en tiempo real de todo lo que ocurre en el campo de batalla para tomar decisiones sobre la marcha. Eso implica integrar todo, desde la tecnología de un caza a un dron, pasando por una batería antiaérea o un submarino.

Foto: Alex Karp, de Palantir, en Feindef 2023. (Sergio Beleña)

"La cuestión es qué va a pasar con esta tecnología. Cada vez se está probando más en escenarios reales y a escala masiva", recuerda Aguilera, que tiene claro por dónde pueden ir los tiros. "Estoy seguro de que el sistema se acabará vendiendo a otros países, porque les va bien que se hable de ellos. Tendrá sus detractores, pero también habrá quien lo vea como una ayuda y, aunque no sea preciso, les puede interesar en un momento dado", deja caer, subrayando que "ellos lo venderán como un sistema perfeccionado tras años de entrenamiento".

Karp, el jefe de Palantir, también fue cuestionado por la peligrosidad de estas herramientas el pasado fin de semana. "Es normal que los americanos tengan precauciones, y yo también. Pero la elección está entre que la IA la usemos nosotros o nuestros adversarios", respondió cuando le preguntaron por el miedo que está despertando esta tecnología. Es un planteamiento similar al que defendió durante una entrevista con este periódico, donde remarcaba que estas herramientas no pueden explicar cómo llegan a ciertas conclusiones. "No vas, ni puedes, a arrestar a alguien sin comprender qué datos se usaron y cuáles no", dijo entonces.

La inteligencia artificial está mostrando una de sus caras más letales en Gaza. Desde el ataque de Hamás del 7 de octubre, las Fuerzas de Defensa de Israel (IDF, por sus siglas en inglés) han estado empleando Habsora —El Evangelio en castellano o The Gospel en inglés—, una herramienta de IA que les señala los supuestos objetivos militares a los que atacar, aunque estén ocultos entre civiles. El problema es que ese sistema está demasiado lejos de ser perfecto, hasta el punto de estar provocando la muerte de ciudadanos que nada tienen que ver con Hamás, pero a los que se identifica como tales.

Tecnología militar Inteligencia Artificial
El redactor recomienda