Es noticia
La IA irrumpe en la guerra entre Israel y Hamás, y es el inicio de un gran problema
  1. Tecnología
Cada vez es más difícil creer la realidad

La IA irrumpe en la guerra entre Israel y Hamás, y es el inicio de un gran problema

La imagen del cadáver de un bebé israelí calcinado se ha viralizado, rodeada de acusaciones de haber sido creada por una IA. El episodio es un reflejo del gran problema que ya están creando estas herramientas

Foto: El preso palestino Hisham Abu Hawash, retenido por Israel, en una videollamada tras poner fin a su huelga de hambre en 2022. (Reuters/Mussa Qawasma)
El preso palestino Hisham Abu Hawash, retenido por Israel, en una videollamada tras poner fin a su huelga de hambre en 2022. (Reuters/Mussa Qawasma)

La semana pasada, una fotografía en la que aparecía el cadáver de un bebé israelí calcinado dio la vuelta al mundo en las redes sociales. Lo hizo mientras se extendía la acusación de que Hamás, supuestamente, había asesinado y decapitado a 40 bebés, algo que nadie ha podido demostrar o confirmar por ahora y se ha convertido en uno de los primeros bulos del conflicto. "¿Queréis pruebas fotográficas de bebés judíos muertos? Aquí están", escribió en X —la red social antes conocida como Twitter— el analista y escritor Ben Shapiro, también judío, que adjuntaba la imagen del cuerpo sin vida de un menor.

En el momento de escribir estas líneas, el tuit acumula más de 16 millones de visualizaciones. Sin embargo, la respuesta del influencer y comentarista político Jackson Hinkle ha tenido algo más de recorrido. "¡Es una imagen falsa creada por inteligencia artificial!", le acusó. Como prueba, adjuntó un pantallazo del resultado que le había dado Optic AI or Not, un conocido detector de fotos sintéticas (es decir, las creadas por IA). A partir de ahí, comenzaron a cruzarse varias acusaciones de mentiroso, mientras que algunos usuarios lanzaban un aviso: habían probado con la misma foto en la misma herramienta y el resultado era que se trataba de una fotografía real o que había dudas.

Lo cierto es que se trataba de una foto sin ningún elemento sospechoso. Además, había sido difundida, junto con otras similares, por el propio Gobierno de Israel y su presidente, Benjamín Netanyahu, en sus redes sociales oficiales. El episodio es un reflejo de uno de los grandes problemas que vienen asociados al desarrollo de la IA generativa, que es la creación de contenido totalmente falso prácticamente imposible de distinguir del que no lo es.

Foto: Cybergym, un centro de formación en ciberguerra de la Israel Electric Corporation. (Reuters/Ronen Zvulun)

Por supuesto, la manipulación de imágenes ha existido siempre, pero ahora se añaden dos problemas: es casi imposible de detectar y está al alcance de cualquiera. Es algo que, tras el boom de los últimos meses, ha sido generalmente aceptado, hasta el punto de que la reacción habitual esté empezando a ser dudar de todo lo que se ve en internet.

Nadie sabe (por ahora) detectar la IA

El problema de fondo es que cada vez es más difícil detectar las creaciones de la IA y, lo peor, es que no parece que se pueda hacer nada a nivel técnico. De hecho, el nombre de Optic AI or Not había circulado por grandes periódicos, como The New York Times o The Wall Street Journal, como ejemplo de que sí era posible detectar estas fotos inventadas por un software. La empresa, eso sí, no ha dado nunca detalles de qué le lleva a dictaminar la falsedad o autenticidad de una determinada imagen.

Se trata de una de las muchas propuestas que están intentando desarrollar un software capaz de detectar lo que genera la inteligencia artificial. Sin embargo, sus limitaciones siguen siendo muy grandes. Es algo que se ve en casos como el de Mayachitra o Huggin Face AI Detector. En el ámbito académico, hay quien ya ha estudiado los patrones de plataformas como Stable Diffusion, como es el caso de estos investigadores italianos de Nvidia y la Universidad de Nápoles, que no han conseguido aclarar gran cosa.

placeholder Foto: Reuters/Amr Abdallah Dalsh.
Foto: Reuters/Amr Abdallah Dalsh.

"La mayoría de estas herramientas automatizadas ingiere un montón de imágenes que son reales y otras que se generan con IA. Así, entrenan otro sistema para aprender la diferencia. Su funcionamiento no es explicable, porque son cajas negras que dan una respuesta", ha explicado Hany Farid, profesor de la Berkeley School of Information de la Universidad de California, uno de los mayores expertos en manipulaciones digitales.

Ni siquiera él se atreve a dar ya un veredicto. Según ha explicado en declaraciones a 404Media, estuvo haciendo pruebas con sus propias herramientas para identificar si la foto del bebé calcinado era artificial o no. Le indicaban que era original, pero no cree que se pueda tomar como la prueba definitiva. Por ahora, solo se ha limitado a comentar que, aparentemente, no hay indicios de que haya sido creada por IA. "Cuando miras estas cosas, es necesario que haya una serie de pruebas. No puedes simplemente presionar un botón para obtener una respuesta. No funciona así", ha explicado, remarcando que "hay que razonar sobre la imagen en su totalidad".

La alternativa es fiarse del propio sentido de la vista, aunque tampoco sea un método completamente resolutivo (ninguno lo es). Por ejemplo, Farid ha observado que la IA generativa tiene problema para seguir formas muy rectas o estructuradas y, en el caso en cuestión, todos los elementos de este tipo parecían ser reales. En otros casos, los consejos habituales suelen ser fijarse en la disposición de las extremidades no es raro ver manos de seis dedos o las facciones de la cara, o la iluminación, donde acostumbra a haber fallos evidentes, por ejemplo, en las sombras. Aquí hay que recordar que los modelos de IA ofrecen un resultado basándose en las peticiones de cada usuario y los datos con los que han sido entrenadas, no en un razonamiento lógico, algo que explica estas disociaciones.

Foto: Foto: EFE/Kai Försterling.

Sea como sea, prácticamente todo el mundo está de acuerdo en que la velocidad que está alcanzando la inteligencia artificial generativa hace casi imposible que otro software pueda darle caza. "Cuando tenga en cuenta los pequeños defectos de la vida real, ni siquiera valdrá fijarse en detalles", contaba hace unos meses el fotógrafo turco Alper Yesiltas en conversación con este periódico. En su caso, lleva meses indagando sobre las posibilidades de creación con IA y, tras combinar diferentes técnicas y herramientas, ya era capaz de crear una imagen falsa completamente indetectable.

El problema va más allá de la IA

En cualquier caso, la inteligencia artificial aborda únicamente la creación de contenido, que es solo una parte de esta problemática. La otra está en la difusión, un aspecto igual de controvertido. Desde hace años, las redes sociales han sido cuestionadas por su papel en la proliferación de información falsa —sea creada por IA o por humanos— en sus plataformas. Es algo que hizo que la Comisión Europea comenzara a tomar el asunto en serio a partir del año 2016. De ahí surgió la Ley de Servicios Digitales, que trasladaba una mayor responsabilidad a las tecnológicas sobre el contenido que alojan.

La guerra entre Israel y Hamás no ha sido una excepción, donde estos días se han viralizado imágenes antiguas o de videojuegos como actuales o reales en los dos bandos. Es lo que provocó que el comisario de Mercado Interior de la Unión Europea, Thierry Breton, enviara una serie de "cartas urgentes" a las grandes plataformas a las que señaló por su especial relevancia; entre ellas, Meta, TikTok o X. En ella, se les pedía que aclararan qué estaban haciendo para evitar esto, asegurando tener información de que "se estaba usando para difundir contenido ilegal y desinformación", dándoles 24 horas para responder.

En ese tiempo, tanto Meta como TikTok han lanzado sus informes para tratar de aclarar este punto. La respuesta del dueño de X, Elon Musk, ha sido un tanto distinta. "Nuestra política es que todo sea de código abierto y transparente, un enfoque que sé que la UE apoya. Por favor, enumere las violaciones de contenido para que el público pueda verlas", ha respondido Musk, que exigió al regulador europeo que el canal para entenderse con él fuera la plataforma de su propiedad. "¡No sé de qué está hablando!", dijo después.

El problema es que la respuesta que puede dar Musk a las instituciones europeas es escasa. Según The Information, pocos meses antes de que volviera a estallar el conflicto en Gaza, X decidió dejar de utilizar el software que se empleaba para identificar desinformación, algo que llegaba después de haber acabado con la práctica totalidad de los equipos de moderación de contenidos.

Desde entonces, una de sus bazas para combatir la desinformación en X han sido las llamadas notas de la comunidad, con las que los propios usuarios pueden dar contexto a cada publicación, con un funcionamiento muy similar al de Wikipedia. Lo ocurrido con la foto del bebé calcinado ha mostrado cómo, en un contexto de confusión, no han servido de ayuda, sino más bien lo contrario. Al principio, estas anotaciones decían que la foto del bebé calcinado era falsa, ya que era lo que indicaba según el detector. Días después, ese comentario desapareció de la publicación original y, en la del desmentido, pasó a señalar que sí se trataba de una imagen real.

La semana pasada, una fotografía en la que aparecía el cadáver de un bebé israelí calcinado dio la vuelta al mundo en las redes sociales. Lo hizo mientras se extendía la acusación de que Hamás, supuestamente, había asesinado y decapitado a 40 bebés, algo que nadie ha podido demostrar o confirmar por ahora y se ha convertido en uno de los primeros bulos del conflicto. "¿Queréis pruebas fotográficas de bebés judíos muertos? Aquí están", escribió en X —la red social antes conocida como Twitter— el analista y escritor Ben Shapiro, también judío, que adjuntaba la imagen del cuerpo sin vida de un menor.

Internet
El redactor recomienda