Es noticia
La inteligencia artificial crea fotos cada vez más reales, pero hay trucos para detectarlas
  1. Tecnología
¿ACABARÁN SIENDO INDISTINGUIBLES?

La inteligencia artificial crea fotos cada vez más reales, pero hay trucos para detectarlas

Las imágenes artificiales del papa con abrigo o Donald Trump esposado han dejado una gran incógnita tras ellas: ¿hay forma de diferenciar cuándo una fotografía es real?

Foto: El papa con un abrigo al estilo Balenciaga, según la IA MidJourney.
El papa con un abrigo al estilo Balenciaga, según la IA MidJourney.

Elon Musk en la plaza madrileña de Callao, el papa vestido con un abrigo al estilo de Balenciaga o Donald Trump detenido en plena calle. Todo son imágenes que han sido creadas a través de herramientas de inteligencia artificial como Midjourney, pero que muchos pudieron creer que eran fotografías reales por una sencilla razón: lo parecían. El acelerón de los modelos de IA ha hecho que la perfección de estas creaciones haya alcanzado un nivel que les hace cada vez más indistinguibles de las reales. Lo que hace meses era una fuente de memes ahora lo es de preocupación. Pero, ¿hay algún método para distinguir una foto real de una generada artificialmente?

Foto: Imágenes hiperrealistas realizadas con la IA Midjourney. (Nick St. Pierre)

Desde hace años, los consejos más habituales para distinguir una imagen real de una generada por la inteligencia artificial pasaban por prestar más atención a elementos como la disposición de las facciones de la cara o las extremidades. También en la propia textura de la piel o en la deformación de ciertos objetos, aunque cada vez que fijarse en ellos con mayor detenimiento.

Por ejemplo, en el caso del papa se podía ver cómo las gafas y el crucifijo hacían una curvatura demasiado sospechosa y, en el de Trump, sus rasgos faciales eran la prueba de que algo fallaba. Cabe recordar que esto ocurre son modelos que están entrenados con grandes cantidades de datos para conseguir un resultado basándose en las peticiones de cada usuario, no en un razonamiento lógico.

"Lo primero en lo que hay que fijarse es en la perspectiva de los diferentes elementos que componen la fotografía, ya que ahí suele haber fallos", comenta Jorge Salgado, fotógrafo y coordinador de la escuela EFTI, que hace hincapié en que la iluminación y los reflejos de los elementos sigue siendo clave, puesto que suelen ofrecer ciertas asimetrías en las sombras.

"Es algo que les sigue costando mucho más que los elementos como el color, porque canta bastante", apostilla este especialista antes de avisar de que, si se trata de fotografías con pocos elementos, "es prácticamente imposible detectar". Esto se debe a que, por ejemplo, el fondo de la imagen puede seguir dando algunas pistas de si se trata de algo real o no. Por ejemplo, pueden aparecer ciertos elementos borrosos o distorsionados, como un banco, una farola o un letrero que incluyan letras o palabras sin sentido o ilegibles.

Foto: La 'streamer' QTCinderella durante el directo sobre los 'deepfake' porno. (Twitch)

El pasado septiembre, una imagen hecha por inteligencia artificial ganó por primera vez un concurso de fotografía en Australia y, precisamente, fue descubierta por estos elementos, aunque no por la organización del certamen. En ella, se podía ver un plano aéreo —supuestamente, tomado por un dron— de dos surfistas que estaban andando por la orilla de mar al amanecer. Todo había sido un experimento del estudio Absolutely AI, que devolvió el premio y explicó que había sido una forma de "demostrar que estamos en un punto de inflexión". No indicó la herramienta utilizada, pero sí que solo introdujeron una sola indicación de texto para obtener el resultado.

En realidad, hubo hasta quien se molestó porque esta opción fuera la escogida, pero sin saber que había sido generada por una IA. "Esto parece más un concurso de iluminación que de fotografía real. Es una gran foto, pero si es un concurso de fotografía, debería estar más apegado a fotos crudas, porque es la verdadera habilidad y es increíblemente difícil", comentó un usuario, aunque otros sí se dieron cuenta de que algo raro había en esa imagen, como la posición y el tamaño de las olas.

"Una foto nunca es perfecta. En las obras fotorrealistas creadas por software, a menudo vemos que se crea una versión perfectamente visualizada de lo que se ha indicado", comenta Alper Yesiltas, un fotógrafo turco que lleva meses indagando con las posibilidades de estas herramientas. "Cuando la inteligencia artificial tenga en cuenta los pequeños defectos de la vida real, ni siquiera eso valdrá", reconoce en conversación con El Confidencial.

Hace unos meses, Yesiltas comenzó un proyecto con el que, gracias a la inteligencia artificial, consiguió representar cómo serían distintas personalidades que fallecieron hace tiempo si hoy siguieran con vida. "Además del fotorrealismo, lo que más me llamó la atención fue la percepción del carácter humano, porque vi que el software no lo tiene en cuenta", detalla sobre esta iniciativa, que no tardó en hacerse viral.

Sin embargo, hizo algunos trucos para poder hacer aún más realista lo que la IA había generado y que da una pista de cómo la combinación de técnicas puede hacer que una imagen falsa llegue a ser prácticamente indetectable. "Utilicé varios programas adicionales para manipular, desde el punto de vista de la fotografía, los resultados de la IA para crear esa sensación de mayor familiaridad", relata, a la par que reconoce que más pronto que tarde ni siquiera hará falta hacer algo así.

Otro punto clave está en la verosimilitud de las imágenes y el propio sentido común. Si lo que estás viendo te resulta poco creíble, seguramente es mejor que eches un vistazo en el resto de internet para comprobar si es una trampa. Por ejemplo, utilizando la búsqueda inversa de Google Imágenes para intentar dar con la fuente original. El problema es que es un proceso que, en un contexto en el que bulos mucho menos trabajados campan a sus anchas, no tiene visos de que vaya a seguir demasiada gente.

Por ahora, todo se está usando con fines humorísticos o artísticos, pero no cuesta pensar que vaya a usarse con esos fines, algo sobre lo que ya han advertido una serie de personalidades del mundo tecnológico, como Elon Musk o Steve Wozniak, cofundadores de OpenAI y Apple, respectivamente. "A pesar de que en los últimos meses los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie ni siquiera sus creadores puede entender, predecir o controlar esto de forma fiable", escribían este miércoles en una carta abierta en la que pedían frenar estos desarrollos hasta que sean más controlados y regulados.

La IA no te va a ayudar (al menos, por ahora)

"Dentro de muy poco, no tengo dudas de que las fotos generadas por IA serán indistinguibles", comenta Yesiltas, el fotógrafo turco, aunque prefiere conceder esperanza. "Sin embargo, preveo que surgirán programas de verificación que nos permitirán comprender si una imagen es real o está generada con inteligencia artificial".

Desde hace tiempo, hay varias propuestas que están intentando desarrollar un software que sea capaz de detectar lo que genera la inteligencia artificial. Sin embargo, sus limitaciones siguen siendo muy grandes, incluso para texto. Solo hay que recordar los fallos que tiene la herramienta creada por OpenAI para detectar textos creados por el propio ChatGPT. Es algo que se ve en casos como el de Mayachitra o Huggin Face AI Detector, que suele fallar cuando se trata de imágenes artificiales más recientes. En el ámbito académico, hay quien ya ha estudiado los patrones de plataformas como Stable Diffusion, como es el caso de estos investigadores italianos de Nvidia y la Universidad de Nápoles, que no han conseguido aclarar gran cosa,

Foto: Foto: Dado Ruvic (Reuters)

"La IA no se limita a reproducir algo que ha visto previamente, por lo que es complicado dar con un sistema que identifique de dónde ha salido cada elemento", explica Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos de la Universidad Nacional de Educación a Distancia (UNED), que expone que por ahora solo puede haber algunos casos en los que sí valgan este tipo de sistemas.

"La excepción es cuando la sugerencia que escribe el usuario es idéntica o muy parecida a alguna descripción de imagen que se ha utilizado en la fase de entrenamiento. En esos casos, sí generará algo muy parecido. De hecho, lo que se está viendo son ejemplos en los que se utiliza intencionadamente una sugerencia que ya se ha visto para demostrar que la IA ha plagiado algo", desarrolla sobre este punto.

Sea como sea, prácticamente todo el mundo está de acuerdo en que la velocidad que está alcanzando la inteligencia artificial generativa hace casi imposible que otro software pueda darle caza. "El problema es que el conocimiento es exponencial, cuanto más aprende, más crece", apunta Salgado, que recuerda algo clave para entender la dificultad de esa tarea: "Los modelos cuentan con mejoras en cuestión de horas".

Elon Musk en la plaza madrileña de Callao, el papa vestido con un abrigo al estilo de Balenciaga o Donald Trump detenido en plena calle. Todo son imágenes que han sido creadas a través de herramientas de inteligencia artificial como Midjourney, pero que muchos pudieron creer que eran fotografías reales por una sencilla razón: lo parecían. El acelerón de los modelos de IA ha hecho que la perfección de estas creaciones haya alcanzado un nivel que les hace cada vez más indistinguibles de las reales. Lo que hace meses era una fuente de memes ahora lo es de preocupación. Pero, ¿hay algún método para distinguir una foto real de una generada artificialmente?

Inteligencia Artificial Innovación Fake News
El redactor recomienda