Es noticia
La idea más loca para detectar vídeos creados por IA: imitar el test de Blade Runner
  1. Tecnología
ANALIZA RASTROS DE HUMANIDAD EN TIEMPO REAL

La idea más loca para detectar vídeos creados por IA: imitar el test de Blade Runner

Telefónica está desarrollando una herramienta para detectar 'deepfakes' en tiempo real. Lo ha conseguido con una inspiración peculiar: la mítica película de Ridley Scott

Foto: 'Blade Runner', donde el personaje de Harrison Ford detecta y caza "replicantes".
'Blade Runner', donde el personaje de Harrison Ford detecta y caza "replicantes".

En Blade Runner (1982), los humanos y los replicantes son indistinguibles a simple vista. Sin embargo, hay una forma de diferenciarlos: el test de Voight-Kampff. Este consiste en hacer una serie de preguntas para calibrar la empatía del sospechoso mientras una máquina mide su respiración, pulso o movimientos oculares. Es así como Rick Deckard (Harrison Ford) descubre que Rachael (Sean Young) es una androide, aunque ha estado tan bien entrenada que necesita muchas más preguntas que otros prototipos.

Décadas después, aquel test de Voight-Kampff ha servido para inspirar una solución a uno de los efectos más temidos de la inteligencia artificial: la expansión de los deepfakes. Detrás del proyecto está Ideas Locas, el equipo de innovación de Telefónica dirigido por Chema Alonso, que lleva meses desarrollando esta herramienta, que aún no tiene prevista su comercialización. "Es un mundo muy complejo porque evoluciona muy rápido y para hacer algún tipo de detección hace falta estar muy al día", reconoce Fran Ramírez, miembro de este equipo, en conversación con El Confidencial.

La aplicación que han desarrollado, bautizada como Deep Fake Detector (DFD), no solo permite analizar un determinado vídeo, sino que también se puede utilizar en tiempo real. "Nos preocupaban más ese tipo de amenazas que te pueden llegar por videollamada, y queríamos demostrar que se podían detectar", apunta. Sobre este punto, cabe mencionar que una de las grandes amenazas de esta tecnología es, precisamente, usarla para hacerte pasar por un familiar o un jefe y pasar desapercibido.

Para mejorar sus resultados, no optaron por ningún modelo o técnica, sino que decidieron combinar varios. "Es muy difícil encontrar una herramienta que te dé un alto porcentaje de fiabilidad, y ahí entra nuestra investigación, porque utilizamos entre cinco y seis modelos distintos para ponderar el resultado final. Por ahora, no he visto nada parecido en el mercado", comenta Ramírez, que detalla que también son capaces de identificar hasta qué tecnología se usó para la creación.

Foto: Elon Musk. (Reuters/Gonzalo Fuentes)

En primer lugar, está el modelo HeadPose, desarrollado por ellos mismos y que sirve para analizar los rasgos faciales en tiempo real, buscando anomalías en los distintos movimientos o discrepancias en las asimetrías. A esto se añade una red neuronal entrenada a partir de imágenes de rostros reales y otros generados artificialmente, añadiendo otra capa de filtrado a los resultados. Y, después, otra se encarga de buscar lo que llaman "artefactos", es decir, determinados residuos visuales que pueden probar que se trata de un vídeo sintético.

Por último, y tal y como ocurría en Blade Runner, el análisis del ojo se convierte en una parte fundamental de esta herramienta. Así, usan el Eye Aspect Ratio para medir si el parpadeo entra dentro de los umbrales humanos y otro sistema que detecta la simetría y la forma de los reflejos de cada iris, en busca de inconsistencias. En ocasiones, añaden uno más, enfocado a la voz.

"Esos cinco modelos se ponderan para darte un valor final y decirte que tiene una determinada probabilidad de ser deepfake. Son aproximaciones laterales, fuera de la caja. No solo buscamos artefactos", defiende Ramírez, que resume la tarea del modelo como "comprobar si hace todo como una persona normal". "El ojo humano también es un modelo de detección", recuerda.

Para eso, una de las claves es el tiempo de análisis. "Además de basarse en un solo modelo, muchas herramientas de las que hay disponibles en internet solo se pueden usar con una foto o vídeo corto. La clave es que el método de detección tenga tiempo para analizar", añade, destacando que Deep Fake Detector necesita, al menos, 20 segundos para dar una primera respuesta, pero que estas alcanzan resultados óptimos a partir del segundo o tercer minuto. No es algo que se deba únicamente a las necesidades de cada modelo. "Al ser una animación, el tiempo tiene mucho que ver ahí a la hora de tener una detección fiable, porque tiene más probabilidades de mostrar artefactos", agrega.

El gato y el ratón de la IA

"Entre 2014 y 2018, los deepfakes se sofisticaron muchísimo y ahora han llegado a una nueva fase", explica Pino Penilla Marquínez, analista de ciberamenazas e inteligencia en Babel. Esta etapa no solo se caracteriza por el realismo de estos contenidos, sino también por el fácil acceso a las herramientas de generación. Penilla lleva años estudiando este fenómeno y las distintas técnicas de detección. Además de las utilizadas en Deep Fake Detector, también destaca que ya hay modelos que son capaces de "detectar el ritmo cardiaco y el pulso a través de la estructura ósea".

Aun así, ese perfeccionamiento que acumula la creación de contenido sintético hace que identificarlo sea cada vez más complicado. "Las herramientas suelen trabajar con iteraciones, y cada vez tienen más, algo que hace que cada vez sea mucho más difícil detectarlo. Si tienes 200 iteraciones, lo puedes conseguir, pero si tienes 2 millones, es casi imposible", relata. De hecho, remarca que "los deepfakes se van a centrar más en evadir técnicas de detección que en perfeccionar la imagen, porque ya consiguen resultados muy buenos".

Foto: Foto: Reuters/Danish Siddiqui.

Es decir, es el típico juego del gato y el ratón que suele verse en asuntos relacionados con la ciberseguridad. "Es lo mismo que ocurre con los virus informáticos. Sale uno nuevo y nadie sabe cómo funciona, pero a los pocos días hay una vacuna. Siempre que conseguimos detectar un tipo de deepfake, aparece una técnica nueva que ya no se detecta con el modelo y tenemos que reentrenarlo y jugar con eso", dice Ramírez, de Telefónica, que se muestra optimista sobre este punto, aunque reconoce que es "una carrera sin fin".

Por ejemplo, en las últimas semanas han entrenado el modelo para que fuera capaz de detectar los filtros de belleza de TikTok. "Con un entrenamiento mínimo de unos vídeos, ya lo detecta, y eso se puede hacer con otro tipo de filtros", especifica. Preguntado por un posible lanzamiento comercial de Deep Fake Detector, en Telefónica prefieren no mojarse. "Hay una carrera muy rápida por sacar cosas al mercado, pero falta fundamentarlo y establecer bien cómo hacerlo. Estamos enfocados en mejorarla. De momento, estamos centrados en hacer y construir la mejor herramienta posible, y cuando funcione lo mejor posible, ya hablaremos de otros temas", zanja.

En Blade Runner (1982), los humanos y los replicantes son indistinguibles a simple vista. Sin embargo, hay una forma de diferenciarlos: el test de Voight-Kampff. Este consiste en hacer una serie de preguntas para calibrar la empatía del sospechoso mientras una máquina mide su respiración, pulso o movimientos oculares. Es así como Rick Deckard (Harrison Ford) descubre que Rachael (Sean Young) es una androide, aunque ha estado tan bien entrenada que necesita muchas más preguntas que otros prototipos.

Inteligencia Artificial
El redactor recomienda