Es noticia
¿Zelenski rindiéndose? Los ciberataques que vienen y no vas a poder identificar
  1. Tecnología
LAS CONSECUENCIAS SON IMPREVISIBLES

¿Zelenski rindiéndose? Los ciberataques que vienen y no vas a poder identificar

La Inteligencia de Ucrania asegura que Rusia guarda un as bajo la manga: un 'deep fake' con la rendición de las tropas. Y, más allá de la geopolítica, el desarrollo de esta tecnología debería preocuparte

Foto: El presidente de Ucrania, Volodímir Zelenski, en videoconferencia con el Parlamento británico. (EFE/UK Parliament)
El presidente de Ucrania, Volodímir Zelenski, en videoconferencia con el Parlamento británico. (EFE/UK Parliament)
EC EXCLUSIVO Artículo solo para suscriptores

Noticia de última hora. Volodímir Zelenski se rinde ante las tropas rusas. No es ni un tuit, ni un pantallazo ni nada que pueda sugerir que se trata de un bulo. Se trata de un vídeo en el que el mundo entero puede ver y escuchar cómo el presidente de Ucrania anuncia que Rusia ha ganado la guerra. Después, se suceden imágenes de soldados tirando la toalla. Todo parece haber acabado, pero es mentira. Solo es un 'deep fake' de consecuencias imprevisibles.

Hace unos días, el Ministerio de Defensa de Ucrania advirtió sobre un supuesto plan ruso —no presentaban pruebas— que incluiría esta técnica de guerra digital. "El Departamento de Inteligencia ha recibido informes que apuntan a que podría aparecer la cara del presidente ucraniano. Están advertidos: ese vídeo será una falsificación cuyo objetivo es crear pánico, desorientar, enfadar y reducir a nuestras tropas a la capitulación", explicaba la agencia en un comunicado, donde también ironizaban: "Ya hemos hecho acopio de palomitas y estamos deseando ver esta 'obra maestra' de Rusia".

Foto: El presidente de Rusia, Vladímir Putin, y el de Estados Unidos, Joe Biden, se reúnen durante la cumbre entre Estados Unidos y Rusia de junio de 2021 en Ginebra, Suiza. (Getty/Peter Klaunzer)

"En este tipo de conflictos se busca, sobre todo, dañar la imagen", explica Jesús Domínguez Belinchón, ingeniero informático y jefe de identidad digital en DXC Technology. "Saber de primeras si es falso o no es complicado, por lo que hay que buscar el origen, dónde se ha publicado por primera vez, aunque los atacantes suelen limpiar muy bien su rastro", sugiere. "Si Rusia publica un vídeo de tropas ucranianas rindiéndose y lo publica un medio estatal, el grado de fiabilidad lo puedes poner en duda".

Pero el hipotético plan ruso tendría una parte previa. Sería un ataque a las telecomunicaciones que impediría recibir información a millones de ucranianos que, en esas, serían más que susceptibles de tragarse la campaña. Apenas unas horas después de publicar aquel texto, se produjo el ataque a la torre de televisión de Kiev.

¿Y si lo publicara un medio ucraniano tras un ciberataque o, incluso, una ataque físico? "En ese caso, no hay un plan. Si simulan un telediario porque han cortado la emisión, el verdadero detonante está en otro lado", apunta Domínguez.

Tu jefe también puede no ser tu jefe

No es necesario irse a grandes conflictos internacionales para entender cómo los 'deep fake' pueden ser un problema en tu vida cotidiana. Esta tecnología —que usa técnicas como 'deep face swapping' para el apartado visual o 'deep fake voice cloning' para el auditivo— permite falsificar imagen y vídeo en movimiento, y está alcanzando cada vez una sofisticación mayor.

Como puede imaginar, las posibilidades enrevesadas que ofrece una tecnología así son casi infinitas y, sobre todo, preocupantes. Además de noticias falsas como la mencionada, su uso también se puede pervertir para la extorsión —por ejemplo, vídeos falsos pornográficos— o ataques de suplantación de identidad ('phishing') de todo tipo.

placeholder El 'deep  fake' de Tom Cruise ha sido uno de los más virales en TikTok. (DeepTomCruise)
El 'deep fake' de Tom Cruise ha sido uno de los más virales en TikTok. (DeepTomCruise)

"La capacidad del 'deep fake' para hacer la sustitución de una cara es peligrosa en un contexto de auge del trabajo en remoto, con muchas videollamadas. En el ámbito de las empresas, hay que concienciar sobre esta posibilidad", explica Domínguez, que recalca que "cualquier empleado puede ser engañado". De hecho, en 2019 se produjo una estafa de este tipo en una empresa británica, a la que le sustrajeron 220.000 euros. Al año siguiente, Forrester estimaba que los costes de estas estafas serían de 228 millones para el siguiente ejercicio.

Al lado de este especialista está Mario Muñoz Gómez, director del área de preventa de ciberseguridad en la misma compañía. Ambos atienden a Teknautas minutos después de ofrecer su ponencia 'Desde los inicios de Akinator a poder ser Tom Cruise en Tinder', en RootedCON, el mayor evento del sector en España, que acaba de culminar su XII edición.

Muñoz sugiere otro caso en el que sería muy fácil picar: "A través de redes sociales, alguien puede obtener información —fotos o vídeos— de, por ejemplo, el director de una sucursal de banco y procesarlo mediante una 'app' de suplantación. Después, llamar a la víctima y pedir el pin de la tarjeta porque ha habido un problema técnico. Si lo das, ya tienes un desfalco en la cuenta corriente".

Foto: Un Tom Cruise falso se hizo viral en Tik Tok. (Chris Ume)

Aunque hoy en día los algoritmos de 'deep fake' más desarrollados pueden imitar voz e imagen, hay una evidente diferencia en el resultado, dependiendo de si se hace en diferido o en directo, donde se pueden ver más las costuras (sobre todo, en los vídeos). No cante victoria: con la velocidad de desarrollo que han alcanzado en el último lustro, es solo cuestión de tiempo.

La única forma de asegurarse de no caer en esto, indican los especialistas, es la doble verificación. "Aunque te llamen y reconozcas la voz, si te piden información sensible, es conveniente hacer una comprobación por un canal distinto", recomienda Domínguez, mientras que su compañero resume: "Ya no te puedes basar en tus conocimientos y certezas, porque te está engañando el algoritmo de una máquina".

No, no vas a saber identificarlo

Una de las principales preocupaciones en el sector es la dificultad para identificar cuándo es una imagen real o no. "La perfección de las imágenes es clave", sugiere Muñoz, que enfatiza que la simetría de los rostros o la perfección de determinados rasgos son sospechosos habituales. Además, el fondo suele presentar algún tipo de difuminación o píxel. Pese a estas pistas, el engaño está servido. Como ya explicó este periódico, hay estudios en que los humanos puntuaban el grado de realismo de fotos artificiales y reales, y ganaron las primeras.

En parte, no es de extrañar, ya que el algoritmo está en un entrenamiento constante para conseguir estos resultados. Así lo resumen estos especialistas: "Son dos sub redes neuronales. Una es el generador, que crea datos de entrada, y la otra ['challenger'] se encarga de establecer si parecen reales o no. Hasta que esta no dice que es real, el algoritmo continúa produciendo caras y cambiando texturas".

placeholder Este no es Bruce Willis, sino una reproducción de su cara hecha con 'deep fake' para una campaña publicitaria.
Este no es Bruce Willis, sino una reproducción de su cara hecha con 'deep fake' para una campaña publicitaria.

"La idea del sector es que toda imagen generada por inteligencia artificial lleve una marca o huella digital para que seamos capaces de identificarlo, porque está alcanzando un nivel que da miedo", reconoce Domínguez. Eso elimina solo una parte de los riesgos —por ahora, no hay ninguna regulación al respecto—, pues solo afectaría a una parte. "Hay algoritmos que ya están publicados, y eso es incontrolable", explica. Por ejemplo, el código de ThisPersonDoesNotExist —llamado StyleGAN—, uno de los más conocidos. "Se van haciendo nuevas versiones y, claro, un atacante no va a meter su firma".

Tampoco es una opción rastrear los metadatos: lo primero que se hace es no dejar ni rastro de ellos. Además, apuntan los expertos, "la capacidad de procesamiento que se necesita para analizar si un vídeo es falso se ha descartado, porque se puede tardar meses". Las técnicas que se prueban ahora van por otros derroteros: "Se trata de buscar algún tipo de contexto, como fondos o comparaciones con imágenes de la persona real".

El verdadero peligro

La dificultad de detectar estas falsificaciones contrasta con la facilidad para crearlas. Muñoz explica que "apenas tienes que invertir dinero" para conseguir un 'fake' de alta calidad. Ni siquiera conocimientos técnicos. "Ya no se requiere tanta capacidad de procesamiento y se puede hacer en cualquier ordenador, así que está al alcance de cualquiera. Tienes que planearlo bien y tener buenas habilidades sociales para engañar, más que ser muy bueno técnicamente", desarrolla.

Foto: Francisco Franco. (Reuters)

Sin ir más lejos, otra de las aplicaciones más populares, FaceApp, tiene una versión gratuita para producir 'deep fakes' de fotos y vídeos. El servicio prémium, que tiene entre sus mayores atractivos la eliminación de la marca de agua, cuesta cinco euros al mes.

Un precio tan reducido y una sencillez tan latente que hasta puede ser utilizado por niños. Y, de hecho, algunos lo están haciendo. "Al acabar la charla, hemos estado hablando con un padre que nos ha comentado que conoció los 'deep fakes' porque los compañeros de colegio de su hija hicieron un vídeo para reírse de ella", ejemplifican. "Algo que hace cinco años era una técnica compleja que se usaba para cambiar la cara de la princesa Leia, ahora lo tienes por unos euros en el móvil".

Noticia de última hora. Volodímir Zelenski se rinde ante las tropas rusas. No es ni un tuit, ni un pantallazo ni nada que pueda sugerir que se trata de un bulo. Se trata de un vídeo en el que el mundo entero puede ver y escuchar cómo el presidente de Ucrania anuncia que Rusia ha ganado la guerra. Después, se suceden imágenes de soldados tirando la toalla. Todo parece haber acabado, pero es mentira. Solo es un 'deep fake' de consecuencias imprevisibles.

Ucrania Inteligencia Artificial Conflicto de Ucrania
El redactor recomienda