Estafas 2.0

Primero los políticos, ahora las empresas: los 'deepfakes' supondrán pérdidas millonarias

Algunos agentes del mercado ya han mostrado su preocupación sobre cómo los usuarios anónimos difunden 'deepfakes' para destruir la reputación de empresas concretas

Foto: Pedro Sánchez y Mark Zuckerberg. (Enrique Villarino)
Pedro Sánchez y Mark Zuckerberg. (Enrique Villarino)
Adelantado en

Imagínense que el día antes de las elecciones sale a la luz un video donde uno de los principales candidatos a la presidencia está comentando en la intimidad que piensa utilizar las arcas del Estado para financiar grupos terroristas. Todo el mundo ve su cara y sabe que se trata de él, observa sus gestos y son los suyos, escucha su voz y es, sin duda, su tono. El problema es que no es él, se trata una falsificación perfecta creada digitalmente denominada 'deepfake'.

Sin duda esto podría alterar unos comicios como los del 10-N. Porque esto no es ciencia ficción, es realidad, y en Estados Unidos ya es tema de debate nacional y se está legislando al respecto. En Texas han establecido leyes contra manipulaciones con 'deepfake' que tengan por objetivo alterar las elecciones. El pasado 3 de octubre, California aprobó también una ley que prohibirá la publicación y distribución de vídeos manipulados durante el periodo de campaña electoral.

Según informa 'Associated Press', este proyecto de ley salió adelante después de que se difundiera un video alterado de la presidenta de la Cámara de Representantes de los Estados Unidos, Nancy Pelosi. Este no es un caso aislado, ya existen cientos de videos falsos de políticos por las redes sociales: Obama, Trump, Sanders

Mark Zuckerberg habló sobre este tema durante el control del Congreso de los Estados Unidos y reconoció que no eliminarían estos videos de sus redes sociales, entre otros, uno de él mismo afirmando en un sombrío discurso que "quien controla los datos robados de las personas controla el mundo".

Fuera de la política este asunto ha comenzado a preocupar a otros sectores de la sociedad que ven en este fenómeno una amenaza real. Las empresas se encuentran entre los actores más vulnerables. La mayoría está en este momento desprotegidas ante estas falsificaciones, que pueden suponer pérdidas de miles de millones de euros por ello. Algunas ya lo han sufrido en sus propias carnes.

El nuevo arma del cibercrimen

El jefe llama y pide a un empelado que ingrese inmediatamente 220.000 euros en una cuenta para realizar una transferencia. Pretende hacer una adquisición importante y es ahora o nunca. Pero, esa llamada no era de ningún directivo, sino de alguien que había usado inteligencia artificial para reproducir exactamente su voz.

Esto es lo que le ocurrió a una energética británica. El delincuente usó como excusa una transferencia urgente a un proveedor húngaro para robar a la compañía. Su aseguradora, Euler Hermes Group, se ha negado a dar el nombre de la compañía afectada en el que ha sido el primer caso de la historia en el que se usa un 'deepfake' para estafar a una empresa. Su existencia se hizo pública hace tan solo unos pocos meses.

En el artículo de 'Wall Street Journal' en el que desvelaron este incidente se deja en evidencia una realidad: los mercados podrían estar ante un cambio de paradigma del cibercrimen. Desde la Interpol califican como probable que los hackers comiencen a integrar esta nueva tecnología en sus fraudes de forma, cada vez, más masiva.

Aunque este sea el primer caso público de estafa a empresas como tal, el cibercrimen ligado a este sistema de inteligencia artificial ya es una realidad. La legislación que se ha impulsado en Estados Unidos ha sido como respuesta a las acciones de los 'hackers' que introducen la cara de personas anónimas en videos porno en internet. Tras esto se ponen en contacto con la víctima y le piden dinero a cambio de que no difundan ese contenido sexual falso entre sus conocidos y por toda la red.

Los 'trolls', dueños de la reputación empresarial

El peligro va más allá de los fraudes. Algunos agentes del mercado ya han mostrado su preocupación sobre cómo los usuarios anónimos, con el único incentivo de hacer daño, difunden 'deepfakes' para destruir la reputación de una empresa concreta. El desprestigio y el menoscabo de su imagen que podría producir que se extiendan videos falsos de los principales CEO dando radicales discursos puede ser enorme.

La agencia de calificación de riesgo Moody's ya se ha pronunciado al respecto en uno de sus últimos informes. En él afirma que esta posibilidad "podría suponer costes millonarios" en inversiones, patrocinios e incluso en caídas de las ventas.

También explican que el problema fundamental es que "las campañas de desinformación serán mucho más difíciles de desmentir e incluso, a veces, humanamente imposible". Por esta razón "se requerirán nuevas técnicas de 'forensic' o grandes avances, porque si estos bulos no se cortan al poco tiempo pueden ser tremendamente dañinos".

"Podría suponer costes millonarios" en inversiones, patrocinios e incluso en caídas de las ventas

Albert Vilariño, experto en Responsabilidad y Reputación Corporativa de Sustainalogy, coincide en que los peores augurios del informe podrían hacerse realidad a corto plazo y remarca el papel de las extorsiones en las "enormes pérdidas económicas que puede suponer esto". Cree que el problema viene acentuado por una época de hiperliderazgos empresariales en la que "se tiende a asimilar las actitudes y valores de los CEO con las compañías de forma más estrecha".

También afirma que uno de los mayores impactos a la reputación podría verse reflejado en bolsa: "Las cotizaciones suben o bajan en cuestión de minutos, especialmente, en la era de rapidez. Por eso, con un viral de este tipo estallará la polémica y el valor caerá. Sin embargo, para cuando se haya desmentido, los grupos de interés se habrán olvidado de ese foco". Gema Rabaneda, responsable de relaciones y reputación de AXA España también cree "que la capacidad que tiene gente anónima de menoscabar la imagen de una empresa está en alza".

"La reputación no se gestiona a golpe de crisis. Aunque te hagan daño, trabajar día a día en dar una buena imagen y transparente minimiza el daño"

Rabaneda, aun reconociendo el poder de esta tecnología, puntualiza que "lo que pueda significar esa falsificación depende de la credibilidad con la que uno parte". Explica que "la reputación no se gestiona a golpe de crisis. Aunque te hagan daño, si trabajas día a día en dar una buena imagen con transparencia, confianza y responsabilidad social, puedes minimizar el daño". El problema está cuando "el 'deepfake' está muy bien hecho, no te extrañe del personaje en cuestión y encima se chequea".

Redes neuronales antagónicas

Óscar Corcho, catedrático en el departamento de Inteligencia Artificial de la Universidad Politécnica de Madrid, explica a este medio que, de forma sencilla, un 'deepfake' es la aplicación de técnicas de inteligencia artificial para crear lo que antes llamábamos un 'collage', superponer una foto encima de otra con Photoshop y darle una apariencia real. Pero ¿qué ocurre? Que tal y como está de avanzada la tecnología ahora es muy difícil diferenciar si estos 'collages' son reales o no.

El experto indica que el método que se utiliza son las redes neuronales. Este tipo de procedimiento "emula la estructura que tenemos nosotros en el cerebro y la conexión entre neuronas y los impulsos sinápticos, para simular nuestra forma de pensar", detalla Corcho.

Dentro de esta técnica están las redes neuronales antagónicas, "que consiste en poner dos redes neuronales en 'deep learning' (aprendizaje profundo, de ahí lo de 'deepfake') a que una se ponga a construir imágenes o vídeos y la otra es la que tiene que discernir si es real o es creado por una máquina".

Este tipo de técnica "emula la estructura que tenemos nosotros en el cerebro y la conexión entre neuronas para simular nuestra forma de pensar"

Realmente no todo el mundo puede hacer estas falsificaciones. El catedrático considera que ahora mismo, para hacer un 'deepfake' se tiene que conocer muy bien este sistema. Se necesita mucha formación, por lo tanto, actualmente solo lo pueden hacer personas que hayan cursado un máster en inteligencia artificial, que estén especializados o doctorados en este área. Sin embargo, no descarta que en algún momento existan aplicaciones sencillas con las que cualquier persona pueda hacer desde casa estas falsificaciones.

"Aún no han llegado a España", plantea el experto, "pero llegarán, puede que incluso no sepamos completamente si han llegado o no. A la velocidad que se transmiten las cosas en las redes no tiene sentido decir si ha llegado o no". Sobre legislar o no, piensa que hay un debate importante y que se aplica, en general, sobre cualquier sistema de inteligencia artificial.

No descarto que en algún momento existan aplicaciones con las que cualquier persona pueda hacer desde casa estas falsificaciones

"No está tan claro si la regulación se tiene que hacer sobre los sistemas que se utilizan o si la regulación se debe hacer sobre el resultado de estos". En su opinión, se tiene que hacer sobre el resultado de los métodos. Si atentan contra el honor o dicen cosas falsas, la regulación existente cubriría a los afectados. Otra cosa es que el 'deepfake' se utilice de forma satírica y en todo momento se emitan estos contenido dejando claro que es un contenido modificado.

Al pedirle consejos para no ser engañados, explica que realmente no cree que exista ningún consejo técnico, porque los sistemas de inteligencia artificial están en un constante desarrollo acelerado. "Estamos haciendo algo parecido al test de Turing. Creamos sistemas que puedan determinar si un vídeo lo ha hecho una máquina o no", afirma.

"La única opción es informarse de todo el contexto que hay alrededor", explica Corcho. Quién ha creado el vídeo, quién lo empezó a publicar, cómo se ha movido por las redes. En definitiva, qué tipo de información adicional podemos obtener alrededor del vídeo. "Tarde o temprano el algoritmo va mejorando para que genere contenido más veraz, por lo que llegará un momento en que técnicamente no se puedan detectar anomalías".

El padre de los 'deepfakes'

Si la película Fast and Furious 7 llegó estrenarse a pesar de que falleció uno de sus principales actores durante el rodaje fue gracias a Hao Li, que ideó la tecnología de creación facial que se usó para hacer una versión digital del actor. Se usó para pegar la cara de Paul Walker en los cuerpos de sus dos hermanos.

Li es uno de los mayores expertos en vídeos ultrafalsificados. Nació en 1981 en Alemania y es hijo de inmigrantes taiwaneses. Actualmente, es profesor asociado de Ciencias de la Computación en la Universidad del Sur de California y piensa que el fenómeno 'deepfake' ya es imparable.

Hao Li uno de los mayores expertos en vídeos ultrafalsificados. (EmTech Asia)
Hao Li uno de los mayores expertos en vídeos ultrafalsificados. (EmTech Asia)

Li contribuyó con el desarrollo del software llamado Faceshift. Era un programa para crear avatares animados y otras figuras que capturan las expresiones faciales de una persona en tiempo real. En 2015, Apple adquirió esta compañía y su tecnología se está utilizando en sus teléfonos iPhone X.

Primero los políticos, ahora las empresas: los 'deepfakes' supondrán pérdidas millonarias

Precisamente, su investigación se está usando para rastrear tumores en tiempo real. Este auge tecnológico ha permitido una masificación de la inteligencia artificial aplicada en la edición de imágenes avanzadas. Li actualmente colabora con el profesor de la Universidad de California en Berkeley y especialista en ciencia forense digital, Hany Fraid. Allí se encarga de fabricar 'deepfakes' y su compañero los tiene que identificar.

Carrera armamentista digital

De hecho, Li, junto con otros compañeros, publicó este año una investigación titulada "Protegiendo a los líderes mundiales contra los 'deepfakes'". En el informe plantea que "los avances recientes en el aprendizaje profundo han permitido que sea mucho más fácil crear videos falsos sofisticados y convincentes" y plantea que "cualquier persona promedio podría, por ejemplo, crear un video de un líder mundial confesando actividades ilegales que podrían conducir a una crisis institucional".

Para la investigación utilizaron una herramienta con la que extraer los movimientos de rostro y la cabeza de los individuos. Por otro lado, también crearon sus propias 'deepfakes' con Donald Trump, Barack Obama, Bernie Sanders, Elizabeth Warren y Hillary Clinton.

A continuación, el equipo utilizó 'machine learning' para distinguir los movimientos de la cabeza y la cara que caracterizan a la persona real. En las pruebas, el método tuvo una gran precisión: un 92% de acierto en la detección de 'deepfakes'. Pero todavía no es del todo efectivo, como aclaran en el estudio.

"Cualquier persona promedio podría crear un video de un líder mundial confesando actividades ilegales que podrían conducir a una crisis institucional"

A pesar de que el fenómeno es relativamente nuevo, existen otros métodos para detectar vídeos falsos, pero los falsificadores se adaptan rápidamente a las nuevas herramientas. Por ejemplo, antes era posible detectar una 'deepfake' rastreando el movimiento de los ojos y el parpadeo del personaje. Al poco tiempo se identificó este error y se modificaron los algoritmos de 'deepfake' para incluir un parpadeo más realista.

Tanto en el lado de los falsificadores como en el de los detectores, se está produciendo una escalada tecnológica. Es como una especie de carrera armamentística digital. La clave está en que los avances basados en la inteligencia artificial están impulsando ambos bandos.

Antes era posible detectar una 'deepfake' con el parpadeo del personaje. Pero al poco tiempo los algoritmos incluyeron un parpadeo más realista

Esta investigación fue financiada por Google y DARPA, un ala de investigación del Pentágono. DARPA está financiando un programa para diseñar mejores técnicas de detección. La batalla contra las 'deepfakes' no ha hecho nada más que comenzar: Facebook en colaboración de otras compañías como Microsoft o el MIT también ha decidido sumar esfuerzos en este objetivo.

Precisamente la compañía de Zuckerberg va a destinar más de 10 millones de dólares para financiar dos iniciativas: crear un dataset (colección de datos) y convocar un concurso. El dataset será un almacén donde se guardarán los 'deepfakes' con los que poner a prueba el algoritmo y con el concurso se pretende crear herramientas de código abierto para que puedan usarlas cualquier persona que necesite comprobar si un vídeo ha sido manipulado.

La gran mayoría de las fuentes que se han consultado para elaborar este reportaje coinciden en que el fenómeno 'deepfake' será cada vez más complicado de detectar y que llegará un momento en que la inteligencia artificial creará vídeos muy difíciles de contrastar, por lo que habrá que tener más precaución y ser más escépticos a la hora de consumir contenido en las redes sociales.

Empresas

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
8 comentarios
Por FechaMejor Valorados
Mostrar más comentarios