Es noticia
Los 'deepfakes' ya son un negocio millonario: cómo evitar que te engañen
  1. Tecnología
Una nueva mina de oro para el porno

Los 'deepfakes' ya son un negocio millonario: cómo evitar que te engañen

Una nueva investigación descubre que los vídeos de este tipo se han doblado en menos de un año y que es un negocio que ya mueve decenas de millones de euros

Foto: Ejemplo de 'deepfake'.
Ejemplo de 'deepfake'.

Los 'deepfakes', esos vídeos en los que digitalmente consiguen modificar el rostro de una persona y cambiarlo por el de otra o hacer que esa cara gesticule de una forma diferente a la real, están de moda. Son el último grito en webs y redes sociales y solo hay que ver los casos de Donald Trump, Barack Obama, Jim Carrey o Mark Zuckerberg. Los ejemplos se multiplican y también la calidad de los mismos, pero hasta hora no teníamos datos sobre su crecimiento real. Un nuevo estudio descubre algunas cifras y son para tomarse esto muy en serio.

La investigación, realizada por la empresa de ciberseguridad Deeptrace, y publicada este lunes, revela que con una simple búsqueda varios expertos de la compañía han descubierto que en menos de un año el número de estos clips se ha doblado. En total, han encontrado 14.698 vídeos realizados con esta técnica, mientras que en diciembre de 2018 solo dieron con 7.964. Pero esto no es lo único sorprendente del artículo, también han destacado que el 96% de estas animaciones son contenidos pornográficos muy rentables.

Foto:

Según los expertos, la mayoría de estos vídeos están construidos con la cara de un famoso, o una famosa, generada por ordenador que reemplaza a la del actor porno original en una escena sexual. La situación puede sonar algo extraña, pero lejos de ser una práctica puntual, los investigadores vieron que las webs que los promocionaban lo hacían con un ojo puesto claramente en el negocio y que pedían importantes cantidades de dinero por disfrutar de uno de sus contenidos.

Como explican en la BBC los propios autores del informe, Deeptrace ha descubierto que los cuatro principales sitios web de pornografía con 'deepfakes' (todos con ingresos por publicidad en la web) han conseguido 134 millones de visitas en sus vídeos modificados desde febrero de 2018. Uno que permitía a los usuarios quitar sintéticamente la ropa de las imágenes fijas de mujeres cobraba 50 dólares por eliminar una marca de agua de cada producto terminado. Es decir, que no solo ganan por la propia publicidad, sino que cobran por el producto.

Solemos creer que lo peor de estos clips puede venir por el lado político y las 'fake news', pero desde la Deeptrace aseguran que el foco debemos ponerlo en otro lado, y es que según avanza este negocio todo apunta a que las más perjudicadas serán las usuarias. "El debate tiende a centrarse en la política o el fraude, pero mucha gente olvida que el 'deepfake' pornográfico es un fenómeno muy real y muy actual que está perjudicando a muchas mujeres", explica Henry Ajder, jefe de análisis de la marca. Pero ¿es posible no caer en las trampas de estos vídeos? Vamos a ver algunos trucos.

Cómo evitar que te engañen

Viendo el crecimiento exponencial del fenómeno y su profundidad, es importante que sepamos cómo combatir los 'deepfakes' o, al menos, cómo evitar caer en su trampa. Cada vez los vídeos son más complejos y tienen más calidad, por lo que es posible dudar, y mucho, pero aún hay pequeños trucos que nos pueden ayudar a ver que eso que estamos consumiendo no es real.

El parpadeo

Desde que estos vídeos empezaran a aparecer por la red, decenas de expertos se han puesto manos a la obra para ver los posibles fallos de los mismos. No es fácil copiar de forma fehaciente la gesticulación de una persona en un determinado momento, al menos es difícil por ahora, y eso se ve claramente en el parpadeo.

Según el profesor de la Universidad de Albany Siwei Lyu, los personajes de los 'deepfakes' parpadean mucho menos que los actores reales, por lo que ha creado una herramienta que detecta con un 95% de fiabilidad, según su inventor, los vídeos falsos. Un muy buen ejemplo son los dos vídeos que ponemos bajo este párrafo, el primero es el real, el segundo el modificado.

Otras señales

Igual que el caso del parpadeo, hay otras ideas que podrían ayudar a salvarte de un bulo en forma de vídeo. La mayoría son pequeños trucos sin mucha profundidad, pero a la velocidad a la que avanza esta tecnología, hay que fiarse de nuestro ojo crítico y nuestra capacidad de análisis.

  • Claridad. Si hay una diferencia de claridad de la imagen entre la cara y el resto del encuadre. Eso nos dirá que una parte está incrustada en la otra.
  • El tono de la piel o la iluminación. Lo mismo que en el caso anterior, intentar fijarnos bien si hay una diferencia de tonalidades entre una parte y otra del vídeo.
  • El recorte. Ya decimos que ahora los vídeos son de mucha más calidad, pero puede que nos encontremos con un caso bastante más 'casero' y que podamos ver que el recorte no cuadra exactamente con las medidas del cuerpo.
  • Gestos raros. Por último, lo más lógico. Al ser dos vídeos montados, los gestos pueden no ir acompasados o resultar demasiado extraños. No te fíes si ves algo así.

Los 'deepfakes', esos vídeos en los que digitalmente consiguen modificar el rostro de una persona y cambiarlo por el de otra o hacer que esa cara gesticule de una forma diferente a la real, están de moda. Son el último grito en webs y redes sociales y solo hay que ver los casos de Donald Trump, Barack Obama, Jim Carrey o Mark Zuckerberg. Los ejemplos se multiplican y también la calidad de los mismos, pero hasta hora no teníamos datos sobre su crecimiento real. Un nuevo estudio descubre algunas cifras y son para tomarse esto muy en serio.

Fake News
El redactor recomienda