Es noticia
El otro peligro de la IA: esta web paga por crear fotos de mujeres desnudas
  1. Tecnología
ES LA SÉPTIMA APP DE IA MÁS USADA

El otro peligro de la IA: esta web paga por crear fotos de mujeres desnudas

Una de las mayores webs de 'deepfakes' ofrece ahora pagar recompensas para los que mejor lo hagan. Se está usando para crear fotos de carácter sexual con caras de gente anónima

Foto: Algunos de los modelos ofrecidos en Civitai.
Algunos de los modelos ofrecidos en Civitai.

Los aspectos más oscuros de la inteligencia artificial continúan aflorando. Los deepfakes –esas imágenes artificiales y falsas, pero realistas– se están expandiendo por todo internet y apuntando a una dirección muy concreta: el uso de fotografías de mujeres sin su consentimiento para desnudarlas. Sin ir más lejos, es lo que se vio con los alumnos de un instituto de Almendralejo (Badajoz), que utilizaron una aplicación para ver a sus compañeras de clase sin ropa. Sin embargo, ahora también se ha convertido en un negocio que, además, ofrece recompensas a quien consiga el mejor resultado.

Es lo que se puede ver desde hace semanas en Civitai, una plataforma donde se crean y comparten estas imágenes artificiales. Entre otros contenidos, aloja deepfakes de desnudos de personas sin su consentimiento (y, casi siempre, sin su conocimiento). Las mujeres son el foco de estas campañas, donde los casos que afectan a hombres son poco más que anecdóticos, tal y como explica 404 Media.

Todos ellos, eso sí, suelen ser famosos, aunque también hay algún caso de personas anónimas en la plataforma. "La persona que publicó la foto afirmó que la mujer de la que quería un modelo de IA era su esposa, aunque la cuenta de Facebook de la afectada decía que era soltera. Otros usuarios de Civitai tampoco creyeron esa explicación", indican en este medio, donde recogen el comentario de otra persona que vio este contenido: "¿Por qué compartirías capturas de pantalla de baja calidad de perfiles privados si pudieras tomar y usar fotos en alta calidad de tu esposa? Creo que lo dejaré pasar, buena suerte". En estos casos, es tan fácil como tener acceso a las redes sociales de alguien para conseguir hacer una imagen falsa realista.

Su rol no es menor dentro del ecosistema de inteligencia artificial. Según Andreessen Horowitz, es la séptima plataforma de IA generativa más usada en todo el mundo, superando a otras de renombre, como Midjourney o Hugging Face.

Foto: La 'streamer' QTCinderella durante el directo sobre los 'deepfake' porno. (Twitch)

Esto se debe a que Civitai no es solo el escaparate, sino que también aloja la IA generativa que permite crear todos estos deepfakes. Es algo que se explica, entre otras cosas, por su facilidad de uso. La complejidad es poco mayor que el de una herramienta como Dall-E o Bing. Simplemente, hay que escribir una serie de instrucciones –lo que se conoce como prompt–, añadir imágenes (o escoger alguna del catálogo) e indicar si es contenido para adultos. No hace falta más, a no ser que se quieran incluir una serie de especificaciones técnicas para usuarios avanzados.

"La gente usa Civitai para encontrar modelos de IA no pornográficos de personas reales específicas y combinarlos con modelos de IA que están diseñados para generar pornografía y así crear imágenes sexuales no consensuadas de esa persona", especifican en este metido, donde subrayan que es algo que iría en contra de las políticas de la plataforma.

Sea cual sea la imagen creada, la operativa de las recompensas es la misma. Quien mejor lo haga, recibe los pagos en una moneda virtual –bautizada como Buzz– que los usuarios pueden adquirir mediante la compra o la actividad en la plataforma; es decir, como si fuera un videojuego. Son unos incentivos económicos que llegaron el pasado de octubre y no estaban en un primer momento. De este modo, un usuario establece una determinada recompensa y los creadores compiten por conseguirla.

Un negocio dentro de lo peor de la IA

El modelo de Civitai supone una vuelta de tuerca de una problemática que se arrastra desde hace años, pero cada vez es más acusada. Solo hay que recordar que, ya en 2019, una aplicación llamada DeepNude desató una polémica similar y sus creadores decidieron echar el cierre, argumentando que "la probabilidad de que la gente haga mal uso [de ella] es demasiado alta" y que "el mundo no estaba preparado". También cabe mencionar un estudio de Sensity, una firma de ciberseguridad, que en 2020 descubrió que una red de bots en Telegram había creado 104.000 imágenes de mujeres desnudas, y sin su consentimiento, en cuestión de meses.

Desde entonces, los casos de este tipo han servido también para amedrentar a mujeres en todo el mundo, incluyendo celebridades como varias streamers estadounidenses o Rosalía, que fue víctima de estos deepfakes hace unos meses, además de las propias niñas del instituto de Almendralejo.

Foto: Rosalía en una imagen promocional. (Cedida)

El principal problema es que, una vez que estos contenidos se suben a internet, es muy complicado que desaparezcan, aun cuando sus creadores los hayan eliminado, ya que siempre hay alguien dispuesto a colgar de nuevo el contenido a otra plataforma. Según el informe The State of Deepfakes, ocho de las 10 principales webs de pornografía alojaban contenidos hechos mediante esta herramienta. El 96% no contaban con consentimiento de la persona suplantada.

Hay otro punto clave de este asunto: estas aplicaciones, y no solo el contenido que generan, campan a sus anchas en las redes sociales, y ponerles coto es aún más difícil que a sus propias creaciones, donde sí se puede apreciarse un delito contra la propia imagen. Después, el boca a boca hace el resto, y eso es lo que hace que sean prácticamente imparables, ya que siempre pueden argumentar un mal uso por parte de un usuario y no en su propia naturaleza.

Los aspectos más oscuros de la inteligencia artificial continúan aflorando. Los deepfakes –esas imágenes artificiales y falsas, pero realistas– se están expandiendo por todo internet y apuntando a una dirección muy concreta: el uso de fotografías de mujeres sin su consentimiento para desnudarlas. Sin ir más lejos, es lo que se vio con los alumnos de un instituto de Almendralejo (Badajoz), que utilizaron una aplicación para ver a sus compañeras de clase sin ropa. Sin embargo, ahora también se ha convertido en un negocio que, además, ofrece recompensas a quien consiga el mejor resultado.

Inteligencia Artificial Internet Noadex
El redactor recomienda