Es noticia
Anuncios en TikTok para desnudar chicas: por qué es casi imposible parar estas 'apps'
  1. Tecnología
EL OTRO PROBLEMA DE LOS 'DEEPFAKES'

Anuncios en TikTok para desnudar chicas: por qué es casi imposible parar estas 'apps'

Lo ocurrido en Almendralejo ha sido el primer caso conocido de acoso escolar con IA en España, pero no será el único. Cada vez es más fácil usar estas 'apps' (y más difícil frenarlas)

Foto: Foto: Reuters/Danish Siddiqui.
Foto: Reuters/Danish Siddiqui.

Todas las alarmas saltaron en la noche del pasado domingo. Fue cuando Miriam Al Adibna denunció que la cara de su hija, menor de edad, había sido utilizada por sus compañeros de clase para generar fotos de ella desnuda y su posterior difusión. El episodio tuvo lugar en un instituto de Almendralejo (Badajoz) y ya se ha identificado a 11 alumnos por este caso. Tres de ellos habían utilizado la aplicación Clothoff para crear el contenido, mientras que el resto formaba parte del grupo de WhatsApp en el que se habían difundido. Ya hay una veintena de denuncias de niñas y adolescentes de entre 11 y 17 años, aunque las consecuencias legales para los responsables serán mínimas, ya que son menores de 14.

"Hay un montón de servicios que ofrecen exactamente lo mismo. Estos días he estado mirando y, solo en Telegram, hay unos 15 bots iguales", comenta Marcelino Madrigal, informático especializado en el análisis de redes sociales que, durante años, investigó y persiguió la distribución de pornografía infantil en internet. "He seguido algunos de ellos y todos se basan en un modelo similar. Te dejan hacer alguna imagen gratis y con una marca de agua y, si pagas dinero, la quitan o te permiten generar más", detalla. En cualquier caso, este periódico solo va a reproducir el nombre de Clothoff, que lleva circulando días en internet, pero evitará hacerlo con el resto de aplicaciones para evitar su difusión.

Lo que también tienen en común todas estas herramientas es la facilidad de uso, algo clave para que se extiendan rápidamente, pero también para que aumente su peligrosidad. "Antes, estas tecnologías requerían conocimientos y ahora no hace falta nada", remarca Madrigal, que lamenta que "esto es un incendio que se apagará y en unos meses volverá".

Foto: La 'streamer' QTCinderella durante el directo sobre los 'deepfake' porno. (Twitch)

Solo hay que recordar que, ya en 2019, una aplicación llamada DeepNude desató una polémica similar y sus creadores decidieron echar el cierre, argumentando que "la probabilidad de que la gente haga mal uso [de ella] es demasiado alta" y que "el mundo no estaba preparado". "En ese periodo, les dio tiempo a crear medio millón de imágenes", apunta Madrigal. También cabe mencionar un estudio de Sensity, una firma de ciberseguridad, que en 2020 descubrió que una red de bots en Telegram había creado 104.000 imágenes de mujeres desnudas, y sin su consentimiento, en cuestión de meses.

Desde entonces, los casos de este tipo han servido también para amedrentar a mujeres en todo el mundo, incluyendo celebridades como varias streamers estadounidenses o la propia Rosalía, que fue víctima de estos deepfakes hace unos meses. Todo esto lleva a Madrigal a enfatizar que "el problema no es solo Almendralejo, sino que es algo muy extendido". Ahí es donde entra el otro punto clave de este asunto: estas aplicaciones, y no solo el contenido que generan, campan a sus anchas en las redes sociales, y ponerles coto es mucho más difícil que a una foto de un desnudo. Después, el boca a boca hace el resto, y eso es lo que hace que sean prácticamente imparables.

Cuando el delito es solo una posibilidad

El caso de Clothoff es un buen ejemplo de cómo se propagan estas herramientas. Por un lado, ni siquiera cuentan con una aplicación para móviles, ya que, sencillamente, no les hace falta. Les basta con un bot de Telegram y una web. De hecho, para quienes quieren usar su software en el móvil, la propia empresa indica una serie de pasos para dirigir a su página con un icono en la pantalla de inicio, lo más cerca que puede estar de colar como una app. Por otro lado, cuentan con promociones para invitar a amigos y recibir descuentos en la creación de nuevas imágenes.

Por si fuera poco, en redes sociales como TikTok están apareciendo vídeos en los que se explica cómo usar tanto esta como otras herramientas. Para algunos, lo lógico sería prohibir estas aplicaciones, pero no es tan sencillo. "Tenemos la tentación de pensar que, muerto el perro, se acabó la rabia, pero es que este perro no se puede matar. No se puede prohibir una tecnología, porque su uso puede ser legal o ilegal, como ya vimos en los juicios contra el p2p", incide Borja Adsuara, abogado especializado en privacidad y publicidad digital.

En sus términos y condiciones de uso, la empresa tras Clothoff se lava las menos en cuanto a la responsabilidad de las creaciones con su herramienta. Es algo habitual en cualquier software utilizado para crear contenido, como podría ser el caso de Photoshop, donde hay infinitas posibilidades de creación de contenido. Sin embargo, en este caso, solo hay una opción: desnudar a alguien. De hecho, la aplicación solo funciona con un botón y no permite ni un mínimo grado de personalización. Eso sí, se escudan indicando que el usuario tiene que tener consentimiento de la persona que se desnuda para procesar su foto y ser mayor de edad.

"Es cierto que se vende con solo una finalidad y aplicada casi siempre a mujeres, pero eso no hace que sea delito su uso", continúa Adsuara, que pone un ejemplo para ilustrar esto: el sexting —intercambio de fotos y vídeos subidos de tono— en una pareja. "Imagina que lo haces con tu pareja como parte de un juego, por ejemplo, para poneros el cuerpo de dos actores porno. Te parecerá lo que quieras, pero no es ilegal. Otra cosa sería la difusión sin consentimiento, pero mientras haya usos legales, ¿cómo vas a prohibirlo?", argumenta.

Foto: Imagen: Pixabay/51581. Opinión
TE PUEDE INTERESAR
De Almendralejo a Hal 9000
Marta García Aller

La otra gran cuestión es qué ocurre con los contenidos en los que se explica cómo utilizar estas herramientas, y ahí se entra en un terreno más gris. "Si incitas a cometer un delito, es una publicidad ilícita, y ahí sí que se podría hacer algo", comenta, aunque cree que no se haría mucho más que "retirar el anuncio" y, después, tratar de "denunciar ante Consumo o las comunidades autónomas para que multaran a la empresa". Sobre este punto, cree que este ministerio podría seguir una política similar a la de la publicidad de prostitución en internet.

"Se vende como divertimento, pero es cibercrimen"

"El problema no es si va a ocurrir más, sino qué vamos a hacer cuando ocurra, porque está claro que volverá a pasar", apunta Madrigal, que lamenta que "esto se vende como un divertimento, pero está dentro de la industria del cibercrimen". Sobre este punto, hace hincapié en que la seguridad de los menores en la red se apoya en, además de la regulación, otros tres pilares: padres y educadores; fuerzas y cuerpos de seguridad, y proveedores de servicios. "Nadie está haciendo sus deberes", lamenta.

En el lado parental, este especialista recuerda que WhatsApp —usado para la difusión de las fotos de las menores de Almendralejo— es una aplicación que no puede utilizar un menor de 16 años, según las condiciones de uso. "Los padres regalan un teléfono creyendo que es una ventana para ver el mundo, pero en realidad es una puerta, y por ahí entra y sale gente. ¿Qué hace un menor con un servicio de este tipo? Ni el menor sabe los riesgos, porque no ha recibido esa educación", expone, a la par que recalca que "no hay una vigilancia proactiva por parte de la policía, porque no hay recursos suficientes para hacer rastreos y, además, esto ya está alcanzando un volumen en el que no hay quien lo pare".

Foto: Manifestación contra la abolición de la prostitución. (EFE/Sergio Perez)

En cuanto a los proveedores de servicios, uno de los problemas es saber dónde están las empresas responsables. Aquí Madrigal destaca que Clothoff tiene la web alojada en Estados Unidos con Cloudflare, pero es solo una parte. "Aparte de esos servicios, los servidores están en Alemania, y posiblemente hayan almacenado muchas imágenes, pero los dominios de correo están en Rusia", indica, criticando que los proveedores podrían hacer más en estas situaciones, ya que "encontrar y tumbar estos materiales es muy fácil para ellos".

Adsuara, por su parte, pone el énfasis en la educación. "Igual que todos tenemos cuchillos en casa y no nos dedicamos a ir matando gente, hay que hacer ver que no todo lo que se puede hacer tecnológicamente es legal. Aunque parezca un juego, son tres delitos muy gordos: producción, difusión y acoso", desarrolla antes de recordar episodios de difusión de contenido sexual sin consentimiento como el de Iveco. "No eran niños, porque esto no es cosa solo de menores o chavales", desliza, para concluir: "Ya no tenemos control de nuestros datos e imagen, porque hemos subido todo a internet, pero sí tenemos derecho a perseguir los malos usos que se hagan con ellos".

Todas las alarmas saltaron en la noche del pasado domingo. Fue cuando Miriam Al Adibna denunció que la cara de su hija, menor de edad, había sido utilizada por sus compañeros de clase para generar fotos de ella desnuda y su posterior difusión. El episodio tuvo lugar en un instituto de Almendralejo (Badajoz) y ya se ha identificado a 11 alumnos por este caso. Tres de ellos habían utilizado la aplicación Clothoff para crear el contenido, mientras que el resto formaba parte del grupo de WhatsApp en el que se habían difundido. Ya hay una veintena de denuncias de niñas y adolescentes de entre 11 y 17 años, aunque las consecuencias legales para los responsables serán mínimas, ya que son menores de 14.

Inteligencia Artificial Internet Pornografía infantil Noadex
El redactor recomienda