Es noticia
Pornografía y 'deepfakes': ¿debería preocuparme si no soy Taylor Swift?
  1. Alma, Corazón, Vida
Una experto responde

Pornografía y 'deepfakes': ¿debería preocuparme si no soy Taylor Swift?

La actriz ha sido la última víctima de un 'deepfake' de contenido sexual que se ha vuelto muy viral, pero esto es algo que puede sufrir cualquier persona. Hablamos con un experto sobre cómo actuar si nos ocurre algo así

Foto: Taylor Swift actúa en el escenario durante 'Taylor Swift | The Eras Tour' en Allianz Parque en Sao Paulo, Brasil. (Getty Images/Buda Mendes)
Taylor Swift actúa en el escenario durante 'Taylor Swift | The Eras Tour' en Allianz Parque en Sao Paulo, Brasil. (Getty Images/Buda Mendes)

Rosalía, Ana de Armas, Inés Arrimadas, Blanca Suárez o decenas de adolescentes de Almendralejo (Badajoz) han sido ya víctimas de deepfakes pornográficos. En mayo de 2023 el cantante JC Reyes subía a su Instagram una foto de Rosalía donde la cantante aparecía desnuda, o eso parecía. En realidad, no se trataba de una imagen real, sino que estaba manipulada, en este caso con Photoshop.

Con la democratización del uso de la inteligencia artificial, también han aumentado los deepfakes creados con esta herramienta. Una de las últimas víctimas de un deepfake ha sido Taylor Swift. Imágenes "pornográficas" falsas de la artista se han difundido a través de la red social X (antes conocida como Twitter) y Elon Musk decidió bloquear durante varios días las búsquedas de 'Taylor Swift' en la plataforma.

Las imágenes de la cantante habían sido generadas con inteligencia artificial y sobre lo ocurrido se han pronunciado ya varios colectivos, entre los cuales se encuentra el Sindicato de Actores de Estados Unidos (SAG-AFTRA), que calificó de "perturbadoras, dañinas y profundamente preocupantes" estas fotografías falsas."El desarrollo y la difusión de imágenes falsas, especialmente las de naturaleza lasciva, sin el consentimiento de alguien debe ser ilegal", puede leerse en el comunicado.

placeholder La búsqueda fallida de Taylor Swift en X (Imagen de X)
La búsqueda fallida de Taylor Swift en X (Imagen de X)

En España, el 13 de octubre se publicó en el Boletín Oficial del Congreso de los Diputados una Proposición de Ley Orgánica de "regulación de las simulaciones de imágenes y voces de personas generadas por medio de la inteligencia artificial" que todavía no ha sido aprobada. La tecnología avanza más rápido que la capacidad para legislarla, la IA ha crecido de forma exponencial y esto propone nuevos retos en todos los ámbitos y, el fenómeno del deepfake es uno de ellos.

Cada vez son más comunes y esto es algo que preocupa (y mucho) a Stophaters, una asociación contra el ciberacoso que nació en octubre del año 2017 "para dar asistencia a todas las víctimas de ciberacoso. Está formada por abogados, informáticos y un equipo de psicólogos que asesoran a cualquiera que esté sufriendo este hostigamiento que cada vez más personas denuncian. El objetivo es que nadie se vea sin asistencia, ni se sienta solo ante el ciberacoso", explica Álvaro Cabezuelo, psicólogo de la asociación a El Confidencial.

La impunidad empuja al acosador

El bullying, los insultos y las amenazas han existido desde el origen de la humanidad, pero las redes sociales le han dado la vuelta a todo, también a la manera que tenemos de odiar a los demás, ya que ahora lo común es hacerlo a través de una pantalla y escondiéndose tras un perfil falso: "Detrás de una pantalla uno se siente protegido y la empatía muy reducida al no mirar a los ojos a la víctima. Además, es una violencia que el agresor minimiza al no ser física y bajo el escudo de 'todo el mundo puede comentar libremente' y la 'libertad de expresión'", asegura Cabezuelo.

Otro de los cambios que han introducido en nuestra sociedad las redes sociales es que ahora el odio "no cesa", sino que continúa durante las 24 horas, independientemente de dónde te encuentres y de si estás cerca o no de tu agresor, ya que estamos constantemente conectados a internet.

"Las redes sociales nos vuelven más impunes (o eso creen los acosadores). 'Ponerse una máscara' siempre desinhibe, saca a relucir 'deseos ocultos' y, por supuesto, 'oscuros'"

Entonces, ¿nos vuelven más agresivos las redes sociales? Lo que sucede, según Álvaro Cabezuelo, es que "nos vuelven más impunes (o eso creen los acosadores). 'Ponerse una máscara' siempre desinhibe, saca a relucir 'deseos ocultos' y, por supuesto, 'oscuros'. Es curioso ver a personas que en su día a día son aparentemente amables, asertivos, empáticos… perder todas esas virtudes bajo el amparo de una pantalla y un teclado".

Es ya cosa del presente

Los deepfakes son ya una realidad, hace años nos parecían algo futurista, al igual que la inteligencia artificial, pero lo cierto es que ya forman parte de nuestro día a día. Es más, estos se pueden generar con fines de lo más diversos, pero uno de ellos es crear vídeos pornográficos falsos como le ha ocurrido a Taylor Swift y a muchas otras mujeres. Según datos del informe State of deepfakes 2023 de Home Security Heroes, "la cantidad de pornografía deepfake creada aumentó un 464%, pasando de 3725 vídeos en 2022 a 21.019 en 2023".

"Los estereotipos tradicionales en las relaciones, con valores sexistas, se siguen proyectando en la violencia de género en Internet"

Este tipo de violencia, está dirigida en mayor medida a las mujeres y son ellas también las que más casos de ciberacoso sufren: "Si bien es cierto que en nuestra asociación (esto es nuestra experiencia) no encontramos diferencias a nivel cuantitativo, pero sí a nivel cualitativo, es decir, el acoso es diferente y ejercido o recibido a través de vías o fenómenos diferentes. Los estereotipos tradicionales que siguen existiendo en las relaciones sociales entre hombres y mujeres, con valores sexistas, se siguen proyectando en la violencia de género ejercida en el mundo de internet y las redes sociales", confirma Cabezuelo, que considera que prohibir los deepfakes es algo muy complicado y apuesta por "una legislación efectiva que proteja o garantice la seguridad de todos".

Para Álvaro es fundamental que "el consumidor de un vídeo o imagen realizada con Inteligencia Artificial sepa que lo que está viendo no es real o está modificado". Para ello, incluso las Redes Sociales (como X) están incorporando avisos para informar al usuario de que lo que están viendo no es real y agregar contexto al contenido.

Otra sugerencia que lanza para erradicar el uso de la IA con un fin dañino es que sean las propias herramientas las que pongan limitaciones (algunas las tienen ya) "y no solo un aviso para que la responsabilidad recaiga sobre el usuario (que en realidad pueden hacerlo)".

Las herramientas de inteligencia artificial "abren un abanico de posibilidades infinitas de creación, pero, como siempre, hay un uso fraudulento de las mismas si caen en manos equivocadas". Por tanto, por desgracia, estas se pueden convertir, según Cabezuelo, en "un arma más al servicio de acosadores o de personas que minimizan el daño que producen a las personas involucradas".

¿Cómo actuar si soy una víctima?

Víctimas de deepfakes han sido desde personas anónimas hasta las más famosas. Desde adolescentes en Almendralejo hasta Rosalía, y sufrir esto puede causarles grandes daños equiparables "al producido por la difusión de imágenes sin consentimiento (especialmente imágenes comprometidas o de contenido pornográfico), ya que se acerca tanto a la realidad, que apenas hay diferencias. Vergüenza, aislamiento, ansiedad, depresión, desconfianza hacia su entorno y una sensación de inseguridad continua", explica el psicólogo, que insiste en que "la víctima, sobre todo, tiene la sensación (y es que a veces es una certeza) de que su relación con el entorno ha cambiado y nunca volverá a ser el mismo".

Si somos víctimas de un deepfake, ¿cómo debemos actuar? Este es, según Cabezuelo, el protocolo de actuación:

  • Lo primero que debemos hacer es solicitar a la cuenta o plataforma a la que se ha subido el vídeo que lo elimine. Es muy importante la rapidez para evitar que se extienda. En Stophaters te pueden ayudar.
  • Lo segundo es imponer una denuncia ante la Policía Nacional. Esto ayuda a visibilizar la problemática y que se tome en cuenta para acelerar los procesos judiciales y la importancia de este fenómeno.
  • También es importante notificar el incidente a INCIBE-CERT del Instituto Nacional de Ciberseguridad, un servicio propio que pone a disposición de los afectados un apoyo operativo ante ciberamenazas o ante la ocurrencia de ciberincidentes.

Si, además de ser víctima de un deepfake, intentan extorsionarte pidiéndote dinero a cambio de no colgar un vídeo falso tuyo en internet, lo que debes hacer es, una vez más, denunciar: "Se trata de un delito contra el honor de las personas y contra su intimidad. Jamás hay que ceder al chantaje de la extorsión y pagar dinero para que no publique el vídeo porque con ello está animando a que el ciberdelincuente continúe realizando esta actividad con otras personas", declara Álvaro Cabezuelo, que insiste en que desde Stophaters pueden ayudarte con ese proceso.

Por último, si no eres la víctima directa de un deepfake, pero descubres que es tu hijo quien se lo ha hecho a otra persona, también tienes que denunciar lo ocurrido ante la Policía Nacional.

Rosalía, Ana de Armas, Inés Arrimadas, Blanca Suárez o decenas de adolescentes de Almendralejo (Badajoz) han sido ya víctimas de deepfakes pornográficos. En mayo de 2023 el cantante JC Reyes subía a su Instagram una foto de Rosalía donde la cantante aparecía desnuda, o eso parecía. En realidad, no se trataba de una imagen real, sino que estaba manipulada, en este caso con Photoshop.

Inteligencia Artificial Taylor Swift
El redactor recomienda