Los vídeos 'Deepfake' son la nueva arma del acoso escolar (ACTUALIZADO)
  1. Tecnología
  2. Novaceno
Ciberacoso

Los vídeos 'Deepfake' son la nueva arma del acoso escolar (ACTUALIZADO)

Una mujer ha sido acusada de ciberacoso a menores por manipular fotos y videos de las antiguas amigas de su hija con herramientas de inteligencia artificial

Foto: Animadora de la NCAA (Reuters)
Animadora de la NCAA (Reuters)

ACTUALIZACIÓN: según un reciente artículo de investigación de la revista Cosmopolitan, hay muchos indicios que apuntan a que los videos y fotos pueden ser reales y no manipulados con 'DeepFake' como pensó la policiía en un principio.

Una mujer fue detenida la semana pasada en Pensilvania por acosar a las compañeras de su hija con fotos y vídeos manipulados donde salían desnudas, bebiendo y fumando.

Según informa el Philadelphia Inquirer, Raffaela Spone, una mujer de 50 años residente en el condado de Bucks, Pensilvania, envío fotos manipuladas a los entrenadores y compañeras del equipo de animadoras de su hija con el propósito de forzarlas a dejar el equipo.

Foto: El P-Volt de Widerøe (Widerøe)

De acuerdo con el informe de su detención, Spone creó el año pasado una serie de imágenes manipuladas de al menos tres integrantes del Victory Vipers, el equipo de animadoras al que también pertenecía su hija. Además de las imágenes, el fiscal del condado afirma que también envió mensajes anónimos a las chicas instándolas a que se quitaran la vida.

Spone, fue detenida y acusada de ciberacoso a menores y otros delitos relacionados. Ahora se encuentra en libertad en espera de la audiencia preliminar que tendrá lugar el día 30 de Marzo. No hay constancia de que la hija de Spone, de la que solo se sabe que tiene edad de ir al instituto, tuviera conocimiento de las actividades de su madre.

placeholder Raffaela Marie Spone (Bucks County Sheriff's Office)
Raffaela Marie Spone (Bucks County Sheriff's Office)

La investigación, según apunta el informe policial, se inició en el mes de julio cuando el padre de una de las víctimas denunció unos mensajes que provenían de un número oculto. Tanto la niña como los entrenadores del equipo recibieron imágenes en las que aparecía desnuda, bebiendo y fumando de un vapeador. Más tarde, los agentes descubrieron que otras dos familias estaban recibiendo el mismo tipo de mensajes de un teléfono oculto. Las otras víctimas también recibieron fotos en las que aparentemente se las veía en bikini y con un texto que decía “bebiendo en la playa”. Información que de ser cierta podría haber supuesto su expulsión del equipo.

Tras el análisis de las imágenes, los agentes vieron que se trataban de fotos manipuladas con la tecnología de inteligencia artificial ‘Deepfake’. Spone, presuntamente, habría obtenido las fotos de las niñas de sus redes sociales y habría empleado sus rostros para insertarlos en otras imágenes.

El rastro de los números de teléfono llevó a la policía hasta una web especializada en números para teleoperadores y de ahí sacaron la IP que les llevó hasta casa de Spone. Según el informe policial, el teléfono de la acusada mostraba evidencias que la relacionaban con los números ocultos desde donde se enviaron los mensajes.

Uno de los padres de las víctimas, George Ratel, ha asegurado en declaraciones a el Philadelphia Inquirer que su hija y la de acusada eran amigas. Y que el acoso comenzó cuando la mujer de Ratel le dijo a su hija que no se juntara más con ella.

Nuevas herramientas 'antideepfake'

Las tecnologías de inteligencia artificial como ‘Deepfake’ preocupan desde hace tiempo por su potencial para hacer pasar imágenes manipuladas por reales. El problema es serio, un estudio del University College de Londres del pasado mes de agosto califica la modificación de vídeos e imágenes como la amenaza más peligrosa de la inteligencia artificial. Es cierto que hoy en día la tecnología no es perfecta y no cuesta mucho distinguir una imagen falsa de una real, pero a la velocidad con la que avanzan estas aplicaciones en poco tiempo necesitaremos nuevas herramientas para poder hacerlo.

Cada poco tiempo surgen nuevos detectores, como Deepware, SensityAI o el de Greg Tarr, un joven irlandés de 17 años que acaba de ganar el premio al mejor Científico y Tecnólogo Joven por su detector de Deepfakes’.

placeholder Microsoft Video Authenticator (Microsoft)
Microsoft Video Authenticator (Microsoft)

Microsoft también lanzó la suya a finales del año pasado para intentar frenar la avalancha de desinformación que iban a provocar las últimas elecciones americanas. El Microsoft Video Authenticator utiliza un algoritmo de inteligencia artificial para decirnos qué probabilidad hay de que una imágenes o un video hayan sido manipulados.

Pero como advierte este estudio de la Universidad de San Diego, estas herramientas también pueden ser engañadas. Los programadores pueden introducir pistas falsas que confronten a los detectores para inducirles al error. Esta es una guerra que se está librando en este momento y que deberíamos tomarnos en serio porque será mucho más intensa según vayan avanzando estos sistemas.

Ciberacoso Inteligencia Artificial
El redactor recomienda