Twitter pide ayuda a Microsoft para desterrar la pornografía infantil
  1. Tecnología
PHOTODNA reconoce imágenes modificadas

Twitter pide ayuda a Microsoft para desterrar la pornografía infantil

La red social está implementando el estándar PhotoDNA, que identifica y reconoce imágenes con contenido pedófilo aunque sean modificadas

Foto: Twitter implementará PhotoDNA antes del final de este año
Twitter implementará PhotoDNA antes del final de este año

El pasado lunes, el primer ministro británico David Cameron anunciaba una serie de medidas tomadas por su gobierno para proteger a los menores frente a la pornografía, tanto de acceder a ella como de convertirse en sus víctimas. Además de explicar que a partir de ahora el acceso a contenidos pornográficos estará bloqueado por defecto, Cameron acusó a los gigantes de internet de no hacer suficiente por eliminar las imágenes con contenido pedófilo.

Pero lo cierto es que las tecnológicas están cada vez más sensibilizadas respecto a esteproblema yhacen esfuerzos por convertir internet en un entorno hostil para la pornografía infantil. El pasado mes de junio, Google anunciaba la creación de una base de datos global que permitiese a todas las empresas intercambiar información y eliminar más eficazmente estos contenidos, y el mismo día que Cameron anunciaba sus medidas, la red social Twitter hacía pública su intención de implementar una herramienta en contra de estos contenidos, basado en el estándar PhotoDNA de Microsoft.

Con esto, Twitter sigue los pasos de Facebook, que en mayo de 2011 comenzó a utilizar el mismo sistema para encontrar y eliminar imágenes de contenido pedófilo de sus páginas.

Contenidos variantes y dispersos

La cuestión no es nada fácil. ¿Cómo se puede luchar contra un contenido en concreto -el abuso sexual a menores- que puede tener infinitas formas en una red en la que participan miles de usuarios cada día y en la que las publicaciones se replican, modifican y se vuelven a subir en cuestión de horas o incluso minutos?

El desafío es doble: por un lado, hay que identificar los archivos y, por otro, encontrar todas sus posibles versiones.

Uno de los problemas es que los archivos que suben los usuarios no se almacenan siempre, o no solamente, en los servidores de la compañía. Las CDN(content delivery networks o redes de distribución de contenidos) son redes de servidores externos en las que se almacenan copias de los contenidos para que su acceso para los usuarios sea más rápido.

Los usuarios acceden a distintas versiones almacenadas en varios lugares de forma que se eviten los cuellos de botella que se generarían si todos tuviesen que descargar un único achivo de un solo servidor

Los usuarios acceden a distintas versionesalmacenadas en varios lugares de forma que se eviten los cuellos de botella que se generarían si todos tuviesen que descargar un único achivo deun solo servidor. Este sistema hace la navegación por internet mucho más rápida, pero también crea problemas a la hora de eliminar una imagen, un vídeo o cualquier otro tipo de archivo.

Además de estar desperdigadas por la red, las imágenes de contenido ilegal pueden estar camufladas, tener varias versiones o replicarse. Para hacer cumplir la ley hay que identificarlas adecuadamente: cuando una imagen es identificada como contenido pedófilo, es marcada con un número, una especie de firma o huella digital que la distingue y que se compara con millones de archivos de la red. Sise encuentra una coincidencia, se elimina, y así se van borrando todas las copias.

La firma digital, muy fácil de engañar

El problema es que esa huella es fácil de cambiar: cuando una imagen se modifica, aunque sea de la forma más leve o imperceptible, se crea una nueva huella. Como resultado, puede haber miles de fotografías iguales a la vista con distinta firma digital, y los buscadores no son capaces de encontrarlas.

“Piensas ‘eliminamos la fotografía y ya está’, pero entonces te enfrentas a la pregunta de si está alojada en una CDN. Si es así, ¿cómo te aseguras de que ha sido borrada? ¿Y si hay una acumulación de peticiones de borrado de una imagen?”, ha explicado Del Harvey, directora senior del equipo Trust & Safety de Twitter. Para hacer frente a esta complicada tarea, Twitter está implementando el estándar PhotoDNA, creado por otro gigante de internet: Microsoft.

El software desarrollado por Microsoft trabaja con un sistema de reconocimiento y etiquetado de imágenes, pero la firma digital que genera es más fiable y consistente, de forma quepuede ver a través de las alteraciones para encontrar imágenes que hayan sido manipuladas o disimuladas. De esta forma, es más eficaz a la hora de eliminar imágenes de forma definitiva.

La compañía contó para su desarrollo con la colaboración de Hany Farid, profesor de la Universidad de Dartmouth, experto en tecnología forense. Su laboratorio se dedica a desarrollar herramientas matemáticas y computacionales para determinar si un contenido audiovisual es auténtico o ha sido modificado. "El problema era que la huella era extremadamente frágil: un pequeño cambio en la imagen y yaera completamente diferente. La tecnología PhotoDNA amplía la firma para hacerla más robusta y fiable, para que podamos encontrarla incluso si cambias un poco la imagen", explicaba Farid en la presentación de PhotoDNA.

"La cosa no va de competir, va de colaborar"

Twitter ya trabaja para implementar este sistema, que podría empezar a funcionar este año, una vez que se superen las complicaciones de aplicarlo a los millones de tuits que se envían cada día en todo el mundo. Microsoft por su parte ha renovado su compromiso de poner este software a disposición de operadoras de internet, ONGs y fuerzas de seguridad de forma gratuita.

Harvey ha mostrado su satisfacción por estar avanzando en esta dirección:“es realmente fantástico que estemos haciendo progresos, y es bueno que otros en la industria estén trabajando en ello, porque esta es una de esas áreas en las que la cosa no va de competir. Va de colaborar”.

El redactor recomienda