"Me encargo de la porquería"

El catalán que persigue a los pedófilos en Facebook: "Soy el pocero de la red social"

Cristian Canton y su equipo han desarrollado una red neuronal capaz de ver millones de imágenes clasificadas y decidir si eliminarlas o no. Pero la tecnología también se equivoca

Foto: Cristian Canton
Cristian Canton

En el habitual garbeo que un usuario de Facebook suele dar por la red social, es bastante improbable que su vista se tope con imágenes desagradables. Puede que vea memes ridículos, vídeos absurdos y más de una receta de cocina imposible e hipercalórica, pero hay toda una ristra de imágenes que los de Zuckerberg evitan a toda costa que exista en la plataforma: son las que tienen que ver con violencia, maltrato animal, terrorismo o incluso pornografía infantil y que son perseguidas por los algoritmos comandados por el español Cristian Canton.

“Yo me denomino como ‘el pocero de Facebook’, porque me encargo de toda la porquería que sube la gente”, explica Cantón a Teknautas desde las oficinas de Facebook en Seattle. “Trabajo para que la gente no vea cosas que no debe ver”, cuenta. Antes de desembarcar en los dominios de Zuckerberg, este ingeniero de telecomunicaciones por la Universidad de Barcelona trabajó en Inglaterra, en una empresa dedicada a la visión por ordenador para la industria del cine. Desde allí dio el salto a Microsoft, que fue la compañía que terminó por convencerle para cruzar el charco.

Ya en Facebook, Canton trabaja en el desarrollo de algoritmos que detecten todas esas imágenes que la red social no quiere que estén en su territorio. “Dentro de Facebook, una cuestión muy importante es controlar qué es lo que se sube a la plataforma, para que todo sea legal, ético, etcétera”, desgrana el ingeniero. “Lo peor de lo peor tenemos que encontrarlo y mandarlo para que sea revisado, para que lo saquen del sistema y se tomen las acciones legales necesarias”, explica.

El catálogo de imágenes que Zuckerberg no quiere en Facebook para que este sea un lugar seguro no es pequeño, precisamente y, más allá de todo aquello que rompe con la clara línea de la legalidad, los de Menlo Park también tienen (casi) cualquier tipo de desnudo como enemigo público. No sin polémica, claro: la red social ha llegado a censurar cuadros del mismísimo Rubens en los que sí, hay desnudos. “Normalmente, todo lo que sea arte está permitido, aunque sea desnudez”, aclara Canton. “El algoritmo va aprendiendo y cada vez es mejor, pero de vez en cuando se te cuela algún caso de estos. Normalmente, lo que pasa cuando sucede esto es que un equipo humano revisa este tipo de apelaciones, se corrigen y el algoritmo va aprendiendo de estos errores”, detalla.

¿Cómo modera un algoritmo?

Por el momento, la moderación visual de las imágenes que suben los más de 2.000 millones de usuarios de Facebook no se lleva solo a golpe de inteligencia artificial. En primer lugar, los algoritmos revisan cada fotografía que llega a Facebook. En ciertas ocasiones, aquellas en las que la ilegalidad es clara, el robot actúa sin intermediación humana y saca la imagen del sistema. “Pero cuando tiene dudas, las manda a una cola de revisión: hay un conjunto de personas que cada día va viendo las fotos para determinar si están bien o no deberían estar en Facebook”, explica Canton. “Este filtro humano siempre da una segunda capa para evitar que el algoritmo cometa errores”, comenta.

(Reuters)
(Reuters)

Para llegar a este punto, Canton y su equipo han desarrollado antes una red neuronal capaz de ver millones de imágenes clasificadas y aprender de ellas para poder determinar si lo que suben los usuarios a la red social cumple con las políticas de la propia plataforma. “El problema es que hay cosas mucho más sutiles, y en esa sutileza tenemos muy pocos datos”, plantea el ingeniero. “Puede aparecer una motosierra o una colleja y que se considere violencia o no: tienes pocos datos y eso afecta al algoritmo también, que tiene que aprender a detectarlas. El problema al final es conseguir datos relevantes”, sentencia.

Pero aún mayor es el reto que plantean las ‘fake news’ a través de imágenes, según Canton. “Generar noticias falsas puede ser tan fácil como descontextualizar una imagen… Son cosas muy sutiles, y lo que se necesitan son ‘fact checkers’ y que el algoritmo les mande esa imagen que cree que pudiera estar manipulada”, cuenta el ingeniero. En esos casos, el experto humano que revisa la imagen detectada por la red neuronal tiene que comprobar los hechos y determinar si está ante un caso de ‘fake news’ o no. Sin embargo, no siempre es tan sencillo: “Cosas como la sátira, la denuncia social o coñas políticas que puedes hacer en Facebook te pueden decir que son ‘fake news’, y en el fondo es solo humor”, plantea Canton.

La gente intenta engañarnos. Ese es nuestro día a día: entender cómo buscan los huecos para colarse

También suponen un problema aquellos usuarios que encuentran la grieta por la que colarse. No en vano, los algoritmos de Facebook distan de ser perfectos, “y la gente intenta generar formas de engañar a los algoritmos, buscar los huecos… Ese es nuestro día a día: intentar entender cómo busca la gente las rendijas para colarse”, confiesa Canton. De hecho, él mismo resume el gran reto que supone su trabajo diseñando estos algoritmos de reconocimiento de imagen: “Somos 20.000 ingenieros, pero fuera hay 2.000 millones de personas muy ingeniosas”.

(Reuters)
(Reuters)

Todo este trabajo informático está coordinado a partir de las definiciones y políticas planteadas por el grupo de abogados y expertos de Facebook. Son ellos los que determinan qué debe considerarse desnudo o en qué situaciones sensibles podría dejarse ver un pezón en una imagen alojada en la red social. “Por ejemplo, si hay una campaña contra el cáncer de mama, tú tienes que diseñar el algoritmo que se adecúe a las normas que se definan en la comunidad interna”, ejemplifica Canton.

No obstante, el ingeniero señala que, en realidad, el porcentaje de imágenes violentas, con pornografía o incluso sobre terrorismo que llegan a Facebook es pequeño en comparación con los millones de fotografías que suben los usuarios cada minuto. El problema, tal y como explica, es que estas pocas imágenes tienen un gran impacto personal y, además, encontrar datos con los que enseñar a los algoritmos a clasificar estos problemas es difícil.

Así, en tu próximo y pacífico paseo por Facebook, o incluso cuando decidas subir una imagen, un algoritmo con cierto toque español estará ahí, velando por la seguridad de los usuarios (aunque no sin correr el riesgo de equivocarse, claro).

Tecnología

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
1comentario
Por FechaMejor Valorados
Mostrar más comentarios