Fake News: El infierno de Facebook contra la fake news: Un ejército de manos no es suficiente
nueva oficina en la torre agbar

El infierno de Facebook contra la 'fake news': "Un ejército de manos no es suficiente"

La red social prepara en Barcelona un megacentro con 500 moderadores para revisar el contenido inadeucado. La pregunta es clara: ¿será suficiente con los humanos?

Foto: Manifestación en Londres contra Facebook. (Efe)
Manifestación en Londres contra Facebook. (Efe)

La noticia saltó la pasada semana. Facebook escogía Barcelona para montar allí su nuevo centro de control contra contenidos inapropiados como 'fake news' o publicaciones violentas, una de las plagas digitales que con más recurrencia ha golpeado a la mayor red social del mundo. Un nuevo punto neurálgico que estará basado en los que la compañía ya ha puesto en marcha en Alemania y que se instalará en tres plantas de la simbólica Torre Glòries de la capital catalana, más conocida por su nombre original de Torre Agbar.

No serán empleados en nomina de la multinacional, que de momento no se ha pronunciado sobre estas informaciones. La lucha contra estos contenidos ofensivos será cosa de una 'subcontrata' que obedecerá órdenes de los cuarteles generales de la compañía. El encargo lo recibirá una compañía de origen austríaco Competence Call Center (CCC), con presencia en múltiples países pero que, según lo indicado en su página web, aún no había prestado servicios en suelo español.

No es la primera vez que ambas firmas trabajan codo con codo, puesto que esta compañía fue la escogida por Facebook para montar el centro que tiene en la localidad germana de Essen, el que servirá de modelo al de la capital catalana.

El gran 'call center' de Barcelona

Pero, ¿entonces qué es exactamente lo que se montará en la Ciudad Condal? Que nadie piense que lo que aterrizará en Cataluña va a ser un laboratorio donde se investigará y se crearán las líneas maestras para el control del contenido inapropiado en los vastos dominios de Mark Zuckerberg. Básicamente esto será un 'call center' del siglo XXI. La principal habilidad de CCC es esa: la de montar centros de atención telefónica. Pero también ofrecen servicios accesorios, a empresas como Paypal, eBay o la propia Facebook. Los operadores no llevarán los tradiciones cascos y el micrófono sino que serán sustituidos por 500 moderadores encargados de revisar sobre los reportes que millones de usuarios hacen cada día en todo el mundo.

El plan de la compañía, que no deja de prometer avances en Inteligencia Artificial para avanzar en este particular pulso, es de momento articular un ejército de 20.000 moderadores de carne y hueso (actualmente son unos 15.000) para escrutar todo lo que sea susceptible de saltarse un milímetro sus normas. Cabe matizar que a día de hoy la empresa no dedica recursos de su plantilla a la lucha contra las noticias falsas y tampoco contrata externos, sino que confía este trabajo a una serie de acuerdos con organismos externos conocidos como 'fact checkers'.

“Obviamente la introducción de estas revisiones humanas es un primer paso. Pero sorprende que aún no se haya hecho un gran aprovechamiento de las posibilidades tecnológicas de la compañía, referente mundial en campos como la analítica o el 'machine learning'”, opina Sergio Cortés, CEO de la consultora Cink. "Un ejército de manos es una buena noticia, pero no es suficiente".

"Todavía queda mucho por hacer"

Cortés valora positivamente estos primeros pasos, aunque cree que a Facebook “todavía le queda mucho por hacer”, al ser un actor tan importante. “Creo que este asunto le ha pillado a contrapié, como el tema de la filtración de Cambridge Analitica. Pero si estas cosas han servido para que tome conciencia de estos problemas, bienvenido sea".

Si uno echa un vistazo a las ofertas de trabajo puede hacerse una idea de lo que están ofreciendo a esos moderadores. Dependiendo el idioma, la remuneración que se recoge va desde los 21.000 hasta los 24.000 euros brutos al año. Sin embargo, es complicado saber con exactitud las condiciones de la remuneración, porque en el texto, demasiado genérico, se habla de primas y otros beneficios.

Hasta 1.300 reportes al día

Lo que queda bastante claro también es que los trabajadores que afronten la revisión tendrán un supervisión psicológica importante ante el desgaste de estar lidiando con ciertos contenidos durante tanto tiempo. No en vano, cada uno de estos agentes puede llegar a manejar hasta 1.300 reportes en su turno de ocho horas.

Aunque es harto complicado conocer los mecanismos y las fuerzas que mueven la moderación y la eliminación de contenidos en Facebook, nos podemos hacer una idea gracias a las diferentes investigaciones periodísticas que se han realizado en Alemania, donde varios medios han sacado a la luz el día a día de los que trabajan en los centros de Berlín y Essen. Los periodistas Hannes Grassegger y Till Krause (SZ Magazine) son los autores del reportaje 'Inside Facebook', para el que hablaron con decenas de moderadores que trabajaban o habían militado en las oficinas de la capital teutona, unos servicios subcontratados a su vez a un tercero, la firma Arvato. Ahora han completado sus investigaciones con la experiencia de un trabajador que pasó tres meses en la compañía.

"Mano de obra barata multilingüe"

Foto: Reuters.
Foto: Reuters.

El testimonio deja entrever que la elección de la ciudad centroeuropea responde a que es un buen sitio donde 'pescar' “mano de obra barata multilingüe y bien formada”. Algo que encaja con la posición expresada por la compañía en varias ocasiones, que siempre ha hablado de encontrar perfiles adecuadamente formados, con formación cultural y adaptados a varios idiomas . Y algo que encajaría también para algunos con el perfil de Barcelona, empeñados en los últimos años en convertirse en el gran 'hub' tecnológico del sur de Europa, un proyecto que ha traído talento extranjero a la ciudad.

Uno de los que apoya esta tesis, la de lo que se persigue acceder a obra de mano barata, es uno de los españoles que más lejos ha llegado en WhatsApp, el catalán Elies Campo, que abandonó la compañía poco después de ser adquirida por Facebook y fichó por Telegram. “No nos dejemos engañar. Estos puestos de trabajo son de poca calidad. Junto con el almacén de Amazon posicionan la ciudad como simple proveedor de mano de obra barata”, afirmó el ingeniero. “No son importantes en la dirección estratégica de la compañía y la industria”, remachaba.

El escrito, recogido por el semanario alemán SZ Magazine, señala también que los empleados tienen la sensación de que las normas de moderación están en constante “cambio, evolución y revisión” y que el volumen de 'tickets' (los reportes que hacen los diferentes usuarios) es de tal magnitud que el trabajo “no para casi en ningún momento”.

Normas al pie de la letra

Foto: Reuters.
Foto: Reuters.

Otro de los temas que están a debate es la capacidad que tienen los moderadores para decidir qué infringe las normas y qué no. Las diferentes historias dibujan una automatización, en la que a estos 'comunity managers' no les deja margen ninguno a la interpretación. “Creo que un análisis más humano hubiese evitado ciertos escándalos a la hora de eliminar publicaciones”, afirma el extrabajador de la oficina de Berlín, que explica que llegó a sentirse como "en una fabrica".

"Costaba mucho desconectar de las ocho horas de trabajo (...) trabajamos con materiales que a veces no se atenían a ninguna norma de comportamiento social", prosigue el autor del texto, que reconoce que llegó a percibir vídeos de violencia "como algo normal". "Estaba lejos de imaginar, desde mi propia experiencia de usuario, que la violencia podría ser tan predominante en las redes sociales", concluye.

Un aspecto, el de seguir las normas al pie de la letra al más puro estilo o blanco o negro, que también señalan desde Motherboard, que visitaron las instalaciones de Essen, regidas por CCC. La publicación sugiere que allí “nadie decide las reglas de moderación”, algo para los cuarteles generales, y que simplemente “se dedican a seguirlas estrictamente”.

“Esto es complicado. Dejar margen a un criterio subjetivo podría significar la introducción de una línea editorial”, opina Sergio Cortés, que apunta también a la necesidad de crear usuarios más empoderados capaz de discernir “que compartir y que no”. “El dilema es discernir si Facebook es una red social o ya se puede considerar un medio de comunicación o no, porque ahí habría que exigirle como a cualquier otro medio en asuntos como la verificación de fuentes. Un asunto que un periódico no deja en manos de los lectores o de terceros”.

Tecnología

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
3 comentarios
Por FechaMejor Valorados
Mostrar más comentarios