Es noticia
Estas son las reglas secretas de Facebook sobre sexo, racismo o terrorismo
  1. Tecnología
¿Qué censura y qué no?

Estas son las reglas secretas de Facebook sobre sexo, racismo o terrorismo

El diario The Guardian ha tenido acceso en exclusiva a los documentos internos usados por Facebook para permitir o no la publicación de todo tipo de contenido. Estas son sus reglas secretas

Foto:

¿Quién decide (y bajo qué criterios) lo que se puede publicar o no en Facebook? Si, de repente, alguien publica un texto racista o exaltando el terrorismo, ¿cuáles son las reglas que sigue la red social para decidir si elimina por completo el contenido, lo bloquea o lo deja visible a sus más de 2.000 millones de usuarios? El periódico británico The Guardian ha obtenido en exclusiva decenas de documentos internos y confidenciales sobre las reglas que sigue Facebook justo para decidir qué contenido ve la luz y cuál no. Es la primera vez que se conoce cómo la red social ejerce su poder de "censor". Y la forma en la que lo hace va a generar polémica.

Foto:

El diario británico ha accedido a más de 100 documentos internos (hojas de cálculo, manuales de formación, gráficos...) que explican cómo la red social modera contenido tan delicado como el referente a la violencia, terrorismo, pornografía, racismo, discurso de odio, suicidios o incluso canibalismo. Las guías elaboradas por Facebook demuestran el creciente reto al que se enfrenta para reaccionar ante este tipo de contenido y decidir "en apenas 10 segundos" si bloquearlo para evitar que se convierta en viral o dejarlo a la vista ante sus más de 2.000 millones de usuarios.

Puede estar permitido decir: "Para romper el cuello a una prostituta, asegúrate de que aplicas toda la presión en el centro de su garganta"

El debate está claro: dado su poder y cuota de mercado, ¿se ha convertido Facebook en el mayor censor del mundo, en un poder superior que decide qué podemos ver y qué no? ¿Son admisibles los criterios que usa? ¿Deberían estar esos criterios sujetos a regulación? Son algunas de las dudas que levanta esta revelación y a las que Facebook a buen seguro tendrá que hacer frente en los próximos días.

Qué ser permite, y qué no

Los documentos establecen líneas rojas para los miles de moderadores que revisan los contenidos publicados e indican qué debe ser aprobado y qué no. Por ejemplo, establecen que "los comentarios del tipo "Alguien debe disparar a Trump" deben ser eliminados, porque como jefe de un Estado él se encuentra dentro de una categoría protegida. Pero puede estar permitido decir: "Para romper el cuello a una prostituta, asegúrate de que aplicas toda la presión en el centro de su garganta" o "jódete y muérete" porque no son consideradas como amenazas creíbles".

En otros puntos, los documentos explican que los "vídeos de muertes vilolentas no siempre tienen que ser eliminados ya que pueden ayudar a concienciar sobre problemas como las enfermedades mentales". También: "Algunas fotos de abuso no sexual o de acoso a niños no tienen que ser eliminadas a no ser que haya un componente sádico o celebratorio". O: "Fotos de maltrato animal pueden ser compartidas, salvo las imágenes extremadamente violentas, que deben ser marcadas como "perturbadoras". Y otra: "Facebook permitirá que la gente retransmita en directo intentos de suicidio porque no quiere censurar o castigar a gente que está sufriendo".

Consultada por The Guardian, Monika Bickert, la responsable de gestión de políticas mundiales, asegura que al tener más de 2.000 millones de usuarios, es muy difícil alcanzar un consenso de qué permitir y qué no. "Tenemos una comunidad muy diversa y la gente va a tener opiniones muy diversas sobre qué está bien publicar y qué no", explica.

Expertos en moderación 'online' aseguran, sin embargo, que Facebook y otras redes sociales están "vergonzosamente lejos de tomar suficientes medidas para evitar que se publique contenido ilegal o peligroso. Si luego haces dinero con esa práctica entonces entras en una situación desastrosa", explica la especialista en redes sociales Sarah T Roberts. El debate sobre Facebook como moderador o censor vuelve a estar más abierto que nunca.

¿Quién decide (y bajo qué criterios) lo que se puede publicar o no en Facebook? Si, de repente, alguien publica un texto racista o exaltando el terrorismo, ¿cuáles son las reglas que sigue la red social para decidir si elimina por completo el contenido, lo bloquea o lo deja visible a sus más de 2.000 millones de usuarios? El periódico británico The Guardian ha obtenido en exclusiva decenas de documentos internos y confidenciales sobre las reglas que sigue Facebook justo para decidir qué contenido ve la luz y cuál no. Es la primera vez que se conoce cómo la red social ejerce su poder de "censor". Y la forma en la que lo hace va a generar polémica.

Social Terrorismo Racismo
El redactor recomienda