Es noticia
'Facebook files': así permite la red social que los usuarios vip acosen y difundan bulos
  1. Mercados
  2. The Wall Street Journal
`Facebook files': primera parte

'Facebook files': así permite la red social que los usuarios vip acosen y difundan bulos

Un programa conocido como XCheck ha concedido a millones de famosos, políticos y otros usuarios preeminentes un trato especial, un privilegio del que muchos abusan

Foto: Foto: EC Diseño.
Foto: EC Diseño.
EC EXCLUSIVO Artículo solo para suscriptores

Mark Zuckerberg ha declarado públicamente que Facebook permite a sus más de 3.000 millones de usuarios hablar en condiciones de igualdad con la élite de la política, la cultura y el periodismo, y que sus normas de conducta aplican a todo el mundo, sin importar su posición o fama.

Pero, en privado, la compañía ha desarrollado un sistema que ha blindado a usuarios de perfil alto de alguna o de todas sus normas, según documentos de la empresa revisados por ‘The Wall Street Journal’.

El programa, conocido como ‘cross check’ (verificación cruzada) o XCheck, se concibió inicialmente como medida de control de calidad para acciones contra cuentas preeminentes, incluidos famosos, políticos y periodistas. Actualmente, protege a millones de usuarios vip del proceso de aplicación ordinario de la compañía, según los documentos. Algunos usuarios forman parte de “una lista blanca” —declarados inmunes a las medidas de aplicación—, mientras que otros pueden publicar contenido que infringe las normas a la espera de revisiones de empleados de Facebook que a menudo nunca llegan.

Foto: Redes sociales en un 'smartphone'. (iStock)

En ocasiones, según los documentos, XCheck ha protegido a figuras públicas cuyas publicaciones contienen algún tipo de acoso o incitación a la violencia, un quebranto que normalmente conduciría a sanciones para el usuario medio. En 2019, permitió a la estrella internacional de fútbol Neymar enseñar fotografías de una mujer desnuda, que le había acusado de violación, a decenas de millones de sus fans antes de que el contenido fuese eliminado por Facebook.

Las cuentas de la lista blanca han compartido declaraciones provocativas que los verificadores de Facebook han considerado falsas, incluidas que las vacunas son mortales, que Hillary Clinton había ocultado “redes de pedófilos” y que el entonces presidente Donald Trump había llamado a todos los refugiados que solicitaban asilo “animales”, según los documentos.

Una revisión interna de 2019 de la práctica de listas blancas de Facebook, que disfrutaban del privilegio cliente-abogado, descubrió un favoritismo hacia los usuarios que eran muy conocidos y “no eran defendibles públicamente”.

“En realidad no estamos haciendo lo que decimos que hacemos públicamente”, decía la revisión confidencial. Denominaba las acciones de la compañía “un abuso de confianza” y añadía: “A diferencia del resto de nuestra comunidad, estas personas pueden infringir nuestras normas sin ninguna consecuencia”.

placeholder Neymar Jr. de Brasil en una imagen de septiembre. (EFE)
Neymar Jr. de Brasil en una imagen de septiembre. (EFE)

A pesar de intentos por controlarlo, XCheck llegó a incluir al menos a 5,8 millones de usuarios en 2020, según los documentos. En su lucha por controlar de forma precisa una cascada de contenido y evitar una atención negativa, Facebook creó niveles de élite invisibles dentro de la red social.

Al describir este sistema, Facebook ha engañado al público y a su propia junta de supervisión, órgano que Facebook creó para asegurar la responsabilidad de los sistemas de supervisión de la compañía.

En junio, Facebook comunicó por escrito a la junta de supervisión que su sistema para usuarios vip se había utilizado en “un número pequeño de decisiones”.

En una declaración escrita, el portavoz de Facebook, Andy Stone, declaró que las críticas de XCheck eran justas, pero añadió que el sistema “estaba diseñado por un motivo importante: crear una medida adicional para poder aplicar con exactitud las políticas de contenido que podrían requerir una mayor comprensión”.

Declara que Facebook ha sido preciso en sus comunicaciones con la junta y que la compañía sigue trabajando para eliminar de forma gradual la práctica de la lista blanca. “Mucho de este material interno es información obsoleta agrupada para crear un relato que pasa por alto el hecho más importante: Facebook identificó los problemas por sí mismo con la verificación cruzada y ha estado trabajando para solucionarlos”, afirma.

Documentos internos

Los documentos que describen XCheck forman parte de un amplio abanico de comunicaciones internas de Facebook revisadas por ‘The Wall Street Journal’. Muestran que Facebook sabe, con todo detalle, que sus plataformas están plagadas de defectos que son perjudiciales, a menudo en formas que solo la compañía entiende del todo. Además, según los documentos, a menudo Facebook carece de la voluntad o la capacidad para abordarlos.

Este es el primero de una serie de artículos con base en esos documentos y entrevistas con decenas de empleados actuales y antiguos. Al menos parte de los documentos han sido entregados a la Comisión de Valores y Bolsa y al Congreso por una persona que busca protección federal del denunciante, según una fuente cercana al asunto.

Foto: Foto: EC.
TE PUEDE INTERESAR
La victoria judicial de Facebook en EEUU no favorece tanto a las 'big tech' como creen
The Wall Street Journal Laura Forman Dan Gallagher

La ambición manifestada de Facebook ha sido durante mucho tiempo conectar a las personas. A medida que se ha expandido en los últimos 17 años, llegando desde universitarios de Harvard hasta miles de millones de usuarios globales, ha tenido problemas con la complicada realidad: ha reunido bajo la misma plataforma a voces muy distintas y con motivaciones dispares —desde personas deseándose un feliz cumpleaños hasta cárteles de drogas mexicanos haciendo negocios en la red—. Esos problemas consumen cada vez más a la empresa.

Según los documentos, en EEUU y en el extranjero, los propios analistas de Facebook han identificado, una y otra vez, los efectos nocivos de la plataforma, en áreas que incluyen la salud mental de los jóvenes, el discurso político y la trata de personas. Una y otra vez, a pesar de audiencias del Congreso, sus propias promesas y numerosas revelaciones de los medios, la compañía no los ha solucionado.

En ocasiones, la empresa se ha reprimido por temor a perjudicar su negocio. En otros casos, Facebook realizó cambios que fracasaron. Hasta las iniciativas favoritas de Zuckerberg se han visto frustradas por sus propios sistemas y algoritmos.

Desde reprimirse por temor a perjudicar su negocio hasta realizar cambios fracasados

Los documentos incluyen informes de investigación, conversaciones de trabajadores ‘online’ y borradores de presentaciones a la dirección, incluido Zuckerberg. No son informes aislados sin orden ni concierto, sino el trabajo formal de equipos cuya labor era examinar la red social y averiguar cómo podría mejorar.

Tal vez ofrezcan la imagen más clara hasta la fecha de hasta qué punto se conocen los problemas de Facebook dentro de la compañía, hasta el mismo CEO. Y cuando Facebook habla públicamente sobre muchas de estas cuestiones, a legisladores, reguladores y, en el caso de XCheck, a su propia junta de supervisión, a menudo ofrece respuestas falsas o parciales, ocultando cuánto sabe.

Un área en la que la empresa no ha tenido problemas es la rentabilidad. En los últimos cinco años, durante los que ha sido objeto de una estricta supervisión y agitado por debates internos, Facebook ha obtenido beneficios de más de 100.000 millones de dólares. El valor actual de la compañía es de más de un billón de dólares.

Justicia implacable

Para los usuarios corrientes, Facebook se muestra implacable a la hora de evaluar si las publicaciones cumplen con las reglas de la compañía contra el ‘bullying’, el contenido sexual, el discurso de odio y la incitación a la violencia. A veces, los sistemas automatizados de la compañía eliminan o entierran de forma sumaria contenido sospechoso de infringir las reglas sin una revisión humana. Otras veces, el material señalado por esos sistemas o por usuarios es examinado por moderadores de contenido contratados por empresas externas.

Zuckerberg estimó en 2018 que Facebook se equivoca en el 10% de sus decisiones de eliminación de contenido y, según la medida de aplicación adoptada, puede que nunca se informe a los usuarios de qué regla han infringido o se les dé la oportunidad de recurrir.

Sin embargo, a los usuarios designados para la revisión XCheck se les trata con mayor deferencia. Facebook diseñó el sistema para minimizar lo que sus empleados han descrito en los documentos como “PR fires” (‘crisis de relaciones públicas’) —atención mediática negativa que procede de medidas de aplicación fallidas adoptadas contra personas vip—.

Foto: Manifestación en Londres contra Facebook. (Efe)

Si los sistemas de Facebook determinan que una de dichas cuentas puede haber violado sus reglas, no eliminan el contenido —al menos no directamente, según los documentos—. Envían la denuncia a un sistema independiente, dotado de un personal mejor entrenado y a tiempo completo, para niveles de revisión adicionales.

La mayoría de empleados de Facebook podía añadir usuarios al sistema de XCheck, según los documentos, y una auditoría de 2019 descubrió que al menos 45 equipos de la compañía estaban involucrados en las listas blancas. Normalmente no se comunica a los usuarios que han sido categorizados para recibir un trato especial. Una guía interna para la elegibilidad de XCheck menciona requisitos como ser “de interés”, “influyente o famoso” o “peligroso para las relaciones públicas”.

Neymar, la estrella de fútbol brasileña cuyo nombre completo es Neymar da Silva Santos Jr., entró con facilidad. Con más de 150 millones de seguidores, la cuenta de Neymar en Instagram, que pertenece a Facebook, es una de las más populares del mundo.

Después de que una mujer acusara a Neymar de haberla violado en 2019, publicó vídeos en Facebook e Instagram defendiéndose y enseñando a los espectadores sus mensajes de WhatsApp con su acusadora, que incluían su nombre y fotos de ella desnuda. Acusó a la mujer de extorsionarle.

El procedimiento con “imágenes íntimas sin consentimiento” es sencillo: eliminarlas

El procedimiento estándar de Facebook para gestionar la publicación de “imágenes íntimas sin consentimiento” es sencillo: eliminarlas. Pero Neymar estaba protegido por XCheck.

Durante más de un día, el sistema impidió a los moderadores de Facebook eliminar el vídeo. Un análisis interno del incidente descubrió que 56 millones de usuarios de Facebook e Instagram vieron lo que Facebook describió en un documento aparte como “porno vengativo”, exponiendo a la mujer a lo que un empleado se refirió en el análisis como abuso de otros usuarios. “Esto incluyó que el vídeo fuera reenviado más de 6.000 veces, ‘bullying’ y acoso hacia su persona”, descubrió el examen.

Las directrices operativas de Facebook estipulan que no solo se deberían eliminar las fotografías de desnudos no autorizadas, sino que las cuentas de las personas que las publican deberían ser eliminadas.

“Después de llevar el caso a dirección”, dice la revisión, “decidimos dejar las cuentas de Neymar activas, una desviación de nuestra política habitual de ‘un golpe’ de desactivación del perfil”.

Foto: EC.

Neymar negó la acusación de violación, y no se presentaron cargos contra él. La mujer fue acusada de difamación, extorsión y fraude por las autoridades brasileñas. Los dos primeros cargos fueron retirados y fue absuelta del tercero. Un representante de Neymar declara que el deportista se ciñe a las reglas de Facebook y no ha querido hacer más comentarios.

Las listas de las personas inscritas en XCheck “circulaban por toda la compañía, sin una clara administración o control”, según un “plan de recuperación” del año pasado: “Esto conduce a que no se utilice XCheck con aquellos que presentan riesgos reales y, por otra parte, que se utilice XCheck con aquellos que no se lo merecen (como cuentas abusivas, infractores constantes). Esos han provocado ‘crisis de relaciones públicas”.

En la práctica, Facebook parecía más preocupado por evitar meteduras de pata que por mitigar el abuso de personas preeminentes. En 2019, un análisis de Facebook de los errores principales de XCheck mostraba que, de 18 incidentes investigados, 16 comportaban situaciones en las que la compañía se equivocó en las medidas adoptadas contra usuarios destacados.

Cuatro de los 18 se referían a medidas de aplicación accidentales contra el contenido de Trump y su hijo, Donald Trump Jr. Otras medidas de aplicación fallidas fueron adoptadas contra las cuentas de la senadora Elizabeth Warren, la modelo Sunnaya Nash y el propio Zuckerberg, cuya transmisión en vivo de ‘preguntas y respuestas’ con empleados había sido eliminada después de que un algoritmo considerara que contenía desinformación.

Eliminar contenido

Antes, Facebook contactaba a algunos usuarios vip que incumplían las políticas de la plataforma y ofrecían una “ventana de autocorrección” de 24 horas para que eliminaran ellos mismos el contenido que infringía las reglas antes de que Facebook lo retirara y aplicara sanciones. Stone, portavoz de la compañía, dice que Facebook ha retirado esa ventaja, que seguía en pie durante las elecciones de 2020. Se niega a decir cuándo terminó.

A veces, eliminar contenido de una cuenta VIP requiere la aprobación de altos directivos de los equipos de Comunicaciones y Políticas Públicas, o incluso de Zuckerberg o de la directora de Operaciones Sheryl Sandberg, según personas cercanas al asunto.

En junio de 2020, se mencionó una publicación de Trump durante un debate sobre las reglas secretas de XCheck que tuvo lugar en la plataforma de comunicaciones internas de la compañía, llamada Facebook Workplace. El mes anterior, Trump dijo en una publicación: “Cuando empiezan los saqueos, empiezan los disparos”.

placeholder El CEO de Facebook, Mark Zuckerberg. (Reuters)
El CEO de Facebook, Mark Zuckerberg. (Reuters)

Un administrador de Facebook indicó que un sistema automatizado, diseñado por la empresa para detectar si una publicación infringe sus reglas, había puntuado la de Trump con 90 sobre 100, lo que indica una alta probabilidad de que violaba las normas de la plataforma.

Para una publicación de un usuario corriente, dicha puntuación resultaría en la eliminación del contenido en cuanto una sola persona informara a Facebook. En cambio, tal y como Zuckerberg reconoció públicamente el año pasado, él mismo hizo la llamada para mantener la publicación. “Tomar una decisión manual como esta parece menos justificable que puntuaciones y acciones algorítmicas”, escribió el administrador.

La cuenta de Trump empezó a estar protegida por XCheck antes de su suspensión de dos años de Facebook en junio. También lo están las de los miembros de su familia, miembros del Congreso, del Parlamento Europeo, junto con las de alcaldes, activistas cívicos y opositores.

Si bien el programa incluía a la mayoría de cargos del Gobierno, no incluía a todos los candidatos a un cargo público, en ocasiones concediendo una ventaja en la práctica a los titulares en funciones sobre sus rivales en las elecciones. Las discrepancias eran más comunes en elecciones estatales y locales, según los documentos, y a los empleados les preocupaba que Facebook pudiera ser objeto de acusaciones de favoritismo.

Stone reconoce la preocupación, pero declara que la compañía había trabajado para solucionarlo. “Realizamos múltiples esfuerzos para asegurarnos de que, tanto en las elecciones federales como en el resto, se incluyera en el programa tanto a los rivales como a los titulares en funciones”

Foto: Logo de Google. (EFE)

El programa protege a casi todo el mundo que aparezca de forma habitual en los medios o que tiene una cantidad importante de seguidores ‘online’, incluidos estrellas de cine, presentadores de tertulias de televisión, académicos y personalidades de internet con muchos seguidores. En Instagram, XCheck protege las cuentas de animales ‘influencers’ populares, incluido Doug the Pug.

En la práctica, la mayoría del contenido marcado por el sistema XCheck no se enfrentó a ninguna revisión posterior, según el documento.

Incluso cuando la empresa revisa el contenido, los retrasos en la aplicación como el de la publicación de Neymar implican que contenidos que deberían haber sido prohibidos pueden extenderse a un vasto público. El año pasado, XCheck permitió que las publicaciones que violaban sus normas fueran visualizadas al menos 16.400 millones de veces antes de ser retiradas, según un resumen del programa a finales de diciembre.

Facebook reconoció hace años que las exenciones de cumplimiento concedidas por el sistema XCheck eran inaceptables, ya que a veces se otorgaban protecciones a lo que llamaban cuentas abusivas o infractores constantes de las reglas, según los documentos. Aun así, el programa creció con el tiempo, con decenas de miles de cuentas añadidas solo el año pasado.

La mayoría del contenido marcado no se enfrentó a ninguna revisión posterior

Además, Facebook ha pedido a sus colaboradores de verificación de datos cambiar de forma retroactiva sus hallazgos en publicaciones de cuentas preeminentes, ha eximido de castigos estándares por difundir lo que considera como desinformación e incluso modificado cambios previstos en sus algoritmos para evitar consecuencias políticas.

“Actualmente Facebook no tiene un servidor de seguridad para aislar decisiones relacionadas con el contenido de presiones externas”, declara un informe de septiembre de 2020 de un investigador científico sénior de Facebook, describiendo intervenciones diarias en sus procesos de elaboración y aplicación de normas por parte del equipo de políticas públicas y los altos directivos de Facebook.

Un informe de diciembre de otro científico de datos de Facebook fue más contundente: “Facebook hace excepciones de forma rutinaria para actores poderosos”.

Llamadas fallidas

Zuckerberg ha enmarcado de modo sistemático su postura respecto a cómo controlar contenido controvertido en una de neutralidad de principios: “No queremos convertirnos en árbitros de la verdad”, declaró en una audiencia ante el Congreso el año pasado.

El sistema de aplicación especial de Facebook para usuarios vip surgió del hecho de que sus sistemas de aplicación de contenido humanos y automatizados a menudo estropeaban las llamadas.

Parte del problema son los recursos. A pesar de que Facebook ha proclamado su gasto en un ejército de moderadores de contenido, sigue sin ser capaz de procesar a fondo la cascada de contenido generada por los usuarios en sus plataformas. Aun asumiendo un personal adecuado y un mayor nivel de exactitud, tomar millones de decisiones de moderación al día seguiría implicando numerosas llamadas de perfil alto con el riesgo de malas relaciones públicas.

Facebook quería un sistema para “reducir los falsos positivos y la carga de trabajo de los empleados”, según un documento interno. El sistema XCheck se estructuró para hacer eso.

Foto: Facebook permitirá limitar tus contenidos en un solo click (Twitter/Nathaniel Gleicher)

Para reducir el riesgo de conflicto con el usuario medio, la compañía ha mantenido opacas sus notificaciones de eliminación de contenido. Los usuarios a menudo denuncian en Facebook, Instagram o plataformas rivales lo que, según ellos, son contenidos eliminados por error, normalmente adjuntando una captura de pantalla del aviso que reciben.

Facebook presta especial atención. Una presentación interna sobre el problema del año pasado se tituló: “Los usuarios responden a las acciones de Facebook”.

“Lo que dije fue literalmente feliz cumpleaños”, publicó un usuario en respuesta a una retirada fallida, según la presentación. “¿Al parecer ahora Facebook no permite quejarse de los colores?”, dijo a modo de queja otro usuario después de que Facebook catalogara de discurso de odio la declaración de que “los tonos blancos son lo peor”.

“A los usuarios les gusta hacer capturas de pantalla de nuestros mayores ridículos”, decía la presentación, indicando que a menudo se indignan incluso cuando Facebook aplica sus reglas debidamente.

placeholder La aplicación de Facebook en un móvil. (Reuters)
La aplicación de Facebook en un móvil. (Reuters)

Si ser criticado por usuarios habituales es desagradable, molestar de forma involuntaria a usuarios destacados seguramente sea bochornoso.

El año pasado, los algoritmos de Facebook malinterpretaron una publicación antigua de Hosam El Sokkari, periodista independiente que dirigió en su momento el servicio de noticias árabes de la BBC, según una “revisión de incidentes” de septiembre de 2020 de la compañía.

En la publicación, condenaba a Osama bin Laden, pero los algoritmos de Facebook creyeron que la publicación apoyaba al terrorista, lo que habría violado las reglas de la plataforma. Los revisores humanos coincidieron por error con la decisión automatizada y rechazaron la apelación de El Sokkari.

Como resultado, la cuenta de El Sokkari no pudo emitir un vídeo en directo poco antes de una aparición pública programada. A modo de respuesta, denunció a Facebook en Twitter y a la propia plataforma de la compañía en publicaciones que recibieron cientos de miles de visitas.

Foto:

Facebook dio marcha atrás rápidamente, pero poco después retiró por equivocación más publicaciones de El Sokkari criticando a figuras musulmanas conservadoras.

El Sokkari respondió: “En el equipo de soporte árabe de Facebook sin duda se han infiltrado extremistas”, tuiteó, una afirmación que provocó un mayor tumulto dentro de Facebook. Después de pedir aportaciones de 41 empleados, Facebook declaró en un informe sobre el incidente que XCheck “permanecía reactivo y respondía a la demanda” con demasiada frecuencia. El informe determinaba que XCheck debía ampliarse más para incluir a periodistas independientes destacados como El Sokkari, para evitar una mala reputación en futuras relaciones públicas.

A medida que XCheck crecía rápidamente para abarcar lo que los documentos incluían como millones de usuarios en todo el mundo, revisar todo el contenido cuestionable se convirtió en una nueva montaña de trabajo.

Estatus de lista blanca

En respuesta a lo que los documentos describen como una subinversión crónica en esfuerzos de moderación, muchos equipos de Facebook decidieron no aplicar las reglas con cuentas preeminentes en absoluto —la práctica se denominó listas blancas—. En algunos casos, el estatus de lista blanca se concedía con pocos registros de quién lo había concedido y los motivos, según la auditoría de 2019.

“Este problema está extendido, tocando casi todas las áreas de la empresa”, declara el informe de 2019, citando la auditoría. Determinaba que las listas blancas “plantean muchos riesgos legales, de cumplimiento y de legitimidad para la compañía y dañan nuestra comunidad”.

Un plan para arreglar el programa, descrito en un documento el año siguiente, declaraba que las exenciones generales y las publicaciones que nunca se revisaban posteriormente se habían convertido en el núcleo del programa, lo que significa que la mayoría del contenido de los usuarios de XCheck no era objeto de aplicación. “Actualmente revisamos menos del 10% del contenido de XCheck”, declaraba el documento. Stone dice que la compañía mejoró dicho porcentaje durante 2020, aunque se niega a ofrecer datos.

La libertad concedida a cuentas políticas destacadas con la desinformación, que en 2019 la empresa reconocía hasta cierto punto, desconcertó a algunos empleados responsables de proteger las plataformas. Las cuentas de perfil alto presentaban un mayor riesgo que las regulares, según investigadores, y, sin embargo, eran las menos controladas.

“Este problema está extendido, tocando casi todas las áreas de la empresa”

“Estamos exponiendo de forma consciente a usuarios a desinformación que podemos mitigar con nuestros procesos y recursos”, declara un informe de 2019 de investigadores de Facebook, llamado 'The Political Whitelist Contradicts Facebook’s Core Stated Principles'. La página web de tecnología The Information ya ha publicado sobre el documento.

En una ocasión, usuarios políticos de la lista blanca compartieron artículos de páginas web de medicina alternativa alegando que un médico de Berkeley, California, había revelado que la quimioterapia no funciona en el 97% de los casos. Las organizaciones de verificación de datos desacreditaron las afirmaciones, indicando que la ciencia se había falseado y que el médico que citaba el artículo falleció en 1978.

En un comentario interno en respuesta al informe, Samidh Chakrabarti, ejecutivo que dirigió el Equipo Cívico de Facebook, que se centra en el discurso político y social en la plataforma, expresó su incomodidad con las exenciones.

“Uno de los motivos fundamentales por los que me uní a FB es que creo en su potencial por ser una fuerza profundamente democratizadora que permite a todos tener una voz cívica por igual”, escribió. “Así que tener reglas distintas sobre el discurso para diferentes personas es muy alarmante”. Otros empleados declararon que la práctica era contraria a los valores de Facebook.

placeholder El signo de 'me gusta' de Facebook. (Reuters)
El signo de 'me gusta' de Facebook. (Reuters)

“La toma de decisiones de FB sobre política de contenidos se ve afectada por factores políticos”, escribió un economista en el departamento de Ciencia de Datos de la compañía.

“Separad la política de contenidos de las políticas públicas”, recomendó Kaushik Iyer, entonces ingeniero jefe en el equipo de Integridad Cívica de Facebook, en una nota de junio de 2020. El mismo mes, empleados debatieron en Workplace, la plataforma interna, sobre las ventajas de revelar el programa XCheck.

Como la propuesta de transparencia obtuvo decenas de emoticonos de ‘me gusta’ y ‘me encanta’ de compañeros, Chakrabarti, del Equipo Cívico, incluyó al jefe de Producto que supervisaba el programa XCheck para dar una respuesta.

Los problemas de equidad eran reales y XCheck había sido mal gestionado, escribió el jefe de Producto, pero “tenemos que comparar eso con el riesgo corporativo”. Dado que la empresa ya estaba intentando solucionar las deficiencias del programa, el mejor planteamiento era “la transparencia interna”, declaró.

El 5 de mayo, la junta de supervisión de Facebook apoyó la suspensión de Trump, al que acusaba de generar un riesgo de violencia en relación con el asalto al Capitolio de Washington el 6 de enero. También criticó las prácticas de aplicación de la empresa, recomendando que Facebook articulara de forma más clara sus reglas para individuos destacados y desarrollara sanciones para los infractores.

Foto: Ojos proyectados en 3D (Facebook)

En una de las 19 recomendaciones, la junta solicitó a Facebook que “informara de la tasa de error relativa y de la coherencia temática de las determinaciones hechas a través del proceso de verificación cruzada en comparación con los procedimientos de aplicación ordinarios”.

Un mes después, Facebook dijo que pondría en práctica 15 de las 19 recomendaciones. La que pedía dar a conocer datos sobre XCheck fue una de las cuatro que dijo que no adoptaría.

“No es factible supervisar esta información”, escribió Facebook en sus respuestas. “Hemos explicado este producto en nuestra sala de prensa”, añadió, enlazando con una publicación de blog de 2018 que declaraba “eliminamos contenido de Facebook, sin importar quién lo publique, cuando incumple nuestra normativa”. La revisión interna de Facebook de 2019 había citado previamente esa misma publicación como engañosa.

Los documentos de XCheck muestran que Facebook engañó a la junta de supervisión, declara Kate Klonick, profesora de Derecho en la Universidad St. John’s. La junta se financió con un esfuerzo inicial de Facebook de 130 millones de dólares en 2019, y la compañía otorgó a Klonick un acceso especial para estudiar la formación del grupo y sus procesos.

Foto: Mario Bonacho, responsable de defensa de reputación corporativa y delitos contra la intimidad en Averum Abogados.

“¿Por qué dedicarían tanto tiempo y dinero a crear la junta de supervisión y después le mentirían?”, dice sobre Facebook después de revisar la documentación de XCheck a petición del ‘WSJ’. “Esto la va a debilitar por completo”.

En una declaración escrita, un portavoz de la junta declara que esta “ha expresado en múltiples ocasiones su preocupación por la falta de transparencia en los procesos de moderación de contenido de Facebook, sobre todo relativa a la gestión incoherente de la compañía de las cuentas de perfil alto”.

Facebook está intentando erradicar la práctica de la lista blanca, según muestran los documentos y confirma el portavoz. La compañía estableció un objetivo de eliminar la inmunidad total para infracciones “muy graves” de las reglas de FB en la primera mitad de 2021.

“¿Por qué dedicarían tanto a crear la junta de supervisión y después le mentirían?”

Una actualización de marzo informó de que la compañía estaba teniendo problemas para frenar las incorporaciones a XCheck. “Las listas vip siguen creciendo”, escribió una mánager de Producto del Equipo de Prevención de Errores de Facebook. Anunció un plan para ‘detener la hemorragia’ bloqueando la capacidad de los empleados de Facebook para registrar a nuevos usuarios en XCheck.

Una posible solución sigue descartada: aplicar las mismas normas a los usuarios de perfil alto que al resto.

“No tenemos sistemas desarrollados para realizar esa solicitud extra para todas las acciones de integridad que pueden suceder con un vip”, dice su informe. Para evitar cometer errores que puedan enfadar a usuarios influyentes, señala, Facebook instruiría a los revisores para adoptar un enfoque cuidadoso.

“Indicaremos una asunción de buenas intenciones en nuestros flujos de revisiones y nos apoyaremos en el ‘inocente hasta que se demuestre lo contrario”, escribe. El plan, según la mánager, contaba con un apoyo “generalizado” de la dirección de la empresa.

*Contenido con licencia de ‘The Wall Street Journal’.

Mark Zuckerberg ha declarado públicamente que Facebook permite a sus más de 3.000 millones de usuarios hablar en condiciones de igualdad con la élite de la política, la cultura y el periodismo, y que sus normas de conducta aplican a todo el mundo, sin importar su posición o fama.

Mark Zuckerberg
El redactor recomienda