Es noticia
Conspiraciones, violencia y otras malas artes: las prácticas de Facebook durante la pandemia
  1. Cultura
prepublicación

Conspiraciones, violencia y otras malas artes: las prácticas de Facebook durante la pandemia

Publicamos un extracto de 'Código Roto. Los secretos más peligrosos de Facebook', un libro en el que se analizan los efectos perjudiciales de la plataforma y su impacto en la sociedad

Foto: Ilustración de la manipulación de información en Internet sobre la epidemia de coronavirus. (iStock)
Ilustración de la manipulación de información en Internet sobre la epidemia de coronavirus. (iStock)

Cuando el COVID-19 irrumpió a principios de 2020, Facebook fue una de las primeras empresas importantes de EEUU en cerrar. Si bien el personal mínimo indispensable continuó trabajando presencialmente en los centros de datos de la compañía para que los servidores siguieran funcionando, Facebook envió a casa a la inmensa mayoría de sus 50.000 empleados, a esperar órdenes y a enfrentarse a la realidad de una pandemia mundial.

Fue una época difícil para todo el mundo en general y para muchos empleados en particular. Pero ¿y para la compañía?

La pandemia fue simple y llanamente una bendición. Después de tres años envuelto en escándalos relacionados con cuentas falsas, fallos en la moderación y desinformación, Facebook, como producto, se volvió indispensable para millones de personas confinadas en sus casas y que querían mantener algún tipo de contacto con otros seres humanos. Cuando Italia se convirtió en el primer país después de China en imponer un confinamiento por COVID a escala nacional en el mes de marzo, el uso de los productos de Facebook aumentó un 70% y algunos de los ellos, como las llamadas grupales de WhatsApp, se multiplicaron por diez.

Para las empresas, los productos de la compañía fueron también una tabla de salvación. Facebook llevaba años intentando impulsar el comercio a través de su plataforma y la pandemia lo consiguió.

Facebook llevaba años intentando impulsar el comercio a través de su plataforma y la pandemia lo consiguió

Los cuadros de mando internos reflejaron un uso extraordinario durante los primeros días del confinamiento. Solo los usuarios estadounidenses aumentaron sus publicaciones un 50% y pasaron 200 millones de horas al día en la aplicación.

Ese boom de atención tardaría en dar sus frutos en cuanto a ingresos publicitarios, pero, con 60.000 millones de dólares en efectivo y valores, la compañía tenía mucho dinero para gastar.

Le pagó a su personal externo dedicado a la moderación de contenidos para que se quedara en casa sin hacer nada durante meses y concedió una bonificación de 1.000 dólares a su personal a tiempo completo. Asimismo, suspendió las evaluaciones de rendimiento y declaró que la valoración de todos los empleados sería "Supera las expectativas", garantizando a todo el mundo una importante bonificación anual.

La pandemia acabó también con el déficit de contrataciones. Facebook había tenido dificultades para encontrar suficientes empleados para mantener su rápido crecimiento y Zuckerberg había "dejado muy claro" a los directores de contratación a finales de 2019 que estaba descontento con el ritmo de las contrataciones. Según señaló posteriormente una circular de Recursos Humanos: Sabíamos que teníamos que crear muchos productos y teníamos más confianza que otras empresas en que íbamos a ser capaces de desenvolvernos en medio de la incertidumbre empresarial del COVID-19. Y la apuesta nos salió bien.

El mundo estaba cambiando de un modo que se ajustaba al modelo de negocio de Facebook y a los puntos fuertes de Zuckerberg.

Al consejero delegado le interesaban las pandemias desde hacía mucho tiempo. Él y su mujer, Priscilla, habían lanzado el Chan Zuckerberg Biohub en 2016, con el objetivo de "apoyar a la ciencia y a la tecnología que permitirán curar, prevenir o gestionar todas las enfermedades para finales de siglo". Zuckerberg estaba especialmente interesado en la inmunización, ya que implicaba tecnología y, sobre todo, escala. Para gestionar Biohub, Zuckerberg contrató a Joseph DeRisi, un bioquímico de la Universidad de California en San Francisco, el cual había inventado la tecnología que permitió identificar por primera vez el síndrome respiratorio agudo grave (SARS, por sus siglas en inglés), lo cual resultó ser un coronavirus. Justo unos meses antes del estallido de la pandemia, Zuckerberg había retransmitido en directo un debate con DeRisi sobre los avances realizados en el campo de la virología, en el cual se trató e ltema de "la erosión del sentido de la verdad y la confianza en los expertos".

Facebook difícilmente podría haber estado mejor posicionado cuando se desencadenó el desastre. Zuckerberg ordenó a sus lugartenientes que comenzaran a prepararse para la pandemia ya en enero, y exigió al Equipo de Integridad que empezase a trabajar en la desinformación que rodeaba al COVID.

Además, escribió a Anthony Fauci para proponerle crear un "Centro de Información sobre el COVID", que dispusiera de información autorizada sobre el virus y contenidos potenciales del propio director del Instituto Nacional de Alergias y Enfermedades Infecciosas del Instituto Nacional de Salud.

Facebook difícilmente podría haber estado mejor posicionado cuando se desencadenó el desastre. Zuckerberg ordenó que comenzaran a prepararse para la pandemia ya en enero

"No se sienta obligado a responder si no le parece útil", escribió Zuckerberg.

Como mucho de lo que Zuckerberg estaba haciendo, la sugerencia fue útil. Fauci aceptó la propuesta y el consejero delegado declaró que la compañía no toleraría informaciones falsas que pusieran a la gente en peligro.

A medida que la plataforma de Facebook se llenaba de recaudaciones de fondos para trabajadores de baja temporal, restaurantes que promocionaban comida para llevar y retransmisiones de actuaciones musicales en vivo, la compañía se ganó una revalorización a regañadientes. Como autoproclamado consejero delegado en tiempos de guerra, Zuckerberg se adaptó perfectamente al hecho de tener un virus como adversario. "La pandemia le está dando a Zuckerberg la oportunidad de arreglar las cosas", anunció Bloomberg Businessweek.

Un artículo del New York Times dijo que, tras años de errores, el coronavirus le había dado al consejero delegado la "oportunidad de demostrar que ha asumido sus responsabilidades como líder".

A nivel interno, el personal de Facebook estaba aparentemente de acuerdo. La compañía encuestaba sin cesar a sus empleados, y descubrió que, incluso en medio del caos inicial de la pandemia, la satisfacción de estos iba en aumento. El 25 de mayo, el 83% de la plantilla declaró sentirse optimista ante el futuro de Facebook, lo que suponía un aumento de más de 25 puntos en dos meses.

Casi el mismo porcentaje declaró tener confianza en la dirección de la compañía, un nivel no registrado desde antes de las elecciones de 2016.

La compañía encuestaba sin cesar a sus empleados, y descubrió que, incluso en medio del caos inicial de la pandemia, la satisfacción de estos iba en aumento

Sin embargo, había señales de que no todo iba bien. En mayo, un científico de datos que trabajaba en integridad publicó una nota en Workplace titulada Facebook está creando una gran cámara de resonancia para el relato "el Gobierno y los funcionarios de salud pública nos mienten”. ¿Nos importa?

Cuando solo habían transcurrido unos pocos meses desde el inicio de la pandemia, grupos contrarios a las medidas de confinamiento se habían convertido en algunos de los más visitados de la plataforma, difundiendo afirmaciones falsas acerca de la pandemia bajo la apariencia de activismo político. Además de servir como cámara de resonancia de afirmaciones de que el virus era una conspiración china y que no era real, los grupos sirvieron de teatro de operaciones para arremeter contra la información médica dominante en toda la plataforma. Los médicos informaban de que las abarrotadas salas de urgencias y los camiones refrigerados estaban siendo abucheados; expresiones de duda colonizaban la información sobre las indicaciones de la sanidad pública como percebes en un muelle.

Un estudio reveló que esos grupos habían surgido repentinamente y, aunque tenían vínculos con comunidades antivacunas asentadas, no se habían creado de manera natural.

Muchos de ellos tenían nombres y descripciones casi idénticos, y un análisis de su crecimiento demostró que "un número relativamente pequeño de personas" estaba enviando automáticamente invitaciones a "cientos o miles de usuarios cada día".

La mayor parte de esto no vulneraba las normas de Facebook, señaló el científico de datos en su publicación. Afirmar que el COVID era una conspiración de Bill Gates para enriquecerse con las vacunas no se ajustaba a la definición de "peligro" de Facebook. Sin embargo, dijo, la compañía debía pensar si simplemente estaba reflejando un escepticismo muy extendido en torno al COVID o si estaba creando ese escepticismo.

"Esto está afectando gravemente a la actitud de la gente en materia de sanidad pública —respondió un veterano científico de datos—. Dispongo de datos de un sondeo de próxima aparición que indican resultados muuuuy malos".

Afirmar que el COVID era una conspiración de Bill Gates para enriquecerse con las vacunas no se ajustaba a la definición de "peligro" de Facebook

Poco después, la compañía declaró un "site evento", o SEV, reconociendo formalmente un problema significativo. La emergencia en cuestión era que la desinformación parecía haber aumentado más del doble.

La desinformación del COVID-19, difundida por QAnon y otros movimientos conspirativos, no era el único problema que estaba a punto de atosigar a Facebook.

El presidente Trump estaba maniobrando para lograr la reelección y acudió a su plataforma preferida, Twitter, para lanzar lo que se convertiría en un intento de varios meses de duración de minar la legitimidad de las elecciones de noviembre de 2020. "No hay ninguna posibilidad (¡CERO!) de que el voto por correo no sea esencialmente fraudulento", escribió el todavía presidente. Como era habitual en los tuits de Trump, el mensaje se publicó también en Facebook.

Debajo del mensaje, Twitter incluyó una pequeña alerta que animaba a los usuarios a "Conocer los datos del voto por correo". A cualquiera que clicara se le informaba de que las acusaciones de Trump de que las elecciones estaban «amañadas» eran falsas y de que no había pruebas de que votar por correo supusiera un riesgo de fraude.

Twitter había marcado su límite. Ahora, Facebook tenía que decidir cuál era su posición. Monika Bickert, directora de Política de Contenidos de la empresa, declaró que la publicación de Trump estaba justo en el filo de la clase de desinformación sobre los "métodos de votación" que la compañía se había comprometido a eliminar.

Zuckerberg no tenía una posición clara, así que se dejó llevar por su instinto y lo dejó. Sin embargo, luego acudió a Fox News para atacar a Twitter por hacer lo contrario. "Creo firmemente que Facebook no debería ser el árbitro de la verdad de todo lo que la gente dice en internet —le dijo a la presentadora Dana Perino—. Las empresas privadas, especialmente estas plataformas, no deberían estar en posición de hacer eso".

La entrevista causó cierto revuelo en Facebook. ¿Por qué iba Zuckerberg a fomentar que Trump pusiera a prueba los límites de Facebook al declarar que su tolerancia a la publicación era cuestión de principios?

La percepción de que Zuckerberg se estaba arrastrando ante Trump estaba a punto de empeorar mucho. El día de su entrevista en Fox News, las protestas por el reciente asesinato de George Floyd por oficiales de policía de Minneapolis se habían extendido a todo el país y, al día siguiente, el presidente tuiteó que "cuando empiezan los saqueos, empiezan los tiroteos" (una frase claramente amenazadora pronunciada por un jefe de policía blanco de Miami durante la época de los derechos civiles).

Al declarar que Trump había infringido sus normas contra la glorificación de la violencia, Twitter tomó la medida inesperada de limitar la capacidad del público para ver el tuit: los usuarios tenían que clicar en un aviso si querían verlo y se les impedía dar un "me gusta" o retuitearlo.

¿Por qué iba Zuckerberg a fomentar que Trump pusiera a prueba los límites de Facebook al declarar que su tolerancia a la publicación era cuestión de principios?

En Facebook, donde el mensaje también había sido publicado como de costumbre, el clasificador de violencia e incitación a la violencia de la compañía estimó que tenía menos de un 90% de probabilidades de infringir las normas de la plataforma, justo por debajo del umbral que haría que la publicación de un usuario corriente fuera eliminada automáticamente.

Trump no era un usuario corriente, desde luego. Como personaje público —podría decirse que el personaje más público del mundo—, su cuenta y sus publicaciones estaban protegidas por un montón de capas diferentes de dispositivos de seguridad.

Facebook había desarrollado el concepto de aplicar diferentes estándares de tratamiento a los personajes públicos hasta el punto de que se había convertido en marca de la casa.

placeholder Portada del ensayo de Horwitz, editado por Ariel.
Portada del ensayo de Horwitz, editado por Ariel.

Durante su primer mandato como presidente, Barack Obama publicó una lista de sus libros favoritos, entre los que se incluía la célebre novela de Herman Melville sobre la obsesión, el progreso industrial y una ballena blanca. El título disparó la alarma de un antiguo proyecto de automatizar la eliminación de obscenidades.

El consiguiente apagón de la página de Obama fue breve y, en última instancia, no tuvo consecuencias, pero envió un mensaje a los líderes de Facebook: la compañía no podía irse de rositas con la chapuza de las llamadas a la moderación al presidente de Estados Unidos. Ese incidente y otros parecidos dieron origen al concepto de "blindaje", el cual fue rebautizado posteriormente como XCheck (pronunciado «cross-check»).

Para aplicarlo, Facebook elaboró una lista de cuentas inmunes a algunas o a todas las acciones de ejecución inmediata. Si esas cuentas parecían infringir las normas de Facebook, el tema se remitía a estamentos superiores en la jerarquía de la empresa, los cuales decidían si había que tomar medidas contra la cuenta o no. Todas las plataformas de redes sociales acabaron creando listas parecidas; no tenía sentido juzgar a jefes de Estado, deportistas famosos o defensores de derechos humanos que eran objeto de persecución de la misma forma que las compañías juzgaban a los usuarios corrientes. El problema fue que, como sucedía muchas veces en Facebook, el procedimiento de la compañía se volvió especialmente complicado.

Para la plataforma, los riesgos de blindar a pocos usuarios superaban a los de blindar a demasiados. Eliminar por error el contenido de un pez gordo podía desatar el infierno público (en la terminología de Facebook, un "escalamiento mediático" o, el acontecimiento más temido, un "incendio de relaciones públicas"). La eliminación por error de publicaciones de víctimas de cáncer de mama o de toda clase de activistas acarreó horas o días de cobertura periodística. La eliminación de una foto de la portada de una revista francesa subida de tono, publicada en Instagram por la cantante estadounidense Rihanna en 2014, casi provocó un incidente internacional. Como señalaron posteriormente críticas internacionales al sistema, el incentivo era blindar todo lo posible cualquier cuenta con suficiente influencia para generar una atención indebida.

Ningún equipo supervisaba el XCheck, y el término ni siquiera tenía una definición específica. Había infinitas variantes y gradaciones que se aplicaban a los anunciantes, las publicaciones, las páginas y los políticos, y cientos de ingenieros de la compañía codificaban diferentes tipos de protección y etiquetaban las cuentas como procediera. Con el tiempo, al menos 6 millones de cuentas y páginas fueron inscritas en XCheck, y una guía interna estableció que una entidad debía ser «relevante», «influyente o popular» o «correr riesgo de relaciones públicas» para cumplir los requisitos. En Instagram, XCheck controlaba incluso a influencers animales como Doug the Pug.

Cualquier empleado de Facebook que conociera los pormenores podía introducirse en el sistema y marcar las cuentas que requerían un control especial. XCheck era utilizado por más de cuarenta equipos dentro de la compañía.11 A veces, había un registro de cómo lo habían aplicado y a veces no. Revisiones posteriores determinaron que las protecciones de XCheck se habían otorgado a "cuentas abusivas" e "infractores recurrentes" de las normas de Facebook.

La tarea de llevar a cabo una segunda revisión del contenido infractor de usuarios preeminentes requería un equipo considerable de empleados a tiempo completo. Facebook nunca había tenido uno. Las publicaciones señaladas se ponían en una cola que nadie tenía en cuenta nunca, barriendo bajo la alfombra digital las quejas una vez comprobadas. «Como no había gobernanza ni rigor, esas colas podrían no haber existido —recordó alguien que había trabajado en el sistema—. El interés se centraba en proteger el negocio, lo cual implicaba asegurarse de no eliminar la publicación de algún pez gordo

Podía haber mucho en juego. XCheck protegía las cuentas importantes, también en Myanmar, donde personalidades públicas estaban utilizando Facebook para incitar al genocidio.

*Jeff Horwitz es reportero de tecnología de The Wall Street Journal. Es el autor de 'Los papeles de Facebook', la investigación periodística que destapó el mayor escándalo de esta década en la red social. El ' Codigo Roto' nace de esa investigación y analiza los límites de la ética en el capitalismo de la era digital.

Cuando el COVID-19 irrumpió a principios de 2020, Facebook fue una de las primeras empresas importantes de EEUU en cerrar. Si bien el personal mínimo indispensable continuó trabajando presencialmente en los centros de datos de la compañía para que los servidores siguieran funcionando, Facebook envió a casa a la inmensa mayoría de sus 50.000 empleados, a esperar órdenes y a enfrentarse a la realidad de una pandemia mundial.

Transformación digital Libros Ensayo