Es noticia
Facebook descartó medidas para reducir la polarización para retener a los usuarios
  1. Mercados
  2. The Wall Street Journal
'Facebook files': tercera parte

Facebook descartó medidas para reducir la polarización para retener a los usuarios

Comunicaciones internas muestran cómo una gran transformación en 2018 provocó indignación y que el CEO, Mark Zuckerberg, se opuso a los arreglos propuestos

Foto: Foto: EC Diseño.
Foto: EC Diseño.
EC EXCLUSIVO Artículo solo para suscriptores

En otoño de 2018, Jonah Peretti, director ejecutivo del medio de comunicación ‘online’ BuzzFeed, envió un ‘e-mail’ a un alto cargo de Facebook. El contenido más divisorio que estaban publicando estaba volviéndose viral en la plataforma, dijo, creando un incentivo para producir más.

Señaló el éxito de una publicación de BuzzFeed titulada "21 cosas que dice la mayoría de personas blancas", que fue compartida 13.000 veces y recibió 16.000 comentarios en Facebook, muchos de gente criticando a BuzzFeed por escribirla, y discutiendo sobre la raza. Otro contenido que producía la empresa, desde vídeos de noticias hasta artículos sobre los cuidados personales y los animales, tenía problemas para abrirse camino, dijo.

Peretti culpó a un cambio importante que Facebook había hecho en su algoritmo de la página de noticias a comienzos de año para estimular “interacciones sociales significativas”, o MSI, por sus siglas en inglés, entre amigos y familia, según documentos internos de Facebook revisados por ‘The Wall Street Journal’ que citan el ‘e-mail’.

Foto: Foto: EC Diseño.
TE PUEDE INTERESAR
'Facebook files': así permite la red social que los usuarios vip acosen y difundan bulos
The Wall Street Journal Jeff Horwitz Deepa Seetharaman Georgia Wells

BuzzFeed basó su negocio en crear contenido que se haría viral en Facebook y otras redes sociales, así que tenía un interés particular en cualquier cambio en los algoritmos que dañase su distribución. Sin embargo, el ‘e-mail’ de Peretti tocó una fibra sensible.

El director ejecutivo de Facebook, Mark Zuckerberg, declaró que el objetivo del cambio en el algoritmo era reforzar los vínculos entre usuarios y mejorar su bienestar. Facebook alentaría a la gente a interactuar más con amigos y familia y a pasar menos tiempo consumiendo de forma pasiva contenido producido profesionalmente, que la investigación indicaba era perjudicial para su salud mental.

No obstante, dentro de la compañía, los empleados advirtieron de que el cambio estaba produciendo el efecto contrario, según los documentos. Estaba volviendo a la plataforma de Facebook en un lugar con más ira. Investigadores de la empresa descubrieron que los medios y los partidos políticos estaban reorientando sus publicaciones hacia la indignación y el sensacionalismo. Esa táctica generaba altas cifras de comentarios y reacciones que se trasladaban con éxito en Facebook.

placeholder El presidente y CEO de Facebook, Mark Zuckerberg. (Reuters)
El presidente y CEO de Facebook, Mark Zuckerberg. (Reuters)

“Nuestro enfoque ha tenido efectos colaterales nocivos en partes importantes del contenido público, como la política y las noticias”, escribió un equipo de científicos de datos, señalando las quejas de Peretti, en una comunicación revisada por el ‘WSJ’. “Esto es una responsabilidad creciente”, escribió uno de ellos en una comunicación posterior.

Concluyeron que el enorme peso que el nuevo algoritmo otorgaba al material compartido en su página de noticias volvía más fuertes las voces enfadadas. “La desinformación, la toxicidad y el contenido violento son excesivamente comunes en las publicaciones que se comparten”, indicaron investigadores en comunicaciones internas.

Algunos partidos políticos en Europa comentaron a Facebook que el algoritmo les había hecho cambiar sus posturas políticas para tener una mayor repercusión en la plataforma, según los documentos. “Muchos partidos, incluyendo los que se han pasado al lado negativo, están preocupados por las consecuencias a largo plazo en la democracia”, decía un informe interno de Facebook, que no mencionaba a partidos específicos.

Foto: EC Diseño.

Los empleados de Facebook también comentaron el otro motivo, menos difundido, por el que la empresa había realizado el cambio: los usuarios habían empezado a interaccionar menos con la plataforma, una tendencia alarmante, según los documentos.

El ‘e-mail’ y las comunicaciones forman parte de una serie de comunicaciones internas de la compañía revisadas por el ‘WSJ’. Ofrece un retrato sin precedentes de cuánto sabe Facebook sobre los defectos en sus plataformas y la frecuencia con que carece de la voluntad o la capacidad para abordarlos. Este es el tercero de una serie de artículos con base en dicha información.

En una entrevista, Lars Backstrom, vicepresidente de Ingeniería en Facebook, declara que cualquier algoritmo se arriesga a promover contenido que es censurable o dañino para algunos usuarios. “Al igual que cualquier optimización, va a ver ciertas formas en las que hay quien la va a explotar o se va a aprovechar de ella”, dice. “Esa es la razón por la que tenemos un equipo de integridad que está intentando localizarlos y averiguar cómo reducirlos de la forma más eficiente posible”.

Científicos de datos de ese equipo de integridad —cuyo trabajo es mejorar la calidad y la fiabilidad del contenido en la plataforma— trabajaron en varios cambios potenciales para frenar la tendencia del algoritmo revisado de recompensar la ira y las mentiras. Zuckerberg se opuso a algunos de los ajustes propuestos, según los documentos, porque le preocupaba que pudieran dañar el otro objetivo de la compañía —hacer que los usuarios interaccionasen más con Facebook—.

Anna Stepanov, que lideró un equipo que abordó dichas cuestiones, le presentó a Zuckerberg varias propuestas de cambios pensados para abordar la proliferación de contenido falso y divisorio en la plataforma, según una comunicación interna de abril de 2020 que escribió sobre la sesión informativa. Uno de dichos cambios habría eliminado un impulso que el algoritmo proporcionaba al contenido que era más probable que compartieran largas cadenas de usuarios.

"Mark no cree que podamos extender" el cambio, dijo un empleado

“Mark no cree que podamos extender” el cambio, escribió a sus compañeros después de la reunión. Zuckerberg dijo que estaba abierto a probar la propuesta, pero “no la implantaremos si hubiera que sacrificar material del impacto de las MSI”.

El mes pasado, casi un año y medio después de que Stepanov dijese que Zuckerberg había rechazado la idea de incorporar ampliamente un cambio similar, Facebook anunció que estaba “expandiendo de forma gradual algunas pruebas para restarle importancia a indicaciones como la probabilidad de que alguien comente o comparta contenido político”. El movimiento forma parte de un esfuerzo más amplio, alentado por encuestas a usuarios, por reducir la cantidad de contenido político en Facebook después de que la compañía fuera criticada por la forma en que los manifestantes de las elecciones utilizaron la plataforma para poner en duda los resultados y organizar protestas que condujeron al asalto del Capitolio el 6 de enero en Washington.

Backstrom, que supervisa la jerarquía de contenido en la página de noticias, dice que Facebook ha implementado el reciente cambio porque sintió que los inconvenientes de confiar en parámetros basados en la interacción para categorías de contenido sensible como la política superaban los beneficios.

El cambio en el algoritmo de 2018 afectaba a la función central de Facebook, la página de noticias, una sucesión de fotos familiares de amigos y enlaces a nuevas historias constantemente actualizada y altamente personalizada. Representa la mayor parte del tiempo que los casi 3.000 millones de usuarios de Facebook pasan en la plataforma. La compañía vende dicha atención del usuario a anunciantes, tanto en Facebook como en su plataforma hermana Instagram, lo que representa casi el total de sus ingresos de 86.000 millones de dólares del año pasado.

placeholder La sede de EMEA de Facebook en Irlanda. (Reuters)
La sede de EMEA de Facebook en Irlanda. (Reuters)

Un algoritmo patentado controla lo que aparece en la página de noticias de cada usuario. Tiene en cuenta los amigos del usuario, el tipo de grupos a los que pertenece, las páginas que le gustan, los anunciantes que han pagado para dirigirse a él y el tipo de historias que son populares o están conduciendo la conversación.

Cambios significativos en el algoritmo pueden tener grandes consecuencias para la empresa, anunciantes y medios de publicación. Facebook ha realizado muchos ajustes en el algoritmo a lo largo de los años. El cambio para destacar las MSI fue uno de los más grandes.

“¿Es un cambio de jerarquía la fuente de las divisiones en el mundo? No”, declara el portavoz de Facebook Andy Stone en una declaración escrita. “Las investigaciones muestran que ciertas divisiones partidistas en nuestra sociedad llevan expandiéndose varias décadas, mucho antes de que incluso existieran las plataformas como Facebook”.

‘Lo correcto’

En enero de 2018, Facebook venía de un año difícil. Estaba defendiendo en Washington lo que los agentes de inteligencia de EEUU habían declarado como el uso de Rusia de la plataforma para entrometerse en las elecciones presidenciales de 2016.

Zuckerberg anunció que iba a cambiar el objetivo de los jefes de Producto de Facebook de ayudar a la gente a encontrar contenido relevante a ayudarles a interactuar más con amigos y familiares. Declaró que el cambio estaba motivado por estudios que mostraban que el consumo de medios pasivo en Facebook —sobre todo vídeos, que habían explotado en la plataforma— no era tan beneficioso para el bienestar como interactuar con otras personas.

Planteó el cambio como un sacrificio. “Ahora, quiero ser claro: al hacer estos cambios, espero que el tiempo que la gente pasa en Facebook y ciertos parámetros de interacción caigan”, escribió en Facebook. “Pero también espero que el tiempo que pasáis en Facebook sea más valioso. Y, si hacemos lo correcto, creo que será positivo para nuestra comunidad y nuestro negocio también a largo plazo”.

Zuckerberg planteó el cambio como un sacrificio

Vídeos de formación y comunicaciones internas de Facebook muestran otra razón para el cambio —la creciente preocupación de la compañía por un declive de la interacción de los usuarios, que normalmente se refiere a acciones como comentar o compartir publicaciones—. La interacción se percibe dentro de la compañía como un indicio importante de la salud del negocio.

Los comentarios, ‘me gusta’ y publicaciones compartidas se redujeron en 2017, mientras que las publicaciones “de transmisiones originales” —el párrafo y la foto que publica una persona cuando muere un perro— continuaron un declive de varios años que ninguna intervención parecía capaz de frenar, según las comunicaciones internas. El temor era que, a la larga, los usuarios pudieran dejar de usar Facebook por completo.

Un científico de datos declaró en una comunicación de 2020 que los equipos de Facebook estudiaron el problema y “nunca llegaron a descubrir por qué caían los parámetros”. Finalmente, los miembros del equipo llegaron a la conclusión de que la prevalencia del vídeo y otro contenido profesional, en lugar de publicaciones orgánicas de individuos, seguramente fuera parte del problema.

Foto: Ojos proyectados en 3D (Facebook)

El objetivo del cambio en el algoritmo era revertir el declive de los comentarios, y otras formas de interacción, y fomentar más publicaciones originales. Recompensaría a las publicaciones que reunieran más comentarios y emoticonos de emociones, que se veían como más expresivos que los ‘me gusta’, según los documentos.

En un vídeo de formación interno, un empleado de Facebook declaraba que, además del “deber ético” de la compañía de no convertir a los usuarios en zombis con demasiados vídeos, tenía justificaciones empresariales para intervenir. “La gente seguramente deje la aplicación si es perjudicial para ellos”, decía el empleado.

Clasificar las difusiones

La solución de Facebook fue crear una fórmula que evaluase cómo de “significativa” era la interacción que suscitaba una publicación, y después organizar la página de noticias para fomentar dichas interacciones tanto como fuera posible. Bajo un sistema interno de puntos utilizado para medir su éxito, un ‘me gusta’ valía un punto; una reacción, difusión sin texto o respuesta a una invitación valía cinco puntos, y un comentario, mensaje difusión o invitación a responder, 30 puntos. Se añadieron multiplicadores adicionales en función de si la interacción se daba entre miembros de un grupo, amigos o desconocidos.

Desde una perspectiva empresarial, funcionó. Tal y como pronosticó Facebook, el tiempo invertido en la plataforma cayó, pero el esfuerzo por maximizar las interacciones entre usuarios ralentizó la caída libre en comentarios y, sobre todo, mejoró la importantísima métrica de “personas activas diarias” que utilizaba Facebook, según pruebas realizadas en agosto de 2018, de acuerdo con las comunicaciones internas.

El cambio tuvo algunas consecuencias positivas. El contenido difundido por conexiones cercanas era más fiable, y los usuarios lo encontraron más valioso que el material de contactos más distantes, según un informe. Pero tales beneficios fueron superados por el aspecto del cambio en el algoritmo que favorecía las acciones de usuarios como difusiones y comentarios.

En una primera señal de alarma, durante el verano de 2018, científicos de datos de Facebook entrevistaron en varias ocasiones a usuarios y descubrieron que muchos sentían que la calidad de sus páginas había descendido, según los documentos.

Como Facebook había advertido que era probable, el cambio perjudicó a muchos medios ‘online’. En la primera mitad de 2018, BuzzFeed sufrió un declive del 13% en su tráfico, en comparación con los seis meses anteriores, 'Breitbart' perdió un 46% y ABC News un 12%, según a la firma de datos ‘online’ Comscore.

Topix, página de noticias conocida por los foros de comunidades locales, perdió el 53% de su tráfico en dicho periodo. “Facebook era nuestro mayor conductor en ese momento”, declara Chris Tolles, exdirector ejecutivo de Topix. “Eso fue claramente un problema para nosotros”. Topix fue adquirida por Publishers Clearing House en 2019.

En entrevistas, más de una docena de directivos de medios de noticias describieron el cambio de Facebook como el golpe decisivo tras varios años de políticas en constante cambio que les convencieron de que no podían depender de Facebook para el tráfico.

BuzzFeed sentía "presión por crear contenido malo"

BuzzFeed adquirió relevancia en creaciones de internet como listados y cuestionarios, pero con los años desarrolló un sólido operativo de noticias y se expandió de forma agresiva al vídeo. Facebook ha sido tradicionalmente una fuente principal de tráfico para BuzzFeed, aunque la empresa ha diversificado su propagación en los últimos años.

Peretti, de BuzzFeed, escribió en su ‘e-mail’ que el nuevo algoritmo parecía estar recompensando de forma desproporcionada la división, en base a lo que la empresa de comunicación veía en sus propios números y sus observaciones sobre cómo funcionaban las publicaciones de otros medios. “El 'ranking' de las MSI no está recompensando realmente el contenido que genera interacciones sociales significativas”, escribió Peretti en su ‘e-mail’ al ejecutivo de Facebook, añadiendo que sus empleados sentían “presión por crear contenido malo u obtener peores resultados”.

No era solo material que se aprovechaba de las divisiones raciales, escribió, sino también de la “ciencia barata y pasajera”, de las “noticias extremadamente alarmantes” y de imágenes repugnantes.

Consecuencias políticas

En Polonia, lo cambios empeoraron el debate político en la plataforma, según informaron partidos políticos polacos a la compañía, en base a los documentos. Estos no especifican los partidos.

“El equipo de gestión de redes sociales de un partido calcula que han cambiado la relación de sus publicaciones de un 50% positivo y un 50% negativo a un 80% negativo, precisamente en función del cambio en el algoritmo”, escribieron dos investigadores de Facebook en un informe interno de abril de 2019.

Foto: Imagen: EC.

Nina Jankowicz, que estudia las redes sociales y la democracia en Europa central y del este como miembro en el Woodrow Wilsow Center en Washington, dice que ha escuchado quejas de muchos partidos políticos en dicha región porque el cambio en el algoritmo dificultó la comunicación directa con sus simpatizantes a través de las páginas de Facebook. Ahora tienen un incentivo, declara, para crear publicaciones que acumulen comentarios y difusiones —a menudo aprovechando la rabia— para conseguir exposición en las páginas de los usuarios.

Los investigadores escribieron en su informe que, en España, los partidos políticos llevaron a cabo operaciones sofisticadas para hacer que las publicaciones de Facebook viajasen lo más lejos y rápido posible. “Han aprendido que atacar duramente a sus oponentes consigue la mayor interacción”, escribieron. “Afirman que ‘intentan no hacerlo’, pero que, en última instancia, ‘utilizas lo que funciona”.

En los 15 meses siguientes a los enfrentamientos de otoño de 2017 en España por el separatismo catalán, el porcentaje de insultos y amenazas en páginas públicas de Facebook vinculadas al debate social y político en España aumentó un 43%, según una investigación realizada por Constella Intelligence, firma de protección de riesgos digitales.

“Sano’ es una tapadera de ‘necesitamos reducir la propagación de vídeos conservadores y de Trump”

Los investigadores de Facebook escribieron en su informe interno que recibieron quejas similares de partidos en Taiwán e India.

Brad Parscale, que fue el líder de Estrategia Digital de la campaña presidencial de Donald Trump en 2016 y se jactó de que en Facebook es donde Trump ganó las elecciones, dice que empezó a notar cambios en el algoritmo a mediados de 2017, cuando el rendimiento de los vídeos políticos empezó a decaer.

“Sano’ es una tapadera de ‘necesitamos reducir la propagación de vídeos conservadores y de Trump”, declara en una entrevista para este artículo.

La presidenta del Comité Nacional Republicano, Ronna McDanniel; el entonces líder de la mayoría de la Cámara Kevin McCarthy (republicano por California), y Parscale se reunieron con directivos de Facebook en junio de 2018 para presentar sus reclamaciones. En dicha reunión, que incluyó al jefe global de Política Pública de Facebook, Joel Kaplan, les comunicaron a los republicanos que los cambios en el algoritmo pretendían frenar la propagación de lo que la compañía consideraba desinformación, según Parscale.

Ajustes propuestos

En abril de 2019, un científico de datos de Facebook propuso reducir la propagación de “difusiones complejas”, que significan que el espectador no es un amigo o seguidor de aquel que hizo la publicación, según una comunicación interna.

“A pesar de que la plataforma de FB ofrece a las personas la oportunidad de conectar, compartir e interaccionar, un efecto secundario desafortunado es que el contenido perjudicial y erróneo puede hacerse viral, a menudo antes de que podamos detectarlo y mitigar sus efectos”, escribió. “Políticos y medios de noticias nos dicen que dependen más de la negatividad y el sensacionalismo para la distribución dados los recientes cambios en el algoritmo que favorecen las difusiones”.

Más tarde, los científicos de datos de Facebook se centraron en un aspecto del algoritmo renovado llamado “MSI descendentes”, que hacía que una publicación tuviera más probabilidades de aparecer en la página de noticias de un usuario si el algoritmo consideraba que la gente seguramente lo compartiera o comentase a medida que se transmitía a través de la cadena de difusión.

Foto: EC.
TE PUEDE INTERESAR
Caretas fuera: Facebook es una 'app' política
The Wall Street Journal

Las primeras pruebas mostraron que reducir ese rasgo del algoritmo para la información ciudadana y de salud ayudaba a reducir la proliferación de contenido falso. Facebook realizó el cambio para dichas categorías en la primavera de 2020.

Cuando Stepanov presentó a Zuckerberg la propuesta del equipo de integridad para expandir ese cambio más allá del contenido cívico y sobre salud —y a algunos países como Etiopía y Myanmar en los que los cambios ya se estaban realizando—, Zuckerberg dijo que no quería aplicarla si reducía la participación del usuario, según los documentos.

James Barnes, antiguo empleado de Facebook que se fue en 2019, dice que Facebook esperaba que dar prioridad a la interacción del usuario en la página de noticias acercaría más a las personas. Pero la plataforma se había vuelto tan compleja que la compañía no entendía cómo el cambio podía fracasar.

“No existen fórmulas mágicas sencillas”, declara.

*Contenido con licencia de ‘The Wall Street Journal’.

En otoño de 2018, Jonah Peretti, director ejecutivo del medio de comunicación ‘online’ BuzzFeed, envió un ‘e-mail’ a un alto cargo de Facebook. El contenido más divisorio que estaban publicando estaba volviéndose viral en la plataforma, dijo, creando un incentivo para producir más.

Wall Street Journal
El redactor recomienda