Es noticia
Los algoritmos de las redes sociales amenazan su neutralidad
  1. Tecnología
deciden qué ven los usuarios, y qué no

Los algoritmos de las redes sociales amenazan su neutralidad

El contenido de las redes sociales se genera de forma colectiva, pero no son los usuarios los que deciden qué ver, sino algoritmos que pueden no ser neutrales

Foto: "El algoritmo mató a Jeeves". Foto de John Trainor en Flickr
"El algoritmo mató a Jeeves". Foto de John Trainor en Flickr

La Real Academia define algoritmo como un “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”. En el caso de las redes sociales, se trata de la fórmula que pretende resolver el problema del exceso de información que se vierte en ellas, para que cada usuario vea aquello que más le pueda interesar. Se trata de una presunción bajo la que algunos críticos encuentran una censura o un discurso dirigido, y que nos sitúa en un paradigma informativo cada vez más controvertido.

Al menos ese es el debate que surgió en EE.UU. después de que un muchacho negro muriera tras recibir disparos de un policía blanco en Ferguson. La profesora Zeynep Tufekci, que estudia los cambios sociales que promueve la tecnología, analizó en un artículo cómo fue relativamente difícil informarse de ese suceso y sus consecuencias a través de Facebook, y la influencia sobre la vigencia del asunto en el debate público que se derivó de su presencia entre los temas candentes de Twitter (trending topics).

Twitter vs. Facebook: my tweetstream is almost wall-to-wall with news from Ferguson. Only two mentions of it in my Facebook news feed.

En ambos casos, los algoritmos tuvieron un papel clave para fomentar o no la visibilidad de esa historia, así como sus ramificaciones posteriores o la discusión pública que suscitó. Y eso incluye la consecuencia de que los medios tradicionales trataran el asunto de una forma o de otra, ya que especialmente Twitter se ha convertido en un elemento que marca su agenda. En la medida en que las redes sociales son nodos cada vez más importantes en la distribución de contenidos y de elevación de temas a debate general, las fórmulas que hacen o no visibles las noticias ante sus usuarios adquieren una relevancia creciente.

De hecho, apenas semanas después de la citada polémica por lo ocurrido con Ferguson, Facebook ha anunciado cambios en su algoritmo para que los usuarios tengan más posibilidades de ver publicaciones en torno a un tema que forme parte de lo más debatido en cada momento.

La pregunta que surge es hasta qué punto esos algoritmos sirven al interés de la información de los usuarios de una forma honesta, sin sesgos. O lo que es lo mismo, si existe una “neutralidad tecnológica”. Ricardo Galli, cofundador de Menéame y autor del algoritmo que hace funcionar la plataforma, indica que lo complejo no es crear las condiciones tecnológicas neutras, sino hacer frente a usuarios alineados que pretendan subvertirlas. Por ejemplo, desde hace meses artículos de medios como El País o El Mundo no alcanzan la portada (y la visibilidad y los clics que ello comporta), debido a que un grupo de usuarios bloquean de forma coordinada esa posibilidad, como boicot por su pertenencia a Aede y su posición respecto a la llamada Tasa Google.

Ese activismo digital tiene también reflejo en Twitter, donde una acción coordinada en el tiempo y las formas puede tener como recompensa un trending topic, una tendencia del momento, lo que garantiza una visibilidad extra a cualquier contenido. Por ello el spam y las granjas de usuarios, algunas al servicio de determinados medios, actúan a menudo para intentar obtener ese resultado, adulterando el transcurso normal de la actividad general de la plataforma. Todo ello sin que de momento Twitter parezca haber encontrado la forma de evitarlo, aunque trabaja en ello.

En cuanto a Facebook, en los últimos tiempos hemos visto variados experimentos de distintos usuarios en el intento de ver cómo se comporta el algoritmo ante comportamientos irregulares: desde quien pulsa “Me gusta” en todo lo que ve, hasta quien oculta todo lo que le muestra, pasando por quien utiliza las palabras que considera que la plataforma filtra preferentemente.

El periodista Pascual Serrano, que analizó en su libro La comunicación jibarizada los cambios en los discursos y hábitos informativos que estamos viviendo, considera sobre los algoritmos de las redes sociales que “basta saber que no son públicos y que detrás hay intereses comerciales para concluir que no se puede esperar ninguna neutralidad“. Hace meses Mark Zuckerberg habló en una presentación de que quería que Facebook fuera un periódico personalizado para cada usuario, y desde entonces el algoritmo que define qué ve cada cual ha sido sometido a varias revisiones profundas, todas en beneficio de que los usuarios tengan una mejor experiencia, según se argumenta en cada cambio.

Ese objetivo, loable sobre el papel, deja algunas incógnitas. Entre otras, la dificultad de descubrir contenidos en esas plataformas, en la medida en que esas fórmulas ofrecen resultados siempre acordes a aquello sobre lo que el usuario ha demostrado interés. Desde un punto de vista informativo, supone un sesgo de partida, ya que cada cual tendrá más opciones de ver noticias sobre temas que le han interesado previamente, sin que otras que quizás puedan cambiar sus perspectivas sobre otros ámbitos de la vida lleguen a él.

Además, los efectos de la manipulación de ese algoritmo de forma dirigida ya fueron documentados hace semanas cuando Facebook reconoció haber experimentado con lo que veían casi 700.000 personas.

El funcionamiento de las redes sociales se basa en espirales que premian con mayor visibilidad a aquello que ya tiene cierto éxito y opacan casi completamente lo que no recaba un mínimo interés. De ahí que el algoritmo que 'mide la temperatura' de la conversación y aflora los temas que cada plataforma indica que están siendo más debatidos dispare la popularidad de esos asuntos, ya que los usuarios tienden a guiarse por ellos para informarse o participar, por un mero sentido de tomar parte en una charla en la que alguien les escuche o pueda servirles de proyección ante los demás. Y esas intervenciones prolongan la permanencia de esos temas destacados, en perjuicio de otros que carecen de esa tracción social porque a su vez no tampoco han tenido ese grado de exposición.

Por tanto, si solo nos atuviéramos a la información que facilitan esas selecciones algorítmicas de temas, tendríamos una visión muy reducida del panorama informativo, con grandes temas en cuanto a discusión, no necesariamente en cuanto a importancia real. Y en ese esquema tienen un papel muy importante lo que el periodista y sociólogo Malcolm Gladwell denomina "conectores", personas que tienen un papel crítico en la difusión de tendencias o información porque una generalidad de personas confían en su criterio. Y cuya actividad a menudo oculta intereses de algún tipo. En redes sociales eso se traduce en número de seguidores y en posibilidad de que estos redifundan lo que los primeros compartan.

Como trasfondo queda además la realidad de que las plataformas sociales han dado la vuelta al esquema informativo que conocíamos hasta hace unos años. Históricamente en internet los usuarios accedían a los medios que conocían, o bien utilizaban buscadores para encontrar la información. Sin embargo, en estas plataformas “son las noticias las que te encuentran, en lugar de que las encuentres tú”, indica Sarah Marshall, una de las editoras de Medios Sociales del Wall Street Journal. En su opinión, la esperanza de todos los medios es que sus seguidores en redes sociales o aquellos que descubran sus contenidos en ellas, se conviertan con el tiempo en lectores o suscriptores.

De hecho, el tráfico procedente de redes sociales para los medios no ha hecho más que crecer en los últimos tiempos, y ya supone un porcentaje muy relevante en algunos casos, hasta el punto de rozar la dependencia. SimilarWeb calcula así de forma estimada el que llega a los principales digitales de España por esta vía.

Otro de los factores clave en este asunto es cómo Twitter y Facebook van pareciéndose/copiándose cada vez más. La primera siempre ha tenido un sesgo mucho más informativo, especialmente por la abundancia de periodistas en ella. Pero eso podría cambiar a medio plazo, en la medida en que el director financiero de la compañía ha dejado caer que Twitter podría seguir los pasos de Facebook e implementar un algoritmo que mostrara a los usuarios aquello en lo que la aplicación considera que han demostrado estar interesados.

Esa posibilidad ha suscitado críticas por tratarse de un cambio esencial en la forma en la que funciona el servicio, basado desde su inicio en un relato cronológico sin filtros previos. Eso siempre ha supuesto a la vez una fortaleza y una debilidad para Twitter, en el sentido de que se cuela mucho ruido en las conversaciones sobre un tema, lo que Serrano define como “democratización de la desinformación“.

I'm not on Twitter just so people see my tweets but b/c my network finds me stuff. Fascinating stuff. From people the algorithm will ignore.

Sin embargo, el propio consejero delegado de la compañía salió al paso y desmintió la interpretación de las palabras de su director financiero. Al menos en los términos en los que ya parecía darse por hecho la llegada de un algoritmo en breve.

.@mathewi @om he never said a "filtered feed is coming whether you like it or not". Goodness, what an absurd synthesis of what was said.

Esa respuesta no implica un no a largo plazo, ya que en julio Costolo reconoció que estaba sopesando "cualquier opción" que sirviera para convertir a visitantes en usuarios, y que hiciera más activos a los que ya lo son. La ecuación que justificaría ese cambio implica que, cuando los contenidos más interesantes para el usuario, hay mayor permanencia en la plataforma y mayor frecuencia de visita, lo que redunda en mayores posibilidades de ser monetizado por los anuncios, que a su vez son cada vez más certeros por los datos que el usuario va dejando de forma consciente o no durante su actividad.

Tampoco hay que olvidar que, tanto Twitter como Facebook, dentro de la invitación general a los usuarios a que se expresen libremente, adoptan un papel editorializante al margen de lo que establezca la ley. Tienden a hacer desaparecer aquellos contenidos que muestren desnudos y se les atribuyen decisiones controvertidas en un sentido o en otro a la hora de juzgar aquellos que algún grupo social denuncia y pide que sean retirados. Su acción o inacción en cada caso tiene consecuencias sobre la visibilidad o no de determinados temas.

Con algoritmos o sin ellos, existe por otra parte la teoría de que aquello que realmente merece la pena acaba emergiendo en esta clase de plataformas, porque hay gente suficiente que se interesa por ello y toma una posición activa en su difusión, a través del retuit o el Me gusta. Pero Galli considera que esa percepción es exagerada: “La sabiduría de masas está muy sobrevalorada en internet, puede funcionar en casos y condiciones muy concretos, pero no para seleccionar el contenido más interesante o valioso. Sobre todo porque nadie podría dar una definición objetiva de qué es interesante o valioso“.

La Real Academia define algoritmo como un “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”. En el caso de las redes sociales, se trata de la fórmula que pretende resolver el problema del exceso de información que se vierte en ellas, para que cada usuario vea aquello que más le pueda interesar. Se trata de una presunción bajo la que algunos críticos encuentran una censura o un discurso dirigido, y que nos sitúa en un paradigma informativo cada vez más controvertido.

Mark Zuckerberg Pascual Serrano Tasa Google
El redactor recomienda