Es noticia
¿Harto de culos en Instagram? El círculo vicioso de algoritmos del que no puedes huir
  1. Tecnología
ESTA PLAYA QUE MI TRASERO TAPA ES PRECIOSA

¿Harto de culos en Instagram? El círculo vicioso de algoritmos del que no puedes huir

Google, Amazon, Netflix y ahora Instagram. Los sistemas de recomendación son a veces polémicos. Cuando fallan, ¿de quién es la culpa?, ¿del que lo creó o de los que lo alimentamos?

Foto: (Foto: EFE)
(Foto: EFE)

Da igual el lugar. Puede ser una preciosa playa gaditana, una cala muy 'cuqui' en Menorca, Formentera o Ibiza, o un enorme arenal canario de esos que hacen rabiar a los que están sufriendo los estragos de la canícula en un Madrid desierto. Insisto, da igual el lugar. Podría tratarse hasta de un descampado con un 600 destartalado en Torrepadre, Burgos.

Es indiferente porque el escenario de la fotografía es difícilmente reconocible por el efecto 'bokeh' o directamente no llama la atención porque un trabajado trasero o un torso desnudo de esos de anuncio de queso fresco 0% aparece en primer plano. ¿Les suena la historia? ¿Tiene la sensación que cada vez que abre Instagram solo ve gente ligerita de ropa? ¿Le cansa? Pues bien debe saber que usted no está solo.

Foto: Foto: EFE.
TE PUEDE INTERESAR
¿Es la App Store un monopolio? El plan de Apple para evitar otra multa millonaria
Michael Mcloughlin Gráficos: María Zuil

Quizás se lo ha encontrado nada más entrar a la aplicación, en ese chorro de publicaciones que le muestran de un primer vistazo bien porque sigue a sus autores o bien en ese escaparate que tienen para sugerir nuevos perfiles. Quizás no era consciente de esto hasta que ha pulsado en una ubicación que va a visitar próximamente y quiere hacerse una idea de lo que va a ver y se encuentra ese panorama. Eso es lo que le pasó a Analía Plaza (@lalalia). En repetidas ocasiones. "Estoy hasta las narices de abrir cualquier localización en Instagram y encontrarme básicamente culos", escribió la joven, que adjuntó varias capturas para dar fe de ello.

No era, ni mucho menos, la primera que se quejaba de este asunto. "Para los hombres que contestan que no pasa nada, que es el algoritmo y lo que la gente quiere ver, imaginaos que cada vez que buscáis imágenes de un lugar en Instagram los resultados son siempre como los de la Piscina de la Complutense (buscadlo). ¿Ahora qué?", afirmaba días antes Patricia López (@PatyCritter) en esa misma plataforma haciéndose eco de un tuit que comparaba los resultados del tag 'Torredembarra' en Instagram con los de Flickr. "Y qué hombres", le contestaba otro usuario que mostraba que al realizar la búsqueda de esa instalación municipal todo eran jóvenes en bañador. "Eso sí, hombres o mujeres, todo cuerpos normativos. Ni un gramito de grasa, oiga", respondía la tuitera. El intercambio de mensajes concluía con una sentencia: "Eso no da 'likes'".

El ruido que se generó por algunas de estas publicaciones eran la enésima demostración de que no pocos consideran que a la red social, propiedad ahora de Facebook, se le ha ido la mano priorizando estos contenidos. Algo que los ha llevado a alejarse de su espíritu original, creando un territorio donde la superficialidad y la vanidad está por encima del resto de cosas. La pregunta es obvia: ¿realmente Instagram quiere que todo el monte sea carnaza? "Es difícil de decir, porque no hay una auditoria del algoritmo que esté disponible públicamente. Sin embargo, dada la cantidad de usuarios que lo denuncian y de que hay evidencia y muestras de un sesgo hacia cierto tipo de desnudez en la plataforma, se podría decir que es un problema grande", cuenta a Teknautas Nicolas Kayser-Bril, de 'AlgorithmWatch' y coautor de 'Desnúdate o falla', que recoge los resultados de un experimento que hicieron para comprobar esto en colaboración con la Red Europea de Periodismo de Datos.

La prueba de campo, que salió a colación en el debate generado en Twitter, consistió en instalar una extensión (está disponible si quiere enriquecer esta investigación) que iniciaba aleatoriamente Instagram y analizaba lo que aparecía en las cuentas de los voluntarios. Seleccionaron 37 perfiles de profesionales que los utilizaban para publicitar marcas o adquirir nuevos clientes en temas como alimentación, viajes, 'fitness', moda o belleza. Se analizaron un total de 1.737 publicaciones. Algo más de una quinta parte (21%) eran semidesnudos o personas en ropa interior. Sin embargo, supusieron un 30% de las entradas que se les mostraban. Es decir, algunas se repetían.

El informe recoge que en el caso de las fotos de las mujeres en biquini o ropa interior tenían un 54% más de posibilidades de aparecer, las de los hombres un 26% mientras que los paisajes y comidas un 60% menos. Los autores indican que no se puede tomar como una autopsia completa pero que si muestra ciertos tics significativos. Facebook, como cuentan los encargados de este experimento, critico con dureza este trabajo por supone "un malentendido" sobre el funcionamiento de la 'app' y que muestran contenidos en "base a los intereses" y no "porque aparezcan bañadores".

No, la culpa no es del algoritmo

"Sin una auditoria es imposible comprobar si el algoritmo funciona de la forma que dicen que funciona", añade Kayser-Bril. "En todo caso, —opina— el prestador del servicio es Facebook, ellos son los responsables del software y sus efectos". Dice que este no es un asunto baladí ya que el "monopolio" que tiene la compañía de Mark Zuckerberg (incluyendo servicios como WhatsApp) no tener cuenta "no es una opción para aquellos ciudadanos que quieran participar en la vida pública". "Los contenidos que prioriza y por qué lo hace son datos necesarios para el correcto funcionamiento de esa vida pública".

Facebook asegura que lo que sale en el 'feed' es con base en los intereses y no por si "hay un bañador"

Los algoritmos de recomendación ya han estado otras veces en el ojo del huracán. El pasado año Amazon vio a estos sistemas aupar a puestos muy altos libros de 'antivacunas' o que recomendaban zumos para aliviar los efectos del cáncer cuando se hacían búsquedas relacionadas. No es la única plataforma que ha pasado por esto. Google Discover también fue objeto de polémica por dar pábulo y recomendar contenidos de sexo, extremismo o muertes falsas. Cuando esto ocurre... ¿a quién se le echa la culpa? ¿Al propio sistema que ha crecido libre una vez los programadores lo dejaron a punto? ¿A los padres del invento que no lo ajustaron de forma neutral, intencionadamente o no? ¿A la comunidad, que al fin y al cabo es la que alimenta con sus interacciones a la máquina diseñada para darte lo que quieres?

placeholder Foto: EFE.
Foto: EFE.

"Para bien o para mal, detrás del algoritmo hay personas. En los dos extremos", opina Nerea Luis, doctora en Inteligencia Artificial e ingeniera en Sngular. "Esto pasa en equipos pequeños y en grandes multinacionales. Tu dejas correr el algoritmo y tienes una serie de métricas que tu fijas para justificar lo bien que funciona y eso los fijas tu. Y los cambiarás o no en base a la respuesta que te den", añade. "Es un círculo vicioso que se retroalimenta. Tu algoritmo premia a los que consiguen, por ejemplo, mil 'likes' en una hora y no en diez y los usuarios perciben que esos contenidos son los que lo logran y lo suben".

Explica que el riesgo que se corre en entornos tan generalistas y tan grandes es que se acabe generando sesgos que produzcan disonancias: "Se puede llegar a un punto un tanto hiriente, por así decirlo, en el que pinchas para ver un lugar y solo ves gente en bañador, como es el caso". "Creo que al final la responsabilidad está en ambos lagos, aunque principalmente es de lo ingenieros. Esto se lleva reportando tiempo y creo que lo que hay que hacer es intentar neutralizarlo o al menos que no sea tan visible. Cuando se trata de algo con impacto en un tema social, por supuesto, el asunto debe ser remediado por la empresa". Esta investigadora madrileña, galardonada con la condecoración de la Orden del Mérito Civil, subraya que esto se puede "reeducar". "Todo depende de la forma que tengas montado el algoritmo y los recursos que le metas, pero es posible", anota Luis, que dice que lo común es hacer pruebas de esas modificaciones con pequeños grupos y luego extender los cambios.

"Son imprescindibles"

Para evitar esto hay quien señala una posible solución: la curación humana de contenidos. En el caso de Instagram muchos creen que el cambio de rumbo se dio cuando se formalizó la compra y Facebook la fagocitó bajo su estructura. Hay quien apunta que la transformación vino después, cuando se abrazó la estrategia publicitaria del gigante de Menlo Park. Y otros señalan que ocurrió a partir de 2018 cuando los creadores abandonaron la compañía —para explorar de nuevo "su creatividad"— y con ellos se abandonó el intervencionismo para llevar la plataforma a la idea que tenían la cabeza sin mermar la libertad de la audiencia.

Hay varias empresas que han apostado por poner a personas a complementar el trabajo de los algoritmos. Twitter creó 'Moments' para crear resúmenes con publicaciones que mejor explicasen un asunto en concreto. Spotify es otro clásico en la materia. Cuenta con editores para crear 'playlist' temáticas. Apple cuando lanzó Music le metió también una 'radio' dirigida por artistas. Con News, su intento por crear una especie de tarifa plana de medios de comunicación, pusieron también el énfasis en la selección de artículos interesantes por parte del equipo.

placeholder Foto: Reuters.
Foto: Reuters.

Filmin, la plataforma de 'streaming' de cine española, se apuesta también por este trabajo editorial con 'colecciones'. En HBO tienen también una fuerte cultura en este sentido e incluso Netflix, que probablemente cuente con uno de los sistemas de recomendación más personalizado y efectivo del mercado, ha abierto una pequeña ventana a las sugerencias de origen 100% humanas.

"Todas las plataformas necesitan algoritmos. Hay que entender que es una condición intrínseca al mundo digital", resume Elena Neira, autora de 'Streaming Wars', un libro que ofrece una profunda radiografía de una industria que ha entrado en el día a día de cientos de millones de personas en todo el mundo. "Hay que tener en cuenta la movilización de contenidos que existe no solo en Netflix u otro competidor, sino en general en internet. Si no existiese ese sistema, si no se automatizase la recomendación estaría en peligro la usabilidad de todos estos servicios", añade. "Todos lo usan en mayor o menor grado, otra cosa es que quieran diferenciarse o necesiten hacerlo".

Esta profesora de la UOC especializada en nuevos modelos de distribución audiovisual no ve en absoluto negativo el uso de estos algoritmos. "Están pensado para ofrecerte una experiencia personalizada. Y tu los diriges con una serie de respuestas a la hora de empezar a utilizar el servicio". Sin embargo, se le plantean algunos escenarios que le generan dudas. "Puede haber casos de mala praxis desde el punto de vista de que ningún medio de comunicación de masas es neutral. Son empresas, tiene sus propios intereses de negocio y todo se dirige a mantenernos cautivos, a retener nuestra atención cuando nos están vendiendo esa imagen de libertad absoluta que tiene su cara oculta".

Los algoritmos de recomendación son imprescindibles en un internet como el de hoy

Esta experta señala que los algoritmos funcionan bien en la mayoría de casos. Más aún en el caso de Netflix, donde "dos de cada tres horas consumidas" vienen por recomendaciones automáticas. "Creo que es el mayor caso de éxito en este sentido, es una situación completamente contraria a la de Instagram. Pero les ha llevado muchos años llegar ahí", añade Nerea Luis sobre este asunto.

Destaca que han conseguido hacer un estudio de mercado y comprender las diferencias de su público en base a múltiples factores. "Nos han acostumbrado tanto a darnos lo que queremos, que no tengamos ni que utilizar el buscador que cuando no encontramos lo que queremos, sea música en Spotify o una serie, nos frustramos. Y puede ser porque tengamos el día torcido, llueva y haga frio o porque algo no nos entre por el ojo. Pues ahí esas papel humano puede jugar un papel interesante".

placeholder Foto: Reuters.
Foto: Reuters.

Pero ¿quién dirige a quién: el sistema al público o el público al sistema? "Es la pescadilla que se muerde la cola", coincide Neira. "Puedes decir que el público con lo que ve, pero también es cierto que desde la empresa se hace ingeniería de la atención para retenerte más tiempo".

Neira también indica que en algunas ocasiones los algoritmos no impactan en lo que vemos directamente al mostrarnos una cosa u otra en pantalla sino que lo hacen al condicionar a los creadores. Pone el ejemplo de cómo los 'showrunners' de 'Avatar: The Last Airbender' han abandonado el proyecto por diferencias creativas. "No han trascendido los motivos exactos pero parece que ellos tenían en la cabeza un capítulo muy complicado con múltiples tramas en un momento de la producción que según la información que algoritmo proporciona a Netflix no va a funcionar. Ellos tienen muy claro el producto que quieren, aunque den libertad creativa a sus fichajes", añade. "El algoritmo es una herramienta más. Y esa tutela la ha habido siempre. Es como cuando antiguamente se mataba a un personaje de una serie porque caía mal a la audiencia".

Lo más votado no es lo mejor

"Culpar al algoritmo es muy de principios de siglo y quitarnos esa excusa del medio va a ser un gran reto. No podemos escudarnos de eso cuando no tenemos una dinámica correcta", opina Daniel Seijo, CEO de Menéame. "Igual en Filmin que un experto te recomiende películas pues le aporta valor, pero nuestra situación es diferente. Nosotros manejamos información, noticias. Y ahí entran muchos factores en juego, como la libertad de información o la neutralidad. Por eso evitamos intervenir directamente salvo en casos extremadamente necesarios".

placeholder Un usuario consulta Menéame. (EC)
Un usuario consulta Menéame. (EC)

"Lo de Instagram es un ejemplo de que lo más votado o con más 'Me gusta' no siempre es lo más adecuado", resume Seijo, cuya empresa se enfrenta a esto diariamente. Los usuarios registrados mandan noticias para que otros las valoren. En función de los 'meneos' que reciban entran a portada o no. "Aquí entra en juego la representatividad de la comunidad. Si algo está muy votado puede significar que se trata de un grupo que suele votar lo mismo siempre pero también por un grupo diverso que no siempre vota lo mismo pero ese día sí. Y eso tiene mucho más valor", remata. Lo que hace su algoritmo, programado en su día por el fundador Ricardo Galli (que abandonó la empresa en 2016) es 'premiar' esta circunstancia, ya que si sueles votar siempre lo mismo tu 'respaldo' no va a contabilizar igual.

Menéame no valora igual algo votado en masa por los de siempre que votado por un grupo diverso

Por otra parte también tienen que asegurar la diversidad temática. "Las categorías que más atención recibe y más votos moviliza es actualidad, porque engloba política", resume. Si se limitasen a ese criterio, lo de los más votado, la portada estaría copada por esa categoría. "Por eso si a lo largo de 24 horas, por ejemplo, han entrado 15 noticias de temas políticos y 5 de cultura o tecnología, el sistema prima estas áreas para compensar. Si no lo hacemos así nos vamos a encontrar en esa situación de que lo más visceral, clicado o polémico va a copar la página". Matiza que en el caso de la red social hay un importante sesgo de entrada: "Lo utiliza mucho más la gente joven que la gente mayor. Así que mayormente su comunidad es más propensa a crear esos contenidos e interactuar con ellos".

Seijo cree que las plataformas no pueden eludir su responsabilidad, "que no tiene porque ser en el plano legal", cuando su tecnología da estos resultados. "Cualquier 'player' serio, con una comunidad significativa no puede excusarse en eso". Pero también pone el acento en el usuario. "Nos tenemos que preguntar por qué nos dan ese resultado, por qué nos enseña eso, que muchas veces la razón tiene cero malicia", argumenta. Pone el ejemplo de los rankings de películas del estilo IMDB. "Puedes encontrarte con una película de montañismo que tenga 9.7 y te acaba pareciendo una cinta mala. Sin embargo tiene esa valoración porque apasionados de la montaña la han votado", cuenta. "Tenemos que aplicar ese sentido crítico para evitar cámaras de eco, desinformación y otros asuntos similares".

Da igual el lugar. Puede ser una preciosa playa gaditana, una cala muy 'cuqui' en Menorca, Formentera o Ibiza, o un enorme arenal canario de esos que hacen rabiar a los que están sufriendo los estragos de la canícula en un Madrid desierto. Insisto, da igual el lugar. Podría tratarse hasta de un descampado con un 600 destartalado en Torrepadre, Burgos.

Instagram Algoritmos Spotify Mark Zuckerberg
El redactor recomienda