¿Hay racismo en el algoritmo de Twitter? Un "experimento horrible" demuestra que sí
Varios usuarios denuncian que la red social no muestra las fotografías de las personas negras cuando se las presenta junto a otras imágenes de personas de raza blanca
Una enorme polémica se ha levantado este fin de semana en las redes sociales después de que varios usuarios de Twitter denunciaran que el algoritmo que utiliza esta plataforma tiene un sesgo racial. Aparentemente, cuando se presentan dos fotografías de una persona blanca y una negra al mismo tiempo, el sistema elige por defecto mostrar la de la persona blanca.
Han sido varios los usuarios que han hecho experimentos similares a lo largo de las últimas horas que demuestran que el algoritmo de Twitter no es equitativo. Pero una de las más sonadas es la que ha llevado a cabo Tony Arcieri, un ingeniero que subió un tuit con dos fotografías: una de Barack Obama y otra del senador Mitch McConnell.
Trying a horrible experiment...
— Tony “Abolish (Pol)ICE” Arcieri 🦀 (@bascule) September 19, 2020
Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
El tuit siempre muestra la imagen del senador republicano sobre la del expresidente de los Estados Unidos y es solo cuando oscurece la imagen de ambos para que los dos parezcan negros cuando, por fin, se ve la imagen de Obama. Una situación que el propio Arcieri ha calificado como un "experimento horrible", pero que no es el único caso.
El racismo de Twitter
Twitter utiliza la denominada 'red neuronal' para mostrar la vista previa de las fotos. Sin embargo, los investigadores que trabajan en la inteligencia artificial del sistema descubrieron que tienen un problema porque no todas las imágenes tienen caras. En una publicación en su blog que recoge The Verge, explican que "nuestro detector de rostros a menudo pasaba por alto caras y, a veces, detectaba caras por error cuando no había ninguna".
I wonder how it is that you've said this without testing it? pic.twitter.com/rro1vn8Mh8
— Graham Christensen (@grhmc) September 19, 2020
Eso es lo que podría estar pasando con las imágenes de personas negras. El propio director de diseño de Twitter, Dantley Davis, publicó un tuit en el que reconoce que la compañía "está investigando la red neuronal". Al mismo tiempo, él subía algunos experimentos no científicos con distintas imágenes para demostrar los errores.
Otros destacados trabajadores de Twitter también han hablado de este supuesto error del algoritmo de la plataforma. El director de tecnología, Parag Agrawal, reconoce que el modelo necesita una "mejora continua", mientras Liz Kelley, del departamento de comunicación, señalaba este mismo domingo que habían realizado pruebas de posible prejuicio racial, pero no habían dado ningún resultado: "Está claro que tenemos que hacer más análisis. Abriremos nuestro trabajo para que otros puedan revisarlo y replicar".
This is a very important question. To address it, we did analysis on our model when we shipped it, but needs continuous improvement.
— Parag Agrawal (@paraga) September 20, 2020
Love this public, open, and rigorous test — and eager to learn from this. https://t.co/E8Y71qSLXa
Muchos usuarios han llevado a cabo sus propios experimentos en las últimas horas, detectando los errores del algoritmo de Twitter al mostrar los rostros de las personas negras. Una situación que Twitter ha prometido solucionar lo antes posible, dado que solo puede provocar más protestas por racismo a las que ya se viven por todo el país.
Una enorme polémica se ha levantado este fin de semana en las redes sociales después de que varios usuarios de Twitter denunciaran que el algoritmo que utiliza esta plataforma tiene un sesgo racial. Aparentemente, cuando se presentan dos fotografías de una persona blanca y una negra al mismo tiempo, el sistema elige por defecto mostrar la de la persona blanca.
- El factor humano en la era de los algoritmos Marta García Aller
- Ojo con las recomendaciones de Amazon: la etiqueta 'Choice' no es lo que parece El Confidencial
- Invisible entre la multitud: la chaqueta que te oculta de los algoritmos de vigilancia Verónica García