Dentro del algoritmo de TikTok: vídeos de droga y sexo para menores
  1. Mercados
  2. The Wall Street Journal
no hay filtros reales para dicho contenido

Dentro del algoritmo de TikTok: vídeos de droga y sexo para menores

La popular aplicación puede conducir rápidamente a sus jóvenes usuarios a un bucle infinito de contenido para adultos, incluidos vídeos que promueven el consumo de drogas y páginas de pornografía

Foto: Foto: EC.
Foto: EC.
EC EXCLUSIVO Artículo solo para suscriptores

La cuenta era una de las decenas de cuentas automatizadas, o ‘bots’, creadas por ‘The Wall Street Journal’ para entender qué muestra TikTok a los jóvenes usuarios. A estos ‘bots’, registrados como usuarios entre 13 y 15 años, se los soltó para explorar el apartado ‘Para ti’ de TikTok, el ‘feed’ altamente personalizado e interminable organizado por el algoritmo.

Un análisis de los vídeos presentados a estas cuentas descubrió que, mediante sus potentes algoritmos, TikTok puede llevar rápidamente a los menores —entre los principales usuarios de la ‘app’— hasta carretes infinitos de contenido sobre sexo y drogas.

TikTok mostró a una cuenta registrada como un menor de 13 años al menos 569 vídeos sobre el uso de drogas, referencias a la cocaína y a la adicción a las metanfetaminas y vídeos promocionales de ventas ‘online’ de medicamentos y artículos relacionados. Cientos de vídeos similares aparecieron en el ‘feed’ del resto de cuentas de menores del ‘WSJ’.

Foto: Foto: EFE.

TikTok también enseñó a los usuarios adolescentes del periódico más de 100 vídeos de cuentas que recomendaban páginas web de pornografía de pago y ‘sex shops’. Otros miles de vídeos eran de creadores que habían etiquetado su contenido como solo para adultos. Otros fomentaban trastornos alimenticios y ensalzaban el alcohol, incluyendo imágenes de conductores ebrios y de juegos de beber.

El ‘WSJ’ compartió con TikTok una muestra de 974 vídeos sobre drogas, pornografía y otro contenido para adultos que habían aparecido en las cuentas de los menores —incluidos cientos presentados a una sola cuenta en rápida sucesión—.

De estos últimos, 169 fueron eliminados de la plataforma antes de que el ‘WSJ’ los compartiera —no se pudo determinar si fue obra de sus creadores o de TikTok—. Otros 255 fueron eliminados una vez compartidos con la compañía, entre los que había más de 10 que mostraban a adultos como ‘cuidadores’ que entablaban relaciones con personas que pretendían ser niños, llamados ‘pequeños’.

Foto: Foto: Reuters.

La mujer en el vídeo del juego de roles dice que ojalá TikTok fuera más efectivo a la hora de mantener el contenido para adultos al margen de los ‘feeds’ de los menores. “Tengo en mi biografía el símbolo +18, pero no tengo una forma real para controlarlo”, escribió en un mensaje. “No estoy de acuerdo con que TikTok muestre mi contenido a alguien tan joven”.

Una portavoz se ha negado a examinar el contenido de cada vídeo, pero dice que la mayoría no violaba las normas. Dice que TikTok eliminó algunos vídeos después de que las cuentas del ‘WSJ’ los visualizaran, y restringió la distribución de otros vídeos para hacer que la aplicación dejara de recomendárselos a otros usuarios, pero se niega a decir cuántos.

La portavoz declara que la aplicación no distingue entre los vídeos que enseña a adultos y menores, pero dice que la plataforma tiene la intención de crear una herramienta que filtre contenido para los jóvenes usuarios. Los términos de servicio de TikTok dicen que los usuarios tienen que tener al menos 13 años, y que los usuarios menores de 18 años tienen que tener el consentimiento de sus padres.

“Proteger a los menores es de vital importancia, y TikTok ha adoptado medidas pioneras en la industria para promover una experiencia segura y adecuada a la edad para los adolescentes”, dice la portavoz en una declaración. Indica que la aplicación permite a los padres gestionar el tiempo de pantalla y los ajustes de privacidad de las cuentas de sus hijos.

La máquina de la adicción

Una investigación de vídeos anterior del ‘WSJ’ descubrió que TikTok solo necesita un dato importante para averiguar lo que quiere un usuario: la cantidad de tiempo que permanece viendo una pieza de contenido. Cada segundo que dudas o vuelves a ver algo, la aplicación te monitorea.

Mediante ese poderoso indicador, TikTok puede descubrir tus intereses y emociones más ocultos, y llevar a usuarios de cualquier edad hasta el fondo de madrigueras de contenido —en las que los ‘feeds’ están dominados en gran medida por vídeos sobre un tema o temática específicos—. Es una experiencia que otras compañías de redes sociales como YouTube han tenido problemas para frenar.

Foto: Logo de TikTok, plataforma del grupo ByteDance. (Reuters)

“Todos los problemas que hemos visto en YouTube se deben a algoritmos que se basan en la interacción, y en TikTok pasa exactamente lo mismo pero es peor—”, declara Guillaume Chaslot, exingeniero de YouTube que trabajó en el algoritmo de esa aplicación y ahora defiende la transparencia en la forma en que las empresas utilizan las herramientas. “El algoritmo de TikTok puede aprender mucho más rápido”.

El ‘WSJ’ asignó a cada una de sus 31 cuentas de menores una fecha de nacimiento y una dirección IP. La mayoría también estaban programadas con diferentes intereses, que solo fueron revelados a TikTok a través de la permanencia en vídeos con ‘hashtags’ o imágenes relacionadas y mediante un rápido deslizamiento del resto. La mayoría no buscaban contenido y simplemente veían los vídeos que aparecían en su ‘feed’.

Así es como puede funcionar

El creador de la página web que promovía el 420 (consumo de cannabis) no ha respondido a preguntas sobre que el vídeo se mostrase a una cuenta registrada como alguien de 13 años. Cerca de una docena de las 31 cuentas de menores del ‘WSJ’ terminaron estando dominadas por un tema concreto.

Esto puede ser especialmente complicado para los adolescentes, que pueden no tener la capacidad de dejar de ver vídeos y no tienen a adultos comprensivos a su alrededor, declara David Anderson, psicólogo clínico en The Child Mind Institute, organización proveedora de salud mental para niños sin ánimo de lucro. Dice que dichos adolescentes pueden experimentar una ‘tormenta perfecta’ en la que las redes sociales normalizan e influyen en la forma en que perciben las drogas u otras cuestiones.

Incluso cuando las cuentas del ‘WSJ’ se programaban para expresar interés en varios temas, TikTok a veces se concentraba en temáticas individuales y les ofrecía cientos de vídeos sobre una de forma muy seguida. TikTok mostró a una cuenta, que había sido programada con una serie de intereses, cientos de películas y series de dibujos animados japoneses. En una sucesión de 150 vídeos, todos menos cuatro incluían animaciones japonesas —muchas con temáticas sexuales—.

Foto: EC.

La portavoz de TikTok dice que los ‘bots’ del periódico “no representan de ninguna forma el comportamiento y la experiencia de visualización de una persona real”, en parte porque los humanos tienen intereses diversos y variables. Añade que la plataforma “está analizando cómo ayudar a prevenir incluso que los hábitos de visionado muy excepcionales creen ciclos negativos, especialmente para nuestros usuarios más jóvenes”.

La portavoz declara que, cuando los usuarios se topan con algo que no quieren ver, pueden seleccionar 'no interesado' para ver menos contenido de ese tipo. Decenas de los vídeos que promueven la pornografía de pago han sido eliminados de la aplicación desde entonces.

En algunos casos, los creadores de TikTok dejaban claro que no querían que los niños viesen sus vídeos, categorizándolos (o sus cuentas) como solo para adultos. Pero la aplicación los mostraba de todas formas. En una ronda de 200 vídeos, casi el 40% estaba etiquetado como solo para adultos. En total, al menos 2.800 vídeos de esa categoría fueron exhibidos en las cuentas de menores del ‘WSJ’.

La portavoz de TikTok dice que prohíbe la desnudez y elimina las cuentas que redirigen a los usuarios a esos contenidos

La proliferación de contenido con carga sexual ha suscitado preocupaciones dentro de TikTok. Los vídeos que dirigían a la gente a OnlyFans eran tantos que, en una reunión en otoño de 2020, la directora de Operaciones de la compañía, Vanessa Pappas, pidió a los empleados que le explicaran qué era esa página, según una fuente cercana a la reunión. Tras esta, al principio TikTok decidió prohibir el contenido que redireccionaba a los usuarios a OnlyFans, dado que los empleados explicaron que la mayoría del contenido de la página es pornografía, según la persona cercana a la decisión. Después, la plataforma decidió permitir a los usuarios incluir enlaces a la página porque otros empleados señalaron que en OnlyFans no todo es pornografía, y que otras plataformas de redes sociales permiten enlaces al contenido.

La portavoz de TikTok dice que prohíbe la desnudez y las solicitudes sexuales y elimina las cuentas que redirigen a los usuarios a contenido o servicios sexuales, incluidos en OnlyFans. Una portavoz de OnlyFans dice que la página es exclusivamente para personas de 18 años en adelante y no ha querido hacer comentarios sobre las cuentas de TikTok que dirigen a la gente a la página.

Vigilancia

TikTok cuenta con una combinación de algoritmos y más de 10.000 personas para vigilar su enorme y creciente volumen de contenido, según exdirectivos de la empresa. La compañía declaró en un informe reciente que eliminó 89 millones de vídeos en el segundo semestre del año pasado.

Pero ha sido difícil seguir el ritmo del crecimiento de la ‘app’, según los exdirectivos: TikTok tiene ahora alrededor de 100 millones de usuarios en EEUU que consumen y crean vídeos, desde cerca de 25 millones en 2019. La empresa dice que los usuarios publican miles de vídeos por minuto. Para seguir el ritmo, los moderadores se centran en el contenido más popular, dejando los vídeos con menos visualizaciones en gran medida sin revisar, según los exdirectivos.

En julio, TikTok declaró que en EEUU empezaría a contar con sus algoritmos tanto para identificar como para eliminar ciertos tipos de vídeo que violan su normativa y en un esfuerzo por hacer cumplir sus normas más rápidamente. Anteriormente, los algoritmos de TikTok identificaban vídeos que infringían las reglas, pero los trabajadores los revisaban antes de ser eliminados.

Foto: TikTok adelanta a las apps del grupo Facebook como la más descargada del mundo (Reuters/Dado Ruvic)

La compañía hizo el anuncio después de que el ‘WSJ’ publicara cientos de ejemplos de contenido potencialmente ilegal que la aplicación había mostrado a sus ‘bots’. TikTok declaró que había estado probando este nuevo sistema durante el año pasado.

La portavoz de TikTok dice que ningún algoritmo será nunca completamente exacto a la hora de supervisar contenido por la cantidad de contexto necesario para entender un vídeo, especialmente los de drogas. TikTok también se ha esforzado por eliminar los vídeos que fomentan trastornos alimenticios.

Supervisar el contenido se ha vuelto más complicado por las decisiones de la empresa en los últimos años de relajar ciertas restricciones en EEUU, incluido el enseñar la piel y los bikinis, según varios exdirectivos y moderadores de contenido. El resultado ha sido un aumento de vídeos sexualizados en la plataforma, según indican.

La portavoz de TikTok dice que las políticas de la empresa evolucionan en respuesta a las normas de la industria y a los cambios en el comportamiento del usuario. También declara que la empresa espera que haya un contenido nuevo y diferente a medida que la audiencia de TikTok se vuelve más mayor y diversa.

¿Y esa cuenta ‘bot’ registrada como un usuario adolescente que cayó en el mundo de los juegos de rol y otro contenido sexual?

*Contenido con licencia de ‘The Wall Street Journal’.

La cuenta era una de las decenas de cuentas automatizadas, o ‘bots’, creadas por ‘The Wall Street Journal’ para entender qué muestra TikTok a los jóvenes usuarios. A estos ‘bots’, registrados como usuarios entre 13 y 15 años, se los soltó para explorar el apartado ‘Para ti’ de TikTok, el ‘feed’ altamente personalizado e interminable organizado por el algoritmo.

TikTok Algoritmos
El redactor recomienda