La investigación Minecraft: cómo millones de niños están viendo vídeos inapropiados
  1. Alma, Corazón, Vida
  2. Educación
Qué ven nuestros hijos

La investigación Minecraft: cómo millones de niños están viendo vídeos inapropiados

La revista 'Wired' desvela cómo se han colado en las últimas semanas un montón de vídeos inapropiados en canales infantiles, poniendo el foco en el control de los padres en la red

Foto: Una captura de pantalla del mítico juego.
Una captura de pantalla del mítico juego.

En 2017, una periodista estadounidense llamada Laura June advirtió que en el historial de YouTube de su hija aparecían vídeos de lo más siniestros. A simple vista, parecían ser clips totalmente normales en los que aparecían sus personajes de animación favoritos, como Elsa, la princesa de 'Frozen' o la cerdita Peppa Pig. En uno de ellos, quizás el más paradigmático para explicar esta tendencia tan extraña, esta última protagonista de la animación infantil era llevada al dentista. En la pantalla aparecía el médico con una jeringa enorme y una expresión malévola. En 'un pis pás', le arrancaba los dientes de cuajo y la cerdita lloraba y lloraba con una voz de lo más angustiosa.

Lo que al principio parecía una broma de mal gusto para amedrentar a los más pequeños pronto se convirtió en una cascada de vídeos que se colaban en las plataformas de YouTube, tan visitadas por millones de niños en todo el mundo. June denunció este hecho en un artículo publicado en 'The Outline' y, al poco tiempo, la 'BBC' sacó una investigación en la que alertaban de cientos de vídeos de contenidos (supuestamente) para niños en los que los personajes de sus series favoritas encarnaban papeles demoníacos, sexuales, violentos o escatológicos.

"El primer vídeo sugerido de la sección mostraba a un agente de policía babeando al lado de un avatar de grandes pechos con bragas rosa"

Así es como surgió el 'Elsagate', un escándalo que adoptaba el nombre de la personaje de 'Frozen' y que obligó a YouTube a eliminar más de 1.500 de vídeos y 2 millones de anuncios. Ahora, casi cuatro años más tarde, una nueva investigación realizada por la revista 'Wired', alerta de una nueva ola de vídeos desagradables que circulan por la red saltándose los filtros de protección de la infancia en YouTube, que tienen como objetivo el público infantil y sus videojuegos favoritos: el Minecraft o el Among Us.

"Un viernes de YouTube cualquiera"

"Varios cientos de espectadores vieron un vídeo animado en directo de un avatar femenino de Minecraft con los senos al aire abriendo un regalo: en su interior, un emoji de caca". Así comienza la investigación realizada por dicho medio de comunicación en la que alerta de cómo se han colado cientos de vídeos en el 'feed' de contenido animado de millones de niños en todo el mundo de una forma similar a lo ocurrido con el 'Elsagate', pero esta vez en relación a juegos tan populares entre el público infantil como Minecraft. "En la previsualización del vídeo, se puede ver a dos pechos de mujer enormes sosteniendo un ladrillo de caca". Si quieres ver por tu cuenta algunas capturas de pantalla recopiladas por la investigación con dichas previsualizaciones, pulsa aquí.

"Si hacíamos 'scroll', aparecía una previsualización de una mano con un cuchillo ensangrentado frente a una mujer en bikini"

"Los vídeos en cuestión no estaban presentes en la app de YouTube Kids", explica Cecilia D'Anastasio, periodista de 'Wired' que ha destapado el caso, mencionando que de hecho no es fácil dar con alguno de ellos, sino que más bien el niño accede como fruto de la casualidad después de que se cuele en sus sugerencias de contenido. "Muchos clips dirigidos a niños son fabricados por canales oficiales que poseen los derechos de propiedad intelectual de los personajes de animación, mientras que hay otros de terceros y de bajo presupuesto que se aprovechan y monetizan la fascinación que los pequeños sienten por estas series y videojuegos".

Hay que tener en cuenta que Minecraft es un juego del que disfrutan también muchas personas mayores, por lo que esta clase de contenido si la viera un adulto posiblemente se reiría, pasando por una mera gamberrada, aunque evidentemente tendría un mal sentido del humor. Los usuarios acceden por la pestaña 'Topics' ("Temas", si lo tienes instalado en español), la cual está abierta para todos los públicos. Al hacerlo, se despliegan cinco secciones: en directo, vídeos recomendados, recientes, populares y oficiales. "Las previsualizaciones inapropiadas se expanden a lo largo de estas cinco secciones, pero se concentran sobre todo en los vídeos de directo, que tienden a salir en primer lugar en las búsquedas", explica D'Anastasio.

Foto: El último desfile de Victoria's Secret. (EFE)

"El viernes, la sección en directo del tema Minecraft incluía el vídeo de la caca", prosigue la periodista. "Si hacíamos 'scroll' hacia la derecha, aparecía una previsualización de una mano sosteniendo un cuchillo ensangrentado frente a una mujer en bikini". Dos días después, el lunes, "el primer vídeo sugerido de la sección mostraba a un agente de policía babeando con 'emojis' de corazón en los ojos al lado de un avatar de grandes pechos con bragas rosa. Seis mil personas lo estaban viendo en directo".

Por otro lado, si accedemos a este tipo de contenidos a través de 'hashtags' sobre videojuegos como Among Us, también muy popular entre la población infantil, la cosa no mejora. "Los vídeos que hay en el top de la lista incluyen avatares femeninos del juego quitándose la ropa interior, o a sus homólogos masculinos dándoles cachetes en las nalgas o mirándoles las faldas", sostiene D'Anastasio. "Algunos de los más sorprendentes han recibido más de un millón de reproducciones, incluido un 'crossover' del Among Us con Minecraft en el que un vídeo en miniatura muestra a un hombre embarazado debajo de una mujer al que le sale caca de la tripa". La periodista incide en que otros videos sobre juegos tan populares entre la comunidad infantil como el Fortnite están completamente limpios de este tipo de contenido.

"Desde el 'Elsagate', hemos invertido mucho dinero en mejorar los sistemas que nos permiten eliminar rápidamente el contenido inapropiado"

No es la primera vez que gente sin escrúpulos ni respeto a la infancia se organiza para colar vídeos inapropiados para niños en YouTube. En 2019, la revista 'Wired' también denunció que había cientos de vídeos de porno 'softcore' (mucho menos explícitos que la pornografía tradicional) saltaban los filtros de la plataforma. Por aquel entonces, se descubrió que dichos 'clips' aparecían junto con anuncios publicitarios de compañías de videojuegos como Epic Games y por los que la plataforma tuvo que afrontar una multa de 170 millones de dólares.

La respuesta de YouTube

"Me da que estamos aprendiendo que los algoritmos pueden ser manipulados de forma muy fácil", admite Christine Elgersma, editora de Common Sense Media, una empresa que se encarga de velar por la seguridad en línea de niños y adolescentes y por un uso adecuado de la red de este grupo poblacional. "Por otro lado, el volumen de vídeos que hay que revisar es tan ingente que excede la capacidad humana. "Lo ideal sería que prestáramos más atención a los temas que son tan populares para la comunidad infantil, y YouTube debería estar más atento a esta clase de vídeos desagradables camuflados entre los normales debido a todos los problemas que ha tenido en el pasado".

"Desde lo ocurrido con el Elsagate, hemos invertido mucho dinero en mejorar las políticas y los sistemas que nos permiten eliminar rápidamente el contenido inapropiado", asegura Ivy Choi, portavoz de YouTube, quien fue preguntada por D'Anastasio para conocer su versión. "Debido a que YouTube nunca ha sido apto para menores de 13 años creamos YouTube Kids en 2015 y recientemente anunciamos una opción para que los padres pudieran supervisar la cuenta y ver a qué tipo de contenido acceden sus hijos".

Social YouTube Niños
El redactor recomienda