Es noticia
Suicidios y acoso: las redes sociales dejaron miles de familias rotas (y se puede repetir)
  1. Tecnología
vigilia-protesta

Suicidios y acoso: las redes sociales dejaron miles de familias rotas (y se puede repetir)

Las redes sociales e internet se han convertido en un entorno hostil para muchos menores. La falta de control ya tiene consecuencias trágicas. Esta es la batalla que se está librando por mejorar la moderación

Foto: Tammy Rodríguez, durante la concentración. (M. Mc.)
Tammy Rodríguez, durante la concentración. (M. Mc.)
EC EXCLUSIVO

Perdí a mi hija Selena a los 11 años por culpa de las redes sociales. Hoy soy su voz aquí." Así comenzó Tammy Rodríguez su desgarrador testimonio, pronunciado en un acto frente a las oficinas que la empresa antes conocida como Facebook tiene en Manhattan.

"Meta fue uno de los peores males que encontró en su camino", afirma. Rodríguez explica que, "como muchas niñas de su edad", Selena usaba Instagram para conectar con sus amigos y compañeros de colegio. Sin embargo, terminó sufriendo grooming, término que describe el acoso y la manipulación que un adulto ejerce sobre un menor a través de internet con fines sexuales, un peligro invisible que a menudo pasa desapercibido para quienes rodean a la víctima. "Fue seducida y manipulada por Instagram hasta que, con dudas, finalmente envió fotos inapropiadas a esos acosadores. Pero yo no supe nada de esto hasta después de perderla", recuerda su madre.

Tras el suicidio de Selena, Tammy decidió inspeccionar el móvil y otros dispositivos de la niña para encontrar respuestas. Descubrió que tenía "siete cuentas ocultas en Instagram" y que "el contenido que encontré era horrible, terrible".

Foto: Mark Zuckerberg, CEO y fundador de Meta. (Reuters)

Obsesionada con los peligros que acechan a los menores en las redes, Tammy creó una cuenta fingiendo ser una niña de 12 años para recopilar muestras del contenido al que podían exponerse. "Solo puse dos fotos de voleibol, pero en cuestión de minutos el algoritmo empezó a mostrarme contenido adulto, trastornos alimenticios y autolesiones", relata. "Nunca me había encontrado con nada así en mi propia cuenta, supongo porque soy una mujer aburrida y de mediana edad, no una adolescente que les genera dinero."

"Las redes sociales no van a desaparecer, pero sí pueden mejorar mucho con los arreglos necesarios", aseguró. "Solo porque Zuckerberg no permita que sus hijos las usen, no significa que no haya un mundo entero de niños inocentes que lo único que buscan es conectar con amigos".

Tammy Rodríguez fue una de las 45 familias de Estados Unidos y Reino Unido que se unieron a esta acción organizada para varias asociaciones civiles hace pocas semanas en Nueva York. Todas tenían algo en común: habían perdido a un ser querido en circunstancias similares y querían alzar la voz para denunciar la falta de protección real en muchas plataformas digitales hacia los menores.

El caso de Selena pone de relieve una realidad preocupante: muchas de estas plataformas siguen exponiendo a niños y adolescentes a contenidos dañinos y a personas con intenciones peligrosas. El objetivo era denunciar cómo los algoritmos priorizan el tiempo que los usuarios pasan conectados, relegando la salud mental y la seguridad de los menores a un segundo plano.

placeholder Momento de la concentración. (M. Mc.)
Momento de la concentración. (M. Mc.)

"No tuvimos ninguna oportunidad frente a los diseños adictivos de estas redes", contaban Lori y Avery, los padres de Annalee Amelia, que vieron cómo su hija se quitaba la vida en el rancho familiar de Colorado en noviembre de 2020, justo cuando había alcanzado la mayoría de edad.

"Lo que descubrimos nos destrozó: en sus perfiles, el algoritmo la empujaba sin cesar a consumir contenido sobre ansiedad, depresión y suicidio. Estaba librando una guerra silenciosa con su salud mental y la perdió", contó el matrimonio, que no fue consciente de todo hasta revisar el móvil y los diarios de la joven una vez fallecida. "La plataforma le convenció de que no era suficiente, de que no tenía futuro. Le hizo pensar que quitarse la vida le aliviaría el dolor".

Selena y Annalee se suicidaron. No ocurrió así con Coco, cuyo cuerpo fue hallado en el apartamento de un hombre de 50 años. La autopsia posterior confirmó que había sido agredida sexualmente. Su madre explicó que su asesino contactó con ella en Instagram, donde fingió ser una persona mucho más joven para ganarse su confianza.

Tras ofrecerle unas pastillas para ayudarla con sus problemas de ansiedad, la convenció para quedar. La menor dijo a su familia que se iba a hacer compras con una amiga y fue la última vez que la vieron con vida.

A pesar de sus quejas y denuncias, la cuenta del agresor siguió activa hasta cuatro meses después. "Mientras lloraba frente a la cama vacía de mi hija, ese hombre seguía contactando con otras niñas", relata para lanzar una pregunta: "¿De verdad no son capaces de detectar a un depredador con su inteligencia artificial y sus algoritmos?"

Llamada urgente a la acción

Estos tres son solo unos pocos de los muchos que han documentado en Heat Initiative, una coalición fundada en 2023 en Estados Unidos para reclamar a la tecnológica mayor implicación en la protección de los menores y en la creación de un espacio seguro y adecuado en internet para ello. Esta plataforma fue una de las organizaciones que convocaron esta vigilia-protesta contra Meta, junto a otras como Design It For Us, una asociación de jóvenes estadounidenses que tienen reclamaciones similares.

"Hay que hacer una llamada urgente a la acción", explica a El Confidencial Sarah Gardner, cofundadora y CEO de Heat Initiative. "En Meta no están haciendo todo lo que podrían hacer para combatir cosas como la sextorsión. Los niños no van a dejar de ser objetivo de depredadores en Instagram y otras redes, y no se les puede fallar. Hay que hacer todo lo posible".

“Sabemos que a los padres les preocupa que sus hijos adolescentes tengan experiencias inseguras o inapropiadas en línea”, declaró la compañía a varios medios, que señaló el lanzamiento de Instagram Teens. "Estas cuentas disponen de protecciones integradas que limitan quién puede contactarlos y el contenido que ven, y el 94 % de los padres afirman que son útiles. También hemos desarrollado funciones de seguridad para ayudar a prevenir el abuso, como advertir a los adolescentes cuando chatean con alguien en otro país”.

Foto: La influencer y modelo, Estela Grande. (Instagram)

Gardner asegura que la multinacional, a pesar de que "prometió limitar la exposición a contenido violento, extremista y sexualizado" con lanzamientos como este, no está cumpliendo estos compromisos. Aunque esta coalición ha puesto ahora sus ojos en la empresa de redes sociales, se dio a conocer en un primer momento por sus campañas para exigir a Apple mayor control sobre las aplicaciones que distribuía en sus dispositivos.

Gardner señaló que, aunque el foco principal esté en plataformas como Instagram, los de Cupertino habían permanecido mucho tiempo al margen de esta conversación crucial, a pesar de que dispositivos como el iPhone, el iPad o algunos servicios forman parte del entorno "donde muchos menores gastan gran parte de su tiempo digital" y también presentan peligros.

Recientemente, el Wall Street Journal publicaba un amplio reportaje donde se recogían casos de menores que habían acabado quitándose la vida después de haber sido sextorsionados por iMessage.

La multinacional californiana ha tratado de responder a esta presión con medidas que pretenden minimizar los peligros inesperados para los menores y dar más herramientas a los padres para controlar lo que hacen sus hijos con sus dispositivos. Lo último, presentado en la WWDC, es que cuando un adolescente vaya a mandar un mensaje a través de iMessage a un número nuevo esta comunicación debe ser aprobada por el adulto al que esté vinculada la cuenta.

Gardner cree que todavía hay mucho por hacer. "Esto solo es el comienzo", apunta. "No solo Meta y Apple tienen responsabilidad", señala la CEO de Heat Initiative. "También están Snapchat, TikTok… y otros fabricantes de dispositivos. Cada una de estas compañías tiene un papel importante que jugar, y queremos que lo entiendan bien en Silicon Valley".

placeholder Foto: EFE.
Foto: EFE.

El asunto de la seguridad infantil en las redes sociales irrumpió en la agenda pública en 2021, cuando Frances Haugen, exempleada de la empresa antes conocida como Facebook, filtró documentos internos que revelaban que la compañía era consciente del daño que Instagram causaba a los adolescentes, especialmente a las chicas.

Esta ‘garganta profunda’, que también declaró ante el Senado de Estados Unidos, mostró cómo, a pesar de estas evidencias, la empresa priorizaba el crecimiento y la retención de usuarios por encima de la protección de los menores. Entre los documentos filtrados destacaba la falta de controles humanos efectivos y la ineficacia de los sistemas automatizados para frenar el contenido perjudicial.

Desde entonces, miles de familias en Estados Unidos han interpuesto demandas contra Meta, TikTok y otras plataformas, y la preocupación se ha extendido a nivel global. Organizaciones como Heat Initiative han surgido para presionar a las empresas a cambiar sus políticas y proteger a los menores. En respuesta a esta crisis, países como Australia han prohibido el acceso a redes sociales a menores de 16 años, y en Reino Unido, España o Francia se estudian medidas similares para restringir el uso hasta los 15 años. Sin embargo, estas regulaciones se deben adoptar a nivel nacional, ya que la Unión Europea ha descartado por ahora una normativa común a nivel comunitario. En Estados Unidos, también se han iniciado reformas legislativas para abordar el problema.

La empresa priorizaba el crecimiento y la retención de usuarios por encima de la protección de los menores

Un proyecto de ley, apoyado mayoritariamente en el Senado, quería castigar a las empresas que priorizan el aspecto económico a la seguridad en sus plataformas, pero el cambio de presidencia hizo que el texto aún no haya salido adelante.

Sin embargo, parece que la administración Trump va a meter el asunto en sus prioridades. Hace unos días, unas jornadas de trabajo de la Agencia Federal de Comunicaciones, más conocida como FTC, prometieron un enfoque "más familiar" de la normativa en internet, tras constatar que se había convertido en un lugar "peligroso" para los menores de edad. Uno de los principales focos del problema radica en los recursos que estas plataformas destinan a la moderación de contenidos. En los últimos años, empresas como Twitter —ahora X— y, más recientemente, Meta, han delegado esta tarea en las propias comunidades de usuarios o en sistemas automatizados, prescindiendo de miles de moderadores humanos y cancelando contratos con organizaciones independientes de verificación de datos (fact-checking).

"La autorreportación comunitaria no es algo nuevo y la experiencia previa muestra que confiar solo en eso no es suficiente para mantener fuera el contenido violento, sexual o extremista", opinan desde Heat Initiative en este punto. "Además, los reportes y avisos de menores se pueden perder en una avalancha de reportes menos críticos".

placeholder Una de las pancartas de la concentración. (M. Mc.)
Una de las pancartas de la concentración. (M. Mc.)

Uno de los principales focos del problema radica en los recursos que estas plataformas destinan a la moderación de contenidos. En los últimos años, empresas como Twitter —ahora X— y, más recientemente, Meta, han delegado esta tarea en las propias comunidades de usuarios o en sistemas automatizados, prescindiendo de miles de moderadores humanos y cancelando contratos con organizaciones independientes de verificación de datos (fact-checking). "La autorreportación comunitaria no es algo nuevo y la experiencia previa muestra que confiar solo en eso no es suficiente para mantener fuera el contenido violento, sexual o extremista", opinan desde Heat Initiative en este punto. "Además, los reportes y avisos de menores se pueden perder en una avalancha de reportes menos críticos".

En este contexto, las filtraciones recientes sobre Meta han encendido aún más las alarmas. Según diversos informes, la compañía de Mark Zuckerberg estaría planeando automatizar con inteligencia artificial hasta el 90 % de sus evaluaciones de riesgo, un proceso clave para detectar y mitigar daños potenciales en sus plataformas. Esta estrategia busca acelerar la aprobación de actualizaciones y funciones en Facebook, Instagram y WhatsApp, pero a cambio podría reducir la intervención humana en la supervisión de contenidos sensibles, incluyendo los relacionados con la seguridad de los menores. Activistas y organizaciones especializadas han advertido que esta dependencia excesiva de la IA en evaluaciones tan críticas podría mermar la capacidad de identificar riesgos juveniles a tiempo y aumentar la exposición a contenidos dañinos.

Estas preocupaciones han llevado a que grupos sociales en diversos países como Reino Unido hayan solicitado a los reguladores rechazar evaluaciones de riesgo automatizadas o predominantemente impulsadas por IA, argumentando que este enfoque no cumple con los estándares legales de protección requeridos. Meta, por su parte, defiende que la IA solo servirá como apoyo para sus expertos y que la supervisión humana seguirá siendo esencial para gestionar los contenidos. Sin embargo, la tensión entre eficiencia tecnológica y seguridad real de los usuarios más vulnerables permanece abierta, evidenciando un dilema central en la gobernanza de las redes sociales en la era digital.

Perdí a mi hija Selena a los 11 años por culpa de las redes sociales. Hoy soy su voz aquí." Así comenzó Tammy Rodríguez su desgarrador testimonio, pronunciado en un acto frente a las oficinas que la empresa antes conocida como Facebook tiene en Manhattan.

Instagram Salud mental Algoritmos
El redactor recomienda