Es noticia
Lo que España quiere borrar de internet: el quinto país que más cosas pide eliminar a Google
  1. Tecnología
DURANTE LOS ÚLTIMOS 10 AÑOS

Lo que España quiere borrar de internet: el quinto país que más cosas pide eliminar a Google

Desde 2011, la compañía ha recibido 1.322 peticiones de autoridades o tribunales españoles para retirar más de 270.000 elementos de internet. ¿Qué ocurre con Facebook, Instagram o TikTok?

Foto: Cable roto de internet con el logo de Google. (Reuters/Dado Ruvic)
Cable roto de internet con el logo de Google. (Reuters/Dado Ruvic)
EC EXCLUSIVO Artículo solo para suscriptores

Webs, URL, cuentas, reseñas, fotografías, vídeos... En poco más de una década, las instituciones y tribunales españoles ha cursado más de 1.320 peticiones para que Google retirase más de 270.000 contenidos de internet. Una marca que sitúa España como el quinto país que más contenidos ha pedido retirar en este tiempo. Es el único Estado europeo que aparece en el top 5.

Para encontrar los siguientes, Francia e Italia, hay que descender hasta los puestos 12 y 13 respectivamente. Desde 2011, año en que la compañía estadounidense empieza a recopilar estos datos y publicar su Informe de transparencia, ha recibido casi 350.000 peticiones de todo el mundo para retirar casi cuatro millones de contenidos. Rusia encabeza esas estadísticas, según dicho documento. Le siguen Corea del Sur, Kazajistán e Indonesia. La tasa de retirada oscila mucho dependiendo del año consultado. Por ejemplo, en 2019 se aceptaron casi todas las peticiones y órdenes judiciales, mientras que en otros esta cifra se coloca entre el 60 o el 70%.

Que un juez o una autoridad de un país pidan borrar algo de internet no es algo que ocurra exclusivamente en el buscador o en otros productos de Google como Blogger. Las redes sociales también cuentan con este tipo de mecanismos con el que los diferentes Estados pueden solicitar que se limite la difusión o la eliminación tanto de contenidos como de perfiles. Según los datos que ofrecen las diferentes plataformas, España ha conseguido eliminar por esta vía, al menos, 1.200 publicaciones y cuentas de sitios como Facebook, Instagram o TikTok.

Foto: Una mujer pasa por delante de un poster de Ho Chi Minh en Hanoi, el 30 de agosto de 2017. (Reuters)

Hay que tener en cuenta que esta posibilidad es algo que va más allá de la moderación de contenidos ilegales y violentos como la pederastia o los suicidios, una tarea de control que las plataformas deben hacer proactivamente, ya que están obligadas por la legislación vigente.

Cuando las plataformas deciden

Un buen número de las peticiones viene acompañado de una orden judicial. "No es censura si viene de un juez", recuerda Borja Adsuara, abogado experto en derecho digital, privacidad y protección de datos. Por ejemplo, en 2017, la Justicia española utilizó esta vía para conseguir que Google acabase restringiendo el acceso y descarga desde España —no su eliminación— una aplicación que detallaba cómo votar en el referéndum catalán que se ofrecía en la Play Store, la tienda de aplicaciones para dispositivos Android.

"Cuando este requerimiento viene de un Gobierno, hay que mirarlo con un poco más de cuidado, evidentemente", argumenta Juliana Barbedo, abogada especializada en la propiedad intelectual e industrial y tecnología de Aledra Legal. Esta experta añade que es importante revisar estas peticiones en pro de proteger derechos como la libertad de expresión y de información. Puntualiza que aunque no sea necesario un marco jurídico, sí que se debe requerir una argumentación de por qué se debe retirar dicho contenido. Si no existen una resolución y orden de un tribunal, el papel recae en las plataformas, que son las que deben valorar esas peticiones. Y algunas veces las rechaza, precisamente, por la ausencia de una resolución oficial de un tribunal.

Foto: File photo: facebook, tiktok, twitter, youtube and instagram apps are seen on a smartphone in this illustration Opinión

Los motivos por los que gobiernos, agencias de protección de datos o tribunales acceden a este procedimiento varían en función de la tipología y de la causa. En España, destacan las alegaciones por infracción de derechos de autor, motivos de seguridad o por difamación.

¿Bloquear la publicación o también la cuenta?

Una de las dudas que se plantean en torno a este mecanismo es cuál debe ser la forma de actuar: ¿se debe eliminar únicamente la publicación en disputa o se debe cancelar todo el perfil? En este caso, es interesante fijarse en el proceder de la compañía antes conocida como Facebook. En esta red social, el procedimiento pasa por una evaluación de las solicitudes de acuerdo a las directrices de Global Network Initiative, ONG por la prevención de la censura en internet, y su política corporativa de derechos humanos.

Siguiendo este proceder, la compañía de Mark Zuckerberg ejecuta una doble verificación: la revisión del contenido bajo lupa de las políticas de uso de Facebook e Instagram, así como una segunda comprobación o revisión legal, teniendo en cuenta la legislación local que existe en el país desde donde se cursa la petición.

Foto: Mark Zuckerberg, en una imagen de archivo. (EFE/Ernesto Arias)

Según el informe de transparencia de Meta, solo durante el pasado año Facebook llegó a restringir en España 52 artículos por incitación al odio y hasta 162 por representar a medios controlados por Rusia ante las sanciones impuestas por la Unión Europea. Gracias a esta documentación, se puede ver que cada vez es más habitual no bloquear únicamente el contenido, sino también cancelar el perfil que lo publica y lo difunde.

¿Qué ocurre con TikTok?

Aunque TikTok sea la red social de moda y esté en boca de todos, la información disponible sobre la retirada de contenidos es todavía limitada, ya que solo se han recopilado los datos correspondientes a dos años. En ese tiempo, España cursó 22 solicitudes sobre cuentas y 15 sobre contenidos. Según la información de la plataforma asiática, solo se ha acabado eliminando el 22,7% de los contenidos.

En el panorama global, Pakistán adelanta en TikTok a naciones como Estados Unidos o Rusia con cerca de 10.000 solicitudes de retirada y con un 89% de eliminación. Le sigue Bangladés, con al menos 3.000 solicitudes, pero con un 32% de contenido o cuentas retirado. China no figura en los datos, ya que allí opera Douyin, una plataforma idéntica, también de ByteDance, sujeta a la legislación del régimen de Pekín.

Foto: Foto: EFE/EPA/Mark R. Cristino.

¿Hay un método correcto?

"Desde el Reglamento Europeo de Servicios Digitales, se establecen una serie de mecanismos y procedimientos que las plataformas tienen que seguir para la moderación de contenidos", añade Barbedo. La nueva normativa europea asegura cierta diligencia ante las plataformas para que estas no establezcan mecanismos poco fundamentados, detalla. Ahora bien, las solicitudes gubernamentales son un procedimiento al margen de las políticas de contenido propias de las redes sociales. Ya son conocidas las polémicas sobre la aparición de pezones femeninos en Instagram o la arbitrariedad de eliminación por contenido sensible de TikTok. Pero, en estos casos, las plataformas son juez y parte, ya que son las que deciden cuando no existe argumentación de legalidad.

Foto:
TE PUEDE INTERESAR
Los 'malditos' de Instagram
Romina Vallés

"Es la doble censura del Gobierno y las multinacionales de las redes sociales", confiesa Adsuara. Considera que sería necesario crear un organismo independiente entre los organismos institucionales, los tribunales y las empresas para asegurar la autorregulación sectorial de contenidos digitales de forma especializada. El objetivo de esta plataforma sería preservar y salvaguardar la libertad de expresión y de información de manera independiente.

De esta manera, se evitarían dos de los mayores riesgos. Por una parte, que los gobiernos y otros poderes públicos presionasen a estas empresas para censurar contenido. Pero también se evitaría que la decisión estuviese únicamente en manos de estas compañías. No se puede obviar que, aunque las redes sociales son muy importantes para las comunicaciones de millones de personas en todo el globo, al final son negocios privados y obedecen a intereses particulares.

Cuando no es un juez quien decide: ¿hasta dónde debe llegar el poder de las tecnológicas para borrar el contenido?

El dilema reside en quién y cómo toma la decisión cuando no es un juez el que lo pide. Esto es un asunto que recurrentemente se pone la bajo la lupa. ¿Hasta qué punto deben tener control estas empresas sobre el contenido de sus plataformas, teniendo en cuenta que muchas de ellas tienen un importante impacto en la esfera pública?, ¿qué ocurre si no borran algo susceptible de ser delictivo o qué ocurre si se pasan de frenada?, ¿hasta dónde llega su responsabilidad? En EEUU, recientemente el Supremo ha tenido que pronunciarse sobre la sección 230 de la Ley de Decencia de las Telecomunicaciones. Ese artículo es el que permite a las fuerzas vivas de internet (Facebook, YouTube, Instagram…) eliminar contenidos discrecionalmente o decidir mantenerlos sin tener que dar explicaciones ni responsabilizarse por eso.

El tema llegó al alto tribunal estadounidense después de que la familia de una chica asesinada en los atentados de París de 2021 denunciase a estas plataformas por no eliminar y permitir la difusión de contenido capaz de radicalizar a jóvenes. La Justicia parece que se inclina por mantener el actual escenario, porque un cambio en la norma obligaría a las compañías a reformular absolutamente las normas de moderación y responsabilizaría a las compañías de lo que publican otros. Durante el proceso, se levantó un enconado debate sobre cómo esto podría afectar a la libertad de expresión y qué poder o no deberían tener estas plataformas que da fe de lo complicado que resulta todo esto.

El Supremo apuntó en el mismo camino: Menéame tenía que haber borrado la ofensa

En España también se han dado casos similares. Un "hijo puta" en los comentarios de una noticia de un condenado por corrupción en Menéame desató una larga pelea judicial que ha llegado al Constitucional. En primera instancia, se dio la razón a los responsables de la web y se dictaminó que no había que eliminar el insulto porque no era contra una persona, sino contra "una forma de hacer política". El recurso dio la vuelta a la primera resolución judicial y el Supremo apuntó en el mismo camino: Menéame tenía que haber borrado la ofensa. El asunto escaló entonces al TC, que este viernes confirmó que la sentencia era correcta.

Webs, URL, cuentas, reseñas, fotografías, vídeos... En poco más de una década, las instituciones y tribunales españoles ha cursado más de 1.320 peticiones para que Google retirase más de 270.000 contenidos de internet. Una marca que sitúa España como el quinto país que más contenidos ha pedido retirar en este tiempo. Es el único Estado europeo que aparece en el top 5.

Instagram Google
El redactor recomienda