De FB y Twitter a YouTube: cómo ha girado la manipulación en las elecciones de EEUU
  1. Tecnología
El negocio de la manipulación sigue ahí

De FB y Twitter a YouTube: cómo ha girado la manipulación en las elecciones de EEUU

La plataforma de vídeos de Google ha congregado la mayor parte de las críticas a las redes sociales durante la noche electoral por llevar a cabo actuaciones laxas para parar la desinformación

placeholder Foto: Foto: Reuters.
Foto: Reuters.

Si uno entraba la noche electoral en YouTube, los directos y vídeos sobre las elecciones se contaban por cientos o incluso miles. Programas de televisión, 'youtubers', radios, activistas... Todo el mundo quería encontrar su hueco en la principal plataforma de vídeo del mundo. Pero entre tanta información, también se escondía un pequeño detalle del que solo unos pocos se dieron cuenta: había decenas de canales haciendo directos falsos para intentar generar dinero a base de poner mapas de resultados inventados de las elecciones. La aparición de estos vídeos podría parecer un pequeño contratiempo, una idea de algunos pillos, pero solo es un ejemplo de cómo la manipulación informativa y su negocio, aunque diferente a 2016, siguen ahí.

Lo más normal es que cuando alguien piense en propaganda electoral, manipulación en redes sociales o desinformación en internet, los primeros nombres que le vengan a la cabeza sean los de Facebook o Twitter, y es lógico. Estas redes, y no sin razón, se han llevado la mayor parte de los golpes en este sentido por lo ocurrido en las anteriores elecciones de Estados Unidos, el Brexit o la misma pandemia. Tanto es así que el escrutinio continuo ha obligado a sus equipos a luchar de forma clara contra la desinformación, vetando anuncios políticos, tomando medidas para bloquear el negocio de la propaganda, pero no es tan fácil acabar con algo así, ni dejarlo escapar. Y lo de YouTube esta noche electoral es un buen ejemplo.

Foto: (Foto: Reuters)

Además del ya mencionado caso de los vídeos falsos que destaparon medios como 'Insider', la plataforma propiedad de Google se ha convertido en la más señalada tras estos últimos comicios por otros motivos. El primero es que en varios de sus innumerables canales se congregaron para comentar las elecciones y hablar, entre otras cosas, de fraude electoral dos de los mayores defensores de la 'alt-right' en EEUU, expulsados de casi todas las grandes redes desde hace años y acusados de fomentar el discurso del odio y las 'fake news', como son Alex Jones y Steve Bannon.

En el caso de Bannon tanto YouTube como Twitter acaban de suspender sus cuentas por pedir la decapitación del Doctor Fauci. "Hemos eliminado este video por infringir nuestra política contra la incitación a la violencia. Seguiremos estando pendientes a la vez que hacemos que se cumplan nuestras políticas tras las elecciones", ha asegurado Alex Joseph, portavoz de YouTube, en referencia al clip .

El segundo, y el que ha colmado el vaso, tiene que ver con la no retirada de un vídeo subido por la red pro-Trump One American News Network en el que se da al todavía presidente como supuesto ganador de las elecciones. YouTube incluso ha hecho pública la decisión de no censurarlo a pesar de decir claramente que viola sus políticas publicitarias, pero no las de contenido, lo que ha provocado un fuerte debate.

Entonces, visto cómo la 'app' de vídeos está centrando las críticas contra las redes sociales esta vez, ¿quiere decir esto que toda la desinformación se ha quedado en YouTube o que Google no ha tomado medidas? No exactamente, aunque como explicaba la Mozzilla Foundation en su monitorización de las políticas de las redes de cara a estas elecciones sí que YouTube era la más laxa a la hora de atacar las falsas declaraciones de victoria.

YouTube, frente a Facebook o Twitter

Por lo que explican en medios como 'The New York Times', 'The Verge' o CNN, las tres grandes compañías tomaron medidas similares para intentar parar la desinformación e informar a los usuarios con mensajes de advertencia en contenidos polémicos o en la pantalla principal de sus redes. Limitaron la difusión de mensajes polémicos, ajustaron los algoritmos y han puesto más armas sobre la mesa que nunca, pero no es nada sencillo conseguirlo y YouTube es un gran ejemplo de ello, pero Facebook no se queda atrás. Incluso Twitter, la empresa más beligerante en este sentido, está teniendo problemas para gestionar este bombardeo continuo de información e intentos de manipulación.

En el caso de la plataforma de Mark Zuckerberg, que ha implantado todo tipo de vetos tanto en Facebook como en Instagram para evitar males mayores, también ha recibido críticas por ser incapaz de, o no querer, censurar contenidos claramente falsos sobre fraude electoral o resultados que ya habían salido. Twitter, por su parte, que no ha temblado a la hora de tumbar comentarios sobre fraude electoral (hasta del propio presidente) y mensajes similares, se ha visto también salpicado por el caso del vídeo sobre la victoria de Trump, ya que ha decidido no borrar varios tuits que comparten el enlace a YouTube porque no violan sus políticas. Y en este importante coladero, ¿qué diferencia a YouTube del resto que lo hace más vulnerable? Los vídeos, y eso no solo hace agua ahora.

Ya durante la noche electoral, el reportero de Bloomberg Mark Bergen realizó un rastreo de casos en los que demostraba cómo el contenido engañoso había logrado aparecer en YouTube a través de transmisiones en vivo, y con él coincide el informático y analista de redes Marcelino Madrigal. "Siempre ha sido una plataforma utilizada para desinformar y manipular por varias razones. La primera es que son vídeos y llegan mucho mejor a la gente sin necesidad siquiera de que lea, pero también es fácil viralizarlos, el algoritmo de YouTube te va empalmando uno tras otro, y algo clave: es multiplataforma, por lo que lo puedes compartir por todas las redes y consumir sin cambiar de una a otra".

Madrigal, que analiza desde hace años todo tipo tendencias y movimientos en redes sociales, explicó hace poco en su cuenta de Twitter cómo los enlaces a YouTube eran los más compartidos en canales de Telegram negacionistas, con muchísima diferencia. "Hay razones obvias para esto. El contenido se consume y se comparte rápido, es mucho más difícil de contrastar que un texto y encima puedes intentar monetizarlo, que al final es parte fundamental del negocio", apunta.

¿Y las nuevas 'apps'?

Por último, sobre el futuro de esta desinformación y si afecta a otras nuevas plataformas, todo apunta a que se irá adaptando. Ya se ha demostrado y se cuenta en estos artículos de 'The New York Times' o la agencia EFE cómo, en núcleos de inmigrantes latinos, WhatsApp ha jugado un papel clave como espacio para compartir informaciones de dudosa procedencia y manipular la opinión de los votantes con todo tipo de propaganda. Y se empieza a hablar de manera cada vez más intensa de TikTok o Twitch, que ya han jugado un papel clave, por ejemplo, en el activismo contra Trump, pero aún es terreno virgen.

"El caso de TikTok es un caso generacional de manual, como lo fue en su momento Instagram, y habrá que ver cómo evoluciona su uso, si se va generalizando. Ahora mismo, comparas cómo se define políticamente un 'millennial' en TikTok a como lo hace un GenZ y no tiene nada que ver", explica a este periódico el experto en redes David Álvarez. "Sin embargo, el ejemplo de Twitch es más difícil de analizar, porque Twitch es una consecuencia del ejército de 'gamers' que existen por todo el mundo. Pero creo que el rechazo al contenido político es más alto en esta red social que en TikTok, se sienten como más invadidos", termina.

Redes Sociales Elecciones EEUU
El redactor recomienda