De FB y Twitter a YouTube: cómo ha girado la manipulación en las elecciones de EEUU
La plataforma de vídeos de Google ha congregado la mayor parte de las críticas a las redes sociales durante la noche electoral por llevar a cabo actuaciones laxas para parar la desinformación
Si uno entraba la noche electoral en YouTube, los directos y vídeos sobre las elecciones se contaban por cientos o incluso miles. Programas de televisión, 'youtubers', radios, activistas... Todo el mundo quería encontrar su hueco en la principal plataforma de vídeo del mundo. Pero entre tanta información, también se escondía un pequeño detalle del que solo unos pocos se dieron cuenta: había decenas de canales haciendo directos falsos para intentar generar dinero a base de poner mapas de resultados inventados de las elecciones. La aparición de estos vídeos podría parecer un pequeño contratiempo, una idea de algunos pillos, pero solo es un ejemplo de cómo la manipulación informativa y su negocio, aunque diferente a 2016, siguen ahí.
Lo más normal es que cuando alguien piense en propaganda electoral, manipulación en redes sociales o desinformación en internet, los primeros nombres que le vengan a la cabeza sean los de Facebook o Twitter, y es lógico. Estas redes, y no sin razón, se han llevado la mayor parte de los golpes en este sentido por lo ocurrido en las anteriores elecciones de Estados Unidos, el Brexit o la misma pandemia. Tanto es así que el escrutinio continuo ha obligado a sus equipos a luchar de forma clara contra la desinformación, vetando anuncios políticos, tomando medidas para bloquear el negocio de la propaganda, pero no es tan fácil acabar con algo así, ni dejarlo escapar. Y lo de YouTube esta noche electoral es un buen ejemplo.
Además del ya mencionado caso de los vídeos falsos que destaparon medios como 'Insider', la plataforma propiedad de Google se ha convertido en la más señalada tras estos últimos comicios por otros motivos. El primero es que en varios de sus innumerables canales se congregaron para comentar las elecciones y hablar, entre otras cosas, de fraude electoral dos de los mayores defensores de la 'alt-right' en EEUU, expulsados de casi todas las grandes redes desde hace años y acusados de fomentar el discurso del odio y las 'fake news', como son Alex Jones y Steve Bannon.
En el caso de Bannon tanto YouTube como Twitter acaban de suspender sus cuentas por pedir la decapitación del Doctor Fauci. "Hemos eliminado este video por infringir nuestra política contra la incitación a la violencia. Seguiremos estando pendientes a la vez que hacemos que se cumplan nuestras políticas tras las elecciones", ha asegurado Alex Joseph, portavoz de YouTube, en referencia al clip .
Over 4 million views on a stream peddling absolute garbage about voter fraud.
— Carlos Maza (@gaywonk) November 5, 2020
YouTube has become one of the largest sources of US election misinformation. pic.twitter.com/7De8NNDGS9
Mientras muchos ojos se centran en la reacción de #Facebook y #Twitter ante la proliferación de bulos sobre las #EleccionesEEUU, #Youtube permite vídeos en directo del gurú ultra Steve Bannon (acusado por fraude) en los que pide una insurrección armada a favor de #Trump. https://t.co/wGSS9BHf9V pic.twitter.com/2EOE0GFCM6
— Carles Planas Bou (@carlesplb) November 4, 2020
ALEX JONES - EMERGENCY MESSAGE - THEY ARE STEALING THE ELECTION https://t.co/X7n4n1jAP6 via @YouTube
— Caulaincourt 🦅🇨🇦🇩🇰🇫🇷 (@caulaincourt27) November 5, 2020
El segundo, y el que ha colmado el vaso, tiene que ver con la no retirada de un vídeo subido por la red pro-Trump One American News Network en el que se da al todavía presidente como supuesto ganador de las elecciones. YouTube incluso ha hecho pública la decisión de no censurarlo a pesar de decir claramente que viola sus políticas publicitarias, pero no las de contenido, lo que ha provocado un fuerte debate.
This OANN video opens with the false sentence, "President Trump won four more years in office last night."
— Jane Lytvynenko (@JaneLytv) November 5, 2020
YouTube is keeping it on the platform. Full statement from the company below. pic.twitter.com/i9v0bhPgPl
Entonces, visto cómo la 'app' de vídeos está centrando las críticas contra las redes sociales esta vez, ¿quiere decir esto que toda la desinformación se ha quedado en YouTube o que Google no ha tomado medidas? No exactamente, aunque como explicaba la Mozzilla Foundation en su monitorización de las políticas de las redes de cara a estas elecciones sí que YouTube era la más laxa a la hora de atacar las falsas declaraciones de victoria.
YouTube, frente a Facebook o Twitter
Por lo que explican en medios como 'The New York Times', 'The Verge' o CNN, las tres grandes compañías tomaron medidas similares para intentar parar la desinformación e informar a los usuarios con mensajes de advertencia en contenidos polémicos o en la pantalla principal de sus redes. Limitaron la difusión de mensajes polémicos, ajustaron los algoritmos y han puesto más armas sobre la mesa que nunca, pero no es nada sencillo conseguirlo y YouTube es un gran ejemplo de ello, pero Facebook no se queda atrás. Incluso Twitter, la empresa más beligerante en este sentido, está teniendo problemas para gestionar este bombardeo continuo de información e intentos de manipulación.
En el caso de la plataforma de Mark Zuckerberg, que ha implantado todo tipo de vetos tanto en Facebook como en Instagram para evitar males mayores, también ha recibido críticas por ser incapaz de, o no querer, censurar contenidos claramente falsos sobre fraude electoral o resultados que ya habían salido. Twitter, por su parte, que no ha temblado a la hora de tumbar comentarios sobre fraude electoral (hasta del propio presidente) y mensajes similares, se ha visto también salpicado por el caso del vídeo sobre la victoria de Trump, ya que ha decidido no borrar varios tuits que comparten el enlace a YouTube porque no violan sus políticas. Y en este importante coladero, ¿qué diferencia a YouTube del resto que lo hace más vulnerable? Los vídeos, y eso no solo hace agua ahora.
All of the recent Biden claimed States will be legally challenged by us for Voter Fraud and State Election Fraud. Plenty of proof - just check out the Media. WE WILL WIN! America First!
— Donald J. Trump (@realDonaldTrump) November 5, 2020
Ya durante la noche electoral, el reportero de Bloomberg Mark Bergen realizó un rastreo de casos en los que demostraba cómo el contenido engañoso había logrado aparecer en YouTube a través de transmisiones en vivo, y con él coincide el informático y analista de redes Marcelino Madrigal. "Siempre ha sido una plataforma utilizada para desinformar y manipular por varias razones. La primera es que son vídeos y llegan mucho mejor a la gente sin necesidad siquiera de que lea, pero también es fácil viralizarlos, el algoritmo de YouTube te va empalmando uno tras otro, y algo clave: es multiplataforma, por lo que lo puedes compartir por todas las redes y consumir sin cambiar de una a otra".
Madrigal, que analiza desde hace años todo tipo tendencias y movimientos en redes sociales, explicó hace poco en su cuenta de Twitter cómo los enlaces a YouTube eran los más compartidos en canales de Telegram negacionistas, con muchísima diferencia. "Hay razones obvias para esto. El contenido se consume y se comparte rápido, es mucho más difícil de contrastar que un texto y encima puedes intentar monetizarlo, que al final es parte fundamental del negocio", apunta.
And here comes YouTube's Philadelphia moderation challenge. pic.twitter.com/JdaMeHFCiv
— Mark Bergen (@mhbergen) November 4, 2020
Les pongo un ejemplo de un análisis muy simple y corto
— mmadrigal (@SoyMmadrigal) November 3, 2020
El canal es real, pero lo voy a hacer de forma que no divulgue de que se trata
Esta es la distribución de dominios enlazados en un canal pic.twitter.com/rrZIEWP7UE
¿Y las nuevas 'apps'?
Por último, sobre el futuro de esta desinformación y si afecta a otras nuevas plataformas, todo apunta a que se irá adaptando. Ya se ha demostrado y se cuenta en estos artículos de 'The New York Times' o la agencia EFE cómo, en núcleos de inmigrantes latinos, WhatsApp ha jugado un papel clave como espacio para compartir informaciones de dudosa procedencia y manipular la opinión de los votantes con todo tipo de propaganda. Y se empieza a hablar de manera cada vez más intensa de TikTok o Twitch, que ya han jugado un papel clave, por ejemplo, en el activismo contra Trump, pero aún es terreno virgen.
"El caso de TikTok es un caso generacional de manual, como lo fue en su momento Instagram, y habrá que ver cómo evoluciona su uso, si se va generalizando. Ahora mismo, comparas cómo se define políticamente un 'millennial' en TikTok a como lo hace un GenZ y no tiene nada que ver", explica a este periódico el experto en redes David Álvarez. "Sin embargo, el ejemplo de Twitch es más difícil de analizar, porque Twitch es una consecuencia del ejército de 'gamers' que existen por todo el mundo. Pero creo que el rechazo al contenido político es más alto en esta red social que en TikTok, se sienten como más invadidos", termina.
Si uno entraba la noche electoral en YouTube, los directos y vídeos sobre las elecciones se contaban por cientos o incluso miles. Programas de televisión, 'youtubers', radios, activistas... Todo el mundo quería encontrar su hueco en la principal plataforma de vídeo del mundo. Pero entre tanta información, también se escondía un pequeño detalle del que solo unos pocos se dieron cuenta: había decenas de canales haciendo directos falsos para intentar generar dinero a base de poner mapas de resultados inventados de las elecciones. La aparición de estos vídeos podría parecer un pequeño contratiempo, una idea de algunos pillos, pero solo es un ejemplo de cómo la manipulación informativa y su negocio, aunque diferente a 2016, siguen ahí.