Es noticia
Estos 3 gráficos demuestran por qué la mejor idea de Musk para Twitter es un desastre
  1. Tecnología
LA CARA B DE LAS NOTAS DE LA COMUNIDAD

Estos 3 gráficos demuestran por qué la mejor idea de Musk para Twitter es un desastre

Las Notas de la Comunidad habían sido su gran apuesta para combatir la desinformación. Sin embargo, la guerra en Gaza está empezando a mostrar las costuras de esta herramienta, que aumenta aún más la confusión

Foto: Elon Musk durante el AI Safety Summit. (Reuters/Toby Melville)
Elon Musk durante el AI Safety Summit. (Reuters/Toby Melville)

"Cualquiera que haga declaraciones manifiestamente falsas en esta plataforma recibirá una Nota de la Comunidad. Sin excepciones". El pasado 27 de abril, Elon Musk se mostraba así de tajante para poner de relieve la que ha sido su gran apuesta para combatir la desinformación en X, la plataforma que compró hace un año, cuando aún se llamaba Twitter. No era una idea del nuevo dueño, sino del anterior equipo, que llevaba tiempo experimentando posibilidad de que los usuarios añadieran contexto relevante a un determinado tuit, ahora llamados posts. En cambio, él decidió que era el momento de que la herramienta llegara a todo el mundo. Desde entonces, estas notas han tenido una acogida calurosa entre usuarios de toda condición. Sin embargo, en ese mismo anuncio ya había una pista de lo que podía ocurrir.

"Algunos tuits con afirmaciones falsas pueden no tener Notas de la Comunidad. El alcance de este sistema está limitado por la participación, y no es inmune a los errores o a la propagación de conceptos erróneos que están muy extendidos", decía la Nota que aparecía en la publicación del propio Musk, que había definido esta herramienta como "un cambio de juego para combatir la información errónea". El problema es que el efecto está lejos de ser el deseado. Más bien, solo ha añadido otro campo de batalla a la toxicidad de X. Y lo ocurrido durante los primeros 30 días tras el ataque de Hamás a Israel, donde estas matizaciones se han multiplicado, da buena cuenta de ello.

El Confidencial ha analizado los datos de las Notas de Comunidad —facilitados por la propia X en su web— en este último mes, incluyendo todo aquel que hiciera mención explícita al conflicto. La evidencia es cristalina. Entre otras cosas, las anotaciones pueden aparecer con la misma rapidez que otros usuarios pueden tumbarlas. A veces son días u horas; otras, minutos. Por supuesto, eso no significa que difundan más mentiras o engaños que el resto, pero tampoco lo contrario. Simplemente, aumentan aún más la confusión.

En este periodo, más de un centenar de publicaciones han tenido, al menos, cinco Notas de la Comunidad distintas. De ellos, diez han tenido una decena de matizaciones. Una publicación de Omar Suleiman, fundador del Instituto Yaqeen para la Investigación Islámica, es la que más ha acumulado, con un total de 14. Si clicas en el anterior enlace, no esperes ver ninguna de ellas. Aunque la publicación tiene más de 20 millones de visualizaciones, en el momento en el que se escriben estas líneas, no aparece nada más que el texto original.

Entre las otras publicaciones que más Notas de la Comunidad han recibido en el conflicto palestino-israelí hay de todo. Desde el perfil de Jeremy Corbyn a la cuenta oficial del Gobierno de Israel o la de su ejército, pasando por organizaciones humanitarias —caso de Human Rights Watch y Médicos Sin Fronteras— o la agencia de noticias Associated Press; estas dos últimas, son las únicas que se mantienen al cierre de esta edición. Hasta el Consejo de Derechos Humanos de la ONU se ha llevado diez matizaciones distintas por un post en el que comunicaban un minuto de silencio "por la pérdida de vidas inocentes en el territorio palestino ocupado y en otros lugares".

Poco después del lanzamiento, Musk también aseguró que "las Notas de la Comunidad nos defenderán de los deepfakes". Pero otro de los casos más disputados apunta en otra dirección. "¿Queréis pruebas fotográficas de bebés judíos muertos? Aquí están", escribió en X el escritor Ben Shapiro, también judío, que adjuntaba la imagen de un cadáver calcinado. "¡Es una imagen falsa creada por inteligencia artificial!", le reprendió el analista político Jackson Hinkle, que no aportaba ninguna prueba que sostuviera la acusación.

No solo cruzaron varios mensajes en el que acusaban al otro de mentir, sino que también hubo nueve anotaciones para la publicación original de Shapiro y otras tres para el de Hinkle. De nuevo, no queda rastro de ninguna de estas matizaciones. El post de este último fue el que más recorrido tuvo, con más de 16 millones de personas, frente a las dos del primero. Es imposible determinar cuántos usuarios vieron una nota, varias o ninguna.

La historia se repite para cualquier otro asunto de actualidad. Solo hay que observar el perfil oficial de Notas de la Comunidad Útiles, donde solo se publican aquellas matizaciones supuestamente consolidadas, para comprobarlo.

Los verificados, a la cabeza de las correcciones

La otra conclusión del análisis realizado por este periódico afecta a la verificación de pago implementada por Musk, algo que levantó críticas desde el primer momento, ya que antes era otorgada basándose en la autoridad o fiabilidad de cada perfil. Pese a ser una pequeña minoría, quienes pagan por X Premium —menos de un 1% de todos los usuarios, según los últimos datos disponibles— por tener la famosa insignia azul reciben dos tercios de todas Notas de la Comunidad que quienes no lo hacen. Es un reflejo de cómo la exposición extra que se oferta con la suscripción multiplica la probabilidad de que, desde la otra trinchera, te coloquen una etiqueta por difundir información falsa, sea acertada o no.

La propia operativa de la herramienta ayuda a explicar todo lo anterior. Por ahora, no todos los usuarios pueden añadir estas notas, ya que hay que inscribirse en una web y esperar a ser aceptado. Una vez consiguen esta condición, los colaboradores —así los llaman— tienen la potestad de añadir, si lo ven necesario, alguna aclaración. Después, ese comentario aparece acompañando a la publicación y todos los usuarios pueden votar si es útil o no y por qué. Por ejemplo, si utiliza un lenguaje neutral, usa fuentes de alta calidad o si de verdad está aportando algo relevante. Cuando alcanza cierto grado de aceptación —y ahí no solo importa la cantidad de vistos buenos, sino también que vengan de personas con puntos de vista distintos o que hayan hecho un buen trabajo de moderación antes—, aparecen para todo el público.

Eso sí, la plataforma pide que se actúe de buena fe, aunque se trate de personas con las que no están de acuerdo, algo que no parece que se estén siguiendo demasiados colaboradores. Eso no ha quitado que Musk lleve días cargando contra Wikipedia, cuyo modelo considera inferior al de Notas de la Comunidad, pese a sus dos décadas de historia a las espaldas.

"Ya estamos viendo zascas organizados. Es algo que ocurre cuando impulsas que la visibilidad la tiene quien paga más", comentaba Galder González, editor voluntario de Wikipedia desde 2006, sobre este asunto. Además, la discusión en la enciclopedia más famosa de internet no funciona por votación, sino por la calidad de las fuentes. "Es algo complejo, pero transparente, porque en cualquier artículo puedes ver las páginas de discusión, quién participa y sus argumentos, aunque sean temas polémicos".

Pese a las palabras de Musk, la propia X ha reconocido entre líneas que las Notas de la Comunidad necesitan mejorar. Sin ir más lejos, esta semana ha anunciado varios cambios para tratar de poner orden, aunque no cambian su esencia. Por ejemplo, hasta ahora daban prioridad a las matizaciones que incluían alguna fuente fiable, pero ahora lo han convertido en condición necesaria, salvo que se explique por qué no era necesario citar una fuente. Poco después, Musk apareció para decir que tendrá que "vigilar esto" y mencionar una de sus grandes obsesiones: los medios de comunicación. "Lo que importa son los enlaces a fuentes de datos reales, no algún estúpido artículo de prensa", especificó.

Otra novedad ha sido enviar una notificación a todo aquel que haya interaccionado con un post si este recibe alguna Nota de la Comunidad. Y por último, la más interesante: un sistema para identificar imágenes o vídeos que se publican varias veces en la red social y se difunden, por ejemplo, de forma descontextualizada. De este modo, si un contenido audiovisual tiene una anotación, esta aparecerá también cuando otros usuarios la repliquen en la plataforma. El problema es qué pasará cuando tengan una decena de matizaciones contradictorias entre sí que aparecen y desaparecen según los usuarios que las puntúen.

Musk no te lo dice, pero está contratando moderadores

Las Notas de la Comunidad de X también han sido un intento ahora los usuarios hagan lo que antes era tarea de empleados de Twitter; en su mayoría, los encargados de esta tarea fueron despedidos para evitar el desastre económico de una empresa en ruinas comprada a precio desorbitado. Pero también por la propia visión de Musk de este negocio. Si bien existía un mínimo consenso sobre la moderación de contenidos para evitar la propagación de información falsa y manipulada, Musk siempre ha defendido que la ley debería ser el único límite, un concepto bastante controvertido para una plataforma global.

Es lo que explica que también fulminara al Consejo de Trust & Safety, formado por un centenar de especialistas de dilatada trayectoria, que había asesorado durante años a la dirección de Twitter en esta materia y de forma voluntaria. "Solo estuve seis semanas en el Twitter de Musk, y ya lo vi como una sombra de lo que fue. Ahora es como los restos de uno de los incendios forestales en California", contaba Anne Collier, una de aquellas asesoras, en una entrevista reciente con El Confidencial, donde ya levantaba algunas dudas sobre la efectividad de las Notas de la Comunidad. "¿Qué porcentaje de los usuarios de X están interesados en el debate civil y preocupados por la desinformación?", se preguntaba.

Foto: Foto: Reuters/Leah Millis.

En cualquier caso, y aunque Musk no haya hecho gala de ello, lo cierto es que Twitter publicó hace unos días un informe en el que aseguraba contar con 2.500 moderadores de contenido, donde se cuentan tanto empleados propios como de subcontratas, y daba algunos detalles sobre cómo trabajaban en evitar la difusión de información falsa.

Fue la consecuencia del toque de atención que le había dado la Comisión Europea, que tenía indicios de que X "se estaba usando para difundir contenido ilegal y desinformación", incumpliendo así la Ley de Servicios Digitales (DSA, por sus siglas en inglés). "¡No sé de qué está hablando!", respondió Musk. Apenas diez días después, y pese a las sospechas de que podía llegar a bloquear el acceso a la plataforma en los países comunitarios, acabó aceptando sus exigencias.

"Cualquiera que haga declaraciones manifiestamente falsas en esta plataforma recibirá una Nota de la Comunidad. Sin excepciones". El pasado 27 de abril, Elon Musk se mostraba así de tajante para poner de relieve la que ha sido su gran apuesta para combatir la desinformación en X, la plataforma que compró hace un año, cuando aún se llamaba Twitter. No era una idea del nuevo dueño, sino del anterior equipo, que llevaba tiempo experimentando posibilidad de que los usuarios añadieran contexto relevante a un determinado tuit, ahora llamados posts. En cambio, él decidió que era el momento de que la herramienta llegara a todo el mundo. Desde entonces, estas notas han tenido una acogida calurosa entre usuarios de toda condición. Sin embargo, en ese mismo anuncio ya había una pista de lo que podía ocurrir.

Elon Musk
El redactor recomienda