Pheme, un detector de mentiras para las redes sociales
  1. Tecnología
el proyecto está financiado por la UE

Pheme, un detector de mentiras para las redes sociales

Los rumores corren en las redes sociales a toda velocidad. ¿Cómo saber qué es verdad y qué no? La UE financia una herramienta que ayude a distinguir

placeholder Foto:

La mañana del miércoles amanecíamos con la triste noticia de la muerte de Paco de Lucía. Todo comenzaba como un rumor en Twitter, que tomaba consistencia tras la confirmación por parte del Ayuntamiento de Algeciras, ciudad natal del guitarrista. Entre un momento y otro, cautela hasta saber si la noticia era o no cierta. No habría sido la primera vez que Twitter mata a un personaje célebre que resulta estar perfectamente vivo.

La precaución es importante sobre todo por parte de los periodistas. Twitter es un ecosistema perfecto para la difusión de información en tiempo real, sí, pero también los bulos pueden correr como la pólvora e ir ganando visibilidad e impulso antes de que dé tiempo a preguntar: “¿alguien ha comprobado eso?”. El problema es que una vez que coge impulso, las mentiras son como la pasta de dientes: da igual cuanto lo intentes, no puedes volver a guardarlas en el tubo.

Por eso una investigación internacional en tecnologías, financiada en parte por el séptimo programa marco de la Unión Europeay en la que participan varias universidades y empresas europeas (entre ellas la división española de la multinacional ATOS),está trabajando para desarrollar un software que sirva comodetector de mentiras en las redes sociales. Se trata del proyecto Pheme, un esfuerzo conjunto para analizar enormes cantidades de datos y detectar patrones comunes en la difusión de bulos. El objetivo es identificar las mentiras antes de que se hagan virales.

El cuarto desafío del 'Big Data': la veracidad

“Las redes sociales conllevan tres grandes desafíos en cuanto a computación, las tres V del Big Data: volumen, velocidad y variedad. Pheme se centrará en el cuarto desafío, crucial pero poco estudiado hasta ahora: la veracidad”, reza la web del proyecto.

La foto del London Eye en llamas era una falsificación

Un proyecto inspirado en el trabajo de Rob Procter, profesor de informática social de la Universidad de Warwick, en Reino Unido, una de las participantes en el programa,que analizó el surgimiento y difusión de una serie de rumores durante las revueltas de Londres en 2011. Entre ellos, la noticia de que los alborotadores habían soltado a los animales del zoo de Londres y la de que habían prendido fuego al London Eye (ambas noticias eran falsas, pero se extendieron con rapidez por las redes sociales).

En este caso, no eran solo los periodistas los que veían en juego su labor: los equipos de emergencia tuvieron que calibrar si ponerse o no en marcha ante estas informaciones, y el tiempo era un factor crucial.

Según el trabajo de Procter, el funcionamiento natural de Twitter termina corrigiendo estos bulos (la verdad se termina dando a conocer), pero no es un proceso rápido. Pueden pasar horas o incluso días hasta que la verdad recupera el terreno conquistado por la mentira. La idea tras Pheme es conseguirlo de forma casi automática, y dar herramientas a los profesionales de la información para hacer juicios más acertados.

Cuatro tipos de bulos

Para hacerlo, los participantes en Pheme (cuyo nombre es un homenaje a la diosa griega de la fama,Pheme, y recuerda al término meme) han creado cuatro categorías para clasificar los bulos: la especulación, la controversia, la información incorrecta y la que es directamente falsa. Las fases preliminares del proyecto han tratado de crear modelos que reflejen cómo se difunden estos contenidos por los medios online.

Además del contenido, es importante cómo se transmite. Sus autores esperan que Pheme pueda identificar el lenguaje sensacionalista y extremo que utilizamos por ejemplo al exagerar lo que estamos contando

“Sin embargo, es muy difícil determinar si un contenido entra en uno de estos grupos cuando lo que estudias son las redes sociales. La calidad de la información en ese caso depende mucho del contexto social, y hasta ahora ha sido todo un desafío identificar e interpretar este contexto automáticamente”, explica la presentación de Pheme.

El enfoque adecuado, por tanto, pasa inevitablemente por formar un equipo multidisciplinar: Pheme reúne a expertos en los campos del procesamiento del lenguaje natural y la minería de textos, del análisis de las relaciones sociales y de la visualización de la información.

EnTeknautashemos hablado con Tomás Pariente Lobo, responsable del Laboratorio de Conocimiento en Atos. La aportación española tendrá una doble vertiente, una comercial (coordinará el estudio de mercado potencial de esta tecnología), y otra tecnológica.

"Nuestra colaboración fundamental es el desarrollo de una plataforma de adquisición de datos de redes sociales. Hay que tener en cuenta que para la detección de rumores no basta solo con capturar lostuitsrelativos a unas determinadas búsquedas, sino también hay que considerar la red social y el contenido adicional al que puede apuntar eltuit", comenta Pariente.

Pone el ejemplo de los recientes disturbios en Ucrania. Para saber lo que está pasando a través de Twitter, habría que capturar los mensajes que se producen, detectar quién los produce, los posibles retuits, la red de contactos del originador (quién le sigue y a quién sigue) y a qué contenidos externos enlazan. "Atos se encarga de toda la parte inicial de captura de tuits, de la red de contactos y del contenido externo".

Un análisis en varias fases

Sus escrutinios seguirán un proceso con varias fases concretas. El primero, será el análisis de la información inherente al propio texto: el léxico, la semántica y la sintaxis. Esta información se cruzará después con fuentes relevantes según el tema, como es PubMed para temas médicos o el archivo de artículos científicos arxiv.com.

Hay que tener en cuenta que para la detección de rumores no basta solo con capturar los 'tuits' relativos a unas determinadas búsquedas, sino también hay que considerar la red social y el contenido adicional al que puede apuntar el 'tuit'

Además del contenido, es importante cómo se transmite, con qué palabras y expresiones. Sus autores esperan que Pheme pueda identificar el lenguaje más bien sensacionalista y extremo que utilizamos por ejemplo al exagerar lo que estamos contando.También quién ha lanzado la información, si ha sido un medio, un periodista, un experto, un testigo, un usuario cualquiera o unbot.

También se aplicarán herramientas relacionadas con la web semántica y el llamado Linked Open Data para rastrear los contenidos por la web e identificar su fiabilidad. Por último se analizará su distribución: quién envía qué información a quién, cómo, y cuándo.

Una herramienta con limitaciones

La idea es construir algoritmos inteligentes de verificación, y publicarlos como código abierto para que puedan ser utilizados por periodistas, servicios de emergencias, gobiernos o el sector privadocomo una forma fiable de determinar la posible veracidad de un rumor y reaccionar rápidamente ante las necesidades del público.

"La plataforma a desarrollar se va a validar en el contexto de dos casos de uso: el periodismo digital, donde los periodistas podrán ser alertado de potenciales noticias que se estén cocinando en las redes sociales, y mejora de la salud, donde los médicos serán alertados de informaciones relativas a la salud que estén adquiriendo relevancia en internet y que pueden tener o no una base real", concluye Paciente.

Pheme ya ha nacido con algunas limitaciones. Por ejemplo, no contempla en análisis de imágenes en fotos o vídeos, cuya manipulación es muchas veces la forma más eficaz de lanzar y reproducir un bulo

Sin embargo, esta herramienta no es una solución mágica.“Los periodistas aún tendrán que hacer el trabajo final de comprobación. Lo que intentamos es ayudarles a tener una visión general de lo que está pasando”, asegura la investigadora Kalina Bontcheva, experta en minería de textos de la Universidad de Sheffield, en Reino Unido, y directora del proyecto.Según Bontcheva, Pheme será útil en casos de crisis, catástrofes o accidentes, cuando muchos usuarios contribuyen a difundir informaciones a través de las redes y la realidad se distorsiona fácilmente.

Pero Pheme ya ha nacido con algunas limitaciones. Por ejemplo, no contempla en análisis de imágenes en fotos o vídeos, cuya manipulación es muchas veces la forma más eficaz de lanzar y reproducir un bulo, tal y como ocurrió en el caso del London Eye en llamas.

En cualquier caso, pasarán meses antes de que Pheme sea utilizable por cualquiera que quiera filtrar los posibles bulos de sus redes. El trabajo del equipo comenzó en enero de este año y se llevará a cabo durante un periodo de 36 meses. Habrá que esperar hasta entonces para ver cuál es el resultado de la investigación.

Redes Sociales Lenguaje Manipulación
El redactor recomienda