Es noticia
Maite Taboada: "La libertad de expresión no quiere decir libertad para ofender"
  1. Tecnología
LINGÜISTA COMPUTANCIONAL

Maite Taboada: "La libertad de expresión no quiere decir libertad para ofender"

"Twitter y Facebook se escudan diciendo que hay tanto contenido que no lo puede controlar. Bueno, pues se me ocurre que a lo mejor no deberías tener tanto contenido", explica esta catedrática

Foto: Maite Taboada, catedrática del Departamento de Lingüística en la Universidad Simon Fraser.
Maite Taboada, catedrática del Departamento de Lingüística en la Universidad Simon Fraser.

Maite Taboada es de esas personas que se quita toda la importancia del mundo. Catedrática en el Departamento de Lingüística en la Universidad Simon Fraser de Vancouver y becada por Fundación La Caixa, ha sido nombrada hace poco miembro de la Royal Society de Canadá. “Es un cargo honorífico, no recibo remuneración alguna, pero me hace mucha ilusión porque es un reconocimiento a los académicos más relevantes del país y porque es una institución que asesora a gobiernos en grandes temas”, explica.

Pero hay algo que obsesiona a esta lingüista computacional y que lleva estudiando desde hace más de dos décadas: las conversaciones que se generan en internet, los mensajes que se lanzan, la desinformación, los bulos y lo que implica que los comentarios más valorados de las noticias sean los que destilan más odio. Porque todo esto que banalizamos, dice, tiene sus consecuencias.

Foto: El proyecto Waterfall of Meaning, de Google, durante una exposición en Londres. (Getty/Tristan Fewings)

“Falla la democracia, porque la gente a la que más se ataca en internet se acaba retirando de la esfera pública, así que no todo el mundo participa. En Canadá, por ejemplo, se están retirando candidaturas políticas de mujeres y de personas de razas y religiones diferentes porque el coste personal es enorme y no les compensa. Y a veces esto no se queda solo en las redes sociales. El ataque a la casa de Nancy Pelosi es una prueba de ello”, afirma.

PREGUNTA. Ayúdeme a comprender su carrera profesional. Leo que “desarrolla métodos y algoritmos que incorporan la estructura discursiva en diferentes aplicaciones, especialmente dentro del análisis del sentimiento y la opinión. Entre sus proyectos actuales se encuentra el análisis de los comentarios en internet, con el fin de desarrollar una plataforma de moderación de comentarios, y un estudio de la desinformación y las noticias falsas, aplicando técnicas de clasificación de textos que puedan distinguir noticias verídicas de bulos”.

RESPUESTA. Mi carrera no deja de ser una combinación de lo que nos interesa y lo que se nos da bien. Como lingüista computacional, me interesa cómo podemos entender y procesar el lenguaje. Hace mucho tiempo, allá por el año 2000, me contrató una empresa para revisar textos en internet. Era una época en la que nadie pensaba que esto era importante, pero a ellos les interesaba lo que decía la gente en blogs y listas de difusión sobre las empresas cotizadas en bolsa. Sabíamos que hay gente que invierte y que apuesta a subidas y bajadas de precio de las acciones. También vimos que hay gente que manipula información para hacer que el precio de las acciones baje y así sacar un beneficio.

P. Esa empresa cerró, dice, por falta de clientes. ¿Qué pasó después?

R. De ahí pasé a la universidad y seguí interesada en estos temas, en la opinión y la subjetividad. Hoy, gracias a la tecnología, somos capaces de recopilar toda esa información en bases de datos que nos permiten ver patrones a gran escala. Es una maravilla. Todo esto al final me ha llevado a estudiar la desinformación, los comentarios a las noticias, que es algo que os interesa mucho a los periodistas. Trabajamos en ver cómo pueden contribuir a una conversación más sana de lo que es. Como imaginas, los que tienen más me gusta son los más incendiarios, los más extremos.

placeholder Maite Taboada. (Cedida)
Maite Taboada. (Cedida)

P. Los insultos los identificamos con cierta facilidad, pero ¿cómo podemos reconocer un bulo?

R. Nos pueden ayudar algunas pistas sobre el lenguaje que se usa para elaborarlos. Gran parte de la desinformación intenta polarizar y dividir, y los puedes identificar porque hay mensajes que ponen el nosotros frente al ellos. Si te fijas en los pronombres que utilizan, lo ves. El lenguaje de la otredad. Estos, los otros, esos grupos…
Luego lo que encuentras en el lenguaje es mucha exageración, muchos adjetivos superlativos en los que se intenta construir un mensaje de emergencia, de terror, de que las cosas van a ir a peor.

Lo más difícil son las metáforas, que están tan integradas en nuestro vocabulario común que son difíciles de identificarlas. Por ejemplo, las catástrofes naturales: una riada de inmigrantes, una ola, una invasión… Hay otro tipo de pistas en el lenguaje que tienen que ver con la falta de profesionalidad de la gente que escribe fake news. Suele haber faltas de ortografía, frases incompletas, una redacción inconexa…

P. Pero todo esto lo observamos también en el debate político. Los mensajes apocalípticos se digieren tan bien…

R. Tienes razón. Hace poco escribí un artículo al respecto, sobre la banalidad, porque nos estamos acostumbrando a escuchar estas cosas. A veces son los líderes políticos, a veces son responsables de empresas y a veces también son nuestros vecinos. No soy experta en discurso político, pero sí he leído a expertos que dicen que ha habido un gran cambio en los últimos 30 o 40 años en las campañas electorales, que han virado hacia la negatividad. No se habla de lo que se va a hacer, sino de lo terrible que sería que ganaran los otros. Es una práctica que por desgracia hemos importado de Estados Unidos, y el problema es que es muy efectiva. Necesitamos una pausa, porque este círculo perverso no nos genera una mejor democracia.

"Los políticos ya no hablan de qué van a hacer, sino de que sería terrible que ganaran los otros"

P. Una de las conclusiones de su investigación es que este tipo de discursos tiene víctimas muy concretas. Las mujeres y los migrantes reciben muchos más ataques.

R. Esto está muy bien estudiado y, por desgracia, tenemos evidencias. Hay un estudio de The Guardian que analizó los comentarios de sus noticias, incluso aquellos que no se llegaron a publicar. Hicieron una lista de los periodistas que más improperios recibían. De 10, ocho eran mujeres y los otros dos eran negros. Está claro, vamos.
También hicimos un estudio sobre los comentarios y los tuits que recibían los candidatos al Parlamento en Canadá y las conclusiones fueron las mismas. Las mujeres y los candidatos que no son blancos recibían los peores insultos; además, muy personalizados.

P. ¿Hay algo que podemos hacer al respecto?

R. Hay un debate muy interesante a este respecto, porque se dice que es un problema laboral. Por ejemplo, si trabajas en una obra, la persona que te contrata tiene que asegurarse de que los andamios son seguros para que no te caigas, ¿verdad? Pues un director de periódico también tendría que protegerte de este tipo de abuso, que es equiparable con caerte y romperte una pierna. Es un problema de salud mental al que te expones por culpa de tu trabajo. No podemos normalizar que exponerte con tu trabajo tenga estas consecuencias. ¿Por qué tenemos que aguantar estas cosas?

Como lingüista, no tengo una solución, porque es una cosa que tiene que ver más con la legislación laboral. Pero la libertad de expresión no quiere decir libertad para ofender.

Foto: Elon Musk. (Getty)

P. ¿Algún país se está tomando en serio estas cosas? ¿Hay ejemplos de buena praxis?

R. Más que país, la UE sí que está intentando trabajar en esto. Se acaba de aprobar la ley de servicios digitales después de dos años de trabajo y muchas consultas a expertos, y esa ley intenta poner un poco de orden a las redes sociales. No es perfecta, claro, pero es lo mejor que hay porque en Estados Unidos, donde está la sede de todas estas empresas, la ley dice que no son responsables de lo que la gente publica en ellas. Twitter y Facebook se escudan diciendo que hay tanto contenido que no lo puede controlar. Bueno, pues se me ocurre que a lo mejor no deberías tener tanto contenido.

P. ¿Cómo valora la labor de empresas de verificación como Newtral y Maldita.es?

R. Conozco ambos casos y creo que hacen un trabajo magnífico. Estos sistemas de verificación existen en otros países y los utilizamos para nuestras investigaciones, para determinar si una noticia es falsa. Creo que necesitan existir y quizás el problema que veo es el mismo que en los medios de comunicación: cómo se financian. Para percibir su independencia es necesario que su financiación también lo sea.

Maite Taboada es de esas personas que se quita toda la importancia del mundo. Catedrática en el Departamento de Lingüística en la Universidad Simon Fraser de Vancouver y becada por Fundación La Caixa, ha sido nombrada hace poco miembro de la Royal Society de Canadá. “Es un cargo honorífico, no recibo remuneración alguna, pero me hace mucha ilusión porque es un reconocimiento a los académicos más relevantes del país y porque es una institución que asesora a gobiernos en grandes temas”, explica.

Internet
El redactor recomienda