Es noticia
¿Por qué te cabreas cada vez más al entrar en internet? Esta experta tiene una respuesta
  1. Tecnología
Nos venden polarización y lo llaman IA

¿Por qué te cabreas cada vez más al entrar en internet? Esta experta tiene una respuesta

"Las actuales narrativas sobre la IA son, a propósito, muy confusas. El sector tecnológico juega a confundir y distraer", explica Érika Staël von Holstein, asesora de IA del Gobierno de España

Foto: Erika Staël Von Holstein, CEO del think-tank Reimagine Europa y Asesora en IA del Gobierno de España. (EC)
Erika Staël Von Holstein, CEO del think-tank Reimagine Europa y Asesora en IA del Gobierno de España. (EC)

Si tienes una sensación cada vez más frecuente de cabreo cuando entras en internet, tranquilo, no estás solo. Quizás la palabra exacta no sea cabreo. Igual lo que sientes se acerca más a frustración, impotencia, rabia o confusión. Pero sabes lo que es cuando te ocurre. Desbloqueas el móvil. Entras en los comentarios de una noticia a ver qué opinan, te pasas un rato por X, echas un vistazo a Instagram, saltas a YouTube para no perderte los últimos vídeos de un par de influencers que te gustan... Y, cada vez más, acabas entre cabreado y desquiciado. Le está pasando a mucha gente. La última prueba es la deserción masiva de usuarios de X, hartos de un cenagal de desinformación y mentiras que no están dispuestos a seguir tragando. Muchos han decidido no seguir haciéndole el caldo gordo a Elon Musk y se están yendo a manos llenas a plataformas como BlueSky. Pero el fenómeno que está causando nuestro desasosiego sigue ahí. Y para expertos que llevan años estudiándolo, es cada vez más preocupante.

Erika Staël von Holstein explica con un sencillo ejemplo parte de lo que está ocurriendo. "El otro día hablaba con un amigo chino que me decía: "en China jamás queremos decir lo que luego decimos y jamás decimos lo que de verdad queremos decir. Es cosa tuya tratar de entendernos". Ahora sucede algo parecido con la desinformación", señalaba esta semana en el encuentro "La nueva realidad tras la IA", organizado por El Confidencial.

Dicho de otra forma, los algoritmos de las redes sociales están teniendo un efecto cada vez más perverso en nuestra forma de relacionarnos socialmente. "Cada vez nos encerramos más y más en nuestra propia burbuja de creencias y prejuicios. Cada vez nos comunicamos menos", asegura von Holstein. Cuando lo hacemos, ya no es para intercambiar puntos de vista o entender al de enfrente. Es para imponer nuestra visión. Si no lo conseguimos, nos cabreamos. Si otros nos intentan imponer su mundo, nos cabreamos. Y, lo más preocupante, es que es un fenómeno que, en buena parte, está impulsado por las propias plataformas tecnológicas.

Foto: Trump y Musk esta semana en Palm Beach. (Reuters/C. Barria)

Staël von Holstein lleva más de dos décadas analizando el fenómeno de la desinformación y la polarización, "ambos están muy relacionados", señala. Es miembro del Consejo Asesor Internacional de Inteligencia Artificial del Gobierno de España, junto a, entre otros, Vinton Cerf, uno de los 'padres' de internet, o Carissa Véliz, profesora asociada en el Instituto de Ética en IA de la Universidad de Oxford. Además, es CEO del think tank europeo con sede en Bruselas "Reimagine Europa", especializado en entender cómo la polarización está afectando a las democracias.

Érika Staël von Holstein. (Cedida)

"Hemos visto un cambio drástico de actitud hacia la información. Nos dimos cuenta por primera vez en el 2016, con las elecciones de EEUU y el Brexit. Ahora acabamos de tener otras elecciones en EEUU. Y creo que lo que ha ocurrido aquí en España con la tragedia en Valencia deja también muy claro que esto va de emociones. Solemos pensar en la información y en la desinformación como algo racional, y sí, puedes comprobar los hechos, las estadísticas. Pero la vida va de emociones", explica.

Para especialistas como Staël von Holstein, la desinformación no es simplemente mentiras, consiste en establecer ciertas narrativas para lograr atraer, convencer y movilizar a comunidades con intereses compartidos. "Las narrativas y los hechos no son excluyentes, de hecho tienen relación, pero los hechos son a las narrativas lo que las palabras a las frases. El problema es que las narrativas no son correctas o incorrectas, son útiles o menos útiles. Al final, es una opción de cómo escogemos entender la realidad y eso no lo puedes desmentir, no puedes hacer fact-check a la forma de pensar de alguien o su forma de ver el mundo. No sirve de nada. Lo hemos visto con las nuevas elecciones de EEUU, no puedes convencer a alguien con estadísticas y hechos".

El Observatorio de Narrativas para combatir la desinformación en Europa (NODES, en sus siglas en inglés), un proyecto impulsado por el think-tank Reimagine Europe y financiado por la Comisión Europea, ha presentado esta semana un informe (se puede leer aquí) tras meses de trabajo en el que concluye que la inteligencia artificial es algo así como un instalar un gigantesco ventilador industrial a la tendencia existente de la desinformación. La está amplificando y convirtiendo en un problema mucho mayor. "La irrupción de la IA generativa y su combinación con las plataformas digitales está impactando negativamente en nuestra democracia", señala en el informe el europarlamentario Brando Benifei.

placeholder La periodista y ensayista especializada en tecnología, Marta Peirano. (EC)
La periodista y ensayista especializada en tecnología, Marta Peirano. (EC)

"Uno de los principales retos es que las actuales narrativas sobre la IA son, a propósito, muy confusas y no ayudan a comprender exactamente cómo esta tecnología nos va a ayudar", explica Staël von Holstein. "La gente que tenga acceso a la IA y a la infraestructura de la IA tendrá un enorme poder. Esta es la batalla que se está librando. El sector tecnológico juega a confundir y distraer. Es una estrategia conocida: vamos a llevarnos a la opinión pública a un debate aquí, para que empleen toda su energía y tiempo, mientras nosotros trabajamos más allá. Para cuando te das cuenta de lo que ocurre, ya se ha decidido todo".

Otros investigadores, académicos y ensayistas coinciden con Staël von Holstein en el terreno resbaladizo que pisamos en ciertas áreas de la IA y en cómo esta puede encender la desinformación. "Para mí, uno de los grandes riesgos es confundir lo correcto con lo verosímil. La IA tradicional buscaba siempre lo correcto, que el sistema fuera capaz de dar una respuesta cierta de la que pudieras fiarte al 100%. Con la nueva IA generativa y los modelos del lenguaje esto no es así, lo que se busca es crear una respuesta que parezca generada por un humano, independientemente de que sea cierta o no. Este es el gran riesgo que hay, que se confunda una cosa con otra y la desinformación se convierta en moneda de cambio", explicaba esta semana en el encuentro "La nueva realidad tras la IA" Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del CSIC.

placeholder Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del CSIC. (EC)
Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del CSIC. (EC)

Marta Peirano, periodista y ensayista especializada en tecnología, coincide. "Con la IA, lo verosímil corre el riesgo de volverse cierto por vía de la automatización. Es lo que llamaba Turing el juego de la imitación, basta con que parezca cierto para que creamos que es cierto. Entonces, ya podemos hablar de IA. Si creemos que es cierto y automatizamos los procesos para generar resultados que no son ciertos, sino solo son verosímiles, entonces lo verosímil se vuelve verdad".

¿Cómo evitar todos estos riesgos? ¿Hay forma de parar la espiral de la desinformación y polarización en la recién estrenada era de la IA generativa? Para Peirano, una de las claves es exigir más transparencia al sector tecnológico. "La transparencia es un presupuesto fundamental. Si no sabemos cómo funciona el modelo, qué objetivos tiene, con qué bases de datos ha sido entrenado, cómo se está utilizando y qué recursos consume, la regulación poco puede hacer. Es un problema para los usuarios, las empresas y, si nos podemos dramáticos, para la democracia. La regulación tiene que ser capacitada para ser implementada. Y no lo está", señala.

placeholder Juan Pavón, catedrático en el departamento de Ingeniería del Software e Inteligencia Artificial de la Universidad Complutense de Madrid. (Propia)
Juan Pavón, catedrático en el departamento de Ingeniería del Software e Inteligencia Artificial de la Universidad Complutense de Madrid. (Propia)

Juan Pavón, catedrático en el departamento de Ingeniería del Software e Inteligencia Artificial de la Universidad Complutense de Madrid (UCM), apunta otra vía. "Ahora se está investigando mucho en la línea de lo que se llama la IA explicable. Se trata de ver cómo funcionan esas cajas negras, observando entradas y salidas de información, de explicar qué es lo que está pasando ahí dentro. Pero no es solo auditar el modelo en sí. También previamente los datos. Ahí hay una nueva profesión".

"Para mí la regulación es bastante necesaria, como en todos los sectores. Es lo que te da confianza de que un puente no se va a caer, de que una casa está construida de acuerdo a normativa", dice Sierra. "Las empresas de EEUU normalmente se oponen y hacen mucho lobby en contra para que los gobiernos no regulen. Dicen, "ya nos autorregularemos". Bueno, eso habría que verlo. Esto debería funcionar con certificaciones, si un determinado producto cumple la ley, se certifica. ¿Por qué no hacerlo también con la IA?".

Si tienes una sensación cada vez más frecuente de cabreo cuando entras en internet, tranquilo, no estás solo. Quizás la palabra exacta no sea cabreo. Igual lo que sientes se acerca más a frustración, impotencia, rabia o confusión. Pero sabes lo que es cuando te ocurre. Desbloqueas el móvil. Entras en los comentarios de una noticia a ver qué opinan, te pasas un rato por X, echas un vistazo a Instagram, saltas a YouTube para no perderte los últimos vídeos de un par de influencers que te gustan... Y, cada vez más, acabas entre cabreado y desquiciado. Le está pasando a mucha gente. La última prueba es la deserción masiva de usuarios de X, hartos de un cenagal de desinformación y mentiras que no están dispuestos a seguir tragando. Muchos han decidido no seguir haciéndole el caldo gordo a Elon Musk y se están yendo a manos llenas a plataformas como BlueSky. Pero el fenómeno que está causando nuestro desasosiego sigue ahí. Y para expertos que llevan años estudiándolo, es cada vez más preocupante.

Inteligencia Artificial Eventos EC
El redactor recomienda