Es noticia
El desconocido político treintañero que desafía al creador de ChatGPT
  1. Tecnología
El juego de "evitar chantajes"

El desconocido político treintañero que desafía al creador de ChatGPT

Europa discutirá en las próximas semanas la letra pequeña para regular la inteligencia artificial en el continente. Y lo hará bajo las intensas presiones de las tecnológicas. Un joven político italiano les está plantando cara

Foto: Brando Benifei, ponente de la ley de inteligencia artificial que prepara Europa. (EFE/Wael Hamzeh)
Brando Benifei, ponente de la ley de inteligencia artificial que prepara Europa. (EFE/Wael Hamzeh)
Las claves
placeholder Google despidió a esta mujer por avisar de los peligros de la IA: "Nos están robando a todos"

La Unión Europea (UE) es hoy uno de los grandes focos de atención global en torno a la inteligencia artificial (IA). Antes de que acabe el año, los Estados miembros, incluido España, deberán tener una regulación común para mitigar los riesgos de estas tecnologías. En juego está el futuro de las grandes tecnológicas y sus negocios millonarios, pero también los derechos y libertades de los ciudadanos europeos. Es una feroz pelea entre Google, OpenAI o Microsoft, por un lado, y, por otro, diversos europarlamentarios que buscan frenar su inmenso poder.

Desde 2021, cuando la Comisión Europea presentó su propuesta para la AI Act (el nombre de la norma), las grandes compañías del sector han tratado de influir en qué requisitos tendrán que seguir sus aplicaciones. Sin embargo, la presión se ha redoblado en los últimos meses en medio del boom de la IA generativa.

Foto: El logo del fabricante taiwanés de procesadores TSMC. (Reuters)
TE PUEDE INTERESAR
El dilema del 'escudo de silicio': China tiene el arma más poderosa para hundir a EEUU
Manuel Ángel Méndez Gráficos: Unidad de Datos

A principios de junio, el Parlamento Europeo aprobó por amplia mayoría una nueva versión del texto redactado por la Comisión que aumenta las exigencias de transparencia y rendición de cuentas hacia el sector privado. En la rueda de prensa posterior a la votación, el eurodiputado italiano Brando Benifei, uno de los dos ponentes de la norma, advirtió, sin dar nombres, de que "ningún esfuerzo global obstaculizará el trabajo que estamos haciendo para tener una legislación fuerte, en especial sobre la transparencia con la IA generativa".

Benifei es un político joven, ambicioso —a sus 37 años, ya encabeza el Partido Democrático italiano en la Cámara— y relativamente desconocido fuera de Estrasburgo, pero que jugará un papel clave en el contenido final de la ley. A partir de julio, arrancan las negociaciones entre las delegaciones de la Comisión, Parlamento y Consejo Europeo, en las que participará Benifei y donde se decidirá la letra pequeña de la norma.

placeholder El europarlamentario italiano Brando Benifei. (Parlamento Europeo)
El europarlamentario italiano Brando Benifei. (Parlamento Europeo)

En una entrevista por videollamada con El Confidencial, el eurodiputado pronostica dos puntos "particularmente delicados" en estas discusiones. Uno de ellos es el veto que la Eurocámara propone a las tecnologías de identificación biométrica, como el reconocimiento facial, en los espacios públicos. El otro es precisamente cómo regular aplicaciones como ChatGPT y DALL-E, una herramienta generadora de imágenes y otro de los grandes éxitos comerciales de OpenAI.

"En estas dos áreas, veremos presiones para cambiar el texto que hemos aprobado en el Parlamento", admite Benifei. Sin embargo, se muestra confiado de que el peso económico y político de Europa "evitará chantajes" de las grandes corporaciones del sector.

El 'tour' de Sam Altman

Desde el lanzamiento de las últimas versiones de ChatGPT y DALL-E el año pasado, la presencia mediática de OpenAI no ha parado de crecer. Su fundador, Sam Altman, se ha paseado en el último mes por los principales centros de poder de Occidente. Primero fue a Washington, al Congreso de su país. Y luego a varias de las capitales europeas, entre ellas Madrid, consciente del rol que jugará España bajo la presidencia del Consejo Europeo en el esprint final de la norma europea.

placeholder Sam Altman, CEO de OpenAI. (Reuters/Issei Kato)
Sam Altman, CEO de OpenAI. (Reuters/Issei Kato)

En sus intervenciones públicas, el magnate estadounidense ha mezclado las llamadas a poner coto a las tecnologías que su empresa comercializa —"la regulación de la IA es esencial", dijo a los congresistas de EEUU— con amenazas veladas ante estos intentos. Frente a un grupo de periodistas en Londres, Altman aseguró que si la ley europea acaba exigiendo demasiado a empresas como la suya, no descarta sacar sus productos de la región. Horas después, se retractó a través de un tuit.

"No estamos preocupados por este tipo de declaraciones", sostiene Benifei, al otro lado de la pantalla. "Es habitual que las grandes tecnológicas lo hagan. Así ocurrió con la Ley de Servicios Digitales. Desde EEUU, muchas empresas dijeron que era una medida proteccionista de la UE y ahora es algo que saben que tienen que respetar y acatar". Frente a la legislación que regulará la IA en Europa, este político asegura estar "convencido de que el poder de nuestro mercado e importancia económica evitarán cualquier chantaje de este tipo".

Altman aseguró que si la ley europea acaba exigiendo demasiado a empresas como la suya, no descarta sacar sus productos de la región

Las presiones desde OpenAI no han venido solo a través de los medios de comunicación. Hace un año, los legisladores de la Comisión discutían si incluir las herramientas de IA generativa entre las aplicaciones de "alto riesgo". Esta etiqueta exigirá a las compañías desarrolladoras aumentar su transparencia e informar públicamente, por ejemplo, de los datos que se han utilizado para entrenar dichos sistemas.

El 'lobby' de las 'big tech'

Según ha revelado la revista Time, el pasado septiembre Open AI envió un documento a los legisladores europeos mostrando su "preocupación" ante esta posibilidad e instando a no incluir herramientas como ChatGPT y DALL-E bajo esta categoría. Finalmente, las revisiones en otoño pasado del texto de la Comisión dejaron fuera este tipo de sistemas, considerados de "uso general", es decir, que pueden ser utilizados para fines y objetivos muy diferentes.

placeholder Foto: Reuters/Andrew Kelly.
Foto: Reuters/Andrew Kelly.

"Tenemos sobre nosotros la atención de muchos grupos interesados en influir en esta legislación, no solo de las grandes tecnológicas", asegura Benifei, quien anticipa que en los meses que quedan de negociaciones seguirán estas presiones. "Es legítimo que representen sus intereses", apunta.

¿Pero hasta qué punto el trabajo de lobby de OpenAI ha tenido hasta ahora un efecto directo en los funcionarios europeos? Daniel Leufer, analista sénior en Bruselas de la ONG Access Now, apunta que "es difícil establecer una causalidad directa entre lo que pedían y lo que vemos en el texto [de la Comisión]". "No son las mismas palabras, pero los cambios que se hicieron coinciden con lo que pedían", señala a El Confidencial.

"Tenemos la atención de muchos grupos interesados para influir en esta legislación, no solo de las grandes tecnológicas", asegura Benifei

Con todo, Leufer, que sigue desde hace años la evolución de la AI Act y las presiones de los diferentes actores en juego, coincide con Benifei en que los documentos confidenciales revelados por Time no le sorprenden. Y que tampoco le sorprendería ver publicadas en los próximos meses informaciones similares sobre otras grandes tecnológicas. "Sería fantástico ver todos esos documentos, porque no sabemos qué han estado pidiendo. Y hemos observado algunos cambios en el texto que lo han ido diluyendo". Este experto apunta además que las presiones no solo provienen de las empresas tecnológicas, sino también de las autoridades policiales y migratorias que actúan en la UE.

Foto: Foto: Reuters/Dado Ruvic.

Corporate Europe Observatory, una organización especializada en rastrear y explicar el poder de los lobbies en los pasillos de Bruselas, Estrasburgo y otras capitales comunitarias, publicó en febrero un informe sobre cómo el trabajo de empresas como Google, Microsoft y Meta, entre otras, ha reducido las obligaciones en seguridad y lucha contra la discriminación, al mismo tiempo que aseguraba exenciones reglamentarias para algunos de sus principales productos de IA, informa Nacho Alarcón.

¿Es ChatGPT un sistema de alto riesgo?

Una de las cuestiones que se dirimirán en las negociaciones de las próximas semanas es precisamente esta. ¿Las aplicaciones de la IA generativa han de ser etiquetadas o no como de "alto riesgo" por la legislación europea? Benifei responde con un sí a esta pregunta y entre los argumentos que ya recoge la propuesta regulatoria del Parlamento Europeo se fija en dos.

Por un lado, la capacidad de estas tecnologías para agravar más si cabe el problema de la desinformación: aplicaciones como ChatGPT permiten automatizar la creación de contenidos falsos y bulos informativos, sin que las empresas detrás de estos sistemas hayan puesto remedio hasta ahora a esta amenaza. Y, por el otro, el uso que hacen de datos de carácter privado o con derechos de autor, sin la compensación debida, para el entrenamiento de estos modelos.

Foto: Foto: Reuters Opinión

Lejos de los argumentos usados por las tecnológicas de EEUU, "hay riesgos intrínsecos en la IA generativa que van más allá de su uso y están en su propia naturaleza, en la manera en que genera contenido, la cual puede estar incumpliendo la ley", aseguraba hace unos días el europarlamentario del grupo liberal Dragos Tudorache, socio de Benifei en la redacción de la propuesta de la Cámara europea y que también participará en las negociaciones con el resto de instituciones comunitarias.

placeholder El CEO de Microsoft, Satya Nadella, socio clave de OpenAI. (Reuters)
El CEO de Microsoft, Satya Nadella, socio clave de OpenAI. (Reuters)

Daniel Leufer va más allá y señala otro punto clave en torno a estos programas automatizados considerados de "uso general". Los proveedores que utilicen dichas aplicaciones para construir sobre ellas diferentes servicios o productos —por ejemplo, un chatbot basado en ChatGPT para responder a los pacientes de un hospital o un software basado en DALL-E para las clases en un colegio— no tendrán el control (ni el conocimiento) sobre elementos clave de estas tecnologías relacionados con su seguridad o fiabilidad.

"Es muy importante que esos sistemas sean seguros y no tengan grandes sesgos porque, si hay problemas, todas las aplicaciones que se han construido sobre ellos también los tendrán", advierte Leufer.

Foto:

Este analista, quien describe la AI Act como una legislación no demasiado estricta —"exige transparencia y otras obligaciones básicas que todas las empresas deberían cumplir y que, de hecho, en muchos casos estas empresas aseguran estar cumpliendo ya"—, apunta precisamente que la mayor preocupación para las grandes tecnológicas son los requisitos de rendición de cuentas que plantea. Y que hasta ahora han logrado esquivar. "No podemos confiar en la autorregulación de esta industria", concluye.

La Unión Europea (UE) es hoy uno de los grandes focos de atención global en torno a la inteligencia artificial (IA). Antes de que acabe el año, los Estados miembros, incluido España, deberán tener una regulación común para mitigar los riesgos de estas tecnologías. En juego está el futuro de las grandes tecnológicas y sus negocios millonarios, pero también los derechos y libertades de los ciudadanos europeos. Es una feroz pelea entre Google, OpenAI o Microsoft, por un lado, y, por otro, diversos europarlamentarios que buscan frenar su inmenso poder.

Inteligencia Artificial
El redactor recomienda