Es noticia
Pulso en Bruselas por una ley histórica para controlar la IA: esto es lo que va a cambiar
  1. Tecnología
A PUNTO DE APROBARSE

Pulso en Bruselas por una ley histórica para controlar la IA: esto es lo que va a cambiar

El acuerdo para la regulación de la IA en los países comunitarios está a punto de cerrarse tras una semana de negociaciones espinosas. Estas son las claves que marcarán la ley

Foto: Thierry Breton, comisario de Mercado Interior. (EFE/Ronald Wittek)
Thierry Breton, comisario de Mercado Interior. (EFE/Ronald Wittek)

A las siete de la mañana del jueves, hasta la máquina de café del Parlamento Europeo dijo "basta". Es una pequeña incidencia de la que nadie se hubiera percatado si no fuera porque aquello ponía la guinda a una maratoniana jornada de negociación sobre la futura regulación de la inteligencia artificial en Europa. Era la gota que colmaba el vaso de 22 horas de reunión que se rompían poco después de la una de la tarde sin ningún acuerdo entre los co-legisladores, emplazados a un nuevo encuentro este viernes a partir de las nueve de la mañana.

Tras meses en ciernes, la regulación está en un punto crucial que puede cambiar el rumbo de esta tecnología, al mismo tiempo que se convierte en la primera gran norma en ponerle coto. Además, puede ocurrir durante la presidencia de España en el Consejo, razón por la que el Gobierno de Pedro Sánchez ha intentado que todo esté listo antes de que el semestre termine, el próximo 31 de diciembre. Lo más probable es que del encuentro de este viernes se cierre un acuerdo político y que, después, se remate el texto legislativo antes de la votación final en el Consejo y el pleno del Parlamento Europeo, algo que ocurrirá ya en 2024.

"Se han logrado muchos avances en las últimas 22 horas", ha explicado Thierry Breton, comisario de Mercado Interior y encargado de presentar la primera propuesta legislativa en 2021. Según ha podido confirmar El Confidencial, antes de que comenzara la reunión, había un total de 22 puntos en debate y, para cada uno de ellos, hasta tres textos legales distintos.

Esa parte representa cerca del 15% del total de la regulación, pero es el núcleo de la norma. Pero, como dice el refranero bruselense, nada está acordado hasta que todo está acordado. Y eso ocurre especialmente en los llamados trílogos, las negociaciones entre los co-legisladores; es decir, el Consejo (que representa a los Estados miembros), el Parlamento Europeo y la Comisión Europea, donde se cierran los textos legislativos que se convierten en ley. Estos documentos son un ejercicio de equilibrismo y tocar un artículo puede obligar a reequilibrar el resto.

Foto: Ilustración con el logotipo de ChatGPT. (Reuters)

En este caso, hay varios elementos en tensión, empezando por la propia naturaleza de la regulación, ya que también se debate si se aboga por una regulación directa o, más bien, por una autorregulación con ciertos límites. "Están tratando de establecer una especie de marco regulatorio no demasiado estricto, al mismo tiempo que se permite la autorregulación. Es lo que se conoce como corregulación", explica Borja Adsuara, abogado especializado en protección de datos y profesor de Derecho.

"Siempre se criticaba que la ley europea es demasiado encorsetada, así que esta es una fórmula intermedia con un marco regulatorio. Después, según vaya desarrollándose la IA, se irá ajustando por parte de la Comisión y se irá viendo cómo retocar la norma en cada país. Es un sandbox regulatorio de prueba y error", continúa Adsuara. Uno de los puntos en negociación es, de hecho, la entrada en vigor de la norma, que puede oscilar entre 18 y 36 meses, pero hay otros que pueden ser mucho más determinantes.

Qué hay en juego

Una de las claves de la regulación de inteligencia artificial está en la determinación del riesgo de cada herramienta, para lo que se fijan cuatro niveles (inaceptable, alto riesgo, limitado y mínimo). A partir de ahí, se establecen normas para las empresas que ofrezcan algún servicio relacionado con la IA. Si tiene la etiqueta de inaceptable, significa que están prohibidos, aunque hay previstas algunas excepciones. Por ejemplo, es el caso de la identificación biométrica, que sí podrá ser usada cuando se trate de grabaciones y haya un requerimiento judicial para perseguir delitos graves.

Este punto, de hecho, ha sido uno de los más criticados por la industria tecnológica. "Se ha llegado a decir que Europa estaba prohibiendo la identificación biométrica, pero realmente lo que hace es regularlo", comenta Sara Domingo, abogada especialista en protección de datos en la firma Trilateral Research. En cualquier caso, su forma final está siendo uno de los asuntos más espinosos de los trílogos.

En cambio, sí parece más encaminado que estarán prohibidas cuestiones como los sistemas de crédito social similares a los de China o los algoritmos de predicción de potenciales delitos (sí, como en Minority Report). "Es algo que antes se consideraba de alto riesgo y ahora estará prohibido. Hay un párrafo específico para evitar que haya casos como el de Clearview", recalca esta abogada sobre esto último.

La calificación de los sistemas de alto riesgo es, por contra, otro de los puntos que más fricciones están generando estos días. "En un principio, todo lo que entrara en un anexo iba a ser considerado de alto riesgo, pero luego añadieron el matiz al artículo, donde dicen que recibirá esa consideración siempre y cuando suponga un riesgo significante para los derechos fundamentales", indica Domingo, que remarca que eso implica que haya una evaluación de riesgos. "A partir de ahí, la Comisión tendría que decidir cómo se hace ese análisis. Por ejemplo, emitirá unas directrices y tendrá que decidir si son vinculantes o no", detalla.

Foto: Un trabajador comprueba una cámara de vigilancia en Shanghái, China. (Reuters/Aly Song)

Otro de los puntos calientes está en los llamados modelos fundacionales, que son aquellos que tienen un entrenamiento a gran escala, como podría ser el GPT de OpenAI o el flamante Gemini de Google. "Básicamente, asemeja las obligaciones de los modelos fundacionales a los de alto riesgo, pero sin considerarlos como tales", apunta Domingo sobre este aspecto, muy cuestionado por las tecnológicas y países como Francia o Alemania. En este sentido, cabe recordar que ChatGPT ni siquiera existía en aquellos primeros borradores de la Comisión y el Consejo, razón por la que el Parlamento lo ha incluido en su versión.

También está siendo clave establecer quién asume el papel de supervisión de la IA —e, incluso, qué tipo de multas económicas se imponen—. Así, está previsto que haya una oficina europea que juegue el papel de coordinación de las distintas agencias nacionales, de modo similar a lo que ya ocurre con la autoridad europea de protección de datos. Entre otros asuntos, tendrán que limarse asperezas a la hora de establecer las condiciones de acceso al código fuente por parte de las autoridades, si es que se llega a aceptar este punto.

Entre la manga ancha y la mano dura

La Unión Europea es un gigante regulador y se toma en serio el conocido como efecto Bruselas, es decir, su capacidad de establecer altos estándares en asuntos como la protección de datos. Ante la aparición de la inteligencia artificial, la Comisión Europea se lanzó en 2018 a hacer lo que ha hecho siempre con el mundo digital: intentar regular y poner límites. En 2021, lanzó una propuesta legislativa y, como admiten fuentes diplomáticas, la IA ha demostrado desde entonces cuál es el gran reto de esta pieza de normativa. Es decir, lograr que aguante el paso del tiempo.

Desde junio, Comisión, Consejo y Parlamento Europeo han estado negociando con la vista especialmente puesta en los llamados modelos fundacionales. En estas negociaciones, han chocado dos corrientes: la que considera que Europa se está quedando atrás en la revolución digital y la que defiende la pulsión reguladora que siempre ha dirigido el trabajo de la UE.

Foto: La presidenta de la Comisión Europea, Ursula von der Leyen, junto a un robot durante su visita al Centro Xperience (Bérgica) de Inteligencia Artificial. (EFE)

La primera de las corrientes está representada por algunas capitales en las que se ha instalado la sensación de que Europa se ha quedado atrás en las anteriores revoluciones digitales por un exceso de regulación. Cuando se aborda el debate de la falta de competitividad europea frente a EEUU o China, muchas veces se menciona la escasez de los llamados gigantes digitales como Google, Alibaba o Apple, y se culpa habitualmente a esa supuesta sobrerregulación.

Por eso, cuando la negociación se ha ido acercando a su fase final, Alemania, Francia e Italia, las tres grandes economías de la Unión, se movieron para criticar lo que veían como un nuevo capítulo de esa excesiva regulación. Esta triada teme que se ahogue a las pequeñas empresas europeas que ahora intentan crecer, mientras que sus competidores en EEUU o China se benefician de una escasa regulación o, incluso, de ayudas y subvenciones. Antes, en junio, directivos de 150 compañías alertaban sobre la dirección que, en ese momento, estaba tomando la negociación, y avisaban de que se corría el riesgo de hundir la competitividad europea. Entre esas empresas, se encontraban la alemana Siemens y la francesa Airbus.

placeholder Pleno del Parlamento Europeo en Estrasburgo. (Parlamento Europeo)
Pleno del Parlamento Europeo en Estrasburgo. (Parlamento Europeo)

Para los eurodiputados que negocian en nombre del Parlamento Europeo, lo más importante es limitar los posibles daños que esta nueva tecnología pueda provocar en la sociedad. Son los que representan la corriente más reguladora. Durante dos años, la Eurocámara trató de alcanzar un acuerdo sobre su posición común antes de ir a los llamados trílogos, pero su posición negociadora era dura y estricta y fue la que provocó cierta alarma entre algunas empresas. En este sentido, el Consejo ha intentado que los eurodiputados cedan en la larga lista de usos de la tecnología que querían limitar.

La presidencia española del Consejo de la Unión Europea, que comenzó en julio y finaliza este mes de diciembre, ha intentado mantener un equilibrio que era muy complicado. Al final, el Gobierno ha propuesto unos “códigos de conducta” que los críticos consideran que equivalen a una autorregulación por parte de las empresas. Fuentes diplomáticas defienden, sin embargo, que el objetivo es que haya toda una serie de mecanismos de supervisión para evitar que la falta de un marco demasiado estricto de reglas equivalga a un vacío legal, pero al mismo tiempo evitando “matar la innovación” con demasiadas exigencias.

"Lo importante es quién vigila al que vigila y cómo se supervisa una IA, que es algo que solo se puede hacer con una IA con grandes inversiones", agrega, por su parte, Adsuara. "Considero que lo que mejor funciona es la cogobernanza, porque no solo tienes la autoridad administrativa, sino que también haces que las empresas se vigilen entre ellas, porque son quienes mejor se conocen y saben cuándo alguien está haciendo algo que no debe", defiende sobre esta cuestión, donde recuerda que las instituciones comunitarias "no tienen el conocimiento y personal suficientes para esto". "Una empresa de IA les va a pagar mucho más para trabajar para ellos, pero hay que contar con ese talento para que añada vigilancia a las compañías", sostiene.

A las siete de la mañana del jueves, hasta la máquina de café del Parlamento Europeo dijo "basta". Es una pequeña incidencia de la que nadie se hubiera percatado si no fuera porque aquello ponía la guinda a una maratoniana jornada de negociación sobre la futura regulación de la inteligencia artificial en Europa. Era la gota que colmaba el vaso de 22 horas de reunión que se rompían poco después de la una de la tarde sin ningún acuerdo entre los co-legisladores, emplazados a un nuevo encuentro este viernes a partir de las nueve de la mañana.

Inteligencia Artificial Bruselas Unión Europea Comisión Europea
El redactor recomienda