Es noticia
La barra libre de la IA tiene los días contados: este es el plan para ponerle límite
  1. Tecnología
NUEVA REGULACIÓN EN LA UE

La barra libre de la IA tiene los días contados: este es el plan para ponerle límite

El CEO de OpenAI ha declarado en el Congreso de EEUU apenas unos días después de que Europa avanzara en su ley de IA. La rapidez con la que ha actuado el regulador ha sido una sorpresa, pero nadie sabe si es suficiente

Foto: Sam Altman, CEO de OpenAI, durante su comparecencia en el Congreso de EEUU. (Reuters/Elizabeth Frantz)
Sam Altman, CEO de OpenAI, durante su comparecencia en el Congreso de EEUU. (Reuters/Elizabeth Frantz)

"La regulación de la inteligencia artificial es esencial". Sam Altman, el CEO de OpenAI, lleva meses repitiendo esta idea, pero este martes le ha tocado hacerlo en el Congreso de Estados Unidos, donde ha acudido para declarar sobre los avances de su empresa, conocida por estar detrás de ChatGPT, el proyecto que ha puesto la IA en boca de todos. Durante la comparecencia, el también fundador de esta tecnológica trató de convencer a los reguladores de que está ahí para ayudarles a conseguir un equilibrio entre la innovación y los riesgos asociados a esta tecnología. Mientras, al otro lado del Atlántico, Europa está terminando de afinar una ley para abordar estas cuestiones.

"Mi mayor miedo es que esta tecnología salga mal, porque si sale mal, puede salir muy mal", ha explicado Altman durante la comparecencia en el Capitolio, donde ha pedido que Estados Unidos sea "el primer país en hacer algo". Así, ha reconocido que las empresas que trabajan con IA tienen que cumplir con un "conjunto apropiado de requisitos de seguridad", incluyendo ahí tanto pruebas internas como externas antes de que alcancen al público general. Sin embargo, y ahí está el punto caliente, también ha pedido que la regulación sea "lo suficientemente flexible para adaptarse a los nuevos desarrollos tecnológicos". Así, ha lanzado propuestas como la concesión de licencias para que las empresas operen con IA o que se establezcan una serie de estándares de seguridad.

Foto: Pantallazo de un programa de Adobe que ahora incorpora IA generativa para retocar imágenes. (Reuters)

Son unas palabras que llegan poco después de que la Comisión Federal del Comercio (FTC) de EEUU se mostrara claramente a favor de la regulación, pero también cuando no ha pasado ni una semana de que el Parlamento Europeo diera luz verde al boceto de lo que será su ley de IA. No es la primera vez que OpenAI se topa con la normativa europea.

Solo hay que recordar la prohibición temporal en Italia de ChatGPT. De hecho, para intentar contentar a los reguladores, ahora la firma dirigida por Altman ha implementado un formulario para que los usuarios tengan una vía para pedir que se eliminen sus datos personales de sus sistemas. Un episodio que otras tecnológicas ya están queriendo evitar, como la propia Google, que ha lanzado Bard, su propio chatbot, en 180 países, pero ninguno de ellos de la Unión Europea.

Europa tiene un plan para poner coto a la IA

El pasado jueves, el Parlamento Europeo dio el visto buen al mandato de negociación para lo que será la futura ley de inteligencia artificial [puedes leer aquí el texto completo]. El proyecto, en realidad, lleva dos años en preparación, pero ha sido ahora cuando ha salido un borrador que se votará en el hemiciclo en junio. Una de las claves de esta norma está en la determinación del riesgo de cada herramienta, que tiene cuatro niveles: inaceptable, alto riesgo, limitado y mínimo.

A, a partir de ahí, se establecen normas tanto para proveedores que operan en territorio comunitario y usuarios. Los calificados como inaceptable, el escalafón más alto, estarán directamente prohibidos, pero con algunas excepciones. Por ejemplo, es el caso de la identificación biométrica, que sí podrá ser usada cuando se trate de grabaciones y haya un requerimiento judicial para perseguir delitos graves.

placeholder Foto: EFE/EPA/Jim Lo Scalzo.
Foto: EFE/EPA/Jim Lo Scalzo.

"En la propuesta se recogen prácticas prohibidas o prohibidas con excepciones, lo que hace que sea una prohibición bastante laxa", comenta Sara Domingo, abogada especialista en protección de datos en la firma Trilateral Research, especializada en IA ética. "El reglamento trabaja con los principios de la IA responsable, como no generar discriminación, pero el problema es que solo se recoge para casos alto riesgo, pero otros no tienen que cumplir con cuestiones como el sesgo, la transparencia o la explicabilidad del modelo. Se van a quedar fuera de las obligaciones más duras del reglamento".

Santiago Mediano, presidente de la división de IA del Colegio de Abogados de Madrid, considera que la propuesta es, por ahora, muy limitada. "Solo regula uno de los aspectos de la IA, que es la responsabilidad de producir daños a los seres humanos. Antes de regular estos niveles de responsabilidad, sería interesante regular el propio uso de los sistemas de la IA, cómo pueden funcionar y cómo no", continúa este letrado, que también está al frente del despacho que lleva su nombre.

Foto: Sundar Pichai, durante la presentación. Foto: Google

Otro de los puntos clave para la regulación de la IA no está en la propuesta actual, señala este experto legal, sino en una norma previa: la directiva sobre derechos de propiedad intelectual y mercado único digital, de 2019.

"Ahí se establecen normas sobre minería de datos, que es indispensable para entrenar la IA y que luego genere contenido. No mencionan la IA, pero sí dicen que la propiedad intelectual no puede ser obstáculo para el desarrollo tecnológico. De este modo, pueden utilizar cualquier elemento protegido por derechos de autor sin pedir permiso ni remunerar, porque no va a ser consecutivo de plagio", apunta Mediano, que hace hincapié en que "se introdujo sin que se debatiese públicamente que esto estaba destinado a la IA". "¿Es tan importante este avance como para pasar por encima de derechos consolidados de otras personas o empresas?", se pregunta.

Una regulación rápida, pero ¿es suficiente?

La propuesta europea va en la línea de lo que ya han manifestado personalidades, como investigadores o empresarios del mundo tecnológico, que llevan meses alertando sobre los riesgos del desarrollo de la inteligencia artificial. Una de las más sonadas fue la carta abierta de la fundación Future of Life a la que se adhirieron, entre otros, Elon Musk, fundador de Tesla o SpaceX, o Steve Wozniak, cofundador de Apple. En ella, se pedía paralizar todos los grandes experimentos relacionados con la IA durante al menos seis meses, un tiempo en el que esperaban que hubiera tanto regulación como control sobre su funcionamiento.

No todos van esa dirección. Es el caso de Eric Schmidt, exdirector ejecutivo de Google. "Mi preocupación con cualquier tipo de regulación prematura, especialmente si viene de un gobierno, es que siempre estará escrita de manera restrictiva", dijo hace unos días en declaraciones a NBC. "Prefiero un acuerdo entre los actores clave para que no tengamos una carrera hacia el abismo", defendió Schmidt, asegurando que los avances en IA son "demasiado nuevos y difíciles", algo que hace que, a su juicio, "ningún regulador pueda hacerlo bien".

Foto: Eric Schmidt. (Reuters/Mike Blake)

Sea como sea, lo cierto es que la rapidez con la que se están moviendo ahora las instituciones comunitarias contrasta con la parsimonia que han actuado en otras ocasiones en las que esto afectaba a tecnológicas estadounidenses. Sin ir más lejos, aún no hay un acuerdo que garantice las transferencias de datos personales entre Estados Unidos y la Unión Europea.

"Hemos tardado muchos años en darnos cuenta de los impactos negativos de plataformas como las redes sociales y no quieren que pase ahora con la IA. Podemos estar orgullosos de ser pioneros en impulsar regulación sobre IA. Porque EEUU, China o Japón están tomando sus iniciativas, pero la europea es la más elaborada", defiende Domingo, que tiene claro que la pregunta del millón es si va a ser suficiente o si se quedará obsoleta demasiado pronto, aunque enfatiza que el texto aún puede sufrir modificaciones. "Otro sistema puede romper el mercado mañana y nos podemos dar cuenta de que teníamos que haberlo regulado de otra manera", ejemplifica esta abogada, que recuerda que el texto inicial, de 2021, ya ha tenido que ser modificado varias veces. "Ahora han tenido que incluir artículos para poder incluir herramientas como ChatGPT", apostilla.

"Me ha sorprendido la rapidez, que es algo que, considerado aisladamente, es positivo. Por otro lado, tengo una perspectiva en la que me parece que hay cosas que van a llegar tarde otra vez. Es verdad que se están moviendo más rápido, pero preferiría que fuera más", considera por su parte Mediano. Los distintos procesos burocráticos que tiene que atravesar el texto harán que no entre en vigor, al menos, hasta dentro de un par de años. Además, una vez se convierta en ley, las tecnológicas tendrán dos años para adaptarse a las normativas.

"La regulación de la inteligencia artificial es esencial". Sam Altman, el CEO de OpenAI, lleva meses repitiendo esta idea, pero este martes le ha tocado hacerlo en el Congreso de Estados Unidos, donde ha acudido para declarar sobre los avances de su empresa, conocida por estar detrás de ChatGPT, el proyecto que ha puesto la IA en boca de todos. Durante la comparecencia, el también fundador de esta tecnológica trató de convencer a los reguladores de que está ahí para ayudarles a conseguir un equilibrio entre la innovación y los riesgos asociados a esta tecnología. Mientras, al otro lado del Atlántico, Europa está terminando de afinar una ley para abordar estas cuestiones.

Internet Inteligencia Artificial
El redactor recomienda