Es noticia
EEUU, China y Europa pisan el freno ante el poder destructor de la inteligencia artificial
  1. Tecnología
  2. Novaceno
Miedo y prisas de los reguladores

EEUU, China y Europa pisan el freno ante el poder destructor de la inteligencia artificial

Después del auge de la inteligencia artificial que hemos visto estos últimos meses, vienen el miedo y las prisas de los reguladores por controlar una tecnología que avanza a toda velocidad

Foto: Representación antropomórfica de la inteligencia artificial. (MidJourney/Novaceno)
Representación antropomórfica de la inteligencia artificial. (MidJourney/Novaceno)

Las Inteligencias artificiales generativas, como el famoso ChatGPT o Midjourney —una IA que crea imágenes asombrosamente realistas a partir de una descripción de texto—, han entrado en nuestra vida como un toro bravo en una tienda de jarrones. Sus beneficios son enormes, pero también lo son sus potenciales peligros. La vertiginosa carrera que hay entre las empresas que las desarrollan por sacar versiones nuevas y más potentes está haciendo que los Estados empiecen a sentir vértigo por el futuro de una tecnología que no sabemos hasta dónde llegará.

Hace apenas unos días más de 1.300 personas —entre los que se encuentran Elon Musk, fundador de Tesla y SpaceX, Steve Wozniak, fundador de Apple o el historiador Yuval Noah Harari— se unían para firmar una carta abierta que pide ralentizar el desarrollo e implementación de esta IA para gestionar y controlar adecuadamente los "profundos riesgos para la sociedad y la humanidad" que suponen. Ahora, gobiernos de todo el mundo están empezando a tomar medidas para limitarlas.

Foto: El dron Urkjet UJ-22 Airborne caído a solo 30 kilómetros de Moscú.

Hace poco menos de un mes Bank of America publicó un informe que aseguraba que la inteligencia artificial es una revolución comparable a la electricidad y que en sólo siete años aportará 15,7 billones de dólares a la economía mundial, más que el producto interior bruto anual de toda la zona euro en 2022. Esta tecnología promete ser clave en el desarrollo de nuevas fuentes de energía, el tratamiento de enfermedades incurables o el diseño de naves espaciales más eficientes que las que hacen los ingenieros humanos.

Europa se pone en guardia

Italia ha sido el primer país europeo en prohibir el uso de ChatGPT. Lo ha hecho a través de una agencia estatal conocida como Garante que acusó a OpenAI —la empresa creadora de ChatGPT y Dall-e que está respaldada por miles de millones de Microsoft— de exponer a los usuarios al contenido de la plataforma sin comprobar antes su edad.

Además, Garante asegura que ChatGPT "carece de base jurídica que justifique la recogida y almacenamiento masivo de datos personales" para "entrenar" a su inteligencia artificial. OpenIA cerró el acceso a la aplicación desde Italia y asegura que: "Trabajamos activamente para reducir los datos personales en el entrenamiento de nuestros sistemas de IA, como ChatGPT, porque queremos que nuestra IA aprenda sobre el mundo, no sobre personas privadas".

Mientras, la Unión Europea sigue negociando una Ley sobre Inteligencia Artificial. Países del bloque como Irlanda o Alemania ya estudian posibles violaciones de OpenAI al Reglamento general de protección de datos (RGPD) de la UE. Otros, como Suecia, no tienen previsto abrir investigaciones, por lo menos hasta que los usuarios presenten quejas contra esta tecnología. Y España, a través de su Agencia de Protección de Datos (AEPD), anunció ayer que investigará de oficio a OpenIA en colaboración con otros socios europeos.

placeholder Sam Altman, CEO de OpenIA. (REUTERS Lucy Nicholson)
Sam Altman, CEO de OpenIA. (REUTERS Lucy Nicholson)

Sin embargo, no todo el mundo cree que la prohibición es la mejor solución. El Ministro de Transporte e Infraestructuras Digitales de Alemania, Volker Wissing, ha declarado que "no necesitamos una prohibición de las aplicaciones de IA, sino formas de garantizar valores como la democracia y la transparencia". A su vez, Jean-Noël Barrot, Ministro de Transición Digital y Telecomunicaciones francés, ha comentado en declaraciones para La Tribune que el plan de su país es dominar esta tecnología y desarrollar modelos que defiendan los valores franceses.

China ya regula con puño de hierro

China ha optado por una política de defensa de sus valores similar a la que propone Barrot, pero teñida por su miedo al aperturismo, al pensamiento crítico y a la confrontación de ideas. Pekín ha prohibido la entrada de ChatGPT en el país y ha apostado por desarrollar sus propias versiones. Los clones de ChatGPT creados por los gigantes tecnológicos chinos están restringidos por la norma impuesta por Pekín que limita la investigación, el desarrollo y el uso de IAs generativas en todo lo que no se ajuste a los ideales del Partido Comunista Chino.

En China, igual que sucede en el resto del mundo, la carrera por sacar al mercado estas inteligencias artificiales es vertiginosa. Alibaba, Baidu o Huawei se apresuran por sacar modelos cada vez más avanzados de estos ‘chatbots’ que, desde este mismo martes, tienen que estar dentro de los 21 artículos que componen las Medidas Administrativas para los Servicios de Inteligencia Artificial Generativa, redactados por la Administración del Ciberespacio de China.

Estas normas exigen, entre otras cosas, que los contenidos generados por IA "reflejen los valores fundamentales del socialismo y no deben contener subversión del poder del Estado, derrocamiento del sistema socialista e incitación a la división del país". Así como la prohibición de promover el terrorismo, la violencia, el extremismo, el odio étnico y la discriminación, la pornografía, la información falsa y los contenidos que puedan alterar el orden económico y social.

Además, sus usuarios deben registrarse con su nombre real y aquellos que proporcionen servicios de IA generativa o ayuden a otros a hacerlo serán considerados responsables de los contenidos producidos por la plataforma.

EEUU se lo toma con calma

A pesar de ser una de las potencias más avanzadas en inteligencia artificial, Washington sigue sin cerrar su Carta de Derechos de la IA. Esto, según los expertos, podría tener consecuencias nefastas. Carly Kind —directora del Instituto Ada Lovelace, un grupo de investigación sobre legislación— declaró al New York Times que “al no establecer barreras, los responsables políticos están creando las condiciones para una carrera hacia el abismo de la inteligencia artificial irresponsable".

Pero esa legislación cuenta con la oposición de las empresas estadounidenses. Como apunta el diario neoyorquino, Sundar Pichai, el máximo responsable de Alphabet, visitó Bruselas en 2020 para pedir una "regulación sensata" de la inteligencia artificial. Ese mismo año decenas de empresas del sector se posicionaron en contra las normas de reconocimiento facial en el país. "No estamos en contra de la regulación, pero queremos una regulación inteligente", dijo en su momento Jordan Crenshaw, representante de la Cámara de Comercio de Estados Unidos.

Los legisladores están aplicando leyes existentes para regular el desarrollo de la IA por parte de las compañías. Esto, para muchos políticos estadounidenses, no es suficiente. Don Beyer, el representante demócrata de Virginia, dice que no cabe esperar que Washington actúe pronto. Beyer no consiguió apoyo para su proyecto de ley que exigía auditorías para las herramientas de inteligencia artificial. "No parece urgente para los miembros", dijo.

Las soluciones de los expertos

Los expertos que consultamos para producir el capítulo 5 de Control Z: ‘El Fin de la Realidad’ coinciden en tres soluciones para regular una herramienta tan poderosa como la inteligencia artificial generativa y poder aprovechar su potencial sin ponernos en riesgo.

placeholder Sundar Pichai, CEO de Google. (REUTERS Jim Young)
Sundar Pichai, CEO de Google. (REUTERS Jim Young)

La primera, dicen, hay que crear estándares de certificación criptográfica en todo el mundo para autenticar cualquier contenido capturado por cámaras y micrófonos digitales. El objetivo es establecer una línea básica de certeza que, como mínimo, permita a las personas tener la seguridad de que lo que están oyendo o viendo es real. Esto evitaría la diseminación de noticias falsas o las estafas de gente haciéndose pasar por otra, que ya se están produciendo.

La segunda es lanzar programas de comunicación para que el público comprenda el alcance de la inteligencia artificial generativa. Las personas deben aprender para poder defenderse contra nuevas falsificaciones audiovisuales.

Finalmente, urgen a los gobiernos de todo el mundo a colaborar con la comunidad científica para crear una legislación que proteja los derechos individuales, estableciendo límites penales para tratar de frenar el uso tóxico de esta tecnología.

Las Inteligencias artificiales generativas, como el famoso ChatGPT o Midjourney —una IA que crea imágenes asombrosamente realistas a partir de una descripción de texto—, han entrado en nuestra vida como un toro bravo en una tienda de jarrones. Sus beneficios son enormes, pero también lo son sus potenciales peligros. La vertiginosa carrera que hay entre las empresas que las desarrollan por sacar versiones nuevas y más potentes está haciendo que los Estados empiecen a sentir vértigo por el futuro de una tecnología que no sabemos hasta dónde llegará.

Inteligencia Artificial Administración
El redactor recomienda