Es noticia
Después de ChatGPT, Netflix: el veto de Italia pone en la picota a un sinfín de compañías
  1. Jurídico
Las autoridades evitaban 'abrir el melón'

Después de ChatGPT, Netflix: el veto de Italia pone en la picota a un sinfín de compañías

DeepL, Amazon, Gmail... El razonamiento seguido por la autoridad italiana para vetar el chat de OpenAI podría afectar a todas las empresas que se apoyan en inteligencia artificial para mejorar sus servicios

Foto: Logo de ChatGPT. (Reuters/Dado Ruvic)
Logo de ChatGPT. (Reuters/Dado Ruvic)
EC EXCLUSIVO Artículo solo para suscriptores

Hace apenas una semana, la autoridad italiana de protección de datos tomó la decisión de bloquear ChatGPT en todo el país. El organismo, encargado de hacer cumplir el reglamento europeo sobre privacidad (RGPD), llegó a la conclusión de que el chatbot de OpenAI no cumple con la legislación comunitaria —vigente también en España—, por lo que impuso un veto con efectos inmediatos. En su comunicado, difundido el pasado viernes, la entidad indicó que la plataforma recoge información de los usuarios de manera ilegal y anunció la apertura de una investigación para analizar en profundidad su funcionamiento y precisar qué partes de la normativa infringe la famosa herramienta.

* Si no ves correctamente este formulario, haz clic aquí.

La decisión de la autoridad italiana supone un verdadero terremoto a varios niveles. El primero, y más evidente, para la compañía OpenAI, ya que otros organismos europeos pueden verse inspirados por Roma y bloquear el uso del chatbot en sus territorios. De hecho, en Alemania, el regulador competente ya ha sugerido que podría producirse un bloqueo temporal, mientras que Francia e Irlanda se han puesto en contacto con Italia para entender la base de su razonamiento. "Nos coordinaremos con todas las autoridades de protección de datos de la UE en relación con este asunto", afirmó hace unos días a Reuters un portavoz del comisario irlandés. En España, por su parte, la AEPD declaró hace unos días a este medio que no habían recibido ninguna reclamación sobre el chatbot, pero no descartaron abrir una investigación por su cuenta.

Ahora bien, ChatGPT no será el único afectado por toda esta polémica. Según el comunicado de la autoridad italiana, el chatbot no solo falla al informar a los usuarios sobre los datos que recoge, sino que, además, carece de una base legal "que justifique la recogida y almacenamiento masivo de datos personales con el fin de entrenar los algoritmos". El verdadero quid de la cuestión en todo este asunto, por tanto, radica en que la ley europea sobre privacidad no contempla la posibilidad de que una empresa pueda recopilar información personal de ciudadanos con la intención de alimentar un algoritmo. En consecuencia, es indiferente si la compañía de Sam Altman informa o no a sus usuarios sobre qué va a hacer con las consultas y dudas que trasladan al chat.

Foto: El consejero delegado de OpenAI, Sam Altman. (Getty/Steve Jennings)

Siguiendo el razonamiento italiano, el problema es mucho más profundo y afectaría no solo a OpenAI, sino a cualquier empresa que se apoye en la información que dan los usuarios para seguir nutriendo su algoritmo y ofrecer un servicio más personalizado. Netflix, HBO, Amazon, Alexa, Google Maps, Spotify, Gmail... cualquier plataforma o herramienta basada en IA podría estar vulnerando el Reglamento Europeo de Protección de Datos.

"Por esta misma regla de tres, se tendrían que revisar todas las políticas de muchísimas empresas", corrobora María Pardo de Vera, abogada especializada en protección de datos en Helas Consultores. Y agrega que se trata de una materia que preocupa a las autoridades comunitarias desde hace años, pero ninguna se había atrevido a pronunciarse de manera tan tajante hasta ahora. ¿Por qué?

Foto: Cristóbal Valenzuela, CEO y cofundador de Runway. (Cedida)

La letrada considera que el principal motivo es el tremendo alcance que ha tenido la herramienta de OpenAI, que en apenas 40 días superó los 100 millones de usuarios —a Twitter le costó cinco años alcanzar esa cifra, mientras que Instagram lo logró en dos y medio y TikTok la superó en nueve meses—. En su opinión, este éxito ha puesto en alerta a las autoridades, que han querido resolver los interrogantes pendientes (o, al menos, expresar su preocupación) antes de que esta tecnología siga en desarrollo.

Más escéptico se muestra, por su parte, Jorge Cabet, abogado y delegado de Protección de Datos del bufete Rödl & Partner, que apunta a motivos principalmente marketinianos. "ChatGPT ha tenido mucha popularidad y ha puesto sobre la mesa de forma clara para los ciudadanos los riesgos potenciales que implica. Algunas autoridades han aprovechado que el debate se ha trasladado a la opinión pública para abordarlo", señala. Muestra de ello, subraya, es la ausencia de polémica en lo que respecta a otras plataformas menos conocidas, pero igual de agresivas en lo que respecta a la privacidad de la información personal de los usuarios.

"ChatGPT ha tenido mucha popularidad. Algunas autoridades han aprovechado que esto ha llegado a la opinión pública para abordarlo"

Un buen ejemplo en este sentido es el traductor online DeepL. "El funcionamiento es más sencillo, pero la problemática es la misma. Es una herramienta que también usa inteligencia artificial, aunque oficialmente ellos lo llamen redes neuronales. Te permite subir archivos directamente para traducirlos, pero en ningún momento te informa de que los datos que traduzcas pueden ser almacenados en los servidores o te avisa de que no subas información confidencial. Lo usan muchísimos despachos de abogados, consultoras... Seguramente, hasta la Administración pública", explica. Sin embargo, esta aplicación u otras similares no han sido nunca objeto de debate por parte de los reguladores de privacidad, a pesar de haberse reportado brechas de seguridad y robos de datos.

Independientemente de las razones que hayan llevado a Italia y otras agencias a pronunciarse sobre esta materia, todo apunta a que la solución a este problema tardará todavía un tiempo en llegar y no dependerá de los reguladores europeos sobre privacidad. La clave radica en el Parlamento Europeo, que en la actualidad se encuentra en pleno debate para elaborar un Reglamento Europeo de Inteligencia Artificial. Por el momento, el borrador de la normativa se centra en una categoría de sistemas de IA, denominados de "propósito general", que incluyen aquellas herramientas destinadas a realizar funciones de ámbito general (como reconocimiento de imágenes y de voz, generación de audio y vídeo, detección de patrones, respuesta a preguntas, traducción, etcétera). Sin embargo, la irrupción de ChatGPT ha abierto un nuevo frente entre los parlamentarios, que opinan que este tipo de tecnologías no está contemplado en la propuesta original y urgen a darle cobertura.

Hace apenas una semana, la autoridad italiana de protección de datos tomó la decisión de bloquear ChatGPT en todo el país. El organismo, encargado de hacer cumplir el reglamento europeo sobre privacidad (RGPD), llegó a la conclusión de que el chatbot de OpenAI no cumple con la legislación comunitaria —vigente también en España—, por lo que impuso un veto con efectos inmediatos. En su comunicado, difundido el pasado viernes, la entidad indicó que la plataforma recoge información de los usuarios de manera ilegal y anunció la apertura de una investigación para analizar en profundidad su funcionamiento y precisar qué partes de la normativa infringe la famosa herramienta.

Ley de protección de datos
El redactor recomienda