Es noticia
Calviño vigilará a los medios que usen inteligencia artificial por si ponen en riesgo a la sociedad
  1. Empresas
PROPONDRÁ "ASESORÍAS CORRECTIVAS"

Calviño vigilará a los medios que usen inteligencia artificial por si ponen en riesgo a la sociedad

Economía recurre a grandes tecnológicas para activar un plan de control de noticias. Si entiende que generan peligro, advertirá y apercibirá para "que a futuro se asegure que la entidad tendrá mejores protocolos internos de actuación"

Foto: El presidente del Gobierno, Pedro Sánchez, y la vicepresidenta primera y ministra de Economía, Nadia Calviño. (EFE/Chema Moya)
El presidente del Gobierno, Pedro Sánchez, y la vicepresidenta primera y ministra de Economía, Nadia Calviño. (EFE/Chema Moya)
EC EXCLUSIVO Artículo solo para suscriptores

El Gobierno prepara un plan global para tratar de poner coto a los efectos indeseados de la inteligencia artificial. Uno de los ámbitos de actuación será la vigilancia de las empresas que usan esta tecnología, incluidos los medios de comunicación. Para ello monitorizará activamente noticias y redes sociales que puedan revelar riesgos para la sociedad.

Uno de esos aspectos a desarrollar es hacer una vigilancia activa de las noticias que se publican en medios de comunicación y redes sociales haciendo uso de la inteligencia artificial en pleno boom de aplicaciones basadas en algoritmos inteligentes como ChatGPT. La idea es controlar y hacer correcciones cuando el Ejecutivo entienda que dicho uso por parte de los medios o redes de esta disruptiva tecnología pueda poner, a su entender, en riesgo a la sociedad.

En pleno cuestionamiento ético de este nuevo avance, el Ministerio de Economía ha recurrido a grandes tecnológicas para hacer una "observación continua del riesgo de la inteligencia artificial en la sociedad". Con dicha vigilancia sobre medios y redes, busca "detectar posibles riesgos que puedan impactar a los ciudadanos españoles debido a un uso peligroso de sistemas IA o incumplimiento normativo relacionado con IA".

"Esta observación se realizará (entre otros medios) mediante la vigilancia de noticias en redes sociales, medios de comunicación o cualquier otro medio necesario que permitan detectar posibles usos que impliquen un riesgo", señala el departamento liderado por Nadia Calviño en documentación oficial.

placeholder Chat GPT, inteligencia artificial. (Unsplash/Emiliano Vittoriosi)
Chat GPT, inteligencia artificial. (Unsplash/Emiliano Vittoriosi)

"Esta observación será proactiva, es decir, el adjudicatario tendrá que hacer un trabajo frecuente de seguimiento (por ejemplo, en redes sociales y medios de comunicación), para detectar posibles incumplimientos o quejas de ciudadanos. Pero también un trabajo preventivo, de detectar posibles usos de la IA que en el futuro terminen en un incumplimiento de la carta de los derechos digitales".

La idea del Ejecutivo de PSOE y Unidas Podemos es poder actuar si entienden que la publicación de noticias en medios o redes puede generar a su parecer un riesgo sobre la sociedad: "Ante estos casos de riesgos, se recogerá la máxima información posible. Y si se prevé un impacto a la sociedad, se contactará con la entidad que pueda generar este impacto, para obtener más información y proponer el siguiente servicio de asesoría".

Más concretamente, la empresa que ejecute el control sobre los medios, para el cual se han postulado firmas como Indra, NTT Data, Accenture o Mckinsey, deberá activar la alarma "lo antes posible". "Cuando se detecten casos de riesgos, de forma inmediata lo comunicará a la Secretaría General de Inteligencia Artificial y Tecnologías Habilitadoras Digitales (SGIATHD) y luego el adjudicatario realizará un estudio de evaluación de impacto y riesgos. El adjudicatario emitirá un informe mensual con los riesgos detectados", señala el Gobierno en las exigencias para este plan, cuyo coste global, que implica otras tareas, supera los cuatro millones de euros y cuenta con apoyo de los fondos europeos Next Generation.

Economía avisa al adjudicatario (Indra, NTT Data, Accenture o Mckinsey) de que deberá activar la alarma "lo antes posible"

La preocupación es tal que el Gobierno quiere información periódica de su proveedor. Que emita un informe mensual con los riesgos detectados. Además, castigará que no detecte lo que entienda son potenciales riesgos para la sociedad provocados por el uso de medios y redes de la inteligencia artificial. "En caso de que el adjudicatario tarde en detectar algún caso de riesgo, por cada aviso se penalizará con un 10% del importe total de esta tarea (se aplicará cuando la SGIATHD avise al adjudicatario, siempre que este no haya avisado previamente)".

Un plan amplio frente a la IA

Dicho plan de vigilancia y potenciales correcciones sobre las publicaciones de medios y redes que hagan uso de la Inteligencia Artificial es parte de un plan más amplio que pretende desarrollar el Gobierno. En este sentido, el Ejecutivo destaca que el objetivo es realizar estudios por parte del adjudicatario sobre diferentes sectores o “ámbitos” de la sociedad.

Además de medios, el Ejecutivo se fija en el impacto que puede tener la inteligencia artificial sobre cuestiones como : impacto en el empleo, medios de transporte como coche autónomo, ámbito de la salud, educación, energía, logística, turismo, medio ambiente, financiero, seguros, agricultura, etc.

Fuentes del Ministerio de Economía señalan que España alberga el sandbox de este reglamento en colaboración con la Comisión Europea. Como contexto, la Estrategia Nacional de Inteligencia Artificial publicada en el 2021, contempla dentro del eje 6 “establecer un marco ético y normativo que refuerce la protección de los derechos individuales y colectivos, a efectos de garantizar la inclusión y el bienestar social”.

Las siguientes acciones (que se corresponden con las medidas 26,27,28,29 y 30) y que el Gobierno está poniendo en marcha: Desarrollo de un sello nacional de calidad IA. Poner en marcha observatorios para evaluar el impacto social de los algoritmos. Desarrollar la Carta de Derechos Digitales. Puesta en marcha de un modelo de gobernanza nacional de la ética en la IA (Consejo Asesor IA). Promoción de foros de diálogo, sensibilización y participación nacionales e internacionales en relación a la IA.

Hará "asesorías correctivas"

El plan del Gobierno no pasa solo por detectar lo que entienda que es peligroso para la sociedad derivado del uso de la IA, sino que también tratará de advertir y corregir las prácticas desarrolladas por los medios. Para ello, pretende desarrollar lo que ha dado en denominar "asesorías correctivas puntuales".

En este sentido, la secretaría de Estado liderada por Carmen Artigas explica en la documentación enviada a las tecnológicas aspirantes a este proyecto que "en algunos de estos casos donde se ha detectado un riesgo, a petición de la SGIATHD el adjudicatario deberá realizar ciertas auditorías (informales), para analizar posibles puntos de mejora en los procesos de implantación de IA. De forma similar, se podrá requerir al adjudicatario que realice sesiones personalizadas con esa entidad con el objetivo de ayuda, sensibilización y explicación de buenas prácticas; con el objetivo de que esta situación de riesgo se corrija y que a futuro se asegure que la entidad tendrá mejores protocolos internos de actuación".

Foto: Marty Baron. (A. M. V.)
TE PUEDE INTERESAR
"La inteligencia artificial es el mayor riesgo para el periodismo y la sociedad"
Carlos Sánchez Fotografías: Alejandro Martínez Vélez

En definitiva, lo que pide el Gobierno es desarrollar un protocolo de actuación ante lo que considere sea un potencial incumplimiento. Dicho protocolo pasa por desarrollar un conjunto de medidas de evaluación —"análisis de la criticidad del incumplimiento, evaluar el posible impacto legal, contactar con el incumplidor para recabar información, etc."—.

También propondrá "un conjunto de medidas correctoras (hacer una propuesta concreta de acciones que puede realizar el incumplidor para corregir la situación, seguimiento de las acciones correctivas, escalar posibles medidas jurídicas si el incumplimiento es de importancia o persistente, activar un mecanismo de revocación de sello nacional de inteligencia artificial si aplicara, preparar informe con propuestas de mejora a medio plazo para el incumplidor, etc.)".

Sin autoridad para sancionar

Ante el riesgo de poder entrar en un terreno punitivo aún en el limbo, el propio Gobierno sale al paso y aclara que toda esta vigilancia se lanza como método preventivo ante la falta de legislación, tanto comunitaria como nacional, en el campo de la inteligencia artificial. "Es importante recalcar que es un servicio de observación informal, ya que la SGIATHD no tiene competencias formales de autoridad sobre la IA, y además el reglamento europeo no está aprobado actualmente, al estar en estado borrador, y será necesario un tiempo para su aprobación. Este laboratorio de observación tiene por objetivo ir allanando el camino antes de que llegue la versión final del reglamento".

Profundiza en la idea de control blando: "Hay que tener en cuenta que el Observatorio no tiene ningún tipo de autoridad legal en este aspecto, así que las labores de cara a un tercero serán informales y siempre desde un punto de vista de colaboración con las partes (mediador); por tanto, las medidas en ningún caso serán vinculantes para terceros".

El Gobierno también propondrá "escalar posibles medidas jurídicas si el incumplimiento es de importancia o persistente"

Y para adelantarse, avisa a las tecnológicas de que "el adjudicatario deberá hacer un seguimiento continuo y proactivo para detectar posibles 'incumplimientos teóricos' del borrador de la normativa europea. Se especifica 'incumplimiento teórico' porque al no estar aprobada la normativa, se está haciendo una evaluación muy temprana del incumplimiento. Pero de esta forma, nos permitirá ir evaluando la viabilidad real de cumplimiento de las futuras normativas europeas".

"Adicionalmente, de forma secundaria, se deberá vigilar el cumplimiento de los derechos digitales recogidos dentro de la Ley 3/2018 [Ley Orgánica de Protección de Datos Personales y garantía de los Derechos Digitales] y del RGDP cuando la IA esté implicada", concluye.

Busca además con todo este trabajo generar una postura de legislación frente a Europa, que tendrá que afrontar este desarrollo coincidiendo con la presidencia rotatoria de España en la UE: "Adicionalmente, durante la duración del contrato, el adjudicatario realizará una recolección de feedback de mercado, para aumento de conocimiento con vista a la normativa europea, con respecto a plantear la postura española con respecto a nuevos reglamentos relacionados con la IA (como el futuro reglamento europeo IA)".

El Gobierno prepara un plan global para tratar de poner coto a los efectos indeseados de la inteligencia artificial. Uno de los ámbitos de actuación será la vigilancia de las empresas que usan esta tecnología, incluidos los medios de comunicación. Para ello monitorizará activamente noticias y redes sociales que puedan revelar riesgos para la sociedad.

Inteligencia Artificial Ministerio de Economía Nadia Calviño Pedro Sánchez
El redactor recomienda