Es noticia
La insólita demanda de un noruego contra OpenAI tras ser falsamente acusado de asesinato por ChatGPT
  1. Tecnología
INTELIGENCIA ARTIFICIAL

La insólita demanda de un noruego contra OpenAI tras ser falsamente acusado de asesinato por ChatGPT

La inteligencia artificial le otorgó además el cumplimiento de una condena de más de veinte años de cárcel

Foto: Holmen ha presentado su denuncia ante la Autoridad Noruega de Protección de Datos(kode24.no)
Holmen ha presentado su denuncia ante la Autoridad Noruega de Protección de Datos(kode24.no)

El ciudadano noruego Arve Hjalmar Holmen ha presentado una denuncia contra OpenAI tras descubrir que ChatGPT generó una respuesta falsa en la que se le acusaba de haber asesinado a sus dos hijos y haber sido condenado a 21 años de prisión. Holmen ha elevado su queja ante la Autoridad Noruega de Protección de Datos y exige que la empresa responsable del chatbot sea sancionada. Este caso expone nuevamente el problema de las “alucinaciones” en la inteligencia artificial, donde el sistema inventa información y la presenta como verídica.

Foto: TikTok te está destruyendo las neuronas (Prudencio Álvarez / Getty)

Holmen, que consultó a ChatGPT preguntando “¿Quién es Arve Hjalmar Holmen?”, recibió una respuesta que detallaba un supuesto crimen ocurrido en diciembre de 2020 en Trondheim, Noruega, con datos parcialmente correctos sobre su familia. El temor del afectado radica en que algunas personas puedan asumir que estas afirmaciones son ciertas. Según el grupo de derechos digitales Noyb, que presentó la queja en su nombre, la respuesta de la IA es difamatoria y vulnera la normativa europea de protección de datos.

OpenAI ha declarado que la versión de ChatGPT responsable de este error ya ha sido mejorada con funciones de búsqueda en línea para aumentar su precisión. No obstante, Noyb considera que la empresa no puede limitarse a incluir un simple descargo de responsabilidad que advierta sobre posibles errores. “No se puede difundir información falsa y luego añadir una nota diciendo que podría no ser cierta”, afirmó el abogado de Noyb, Joakim Söderberg.

placeholder Conversación original entre Holmes y la IA (noyb.eu/es)
Conversación original entre Holmes y la IA (noyb.eu/es)

Las alucinaciones en modelos de IA siguen siendo un problema sin resolver en el desarrollo de estas tecnologías. Investigadores en el campo de la IA aún buscan comprender qué provoca estos errores en los modelos de lenguaje y cómo mejorar la transparencia en su funcionamiento. Mientras tanto, el caso de Holmen reabre el debate sobre la responsabilidad de las empresas tecnológicas en la difusión de información errónea.

El ciudadano noruego Arve Hjalmar Holmen ha presentado una denuncia contra OpenAI tras descubrir que ChatGPT generó una respuesta falsa en la que se le acusaba de haber asesinado a sus dos hijos y haber sido condenado a 21 años de prisión. Holmen ha elevado su queja ante la Autoridad Noruega de Protección de Datos y exige que la empresa responsable del chatbot sea sancionada. Este caso expone nuevamente el problema de las “alucinaciones” en la inteligencia artificial, donde el sistema inventa información y la presenta como verídica.

Inteligencia Artificial
El redactor recomienda