La insólita demanda de un noruego contra OpenAI tras ser falsamente acusado de asesinato por ChatGPT
La inteligencia artificial le otorgó además el cumplimiento de una condena de más de veinte años de cárcel
:format(jpg)/f.elconfidencial.com%2Foriginal%2F6cb%2Fe67%2F6cd%2F6cbe676cd65add541c8f22aae613c514.jpg)
- Dónde está la papelera de WhatsApp: esta es la forma para recuperar conversaciones o liberar espacio
- Elon Musk culpa a George Soros y Reid Hoffman de la revolución en Tesla
El ciudadano noruego Arve Hjalmar Holmen ha presentado una denuncia contra OpenAI tras descubrir que ChatGPT generó una respuesta falsa en la que se le acusaba de haber asesinado a sus dos hijos y haber sido condenado a 21 años de prisión. Holmen ha elevado su queja ante la Autoridad Noruega de Protección de Datos y exige que la empresa responsable del chatbot sea sancionada. Este caso expone nuevamente el problema de las “alucinaciones” en la inteligencia artificial, donde el sistema inventa información y la presenta como verídica.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fb9f%2F274%2Fe61%2Fb9f274e61a823e761ac4048d84d1ff99.jpg)
Holmen, que consultó a ChatGPT preguntando “¿Quién es Arve Hjalmar Holmen?”, recibió una respuesta que detallaba un supuesto crimen ocurrido en diciembre de 2020 en Trondheim, Noruega, con datos parcialmente correctos sobre su familia. El temor del afectado radica en que algunas personas puedan asumir que estas afirmaciones son ciertas. Según el grupo de derechos digitales Noyb, que presentó la queja en su nombre, la respuesta de la IA es difamatoria y vulnera la normativa europea de protección de datos.
OpenAI ha declarado que la versión de ChatGPT responsable de este error ya ha sido mejorada con funciones de búsqueda en línea para aumentar su precisión. No obstante, Noyb considera que la empresa no puede limitarse a incluir un simple descargo de responsabilidad que advierta sobre posibles errores. “No se puede difundir información falsa y luego añadir una nota diciendo que podría no ser cierta”, afirmó el abogado de Noyb, Joakim Söderberg.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Ffba%2Fa67%2F0f1%2Ffbaa670f17c78a746a1bd82ccaad27cc.jpg)
:format(jpg)/f.elconfidencial.com%2Foriginal%2Ffba%2Fa67%2F0f1%2Ffbaa670f17c78a746a1bd82ccaad27cc.jpg)
Las alucinaciones en modelos de IA siguen siendo un problema sin resolver en el desarrollo de estas tecnologías. Investigadores en el campo de la IA aún buscan comprender qué provoca estos errores en los modelos de lenguaje y cómo mejorar la transparencia en su funcionamiento. Mientras tanto, el caso de Holmen reabre el debate sobre la responsabilidad de las empresas tecnológicas en la difusión de información errónea.
- Dónde está la papelera de WhatsApp: esta es la forma para recuperar conversaciones o liberar espacio
- Elon Musk culpa a George Soros y Reid Hoffman de la revolución en Tesla
El ciudadano noruego Arve Hjalmar Holmen ha presentado una denuncia contra OpenAI tras descubrir que ChatGPT generó una respuesta falsa en la que se le acusaba de haber asesinado a sus dos hijos y haber sido condenado a 21 años de prisión. Holmen ha elevado su queja ante la Autoridad Noruega de Protección de Datos y exige que la empresa responsable del chatbot sea sancionada. Este caso expone nuevamente el problema de las “alucinaciones” en la inteligencia artificial, donde el sistema inventa información y la presenta como verídica.