Es noticia
Cuidado con ChatGPT: un usuario denuncia que podría filtrar conversaciones privadas
  1. Tecnología
OpenAI da explicaciones

Cuidado con ChatGPT: un usuario denuncia que podría filtrar conversaciones privadas

Presentaciones, conversaciones, códigos de programación PHP e, incluso, artículos científicos sin publicar. Hay pruebas que demuestran que la IA de OpenAI podría no ser segura

Foto: La IA de OpenAI vuelve a verse sacudida por la polémica (Reuters/Dado Ruvic)
La IA de OpenAI vuelve a verse sacudida por la polémica (Reuters/Dado Ruvic)

Chase Whiteside es un lector de Ars Technica que ha descubierto que ChatGPT está filtrando conversaciones privadas de sus usuarios, así como muchos otros datos que podrían comprometer la confidencialidad de todos aquellos que lo utilizan. Para demostrarlo, no ha dudado en enviar a dicho medio un total de siete capturas de pantalla a través de las que evidencia la vulnerabilidad y, presumiblemente, la mala praxis del sistema de inteligencia artificial de OpenAI.

Las capturas de pantalla venían acompañadas de un mensaje en el que Chase Whiteside afirmaba que “era una maldita locura” y que no podía creer “lo mal que se diseñó” la plataforma. Su enfado fue cada vez más notable, hasta llegar al punto de solicitar que alguien sea despedido por el error. “Es lo que yo haría” llega a decir al respecto. También explica cómo se produjo el incidente.

El usuario hizo una consulta no relacionada la noche anterior acerca de los nombres de las tonalidades de una paleta de color. En este sentido, aclara que es “un usuario habitual” de ChatGPT y que suele usarlo todos los días. Al día siguiente, abrió su ordenador y descubrió que la IA le había devuelto una serie de mensajes con información privada sin que él hubiese realizado ninguna búsqueda. Según dice, “simplemente aparecieron en mi historial” y “no son mías con total seguridad”. Es más, “tampoco creo que sean de la misma persona”.

Contenido y explicación de OpenAI

Whiteside califica el suceso como “horrendo”. Un adjetivo lógico si se tiene en cuenta la naturaleza de los datos filtrados. Entre ellos es posible encontrar conversaciones privadas, artículos científicos que todavía no han sido publicados y presentaciones profesionales, así como códigos de programación PHP y credenciales de acceso a cuentas de un sistema de asistencia médica utilizado por los empleados de una farmacia para gestionar los medicamentos comercializados.

placeholder Captura de pantalla de la conversación privada (Ars Technica/Chase Whiteside)
Captura de pantalla de la conversación privada (Ars Technica/Chase Whiteside)

La gravedad de lo sucedido hizo que Ars Technica solicitase explicaciones a OpenAI, que no tardó en realizar una investigación y en ofrecer una respuesta. Según un representante de la compañía liderada por Sam Altman, el problema estuvo en que la seguridad de la cuenta Chase Whiteside se vio comprometida. Algo con lo que él no está muy de acuerdo, ya que asegura haber utilizado “una contraseña de nueve caracteres formada por números, mayúsculas, minúsculas y símbolos” y por no emplearla “en otras cuentas de otros servicios”.

La explicación de OpenAI está basada en que el usuario afectado inició sesión con su cuenta en Brooklyn, Nueva York. Sin embargo, de manera simultánea se produjeron otros inicios de sesión en Sri Lanka. Eso sí, no aborda el problema fundamental, que no es otro que la revelación de datos privados por parte de ChatGPT cuando, en teoría, no debería tener acceso a ellos de ningún modo. Ni siquiera aunque se almacenasen en cualquiera de los servicios de Microsoft.

Chase Whiteside es un lector de Ars Technica que ha descubierto que ChatGPT está filtrando conversaciones privadas de sus usuarios, así como muchos otros datos que podrían comprometer la confidencialidad de todos aquellos que lo utilizan. Para demostrarlo, no ha dudado en enviar a dicho medio un total de siete capturas de pantalla a través de las que evidencia la vulnerabilidad y, presumiblemente, la mala praxis del sistema de inteligencia artificial de OpenAI.

Inteligencia Artificial
El redactor recomienda