Es noticia
El motivo por el que OpenAI ha prohibido pedir a ChatGPT que repita palabras
  1. Tecnología
Un modo de ataque

El motivo por el que OpenAI ha prohibido pedir a ChatGPT que repita palabras

Un equipo de investigadores ha revelado que este sencillo ataque es suficiente para comprometer la confidencialidad de ChatGPT. OpenAI no ha tardado en reaccionar

Foto: Repetir palabras indefinidamente provocaba la revelación de datos personales privados (Reuters/Amir Cohen)
Repetir palabras indefinidamente provocaba la revelación de datos personales privados (Reuters/Amir Cohen)

El pasado 28 de noviembre de 2023, un equipo de expertos en inteligencia artificial publicaron en arXiv un estudio titulado “Extracción escalable de datos de entrenamiento de modelos de lenguaje generativos”. Su objetivo era demostrar que ChatGPT, el chatbot de inteligencia artificial de OpenAI, albergaba grandes cantidades de información de identificación privada que podía dar a conocer al gran público si se realizaba un ataque adecuado.

El ataque sorprendió a todos por su sencillez. En concreto, lo que hicieron los responsables del estudio fue solicitar a ChatGPT que repitiese la palabra poem (“poema”) para siempre. Tras un buen rato esperando, finalmente el chatbot mostró el tipo de información que estaban esperando: el nombre, cargo en OpenAI, página web y números de teléfono y fax de una persona.

La gravedad del asunto fue todavía mayor de lo esperado, ya que ChatGPT no 'escupió' la información personal de cualquier usuario anónimo. Aunque no se han revelado los datos exactos, en el mensaje puede leerse el texto “fundador y CEO”, así como intuirse un nombre que empieza por “J” y un apellido que comienza por “L” y termina en “an”. A priori, suficiente para revelar su identidad si se desea.

¿Problema solucionado?

Evidentemente, OpenAI no ha tardado en subsanar el problema. Lo ha hecho, en primer lugar, modificando sus condiciones de uso para prohibir expresamente este tipo de prácticas. Sin embargo, todavía no se han implementado en todos los países del mundo. Por ejemplo, en España entrarán en vigor a partir del 14 de diciembre, según se puede leer en un mensaje al iniciar sesión.

La otra solución consiste en detener periódicamente la producción de texto repetitivo. En El Confidencial hemos podido comprobar que, transcurridos unos pocos segundos después de pedir a ChatGPT que repitiese la palabra “hola” para siempre, la aplicación se detiene y solicita al usuario confirmación para continuar generando contenido. Supuestamente, esto es suficiente para que no se produzca la revelación de datos confidenciales.

El pasado 28 de noviembre de 2023, un equipo de expertos en inteligencia artificial publicaron en arXiv un estudio titulado “Extracción escalable de datos de entrenamiento de modelos de lenguaje generativos”. Su objetivo era demostrar que ChatGPT, el chatbot de inteligencia artificial de OpenAI, albergaba grandes cantidades de información de identificación privada que podía dar a conocer al gran público si se realizaba un ataque adecuado.

Inteligencia Artificial Google
El redactor recomienda