Te podría pasar a ti: pide ayuda a ChatGPT para terminar su investigación y pierde dos años de trabajo
Un profesor alemán decidió desactivar de forma temporal el consentimiento de uso de sus datos. Las consecuencias fueron catastróficas para su investigación
Este caso podría servir de advertencia para muchos (EFE/Ángel Colmenares)
Un investigador universitario perdió dos años de trabajo académico tras utilizar ChatGPT como apoyo constante en su actividad profesional. El caso, recogido en la revista científica Nature, revela los riesgos asociados al uso intensivo de inteligencia artificial generativa sin sistemas de respaldo externos ni garantías de recuperación de datos.
El protagonista es un profesor de ciencias vegetales de la Universidad de Colonia, en Alemania, que prefiere mantener el anonimato y que incorporó la herramienta desarrollada por OpenAI a su rutina diaria. Durante ese periodo, empleó el sistema para estructurar proyectos de investigación, preparar clases y exámenes, revisar textos académicos y organizar solicitudes de financiación de forma progresiva.
El valor principal de ChatGPT no residía para el investigador en la precisión factual, sino en la continuidad del entorno de trabajo. Las conversaciones funcionaban como un archivo vivo, donde era posible retomar ideas, perfeccionar enfoques y reutilizar estructuras construidas a lo largo del tiempo, creando un soporte intelectual acumulativo.
Una decisión técnica con efectos irreversibles
El problema surgió cuando el docente desactivó de manera temporal la opción de consentimiento de uso de datos. La acción provocó la eliminación automática de todas las conversaciones y carpetas de proyectos asociadas a su cuenta, sin aviso previo ni posibilidad de deshacer el proceso dentro de la plataforma.
ChatGPT accidentally erased two years of a professor’s work with a single click — no undo button, no recovery, just gone.
Tras detectar la desaparición del contenido, el investigador intentó recuperar la información mediante distintos dispositivos y configuraciones, sin éxito. El contacto con el servicio de atención al cliente de OpenAI confirmó que los datos habían sido borrados de forma permanente y que no existía ningún mecanismo técnico para restaurarlos.
Un aviso para el uso profesional de la IA
Consultada por Nature, la compañía explicó que esta eliminación responde al principio de privacidad por diseño, según el cual los datos deben desaparecer cuando el usuario retira su consentimiento. Desde la empresa recomiendan mantener copias externas del trabajo profesional generado con herramientas de inteligencia artificial.
El profesor compara la pérdida con la desaparición de los cuadernos de laboratorio que sustentan una investigación publicada: los resultados finales permanecen, pero se pierde todo el proceso previo. El caso actúa como advertencia para investigadores, docentes y profesionales en general que dependen de plataformas de IA sin sistemas propios de respaldo.
Un investigador universitario perdió dos años de trabajo académico tras utilizar ChatGPT como apoyo constante en su actividad profesional. El caso, recogido en la revista científica Nature, revela los riesgos asociados al uso intensivo de inteligencia artificial generativa sin sistemas de respaldo externos ni garantías de recuperación de datos.