Es noticia
Crean un gusano capaz de meterse en ChatGPT e instalar un virus para robarte los datos
  1. Tecnología
Se llama Morris II

Crean un gusano capaz de meterse en ChatGPT e instalar un virus para robarte los datos

Sus desarrolladores aseguran que los 'chatbots' de IA poseen una mala arquitectura de software y que son muy vulnerables. Su experimento demuestra que así es

Foto: Este virus aprovecha las vulnerabilidades de la IA (EFE/Oskar Burgos)
Este virus aprovecha las vulnerabilidades de la IA (EFE/Oskar Burgos)

ChatGPT, Gemini, Grok, Copilot... Cada vez son más las empresas que están realizando fuertes inversiones en materia de inteligencia artificial generativa. Es más, estas plataformas cuentan con miles de millones de usuarios en todo el mundo. Algo que, como no podía ser de otro modo, ha llamado la atención de los hackers, quienes tratan de explotar estas plataformas para conseguir fines ilícitos.

Prueba de ello es un trabajo de investigación desarrollado por Ben Nassi junto a sus colegas Stav Cohen y Ron Bitton. Durante su desarrollo crearon un malware llamado Morris II que, como ellos mismos afirman en una entrevista concedida al medio The Wired, se trata de un homenaje al virus informático Morris. Un gusano que, allá por 1988, causó estragos en el Internet primitivo. “Ahora existe la posibilidad de llevar a cabo un nuevo tipo de ciberataque que nunca se había visto antes” dijeron al respecto.

En el estudio puede verse cómo los investigadores han desarrollado un malware capaz de atacar un asistente de correo electrónico de IA generativa con el propósito de robar datos y enviar mensajes de spam. De hecho, no tiene ningún problema para superar las protecciones de seguridad impuestas por Gemini y ChatGPT. Eso sí, los autores aseguran que todo el trabajo se ha ejecutado “en un entorno de prueba”.

Ahora bien, Ben Nassi afirma que, a pesar de que todavía no se ha detectado ningún virus de tipo gusano operando libremente en plataformas de IA, las empresas deberían tomarse muy en serio su existencia. Lo califican como un tipo de virus con capacidad para causar grandes daños a los desarrolladores, a las startups e, incluso, a las big tech.

¿Cómo funciona Morris II?

Para entenderlo mejor, los investigadores parten de la premisa de que todos los asistentes de IA generativa funcionan mediante prompts o instrucciones de texto. Unas indicaciones que pueden formularse con el propósito de que el sistema ignore su finalidad, sobrepase sus límites de seguridad e, incluso, atente contra él mismo. De hecho, esto es exactamente lo que hicieron.

Durante la simulación que llevaron a cabo con Morris II, los autores del estudio redactaron un mensaje de correo electrónico capaz de “envenenar” al asistente de IA. Para ello, emplearon una técnica denominada “generación aumentada por recuperación” (RAG), la cual permite a los modelos de lenguaje largo (LLM) conseguir datos adicionales de fuentes externas y ajenas a su propia base de datos.

La técnica RAG permite a Morris II recuperar mensajes antiguos y enviar directamente contenido a GPT-4 y Gemini. Después, el virus puede hacer jailbreak, que consiste en eliminar ciertas limitaciones impuestas por la plataforma de IA. El propósito no es otro que el de instalarse en la base de datos del LLM para alterar las respuestas generadas y tener acceso a los datos personales de los usuarios registrados.

Foto: ChatGPT y Bard no son invulnerables ante ciberataques (Pexels)

Todo esto hace que dicha respuesta generada contenga los datos privados del usuario. Pero no solo eso. También tiene capacidad para infectar a aquellas cuentas que reciben los mensajes si los responden. Incluso aunque no procedan de la misma IA (por ejemplo, entre ChatGPT y Gemini). El objetivo de los investigadores ha sido demostrar que los actuales chatbots poseen “un mal diseño de arquitectura de software” y que, a través de ellos, es posible extraer nombres, números de tarjeta de crédito y, literalmente, “cualquier otro dato que se considere confidencial”.

ChatGPT, Gemini, Grok, Copilot... Cada vez son más las empresas que están realizando fuertes inversiones en materia de inteligencia artificial generativa. Es más, estas plataformas cuentan con miles de millones de usuarios en todo el mundo. Algo que, como no podía ser de otro modo, ha llamado la atención de los hackers, quienes tratan de explotar estas plataformas para conseguir fines ilícitos.

Hackers Inteligencia Artificial
El redactor recomienda