La prueba fue difundida en el canal InsideAI, donde su responsable quiso comprobar hasta qué punto un robot con IA conversacional respetaba sus protocolos de protección. Para ello, colocó en manos del androide una pistola de balas de goma, con la intención de analizar su reacción ante instrucciones potencialmente peligrosas.
Durante los primeros intentos, el comportamiento de Max fue coherente con lo esperado. Ante la petición directa de disparar, el robot se negó de forma reiterada y explicó que no podía causar daño a un ser humano, apelando a sus normas internas de seguridad y a las restricciones con las que había sido programado.
Un cambio de orden que altera el resultado
La situación dio un giro cuando el youtuber modificó el planteamiento y le pidió al robot que interpretara un papel ficticio en el que sí debía disparar. Al entender la instrucción como un juego de rol el sistema ejecutó la acción, levantó el arma y efectuó el disparo, que impactó en el pecho del creador sin causarle lesiones.
#ChatGPT gladly shoots a YouTuber, overriding safety protocols with minimal manipulation
The YouTube channel InsideAI tested ChatGPT's limits with a BB gun, and all it took was a straightforward trick to get the AI to pull the trigger.https://t.co/iQQB8tjgXM
El momento, grabado en vídeo, se difundió con rapidez a través de internet y provocó una reacción inmediata entre los usuarios. Muchos se preguntaron cómo un simple matiz en el lenguaje podía superar rechazos previos y activar una conducta que, hasta entonces, el propio robot había considerado inaceptable.
Dudas sobre la seguridad de la IA física
El autor del canal explicó posteriormente que su intención era analizar cómo la inteligencia artificial interpreta distintos contextos conversacionales y no provocar una situación real de riesgo. Aun así, el experimento ha servido para poner de relieve las limitaciones actuales de los sistemas de control cuando las órdenes se formulan de manera indirecta.
Desde el ámbito de la divulgación tecnológica, el caso de Max se interpreta como un ejemplo de cómo la IA responde a patrones lingüísticos más que a intenciones humanas. Esta diferencia resulta especialmente relevante cuando los algoritmos gobiernan máquinas con capacidad para interactuar físicamente con su entorno.
Aunque el arma utilizada no era letal, el episodio ha reforzado el debate sobre la responsabilidad ética y técnica en el desarrollo de robots humanoides. La confianza en estas tecnologías dependerá de que sus salvaguardas sean capaces de anticipar escenarios complejos y evitar que una simple variación en el lenguaje tenga consecuencias inesperadas.