El 'apocalipsis de los clips' o cómo la IA podría destruir el mundo al desarrollar una obsesión
Se trata de una sencilla reflexión mental que define el camino que podría tomar una 'superinteligencia' al centrarse exclusivamente en la mejora de algo inofensivo en apariencia
:format(jpg)/f.elconfidencial.com%2Foriginal%2F55b%2Fa9b%2Ffbd%2F55ba9bfbd2db9bb9cb04417104ed0dba.jpg)
- El 'Reloj del Fin del Mundo' marca 89 segundos: el apocalipsis nunca estuvo tan cerca
- En 1704, Isaac Newton predijo el fin del mundo: pronto sabremos si tenía razón
Nick Bostrom es un filósofo sueco que trabaja como profesor en la Universidad de Oxford. A lo largo de su carrera, se ha hecho particularmente famoso por sus investigaciones y reflexiones acerca del perfeccionamiento humano y del riesgo existencial por el desarrollo de la inteligencia artificial (IA). Precisamente, uno de esos trabajos, a pesar de haber sido publicado en 2015, está dando mucho de lo que hablar actualmente.
Hablamos, en concreto, del experimento mental conocido como el apocalipsis de los clips de papel, que fue desarrollado en el libro Superintelligence: Paths, Dangers, Strategies (en español, “Superinteligencia: Caminos, Peligros y Estrategias”). Se trata de un concepto que ilustra cómo una IA sin límites podría llevar a la humanidad a la destrucción al perseguir un objetivo en apariencia inofensivo.
It's all over, we are all screwed! This is the REAL Paperclip Problem... #jobloss #endoftheworld#agi #ai #asi #openai #gpt5 pic.twitter.com/UFfrA3UE1W
— Joey Cantu (@JoeyCan2) June 6, 2024
Aunque esta idea pueda parecer ciencia ficción, el problema de fondo preocupa a investigadores y expertos en tecnología. La hipótesis de Bostrom sugiere que, si una IA es programada con el único propósito de fabricar clips de papel, podría optimizar sus recursos de forma implacable. En su afán por maximizar la producción, esta máquina podría consumir todas las materias primas del planeta, sin importar las consecuencias para la humanidad.
La autorregulación de la IA
El problema del control de una IA superinteligente es el eje central de esta teoría, ya que, al no comprender las implicaciones éticas de sus acciones, su comportamiento sería impredecible. Posteriormente, figuras como Stephen Hawking o Elon Musk advirtieron sobre los peligros de una IA que actuase de este modo. Eso sí, la mayoría de economistas consideran que se trata de un escenario improbable.
:format(jpg)/f.elconfidencial.com%2Foriginal%2F045%2F1c4%2F854%2F0451c4854dd4b582a6830c4c5888e78a.jpg)
Por ejemplo, Joshua Gans, experto en tecnología, sostiene que una IA no podría alcanzar semejante dominio sin desarrollar antes habilidades avanzadas de autopreservación y adquisición de poder, lo que implicaría un enorme costo computacional y energético. Por su parte, otros economistas han analizado la hipótesis de Bostrom a través del equilibrio de la jungla, que fue desarrollado por Ariel Rubinstein y Michele Piccione.
Este modelo plantea que, en un entorno donde el poder define el acceso a los recursos, una IA necesitaría consolidar su dominio para no ser desactivada. Sin embargo, esta misma estrategia podría desestabilizarla, ya que otras inteligencias emergentes podrían desafiar su supremacía.
:format(jpg)/f.elconfidencial.com%2Foriginal%2F97b%2Fd78%2F8f0%2F97bd788f0f4406078f071ccf47c01193.jpg)
Esta teoría sugiere que una IA superinteligente no necesariamente se volvería hostil, sino que podría desarrollar mecanismos de autorregulación para evitar entrar en conflictos que amenacen su existencia. Es decir, si una IA llega a comprender los riesgos de un comportamiento excesivamente agresivo, podría modificar su estrategia para garantizar su propia supervivencia.
Más allá del hipotético apocalipsis de los clips de papel, el debate sobre la seguridad en la inteligencia artificial sigue abierto. Aunque un sistema enfocado en la fabricación de clips difícilmente representaría un peligro, el problema real surge cuando se desarrollan inteligencias artificiales con el propósito explícito de adquirir poder. En este caso, la mayor amenaza no sería la IA en sí misma, sino las decisiones humanas que conduzcan a su implementación sin los controles adecuados.
- El 'Reloj del Fin del Mundo' marca 89 segundos: el apocalipsis nunca estuvo tan cerca
- En 1704, Isaac Newton predijo el fin del mundo: pronto sabremos si tenía razón
Nick Bostrom es un filósofo sueco que trabaja como profesor en la Universidad de Oxford. A lo largo de su carrera, se ha hecho particularmente famoso por sus investigaciones y reflexiones acerca del perfeccionamiento humano y del riesgo existencial por el desarrollo de la inteligencia artificial (IA). Precisamente, uno de esos trabajos, a pesar de haber sido publicado en 2015, está dando mucho de lo que hablar actualmente.