Es noticia
Una nueva estimación del peligro de la inteligencia artificial para el futuro de la humanidad
  1. Tecnología
  2. Novaceno
El índice 'p(doom)'

Una nueva estimación del peligro de la inteligencia artificial para el futuro de la humanidad

En Silicon Valley, los expertos y desarrolladores de inteligencia artificial hablan entre ellos de un nuevo índice para predecir que su invención acabe con la civilización humana

Foto: Cada vez más expertos piensan que la inteligencia artificial puede ser el ángel que provoque el apocalipsis. (Inteligencia artificial/Midjourney/Novaceno)
Cada vez más expertos piensan que la inteligencia artificial puede ser el ángel que provoque el apocalipsis. (Inteligencia artificial/Midjourney/Novaceno)

Desconocido para la inmensa mayoría de la humanidad, en Silicon Valley existe un pseudo-variable matemática que indica la probabilidad de que la inteligencia artificial acabe con la civilización y con la misma especie humana. Su nombre es P(doom).

P(doom) —que se puede traducir por probabilidad de muerte, condena o final— no es una medida científica, sino un valor del 0 al 100% con el que los científicos, ingenieros y otros expertos de la inteligencia artificial miden informalmente la probabilidad de una hecatombe causada por esta tecnología.

Tampoco la definición de condena es clara. Los escenarios apocalípticos son muy variados, desde el fin de la realidad que expusimos desde Novaceno en el minidocumental de la serie Control Z hasta el apocalipsis literal al estilo Terminator, pasando por el hundimiento del orden social gracias al fin del empleo o un cambio gradual en el que la IA sea la última etapa de la evolución del ser humano, con la desaparición o irrelevancia de nuestra especie.

Foto: El fondo cósmico de microondas. (ESA)

Como cuenta el columnista tecnológico del New York Times Kevin Roose,Dario Amodei, el director ejecutivo de la compañía Anthropic [una de las más relevantes de la industria por detrás de OpenAI], pone el suyo entre el 10 y el 25 por ciento. Lina Khan, presidenta de la Comisión Federal de Comercio, me dijo recientemente que está en el 15 por ciento. Y Emmett Shear, que se fue como director ejecutivo interino de OpenAI durante unos cinco minutos el mes pasado, ha dicho que se encuentra entre el 5 y el 50 por ciento.”

El origen de P(doom)

El término p(doom) se originó en la comunidad en línea LessWrong, un foro dedicado al movimiento filosófico del Racionalismo, en el 2009. Según cuenta Roose, el término en sí fue acuñado por Tim Tyler, un programador de Boston. Tyler utilizó el término para referirse a la "probabilidad de condena" sin ser demasiado específico sobre la escala de tiempo o la definición exacta de "condena".

El fundador de LessWrong e investigador de la inteligencia artificial Eliezer Yudkowsky comenzó a popularizar el término escribiendo sobre los posibles caminos que esta tecnología puede tomar para acabar con la humanidad.

En un principio, p(doom) era un valor que se daba medio en broma, pero poco después salió de su lugar de nacimiento para convertirse en un tema de discusión general entre la élite de este campo, popularizándose entre los pioneros de la IA aplicada en Silicon Valley y otros centros tecnológicos del planeta.

Popularidad creciente

Esa popularidad se disparó con el big bang de la inteligencia artificial en 2022 y 2023, coincidiendo con el lanzamiento y éxito arrollador de modelos como ChatGPT, Stable Diffusion o Midjourney.

Ahora, p(doom) se ha convertido en un tema recurrente en reuniones tecnológicas, foros y conferencias, convirtiéndose en el índice informal que apunta a las preocupaciones técnicas y éticas asociadas con el avance de la IA.

Y aunque, como apunta Roose, es un indicador de la preocupación de la persona que da el valor a p(doom) y no una medida científica, lo cierto es que su mera existencia es una declaración de la preocupación compartida sobre el potencial disruptivo de la IA y sus posibles consecuencias para el futuro de la humanidad.

Foto:  Sam Altman momentos antes de su despido en el foro Asia-Pacific Economic Cooperation en San Francisco, California. (REUTERS Carlos Barria)

De hecho, el índice establecido por varias de estas luminarias ha empezado a influir en el debate sobre cómo debería regularse la inteligencia artificial, algo que ha derivado en situaciones como el despido fulminante y temporal de Sam Altman —cofundador y CEO de OpenAI— o la nueva ley de AI de la Unión Europea.

No hay vuelta atrás​

Precisamente los episodios de Altman y la nueva ley europea son ejemplos perfectos de cómo la diversidad de opiniones sobre el valor de p(doom) están afectando el desarrollo de la tecnología y su regulación, subrayando la complejidad de establecer políticas efectivas y medidas de seguridad para evitar el desastre sin poner trabas al progreso científico y tecnológico. Una misión que parece imposible.

Al final, la humanidad está en una encrucijada. La forma en que los líderes tecnológicos, los reguladores y la sociedad en general aborden estos desafíos determinará en gran medida el papel que la inteligencia artificial jugará en nuestro futuro.

La realidad es que no importa lo que regule la UE. A no ser que los creadores de la tecnología se autocontrolen y establezcan medidas para limitar el poder de la IA, el p(doom) seguirá en aumento. De hecho, dudo que ahora mismo seamos capaces de cerrar la Caja de Pandora definitiva.

Desconocido para la inmensa mayoría de la humanidad, en Silicon Valley existe un pseudo-variable matemática que indica la probabilidad de que la inteligencia artificial acabe con la civilización y con la misma especie humana. Su nombre es P(doom).

Inteligencia Artificial
El redactor recomienda