Es noticia
Expertos internacionales piden parar el desarrollo de la inteligencia artificial
  1. Tecnología
  2. Novaceno
Por seis meses

Expertos internacionales piden parar el desarrollo de la inteligencia artificial

En pleno auge de la inteligencia artificial, investigadores e intelectuales quieren parar los experimentos de inteligencia artificial temporalmente para evaluar los riesgos

Foto: Fotos falsas del arresto de Donald Trump generadas con la última versión de Midjourney. (Eliot Higgins)
Fotos falsas del arresto de Donald Trump generadas con la última versión de Midjourney. (Eliot Higgins)

Grandes voces del panorama tecnológico entre los que se encuentran Elon Musk, fundador de Tesla y SpaceX, Steve Wozniak, fundador de Apple o el historiador Yuval Noah Harari, se han unido a más de 1.000 personas, entre las que se encuentran prestigiosos investigadores del campo de la inteligencia artificial y creadores, para firmar una carta abierta en la que piden parar la implementación de las nuevas inteligencias artificiales durante seis meses. La carta va dirigida a los laboratorios de IA que están ahora sumidos en una carrera descontrolada que impide gestionar y controlar adecuadamente los "profundos riesgos para la sociedad y la humanidad" que suponen.

Foto: Un Altius 600M lanzado desde un dron autónomo Kratos.

"La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes", dice la carta. "Lamentablemente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable."

ChatGPT ha hecho que la inteligencia artificial se ponga de moda entre el gran público. Sus creadores, OpenIA, han liberado hace poco una nueva versión de este modelo de lenguaje, GPT-4, que se se ha presentado casi a la vez que la nueva versión de Midjourney, la IA generativa de imagen que es capaz de producir imágenes asombrosamente realistas de Trump siendo detenido o del Papa caminando por la calle con un gran plumas blanco que le viene tres tallas más grande.

Pero, mientras nos divertimos pidiendo consejo a ChatGPT sobre cómo animar nuestra vida amorosa o convertimos al cantante Snoop Dog en el protagonista de las series de televisión más famosas de la historia, un grupo de pesos pesados de la industria, investigadores e intelectuales han dicho “hasta aquí hemos llegado”. Los firmantes instan a los principales laboratorios de inteligencia artificial del mundo a parar durante seis meses el entrenamiento de estos potentes sistemas, ya que sus recientes avances presentan "profundos riesgos para la sociedad y la humanidad".

Esto se une a la cascada de declaraciones que hemos venido escuchando estos últimos días por parte de varios pesos pesados de la industria e intelectuales que han alertado del poder destructivo de estas tecnologías y exigen poner límites antes de que sea demasiado tarde. Un ejercicio que también hicimos en Novaceno con el episodio 5 de Control Z: ‘El Fin de la Realidad’, que pueden ver más arriba.

La llave para el control de la civilización

Sam Altman, el director general de OpenAI, la compañía que está detrás de ChatGPT o Dall-e (otra IA similar a Midjourney), participó hace unos días en el popular podcast del investigador de MIT, Lex Friedman. En las casi dos horas y media de conversación, Altman habló fundamentalmente de GPT-4, la nueva versión de su ya famoso modelo de lenguaje y reconoció que, a pesar de sus "enormes beneficios", también nos aboca a riesgos sin precedentes.

"Creo que es raro cuando la gente piensa que es una metedura de pata que yo diga: ‘tengo un poco de miedo’", dijo Altman a Fridman. "Y creo que sería una locura no tener un poco de miedo y empatizo con la gente que tiene mucho miedo".

placeholder Otra foto del arresto de Trump. (Midjouney)
Otra foto del arresto de Trump. (Midjouney)

Para el historiador israelí y autor del ‘bestseller’ ‘Sapiens’, Yuval Noah Harari, tecnologías como ChatGPT es nuestra segunda ola de contacto con la inteligencia artificial. Esta ola es mucho más grande y ruidosa que la primera, aunque eso no quiere decir que no haya sido peligrosa. Los tejemanejes de la primera ola de IA, responsable de distribuir el contenido generado por los usuarios en las redes sociales y maximizar la participación, han logrado aumentar la polarización social. Hasta tal punto que ha conseguido —según apunta Harari en una columna del New York Times escrita junto a escrito Tristan Harris y Aza Raskin, fundadores de la ONG Center for Humane Technology— que los ciudadanos estadounidenses no puedan ni siquiera ponerse de acuerdo sobre quién ganó las últimas elecciones.

placeholder Las fiestas de BIden en el Despacho Oval. (Midjourney)
Las fiestas de BIden en el Despacho Oval. (Midjourney)

Harari y el resto de autores reconocen los beneficios que puede traer la inteligencia artificial a la humanidad, señalando que "tiene el potencial de ayudarnos a vencer el cáncer, descubrir fármacos que salven vidas e inventar soluciones para nuestras crisis climática y energética". Sin embargo, el hecho de que las nuevas inteligencias artificiales dominen el lenguaje las hace muchísimo más peligrosas, porque eso significa que pueden "piratear y manipular el sistema operativo de la civilización".

La IA a años luz de la regulación

Los investigadores, aseguran que ya hemos perdido la batalla contra la primera ola de la inteligencia artificial y como no nos demos prisa vamos a perder también la segunda. Y advierten de que el momento de lidiar con la Inteligencia Artificial es "antes de que nuestra política, nuestra economía y nuestra vida cotidiana pasen a depender de ella. Si esperamos a que se produzca el caos, será demasiado tarde para remediarlo".

placeholder Esta imagen de Xi Jinping no se podría publicar en las RRSS chinas. (Midjourney)
Esta imagen de Xi Jinping no se podría publicar en las RRSS chinas. (Midjourney)

Harari remata diciendo que cuando se trata de desplegar la tecnología más trascendental de la humanidad, la carrera por dominar el mercado no debe marcar la velocidad, sino que deberíamos movernos a la velocidad que nos permita hacerlo bien.

Esto se puede interpretar como un palo a Altman y OpenIA, que asumieron el riesgo de abrir ChatGPT al público sin conocer del todo su alcance. Sin embargo, el propio Altman sostiene que la sociedad necesita más tiempo para adaptarse a la inteligencia artificial.

placeholder La versión de Midjourney de Martín Luther King como presidente del gobierno de EEUU.
La versión de Midjourney de Martín Luther King como presidente del gobierno de EEUU.

"La regulación será clave y llevará tiempo resolverla. Tener tiempo para entender lo que está pasando, cómo la gente quiere usar estas herramientas y cómo la sociedad puede coevolucionar es fundamental". explica Altman. "Las preocupaciones actuales que tengo son que va a haber problemas de desinformación o shocks económicos o alguna otra cosa a un nivel mucho más allá de cualquier cosa para la que estemos preparados", añadió. "Y eso no requiere superinteligencia".

Inteligencia artificial similar a la humana

A la superinteligencia o inteligencia artificial general (IAG), se ha referido recientemente también Geoffrey Hinton, un prestigioso profesor de ciencias de la computación que trabaja para Google y para la Universidad de Toronto y que mucha gente califica como "el padrino de la inteligencia artificial".

placeholder El Papa abrigado con una plumas tres tallas más grande. (Midjourney)
El Papa abrigado con una plumas tres tallas más grande. (Midjourney)

La IAG es tan difícil de definir como la propia inteligencia humana. Muchos expertos se refieren a ella como la capacidad para aprender cualquier tarea mental que pueda hacer un ser humano. Esta capacidad no se ha conseguido todavía y muchos investigadores dudan que se vaya a conseguir, a pesar del empeño y los millones que empresas como OpenIA emplean en lograrlo. Sin embargo, Hinton asegura que está más cerca de lo que pensamos.

"Hasta hace poco, pensaba que pasarían entre 20 y 50 años antes de que tuviéramos IA de propósito general. Y ahora creo que pueden pasar 20 años o menos", predijo Hinton en una reciente entrevista para la CBS. Para el investigador es plausible que los ordenadores acaben adquiriendo la capacidad de crear sus ideas y de mejorarse a sí mismos. "Eso es un problema, cierto. Tenemos que pensar mucho en cómo controlarlo".

placeholder El dictador norcoreano Kim Jong-un al estilo del fotógrafo David LaChapelle (Midjourney)
El dictador norcoreano Kim Jong-un al estilo del fotógrafo David LaChapelle (Midjourney)

Durante la entrevista, le preguntaron específicamente por las posibilidades de que la inteligencia artificial acabe con la humanidad, Hinton respondió una especie de trabalenguas que no invita en absoluto a la tranquilidad: "Creo que no es inconcebible. Es todo lo que diré".

Grandes voces del panorama tecnológico entre los que se encuentran Elon Musk, fundador de Tesla y SpaceX, Steve Wozniak, fundador de Apple o el historiador Yuval Noah Harari, se han unido a más de 1.000 personas, entre las que se encuentran prestigiosos investigadores del campo de la inteligencia artificial y creadores, para firmar una carta abierta en la que piden parar la implementación de las nuevas inteligencias artificiales durante seis meses. La carta va dirigida a los laboratorios de IA que están ahora sumidos en una carrera descontrolada que impide gestionar y controlar adecuadamente los "profundos riesgos para la sociedad y la humanidad" que suponen.

Inteligencia Artificial Tecnología
El redactor recomienda