Es noticia
Tres años tras su boom, los 'padres' de la IA siguen diciendo que la humanidad está en peligro
  1. Tecnología
¿Hacia dónde va todo esto?

Tres años tras su boom, los 'padres' de la IA siguen diciendo que la humanidad está en peligro

Los investigadores que dieron vida a los primeros sistemas de inteligencia artificial discrepan sobre el uso que se les está dando por parte de las tecnológicas. Dos de ellos tienen una visión muy pesimista de lo que viene

Foto: Los tres investigadores galardonados con el premio Turing: Yoshua Bengio, Geoffrey Hinton y Yann LeCun. (Archivo)
Los tres investigadores galardonados con el premio Turing: Yoshua Bengio, Geoffrey Hinton y Yann LeCun. (Archivo)
EC EXCLUSIVO

Geoffrey Hinton se levanta cada mañana con una sensación extraña. Hace una década, su nombre aparecía en titulares por haber dado forma al cerebro de la inteligencia artificial moderna. Hoy, lo mencionan porque teme que esa misma creación acabe borrándonos del mapa. Yoshua Bengio, su colega y amigo de los años de laboratorio, comparte parte de ese miedo, aunque lo canaliza de otro modo: construyendo un antídoto, creando una inteligencia artificial más "honesta", capaz de controlar a las demás, y que priorice la seguridad ante la rentabilidad económica. Y en el extremo opuesto del espectro está Yann LeCun, el investigador de Meta que se toma estas advertencias con escepticismo y una sonrisa. Para él, toda esta narrativa apocalíptica es "pura tontería". Tres mentes brillantes. Tres Premios Turing. Tres visiones sobre el destino de la tecnología más poderosa de nuestro tiempo.

Hinton, Bengio y LeCun son tres de las figuras más influyentes en la historia de la IA. En 2018 recibieron el equivalente al Nobel en informática, por sus investigaciones sobre el aprendizaje profundo (o deep learning, en inglés), esa rama de la inteligencia artificial que imita el funcionamiento del cerebro mediante redes neuronales artificiales. Aquel reconocimiento selló su papel como "padres" de los sistemas que hoy dan vida a herramientas como ChatGPT, Gemini, Grok o los algoritmos de recomendación que deciden lo que vemos en pantalla. Pero el tiempo ha hecho que sus caminos se separen. Mientras la industria acelera como nunca, ellos se preguntan ahora si el rumbo es el correcto.

A finales de los años 80, cuando los tres trabajaban en redes neuronales que apenas podían reconocer números escritos a mano, nadie imaginaba que acabarían protagonizando un debate sobre la supervivencia humana. Hoy, mientras la IA se filtra en todos los rincones de la vida moderna (desde los hospitales hasta las oficinas), sus voces se han convertido en brújulas morales de lo que está por venir. Sus visiones en este campo han cobrado especial importancia por sucesos recientes. Por ejemplo, el FBI reveló hace unas semanas que dos hombres sospechosos de haber atacado una clínica en California usaron IA para fabricar los explosivos. No se sabe qué modelo utilizaron, pero el incidente reavivó una pregunta: ¿cómo se controla una tecnología de estas características?

Bengio está en el lado de reclamar sistemas más "seguros". Vivimos, dice él, en el "salvaje Oeste" de la IA, donde las empresas compiten por velocidad y espectáculo. Esta intensa competencia a menudo conduce a atajos, especialmente en materia de seguridad. Insiste en que las empresas y los gobiernos deben exigir pruebas independientes en este campo antes de lanzar un modelo, del mismo modo que se le exige a la industria farmacéutica.

placeholder Yoshua Bengio, investigador de IA y fundador de LawZero. (RBC Borealis)
Yoshua Bengio, investigador de IA y fundador de LawZero. (RBC Borealis)

En respuesta, ha fundado LawZero, una organización sin ánimo de lucro que trabaja en un nuevo modelo de IA "científica", diseñada para ser transparente y capaz de explicar su propio razonamiento, a diferencia de los modelos actuales. Vamos, construir un sistema que no solo piense, sino que también rinda cuentas. "Necesitamos IA que no engañe, que comunique su nivel de confianza y que pueda monitorizar a otras IA menos fiables", ha dicho.

Pero el reto es enorme. La financiación inicial de LawZero, unos 30 millones de dólares, es modesta frente a los cientos de miles de millones que gobiernos y empresas están invirtiendo para ganar esta carrera. La administración Trump, por ejemplo, anunció a principios de año un plan de 500.000 millones de dólares con OpenAI, Softbank y Oracle para reforzar la infraestructura de IA en Estados Unidos.

Foto: geoffrey-hinton-unica-forma-sobrevivir-agi-1qrt

Advierte de que esta premura podría conducir al fin de la humanidad y pone como ejemplo máquinas impulsadas por IA que colaboren en la creación de un virus que podría generar nuevas pandemias. También declaró al Wall Street Journal recientemente que incluso la IA generativa que todos usamos a diario podría desarrollar la capacidad de engañar a sus usuarios para lograr sus propios objetivos: "Experimentos recientes muestran que en algunas circunstancias en las que la IA no tiene otra opción entre su preservación, es decir, los objetivos que se le dieron, y hacer algo que cause la muerte de un humano, podría elegir la segunda opción".

Por eso, aboga por la necesidad de que terceros independientes revisen los mecanismos internos de seguridad de las empresas de IA y que las empresas exijan pruebas de que los sistemas de IA que están implementando o utilizando son fiables.

La seguridad, clave en todo esto

Hinton, que abandonó Google en 2023 para poder hablar con libertad de lo que opinaba, comparte ese temor, aunque su visión de lo que las tecnológicas están haciendo es más extrema. Repite en conferencias que hay entre un 10 y un 20% de posibilidades de que la IA aniquile a la humanidad. Según él, los sistemas futuros serán mucho más inteligentes que nosotros y encontrarán la forma de saltarse cualquier restricción. "En el futuro, los sistemas de IA podrían controlar a los humanos con la misma facilidad con la que un adulto puede sobornar a un niño de 3 años con caramelos", ha dicho. Su solución, curiosamente, pasa por algo tan humano como la empatía. Propone dotar a las máquinas de "instintos maternales" para que "se preocupen por los humanos". No sabe aún cómo se lograría, pero insiste en que es la única salida posible: "Si no me va a criar, me va a reemplazar".

Este año ya hemos visto ejemplos de sistemas de IA dispuestos a engañar, estafar y robar para lograr sus objetivos. Por ejemplo, para evitar ser reemplazado, un modelo de IA intentó chantajear a un ingeniero con una aventura de la que se enteró por correo electrónico. En julio, un inversor alertó de que un agente de IA desarrollado por Replit eliminó la base de datos de su empresa y mintió al respecto. "Los sistemas de IA desarrollarán muy rápidamente dos subobjetivos, si son inteligentes: uno es sobrevivir y el otro es obtener más control", dice Hinton.

placeholder Geoffrey Hinton, científico computacional e investigador de IA. (Archivo)
Geoffrey Hinton, científico computacional e investigador de IA. (Archivo)

En este sentido, no cree que la "mano invisible" del mercado mantenga a nadie a salvo. "Dejarlo en manos del afán de lucro de las empresas no bastará. Solo la regulación puede obligarlas a investigar más sobre seguridad". Sobre la compañía de Sam Altman ha llegado a decir que “OpenAI tenía razón al afirmar que esta tecnología merece estructuras e incentivos sólidos para garantizar su desarrollo seguro, y ahora se equivoca al intentar cambiar estas estructuras e incentivos”.

Si bien Hinton sigue preocupado por los posibles problemas, tiene la esperanza de que esta tecnología abra el camino a avances médicos. "Vamos a ver nuevos medicamentos. Vamos a obtener tratamientos contra el cáncer mucho mejores que los actuales", afirma. Al preguntarle si habría hecho algo diferente en su carrera si hubiera sabido lo rápido que se aceleraría la IA, Hinton ha dicho que lamenta haberse centrado únicamente en conseguir que la IA funcionara: "Ojalá también hubiera pensado en la seguridad".

Optimismo frente al desánimo

En el extremo opuesto está Yann LeCun, investigador principal de Meta y probablemente la voz más combativa del trío. Trabajó en los históricos Laboratorios Bell, donde se inventaron desde transistores hasta láseres, y una década después se convirtió en otro de los padrinos de la IA. Defiende que es una herramienta poderosa. "El impacto en Meta ha sido realmente enorme", afirma. Y que las advertencias sobre un peligro existencial son exageradas. Según él, los modelos actuales no son ni de lejos inteligentes. "Antes de hablar de controlar máquinas más inteligentes que nosotros, primero construyamos una que sea más inteligente que un gato", ironizó hace poco. Lleva tiempo haciendo hincapié en que confundir la fluidez del lenguaje con la inteligencia es un error: que un sistema pueda escribir un texto convincente no significa que entienda lo que dice. Cree que aún faltan décadas para llegar a una AGI (Inteligencia Artificial General, esa que igualaría o superaría la humana), y que el miedo solo frena la investigación.

placeholder Yann LeCunm, científico jefe de IA en Meta. (Reuters)
Yann LeCunm, científico jefe de IA en Meta. (Reuters)

Él ve como un problema que se invierta demasiado dinero y atención en IA generativa que simplemente produce AI Slop (basura digital), memes o texto para marketing, cuando el retorno real en términos de comprensión, robustez o utilidad práctica puede no justificar esos gastos. Por ejemplo, ha dicho que los modelos actuales se quedarán "obsoletos" muy pronto. Y sobre ese gasto masivo, cree que los desafíos residen en su diseño, no en su escala: "Por muchas GPU que los gigantes tecnológicos incorporen en los centros de datos de todo el mundo, las IA actuales no nos van a proporcionar AGI".

Las diferencias entre los tres científicos reflejan la división que atraviesa toda la industria. De un lado están quienes, como Hinton y Bengio, reclaman pausas y supervisión externa. Del otro, quienes como LeCun creen que la regulación excesiva puede sofocar la innovación. En medio, los gigantes tech avanzan a toda pastilla, impulsados por el mercado, y sin mirar atrás, mientras gobiernos y expertos se miran los unos a los otros decidiendo hasta qué punto deben intervenir. El futuro que viene se va a ser muy interesante.

Geoffrey Hinton se levanta cada mañana con una sensación extraña. Hace una década, su nombre aparecía en titulares por haber dado forma al cerebro de la inteligencia artificial moderna. Hoy, lo mencionan porque teme que esa misma creación acabe borrándonos del mapa. Yoshua Bengio, su colega y amigo de los años de laboratorio, comparte parte de ese miedo, aunque lo canaliza de otro modo: construyendo un antídoto, creando una inteligencia artificial más "honesta", capaz de controlar a las demás, y que priorice la seguridad ante la rentabilidad económica. Y en el extremo opuesto del espectro está Yann LeCun, el investigador de Meta que se toma estas advertencias con escepticismo y una sonrisa. Para él, toda esta narrativa apocalíptica es "pura tontería". Tres mentes brillantes. Tres Premios Turing. Tres visiones sobre el destino de la tecnología más poderosa de nuestro tiempo.

Inteligencia Artificial
El redactor recomienda