Es noticia
¿Nos extinguirán nuestros robots? Última hora sobre las máquinas superinteligentes
  1. Cultura
polémica

¿Nos extinguirán nuestros robots? Última hora sobre las máquinas superinteligentes

Los desacuerdos acerca del futuro del ser humano con la inteligencia artificial se recrudecen al tiempo que el debate se muestra cada vez más interesante

Foto: Uteco, un peculiar 'profesor' desarrollado por científicos uruguayos (EFE Raúl Martínez)
Uteco, un peculiar 'profesor' desarrollado por científicos uruguayos (EFE Raúl Martínez)

Sería difícil encontrar un campo de investigación tecnocientífica en el que las discrepancias acerca del alcance de lo conseguido hasta el momento, así como de lo que es probable que se pueda conseguir en las próximas décadas, sean mayores que en el de la inteligencia artificial (IA). La imagen popular y las expectativas generadas por la ciencia ficción, alimentadas por algunos científicos de renombre externos al campo, como Stephen Hawking, han dominado con frecuencia sobre los análisis de los especialistas, que suelen ser más prudentes.

El escenario futuro que más interés suscita y más miedo genera es el de la tan traída y llevada Singularidad, es decir, el momento en el que, tras haber creado auténtica inteligencia artificial general (la que tenemos ahora, que realiza solo tareas concretas, se considera inteligencia artificial particular o estrecha), las máquinas serán capaces de crear otras más inteligentes que ellas mismas, o de perfeccionarse a sí mismas, en un proceso rápido que algunos describen como una “explosión de inteligencia”, y a partir de ese momento ellas tomarán el control de todo. Ray Kurzweil, un controvertido ingeniero de Google, cree que esto ocurrirá en torno al año 2045, aunque otros defensores de la idea lo sitúan más adelante, quizás en el próximo siglo.

No faltan nombres relevantes entre los que creen no solo posible, sino muy probable, que se dé tarde o temprano la Singularidad. Entre ellos, los empresarios Elon Musk y Bill Gates, el historiador Yuval Noah Harari, los filósofos Nick Bostrom y David Chalmers, el físico Max Tegmark o el científico computacional Stuart Russell.

Sin embargo, para otros expertos en inteligencia artificial, como Gary Marcus, Ernest Davis, Margaret Boden, Erik J. Larson, Luc Julia (uno de los creadores de Siri), Luciano Floridi, Yann LeCun (científico jefe de inteligencia artificial en Meta) y, en nuestro país, Ramón López de Mántaras, este discurso no pasa de ser una tecnofantasía que ha conseguido atrapar la imaginación del público con sus predicciones apocalípticas. Lo novedoso, diría yo, es que las voces discrepantes de estos expertos comienzan a ser oídas.

¿Posible o imposible?

La cuestión de si tendremos alguna vez máquinas capaces de hacer máquinas más inteligentes ha sido analizada desde los orígenes mismos de la inteligencia artificial. Uno de los primeros en hacerlo fue uno de los pioneros, John von Neumann, y concluyó que este tipo de máquinas podría ser factible si alcanzáramos un nivel de complejidad suficientemente alto. La pregunta es justamente si alcanzaremos alguna vez ese nivel de complejidad en el que las máquinas puedan lograr una mejora recursiva, es decir, no solo mejorar en inteligencia, sino mejorar su capacidad para hacer máquinas mejores. No hay acuerdo en que tal cosa sea posible, aunque tampoco se ha demostrado que sea imposible.

Pero no hay que descuidar el hecho de que, antes de eso, tendríamos que haber logrado máquinas con inteligencia artificial general (AGI, por las siglas en inglés). Tal y como las definen dos teóricos de estas máquinas, son “sistemas de IA que poseen un grado razonable de autocomprensión y autocontrol autónomo, y tienen la capacidad para resolver una variedad de problemas complejos en una variedad de contextos, y para aprender a resolver nuevos problemas que no conocían en el momento de su creación”. Dejaremos aquí de lado, aunque es también un asunto relevante y discutido, si para que se produzca la Singularidad, esas máquinas deberían tener también autoconsciencia y voluntad (lo que las constituiría, por cierto, en agentes morales), y si ambas cosas surgirían espontáneamente como propiedades emergentes una vez alcanzado un cierto nivel de inteligencia. También aquí los desacuerdos son notables.

La IA ha experimentado un progreso sorprendente pero no se ha debido a ningún cambio revolucionario

La IA ha experimentado un progreso sorprendente desde mediados de la primera década de este siglo. Pero ello no se ha debido a ningún cambio revolucionario de paradigma, a ninguna gran transformación teórica. Como nos recuerdan Marcus y Davis en su libro Rebooting AI, se debe a dos factores más prosaicos: por un lado, el aumento en la capacidad de memoria y en la velocidad de computación del hardware y, por otro, el acceso a los big data (cantidades masivas de datos almacenadas en nuestros ordenadores) mediante algoritmos muy eficientes, como los del aprendizaje profundo, y redes neuronales más complejas. Sin embargo, en su opinión, ninguno de estos progresos nos sitúa cerca de la AGI. No basta con aumentar la capacidad de cómputo del hardware, el número de datos suministrados y la mejora de los algoritmos existentes para conseguir máquinas superinteligentes.

Recientemente, un sistema multimodal desarrollado por DeepMind ha sido presentado a la prensa como un “precursor de la inteligencia artificial general” y como un “agente generalista”. Gato, usando siempre misma red neuronal, con los mismos pesos, es capaz de realizar 604 tareas diferentes, entre ellas, reconocer imágenes, controlar un brazo robótico, jugar a Atari o chatear. No se limita, pues, a las tareas únicas que realizan los sistemas actuales y no tiene que ser reprogramado para pasar de una tarea a otra. Aprende a realizar tareas diversas al mismo tiempo. Nando de Freitas, un ejecutivo de DeepMind y principal firmante del artículo de presentación, afirmaba en Twitter que “el juego había acabado”, que ahora alcanzar a la inteligencia humana era solo cuestión de aumentar la escala de Gato. Sin embargo, no todos creen que Gato, al igual que otros sistemas previos multimodales, sea un paso significativo para alcanzar la AGI. Como Gary Marcus ha señalado, Gato puede realizar muchas tareas distintas, pero ha sido entrenado para realizar cada una de ellas y ante una nueva tarea no sería capaz de aprovechar todo lo aprendido en las anteriores, no podría analizarla lógicamente, razonar sobre ella y conectar esta nueva tarea con las otras, entendiendo que hay implicaciones relevantes entre ellas pese a pertenecer a contextos muy distintos. Algo así, sin embargo, sería posible si tuviera una verdadera comprensión de lo que está haciendo. No puede decirse, por tanto, que Gato tenga una mejor comprensión del mundo que los sistemas hasta ahora en uso.

Decisiones concretas

¿Por qué estos desacuerdos tan radicales? ¿A quién hacer caso? ¿Hemos de temer a las máquinas superinteligentes, que podrían extinguirnos no por maldad, sino por simple desinterés hacia nosotros, o hemos de creer que estas especulaciones son vanas y nos distraen de los verdaderos problemas que hoy suscita la IA, que son muchos, como el control de los datos y la pérdida de privacidad, la vigilancia mediante reconocimiento facial, sesgos racistas y sexistas en lo algoritmos, los ciberataques, la desinformación mediante chatbots, las armas autónomas, etc.? Quizás antes de preocuparnos por si habrá alguna vez AGI, deberíamos prestar atención a qué decisiones concretas estamos dispuestos en el futuro a poner en las máquinas inteligentes y cuáles serían sus efectos prácticos sobre nuestra existencia.

La incertidumbre en las predicciones sobre la tecnología es moneda común, pero es mucho más pronunciada con las tecnologías disruptivas

Una de las causas principales de la imprevisibilidad del futuro de la inteligencia artificial radica precisamente en el enorme potencial de desarrollo que encierra. Constituye, de hecho, un ejemplo claro de tecnología disruptiva. En este tipo de tecnologías, que implican discontinuidades no solo económicas o empresariales, sino también culturales, sociales e históricas, es casi imposible saber qué rumbo tomarán a medio y largo plazo su desarrollo y su gestión, y, por tanto, es difícil predecir los impactos sociales que tendrán. Es cierto que la incertidumbre en las predicciones sobre la tecnología en general es moneda común, pero es mucho más pronunciada en el caso de las tecnologías disruptivas. De lo que nadie duda es de que, tengamos o no pronto la AGI, los cambios van a ser muy profundos.

Quizá por ello, y puesto que no cabe descartar por completo las posibilidades más amenazantes, comienza a haber voces críticas que se manifiestan contra la pretensión de generar una AGI, al menos hasta no estar seguros de que podríamos mantener su control o infundir en ella valores morales (cosas ambas nada fáciles en principio). En lugar de ello, se ha propuesto incentivar la búsqueda de inteligencias artificiales que aumenten, mediante la cooperación, la propia inteligencia humana. En la gobernanza de la IA nos jugamos el futuro y no podemos dejar las decisiones más importantes en manos de esos mismos sistemas, ni tampoco en manos de quienes dirigen las empresas dedicadas a su creación. La discusión sobre este asunto ya ha comenzado, y está generando reflexiones interesantes, pero va siendo hora de concretar también las instituciones adecuadas para hacer efectivas las normas que regulen la investigación y la aplicación de esta tecnología.

Sería difícil encontrar un campo de investigación tecnocientífica en el que las discrepancias acerca del alcance de lo conseguido hasta el momento, así como de lo que es probable que se pueda conseguir en las próximas décadas, sean mayores que en el de la inteligencia artificial (IA). La imagen popular y las expectativas generadas por la ciencia ficción, alimentadas por algunos científicos de renombre externos al campo, como Stephen Hawking, han dominado con frecuencia sobre los análisis de los especialistas, que suelen ser más prudentes.

Inteligencia Artificial Elon Musk