EL PROGRESO ES UN ARMA DE DOBLE FILO

La amenaza que acabará con el ser humano en 2050

La llegada de la súper inteligencia artificial es inevitable. Muchos temen qué pasará cuando la desarrollemos. Y no todas las predicciones juegan a nuestro favor

Foto: La tecnología está en camino de sobrepasar la capacidad humana de razocinio. (iStock)
La tecnología está en camino de sobrepasar la capacidad humana de razocinio. (iStock)

En 2050, todos muertos. Este es uno de los escenarios posibles que plantea Jeff Nesbit, ex director de asuntos legislativos públicos en la Fundación de Ciencias de Estados Unidos. El otro es bien diferente: que nuestra especie se vuelva virtualmente inmortal. ¿Cuál es la razón de semejante amenaza o bendición para la humanidad? Nada menos que su ardiente deseo por innovar y, en concreto, el desarrollo de la inteligencia artificial (IA).

Cuando hablamos de IA nos referimos a la simulación de las máquinas para hacer cosas para las que los humanos necesitarían inteligencia como, por ejemplo, entender un lenguaje, reconocer caras en las fotos, conducir un vehículo o adivinar qué libros nos pueden gustar con base en nuestras elecciones pasadas. Es, digamos, la diferencia entre un brazo mecánico programado para hacer la misma tarea una y otra vez con otro que aprende a base de prueba y error.

Los seres humanos, limitados por nuestra lenta evolución biológica, pronto seremos superados por la inteligencia artificial

La evolución final de este proceso es la llamada súper-inteligencia artificial, que aprendería tan rápido que sobrepasaría la capacidad humana de razocinio y supuestamente ayudaría a resolver los problemas a los que se enfrenta la humanidad. Este mundo de IA es hoy una perspectiva muy real y próxima. No es una cuestión de si pasará o no, sino de cuándo.

En este escenario, nos enfrentamos a la angustiosa pregunta de si podría llegar a ser peligrosa o si, por el contrario, sus beneficios superarían a su temido potencial. La mayoría de expertos creen que la súper IA es inevitable. Alcanzaremos este punto en el siglo XXI, algunos hablan de 2050. Y muchos temen qué pasará cuando lo sobrepasemos. No todas las predicciones juegan a nuestro favor.

La super IA está muy cerca

Existe un lado oscuro y amenazante de la inteligencia artificial que ahora está empezando a sobresalir. El físico Stephen Hawking ha alertado en una entrevista con la BBC de que el desarrollo de la plena IA podría significar el fin de nuestra especie: “Una vez que desarrollemos la inteligencia artificial, esta despegará por sí misma y se rediseñará a un ritmo cada vez mayor. Los seres humanos, limitados por su lenta evolución biológica, no podrán competir y serán superados”.

En este sentido, Elon Musk, CEO de Tesla Motors y otras empresas de innovación tecnológica (lo más parecido a Tony Stark en la realidad), advirtió durante su encuentro con estudiantes del MIT de que estos progresos “están convocando al demonio”: “Cada vez me inclino más a pensar que debería haber alguna supervisión reguladora, tal vez a nivel nacional o internacional, tan solo para asegurarnos de que no hagamos algo tonto”.

Desde que el fuego sirve para calentarnos y quemar pueblos enteros, la tecnología ha sido siempre una espada de doble filo

Asimismo, Bill Gates, cofundador de Microsoft y apasionado defensor del progreso tecnológico, también ha expresado públicamente sus reticencias: “Primero las máquinas harán mucho por nosotros sin ser súper inteligentes. Esto debería ser positivo si lo manejamos bien. Una pocas décadas después, su inteligencia será lo suficientemente grande como para preocuparnos. Estoy de acuerdo con Musk y algunos otros en esto, y no entiendo por qué algunas personas no están preocupadas”.

Posiciones enfrentadas

Gates se refiere, en gran medida, a Raymond Kurzweil, eminente futurista que juega el rol del optimista en este debate: “Si la inteligencia artificial se convierte en una amenaza existencial, no sería la primera La tecnología ha sido siempre una espada de doble filo, desde que el fuego nos servía para mantenernos calientes y quemar pueblos enteros”, señala en un ensayo publicado en 'Time'.

Las predicciones de Kurzweil son famosas, incluso hay una página de Wikipedia que las detalla una a una. Llegaremos, según el director actual de ingeniería de Google, a un escenario en el que la esperanza de vida será irrelevante para la especie humana y alcanzaremos un estado de inmortalidad virtual.

Comenzar una carrera armamentística con la IA es una mala idea y se debe evitar mediante la prohibición de las armas autónomas

“En las próximas décadas tendremos la oportunidad para abordar los grandes desafíos de la humanidad. La inteligencia artificial será la tecnología clave en este proceso. Tenemos el imperativo moral de cumplir esta promesa a la vez que controlar el peligro. No sería la primera vez que lo conseguiríamos”. La visión de Kurzwell encaja a la perfección con la icónica frase de Isaac Asimov sobre el tema: “No temo a los ordenadores, sino la falta de ellos”.

El peligro de las armas autónomas

Aun así, los miedos a que algo parecido al Skynet de Terminator se rebele sobrepasan la gran pantalla. La evolución de la guerra es el mejor de los ejemplos, asegura Nesbit. La pólvora y las bombas nucleares representan los mayores avances de la tecnología bélica hasta el momento, y las armas autónomas significarán la tercera revolución. “Una vez se creen tales armas, puede que no haya vuelta atrás”, advierte Nesbit.

Foto: iStock.
Foto: iStock.

Para intentar que el desarollo de estas tecnologías beneficie al mundo en lugar de destruirlo, figuras relacionadas con la innovación como Musk, Hawking o el cofundador de Apple Steve Wozniak alertaban sobre la cara más oscura del progreso: “Comenzar una carrera armamentística con la IA es una mala idea y se debe evitar mediante la prohibición de las armas que funcionen más allá del control humano”.

Este compromiso fue ratificado este año en los 23 principios de Asomar. Uno de los firmantes es el director del Instituto de Investigación de Inteligencia Artificial del CSIC, Ramón López de Mantaras, pionero de este campo en nuestro país. En declaraciones a El Confidencial señaló: "El día en que las guerras se luchen entre máquinas será mucho más fácil que se produzcan, ya que hoy son las pérdidas humanas las que frenan a los países. Esto es terrible porque cada conflicto produce bajas civiles y efectos colaterales. Y aunque sean robots, no creo que peleen en medio del desierto".

Pese a la preocupación de los grandes nombres internacionales, los gobiernos han ignorado hasta el momento las amenazas que la IA plantea para nuestra existencia. Tal vez no crean que ese escenario sea posible, pero, como advierte Nesbit, cualquier avance fue una vez considerado como una utopía.

Alma, Corazón, Vida

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
0 comentarios
Por FechaMejor Valorados
Mostrar más comentarios