los pensadores del fin del mundo

Estos son los once hombres destinados a salvar a la Humanidad

En 2005, el filósofo sueco Nick Brostom fundó en la Universidad de Oxford el Future of Humanity Institute, un centro que estudia cuáles son las principales amenazas a las que nos enfrentamos

Foto: De izq. a dch.: Anders Sandberg, Nick Bostrom, Stuart Amstrong, Simon Beard, Owain Evans y Niel Bowerman. (FHI)
De izq. a dch.: Anders Sandberg, Nick Bostrom, Stuart Amstrong, Simon Beard, Owain Evans y Niel Bowerman. (FHI)

Si hay algo que distingue la acción política y económica en nuestros tiempos (y, salvo contadas excepciones, durante toda la historia) es su cortoplacismo. Nuestros líderes se preocupan por no llevar a sus países o empresas a la quiebra en lo que dura su mandato y no piensan más allá.

Pero hay problemas que no pueden solucionarse sin una debida planificación en el tiempo. El caso más evidente es el cambio climático, un problema de una magnitud semiapocalípitica que la comunidad internacional ha tardado décadas en aceptar sólo para llegar a un tibio acuerdo que, quizás, llega demasiado tarde.

Por eso es tan importante el trabajo de algunos académicos que se preocupan por mirar más allá, identificando los problemas que pueden afectar a la Humanidad en las próximas décadas, siglos o milenios, pero para los que deberíamos empezar a prepararnos.

En 2005, el filósofo sueco Nick Brostom –uno de los 100 pensadores más influyentes del mundo según la revista 'Foreign Policy'– fundó en la Universidad de Oxford el Future of Humanity Institute (FHI), un centro de investigación interdisciplinar que trabaja para predecir y prevenir los riesgos a largo plazo a los que se enfrentará la civilización, y que ha recibido importantes apoyos (intelectuales y financieros) de personalidades como Stephen Hawking, Bill Gates o Elon Musk.

Según los miembros del centro, existe un 80% de posibilidades de que la IA supere a los humanos en el próximo siglo

Los científicos del centro han publicado cientos de artículos sobre las distintas amenazas a las que tendrá que enfrentarse la Humanidad: catástrofes naturales de todo tipo (supervolcanes, terremotos, tsunamis…), desastres astronómicos (erupciones solares, supernovas, impacto de meteoritos o rayos cósmicos), pandemias y bioterrorismo (la resistencia de los antibióticos es uno de sus mayores campos de estudio), guerra nuclear, riesgos institucionales…

“Nuestras tres últimas conversaciones durante la comida han versado sobre asuntos que van de la distribución de la energía en el universo al totalitarismo o el aprendizaje por refuerzo inverso”, explica en 'The Telegraph' el doctor Niel Boweman, el subdirector del instituto, que arrastra un deslumbrante CV que incluye una investigación sobre el cambio climático para el Banco Mundial cuando aún era un doctorando.

Hay quien se prepara ya para el Apocalipsis. (iStock)
Hay quien se prepara ya para el Apocalipsis. (iStock)

El mayor desafío de la Humanidad

Pese a que el campo de acción del Instituto es ilimitado, su área de estudio más conocida –y en la que es realmente pionero– es la amenaza que supondrá para la Humanidad el auge de la Inteligencia Artificial.

En opinión de Brostom y compañía, la singularidad tecnológica –esto es, el momento en que las redes informáticas y los robots seran capaces de “automejorarse”– puede llegar más pronto que tarde. Según los miembros del centro, existe un 80% de posibilidades de que la IA supere a los humanos en el próximo siglo, un evento catastrófico para el que deberíamos estar preparados.

En la actualidad, el FHI está formado por once investigadores a tiempo completo, expertos en nanotecnología, demografía, geología, astronomía…

“El problema de este tipo de desarrollo es que se enmarque al margen de las leyes morales y éticas. Si definitivamente se produce este salto al vacío de la inteligencia artificial, sin antes fijar unas normas y restricciones concretas, podríamos enfrentarnos a un gran desastre”, advierte el futurólogo Anders Sandberg, mano derecha de Brostom en el FHI.

Aunque Sandberg reconoce que es complicado adelantarse a las consecuencias de los avances tecnológicos, cree que “tienen un claro potencial para propiciar desastres de gran magnitud porque estos avances se imponen a gran velocidad, dejando a la sociedad sin tiempo para reaccionar”. La seguridad, añade, es prácticamente inexistente en este terreno, pues seguimos aplazando los problemas innatos a la inteligencia artificial. Y es por eso que se necesitan nuevos talentos que trabajen para abrazar los adelantos tecnológicos con seguridad.

El auge de la IA puede traer muchos avances, pero debe ser convenientemente supervisada. (Corbis)
El auge de la IA puede traer muchos avances, pero debe ser convenientemente supervisada. (Corbis)

En busca de nuevos cerebros

En la actualidad, el FHI está formado por once investigadores a tiempo completo, expertos en nanotecnología, demografía, geología, astronomía… Pero Bostom quiere ampliar la plantilla con tres nuevos científicos especialistas en el estudio de la Inteligencia Artificial. “Si tenemos razón y este es el área más importante en la que estamos trabajando, entonces este es casi el único sitio del mundo en el que deberían trabajar, porque trabajarías en el problema más importante y con el mayor grupo que está trabajando en él”, ha explicado el filósofo en 'The Telegraph'.

¿Suena bien el trabajo? El Instituto sigue recibiendo currículos de candidatos, que deben incluir una carta con sus aspiraciones y una propuesta de investigación. Pero no será fácil que te den el trabajo. “Lo más importante en los candidatos es su capacidad intelectual y la habilidad de plantearse nuevas cuestiones, incluso cuando no hay una receta predefinida clara o un método para plantearse qué va a ocurrir cuando se haga eso”, explica Bostrom. “Hasta cierto punto sabemos quién vale cuando le vemos. Estas personas son difíciles de encontrar”.

Puedes cumplimentar tu candidatura en la página web del instituto hasta el próximo 6 de enero.  

Alma, Corazón, Vida

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
1comentario
Por FechaMejor Valorados
Mostrar más comentarios