Es noticia
Así es como los científicos creen que se extinguirá la humanidad (y cómo salvarnos)
  1. Alma, Corazón, Vida
Todavía se puede remediar

Así es como los científicos creen que se extinguirá la humanidad (y cómo salvarnos)

El ser humano se enfrenta a cuatro grandes amenazas, según prestigiosos científicos como Peter Singer, Stuart J. Russell o Stephen Hawking

Foto: Imagen ficticia de la Estatua de la Libertad arrastrada por las olas. (iStock)
Imagen ficticia de la Estatua de la Libertad arrastrada por las olas. (iStock)

Por alguna extraña razón al ser humano le encanta jugar a imaginar su final, pero no es casualidad que las novelas distópicas y las películas ambientadas en futuros apocalípticos arrasen, sino que hay motivos para pensar que el riesgo de que la especie se extinga es real. Al menos, así lo consideran los científicos del Centro para el Estudio de Riesgo Existencial (CSER) de la Universidad de Cambridge, que desde 2015 estudian cómo evitar un destino similar al de los dinosaurios.

De este proyecto forman parte expertos en economía política, inteligencia artificial, riesgos medioambientales, ingeniería genética y, en definitiva, cualquier ámbito que pueda arrojar luz sobre los peligros del futuro. Además, cuenta con el asesoramiento de eminencias como el profesor de bioética de Princeton Peter Singer, el pionero de la computación Stuart J. Russell o el gurú tecnológico Elon Musk. Incluso el físico Stephen Hawking aportó su granito de arena durante los últimos años de su vida.

Todas estas mentes brillantes coinciden en una idea fundamental: el ser humano es el mayor riesgo para sí mismo y, por tanto, sólo el ser humano puede salvarse a sí mismo. En concreto, hay cuatro grandes riesgos que preocupan a los académicos:

Un virus mortal

Condicionados por las circunstancias actuales, lo más lógico sería pensar que una pandemia puede ser la causa que acabe con el ser humano. No es descabellado. Los virus son más antiguos que la humanidad, pero el mundo está más interconectado que nunca y eso hace más vulnerable a la especie. "Existe una compensación en las pandemias naturales entre transmisibilidad y letalidad: si un patógeno mata a su huésped demasiado rápido, el huésped no puede infectar a muchas otras personas. Pero debido a los avances biotecnológicos, pronto será posible diseñar patógenos para que sean más infecciosos, más mortales y tengan un inicio tardío, y por lo tanto sean mucho más peligrosos", advierte el CSER.

El comité apunta, por ejemplo, a las 'tijeras' genéticas CRISPR, recién premiadas con el Nobel, como una gran oportunidad de avanzar, pero al mismo tiempo advierte de que puede ser "un arma de doble filo". "Una pandemia diseñada por el hombre podría escapar de un laboratorio o podría usarse deliberadamente como arma. Durante el siglo XX, varios países tenían programas de armas biológicas administrados por el Estado y sabemos de varios grupos no estatales que han intentado adquirir armas biológicas", alerta. En palabras de Martin Rees, uno de los fundadores de la organización: "La aldea global tendrá sus idiotas de aldea y estos tendrán alcance global".

"La aldea global tendrá sus idiotas de aldea y estos tendrán alcance global"

A juicio del CSER, la mejor manera de mantener a raya a los "idiotas de aldea" es garantizar la libertad científica y la responsabilidad de los expertos en bioseguridad. Para ello, se necesitan mecanismos internacionales capaces de dar respuesta a posibles injerencias de los poderes fácticos, como una Convención de Armas Biológicas fuerte, según opina Catherine Rhodes, directora ejecutiva de la institución de Cambridge. Además, Rhodes ve necesario desarrollar una educación en bioseguridad y bioética, así como mejorar los instrumentos de control científico sobre armas biológicas y químicas.

El cambio climático

A estas alturas, puede hablarse de un consenso científico sobre el impacto del ser humano en su entorno, hasta el punto de que la Tierra vive una nueva etapa geológica bautizada como Antropoceno. No obstante, el consenso científico no tiene por qué traducirse en uno social y, mucho menos, político, tal y como recuerda el profesor de la Universidad de Málaga Manuel Arias en su libro 'Antropocoeno: la política en la era humana'. En esta afirmación radica el peligro de que la humanidad actúe demasiado tarde.

El CSER recuerda que las concentraciones de gases invernaderos están en los niveles más altos que ha experimentado el planeta a lo largo de miles de años. "Es probable que este nivel de cambio climático sea un motor de inseguridad internacional con el potencial de aumentar otros riesgos catastróficos", alerta el centro. Por ejemplo, los economistas Wagner y Weitzman estiman que, de seguir a este ritmo, las temperaturas podrían aumentar hasta en seis grados en un futuro no muy lejano. Un cambio tan brusco en los ecosistemas puede amenazar recursos como el agua, los alimentos o la energía y, por tanto, poner en peligro millones de vidas.

Solventar un problema de este calado no es fácil. Asaf Tzachor, líder del proyecto sobre seguridad alimentaria y riesgos catastróficos del CSER, propone aplicar el concepto de desarrollo sostenible en el marco de la teoría del capital, es decir, que los gobiernos nacionales intervengan sobre el capital natural, el capital económico, el capital humano y el capital social para que el desarrollo de un país sea sostenible a largo plazo y se cumplan los objetivos marcados por la ONU en la Cumbre sobre la Acción Climática. Por otra parte, el CSER insta a analizar las implicaciones de controvertidas iniciativas científicas como la gestión de la radiación solar, una técnica que consiste en proyectar pequeñas partículas reflectantes en la atmósfera para bloquear la luz del sol y, por lo tanto, limitar los aumentos de temperatura. Los efectos secundarios de la geoingeniería solar aún son inciertos y la idea podría distraer a los responsables políticos de reducir las emisiones.

La revolución de las máquinas

La ficción no anda muy desencaminada. La Inteligencia Artificial (IA) avanza a pasos agigantados, lo cual abre la puerta a descubrimientos científicos, servicios más baratos y avances médicos, pero también a nuevas amenazas. No obstante, el verdadero riesgo puede no ser tan maniqueo como el que se muestra en 'Matrix' o 'Yo robot': "A medida que los sistemas de IA se perfeccionan, pueden volverse superiores al rendimiento humano en muchos ámbitos. Esto podría conducir a desarrollos extremadamente positivos, pero también podría plantear riesgos catastróficos en materia de seguridad".

En realidad, los científicos de Cambridge distinguen entre 'safety' y 'security', palabras con una misma traducción al español pero con significados distintos. La primera de ellas hace referencia a riesgos fortuitos, como por ejemplo que un sistema informático del que dependen las vidas de cientos de personas falle y dé lugar a un accidente sin parangón. Con 'security' se alude a actos de naturaleza intencionada, como que la inteligencia artificial se convierta en un importante activo militar y alguien lo use para provocar el daño a sus semejantes. También podría ocurrir que la carrera por el dominio de los robots como pilar económico desencadene una nueva Guerra Fría.

"Mitigar el riesgo y lograr los beneficios globales de la IA presentará desafíos de gobernanza únicos y requerirá cooperación y representación global", apunta el CSER. Organizaciones como OpenAI, DeepMind o Center for Human-Compatible AI han abierto camino a la investigación sobre la seguridad del aprendizaje automático, mientras que los expertos en Ciencias de la Computación de Cornell University en Ithaca (Nueva York) resumen en cuatro las recomendaciones para que la tecnología no se vaya de las manos:

  1. Los gobernantes deben colaborar estrechamente con investigadores técnicos para analizar, prevenir y mitigar posibles usos maliciosos de la IA.
  2. Investigadores e ingenieros de IA deben considerar los riesgos su trabajo, permitiendo que se establezcan normas de investigación para prevenir el mal uso de sus recursos y denunciando a las instituciones los posibles usos maliciosos de la tecnología.
  3. Deben adoptarse protocolos de seguridad partiendo de ámbitos más maduros como la seguridad informática. Por ejemplo, se podría incluir el 'red teaming', un test de seguridad para encontrar posibles vulnerabilidades.
  4. Sería recomendable ampliar los campos implicados en el desarrollo de la inteligencia artificial, de manera que involucre a representantes de la sociedad civil, expertos en seguridad nacional, en ciberseguridad y en ética.

La desigualdad global

Ya sea por alguno de los motivos anteriores o por la propia dinámica del sistema económico, la civilización puede colapsar a causa de las desigualdades. "Si bien los riesgos que enfrenta actualmente la humanidad no tienen precedentes, existe una rica historia de eventos globales catastróficos de los que podemos aprender, incluidos casos de pérdida masiva de vidas y de culturas", señala el CSER. "Por ejemplo, la colonización europea de las Américas resultó en la pérdida potencial de más del 80% de las poblaciones indígenas".

"El privilegio continuo de las instituciones globales de élite (incluidos el CSER y la Universidad de Cambridge) se basa en un legado que ha contribuido y sigue contribuyendo a la imposición de catástrofes y riesgos de catástrofes para toda la humanidad", reconoce la institución. Sin ir más lejos, los ecos de la colonización europea son palpables a día de hoy, pues las enfermedades tropicales reciben mucha menos atención en la academia que otras patologías. Quién sabe si la próxima pandemia surgirá, de nuevo, lejos de Occidente. O lo que es más acuciante, quién puede asegurar que se erradicará el covid-19 si hay países que ni siquiera pueden costearse las vacunas.

Foto: Cerdos en edad de sacrificio en una granja de Iowa. (Efe)

"Las soluciones a este profundo problema requerirán una mayor cooperación entre las personas", reclama el profesor emérito de Economía en Saint John's College Partha Dasgupta, miembro del equipo del CSER dedicado al estudio de la desigualdad. "El auge del fundamentalismo del mercado y el impulso al crecimiento de las ganancias y el producto interno bruto (PIB) han fomentado un comportamiento que está en desacuerdo con la búsqueda del bien común", añade. De ahí que el futuro de la humanidad dependa de una globalización más equitativa.

Por alguna extraña razón al ser humano le encanta jugar a imaginar su final, pero no es casualidad que las novelas distópicas y las películas ambientadas en futuros apocalípticos arrasen, sino que hay motivos para pensar que el riesgo de que la especie se extinga es real. Al menos, así lo consideran los científicos del Centro para el Estudio de Riesgo Existencial (CSER) de la Universidad de Cambridge, que desde 2015 estudian cómo evitar un destino similar al de los dinosaurios.

El redactor recomienda