Es noticia
Las cuatro amenazas que pueden acabar con la humanidad, según Stephen Hawking
  1. Alma, Corazón, Vida
EL FÍSICO SE DECLARA “OPTIMISTA”

Las cuatro amenazas que pueden acabar con la humanidad, según Stephen Hawking

El popular científico recuerda que, a medida que se producen más avances tecnológicos, las posibilidades de que estas acaben con nosotros también se multiplican

Foto: El científico asegura que nos encontramos en un momento decisivo en la historia del hombre. (Reuters/Toby Melville)
El científico asegura que nos encontramos en un momento decisivo en la historia del hombre. (Reuters/Toby Melville)

De un tiempo a esta parte, Stephen Hawking se ha convertido en uno de los grandes agoreros del mundo. Probablemente consciente de que no hay otra persona en el planeta con una reputación mayor, y que nadie goza de una autoridad como la suya en el mundo científico, ha señalado con frecuencia cuáles son los grandes peligros con los que la humanidad debe enfrentarse durante las próximas décadas (o siglos, si es que llegamos).

La última ocasión ha sido el pasado 19 de enero, cuando el autor de 'Breve historia del tiempo' participó en las Reith Lectures, una serie de charlas producidas de forma anual por la BBC y cuyo origen se remonta al año 1948, cuando fueron creadas gracias al director general de la cadena, John Reith. Hawking ha aprovechado la ocasión para recordar que “aunque la posibilidad de que haya un desastre en el planeta Tierra en un año determinado sea muy baja, aumenta a medida que pasa el tiempo, y se convierte en algo casi seguro en los próximos mil o diez mil años”.

¿Qué pasaría si Yoshihiro Kawaoka perdiese el control de su cepa mortal del virus de la gripe aviar que, potencialmente, podría eliminar al 5% de la población?

Visto así, suena como la teoría de la singularidad versión Kurzweil llevada al apocalipsis: si esta asegura que el crecimiento exponencial de la velocidad con la que surgen los avances tecnológicos provocará que más pronto que tarde el hombre llegue a un nuevo estadio de la evolución, Hawking asegura que ello también hace aumentar los riesgos asociados.

“Es importante asegurarse de que estos cambios se producen en las direcciones correctas”, explicó a la BBC. “En una sociedad democrática, esto significa que todo el mundo debería poseer un entendimiento básico de la ciencia para tomar decisiones sobre el futuro informadas”. Pero ¿cuáles son exactamente esas amenazas que se ciernen sobre el ser humano? Todas ellos tienen algo en común: han sido creadas por nosotros mismos.

Virus creados en laboratorio

El célebre científico con ELA cita a los “virus creados genéticamente” como una de las grandes amenazas para el hombre. Con ello, probablemente no se refiera únicamente a una guerra bacteriológica que enfrente a dos grandes potencias y que cada vez resulta más probable, tampoco al bioterrorismo, sino también a otros escenarios, en apariencia, menos evidentes.

Uno de ellos es el descontrol de los experimentos en laboratorio. ¿Qué pasaría, por ejemplo, si el profesor de la Universidad de Wisconsin Yoshihiro Kawaoka perdiese el control de su cepa mortal del virus de la gripe aviar que, potencialmente, podría eliminar al 5% de la población? Cuanto más tiempo pasa, más probable es que un fatal error se produzca.

Las bacterias están adaptándose, evolucionando y haciéndose resistentes a los fármacos modernos

Por otra parte se encuentran las superbacterias, que han llegado a ser un tema de conversación en la última reunión de Davos y que pueden provocar que muchos antibióticos queden obsoletos pronto. Como aseguraba Sally Davis, directora del consejo de la Salud del Reino Unido, “las bacterias están adaptándose, evolucionando y haciéndose resistentes a los fármacos modernos”.

Holocausto nuclear

Un miedo que a día de hoy suena a reducto de la Guerra Fría. Sin embargo, desde el momento en el que el hombre diseñó la primera bomba nuclear, la amenaza ha estado siempre presente. Como señaló Hawking en una entrevista con 'The Independent' el pasado año, nuestra agresividad nos puede llevar a la tumba. “El error humano que me gustaría corregir es su agresividad”, explicaba. “Pudo tener una ventaja evolutiva en los días del hombre de las cavernas para conseguir más comida, territorio o una pareja con la que reproducirse, pero ahora amenaza con llevarnos a todo por delante”.

No olvidemos que, de vez en cuando, el miedo nuclear reemerge: hace apenas unas semanas que Corea del Norte anunció que había detonado una bomba de hidrógeno. Sin embargo, el holocausto nuclear no sería terrible tan sólo por las incontables bajas causadas por una detonación, sino también por las consecuencias posteriores, entre las que se cuentan la contaminación del suelo (incultivable) y el agua (insalubre) o la alteración de las temperaturas.

Cambio climático

Hemos vivido el año más caluroso desde que tenemos datos, algo que ha terminado por convencer incluso a los más escépticos. Hawking ha alertado en repetidas ocasiones acerca de la alteración de la temperatura global en la que ya estamos implicados. Como declaró en una entrevista de 2006 con la ABC, “el peligro del calentamiento global es que se haya hecho autosuficiente”.

Ello quiere decir, básicamente, que es irreversible. “El derretimiento de los polos de hielo del Ártico y la Antártida reduce la cantidad de energía solar que se refleja en el espacio, y eso incrementa la temperatura aún más”, explicaba el autor de 'El gran diseño'. “El cambio climático puede acabar con el Amazonas y otros bosques lluviosos, y liquidar una de las formas en que el dióxido de carbono es eliminado de la atmósfera. El aumento en la temperatura del mar puede provocar la liberación de grandes cantidades de dióxido de carbono, atrapado como hidruro en el suelo oceánico. Estos fenómenos pueden incrementar el efecto invernadero, y llevar el calentamiento global aún más lejos”. Un círculo vicioso del que, parece, nos va a resultar muy difícil salir.

Inteligencia artificial asesina

Ya lo advirtió en la carta abierta que el pasado mes de julio publicó junto a otros científicos y pensadores como Daniel Dennett, Noam Chomsky, Elon Musk o Steve Wozniak en el Future of Life Institute. “La pregunta más acuciante para la humanidad hoy en día es si empezar una carrera armamentística de inteligencia artificial o evitarlo antes de que ocurra”, señalaba. La misiva recordaba que resulta muy tentador apostar por armamento robótico, puesto que este reduce las bajas humanas. Sin embargo, no hace falta pensar en cyborgs con una ametralladora en cada brazo: la proliferación armamentística puede dar lugar a un escenario muy cercano en el que terminen en manos de terroristas.

La carta recordaba que, de igual manera que los químicos y biológicos se han comprometido a trazar límites firmes en la creación de armamento en sus respectivos campos, lo mismo debería aplicarse al armamento IA. Eso sin tener en cuenta que la aparición de robots cambiará la manera en que el hombre se relacione con el mercado laboral.

Cuidado con los próximos 100 años

Hawking relativiza la posibilidad de que el ser humano sea eliminado por cualquiera de estas amenazas aunque, eso sí, traza una frontera con la cual deberíamos tener cuidado, y que se encuentra en el próximo siglo: “No vamos a establecer colonias autoabastecidas en el espacio durante al menos los siguientes cien años, así que debemos tener cuidado durante ese período”, explicaba el científico a la BBC. A partir de entonces, muchas de las amenazas que se ciernen sobre la raza humana, como el calentamiento globalo la aniquilación nuclear, no serán mortales. “Para ese momento, nos habremos desplazado al espacio, a otras estrellas, así que un desastre en la Tierra no significaría el fin de la raza humana”.

A pesar del discurso inequívocamente apocalíptico, Hawking se considera optimista. “No vamos a parar el progreso o darle la vuelta, así que debemos reconocer los riesgos y controlarlos”, explicaba el popular físico. “Desde mi punto de vista, ha sido una época maravillosa para estar vivos e investigar en teoría de la física. No hay nada como el momento Eureka de descubrir algo que nadie conocía antes”. Todo deseo conlleva una maldición, y todo adelanto, un peligro.

De un tiempo a esta parte, Stephen Hawking se ha convertido en uno de los grandes agoreros del mundo. Probablemente consciente de que no hay otra persona en el planeta con una reputación mayor, y que nadie goza de una autoridad como la suya en el mundo científico, ha señalado con frecuencia cuáles son los grandes peligros con los que la humanidad debe enfrentarse durante las próximas décadas (o siglos, si es que llegamos).

Inteligencia Artificial
El redactor recomienda