Vivirás peor para que dentro de 1.000 años otros vivan mejor: la peligrosa propuesta de dos filósofos de Oxford
  1. Alma, Corazón, Vida
EL 'LARGOPLACISMO' RADICAL

Vivirás peor para que dentro de 1.000 años otros vivan mejor: la peligrosa propuesta de dos filósofos de Oxford

Nos adentramos en una emergente corriente ideológica que postula poner el foco en problemas muy a largo plazo para la humanidad y no tanto a los más reales y acuciantes

Foto: Fuente: iStock.
Fuente: iStock.

"La humanidad de hoy en día es como un adolescente irresponsable". Y, como tal, siguiendo esta metáfora incluida en un 'paper' del que hablaremos más adelante, está más empeñada en pensar en qué hará el fin de semana o cómo va a ahorrar para pagarse el viaje de fin de curso. Sin embargo, de telón de fondo aparece la cuestión de qué va a hacer cuando su período formativo acabe, qué carrera querrá estudiar o qué trabajo desempeñará. Además, en su presente inmediato se le presentan una serie de problemas que también determinarán su futuro: la relación con sus padres, su nivel de aceptación a las voces de autoridad, el control de su carácter, su capacidad de adaptación a los cambios bruscos que puedan ocurrir o su resistencia a caer en vicios que condicionarían su salud a largo plazo.

Esta alegoría puede ser útil para adentrarnos en la cosmovisión que recorre algunas de las academias más importantes del mundo. De un tiempo a esta parte, la sensación de que estamos al final de algo impregna la sensibilidad de los seres humanos que habitamos este planeta a comienzos del siglo XXI. La industria cultural está repleta de narraciones apocalípticas que dibujan un futuro muy negro para la humanidad. Experiencias inéditas en la historia como una pandemia global en plena era de la globalización nos han hecho comprobar cómo en cuestión de días todo puede venirse abajo sin que podamos hacer nada. Mientras tanto, amenazas tales como el cambio climático, la irrupción de la robótica e inteligencia artificial en nuestro mercado de trabajo o la desigualdad social que no deja de aumentar, ponen contra las cuerdas las esperanzas de que todo vaya a salir bien.

"Si la historia de la humanidad fuera una saga de novelas, solo estaríamos en la primera página"

Todo final da pie a un comienzo, y es posible que los humanos estemos a un paso de cumplir la mayoría de edad. Ahora bien, en nuestra mano está pensar a largo plazo para ser responsables y consecuentes. Así lo creen pensadores como Toby Ord, investigador del Instituto Futuro de la Humanidad de Oxford, quien el año pasado publicó 'The Precipice' ("El Precipicio"), el cual, pese a su pesimista título, auguraba unos años venideros apasionantes en caso de que logremos evitar una serie de "riesgos existenciales" que provoquen un colapso civilizatorio, entre los que destacan el calentamiento global, el uso de armas biológicas o una mala utilización de herramientas tan decisivas y peligrosas como la inteligencia artificial. De alguna forma, y siguiendo la metáfora del inicio, el filósofo británico se presentó como un padre cándido y comprensivo frente a una 'humanidad adolescente e irresponsable', esquivando las cenizas predicciones de tantos agoreros de infortunios futuros que abundan en nuestra época.

Foto: Toby Ord.

Ord pertenece a una escuela de intelectuales británicos ya consolidada, el altruismo efectivo o eficaz (EA, por sus siglas en inglés) que, como su propio nombre indica, aboga por la resolución ética y racional de los grandes problemas a los que se enfrenta la humanidad de ahora en adelante. Desde el 2009 han centrado sus esfuerzos en determinar cuáles son las prioridades a las que debemos prestar atención para no extinguirnos ante un hipotético colapso natural, humano o socioeconómico, así como para mejorar la calidad de vida del mayor número de vidas posible en el planeta. Entre sus filas destacan potentes inversores y CEO de grandes industrias de firmas tecnológicas, como Peter Thiel, cofundador de PayPal o el cofundador de Facebook, Dustin Moskovitz.

El 'largoplacismo' radical

"Si la historia de la humanidad fuera una saga de novelas, tan solo estaríamos en la primera página". Este bien podría ser el 'lied' argumental de una de las corrientes asociadas a su escuela de pensamiento y divulgación, el 'largoplacismo' ("longtermism"), la cual considera que nuestra historia en el planeta Tierra no ha hecho más que comenzar, y que estamos al borde de un gran cambio que se producirá entre 100 y 1.000 años más tarde, cuando los sueños transhumanos de fusionarnos con las máquinas se hagan realidad y consigamos colonizar nuevos planetas. De ahí la necesidad de seguir invirtiendo altas sumas de dinero en la tecnología más puntera que nos haga dar el salto hacia ese horizonte lejano propio de la ciencia ficción. Ninguno de nosotros estaremos ahí para verlo; no obstante, según estos autores, deberíamos centrarnos en elaborar planes que generen un gran impacto a muy largo plazo para asegurar un destino a la especie humana.

La calidad de vida de los humanos será muchísimo más alta en el futuro que ahora debido a su expansión por todo el Sistema Solar

En julio de este año el Global Priorities Institute (GPI) de la Universidad de Oxford, dedicado al análisis de estos "riesgos existenciales" para identificar cuáles de ellos son los más apremiantes, publicaba un estudio que iba un paso más allá en los fundamentos y propósitos de esta corriente. En él, los investigadores Hilary Greaves y William MacAskill abogaban por una postura más radical o como mínimo más vehemente de la línea de pensamiento 'largoplacista', bautizándola como 'strong longtermism'. En resumen, solicitan a las élites políticas y económicas mundiales centrar todos los esfuerzos en evitar una extinción de la humanidad, ya sea por causas climáticas o ante el peligro de que emerja un estado totalitario que sustente su tiranía con el uso inteligencia artificial en el plano social y bélico. Y, a su vez, seguir reforzando la inversión en el proceso de digitalización de la economía y la vida cotidiana o en expediciones espaciales con el objetivo de colonizar nuevos planetas en el futuro (incluso galaxias enteras como La Vía Láctea).

Según Greaves y MacAskill, la calidad de vida de los humanos será muchísimo más alta en el futuro que ahora debido a su expansión por todo el Sistema Solar, alegando que las predicciones apuntan a que cuando lleguemos al siglo XXII la población posiblemente haya alcanzado los 11.000 millones de personas, lo que resulta insostenible en términos naturales si solo vivimos en el planeta Tierra. Más si tenemos en cuenta el gran impacto que ya hemos ocasionado a la naturaleza. Por ello, el auge de la ideología 'largoplacista' también está explicado por las grandes inversiones de empresarios muy vinculados a la conquista espacial como Elon Musk, quien ha financiado 1,5 millones de dólares a una organización hermana del GPI, el Future of Life Institute (FLI). En este caso, tal cantidad de dinero fue destinada para investigación en inteligencia artificial avanzada, según informa Phil Torres, un pensador 'largoplacista' reconvertido que ha escrito un gran artículo en 'Aeon' alertando del peligro que implica el triunfo de esta ideología entre las élites mundiales.

Camino a 'Elysium'

Lo que a simple vista podría parecer un club selecto de filántropos preocupados por la extinción humana, acaba resultando en una peligroso cúmulo de asociaciones financiadas por multimillonarios para llamar la atención sobre problemas a muy largo plazo (recordamos que tienen la vista puesta en cómo podría ser la humanidad de aquí a miles de años) que deben ser examinados y atajados con más prioridad que los más acuciantes que en la actualidad sufren miles de personas.

Foto: Bostrom nació en Helsingborg, Suecia, en 1973. (Foto: TED)

Vaden Masrani, un doctorando especializado en inteligencia artificial de la Universidad de Columbia Británica, ha publicado un texto en el que critica las pretensiones de Greaves y MacAskill, que entre otras cosas, creen que habría que cesar la partida altruista de dinero para luchar contra el hambre de los países en desarrollo o acabar con enfermedades como la malaria en África y Asia (que según los datos mata a un niño por minuto en el planeta) y concedérsela a proyectos de investigación en inteligencia artificial para prevenir al mundo de un 'riesgo existencial' futuro ocasionado por las propias máquinas inteligentes.

placeholder La estación espacial de 'Elysium' en un fotograma de la película de Neill Blomkamp.
La estación espacial de 'Elysium' en un fotograma de la película de Neill Blomkamp.

Todas estas ideas, de hacerse realidad, nos llevarían a una sociedad similar a la descrita en la película 'Elysium' (Neill Blomkamp, 2013), la cual está ambientada en el año 2159. En ella, los seres humanos con más poder económico han huido a una estación espacial debido a que la Tierra está prácticamente inhabitable debido a la sobrepoblación y la contaminación. Aunque la comparación puede sonar exagerada, las premisas morales que esgrimen Greaves y MacAskill en su estudio para justificar sus ideas resumidas en un concienzudo análisis "axiológico y deóntico" (en sus propias palabras), verían con buenos ojos el hecho de tener que sacrificar (o en su defecto, dejar a su suerte) a una gran parte de la humanidad a corto plazo para que a largo plazo los supervivientes de esa gran catástrofe (que en un primer momento se pretendería evitar) puedan reproducirse y conquistar nuevos mundos.

La falsa promesa de un futuro

"Este movimiento empieza hace aproximadamente diez años, cuando se empezó a hablar de la cuarta revolución industrial", asevera Fernando Broncano, catedrático de Lógica y Filosofía de la Ciencia de la Universidad Carlos III de Madrid a este diario, mencionando el canónico libro de Klaus Schwab, fundador del Foro Económico Mundial. "Ya empezaron a decir que teníamos que prepararnos para lo que viene, que era imparable y que no había que preguntarse por lo que iba a venir sino cuándo, que ya el futuro estaba programado. Lo único que consigue este tipo de discursos es colarte cada invento nuevo. Ahora Zuckerberg habla de que el futuro es el metaverso. Siempre pensamos en lo que supuestamente va a venir, algunas predicciones se cumplen, otras no salen bien, la gente se adapta o no... el futuro no está escrito".

Foto: Mark Zuckerberg presenta Meta, la nueva denominación de Facebook. (Reuters/Facebook) Opinión

Una de las premisas del 'largoplacismo' es que todo es potencialmente cuantificable y predecible. Este movimiento nace de la alianza tejida entre los utopistas tecnológicos que dominan poderosas empresas con un grupo de intelectuales para pronosticar con escuadra y cartabón lo que está por venir en las postrimerías de la humanidad. Lo que conduce a una especie de fe inquebrantable en que el cálculo de ingentes cantidades de datos nos otorgue la llave del futuro. "Las grandes empresas de Big Data saben perfectamente que toda la información que manejan debe ser filtrada e interpretada por una inteligencia humana", explica el catedrático. "Los datos te pueden mostrar una verdad objetiva sobre un hecho, pero si no existe esa interpretación humana para saber filtrar cada uno de ellos, no sirven de nada".

"No es lo mismo un pensamiento estratégico a estas teorías 'largoplacistas' que resultan ser profecías que responden a un interés privado"

Por otro lado, la ideología 'largoplacista' puede ser un síntoma más de la ansiedad generalizada por la ausencia de futuro. Incapaces de dar con una alternativa a los grandes problemas de hoy en día, se pone la vista en un porvenir hiperlejano que entra más en el terreno de la profecía que en el de la estrategia para revertir una serie de tendencias negativas. Paradójicamente, el siglo pasado, con sus dos guerras mundiales, bombas nucleares y procesos de descolonización, fue el siglo más destructivo y cruento de la historia de la humanidad en pérdidas humanas. Y no por ello se puso la mirada en cómo viviríamos dentro de unos cuantos siglos sino al contrario, se adoptó una estrategia para reconstruir y aumentar el crecimiento socioeconómico de la mayor parte de la población.

"No es lo mismo un pensamiento estratégico, como lo que sucedió en los acuerdos de Bretton Woods del 1944, a estas teorías 'largoplacistas' que resultan ser profecías que responden a un interés privado", señala Broncano, quien agrega que dichos acuerdos pueden ser semejantes a las cumbres para frenar el cambio climático a las que asistimos hoy en día. "Parecen que son visiones futuristas pero luego al final lo que hay por debajo son intereses muy cortoplacistas. Si dices que se va a acabar el gas o la energía, los precios de estos productos van a subir porque van a estar muy demandados".

placeholder Fotograma de 'Devs', una perfecta representación del aura religiosa y mística de tantos utopistas tecnológicos.
Fotograma de 'Devs', una perfecta representación del aura religiosa y mística de tantos utopistas tecnológicos.

El hecho de dejar en manos de multimillonarios e intereses privados el curso de la historia puede resultar muy peligroso. A un dios siempre se le puede rezar, pero luego es él quien termina decidiendo qué hacer, puesto que los seres humanos no pueden, a simple vista, interferir en sus designios. Y los matices religiosos que adquieren muchas de estas doctrinas y actividades filantrópicas, reflejados en tantas películas y series de televisión recientes, es más que evidente, provocando que podamos perdamos la oportunidad de imaginar un futuro de manera colectiva, quedándonos a expensas de lo que pueda suceder cuando la alta tecnología penetre en nuestras vidas.

"Al igual que existe una Organización Mundial de la Salud, en el futuro debería también patentarse una Organización Mundial del Ciberespacio que regule de manera eficaz el contenido y el uso que hacemos de las herramientas tecnológicas a nuestro alcance, de las de ahora y de las que están por venir", concluye Broncano, quien enfatiza que es un tema que debería entrar en las escuelas a raíz de los efectos perniciosos que provoca en la salud de tantas personas, sobre todo de los niños y adolescentes, pero también de los adultos. Y recalca que habría que buscar un fin "utilitario" a todas ellas, no verlas como algo imparable que haya que aceptar de manera dogmática.

Oxford Inteligencia Artificial Globalización
El redactor recomienda