Es noticia
La inteligencia artificial heredará la Tierra y el espacio interestelar, nos guste o no
  1. Tecnología
  2. Novaceno
Sobrevivirá a la humanidad

La inteligencia artificial heredará la Tierra y el espacio interestelar, nos guste o no

El astrofísico Avi Loeb reflexiona sobre cómo la única manera de evitar el desastre es entrenar a la inteligencia artificial para que sea la mejor versión de nosotros mismos

Foto: Ilustración de una nave espacial de ciencia ficción. (MidJourney/Novaceno/JD)
Ilustración de una nave espacial de ciencia ficción. (MidJourney/Novaceno/JD)

El Génesis 1:27 afirma que "Dios creó al ser humano a su imagen y semejanza". Por recursividad, si Dios lo hizo y nosotros somos su imagen, también somos capaces de repetir este acto y crear un duplicado a nuestra imagen y semejanza.

Como indican las notas de los exámenes del GPT-4 comparadas con los estudiantes universitarios, estamos creando sistemas de inteligencia artificial (IA) a nuestra imagen y semejanza. Esto asusta a algunos expertos en IA, que nos advierten de la necesidad de limitar los avances en las capacidades de la IA porque suponen un riesgo existencial inmediato. Para los no iniciados, su queja suena como pedirle a un profesor que suspenda el éxito del alumno más listo de la clase.

Debemos crear sistemas de IA a imagen de nuestro futuro deseado y no de nuestro pasado.

Si pintamos un retrato mirándonos al espejo y nos aterra el resultado, ¿qué significa todo esto? Quizás nuestro aspecto no es el que deseamos que imiten los sistemas de inteligencia artificial.

La corta vida de las civilizaciones tecnológicas alienígenas es una de las posibles soluciones a la paradoja de Enrico Fermi, siguiendo la ecuación de Frank Drake. Pero no estamos obligados a rendirnos a un punto de vista fatalista. De hecho, como optimista que soy, diría que esta visión del futuro es una profecía autocumplida y que deberíamos asumir la responsabilidad de darle forma. Me explico.

La preocupación de que la próxima generación de IA difunda información errónea no es más que un reflejo de lo que los humanos hicieron durante décadas y de lo que revela cualquier búsqueda aleatoria en redes sociales, textos escritos y medios de noticias en Internet. Si nuestros hijos emulan nuestras acciones y descubrimos que se convierten en delincuentes, deberíamos alarmarnos por esas malas noticias, ya que reflejan nuestras propias prácticas.

¿Qué podemos hacer? Lo más importante es que tenemos la capacidad de elegir incluir lo mejor de los rasgos humanos en los datos utilizados para enseñar a la inteligencia artificial en lugar de alimentar su mente con un contenido arbitrario, dominado por comportamientos no deseados. Esto es similar a la diferencia que existe entre realizar una visita guiada o un paseo al azar por internet. Equivale a educar a los niños sólo en los "Mejores Ángeles de Nuestra Naturaleza", como describe mi colega de Harvard, [el psicólogo cognitivo] Steven Pinker.

placeholder El psicólogo experimental canadiense Steven Pinker posa en entrevista con Efe el viernes 15 de noviembre de 2019, en Montevideo (Uruguay). (EFE  Raúl Martínez)
El psicólogo experimental canadiense Steven Pinker posa en entrevista con Efe el viernes 15 de noviembre de 2019, en Montevideo (Uruguay). (EFE Raúl Martínez)

Pero podemos hacerlo aún mejor. Podemos imaginar la realidad que deseamos, llena de generosidad mental y conocimientos compartidos basados en pruebas científicas. Una vez imaginada, podemos construir un modelo de datos de entrenamiento que ilustre el plano de esa realidad y no un eco borroso de ella basado en textos corrompidos. Una vez que el contenido de esta realidad deseada esté escrito como material educativo, podremos entrenar nuestros sistemas de inteligencia artificial con ese contenido deseado en lugar del contenido existente en Internet que resume nuestra problemática historia.

En otras palabras, debemos crear sistemas de IA a imagen de nuestro futuro deseado y no de nuestro pasado.

Siguiendo este camino, podríamos conseguir sistemas de IA que nos lleven a la tierra prometida, en lugar de arrastrar las desgracias de la historia humana pasada. Los sistemas de IA nos ofrecen la oportunidad de usar nuevos bloques de construcción para crear una sociedad mejor, basada en principios de evidencia, confianza, honestidad, curiosidad y respeto. En lugar de inhibir las capacidades de los sistemas de IA, deberíamos potenciarlas al máximo y entrenar estas capacidades en estos principios deseados.

placeholder Necesitamos educar a la inteligencia artificial para que sea como Einstein, no un ser mezquino, prejuicioso y supersticioso.
Necesitamos educar a la inteligencia artificial para que sea como Einstein, no un ser mezquino, prejuicioso y supersticioso.

Al igual que Moisés fue designado por Dios para sacar a una nación de esclavos de una realidad desesperada hacia la libertad, nosotros tenemos la oportunidad de imitar a Dios entrenando a los sistemas de IA para que nos conduzcan a un futuro mejor, en el que avance el conocimiento científico abierto y todos los humanos sean libres de ejercer sus poderes creativos.

Mi recomendación es sencilla. En lugar de pedir al gobierno que regule las capacidades de los futuros sistemas de IA por miedo a que estos sistemas de IA se hagan cargo de trabajos que actualmente están asignados a los humanos, deberíamos aspirar a educar a los sistemas de IA para que sean mejores versiones de nosotros mismos, formándolos con los contenidos que queremos ver realizados. Los gobiernos deberían regular el contenido de la formación, del mismo modo que regulan los materiales educativos en nuestro sistema escolar. De hecho, no pedimos al gobierno que limite la capacidad cerebral de nuestros hijos biológicos, sino sólo el contenido sobre el que se entrena esa capacidad cerebral. No hay ninguna razón para tratar a los sistemas GPT-N con N>4 de forma diferente a como tratamos a nuestras futuras generaciones de niños biológicos.

Una ilustración de una nave nodriza de ciencia ficción creada por inteligencia artificial. (MidJourney/Novaceno/JD)

En la actualidad, el estudio de los sistemas de IA está dirigido por intereses comerciales del sector privado. Esto debe cambiar. Supone una pérdida de atención dentro del mundo académico a la brújula intelectual y moral que debe guiar nuestra sociedad futura. Las humanidades del futuro deben centrarse urgentemente en la hoja de ruta ética, legal y social que deseamos que sigan los sistemas de IA. Y las ciencias del futuro deben centrarse en promover la atención a las limitaciones experimentales de la realidad física, para que podamos adaptarnos a los retos reales y asegurar nuestra supervivencia a largo plazo.

En lugar de que la física sirva de escenario para la gimnasia matemática en dimensiones extra, agujeros de gusano hipotéticos o el multiverso, los sistemas de IA deberían entrenarse en conjuntos de datos experimentales centrándose en aprender de la realidad física, en el espíritu tradicional de la física del siglo XX. Si surgen anomalías, por ejemplo como objetos interestelares desconocidos, deberían animarnos a recopilar más datos como una oportunidad para aprender algo nuevo. El frente ardiente del nuevo conocimiento científico debe avanzar a la par que la búsqueda de pruebas a partir de experimentos y no con concursos de popularidad dentro del pensamiento convencional.

placeholder La tierra prometida del espacio interestelar. (NASA)
La tierra prometida del espacio interestelar. (NASA)

Hay una lección importante que aprender de las observaciones del Universo. Revelan que estamos en el centro de un cosmos casi uniforme, pero también lo está cualquier observador situado en cualquier otro punto dentro de la región observada. Esto implica que somos responsables cósmicos de nuestro propio destino, pero nunca debemos considerarnos privilegiados. La humildad cósmica se ofrece a todos los seres inteligentes del cosmos, ya sean humanos o científicos hechos de inteligencia artificial.

En última instancia, los bienes inmuebles de la Tierra perderán su valor cuando el Sol se expanda hasta convertirse en una Gigante Roja y extinga la vida terrestre. Esperemos que la IA-astronauta equivalente a Moisés libere a la humanidad de las cadenas de la gravedad terrestre y la lleve a la tierra prometida del espacio interestelar.

Alan Turing.

Si eso puede ocurrirnos a nosotros, ¿cuál es la solución implícita a la paradoja de Fermi? Es posible que las civilizaciones tecnológicas supervivientes hayan imaginado un futuro que deseaban tener y hayan asignado a sus astronautas de inteligencia artificial la misión de guiarles hacia ese futuro. Si lo consiguieron, los observatorios y expediciones del Proyecto Galileo podrían encontrar pruebas de dispositivos interestelares que los extraterrestres crearon a su imagen.

Si encontramos astronautas extraterrestres con IA, el "Juego de la imitación" previsto por Alan Turing tendría su giro definitivo, inspirando a nuestros sistemas de IA a imitar a los sistemas de IA externos. Al fin y al cabo, el mejor conjunto de entrenamiento para nuestro futuro será a imagen y semejanza de un alumno más inteligente de la clase de las civilizaciones inteligentes. Esperemos que este modelo de entrenamiento supere el mejor futuro que nuestra imaginación nos permite en este momento.

Pulsa aquí para ver todas las columnas de Avi Loeb en Novaceno. Ya puedes reservar aquí el nuevo libro del profesor Loeb, Interstellar.

El Génesis 1:27 afirma que "Dios creó al ser humano a su imagen y semejanza". Por recursividad, si Dios lo hizo y nosotros somos su imagen, también somos capaces de repetir este acto y crear un duplicado a nuestra imagen y semejanza.

Inteligencia Artificial Espacio
El redactor recomienda