Es noticia
¿Tiene sentido preocuparse por una futura Inteligencia Artificial superior a la humana?
  1. Cultura
debate

¿Tiene sentido preocuparse por una futura Inteligencia Artificial superior a la humana?

No tenemos criterios claros para decidir si debería prohibirse la construcción de algún tipo de máquinas e incluso de si debería evitarse, aunque fuera temporalmente, la investigación en ciertos terrenos relacionados con la IA

Foto: Foto: Getty/Vittorio Zunino Celotto.
Foto: Getty/Vittorio Zunino Celotto.

Desde que en noviembre de 2022 se puso a disposición del público el ChatGPT se ha recrudecido un debate que, hasta hace bien poco, apenas ocupaba la atención de algunos académicos y escritores de ciencia ficción: la posibilidad de que se estén dando pasos para la creación de una inteligencia artificial superior a la humana que pueda llegar a dominarlo todo e incluso a causar la extinción de la especie humana. Esta idea fue divulgada a comienzos de este siglo bajo el concepto de “Singularidad” por el ingeniero de Google Ray Kurzweil en su libro La singularidad está cerca, aunque la idea venía de antes.

Según parece, el primer libro que trató de forma expresa el tema de la posibilidad de crear una inteligencia artificial general (AGI, por las siglas en inglés) se publicó en 2007. Se dice que la expresión y el acrónimo fueron creados unos meses antes por el cofundador de la empresa DeepMind Shane Legg para dar título al libro.

placeholder Uno de los robots con cerebro ChatGPT inspeccionando una fábrica de Global Foundries. (Levatas)
Uno de los robots con cerebro ChatGPT inspeccionando una fábrica de Global Foundries. (Levatas)

En realidad, puede decirse que un propósito así estaba ya presente, aunque de forma incipiente en el Solucionador General de Problemas que Herbert Simon, J. C. Shaw y Allen Newell propusieron en 1957. Una AGI sería en última instancia un sistema capaz de realizar múltiples tareas no relacionadas entre sí y en contextos muy diferentes y de aprender a resolver problemas completamente nuevos. Los sistemas multitareas que tenemos por ahora realizan tareas muy similares y no son lo suficientemente versátiles para afirmar que son AGI.

Creo que resultará útil hacer algunas precisiones sobre el concepto de AGI y otros relacionados con él para entender el alcance de la discusión actual. Para empezar, la inteligencia artificial general no debe confundirse ni con máquinas poseedoras de mente consciente ni con la superinteligencia artificial de las películas de ciencia ficción o de los creyentes en la Singularidad. Cabría la posibilidad de tener AGI sin que tuviera consciencia ni un nivel superior a la inteligencia humana, al menos en muchos aspectos relevantes. En efecto, para tener algún día superinteligencia artificial general, es decir, una IA muy superior (y quizá muy diferente) en todos los aspectos a la inteligencia humana y a su creatividad (habría que ver también si empleamos el término inteligencia entonces en el mismo sentido), no solo habría que tener antes AGI, sino que esta, al menos en el escenario que suele dibujarse de una “explosión de inteligencia”, debería ser capaz de crear a su vez máquinas más inteligentes que ella misma, dando lugar a un crecimiento exponencial de inteligencia. Pero esto es algo que no podemos dar por sentado, al menos en el sentido de que estas mejoras sean ilimitadas. El asunto es más complejo de lo que suele pensarse.

Una cosa es que podamos utilizar un algoritmo para mejorar la eficiencia de las soluciones a un problema, o que tengamos algoritmos capaces de mejorar su código, y otra distinta que un algoritmo pueda llegar a crear máquinas de inteligencia similar a la humana mediante un proceso de mejoramiento para el desarrollo de tareas concretas.

Una cosa es que podamos utilizar un algoritmo para mejorar la eficiencia de las soluciones y otra que cree máquinas de inteligencia similar a la humana

Ciertamente, hay quien defiende con convicción la posibilidad de que existan en el futuro máquinas capaces de automejora recursiva, que sería el tipo de automejora necesaria para llegar a la superinteligencia, es decir, máquinas capaces no solo de mejorarse en inteligencia, sino capaces además de mejorar su capacidad para hacer máquinas mejores. Esto es lo que piensan muchos transhumanistas, y no solo ellos. Pero, por el momento, es solo una posibilidad teórica en discusión. Y hay expertos que han manifestado repetidas veces su escepticismo al respecto.

Sea como sea –y aunque esto también esté en disputa–, incluso si se consiguiera crear alguna vez una AGI, no tendría por qué tener consciencia. La consciencia, entre otras cosas, consiste en tener experiencias subjetivas y sentirlas como pertenecientes a un flujo coherente, temporalmente continuo y unificado de experiencias subjetivas (consciencia cualitativa). Implica además acceder cognitivamente a los procesos mentales que suscita nuestra relación con el mundo, es decir, no sólo experimentar el mundo, sino saber que se lo está experimentando en el momento mismo de hacerlo (consciencia de acceso, metacognición). Se trataría, pues, de un conocimiento de segundo grado que permite saber que se sabe y que el que sabe ahora es el mismo individuo que el que sabía hace un rato. Y por encima de todo eso, la consciencia es saberse existiendo en una realidad que es diferente de uno mismo y en la que uno se sitúa con una perspectiva espacio-temporal. Estos dos últimos aspectos podrían considerarse como característicos de la autoconsciencia.

Ninguno de estos procesos tiene por qué surgir, a modo de propiedad emergente, de cualquier sistema inteligente lo suficientemente complejo sea cual sea el sustrato material del mismo, incluso si se tratara de una máquina. Hay quien piensa que la consciencia requiere necesariamente de una base biológica y, por tanto, se trata de un producto biológico. Una opinión contraria, sin embargo, es la de David Chalmers, quien sostiene que la consciencia es “un invariante organizacional, es decir, que los sistemas con el mismo patrón de organización causal tienen los mismos estados de consciencia, sin que importe que la organización esté implementada en neuronas, silicio o algún otro sustrato”. Es la tesis que ha venido manteniendo el funcionalismo en filosofía de la mente, aunque cada vez ha recibido más críticas.

placeholder Un robot participa en un partido de fútbol en Tailandia (EFE)
Un robot participa en un partido de fútbol en Tailandia (EFE)

Esta actitud es la que subyace en la idea común entre muchos comentaristas que escriben sobre la IA de que una máquina lo suficientemente inteligente tendrá, eo ipso, consciencia. Sin embargo, es una mera suposición por el momento tan válida como la contraria. Es cierto que si una máquina afirmara de sí misma que es consciente (como ya ha sucedido) no tendríamos ninguna forma de probar fuera de toda duda que no lo es, como tampoco podríamos probar que otro ser humano es consciente. La diferencia estaría en que nosotros mismos nos sabemos conscientes y cualquier ser humano tiene los mismos mecanismos neuroquímicos y fisiológicos en los que se basa nuestra consciencia. Cualquier otro ser humano es los suficientemente similar a nosotros como para creerle cuando dice que es consciente. Esa similitud es la que utilizan también los estudiosos de la cognición animal para atribuirle cierto grado de consciencia a los animales. En cambio, nada de esto sucede con las máquinas.

Probablemente en ningún otro campo de investigación científica como en la IA se dé un desacuerdo tan grande, no solo acerca de lo que podrán conseguir los avances futuros, sino sobre la correcta interpretación de lo que se ha conseguido en la actualidad. Y quizás en ningún otro la propaganda de la industria y el revuelo de los medios tenga un papel tan destacado.

No sería descabellado estimar que toda investigación encaminada a la consecución de la AGI sería éticamente cuestionable

Da que pensar esta peculiaridad y no cabe ignorar que una de sus principales causas está en la necesidad de mantener alto el interés social para justificar una inversión creciente. Esto debería bastar para que se tomaran con prudencia las afirmaciones más cercanas a la propaganda que al discurso científico. No obstante, puesto que la posibilidad de que se cumplan las predicciones de los más convencidos, por pequeña que sea, no cero, el tema merece ser atendido y analizado. No como algo que va a suceder con toda seguridad, sino como una mera situación hipotética que hay que considerar. Si estos peligros previsibles se fueran confirmando y las posibilidades reales de crear una máquina capaz de automejora recursiva se acrecientan, no sería descabellado estimar que toda investigación encaminada a la consecución de la AGI sería éticamente cuestionable, al menos mientras no hubiera mayores garantías de que el ser humano pudiera ejercer siempre su control sobre ella. No deja de ser inquietante que, en una encuesta muy difundida, los expertos en IA consultados creían en promedio que había un 10% de probabilidades de que en el futuro una superinteligencia artificial llevara a la extinción de la humanidad o a algún daño severo en nuestra especie.

Se estima que hay un 10% de probabilidades de que en el futuro una superinteligencia artificial llevara a la extinción de la humanidad

Siempre ha habido posibles aplicaciones peligrosas de los avances científicos, pero hasta hoy había parecido que el sentido común y la ética básica adquirida en cualquier proceso de socialización bastaban para que los científicos y los ingenieros pudieran elaborar directrices, implícitas o explícitas, con las que orientarse en su trabajo. Esto empezó a cambiar en las ciencias biomédicas a partir de los años 70, década en la que se inició el despegue de las biotecnologías, lo que condujo al desarrollo subsiguiente de la bioética. Hoy, muchos centros de enseñanza que imparten grados en biomedicina, en genética o en disciplinas afines, consideran necesario complementar la formación científica de sus egresados con una sólida formación bioética. Va siendo hora de que lo mismo suceda en el campo de la Inteligencia Artificial y de las ciencias de la computación. Pero hay aquí un problema: la “tecnoética” o la “ética para la IA” o la “ética para las máquinas” o la “ética computacional” están todavía en sus comienzos. No tenemos criterios claros para decidir si debería prohibirse la construcción de algún tipo de máquinas e incluso de si debería evitarse, aunque fuera temporalmente, la investigación en ciertos terrenos relacionados con la IA. Solo hay algunas propuestas que no han alcanzado aún el suficiente grado de acuerdo y sobre las que se discute acerca de la viabilidad de su implementación.

* Antonio Diéguez es Catedrático de Lógica y Filosofía de la Ciencia de la Universidad de Málaga. Miembro de Número de la Academia Malagueña de Ciencias

Desde que en noviembre de 2022 se puso a disposición del público el ChatGPT se ha recrudecido un debate que, hasta hace bien poco, apenas ocupaba la atención de algunos académicos y escritores de ciencia ficción: la posibilidad de que se estén dando pasos para la creación de una inteligencia artificial superior a la humana que pueda llegar a dominarlo todo e incluso a causar la extinción de la especie humana. Esta idea fue divulgada a comienzos de este siglo bajo el concepto de “Singularidad” por el ingeniero de Google Ray Kurzweil en su libro La singularidad está cerca, aunque la idea venía de antes.

Inteligencia Artificial Inteligencia