Es noticia
¿Deben tener derechos morales o jurídicos los robots dotados de inteligencia artificial?
  1. Mercados
  2. The Wall Street Journal
Una nueva fuerza de trabajo

¿Deben tener derechos morales o jurídicos los robots dotados de inteligencia artificial?

A medida que avanza la inteligencia artificial, investigadores, académicos y especialistas en ética se plantean si los robots merecen ser tratados como personas

Foto: EC Diseño.
EC Diseño.
EC EXCLUSIVO Artículo solo para suscriptores

El año pasado, un ingeniero de software de Google hizo una afirmación inusual: que un chatbot de inteligencia artificial desarrollado por la empresa había adquirido conciencia, tenía derechos como una persona e incluso podría tener alma. Tras lo que la empresa calificó de "larga conversación" con el empleado, Google lo despidió.

Es poco probable que este sea el último episodio de este tipo. La inteligencia artificial escribe ensayos, gana al ajedrez, detecta posibles cánceres y toma decisiones empresariales. Esto es solo el principio de una tecnología que cada vez será más poderosa y omnipresente, lo que refuerza la preocupación de que los robots nos superen algún día.

Sin embargo, se ha prestado mucha menos atención a cómo debemos tratar a estas nuevas formas de inteligencia, algunas de las cuales adoptarán formas cada vez más antropomórficas. ¿Les deberemos algún tipo de derecho moral o legal? ¿Creemos que debemos tratarlas como personas si su aspecto y comportamiento son los adecuados?

Foto: El cofundador de Apple, Steve Wozniak, asegura que el piloto automático de Tesla es peligroso. (Twitter)

Responder a estas preguntas obligará a la sociedad a abordar profundos dilemas sociales, éticos y jurídicos. ¿Qué es exactamente lo que otorga derechos a un ser y qué tipo de derechos deberían ser? ¿Existen paralelismos útiles en la relación humana con los animales? ¿Las mentes sintéticas del mañana, posiblemente destinadas a superar la inteligencia humana, tendrán algún día derecho a votar o a casarse? Si exigen tales derechos, ¿habrá alguien que pueda negarse?

Estas preocupaciones pueden parecer exageradas. Pero la invasión de los robots ya está en marcha, y la cuestión de los derechos de estas formas artificiales de inteligencia que pronto serán omnipresentes ha cobrado urgencia con la repentina prominencia de ChatGPT y la nueva forma de Bing, el motor de búsqueda de Microsoft impulsado por IA, que han asombrado con sus sofisticadas respuestas a las preguntas de los usuarios.

"Tenemos que pensar en esto ahora mismo", afirma David J. Gunkel, autor del libro de 2018 "Robot Rights" y de otras obras sobre el tema. Citando la rápida propagación de la IA y sus capacidades de rápido crecimiento, añade: "Ya estamos en este territorio".

Foto: Una pantalla con ChatGPT de OpenAI. (EFE/Rayner Peña R.) Opinión
TE PUEDE INTERESAR
La economía de la inteligencia artificial: unas ideas básicas
Jesús Fernández-Villaverde. University of Pennsylvania

Un desastre moral

De hecho, juristas, filósofos y especialistas en robótica llevan años debatiendo estas cuestiones, y la idea general de estos debates es que, cuando la inteligencia artificial alcance un umbral lo suficientemente avanzado, deberá haber derechos de algún tipo. "Sería un desastre moral", escribieron los filósofos Eric Schwitzgebel y Mara Garza en un artículo de 2015, "si nuestra sociedad futura construyera un gran número de IA de grado humano, tan conscientes de sí mismas como nosotros, tan ansiosas por su futuro y tan capaces de alegría y sufrimiento, simplemente para torturarlas, esclavizarlas y matarlas por razones triviales".

La base principal de esta opinión es la perspectiva de que los robots puedan alcanzar algo parecido a la sensibilidad, es decir, la capacidad de percibir y sentir. La cuestión difícil es si los seres artificiales llegarán algún día a ese punto o si, como mucho, solo podrán emular la consciencia, como parece que están haciendo ahora.

Algunas personas consideran que las apariencias son prueba suficiente, argumentando que es la única evidencia que tenemos de la consciencia de los seres humanos. El matemático Alan Turing sostuvo que si un ordenador actúa como un ser sensible, deberíamos considerarlo como tal. David Levy, compatriota británico de Turing, pionero de la informática y experto en ajedrez, está de acuerdo, pero va más allá. Como resultado del aprendizaje automático, afirma, la inteligencia artificial que al principio se limita a imitar los sentimientos humanos "podría aprender nuevos sentimientos, nuevas emociones que nunca hemos encontrado o que nunca hemos descrito".

Foto: El tribunal que juzgó a los líderes independentistas del 'procés' en el Supremo. (EFE)

Si los robots obtienen algún tipo de derechos, dice el Dr. Gunkel, lo primero que llegará serán protecciones básicas del tipo de las que existen en muchos lugares contra la crueldad hacia los animales. Al igual que los animales, los robots podrían considerarse lo que los filósofos llaman "pacientes morales", o seres dignos de consideración moral independientemente de que puedan o no cumplir los deberes y responsabilidades de los "agentes morales". Su perro es un paciente moral, y usted también. Pero usted también es un agente moral, alguien capaz de distinguir el bien del mal y actuar en consecuencia.

Por supuesto, los animales vivos son conscientes, mientras que las formas artificiales de inteligencia existen como líneas de código, aunque estén encarnadas en el tipo de máquinas que llamamos robots. No obstante, la gente puede retraerse de la violencia, la intimidación o el lenguaje abusivo hacia seres familiares y conscientes por simpatía, o por miedo a que ese comportamiento embrutezca al resto de nosotros.

Es un segundo argumento a favor de los derechos de los robots. La roboticista del MIT Kate Darling sugiere que evitar el abuso de robots que interactúan con las personas a nivel social —y evocan respuestas antropomórficas— puede ayudar a los humanos a evitar la insensibilización ante la violencia de unos contra otros. Kant, observa, dijo que "quien es cruel con los animales se vuelve duro también en su trato con los hombres".

Foto: Robot para alimentar a pacientes discapacitados. (EFE/Andreu Dalmau) Opinión
TE PUEDE INTERESAR
¿Pueden los robots cuidar de nuestros mayores?
Carmen Herrero

En una encuesta en línea, el informático Gabriel Lima y sus colegas descubrieron que, aunque los encuestados "están mayoritariamente en contra de la IA y los derechos de los robots", como los derechos a la intimidad, al pago por el trabajo, a la libertad de expresión y a demandar o ser demandado, "son partidarios de proteger a los agentes electrónicos de la crueldad". Otra encuesta, dirigida por Maartje M.A. De Graaf, especialista en interacciones entre humanos y robots, descubrió que "la gente está más dispuesta a conceder derechos básicos a los robots, como el acceso a la energía y el derecho a actualizarse" en comparación con "derechos sociopolíticos como el derecho al voto y el derecho a la propiedad".

Acción autónoma

Los argumentos a favor de los derechos de los robots se verán probablemente reforzados a medida que la inteligencia artificial gane en sofisticación. Esto nos lleva a un tercer argumento a favor de los derechos: los robots serán cada vez más capaces de actuar de forma autónoma y, potencialmente, serán responsables de su comportamiento y tendrán derecho a un proceso justo. En ese momento, los robots serían agentes morales y podrían argumentar que tienen derechos y privilegios proporcionales, como poseer riqueza, firmar acuerdos legales e incluso votar. Algunos prevén también una especie de ciudadanía.

Foto: Ilustración de una nave espacial de ciencia ficción. (MidJourney/Novaceno/JD)

Cualquier robot consciente de sí mismo que hable un lenguaje conocido y sea capaz de reconocer alternativas morales y, por tanto, de tomar decisiones morales", afirma Levy, "debería ser considerado un 'robot persona' digno de nuestra sociedad". Si es así, ¿no debería poseer también los derechos y deberes de todos los ciudadanos?".

Algunos expertos prevén el surgimiento de una nueva rama del derecho que proteja a los robots y les exija responsabilidades. Ya se está teorizando sobre si los robots deben ser considerados legalmente responsables cuando hacen algo mal, y sobre los métodos de castigo adecuados. Por otra parte, el estatuto de las empresas ofrece un precedente para tratar a las entidades no humanas como personas ante la ley. En su libro "The Reasonable Robot", el profesor de Derecho y médico Ryan Abbott sostiene que, para fomentar el uso de la IA en la innovación, la ley no debería discriminar entre el comportamiento de la inteligencia artificial y el de los humanos. El Dr. Abbott participó en la obtención, en Sudáfrica, de lo que parece ser la primera patente del mundo en la que la IA figura como inventora (si no como propietaria de la patente).

Un argumento aún más interesado a favor de los derechos de los robots es que, si somos amables con ellos, puede que lo sean con nosotros cuando tomen el control. Vernos a nosotros mismos como parte de un ecosistema moral armonioso, en lugar de como poseedores del dominio sobre la Tierra, "preserva nuestro espacio en un mundo que hipotéticamente puede contener algo más poderoso que nosotros", afirma Brian Christian, cuyos libros superventas exploran cómo los humanos y los ordenadores se están cambiando mutuamente.

Foto:  Un grupo de fotógrafos retratan al robot Digidog durante una conferencia de prensa para presentar nueva tecnología policial celebrada hoy en Times Square, Nueva York. (EFE/Sarah Yáñez)

La humanidad devaluada

Aún así, muchos no están de acuerdo con la idea de que la inteligencia artificial deba tener derechos o personalidad, especialmente si la base es la presunta sensibilidad de estos nuevos seres. La sensibilidad es muy difícil de definir y, si existe en un robot, es de suponer que ha sido un ser humano quien la ha puesto ahí, algo que críticos como Joanna J. Bryson, académica especializada en ética y tecnología, insisten en que los seres humanos no deberían hacer.

En un artículo titulado "Los robots deberían ser esclavos", la Dra. Bryson sostiene que "sería un error dejar que la gente pensara que sus robots son personas" y, lo que es más, sería un error construir robots a los que les debamos la condición de persona porque eso solo devaluaría aún más la humanidad. Los robots, según este punto de vista, son meros aparatos parecidos a sofisticadas tostadoras. "Nadie", escribe, "debería dudar ni un instante a la hora de decidir si salvar a un humano o a un robot de un edificio en llamas".

La profesora del MIT Sherry Turkle, que estudia la sociología de la tecnología, también retrocede ante la perspectiva de que los robots puedan ser considerados personas, lo que teme que socavaría el carácter especial de los humanos. Los cuidadores robóticos pueden ofrecer cierta comodidad a las personas en residencias de ancianos, por ejemplo, pero para la Dra. Turkle son poco más que un recurso barato, inadecuado para la tarea de proporcionar calidez y comprensión humanas. Los robots, dice, no son "criaturas morales". "Son objetos inteligentes performativos".

Foto: Usar robots para operar reduce los problemas de las operaciones. (Gettyimages)

Sin embargo, reconoce que cuando la gente trata con robots, tendemos a tratarlos como si fueran sensibles aunque no lo sean. Como resultado, predice que "va a haber una especie de nueva categoría de relaciones objetales que se formará en torno a lo inanimado: nuevas reglas y nuevas normas".

La Dra. Darling, robotista del MIT, demostró el tipo de normas que probablemente surgirán en nuestro futuro robótico dirigiendo un taller en el que los participantes jugaban con Pleos, "simpáticos dinosaurios robóticos que tienen aproximadamente el tamaño de gatos pequeños". Cuando, después del juego, se pidió a los humanos que ataran y mataran a las criaturas, "se desató el drama, y muchos de los participantes se negaron a 'hacer daño' a los robots, e incluso los protegieron físicamente", cuenta. Una le quitó la batería a su Pleo para "evitarle el dolor", aunque todos los participantes sabían que las criaturas eran juguetes insensibles.

"Se trata de antropomorfizar", explica Gunkel, y añade que esto no es un error, sino una característica de la humanidad. "Proyectamos estados de ánimo en nuestros perros, gatos y ordenadores. No es algo que podamos apagar".

Foto: Este perro robot podría vigilar las fronteras de EEUU. (Ghost Robotics)

En última instancia, observó el filósofo Sidney Hook en 1959, lo que determinará cómo tratará la gente a los agentes inteligentes artificiales es "si se parecen y se comportan como otras personas que conocemos". Si los robots se acercan a la función y la apariencia humanas, si viven entre nosotros, cuidándonos y hablando con nosotros, puede que a la gente le resulte difícil negar sus derechos. Después de todo, ¿qué nos distinguirá de ellos, aparte de la procedencia y la composición química?

Si se les dota de las capacidades adecuadas, algún día los propios robots defenderán esta postura, y Levy cree que para entonces los humanos, que se han acercado a sus robots ayudantes, probablemente estarán de acuerdo. "Si un robot tiene todas las apariencias de ser humano", opina, a la gente "le resultará mucho más fácil aceptar que el robot es sensible, que es digno de nuestro afecto, lo que nos llevará a aceptar que tiene carácter y está vivo".

En su libro Love and Sex with Robots (Amor y sexo con robots), Levy afirma que los humanos acabarán casándose con robots, del mismo modo que hoy en día parecen adoptar mascotas en lugar de tener bebés. Para que las relaciones íntimas entre humanos y robots sean satisfactorias, afirma, los robots necesitarán una personalidad, sensibilidad e incluso autonomía considerables. También tendrán que parecerse y sentirse en gran medida como tú y como yo, aunque muy probablemente mejor. Imagina que las relaciones románticas entre robots y personas empezarán en serio a mediados de siglo.

*Contenido con licencia de The Wall Street Journal

El año pasado, un ingeniero de software de Google hizo una afirmación inusual: que un chatbot de inteligencia artificial desarrollado por la empresa había adquirido conciencia, tenía derechos como una persona e incluso podría tener alma. Tras lo que la empresa calificó de "larga conversación" con el empleado, Google lo despidió.

Inteligencia Artificial
El redactor recomienda