APOYADOS POR STEPHEN HAWKING Y ELON MUSK

Los 23 mandamientos para evitar que la inteligencia artificial nos domine

Más de 2.000 expertos han firmado una serie de pautas a seguir para lograr que el desarrollo de estas tecnologías sea beneficioso para el mundo

Foto:

Mientras algunos todavía muestran escepticismo sobre la posibilidad de que exista vida inteligente en nuestro planeta, los más osados se atreven a hablar de inteligencia artificial (IA), una versión ortopédica de la humana. Los ordenadores ya nos han dado una paliza en matemáticas, ajedrez y traducción, y preparan un nuevo asalto para convertirnos en copilotos eternos de nuestros coches. En un futuro más lejano y difuso, quizá sustituyan a soldados y, por desgracia para el que escribe, periodistas. Para intentar que el desarrollo de estas tecnologías beneficie al mundo en lugar de destruirlo, más de 2.000 expertos han firmado 23 pautas a tener en cuenta durante los próximos años.

Los 23 principios de Asilomar reciben este nombre por el lugar de California (EEUU) en el que tuvo lugar a finales de enero una conferencia organizada por el 'Future of Life Institute' con el objetivo de dar a luz a la lista de recomendaciones. Han sido apoyados por más de 1.200 figuras relacionadas con la innovación tecnológica y científica como Stephen Hawking y Elon Musk, junto a más de 800 investigadores especializados en inteligencia artificial. Uno de los firmantes es el director del Instituto de Investigación de Inteligencia Artificial del CSIC, Ramón López de Mantaras, pionero de este campo en nuestro país. Teknautas ha hablado con él para entender mejor esta guía ética y práctica, cuya traducción se encuentra al final del texto.

El día en que las guerras sean entre máquinas será más fácil que se produzcan. Y aunque sean robots no creo que peleen en el desierto

"No soy de los que cree que a corto o medio plazo vaya a haber superinteligencias, pero no hay que esperar a ese momento para reaccionar. Además, el estado actual de la IA ya nos plantea una serie de problemas en cuanto a ética", explica López por teléfono. El investigador se refiere a las cuestiones de seguridad, privacidad e incluso pérdida de puestos de trabajo que despiertan tecnologías como los drones y los coches autónomos.

López destaca el punto 18 entre el resto: el ser humano debe desistir en la creación de armas autónomas. "El día en que las guerras se luchen entre máquinas será mucho más fácil que se produzcan, ya que hoy son las pérdidas humanas las que frenan a los países. Esto es terrible porque cada conflicto produce bajas civiles y efectos colaterales. Y aunque sean robots no creo que peleen en medio del desierto". Por esa razón, el investigador dice que él votó por cambiar el 'should' (debería) de esta pauta por un más rotundo 'must' (debe).

Otro problema importante es la cautela a la hora de dar autonomía absoluta a las máquinas (punto 16): "Hay que pensárselo no una vez sino varias". López asegura que no le convence que una máquina decida sin intervención humana alguna. Pone el ejemplo de un consejo financiero o médico sugerido por una IA: "A un experto humano se le preguntaría por qué, lo mismo debería pasar con los ordenadores. Si no son capaces de dar explicaciones son cajas negras". Esta transparencia (punto 8), inexistente en los sistemas actuales, debe ser implementada.

Paguita robótica

La lista incluye temas actuales, como la responsabilidad de los creadores de sistemas de IA sobre su uso (punto 9). Si el coche autónomo falla, ¿de quién es la culpa del accidente? "El día que sean cien por cien autónomos no podremos hablar de fallo humano a menos que sea de los desarrolladores del 'software', a lo mejor deberán llevar cajas negras como los aviones para investigar las causas". También otros más a largo plazo, como la inclusión de valores humanos (punto 11): "Dependen de las personas y las culturas, ¿cuáles pones? Habría que hacer una lista aprobada a nivel internacional por algún organismo".

Para redistribuir la riqueza generada por las IA, los robots podrían cotizar en la Seguridad Social para dar una renta básica universal

Más utópica parece la redistribución de la riqueza y beneficios generados por los sistemas de IA (puntos 14 y 15). "No debe suponer una ganancia sólo para algunas personas y empresas, sino para toda la sociedad", defiende López. El investigador defiende que, si la automatización quita puestos de trabajo humanos pero aumenta la productividad y riqueza del país, habría que redistribuir estas ganancias: "Si los robots cotizaran en la Seguridad Social se podría establecer una renta básica universal para todo el mundo".

López es consciente de que la lista puede parecer un brindis al sol, y que empresas y gobiernos dificultarán muchos de los 23 mandamientos. "Son principios de buenas intenciones. Es bueno que el tema esté encima de la mesa".

Los principios de Asilomar

1) Meta de la investigación: el objetivo de la investigación de la IA no debería ser crear inteligencia sin dirigir, sino inteligencia beneficiosa.

2) Financiación de la investigación: la inversión en IA debería ir acompañada de fondos para investigar en asegurar su uso beneficioso, incluyendo cuestiones espinosas sobre ciencias de la computación, economía, legislación, ética y estudios sociales.

3) Enlace entre ciencia y política: debería haber un intercambio constructivo y sano entre los investigadores de IA y los legisladores.

4) Cultura de la investigación: una cultura de cooperación, confianza y transparencia debería ser fomentada entre los investigadores y desarrolladores de IA.

5) Evitar las carreras: los equipos que estén desarrollando sistemas de IA deberían cooperar activamente para evitar chapuzas en los estándares de seguridad.

6) Seguridad: los sistemas de IA deberían ser seguros a lo largo de su vida operativa, y verificables donde sea aplicable y posible.

7) Transparencia en los fallos: si un sistema de IA causa daño debería ser posible determinar por qué.

8) Transparencia judicial: cualquier intervención de un sistema autónomo en una decisión debería ir acompañada de una explicación satisfactoria y auditable por parte de una autoridad humana competente.

9) Responsabilidad: los diseñadores y desarrolladores de sistemas avanzados de IA son depositarios de las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y oportunidad de dar forma a dichas implicaciones.

10) Alineación de valores: los sistemas de IA altamente autónomos deberían ser diseñados para que sus metas y comportamientos puedan alinearse con los valores humanos a lo largo de sus operaciones.

11) Valores humanos: los sistemas de IA deberían ser diseñados y operados para que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.

12) Privacidad personal: la gente debería tener el derecho de acceder, gestionar y controlar los datos que generan, dando a los sistemas de IA el poder de analizar y utilizar esa información.

13) Libertad y privacidad: la aplicación de la IA a los datos personales no puede restringir de forma poco razonable la libertad, real o sentida, de las personas.

14) Beneficio compartido: las tecnologías de IA deberían beneficiar y fortalecer a tanta gente como sea posible.

15) Prosperidad compartida: la prosperidad económica creada por la IA debería ser compartida ampliamente, para el beneficio de toda la Humanidad.

16) Control humano: los seres humanos deberían escoger cómo y si delegan decisiones a los sistemas de IA para completar objetivos escogidos previamente.

17) Sin subversión: el poder conferido por el control de sistemas de IA altamente avanzados debería respetar y mejorar, más que subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.

18) Carrera armamentística: debería ser evitada cualquier carrera armamentística de armas autónomas letales.

19) Capacidad de precaución: al no haber consenso, deberíamos evitar las asunciones sobre los límites superiores de las futuras capacidades de la IA.

20) Importancia: la IA avanzada podría representar un profundo cambio en la historia de la vida en la Tierra, y debería ser planificada y gestionada con el cuidado y los recursos adecuados.

21) Riesgos: los riesgos asociados a los sistemas de IA, especialmente los catastróficos o existenciales, deben estar sujetos a planificación y esfuerzos de mitigación equiparables a su impacto esperado.

22) Automejora recursiva: los sistemas de IA diseñados para automejorarse recursivamente o autorreplicarse de una forma que pudiera llevar al rápido incremento en su calidad o cantidad deben estar sujetos a unas estrictas medidas de control y seguridad.

23) Bien común: la superinteligencia debería ser desarrollada sólo en servicio de unos ideales éticos ampliamente compartidos y para beneficio de toda la Humanidad, más que para un Estado u organización.

Tecnología

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
4 comentarios
Por FechaMejor Valorados
Mostrar más comentarios