¿LEYES DEMASIADO INGENUAS?

El retorno de Asimov

El 17 de febrero, el Parlamento Europeo publicó una recomendación instando a elaborar un código para robots, es decir, para las 'personas electrónicas', mencionando al escritor

Foto: Isaac Asimov, en 1980. (Cordon Press)
Isaac Asimov, en 1980. (Cordon Press)

El viernes pasado, participé 'como filósofo' en el Insurance World Challenges, un congreso de compañías aseguradoras. Insisto en lo de 'filósofo', porque creo que la filosofía debe cumplir una importante tarea en este momento... si se pone las pilas. Es la única ciencia cuyo objetivo es comprender las creaciones humanas en toda su variedad, y relacionarlas con la inteligencia que las produce. En este momento, su tema de estudio es la complejidad acelerada en la que vivimos. En el congreso se habló de robots, de inteligencia artificial, de la tecnología 'blockchain'. Es interesante la rapidez con que esta tecnología —que algunos piensan que puede acabar con el negocio bancario— se está imponiendo. Surgió, por supuesto, el problema de la responsabilidad de los robots. Un buen asunto para la filosofía.

El 17 de febrero, el Parlamento Europeo publicó una recomendación instando a elaborar un código para robots, es decir, para las 'personas electrónicas'. Menciona las leyes que Isaac Asimov enunció en 1942, que han dejado de pertenecer a la ciencia ficción para adecuarse a la realidad tecnológica actual. Dicen así: Ley 1: un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño. Ley 2: un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

Imagina un sistema de aprendizaje automático para una institución financiera que empieza a discriminar por la edad o género

Sin embargo, estas leyes eran demasiado ingenuas. El Parlamento basa su recomendación en que “existe la posibilidad de que a largo plazo la inteligencia artificial llegue a superar la capacidad intelectual humana”. Y señala que “el desarrollo de toma de decisiones automatizadas basadas en algoritmos incidirá sin duda en las elecciones de los particulares, de las autoridades administrativas y judiciales y de organismos públicos, por lo que es necesario integrar salvaguardias y la posibilidad de control y verificación por parte de las personas en los procesos de toma de decisiones automatizados”.

Cinco años no es nada

Esto parece sensato, pero no sé si resulta posible. Leo unas declaraciones de Josep Reger, principal responsable tecnológico de Fujitsu, transcritas por Guillermo Vega: “Con el aprendizaje automático ['machine learning'] y la inteligencia artificial, nunca sabes exactamente qué es lo que la máquina ha aprendido y en qué se basa para tomar decisiones. No puedes abrir el sistema. “Un ejemplo: tienes un sistema de aprendizaje automático para una institución financiera que utiliza el 'credit scoring' [la atribución de nivel de crédito basado en datos estadísticos automáticos]. Y este sistema empieza a discriminar por la edad, o género, basado en datos anteriores. ¿Qué haces entonces? ¿Aceptas la calificación y que se tomen esas decisiones o te dices que no es aceptable porque viola normas sociales o incluso la constitución?”. Reger termina preguntándose: “En caso de que quiera protestar, ¿contra quién voy?¿Contra la compañía que programó la forma de aprender?¿La compañía que vende el 'software'? ¿La entidad financiera que lo aplicó?”.

Reger, antiguo profesor universitario, está preocupado porque los sistemas educativos no están a la altura de los problemas y posibilidades que tenemos. “La gente que entra ahora en la universidad tardará cinco años en salir. Cinco años es mucho tiempo y toda la tecnología puede haber cambiado. En las anteriores revoluciones industriales, cinco años no eran nada. Ahora son un mundo y más te vale tener los conocimientos adecuados. ¿Está nuestro sistema educativo a la altura?”. Lo mismo ocurre con la política. “La democracia antes se limitaba a cuestiones puramente políticas. En el futuro, las decisiones democráticas van a girar cada vez más sobre la tecnología, sus consecuencias y sobre su influencia en la sociedad. El panorama es preocupante: hemos de preguntarnos si necesitamos más representación de la tecnología en el brazo legislativo”.

El futuro viene tan deprisa que no vamos a tener tiempo. El poco que tenemos lo vamos a gastar en discusiones bizantinas

En una reciente entrevista, Álvarez- Pallete, presidente de Telefónica, hablaba de la necesidad de elaborar una “constitución digital”, porque el entorno social en que vivimos es nuevo. También se refería a la creación de una cuarta plataforma de almacenamiento de datos, que permitiría a cada persona tener y gestionar su propio “banco de datos personal”, que le ayudaría a tomar decisiones. Los lectores de esta sección saben que una de las características del Proyecto Centauro en el que trabajo se basa en la idea de que nuestra memoria personal va a estar implementada en dos formatos: uno neuronal y otro informático. Y que una de las tareas educativas más urgentes es investigar lo que debe estar en cada uno de esos formatos. El futuro viene tan deprisa que no vamos a tener tiempo de prepararnos. El poco que tenemos lo vamos a gastar en discusiones bizantinas.

La complejidad y transcendencia de estos temas me hace pensar que necesitamos una ciencia que los estudie, comprenda y evalúe. La llamo 'filosofía' porque es el único conocimiento que no tiene un nivel determinado de preguntas, como tienen las otras ciencias, sino que siempre puede hacer una pregunta más. Y es lo que necesitamos ante lo imprevisible.

Educación

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
8 comentarios
Por FechaMejor Valorados
Mostrar más comentarios