Es noticia
El caso Almendralejo va más allá de los menores: ¿qué pasa con la IA que las desnudó?
  1. España
A LA ESPERA DE LA LEY DE LA UE

El caso Almendralejo va más allá de los menores: ¿qué pasa con la IA que las desnudó?

Fernando Miró, asesor del Consejo de Europa en materia de IA, advierte sobre el riesgo de centrar el debate en el Código Penal y no "crear nuevas obligaciones" para estas aplicaciones

Foto: El Jefe del Grupo de Protección al Menor de la Unidad Central de Ciberdelincuencia, Javier Izquierdo, tras lo ocurrido en Almendralejo. (EFE)
El Jefe del Grupo de Protección al Menor de la Unidad Central de Ciberdelincuencia, Javier Izquierdo, tras lo ocurrido en Almendralejo. (EFE)

La difusión de imágenes falsas de menores desnudas en Almendralejo ha reabierto —si es que alguna vez llegó a cerrarse— el debate sobre el control penal de la Inteligencia Artificial (IA). Los más pesimistas tachan la actual legislación de obsoleta y auguran un futuro desolador al grito de "no estamos preparados", pero en un intento de esquivar la ciencia ficción, El Confidencial ha consultado a Fernando Miró, asesor del Consejo de Europa en materia de IA y Catedrático de Derecho Penal de la Universidad Miguel Hernández. Su postura se resume en dos frases: "quizá haya que adaptar el Código Penal" para responder a casos como el de Almendralejo y "reformar el Código Penal no es lo más adecuado" para evitar casos como el de Almendralejo. En medio de esta aparente contradicción, el catedrático va más allá de los menores que difundieron las imágenes para centrarse en la tecnología que permitió desnudarlas.

Como punto de partida, dos precedentes frente a la idea de que el legislador nunca se ha enfrentado a un reto como el que plantea la IA. La aparición de los vehículos a motor: "Los accidentes se comenzaron a castigar por medio de delitos que ya existían, como el de lesiones, pero nos dimos cuenta de que había que incluir otros nuevos: conducir bajo los efectos del alcohol, a excesivas velocidades...". Y la revolución de la genética: "El Código Penal reaccionó inmediatamente y se creó un delito sobre la producción de armas biológicas o exterminadoras de la especie humana que, a día de hoy, ya no nos parece tan descabellado". Miró augura que con la IA la respuesta será similar a la de la revolución de la genética y, sin embargo, apunta a que ahí surge el primer riesgo: "Reformar el Código Penal es una opción siempre directa, lo cual no significa que siempre sea necesaria".

Foto: (Reuters / Dado Ruvic)

El debate se ha centrado esta última semana en cómo se puede castigar a los menores que crearon y difundieron las imágenes en Almendralejo: distribución de material pornográfico, tenencia de pornografía infantil, delito contra la integridad moral, delito contra la intimidad... El catedrático considera que "el Código penal sigue estando preparado" para responder a este tipo de situaciones y, al margen de puntuales adaptaciones de algunos delitos, defiende que los esfuerzos deben poner el foco en el origen, en regular la propia IA. De los 10 menores identificados por difundir las imágenes, la mayoría ni siquiera son imputables porque no alcanzan los 14 años, pero esto no cambia que exista una aplicación cuya única funcionalidad consiste en 'desnudar'. "Usted es el único responsable de las imágenes generadas", avisan en su web. "Usted es responsable de no usar la aplicación para fines ilegales".

Ese es el principal problema que se plantea ahora: "Al derecho penal tradicionalmente le interesa el que causa un daño. Con la IA, lo que pasa es que el momento clave en el que se puede empezar a causar ese daño está lejanísimo". Tras lo ocurrido Almendralejo, parece razonable reforzar la ley para facilitar la imposición de un castigo a los diseñadores de una aplicación cuyo eslogan es “desviste a cualquiera”, pero al extender ese mismo razonamiento a cualquier IA, surgen los problemas: "Una máquina industrial con la que no se ha tenido en cuenta que alguien estornude: si cuando esto ocurra, lo interpreta como un movimiento brusco y causa un daño, ¿se puede sancionar al ingeniero que no lo tuvo en cuenta?". O, por rizar más el rizo: "En las IA cuyo algoritmo va aprendiendo con sistemas de redes neuronales o el llamado deep learning, ¿se puede responsabilizar a su diseñador original por el daño que termine ocasionando?".

Foto: Sam Altman, CEO de OpenAI, durante su comparecencia en el Congreso de EEUU. (Reuters/Elizabeth Frantz)

Aunque la actual legislación ya permitiría castigar a diseñadores y responsables de la IA en determinados casos, Miró considera que los esfuerzos de regulación deben centrarse en esa área. "Tenemos que crear nuevas obligaciones y nuevos deberes y, si los mismos no se atienden, darán lugar a la responsabilidad". En la vía penal, apunta para ello a los conocidos como delitos de peligro​, que son los que castigan el propio riesgo e imprudencia y no el daño, pero incide en que ese no debería ser más que el final del camino: "El Derecho Penal no puede ir a lo suyo. Primero hay que establecer obligaciones administrativas, auditorías... Una vez tengamos esas herramientas y sepamos cuáles son las obligaciones que permiten evitar riesgos, entonces cabrá crear delitos, no antes, y siempre con penas proporcionales. No se puede castigar la infracción de un deber como la causación de un daño".

La Unión Europea ya prevé aprobar en los próximos meses una ley de IA que establece normas diferentes con base en una clasificación de riesgos. En el rango de los "inaceptables", introduce tres tipos de IA que serán prohibidas: las de manipulación cognitiva del comportamiento de personas o grupos vulnerables, como sería el caso juguetes activados por voz que fomentan comportamientos peligrosos en los niños; las de puntuación social, que permiten la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales, y las de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial, aunque en este último apartado con excepciones. En el caso de las IA que generan o manipulan contenidos de imagen, audio o vídeo, las considera de riesgo limitado y deberán "cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa".

Más allá de esta norma concreta, Miró también destaca la importancia de la conocida como Soft Law: "Las obligaciones impuestas por los propios participantes en el sistema de mercado también puede ser una buena opción. Es decir, que para participar en un determinado mercado, estés obligado a seguir unas reglas determinadas. Como primer paso, se tiene que exigir una reflexión de para qué se hace la herramienta". Él mismo reconoce que "todo esto es futurología y la futurología es mala para la ciencia", pero en lugar de pensar solo en el Código Penal y en incrementar las penas de cárcel, considera que ese debe ser el centro del debate: "Tenemos que crear nuevos deberes". En caso contrario, se corre el riesgo de caer en un "legislador de gatillo fácil".

La difusión de imágenes falsas de menores desnudas en Almendralejo ha reabierto —si es que alguna vez llegó a cerrarse— el debate sobre el control penal de la Inteligencia Artificial (IA). Los más pesimistas tachan la actual legislación de obsoleta y auguran un futuro desolador al grito de "no estamos preparados", pero en un intento de esquivar la ciencia ficción, El Confidencial ha consultado a Fernando Miró, asesor del Consejo de Europa en materia de IA y Catedrático de Derecho Penal de la Universidad Miguel Hernández. Su postura se resume en dos frases: "quizá haya que adaptar el Código Penal" para responder a casos como el de Almendralejo y "reformar el Código Penal no es lo más adecuado" para evitar casos como el de Almendralejo. En medio de esta aparente contradicción, el catedrático va más allá de los menores que difundieron las imágenes para centrarse en la tecnología que permitió desnudarlas.

Inteligencia Artificial
El redactor recomienda