Inteligencia artificial, negligencia real: la abogacía se la juega con el algoritmo
Al menos tres tribunales de España han dado un toque a varios abogados por un uso irregular de la inteligencia artificial que evidencia los riesgos deontológicos que plantea el uso de esta tecnología
Primero fue en Navarra, donde un abogado citó el Código Penal colombiano; luego en Alicante, donde un abogado atribuyó jurisprudencia inexistente al Tribunal Supremo; y ahora Canarias, en donde el TSJ ha detectado hasta una docena de sentencias apócrifas. El uso de la inteligencia artificial por parte de los abogados es una realidad que plantea importantes debates deontológicos sobre el presente y futuro de la profesión.
“El patrón es idéntico en todos los casos: citas aparentemente precisas con numeración y fechas concretas que nunca han sido pronunciadas por ningún tribunal. Esto no es un accidente aislado: es la consecuencia de integrar inadecuadamente herramientas potentísimas”, explica Javier Martínez Díaz, abogado y fundador de Ad Litem | Litigation & ADR, quien considera que debería exigirse una declaración expresa del uso de inteligencia artificial por parte de los abogados. “No como estigma, sino como mecanismo de trazabilidad y responsabilidad.
El que declara, verifica. El que oculta, se confía”, señala el abogado, que recuerda que la guía que hizo el Colegio de la Abogacía de Madrid (ICAM), la primera que se ha hecho, establece que "debe informarse de manera transparente a clientes y partes interesadas sobre el uso de la tecnología". No obstante, esta misma guía no aclara expresamente si ello exige revelar a los tribunales, advierte Martínez.
“La IA es una herramienta de apoyo, nunca un sustituto del abogado ni de su criterio profesional. La aparición de citas inexistentes o referencias erróneas no es un fallo excepcional, sino un riesgo conocido de estas tecnologías, que solo se mitiga con supervisión humana efectiva y verificación sistemática”, apunta Mabel Klimt, diputada del ICAM, que también cree que sería deseable hacer una declaración expresa del uso de IA en escritos cuando su uso haya sido “sustancial”.
“Estos casos no son anécdotas aisladas: revelan un problema estructural de fondo, que es confundir productividad con criterio jurídico. La IA generativa, usada sin control, puede producir textos verosímiles, pero jurídicamente incorrectos, y eso es incompatible con la diligencia profesional exigible”, advierte José Ángel Sandín, CEO de Lefebvre.
El uso de estas herramientas genera importantes riesgos deontológicos, tal y como han advertido los jueces de Navarra, Alicante y Canarias, cuyos toques de atención a la comunidad jurídica han ido in crescendo en los últimos meses. El tribunal navarro advirtió que el uso de la IA “plantea importantes implicaciones deontológicas” y advirtió del riesgo de incurrir en mala fe procesal. Posteriormente, el de Alicante dio un paso más y remitió testimonio de la resolución al colegio de abogados por si fuese necesario sancionar al letrado. Más recientemente, el tribunal canario ha acordado directamente investigar de manera formal al abogado.
19 citas falsas
“El Tribunal Constitucional ya sancionó en 2024 a un abogado por incluir 19 citas falsas entrecomilladas como si fueran doctrina constitucional real. El TC fue tajante: 'Fuera cual fuese la causa de la inclusión de citas irreales —uso de la inteligencia artificial, entrecomillado de argumentos propios, etcétera—, el letrado es siempre responsable de revisar exhaustivamente todo el contenido de cualquier escrito que presente'”, recuerda el socio de Ad Litem, que cita de forma recurrente la guía del ICAM a la hora de abordar el uso de estas tecnologías.
“El secreto profesional puede verse vulnerado si se utilizan plataformas que no ofrecen garantías suficientes sobre el tratamiento de la información”, advierte la diputada del ICAM. “Desde el ICAM recordamos que el secreto no se protege solo con la intención del abogado, sino con medidas técnicas, contractuales y organizativas adecuadas. En el nuevo ecosistema digital, el abogado no trabaja en estructuras aisladas, sino en entornos tecnológicos complejos, donde personas, procesos y datos interactúan. Controlar las herramientas tecnológicas forma hoy parte del núcleo del deber profesional, igual que antes lo era el control del expediente físico”.
Klimt confirma en conversación con El Confidencial que ha aumentado “de forma notable” el número de consultas relacionadas con el uso de la IA, “especialmente en cuestiones de confidencialidad, verificación de resultados y cumplimiento normativo”.
El papel que deben jugar los colegios profesionales en este asunto es otro de los debates abiertos en el sector. A este respecto, la diputada del ICAM considera que debe ser un papel “clave y activo” en el que orienten a los profesionales con criterios claros, impulsen la formación continua y defiendan los principios deontológicos esenciales en este nuevo entorno digital.
Para el CEO de Lefebvre, los colegios tienen “la legitimidad para liderar este proceso” si se apoyan en criterios expertos, para lo que necesitarían reforzarse desde un punto de vista técnico. “No se trata de que los colegios auditen modelos de lenguaje, sino de que sepan distinguir entre un uso asistido responsable y una dejación de funciones. Aquí es clave apoyarse en estándares claros: verificación de fuentes, coherencia argumental y control del resultado final”.
Regulación
Los profesionales consultados coinciden en que no es necesario aprobar una regulación específica —un proceso lento y que podría no reunir el consenso necesario— y que es más recomendable determinar unos principios y estándares claros de verificación, transparencia y responsabilidad. En definitiva, una guía de buenas prácticas.
“El legislador puede marcar límites generales y garantías, pero el conocimiento operativo está en la profesión. Por eso, los colegios y el Consejo General de la Abogacía deben jugar un papel central, definiendo estándares de uso responsable alineados con la deontología existente. La clave no es regular la herramienta, sino el resultado y la responsabilidad profesional asociada”, apunta el CEO de Lefebvre.
Una regulación demasiado rápida, además, “puede tener efectos contraproducentes: congelar la innovación, empujar a usos opacos o impedir que la profesión incorpore mejoras reales de eficiencia y calidad. La historia demuestra que las malas regulaciones nacen de intentar controlar la tecnología en lugar de controlar los riesgos. En IA jurídica, el mayor riesgo no es usarla, sino usarla mal; y eso se combate mejor con estándares, formación y herramientas fiables que con prohibiciones genéricas”, advierte Sandín.
Abogados tecnológicos o analógicos
En el mercado existen ya multitud de herramientas de inteligencia artificial jurídica, algunas gratuitas y otras de pago, aunque no todas gozan de la misma popularidad ni ofrecen resultados de la misma calidad. Muchos despachos de abogados y asesorías jurídicas las han incorporado a su día a día, pero lo cierto es que no todos los profesionales la usan del mismo modo.
“La brecha entre abogados tech y analógicos existe, pero la brecha verdaderamente peligrosa no es entre quienes usan IA y quienes no, sino entre quienes la usan con criterio y quienes la usan sin verificación. Paradójicamente, estos casos demuestran que el problema no es la falta de acceso a la tecnología, sino el exceso de confianza en ella”, advierte Martínez. “Un abogado veterano que verifica cada cita manualmente puede ser más fiable que un 'nativo digital' que copia y pega sin contrastar. La verdadera competencia digital no es saber usar la IA; es saber cuándo no confiarse. Dicho esto, urge democratizar la formación en IA para evitar que la brecha económica determine quién accede a herramientas fiables y quién se queda con las 'alucinaciones' gratuitas”.
Una tesis similar es la que mantiene Sandín, que también prefiere hablar de las diferencias “entre profesionales con método y sin él”. A su juicio, “la verdadera desigualdad surge cuando unos trabajan con herramientas diseñadas para reforzar el criterio jurídico y otros con sistemas generalistas que no entienden el contexto normativo, jurisprudencial y doctrinal. Facilitar el acceso a una IA jurídica fiable, basada en fuentes consolidadas y en flujos de trabajo seguros, es precisamente una forma de reducir esa brecha, no de ampliarla”.
"La desigualdad surge cuando unos trabajan con herramientas diseñadas para reforzar el criterio jurídico y otros con sistemas generalistas que no entienden el contexto normativo"
Para Klimt, el problema pasa por depositar un exceso de confianza en estas herramientas, que muchas veces “generan resultados verosímiles, pero no necesariamente correctos”. La abogada cree que esta confianza, unida “a la falta de verificación y al uso inadecuado de datos”, puede “afectar directamente a los derechos del cliente y a la calidad del servicio jurídico”.
“Lo que estos casos evidencian es una crisis de verificación, no de tecnología. Durante siglos, el abogado ha sido el garante de que lo que llega al juez es cierto, pertinente y contrastado. La IA no elimina esa responsabilidad; la intensifica. El letrado, y el resto de los operadores jurídicos, son responsables de verificar. No podemos permitir que escritos y resoluciones judiciales se construyan sobre 'contenidos ficticios'. Ahora toca que toda la profesión lo interiorice antes de que los daños sean irreparables. La IA no nos exime de pensar; nos obliga a pensar mejor”, concluye Martínez.
Primero fue en Navarra, donde un abogado citó el Código Penal colombiano; luego en Alicante, donde un abogado atribuyó jurisprudencia inexistente al Tribunal Supremo; y ahora Canarias, en donde el TSJ ha detectado hasta una docena de sentencias apócrifas. El uso de la inteligencia artificial por parte de los abogados es una realidad que plantea importantes debates deontológicos sobre el presente y futuro de la profesión.