¿Quién paga el pato si la IA se inventa una sentencia o una ley: ChatGPT o el abogado?
El sexto artículo del serial sobre el impacto de la IA generativa en la abogacía analiza cuestiones esenciales como la responsabilidad del letrado ante los fallos de la máquina y las implicaciones deontológicas del uso de esta tecnología
Es difícil saber qué percepción es mayoritaria en la abogacía en relación con la inteligencia artificial (IA) generativa: si se trata de una gran oportunidad o de una importante fuente de riesgos. De hecho, la primera reacción en muchos despachos tras la apertura al público de ChatGPT fue prohibir su uso por los peligros que conllevaba en relación con la confidencialidad, la protección de datos y la seguridad de la información, y por las temidas alucinaciones —respuestas con apariencia de veracidad, pero que contienen información inventada por la máquina—. Una reacción defensiva lógica. La de abogado es una profesión regulada, sometida a un código deontológico y a estrictas exigencias de responsabilidad en caso de errores o negligencias en su labor de asesoramiento jurídico; y uno de los principales activos de los bufetes es su reputación y la confianza que sepan generar en sus clientes. Cualquier desliz en su servicio puede acabarse pagando muy caro.
"Lo primero que hicimos tras la eclosión de ChatGPT fue establecer una política interna para que nadie lo utilizara con información de clientes o la firma", asevera Idoya Fernández, socia y directora del área de Conocimiento e Innovación de Cuatrecasas. Exactamente la misma reacción que se produjo en Garrigues, según describe Eduardo Abad, socio responsable del Comité de Innovación y Digitalización de la firma, que recuerda que también a nivel general se discutió si debía prohibirse la aplicación de OpenAI hasta contar con una regulación. "Para fijar un protocolo de uso, antes tiene que conocer bien cómo funciona la herramienta, por eso incorporamos a algunos expertos en tecnología que nos ayudaran a entenderla. Una vez tuvimos esas pautas, iniciamos una campaña de formación en competencias digitales". En sus políticas y sus cursillos formativos, explican Fernández y Abad, se incide en materias críticas como protección de datos, competencia o propiedad intelectual, y también se enfatiza en "la prohibición de que el output que ofrece la máquina pueda emplearse o entregarse directamente al cliente", indica el socio de Garrigues.
También en Uría Menéndez optaron por el binomio formación y protocolos, antes incluso de tener sus propias soluciones, al comprobar que ChatGPT y otras herramientas de IA generativa estaban al alcance de todo el que tuviera un ordenador. "Hemos impartido sesiones formativas a todo el despacho, no solo a los abogados, y publicado una guía de lo que se puede y no se puede hacer con estas soluciones". señala Eva García Morales, directora de Innovación Legal de la firma. El bufete se rige por la idea de que el aprendizaje en materia de IA generativa no puede debilitar la formación tradicional, pues es "fundamental" que los letrados tengan "el criterio y la capacidad suficientes" para discernir si las respuestas que les ofrece "son alucinaciones o pueden ser aprovechables", o si, por el contrario, son invenciones. Porque uno de los grandes riesgos de esta tecnología es que, cuando se le hace una pregunta de la que desconoce su contestación, en lugar de decir "no lo sé" genera una respuesta perfectamente redactada y aparentemente coherente.
Y es que el peligro de ser víctima de las alucinaciones no es ni mucho menos hipotético o teórico. Ya se han producido casos de abogados que han sido sancionados o amonestados por incluir en sus escritos referencias inexistentes, creados por la IA generativa, algunos de los cuales han sido recopilados por Javier Martínez, counsel del bufete Ayuela Jiménez. Así, en junio, un juzgado de Nueva York impuso una sanción de 5.000 dólares a los letrados que pilotaron un asunto por citar precedentes inventados por ChatGPT, obligándoles, además, a notificar la sentencia a sus clientes y a los jueces que supuestamente habían dictado las resoluciones falseadas por la máquina. También en Estados Unidos, un abogado de Colorado fue suspendido el mes pasado durante un año y un día por infringir sus deberes de diligencia, competencia, probidad y lealtad. En abril, el profesional presentó un escrito que se basaba en jurisprudencia creada por la IA y, aunque se percató de ello antes de una vista, no alertó al juzgado, sino que culpó a su becario cuando el magistrado le preguntó por las citas falsas. Días después, admitió que eran producto de ChatGPT.
Pero no solo abogados han caído en la trampa de confiar en exceso en la IA generativa. También jueces. El recopilatorio de Martínez incluye el caso de un juez del Estado de Acre, en Brasil, que se enfrenta a una investigación del Consejo Nacional de Justicia por citar jurisprudencia inexistente del Tribunal Superior de Justicia. A la espera de ver cómo concluye dicho expediente, la Inspección Regional del Tribunal Regional Federal da 1ª Região ha emitido una circular que recomienda que los jueces no empleen herramientas de IA generativa abiertas y no homologadas, y les advierte de posibles responsabilidades en caso de hacerlo. Además, recuerda a los integrantes del poder judicial brasileño los deberes de cautela, supervisión y divulgación responsable de los datos personales que consten en el procedimiento. Estos tres no son los únicos casos en los que profesionales del derecho se han visto traicionados por las alucinaciones. Y los que están por venir.
Una amplia mayoría ve riesgos
El sexto y último artículo —al menos, de momento— del serial que El Confidencial está publicando sobre el impacto de la IA generativa en la abogacía, está dedicado a la responsabilidad de los profesionales respecto de su uso, así como a las implicaciones éticas y deontológicas que la utilización de esta tecnología pueden conllevar. De este modo, se cierra el círculo de un conjunto de reportajes que han abordado, por este orden, qué tareas de las que realizan los letrados pueden ser sustituidas por la máquina (artículo que puede leer pinchando aquí); cómo la IA revolucionará el mercado de los servicios legales (al que puede acceder aquí); los cambios que provocará en la contratación de despachos por parte de los clientes y en la gestión de las asesorías jurídicas (que tiene disponible en este enlace); los desafíos para la estructura y organización de los bufetes (que puede leer aquí), y, finalmente, la sacudida que la máquina provocará en la formación de los abogados (accesible aquí).
La gran preocupación con la IA es la falta de precisión en las respuestas, aunque también hay dudas sobre la privacidad y los principios éticos
Son distintos los estudios que enumeran los riesgos que vislumbran los letrados en el uso de la IA generativa. El caso del reciente IA Report 2023, de Lefebvre, se recopilan, por este orden, la privacidad y la seguridad de los datos; el sesgo algorítmico; la ética y la moralidad —también en relación con los usos indebidos—; la rendición de cuentas y responsabilidad; la manipulación y la propaganda; el impacto económico y la pérdida de puestos de trabajo; las infracciones de propiedad intelectual; los retos normativos, y otras consecuencias no deseadas o riesgos imprevistos. El documento asevera que, aunque aún no exista una regulación que aborde todas estas cuestiones, la IA generativa no puede sustituir la responsabilidad de los profesionales, que serán en todo caso quienes respondan en caso de fallo o error.
Otro informe de Thomson Reuters señala que la principal preocupación de los abogados en relación con las herramientas que ya emplean esta tecnología es la falta de precisión en las respuestas que ofrecen —así lo señaló el 25% de los encuestados—. Para el 15%, también son relevantes los problemas que plantean en torno a la protección de datos y la seguridad de la información, mismo porcentaje que teme la pérdida de valores éticos o deontológicos. Según los autores del estudio, muchos de los participantes en el sondeo se mostraron suspicaces ante la posibilidad de que los clientes comenzaran a utilizar la IA generativa por ellos mismos, sin que fueran capaces de identificar cuándo una respuesta es inexacta o incompleta, lo cual revela también un importante riesgo para el negocio, pues el autodiagnóstico jurídico implica prescindir de los despachos.
"Las principales cuestiones a vigilar en el uso de las herramientas de IA generativa son la protección de datos y la confidencialidad", certifica Patricia Manca, socia de Legal Management Services de PwC Tax & Legal, "y, una vez generada la respuesta, la supervisión de la misma, pues en algunos casos el nivel de alucinaciones puede ser bastante relevante". Porque, por mucho que sea la máquina quien induzca al fallo ofreciendo una contestación aparentemente verídica pero inventada, quien responde de la misma siempre será el bufete o el abogado, tal y como subraya Francisco Pérez Bes, socio de Ecix Group y experto en la regulación de la abogacía. Así, el artículo 12.A.8 del código deontológico de la profesión establece que el letrado "asesorará y defenderá al cliente con el máximo celo y diligencia asumiéndose personalmente la responsabilidad del trabajo encargado sin perjuicio de las colaboraciones que se recaben".
"Con el derecho en vigor, siempre será responsable el abogado", certifica Moisés Barrio, letrado del Consejo de Estado y profesor de Derecho Digital, que señala que los términos de uso y condiciones, las soluciones basadas en IA generativa "advierten expresamente de la posibilidad de incurrir en las denominadas alucinaciones o absurdos algorítmicos, que son técnicamente inherentes a este tipo de tecnología, que sustituye la causalidad por predicción". Misma razón por la que el letrado no podría actuar contra el proveedor tecnológico si se considerara perjudicado por el funcionamiento de la máquina. En cualquier caso, para facilitar la depuración y evaluación de estas respuestas, "ha surgido la subrama denominada RAG [Retrieval-Augmented Generation], la cual, además de citar las fuentes externas de información utilizadas en las contestaciones, contiene capacidades para reducir considerablemente la posibilidad de que la IA generativa incurra en alucinaciones", expone Barrio.
Sin embargo, con la supervisión de las respuestas de las herramientas no terminan los deberes exigibles a los letrados. Como agregan Pérez Bes y Barrio, los profesionales también deben guardar la debida cautela en relación con las soluciones en las que introducen la información de sus clientes. En este sentido, el artículo 47.4 del Estatuto de la Abogacía determina que el letrado "realizará, con plena libertad e independencia y bajo su responsabilidad, las actividades profesionales que le imponga la defensa del asunto que le haya sido encomendado, ateniéndose a las exigencias técnicas y deontológicas adecuadas". Un precepto que puesto en relación con el requerimiento de que los datos personales sean "tratados de tal manera que se garantice una seguridad adecuada", establecido en el artículo 5.1.f) del Reglamento General de Protección de Datos (RGPD), impone a los abogados el analizar si las herramientas que empleen son las idóneas para compartir la información de sus clientes. También la normativa de ciberseguridad es especialmente exigente al respecto.
"Sería deseable que el Consejo General de la Abogacía Española (CGAE) hubiera ofrecido ya pautas sobre qué se consideran unas medidas de seguridad adecuadas pero, a falta de un criterio general, tendrá que ser algo que evalúe cada despacho o cada abogado", se lamenta Pérez Bes, quien recuerda además que muchos de los proveedores tecnológicos jurídicos alojan sus datos fuera de la Unión Europea (UE), lo cual plantea el riesgo añadido de que el tratamiento de los mismos se rija por normativas diferentes a la europea. Y quien no guarde la diligencia debida y cause por ello un menoscabo a su cliente, se enfrenta a una posible reclamación por daños y perjuicios, de acuerdo con el artículo 82 del RGPD. "Incluso la nueva Directiva NIS2, actualmente en fase de transposición en los Estados miembros, ha ampliado las obligaciones y responsabilidades en materia de ciberseguridad", remarca Barrio.
No facturar por horas si usas la IA
Antes del boom de ChatGPT, en 2020, el Consejo de la Abogacía Europea (CCBE) si ofreció una serie de directrices sobre la IA para los profesionales del derecho. Ya por aquel entonces, la entidad solicitaba una "reflexión" para abordar si la regulación deontológica era o no suficiente al respecto. Los principios deontológicos que el CCBE estimaba "esenciales" en relación con esta tecnología eran la observancia del deber de competencia profesional; la obligación de informar al cliente, preservando la independencia profesional, tanto en la defensa como en el asesoramiento jurídico; la obligación de guardar secreto profesional, y la de proteger los datos e información de los clientes. "No basta con aceptar los resultados emitidos por la IA, sino que el abogado ha de contrastarlos con sus propios conocimientos", advertía el consejo, "lo que implica la asunción de la responsabilidad derivada de los resultados y de las opiniones que emita a partir de los datos obtenidos por la IA, pues los algoritmos no son infalibles".
También fuera de España, hace solo unas semanas, la SRA, la autoridad reguladora británica de la abogacía, emitió un informe en el que alertó a los profesionales sobre el exceso de confianza en la IA generativa, una tecnología que "no tiene un concepto de verdad", afirmó. El organismo, incluso, comparó estas herramientas con "adolescentes brillantes, deseosos de ayudar, pero que no comprenden del todo que su conocimiento tiene límites". Por todo ello, la SRA recomendaba emplear estos sistemas para "acelerar y automatizar tareas rutinarias", es decir, como un apoyo, "en lugar de para reemplazar el juicio humano". Un decálogo que concluye con un aviso para los profesionales del derecho: "Recuerde que no puede delegar su responsabilidad en un equipo de IT o un proveedor externo".
Asimismo, el Colegio de Abogados de California, en Estados Unidos, aprobó a mediados de noviembre un informe que ofrecía pautas a sus profesionales para el uso de lA generativa, como no introducir información confidencial y no anonimizada en las herramientas "que carezcan de protocolos de seguridad", y desconfiar de la máquina si lo que se requiere una respuesta precisa o imparcial. Asimismo, la institución abre el melón de pedirle a los letrados que "consideren" revelar a sus clientes la utilización de la IA para que estos sean conscientes de sus riesgos y beneficios, y censura que facturen por horas aquellas tareas en las que se han aplicado herramientas de este tipo. Estas reglas, explican los medios especializados norteamericanos, podrían ser incluso citadas por los magistrados que evalúen las conductas de los abogados en la adopción de medidas disciplinarias contra los mismos.
En este sentido, el IA Report 2023 de Lefebvre pronostica que serán los clientes los que demandarán a sus bufetes "más transparencia y responsabilidad", exigiendo una información "clara y precisa" sobre la utilización de la inteligencia artificial generativa "de sus procesos de trabajo, costes, resultados y riesgos". El estudio, de hecho, que acabará siendo asumida como una obligación de los profesionales, que "deberán informar de ello a los clientes y concretar qué grado de implicación ha tenido esta tecnología sobre su asunto", pudiendo convertirse en "requisitos de contratación" que los despachos "se adhieran a altos estándares de ética, calidad y seguridad" en relación con el uso de esta tecnología.
Noelia Palacios (Intrum): "Sabemos que los bufetes serán muy cautelosos, pero a los ALSP les pediremos que acrediten que cumplen"
Desde el lado de las asesorías jurídicas de las empresas, Noelia Palacios, directora legal de Intrum, muestra su confianza en que las grandes firmas "serán muy cautelosas" con todos los riesgos que implica la IA generativa, "pues se juegan su reputación". Quienes sí tendrán que hacer un esfuerzo mayor en acreditar que cumplen con todos los estándares y políticas exigibles serán las nuevas firmas, como los ALSP o las legaltech. "A ellos les exigiremos más información sobre qué herramientas están utilizando y de qué manera, qué tipo de tratamiento harán de nuestros datos, dónde alojarán la información que les entreguemos... Es normal, aún no tienen el recorrido de los despachos tradicionales", reflexiona Palacios.
La regulación que está por venir
"Estamos ante una materia que plantea grandes interrogantes en materia de deontología", avanza Mabel Klimt, diputada responsable de Innovación del Ilustre Colegio de la Abogacía de Madrid (ICAM) y socia directora de la firma Elzaburu. Desde la institución, explica Klimt, están siguiendo de cerca el proceso regulatorio iniciado por la UE con la AI Act. En su nota emitida en junio, el Europarlamento fijó que sus objetivos eran garantizar que los sistemas de IA utilizados en territorio europeo "sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente", además de que sean sistemas "supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales".
La europea no es la única iniciativa en materia normativa que en los últimos meses se ha puesto en marcha. En octubre, España lanzó el primer sandbox regulatorio de la IA, proyecto lanzado en colaboración con la Comisión Europea, un espacio que busca conectar a las autoridades con las compañías regulatorias de la IA, con el objetivo de definir un catálogo de buenas prácticas a la hora de implementar la futura legislación. En Estados Unidos, por su parte, la Administración ha planteado una Carta de Derechos ante la IA y, en China, el Ministerio de Ciencia y Tecnología ya ha publicado un código ético.
"Me preocupa que, en lugar de favorecer que haya más abogados que puedan acceder a las herramientas de IA generativa, las condiciones que parece que quiere imponer la UE lo que favorezcan es una mayor concentración de mercado, pues solo los grandes bufetes puedan cumplir con las mismas", cuestiona Elen Irazabal, fundadora y CEO de AdvocatusAI y formadora de letrados en materia tecnológica. Además, Irazabal expone sus dudas sobre si algunos requisitos éticos que se incluyen no pueden ser contradictorios entre sí. "Por ejemplo, se exige, a la vez, precisión y explicabilidad. Pero para poder explicar algunos procesos vas a requerir un algoritmo más sencillo, lo cual puede rebajar la exactitud de sus resultados. Entonces, ¿qué ética priorizamos cumplir?". En relación con la concreta regulación deontológica que puedan aprobar las instituciones de la abogacía, la especialista teme que tiendan a "un proteccionismo un poco antiguo, que favorezca su demonización o incremente sus costes, que desincentive el uso de las herramientas, en lugar de proyectarlas como una gran oportunidad".
Una desconfianza que parecen compartir una mayoría de los profesionales del derecho, que, según una encuesta de Thomson Reuters, se decantan por la autorregulación antes que por una normativa elaborada por los poderes públicos. Ahora bien, esta percepción muestra importantes variaciones según el tipo de organización en la que se encuentre el letrado o especialista. Así, mientras que en las firmas de fiscal o en los despachos quienes son partidarios de que el sector se autorregule son el 60% y el 53%, en el sector público y en las asesorías jurídicas empatan en cuatro de cada 10 quienes se decantan por dicha opción y quienes prefieren legislación de carácter público. En lo que sí existe consenso, según indica el estudio, es que la regulación es necesaria para ofrecer confianza y seguridad jurídica a los usuarios de la IA generativa, así como para los clientes de quienes la emplean. Una confianza que, a su vez, actuará como impulsor de esta tecnología.
Lo que nadie parece haber puesto sobre la mesa, y es un asunto que las instituciones de la abogacía deberían anticipar, concluye Francisco Pérez Bes, son los nuevos casos de intrusismo profesional que pueden producirse al calor de las facilidades que ofrecen las herramientas de IA generativa. "Cualquiera va a poder hacerse pasar por abogado", advierte, "y será importante que el Consejo y los colegios actúen con diligencia para vigilar, perseguir y, en su caso, denunciar a quien así actúe". Ante lo que experto considera que no habrá margen de actuación será contra aquellos proveedores tecnológicos que pongan las soluciones directamente a disposición del cliente no abogado. "Es como el que, en vez de ir al médico, se autodiagnostica usando Google", remata, "solo cabe incidir en la concienciación de la necesidad de acudir a un profesional del derecho para evitar males mayores".
Es difícil saber qué percepción es mayoritaria en la abogacía en relación con la inteligencia artificial (IA) generativa: si se trata de una gran oportunidad o de una importante fuente de riesgos. De hecho, la primera reacción en muchos despachos tras la apertura al público de ChatGPT fue prohibir su uso por los peligros que conllevaba en relación con la confidencialidad, la protección de datos y la seguridad de la información, y por las temidas alucinaciones —respuestas con apariencia de veracidad, pero que contienen información inventada por la máquina—. Una reacción defensiva lógica. La de abogado es una profesión regulada, sometida a un código deontológico y a estrictas exigencias de responsabilidad en caso de errores o negligencias en su labor de asesoramiento jurídico; y uno de los principales activos de los bufetes es su reputación y la confianza que sepan generar en sus clientes. Cualquier desliz en su servicio puede acabarse pagando muy caro.
- Aunque tu abogado no lo reconozca, es muy probable que consulte tu caso en ChatGPT Pedro del Rosal
- ¿Sobran júniors?, ¿faltan socios capitalistas? La IA desafía la estructura de bufetes de élite Pedro del Rosal María Jesús Labarca
- Los bufetes de élite ya admiten que ficharán "menos júniors" por la inteligencia artificial Pedro del Rosal