Es noticia
Información, honorarios y confidencialidad: reglas de EEUU para el uso de la IA en la abogacía
  1. Jurídico
Adaptación constante al cambio

Información, honorarios y confidencialidad: reglas de EEUU para el uso de la IA en la abogacía

Los Colegios de Abogados de Estados Unidos se han pronunciado respecto a la utilización de esta tecnología, marcando el paso en el sector de la abogacía. Ahora, las corporaciones españolas también están preparando informes

Foto: Foto: Freepik.
Foto: Freepik.
EC EXCLUSIVO Artículo solo para suscriptores

No se habla de otra cosa y probablemente siga así durante mucho tiempo... o al menos hasta que se logre descifrar. La inteligencia artificial generativa (IAG) llegó para revolucionar el mundo y la forma de operar de las diferentes áreas de la economía y la sociedad. Cada día existen más usuarios de plataformas como ChatGPT, Bing Chat, Luzia u otras herramientas que ayudan con respuestas rápidas. Sin embargo, los peligros de estas tecnologías no tienen precedente. En este sentido, el sector de la abogacía es uno de los que mayores precauciones está tomando al respecto, y como era de esperar, Estados Unidos ha tomado la delantera en estos ámbitos y hasta el momento, tres Estados americanos han creado guías para el buen uso de la IA.

Los primeros en dar el paso fueron los del Colegio de Abogados de California (The State Bar of California), a finales del año pasado, cuando publicó su informe de Recommendations from Committee on Professional Responsibility and Conduct on Regulation of Use of Generative AI by Licensees. En este comienzan diciendo que un abogado debe comprender los riesgos y beneficios de la tecnología utilizada en relación con la prestación de servicios legales. "La forma en que se aplican estas obligaciones dependerá de una serie de factores, incluido el cliente, el asunto, el área de práctica, el tamaño de la empresa y las herramientas en sí, que van desde formatos gratuitos y fácilmente disponibles hasta formatos patentados personalizados", indican en la guía práctica del Colegio de California.

El segundo en unirse fue el Estado de Florida. El documento que generaron asegura que debido a las preocupaciones que está generando el uso de esta tecnología, los abogados que utilizan IA generativa deben tomar precauciones razonables "para proteger la confidencialidad de la información del cliente, desarrollar políticas para la supervisión razonable de su uso, garantizar que los honorarios y costos sean razonables y cumplir con las regulaciones de ética y publicidad aplicables".

Los últimos en unirse han sido los del Colegio de Abogados del Estado de Nueva York que hace solo unos días publicó su Informe y recomendaciones de la Asociación de Abogados del Estado de Nueva York: Grupo de trabajo sobre inteligencia artificial. En este aseguran que los abogados no deben infringir las normas de ética de la profesión con el fin de proteger la confidencialidad de los clientes, y hacen un llamamiento a no confiar únicamente en la información generada por la IAG. "Desde automóviles autónomos hasta ChatGPT y pistolas impresas en 3D, la IA ha transformado nuestro mundo. Si este es nuestro momento prometeico en la evolución de la IA, ahora es el momento de comprender, adoptar, utilizar y examinar mejor esta tecnología", zanjan. Pero entonces, ¿qué es lo que recomiendan los Colegios?

Confidencialidad

Este es una de las principales recomendaciones y que se repite entre los tres Estados. Por ejemplo, en California indican que un abogado no debe ingresar ninguna información confidencial del cliente en ninguna solución de inteligencia artificial que carezca de protecciones de seguridad y confidencialidad adecuadas, así como también debería revisar los términos de uso y otras informaciones de las plataformas para determinar cómo el producto va a utilizar este tipo de información. Al utilizar IA generativa, "un abogado debe proteger la confidencialidad de la información del cliente, tal y como lo requiere la Regla 4-1.6 de las Reglas que Regulan el Colegio de Abogados de Florida. El deber ético de confidencialidad tiene un alcance amplio y se aplica a toda la información obtenida durante la representación de un cliente, independientemente de su fuente" añaden desde el Florida Bar.

Comunicar al cliente

El Colegio de abogados de California recomienda que los abogados informen a sus clientes si se utilizarán herramientas de inteligencia artificial generativa como parte de su representación. El Colegio de Abogados de Florida, incluso, da un paso más allá en esta recomendación y sugiere que los abogados deben obtener el consentimiento informado de sus clientes antes de dar luz verde a la utilización de estas herramientas. Ya sea que un abogado informe al cliente u obtenga el consentimiento formal, la obligación ética de proteger los datos del cliente permanece sin cambios desde la introducción de herramientas de IA generativa.

De forma particular, el estado cuya capital es Tallahassee, comenta que los estándares requieren que un abogado informe al cliente, preferiblemente por escrito, de su intención de cobrarle el costo real del uso de la IA generativa. En todos los casos, el abogado debe asegurarse de que los cargos sean razonables y no duplicados.

¿Cuánto debo cobrar?

Este es otro de los puntos más controversiales y que han decidido abordar los Colegios. En este caso, el de Florida señala que la introducción de esta herramienta puede aumentar la eficiencia, por lo que el impacto relacionado a los honotarios debe respetar las obligaciones existentes según las reglas que tienen en EEUU (específicamente la Regla 4-1.5) que dice que se deben comunicar los honorarios contingentes y los honorarios no reembolsables por escrito. A su vez, dice que se prohiben tarifas excesivas y duplicadas, "de conformidad con los factores para determinar la razonabilidad de las tarifas". Y por último, planes de crédito, donde los abogados solo pueden cobrar los costos reales de la IA incurridos en el cliente, no los gastos generales.

"Aunque los programas de IA generativa pueden hacer que el trabajo de un abogado sea más eficiente, este aumento de eficiencia no debe dar lugar a demandas de tiempo falsamente infladas. Como alternativa, los abogados tal vez quieran considerar la adopción de acuerdos de honorarios contingentes o tarifas de facturación fijas para servicios específicos, de modo que los beneficios de una mayor eficiencia repercutan tanto en el abogado como en el cliente", zanjan. A ellos se suman desde Nueva York, donde aclaran que, si bien un abogado puede cobrar a un cliente por el tiempo razonable dedicado a la investigación y redacción de casos específicos cuando utiliza IA generativa, el abogado debe tener cuidado de no cobrar por el tiempo dedicado a desarrollar una competencia mínima en el uso de IA generativa.

Sinceridad ante Tribunal y revisión

Las guías americanas dirigen su teoría a que los letrados debe revisar todos los resultados de la IA generativa, incluidos, entre otros, análisis y citas a la autoridad para verificar su exactitud antes de presentarlos al Tribunal. Esto con el fin de que cualquier error que pueda surgir en la información o si existiese algún tipo de alucinación—información incorrecta o poco confiable producida por un LLM o un chatbot de IA generativa— se pueda corregir antes de presentarlo. "Un abogado también debe verificar si existen reglas, órdenes u otros requisitos en la jurisdicción correspondiente que puedan requerir la divulgación del uso de IA generativa", indican.

En el informe de NY, aclaran que un abogado no deberá, a sabiendas, "hacer una declaración falsa de hecho o de derecho ante un tribunal o no corregir una declaración falsa de hecho material o derecho presentado previamente al tribunal por el abogado"; ofrecer pruebas que el abogado sabe que son falsas, "un abogado puede negarse a ofrecer pruebas, distintas del testimonio de un acusado en un asunto penal, que el abogado crea razonablemente que son falsas", informan.

Educar

En este sentido, muchos abogados y entidades a lo largo de los últimos meses han salido al paso para recomendar que se comience con la educación temprana de los abogados y futuros abogados para el uso de la IAG. El Grupo de Trabajo de Nueva York recomienda que los abogados de su Estado, den prioridad a la educación, además de la legislación, enfocándose en educar a jueces, abogados, estudiantes de derecho y reguladores para que comprendan la tecnología de modo que puedan aplicar las leyes existentes para regularla.

A su vez, la Junta de California pide que se desarrollen programas de educación que ayuden a los abogados a comprender y adquirir competencia con respecto a los posibles riesgos, beneficios e implicaciones éticas del uso de IA generativa. Así como también para examinar los impactos potenciales de la IA generativa en los estudiantes de derecho y los solicitantes de abogados; "y trabajar con la Legislatura y la Corte Suprema de California 2 para considerar regulaciones nuevas o revisadas con respecto al uso de IA generativa en la práctica del derecho".

Identificación de riesgos

"Las legislaturas y los reguladores deben identificar los riesgos asociados con la tecnología que no están abordados por las leyes existentes, lo que probablemente implicará audiencias y estudios extensos que involucren a expertos en IA y, según sea necesario, adoptar regulaciones y legislación para abordar los riesgos", apuntan desde el Colegio de Abogados de Nueva York. Por su parte, en Florida también dicen que esta es una tarea que debería cumplirse desde la profesión: “Un abogado debería considerar estos y otros riesgos antes de utilizar la IA generativa y nuevas tecnologías en prestación de servicios jurídicos".

Foto: Foto: iStock/CSA-Archive/EC Diseño.

Otras recomendaciones y líneas que entregan los colegios son las responsabilidades profesionales debidas a otras jurisdicciones; la prohibición de discriminación, acoso y represalias; el deber de supervisión de abogados y no abogados; las responsabilidades de los abogados subordinados; examinar la función de la ley en la gobernanza de la IA; la adopción de pautas de trabajo de IA, entre otros. Esta idea de crear una normativa base para los abogados de cada Estado surgió por la incertidumbre y el rápido avance de esta tecnología.

Los diferentes formatos para su aplicación o, incluso, los peligros a los que se pueden enfrentar tanto abogados como clientes hicieron que los Colegios intentaran poner freno a los posibles daños que pudiesen surgir. Por ejemplo, en Colorado, un abogado fue suspendido por un año y un día por haber infringido sus deberes de diligencia, competencia, probidad y lealtad en la profesión. De acuerdo a este caso, el letrado presentó un escrito que se basaba en jurisprudencia creada por la IA, y aunque tenía claro el uso que estaba haciendo, el profesional decidió no avisar sobre su uso al juzgado. Cuando todo le salió mal y el magistrado descubrió las cifras falsas, el abogado decidió culpar al becario, aunque días después admitió que había sido una tarea realizada con ChatGPT.

Otro caso como este ocurrió en el mismo Estado de Florida. Un letrado de más de 15 años de experiencia violó las reglas de un tribunal, al igual que la conducta profesional de un abogado del Estado, ya que, también presentó jurisprudencias inexistentes que había obtenido con IA. El defensor de la contraparte se dio cuenta de que los casos expuestos en el documento no existían. Después de ello se le solicitó que entregase sus fuentes de información, ante lo que aseguró que usó datos de páginas y que "pudo haber usado inteligencia artificial para redactar los expedientes, pero sin verificar los extractos y las citas aportados por esta".

* Si no ves correctamente el módulo de suscripción, haz clic aquí

De esta forma, los Colegios buscan evitar situaciones como estas y prevenir un caos mayor en el mundo de la abogacía. Por otro lado, aunque todavía no entregan sus recomendaciones éticas sobre el uso de la tecnología, actualmente hay otros estados en EEUU que están pensando en unirse a Florida, California y Nueva York. Entre ellos, Texas, Illinois, Nueva Jersey, Minnesota y Kentucky. Según indican medios americanos, en los próximos meses, ellos también deberían estar publicando sus informes de buenas prácticas de IA. La Asociación de Abogados de Estados Unidos también dijo hace meses que formarían un grupo para evaluar cómo la IA afectará la práctica del derecho y para investigar las cuestiones éticas que la tecnología plantea para la profesión jurídica.

¿Cómo se vive esto en España?

Aunque todavía no existe ninguna normativa clara sobre su uso en el sector de la abogacía de los negocios en España, según ha podido saber El Confidencial, el Ilustre Colegio de Abogados de Madrid (ICAM) está actualmente preparando una guía práctica para el uso de la inteligencia artificial. Sobre los riesgos que puede generar a la abogacía, el decano del ICAM, Eugenio Ribón, comenta que ChatGPT y las herramientas similares podrían generar noticias falsas, fraude de identidad, piraterías, entre otros casos, por lo que "dan la bienvenida a que se regulen estos usos de IA". En este sentido, Ribón aclara que, para él, la IA no necesariamente hará que los abogados pierdan los puestos de trabajo, sino que la mejor forma sería integrarlo, aunque de manera responsable y clara.

"El futuro de la IA es muy impredecible. Lo cierto es que la IA ha ido evolucionando exponencialmente durante los últimos 5 años. Existe un gran potencial en nuestro sector para estas herramientas; sin embargo, es un gran desafío y una tarea nada trivial identificar usos para estos algoritmos de IA en nuestro trabajo porque fueron desarrollados para un propósito específico. Se requiere una comprensión profunda de estos algoritmos", expone Ribón. Desde el ICAM también cuentan que ellos como entidad están realizando procesos de acompañamiento para su uso y velando para que no perjudique a la profesión.

Es por esta misma razón que el ICAM ya está preparando esta guía de buenas prácticas para la IA y ya está ayudando a sus colegiados con dos intrumentos clave. En primer lugar, tiene tres secciones muy especializadas en las que analiza en profundidad todas las implicaciones y se introduce a los profesionales y despachos en las posibilidades y uso responsables de estas herramientas. Esto abarca las secciones de TIC, Robótica e Innovación. En segundo lugar, "ya está en marcha un grupo de trabajo liderado por nuestra diputada Mabel Klimt que trabaja en una guía sobre IA para la abogacia", con el fin de que la abogacía de España también comience a aplicar medidas como las de EEUU.

"Ya está en marcha un grupo de trabajo liderado por nuestra diputada Mabel Klimt que trabaja en una guía sobre IA para la abogacía"

Hace unos meses este medio realizó una serie de artículos sobre el posible impacto de esta tecnología en el sector. En particular, se analizaron los cambios que la inteligencia artificial generativa provocará en el sector legal y la visión de diversos agentes. En estos se abordó cómo cambiarán las tareas y qué letrados deben temer por su empleo; la composición del mercado legal; el desempeño de las asesorías jurídicas; el impacto interno de los bufetes y su organización; la responsabilidad del letrado ante los fallos de la máquina y las implicaciones deontológicas del uso de esta tecnología; los retos que universidades y bufetes afrontan para enseñar esta tecnología, entre otros, llegando a la conclusión de que es uno de los sectores que más cuidado debe tener con el uso de estas herramientas.

Actualmente, existen despachos españoles que ya utilizan herramientas de IAG en su día a día para optimizar sus procesos, e incluso hay otros que han creado sus propias plataformas con esta tecnología. Uría Menéndez, Cuatrecasas, Garrigues, PwC Tax & Legal y Allen & Overy tomaron la decisión de integrar a su sistema la solución de IA conocida como Harvey. Pérez-Llorca, por su parte, se convirtió en el primer bufete español en integrar Leya, la competencia de Harvey. Aunque aún no hay líneas generales sobre su uso, su implementación ya está aquí. Poco a poco habrá que introducir nuevas medidas, como la actual Ley de Inteligencia Artificial de la UE, y las guías prácticas como las americanas.

Sin embargo, esto tendrá que ir en permanente cambio, ya que, como analizan tanto en Estados Unidos como en España, el beneficio de crear estas guías es que ahora los abogados tendrán una línea que seguir, pero, sin embargo, el problema es que se trata de una tecnología que hará que todos los sistemas se vayan actualizando de forma constante. Un desafío que se tendrá que ir abordando desde todos los sectores y entidades relacionadas a la abogacía.

No se habla de otra cosa y probablemente siga así durante mucho tiempo... o al menos hasta que se logre descifrar. La inteligencia artificial generativa (IAG) llegó para revolucionar el mundo y la forma de operar de las diferentes áreas de la economía y la sociedad. Cada día existen más usuarios de plataformas como ChatGPT, Bing Chat, Luzia u otras herramientas que ayudan con respuestas rápidas. Sin embargo, los peligros de estas tecnologías no tienen precedente. En este sentido, el sector de la abogacía es uno de los que mayores precauciones está tomando al respecto, y como era de esperar, Estados Unidos ha tomado la delantera en estos ámbitos y hasta el momento, tres Estados americanos han creado guías para el buen uso de la IA.

Inteligencia Artificial Despachos Abogados
El redactor recomienda