Mi letrado es un robot: el pulso de la abogacía para blindar su negocio del 'neointrusismo digital'
La reforma en el código penal propuesta por el ICAM abre un debate sobre los límites de lo que es asesoramiento en la abogacía y si las herramientas diseñadas por IA de consejos legales están incurriendo en esto
'Neointrusismo' digital. Este ha sido el término usado por el Ilustre Colegio de la Abogacía de Madrid (ICAM) con el que se ha propuesto poner coto a los chatbots de inteligencia artificial que ofrecen consejos legales a los usuarios. El mayor colegio de abogados de Europa registró hace un par de semanas una propuesta en el Congreso de los Diputados para reformar el artículo 403 del Código Penal, que regula el intrusismo profesional.
En su nota de prensa, el organismo dirigido por Eugenio Ribón advertía de que la proliferación de plataformas y chatbots que ofrecen “asesoramiento jurídico sin control profesional” empujan a los usuarios a tomar decisiones “con riesgo de errores difíciles de detectar por los usuarios y sin garantías de responsabilidad”.
La medida, “legítima y bien redactada”, según señalan expertos de la materia consultados, ha abierto un debate en la profesión que tiene varios ángulos. Desde si esto debe hacerse vía reforma del Código Penal, hasta si el interés del ICAM responde más a un fin de protección del negocio corporativo que al de los usuarios.
“Habría que empezar planteándose qué significa asesoramiento legal. Un fiscalista que estudia ADE y trabaja en un despacho, asesora fiscalmente, aunque no sea abogado ni esté colegiado”, explica Javier Gómez Lanz, profesor de Derecho Penal de la Universidad Pontificia Comillas ICAI-ICADE.
El propio Gómez Lanz introduce uno de los nudos jurídicos de la discusión: el bien jurídico protegido por el delito de intrusismo. A su juicio, el artículo 403 del Código Penal siempre ha generado tensiones porque puede percibirse como un instrumento de protección corporativa si no se ancla con claridad en la defensa del ciudadano. El Tribunal Supremo, recuerda, ha tratado de reconducir su interpretación hacia la tutela de los usuarios y de la confianza en determinadas profesiones, evitando que se convierta en una mera barrera de entrada.
Acreditar peligro concreto
Porque si el bien jurídico protegido es la seguridad del ciudadano y la confianza en el tráfico jurídico, la ampliación del tipo penal al ámbito de la inteligencia artificial exige algo más que una intuición de riesgo. Exige acreditar un peligro concreto y diferenciado “que no pueda abordarse por otras vías regulatorias en fase administrativa, por ejemplo”, señala el profesor de Comillas.
Para Gómez Lanz, la frontera entre acto propio de la abogacía y actividad jurídica en sentido amplio no es nítida. Nunca lo ha sido. Y trasladar esa ambigüedad al ámbito penal multiplica las dudas. En la misma línea, Alexander Benalal, socio de 'Think Smart Legal', introduce otra cautela relevante.
Es comprensible, admite el abogado, la preocupación por la falta de responsabilidad cuando una herramienta automatizada induce a error. Pero trasladar la respuesta directamente al Código Penal puede resultar desproporcionado si no se concreta el daño. El riesgo, advierte, es que bajo la etiqueta de “protección del consumidor” se termine consolidando una “reserva corporativa penalizada”.
Quién sí y quién no
Porque el Derecho penal es la última ratio. Y cuando se utiliza para delimitar quién puede o no prestar asesoramiento jurídico en la era digital, la pregunta inevitable es si se está protegiendo al ciudadano frente a un riesgo real o si se está blindando un mercado profesional frente a una amenaza tecnológica.
La abogacía es una de las profesiones con mayor potencial de automatización en determinadas áreas. A diferencia de la medicina, donde el diagnóstico requiere exploración física y pruebas clínicas, buena parte del trabajo jurídico consiste en analizar normas, precedentes y documentación estructurada.
Ya ocurre en los despachos especializados en reclamaciones masivas frente a la Administración, entidades financieras o aerolíneas. Procedimientos repetitivos, con patrones claros y documentación homogénea, donde la tecnología permite estandarizar escritos, calcular intereses o verificar requisitos formales. Plataformas de reclamación online han demostrado que determinados conflictos pueden procesarse casi de forma industrial.
La inteligencia artificial generativa añade un elemento nuevo: no solo automatiza tareas internas, sino que interactúa directamente con el usuario y emite recomendaciones individualizadas. Y es ahí donde el ICAM sitúa el foco del riesgo.
Supervisión humana
En la propuesta registrada en el Congreso, el ICAM plantea reformar el artículo 403 para castigar a quienes, “con ánimo de lucro o en el marco de una actividad empresarial”, diseñen, comercialicen u ofrezcan sistemas automatizados que “generen, recomienden o confeccionen” actuaciones propias de una profesión regulada sin la “intervención directa y efectiva” de un profesional habilitado.
El colegio sostiene que la intervención penal está justificada porque el fenómeno supera el umbral clásico de la última ratio. En el documento remitido a este medio, defiende que “el intrusismo profesional mediante plataformas de inteligencia artificial supera el umbral de intervención penal en la medida que afecta bienes jurídicos fundamentales, presenta un riesgo sistémico de daño masivo, resulta insuficientemente abordable por vías administrativas y erosiona la confianza pública en profesiones reguladas”.
La propuesta parte de que el peligro no es hipotético, sino “estructural y previsible” por la combinación de “escala y desintermediación”, “daño potencial cualificado” y el “riesgo técnico propio de LLM”, incluida la “vocación obligada de respuesta” y la posibilidad de “canales ciegos” o alucinaciones que el usuario medio difícilmente puede detectar. Desde esta óptica, no se exige “aportar ya una estadística cerrada de casos”, sino acreditar “un riesgo cualificado” que legitime una respuesta preventiva.
El ICAM insiste en que “la IA, como en todas las profesiones reguladas, solo puede ser una herramienta, no un sustituto de la profesión manejado por terceros”. Por eso exige una “intervención humana profesional ‘directa y efectiva’ y con identificación del profesional responsable ante el destinatario”, con “asunción de responsabilidad profesional”, “capacidad real de control sobre el output” y “trazabilidad e identificación”.
En definitiva, el colegio defiende que sin ese ajuste penal podría abrirse “un campo de impunidad incompatible con el bien jurídico del 403”, porque la prestación sustantiva de actos propios podría realizarse sin asumir “cargas y responsabilidades equivalentes a las del ejercicio profesional habilitado”. Ahí sitúa la línea roja: no la herramienta, sino su sustitución del profesional ante el público.
La IA en los juzgados
El debate no se limita a los despachos. La nueva instrucción del Consejo General del Poder Judicial (CGPJ) sobre el uso de inteligencia artificial por jueces ha abierto un frente paralelo: hasta dónde puede llegar la tecnología en la redacción de resoluciones sin afectar a la independencia judicial, la motivación de las sentencias o el derecho al juez predeterminado por la ley.
En opinión de Benalal, socio de 'Think Smart Legal', el texto “dibuja un perímetro claro: la IA puede asistir, pero no decidir”. La instrucción permite el uso de sistemas facilitados por las administraciones competentes o por el propio CGPJ como instrumentos de apoyo, pero exige siempre “revisión y validación personal, completa y crítica del juez que asume la responsabilidad”. Dicho de otro modo, la herramienta puede sugerir texto, pero “la argumentación solo es legítima si el juez la hace suya tras un control real, no como copia automática”.
Desde el punto de vista constitucional, Benalal sostiene que el estándar no cambia: la obligación de motivar y la garantía del juez predeterminado siguen operando con independencia del origen material del texto. “La motivación no se satisface por el ‘origen’ del texto, sino por el hecho de que el juez explique razones propias, controlables y revisables”, afirma.
El riesgo principal no sería tanto una erosión de la independencia real, ya que “la decisión sigue siendo humana y la responsabilidad personal es indelegable”, sino un problema de apariencia y trazabilidad. En el marco del Reglamento europeo de IA, además, estos sistemas encajarían previsiblemente en la categoría de “alto riesgo”, lo que implica exigencias reforzadas de documentación, gestión de riesgos y supervisión humana.
'Neointrusismo' digital. Este ha sido el término usado por el Ilustre Colegio de la Abogacía de Madrid (ICAM) con el que se ha propuesto poner coto a los chatbots de inteligencia artificial que ofrecen consejos legales a los usuarios. El mayor colegio de abogados de Europa registró hace un par de semanas una propuesta en el Congreso de los Diputados para reformar el artículo 403 del Código Penal, que regula el intrusismo profesional.