La integración de la inteligencia artificial en el sistema judicial ya no es una cuestión de ciencia ficción, sino una realidad inminente. Mientras que la automatización puede servir para agilizar los procesos burocráticos, también despierta temores sobre la deshumanización de la justicia y la perpetuación de prejuicios algorítmicos.
Hablamos con Carmen Boldó Roda, Catedrática de Derecho Mercantil de la Universitat Jaume I, vocal de la Asociación de Juristes Valencians y miembro de la Real Academia Valenciana, para analizar los claroscuros sobre las aplicaciones de la IA en el mundo del Derecho.
En primer lugar, agradecerle que nos haya concedido esta entrevista. En los últimos años se habla constantemente de la inteligencia artificial como una revolución comparable a la imprenta o a Internet. Desde su perspectiva como jurista, ¿qué supone realmente la irrupción de la IA en el mundo del Derecho?
Antes de contestar la pregunta, daros las gracias por la oportunidad de manifestar mis opiniones sobre un tema tan actual como es la aplicación de la IA en el ámbito del Derecho. En mi opinión, la irrupción de la IA supone, ante todo, un cambio estructural en la forma en que se produce, interpreta y aplica el Derecho. Si la imprenta permitió la sistematización de los cuerpos legales y la expansión del conocimiento jurídico, y si Internet democratizó el acceso a la información normativa y jurisprudencial, la inteligencia artificial añade una capa cualitativamente distinta: la capacidad de procesar, correlacionar y generar conocimiento jurídico a partir de enormes volúmenes de datos.
La IA no es simplemente una herramienta más; es un sistema capaz de identificar patrones en miles de sentencias, contratos o expedientes administrativos en cuestión de segundos. Esto transforma la práctica profesional, la organización de los despachos, el funcionamiento de los tribunales y la propia concepción del trabajo jurídico. La actividad tradicional del jurista —analizar textos normativos, estudiar precedentes, elaborar argumentos— se ve asistida, acelerada y en cierto modo reconfigurada por sistemas capaces de sugerir soluciones o detectar inconsistencias.
No obstante, conviene evitar tanto el entusiasmo ingenuo como el alarmismo apocalíptico. La IA no sustituye al jurista en su función esencial: la ponderación, la interpretación sistemática y la aplicación prudencial del Derecho a un caso concreto. Pero sí redefine las tareas instrumentales y puede elevar el nivel de calidad y eficiencia del sistema jurídico si se utiliza con rigor metodológico y responsabilidad ética.
En su opinión, ¿ cuáles serían, de forma sistemática, las principales aplicaciones de la IA en el ámbito jurídico?
Podemos estructurarlas en cinco grandes bloques: investigación jurídica, automatización documental, análisis predictivo, apoyo a la toma de decisiones judiciales y gestión pública, y finalmente cumplimiento normativo y control de riesgos.
En primer lugar, la investigación jurídica. Los sistemas de IA permiten búsquedas semánticas avanzadas que superan la mera coincidencia de palabras clave. Un abogado puede formular una cuestión compleja y el sistema identificar sentencias relevantes por analogía conceptual, incluso aunque no utilicen exactamente los mismos términos. Esto no solo ahorra tiempo, sino que amplía el horizonte argumental.
En segundo lugar, la automatización documental. La IA puede generar borradores de contratos, escritos procesales o informes jurídicos a partir de parámetros previamente definidos. Ello no elimina la revisión humana, pero sí reduce la carga mecánica y repetitiva.
En tercer lugar, el análisis predictivo. Mediante el estudio de patrones jurisprudenciales, algunos sistemas estiman probabilidades de éxito de una demanda o la duración media de un procedimiento. No se trata de “adivinar” el fallo, sino de ofrecer información estadística útil para la estrategia procesal.
En cuarto lugar, el apoyo a la decisión judicial y administrativa. En mi opinión, aquí entramos en terrenos más delicados. Existen sistemas que asisten en la clasificación de asuntos, la asignación de recursos o incluso la valoración de riesgos en materia penal. Su legitimidad depende de que actúen como instrumentos auxiliares y desde luego nunca como sustitutos del juicio humano.
Finalmente, la IA tiene un papel esencial en el cumplimiento normativo, especialmente en sectores altamente regulados, como son el financiero, el tecnológico o el sanitario, donde los algoritmos pueden detectar incumplimientos o riesgos regulatorios en tiempo real.
Ha mencionado la automatización documental. ¿Podría profundizar en cómo funciona y qué implicaciones tiene para la profesión jurídica?
Con mucho gusto. La automatización documental parte de la idea de que buena parte del trabajo jurídico consiste en aplicar estructuras relativamente estables a datos variables. Pensemos en un contrato de arrendamiento, un pacto de socios o una demanda de reclamación de cantidad: el esquema jurídico es constante, pero cambian los hechos y las circunstancias particulares.
La IA puede integrar plantillas dinámicas con bases de datos normativas y jurisprudenciales, y de esta forma generar documentos personalizados. Además, los modelos más avanzados pueden adaptar el lenguaje al contexto —más técnico o más divulgativo— y advertir incoherencias internas.
Esto tiene dos implicaciones relevantes. La primera es organizativa: los despachos deben replantear la distribución de tareas. Las labores repetitivas tienden a automatizarse, mientras que el valor añadido se desplaza hacia el asesoramiento estratégico, la negociación y la litigación compleja.
La segunda es formativa. El jurista del futuro no solo debe conocer el Derecho sustantivo y procesal, sino también comprender cómo funcionan estas herramientas, sus limitaciones y sesgos. De lo contrario, corre el riesgo de aceptar acríticamente resultados generados por sistemas cuya lógica interna desconoce. Esto último es muy importante, y creo que en el futuro próximo redefine la tarea crítica del jurista, que no se ve sustituido por la IA, pero sí debe saber utilizarla como herramienta y valorar, tamizar e integrar sus resultados.
Precisamente sobre los sesgos, uno de los debates más intensos gira en torno a la neutralidad algorítmica. ¿Es la IA verdaderamente objetiva?
Sin duda la IA no siempre es neutra. Los algoritmos aprenden de datos históricos, y los datos históricos reflejan decisiones humanas, contextos sociales y, en ocasiones, desigualdades estructurales. Si el conjunto de datos contiene sesgos —por ejemplo, decisiones judiciales desproporcionadas respecto de determinados colectivos— el sistema puede reproducirlos.
Desde el punto de vista jurídico, esto plantea problemas de igualdad ante la ley y de interdicción de la arbitrariedad. Un sistema de apoyo a decisiones administrativas que penalice sistemáticamente a un grupo por razones indirectas estaría vulnerando principios constitucionales fundamentales.
Por ello, la regulación europea insiste en la transparencia y la supervisión humana. No basta con que el algoritmo sea técnicamente sofisticado; debe ser jurídicamente auditado. La legitimidad de la IA en el ámbito público depende de su sometimiento al Estado de Derecho. En Europa tenemos una normativa novedosa, el Reglamento (UE) 2024/1689 que establece normas armonizadas para el desarrollo y uso de sistemas de inteligencia artificial en la UE, garantizando la seguridad y los derechos fundamentales de los ciudadanos.
Seguramente los lectores se estén preguntando cómo afecta la IA a la función jurisdiccional. ¿Podría la IA llegar a sustituir al juez?
Sustituir, en sentido pleno, lo considero improbable y jurídicamente indeseable. La función jurisdiccional implica algo más que aplicar reglas; requiere interpretar, ponderar derechos fundamentales, valorar pruebas y motivar decisiones. Estas tareas están profundamente ancladas en la responsabilidad personal y en la independencia judicial.
Sin embargo, la IA puede asistir al juez. Por ejemplo, clasificando expedientes, identificando precedentes relevantes o señalando contradicciones jurisprudenciales. También puede contribuir a la coherencia del sistema, detectando divergencias entre órganos jurisdiccionales.
El límite está en la delegación decisoria. La decisión final debe ser humana, motivada y revisable. De lo contrario, se erosionaría el derecho a la tutela judicial efectiva y el principio de juez natural. La tecnología debe reforzar, no debilitar, la legitimidad del poder judicial.
En su opinión, ¿qué papel juega la IA en el ámbito del Derecho administrativo y la gestión pública?
En el ámbito administrativo, la IA tiene un potencial enorme. Puede agilizar la tramitación de expedientes, detectar fraudes en subvenciones, optimizar la asignación de recursos y mejorar la planificación de políticas públicas mediante análisis de datos masivos.
No obstante, el Derecho administrativo está regido por principios como legalidad, proporcionalidad y motivación. Cualquier decisión automatizada que afecte a derechos o intereses legítimos debe ser razonada y susceptible de recurso. La automatización no puede convertirse en una zona de opacidad.
Además, cuando la Administración utiliza IA, asume responsabilidades específicas. Si un algoritmo produce un daño, la cuestión de la responsabilidad patrimonial del Estado se vuelve compleja: ¿responde la Administración por el funcionamiento anormal del sistema? ¿Cabe responsabilidad del proveedor tecnológico? Estas preguntas exigen mucha reflexión y, desde luego, una adaptación doctrinal y sobre todo legislativa.
Y en el ámbito del Derecho privado, ¿ qué transformaciones observa usted?
En el Derecho privado, la IA influye tanto en la contratación como en la responsabilidad civil. Pensemos en los contratos inteligentes —smart contracts— que se ejecutan automáticamente cuando se cumplen determinadas condiciones. Aquí el debate gira en torno a su validez, interpretación y eventual nulidad.
Asimismo, cuando un sistema autónomo causa un daño —por ejemplo, un vehículo autónomo— surge la cuestión de la imputación. ¿Se aplica la responsabilidad por producto defectuoso? ¿Debe crearse un régimen específico? La tendencia es reforzar la protección de la víctima, evitando que la complejidad tecnológica diluya la responsabilidad.
Por otra parte, en el ámbito mercantil, la IA es ya esencial en el compliance corporativo. Los sistemas pueden monitorizar operaciones sospechosas, prevenir blanqueo de capitales o detectar prácticas anticompetitivas. Ello no exime a los administradores de su deber de diligencia, pero sí redefine el estándar exigible. Esto es muy importante, pues deben implementar los medios necesarios para la adopción de decisiones empresariales correctas, entre ellos la IA.
¿Cómo afecta la IA al derecho a la protección de datos y a la privacidad?
Sin duda la relación es directa. La IA se alimenta de datos, y muchos de esos datos son personales. El tratamiento automatizado puede implicar perfiles, decisiones individualizadas y análisis predictivos. Por ello, el marco de protección de datos (en Europa Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos) impone obligaciones reforzadas: minimización, finalidad, limitación temporal y, especialmente, derecho a no ser objeto de decisiones exclusivamente automatizadas con efectos jurídicos significativos.
La transparencia es clave. El ciudadano debe conocer que sus datos están siendo tratados por un sistema automatizado y con qué finalidad. Además, debe poder impugnar decisiones y solicitar intervención humana.
En definitiva, la IA no puede convertirse en un instrumento de vigilancia masiva incompatible con la dignidad y la autonomía personal. El Derecho tiene la misión de equilibrar innovación y protección de derechos fundamentales.
Desde una perspectiva ética, ¿qué retos cree usted que plantea la IA para el jurista?
El principal reto es mantener la centralidad del ser humano. El Derecho no es solo un sistema de reglas, sino un orden normativo orientado a la justicia. Si la IA se utiliza como herramienta acrítica, existe el riesgo de tecnocratizar la justicia y reducirla a cálculos probabilísticos.
El jurista debe ejercer una función crítica. Debe preguntarse por la equidad de los resultados, por la proporcionalidad de las medidas y por la compatibilidad con los derechos fundamentales. Asimismo, debe promover una cultura de responsabilidad en el diseño y uso de algoritmos.
La ética profesional adquiere una dimensión tecnológica: confidencialidad en el uso de herramientas digitales, verificación de resultados generados por IA y transparencia con el cliente sobre el uso de estas tecnologías.
Finalmente, ¿ cómo imagina usted el futuro del Derecho en la era de la inteligencia artificial?
Lo imagino como un sistema híbrido, donde la inteligencia humana y la artificial colaboran. La IA asumirá tareas analíticas y repetitivas con una eficiencia incomparable, mientras que el jurista se concentrará en la estrategia, la argumentación compleja y la deliberación ética. Por eso el jurista no es prescindible, ni la IA lo va en absoluto a desplazar.
También veremos una creciente especialización en Derecho tecnológico: regulación de algoritmos, responsabilidad por sistemas autónomos, ciberseguridad y gobernanza digital. La formación jurídica deberá adaptarse, incorporando nociones básicas de tecnología y análisis de datos.
Pero, sobre todo, el futuro dependerá de nuestra capacidad para integrar la innovación sin sacrificar los principios que sustentan el Estado de Derecho: legalidad, igualdad, tutela judicial efectiva y dignidad humana. La inteligencia artificial es una herramienta poderosa; su valor dependerá de la orientación normativa que le demos.
Con esta invitación a no perder el norte ético frente a la innovación, terminamos esta entrevista. Muchas gracias, profesora Boldó. Ha sido un placer desgranar con usted el desafío de proteger nuestra arquitectura jurídica en la era digital.
Gracias a ustedes.