La inteligencia artificial generativa en los tribunales

La inteligencia artificial generativa en los tribunales

En este blog, ofrecemos una vista preliminar y reducida del artículo escrito por José Rodríguez García, abogado en ejercicio, doctor en derecho por la Universidad Carlos III de Madrid y profesor contratado doctor acreditado por ANECA, para el séptimo número de nuestra Revista Digital «ELEX INSIGHT».

Para leer el nuevo número de la revista de forma gratuita, haz clic aquí. En la misma, seis expertos del ámbito jurídico analizan en detalle las últimas novedades del sistema legal en España y como las nuevas tecnologías emergentes funcionan a través de ellos.

Introducción: La inteligencia artificial y la práctica jurídica

En los últimos años, el avance de la inteligencia artificial (IA) ha transformado múltiples sectores, incluido el ámbito jurídico. Recientemente, el desarrollo de una nueva herramienta de IA por parte de la empresa china DeepSeek ha mostrado cómo estas tecnologías avanzan de forma global. Según la encuesta «Legal Professionals & Generative AI» de Lefebvre Sarrut y la Asociación Europea de Tecnología Legal, el 90 % de los abogados afirma que la inteligencia artificial generativa les ayuda en su trabajo.

El 80 % de los encuestados la utiliza semanalmente, y casi la mitad lo hace a diario. Entre los principales usos destacan el análisis de documentos (19 %) y la producción de textos legales (17 %). Sin embargo, el 50 % señala que su eficacia en el manejo de documentos legales aún está por demostrar.

Pese a sus ventajas, la adopción de la IA en el ámbito jurídico plantea importantes retos éticos y deontológicos. La International Bar Association, en su Agenda Legal 2023-2028, identifica la IA como el tema más relevante, destacando preocupaciones como la falta de transparencia y la posible divulgación de datos confidenciales.

El kit de herramientas global sobre IA y el Estado de derecho de la UNESCO

Para abordar estos desafíos, la UNESCO ha desarrollado el «Kit de herramientas global sobre IA y el Estado de derecho para el poder judicial». Este documento ofrece un marco ético y legal para el uso de la IA en los tribunales, asegurando el respeto por los derechos humanos y el Estado de derecho.

Beneficios de la IA en el ámbito judicial

  1. Optimización de procesos judiciales: Agiliza la resolución de casos mediante el análisis de grandes volúmenes de datos.
  2. Acceso a la justicia: Ofrece asistencia legal automatizada para poblaciones vulnerables.
  3. Eficiencia en la gestión documental: Facilita la clasificación y revisión de documentos legales.
  4. Predicción de resultados judiciales: Analiza precedentes para asistir en la toma de decisiones.

Riesgos asociados al uso de la IA en tribunales

  1. Sesgo algorítmico: Los sistemas pueden reflejar prejuicios presentes en los datos de entrenamiento.
  2. Falta de transparencia: Muchos sistemas funcionan como «cajas negras», dificultando la comprensión de sus decisiones.
  3. Violación de la privacidad: La recopilación de datos puede comprometer derechos fundamentales.
  4. Dependencia excesiva: Jueces y abogados podrían confiar ciegamente en la IA sin verificar sus resultados.
  5. Desigualdad en el acceso a la tecnología: No todos los sistemas judiciales tienen la infraestructura adecuada.

El kit de herramientas destaca tres riesgos principales:

  • Propósito/cambios imprevistos: La IA no debe usarse para fines distintos a los previstos sin un análisis adecuado.
  • Alucinaciones y desinformación: Los modelos generativos pueden producir respuestas plausibles pero inexactas.
  • Preocupaciones sobre propiedad intelectual: La IA plantea dudas sobre la autoría de los contenidos generados.

Las «alucinaciones» en el ámbito legal

Las «alucinaciones» son resultados incorrectos o engañosos generados por la IA. El estudio «Large Legal Fictions: Profiling Legal Hallucinations in Large Language Models» revela que los modelos de lenguaje de gran tamaño (LLMs) presentan una tasa de error significativa:

  • GPT-4: 58 % de respuestas incorrectas.
  • GPT-3.5: 69 % de respuestas incorrectas.
  • PaLM 2: 72 % de respuestas incorrectas.
  • Llama 2: 88 % de respuestas incorrectas.

Tipos de alucinaciones legales

  1. Intrínsecas (Closed-Domain): Inconsistencias con la propia entrada del modelo.
  2. Extrínsecas (Open-Domain): Generación de contenido no basado en el corpus de entrenamiento.
  3. Sobre la realidad jurídica: Información que contradice hechos verificables.

Factores que influyen en la precisión de la IA en el ámbito legal:

  • Nivel del tribunal: Mayor precisión con fallos de la Corte Suprema.
  • Antigüedad del caso: Más errores en casos recientes o muy antiguos.
  • Complejidad de la pregunta: Las preguntas complejas generan más errores.
  • Popularidad del caso: Mayor precisión con fallos ampliamente citados.

Casos controvertidos sobre el uso de la inteligencia artificial en tribunales

El uso de la IA en el ámbito jurídico ya ha generado controversia en distintos países:

  • Países Bajos: El Tribunal Rechtbank Gelderland usó ChatGPT para calcular la indemnización en un caso de paneles solares.
  • Colombia: El juez Juan Manuel Padilla García utilizó ChatGPT para resolver una acción de tutela a favor de un menor autista. Posteriormente, la Corte Constitucional en la sentencia T-323 de 2024 estableció los principios de transparencia, responsabilidad y privacidad para el uso de IA en procesos judiciales.
  • Estados Unidos: En el caso Mata vs. Avianca, un abogado fue sancionado por presentar un escrito con citas ficticias generadas por IA.
  • España: La Sala Primera del Tribunal Constitucional sancionó a un abogado por presentar citas doctrinales inexistentes atribuidas a la IA.

Repercusiones legales y éticas

Los casos analizados reflejan la necesidad de:

  1. Supervisión humana obligatoria: La IA no puede reemplazar el juicio humano.
  2. Regulación clara: Establecer normas que definan el uso responsable de la IA.
  3. Transparencia y responsabilidad: Los operadores jurídicos deben revelar el uso de IA en sus decisiones.

Conclusión

La inteligencia artificial generativa tiene un potencial significativo para mejorar la eficiencia en el ámbito judicial. Sin embargo, su uso plantea desafíos éticos y legales que exigen una supervisión adecuada. Es fundamental que los jueces y abogados verifiquen la información generada por IA y se apliquen estándares rigurosos de transparencia y responsabilidad. Solo así podrá garantizarse que la IA complemente, y no sustituya, el juicio humano en la administración de justicia.


Disfruta de más contenido sobre tecnología aplicada al Sector Legal

Este blog solo recoge una muestra resumida del contenido que puedes encontrar en el sexto número de la Revista Digital «ELEX INSIGHT«. Para acceder a todos los números de forma gratuita, visita el siguiente enlace:

Revista Digital FEBRERO 2025

🡡 Haz clic para leer 🡡

Si deseas descubrir cómo la inteligencia artificial de ELEX puede transformar tu práctica legal, solicita ahora una DEMO a través de este enlace o programa una reunión con nuestros expertos para aclarar cualquier duda que puedas tener al respecto.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *