Noticias

Imagen: Canva/agendaestadoderecho
Opinión.

ChatGPT con toga: Perspectivas para el uso de IA en la justicia Latinoamericana, por Emmanuel Vargas y Daniela Yepes García.

Recientemente, la Corte Constitucional de Colombia señaló en una sentencia que la IA podría ser útil en la justicia, y que idealmente la tecnología que se llegue a usar debería ser exclusiva de la Rama Judicial. ¿Es posible? Hay limitaciones.

9 de diciembre de 2024

En una reciente publicación de agendaestadoderecho.com se da a conocer el artículo ChatGPT con toga: Perspectivas para el uso de IA en la justicia Latinoamericana, por Emmanuel Vargas (*) y Daniela Yepes García (**).

En agosto de 2024, la Corte Constitucional de Colombia sentó un hito sobre el posible uso de la inteligencia artificial (IA) en los sistemas de justicia en la región. A través de la sentencia T-323 de 2024, entre otras cuestiones, el tribunal analizó el uso de IA, particularmente de la IA generativa a través de ChatGPT, por parte de un juez. La Corte señaló que, en tanto la IA había sido usada para fortalecer los fundamentos de la decisión judicial, pero no para tomarla, no se vulneraron derechos. Así mismo, señaló que la IA podría ser útil en la justicia, y que idealmente la tecnología que se usara debería ser exclusiva de la Rama Judicial, con algoritmos y procesos transparentes, para garantizar la seguridad de la información. ¿Es esto posible?

Desde que OpenAI lanzó ChatGPT a finales de 2022, la herramienta irrumpió el debate público. Con su difusión, el concepto de IA dejó de ser una fantasía de películas o libros y se transformó en una realidad, por lo mismo, más concreta y menos de ensueño. Aunque ChatGPT puede ser sorprendente, su alcance está lejos de la ficción tradicionalmente asociada a la IA. No se trata de la robot mucama Robotina en los Supersónicos o del simpático robot limpiador de basura Wall-E. Este desencuentro entre las ideas sobre la IA y la realidad de su funcionamiento podría estar sucediendo en el ámbito legal.

Las IAs en el sector legal

Aunque el uso de ChatGPT por parte de jueces puede verse como un acto pionero en la incorporación del uso de la IA en la justicia, la aplicación de tecnologías similares en el sector legal tiene otros antecedentes. En Colombia, por ejemplo, hay registro de dos herramientas de IA utilizadas en el sector justicia, PretorIA y Fiscal Watson. La primera es un sistema lanzado en el año 2020 por la Corte Constitucional para apoyar la selección de tutelas y el segundo, una herramienta lanzada en 2018 por la Fiscalía General, a través de la cual se podrían encontrar y asociar casos en las bases de datos del sistema penal. Aunque no existe información pública sobre su funcionamiento, ambas cuentan con funcionalidades muy concretas.

Además, el desarrollo de sistemas basados en modelos similares a los de ChatGPT y especializados en cuestiones legales también ha tenido avances claves para pensar el futuro de la IA en la justicia de la región. Las tecnologías que soportan herramientas como ChatGPT, los grandes modelos de lenguaje (LLM por su sigla en inglés), forman parte de una rama de las ciencias computacionales conocida como procesamiento de lenguaje natural (NLP por sus siglas en inglés). Este campo de desarrollo data de los años 50 y se centra en el uso de herramientas tecnológicas para aprender, entender y producir lenguaje en términos similares al humano y, recientemente, ha tenido desarrollos exponenciales a partir del uso de redes neuronales y de técnicas que permiten crear modelos de inteligencia artificial basados en bases de datos inmensas.

Dentro de los distintos usos que este tipo de tecnología puede tener, el sector legal es uno que ha contado con varias investigaciones. Quevedo y otros hicieron una revisión de los principales desarrollos en esta materia entre 2015 y 2022. Según ellos, algunos de los usos más útiles de NLP en el campo jurídico son:

Clasificación de Texto, que permite categorizar documentos legales en áreas de derecho o como categorías de documentos dentro de una área. Dentro de los ejemplos de uso hay predicciones de resultados en decisiones en el Tribunal Europeo de Derechos Humanos, o la asignación de casos en Brasil; Resumen, que sintetiza documentos extensos, como fallos judiciales, para facilitar su comprensión; Extracción de Información, que facilita la identificación de datos clave (nombres, fechas, conceptos) en documentos legales estructurados; Respuesta a Preguntas, que literalmente consiste en resolver dudas o consultas y suele aplicarse a través de chatbots; Recuperación de Información, que apoya la búsqueda de normas o documentos relevantes, acelerando la investigación necesaria para un caso.

Los retos en la implementación de estas herramientas

No obstante el avance en la materia, es importante considerar las limitaciones en el uso de estas herramientas como elementos clave para aterrizar lo propuesto por la Corte Constitucional colombiana.

Existen ciertas barreras para que una herramienta de IA pueda desarrollar tareas complejas como las propuestas en la sentencia. Por un lado, los modelos necesitan una gran cantidad de documentos para entrenarse, esto resulta complicado en tanto los documentos legales son complejos per se, además de escasos, extensos con restricciones legales, y a menudo mal clasificados, como señalan Quevedo y otros. Un problema relevante para la región es que la mayoría de los recursos legales con los que se entrenan estos sistemas están en inglés, sin bases de datos multilingües, lo que dificulta contar con herramientas en otros idiomas. Finalmente, la ausencia de investigaciones para lograr la mitigación de sesgos que puedan tener estos sistemas es otro gran vacío.

Por otro lado, la Corte plantea que un aspecto crítico para el uso de la IA en el sector judicial es “evitar el uso de algoritmos de black box, respecto de los cuales se conocen los datos de entrada y el resultado, pero no la forma en la que la información es procesada”. Este limitante, debidamente fundamentado en preocupaciones de derechos humanos, puede cerrar el uso de herramientas NLP complejas como ChatGPT, pues los LLM tienen una naturaleza de black box. La forma en que se ha buscado atajar este asunto es aplicando metodologías para descifrar la forma en que se procesa la información, como aplicando técnicas de la neurociencia y logrando cierto grado de entendimiento sobre su funcionamiento.

¿Qué se puede hacer?

Aunque enfrentándose a retos importantes, algunos de los desarrollos de uso de NLP en el ámbito legal parecen ofrecer potenciales desarrollos en el corto plazo. Por ejemplo, los sistemas de clasificación de textos y de respuesta a preguntas han alcanzado niveles de desarrollo prometedores para usuarios no técnicos, que requieren información menos compleja. Para que estos avances sean posibles, cuestiones como la extensión de las bases de datos que entrenen la IA y la revisión de cuestiones éticas son los principales retos. Por su parte, la elusión del uso de herramientas black box puede tener una aproximación gradual y cautelosa, acudiendo a estas en escenarios de bajo riesgo y a medida en que avance el entendimiento científico de su funcionamiento con metodologías como la mencionada.

 

(*) Emmanuel Vargas es abogado y especialista en periodismo de la Universidad de los Andes. Es codirector de El Veinte, tiene una maestría en derecho de la información de la Universidad de Amsterdam y está haciendo un doctorado en Inteligencia Artificial en la Universidad de Örebro.

(**) Daniela Yepes García es abogada y magíster en derecho constitucional de la Universidad del Rosario (Bogotá, Colombia). Trabajó en litigio estratégico para los derechos humanos desde el movimiento clínico legal, actualmente trabaja con la Jurisdicción Especial para la Paz.

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *