Noticias

imagen: sanseviera
Reconoció su error y pidió disculpas.

Tribunal español decide no sancionar a abogado que incluyó por equivocación jurisprudencia colombiana proporcionada por ChatGPT.

El uso de las tecnologías emergentes y de los materiales generados por inteligencia artificial en los procedimientos judiciales no está exento de importantes consideraciones éticas y legales para garantizar un uso responsable. Lo que impone una verificación adicional, puesto que la revisión y validación de los documentos legales seguirá siendo responsabilidad de los abogados.

26 de noviembre de 2024

El Tribunal Superior de justicia de Navarra (España) rechazó sancionar a un abogado que fue objeto de un expediente sancionador por citar jurisprudencia extranjera en un escrito, facilitada por ChatGPT tras una consulta. Ponderó la buena disposición del letrado que se excusó por su error, y reflexionó sobre el cuidado que deben tener los abogados al utilizar herramientas tecnológicas que facilitan el trabajo jurídico en su quehacer profesional.

Según se narra en los hechos, en primera instancia se acordó abrir un expediente contra el abogado para evaluar la dictación de una sanción en su contra por citar, equivocadamente, jurisprudencia colombiana en su escrito de querella, la cual había sido proporcionada por ChatGPT. El abogado reconoció el error por escrito y presentó sus “más sinceras disculpas” por la falta de cuidado manifestada. No obstante, el asunto debía ser resuelto en una instancia superior.

En su análisis de fondo, el Tribunal observa que, “(…) el uso de las tecnologías emergentes y de los materiales generados por inteligencia artificial en los procedimientos judiciales no está exento de importantes consideraciones éticas y legales para garantizar un uso responsable. Lo que impone una verificación adicional, puesto que la revisión y validación de los documentos legales seguirá siendo responsabilidad de los abogados para garantizar la precisión y el cumplimiento normativo”.

Agrega que, “(…) el Consejo de la Abogacía Europea (CCBE) también ha abordado la regulación de la inteligencia artificial en el ejercicio de la abogacía en el documento titulado «Consideraciones de CCBE sobre los aspectos legales de la inteligencia artificial»y, entre otras consideraciones, aboga por la supervisión humana efectiva en el uso de herramientas de IA en el ámbito de justicia como  precondición de un sistema de justicia propio de un Estado de Derecho”.

Comprueba que, “(…) no cabe duda que el uso descuidado de estas tecnologías en los procedimientos judiciales plantea importantes  implicaciones deontológicas y, desde luego, es susceptible de integrar un claro ejemplo de mala fe procesal y de abuso del proceso.  Aunque por el momento los precedentes son escasos, no faltan ya  supuestos en la jurisprudencia comparada de imposición de sanciones procesales por el uso indebido de ChatGPT”.

El Tribunal concluye que, “(…) ante la evidencia del error cometido, el querellante se ha apresurado para presentar sus «más sinceras excusas» tras haber detectado la Sala que la cita textual del precepto penal que incluía en el texto de la querella no correspondía en realidad a nuestro Código Penal sino al Código Penal de la República de Colombia. En la singularidad del caso que nos ocupa, el hecho de que nos  encontremos ante una materia ciertamente novedosa, así como la inmediata reacción del Letrado querellante excusando el error cometido, determina que la Sala se incline por el archivo de la  presente pieza”.

Al tenor de lo expuesto, el Tribunal resolvió el archivo del expediente incoado contra el abogado, librándolo de toda sanción.

Vea sentencia Tribunal Superior de justicia de Navarra.

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *