Cartas al Director

¿Inteligencia Artificial vs. Profesión legal?

Diego Abogabir

23 de junio de 2023


¿Es posible que ChatGPT entregue información falsa? ¿O que sus respuestas tengan un sesgo ideológico? En ambos casos la respuesta es sí.

La inteligencia artificial (IA) “alucina”, es decir, responde a una pregunta de manera convincente, pero con información incorrecta, o desconectada del contexto de la pregunta. Además, Chat GPT tiene orientación política determinada (artículos U. Técnica de Múnich y U. de Hamburgo).

Lo anterior representa varios problemas socioculturales: 1. Erosiona la confianza en el uso de IA en el trabajo y vida cotidiana. 2. Esparce información falsa y perjudicial para las personas o grupos de personas que la utilizan. 3. Afecta la toma de decisiones en las cuales hoy se utiliza mayoritariamente la IA: mercado financiero, salud, legal, entre otros sectores. 4. Genera problemas de responsabilidad legal para los que la utilizan.

Un ejemplo de esto ocurrió en EE.UU, ante un tribunal federal de Nueva York, donde el Señor Roberto Mata demandó a la empresa Avianca solicitando una indemnización de perjuicios por una lesión sufrida por un carrito de comida en un vuelo. Un caso común y corriente, que no debería ser noticia.

Sin embargo, durante el juicio, el abogado de Mata hizo una presentación ante el tribunal citando 6 casos de cortes federales para apoyar su solicitud de rechazar una presentación de Avianca para desestimar el caso. El problema fue que ninguno de esos 6 casos existía.

Avianca fue el primero en darse cuenta de las citas falsas y luego el tribunal exigió al abogado del Sr. Mata explicar por escrito y luego en una audiencia, por qué se hicieron dichas citas y por qué no debían ser sancionados por su conducta.

Fue así como el abogado de Mata tuvo que admitir -primero- que la presentación fue redactada por otro abogado del estudio en donde trabajaba, -segundo- que no conocía las citas en su presentación y -tercero- que éstas provenían de ChatGPT y que no existían en la realidad.

Según las propias explicaciones del abogado de Mata sobre ChatGPT, “no entendió que no era un motor de búsqueda, sino una herramienta de procesamiento de lenguaje generativo”. Este abogado tiene 30 años ejerciendo la profesión.

Es así como el uso de ChatGPT afectó gravemente el caso de Mata, ya que no sólo proveyó -convincentemente- 6 citas falsas, afectando al abogado que la utilizó, sino que además desvió la atención del objeto del juicio -la indemnización- hacia la negligencia de su abogado.

La IA como tal ya se utiliza en la profesión legal. En el caso de los jueces, la App Compas se utiliza en EE.UU. para evaluar la posibilidad de reincidencia de un condenado. En el caso de los abogados, Lex Machina usa el aprendizaje automático y la analítica predictiva para adelantar el comportamiento de un abogado en un juicio o el fallo de un juez en un asunto en particular. Otros ejemplos, aún más sorprendentes, se pueden encontrar en la decisión de Estonia de crear un juez robot que pueda resolver y adjudicar casos de menos de €7.000, o en Canadá, en donde un mediador robot llamado Smartsettle One, logró mediar y cerrar un caso.

Estos desarrollos y el ya mencionado caso de Mata, todos fruto del uso de la IA, se han sucedido de manera casi simultánea en distintas partes del mundo. Por ello, esto hace necesario instalar el debate en Chile sobre los parámetros y reglamentar el uso de esta tecnología en el ejercicio de la profesión legal.

Si bien es cierto que la IA ayudará de gran manera en el ejercicio profesional, simplificando tareas que son relevantes, también son ciertos los peligros que su uso conlleva: decisiones tomadas con información con sesgo o derechamente falsa, delegación absoluta de facultades por parte de abogados y jueces en IA, hasta el reemplazo del ser humano en la profesión legal. Todos son escenarios que ya ocurren o que se han planteado en otros países y que implican al menos preguntarse si dicho uso es conciliable con el debido proceso.

Por otra parte, el caso de Mata con Avianca invita a revisar la legislación chilena, ya que ésta no permite -por ejemplo- controlar presentaciones con casos falsos y menos sancionar al abogado por intentar inducir al juez a fallar con dichos casos.

A pesar que existe una regulación para prevenir actuaciones de mala fe, como es el artículo 2, letra d, de la Ley N°20886, no está claro cuáles serían las sanciones a aplicar. Tampoco existe una institucionalidad que tenga la jurisdicción y la capacidad para regular y controlar el ejercicio de la profesión de abogado, específicamente respecto de conductas que atenten contra la ética profesional como en el caso de Mata. Hoy, los Colegios de Abogados tienen una muy limitada, sólo respecto de sus miembros.

Por ello, es clave tener una conversación a nivel nacional sobre los estándares éticos exigibles para el ejercicio de la profesión de abogado y además definir una institucionalidad seria e imparcial que pueda revisar el cumplimiento de esos estándares y sancionar a los incumplidores.

Un lugar para partir esta conversación puede ser el nuevo proceso constitucional: el borrador de nueva Constitución podría incorporar una norma que obligue a los abogados a colegiarse como condición previa a ejercer la profesión. El desafío será cómo evitar que un colegio de abogados monopolice la definición de lo ético y la actividad sancionatoria y al mismo tiempo se asegure el debido proceso a sus miembros. Por de pronto, esta es una discusión que hay que comenzar.

 

Diego Abogabir

Abogado

Socio de Abogabir Miranda

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *