Noticias

imagen: confilegal.com
Estados Unidos.

Abogada es sancionada por incluir jurisprudencia falsa creada con inteligencia artificial en una demanda.

El Tribunal tomó en consideración la explicación proporcionada por la letrada respecto al origen de las referencias ficticias, así como su sincera expresión de arrepentimiento. Sin embargo, concluyó que, a pesar de estos aspectos atenuantes, la imposición de la sanción era necesaria debido a su falta de diligencia en verificar la exactitud de la información.

28 de febrero de 2024

Un tribunal del Estado de Massachusetts (Estados Unidos) multó a una abogada demandante con 2.000 dólares por utilizar jurisprudencia falsa creada con inteligencia artificial (IA), en el marco de un juicio por homicidio culposo.

El Tribunal examinó cuidadosamente las circunstancias en las que la demandante presentó mociones legales que contenían referencias a casos ficticios. Estas referencias fueron atribuidas a un sistema de inteligencia artificial empleado por su estudio jurídico.

A pesar de que la abogada admitió no haber revisado exhaustivamente los documentos antes de su presentación, argumentó que no estaba al tanto de la posibilidad de que el sistema de inteligencia artificial generara información incorrecta.

El Tribunal tomó en consideración la explicación proporcionada por la letrada respecto al origen de las referencias ficticias, así como su sincera expresión de arrepentimiento. Sin embargo, concluyó que, a pesar de estos aspectos atenuantes, la imposición de la sanción era necesaria debido a su falta de diligencia en verificar la exactitud de la información antes de su presentación.

Así, aunque la abogada fue transparente y reconoció su error, el Tribunal consideró inaceptable su falta de diligencia y decidió que la imposición de sanciones era justificada. Este caso subraya la importancia de garantizar la precisión de la información presentada ante tribunales, incluso cuando se utilizan tecnologías como la inteligencia artificial.

“Las alucinaciones generativas de IA pueden ser muy engañosas y difíciles de discernir. La información ficticia a menudo tiene todas las características de los datos veraces y sólo puede descubrirse como falsa mediante un escrutinio cuidadoso. Por ejemplo, como se demostró en este caso, la IA puede generar citas de decisiones judiciales totalmente inventadas que llevan nombres aparentemente reales, con referencias de reporteros, volúmenes y páginas aparentemente reales, y fechas de decisiones aparentemente reales”, señala el fallo.

Vea texto del fallo.

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *