Noticias

imagen: thestatesman.com
En la dictación de un fallo.

Juez estadounidense utiliza ChatGPT para determinar el significado de una palabra y sugiere el uso de la inteligencia artificial en ciertos contextos judiciales.

El magistrado analizó las ventajas y las desventajas del uso de inteligencia artificial en el ámbito judicial, destacando su capacidad para interpretar lenguaje ordinario y contexto, su accesibilidad y aparente transparencia, así como sus ventajas sobre métodos interpretativos tradicionales. No obstante, también subrayó posibles desventajas.

13 de junio de 2024

Un tribunal de apelaciones de Estados Unidos emitió una sentencia en la cual un juez utilizó ChatGPT para fundamentar su decisión, destacando la utilidad de esta herramienta en ciertos contextos legales. El litigio involucraba a un paisajista y una empresa de seguros, siendo el motivo del conflicto la negativa de la aseguradora a representar al paisajista en una demanda civil presentada por un cliente. Este cliente alegaba que el paisajista había realizado un trabajo negligente al instalar una cama elástica en su patio.

La compañía de seguros sostuvo que dicha actividad no estaba cubierta por la póliza contratada, una postura que fue respaldada por el tribunal. La sentencia concluyó que el accidente no se derivaba del trabajo de «paisajismo» según lo estipulado en la póliza de responsabilidad civil comercial. En apelación, el demandante argumentó que el tribunal había interpretado incorrectamente la póliza y su demanda.

El trasfondo del supuesto incumplimiento contractual radicaba en el trabajo específico realizado por el demandante, el cual implicaba la instalación de una cama elástica a nivel del suelo, lo que requería excavaciones y la remoción de árboles. Aunque el trabajo se completó con éxito, años después, los clientes demandaron al paisajista y a otros involucrados debido a una lesión que su hija sufrió al caer mientras utilizaba el trampolín.

Ante esta demanda, el paisajista solicitó a su seguro que lo representara. No obstante, la compañía de seguros argumentó que el trabajo realizado no se incluía en la categoría de «paisajismo» cubierta por la póliza, y por tanto, no era aplicable. La palabra clave en disputa era «landscaping» (paisajismo o jardinería), cuyo significado preciso determinaría la extensión de la cobertura, pero que no estaba definido en el contrato.

El tribunal recurrió al significado común de la palabra «landscaping», concluyendo que no incluía la instalación de un trampolín. En el formulario de aplicación del seguro, el paisajista había indicado que su trabajo no comprendía la instalación de equipamientos recreacionales, lo cual apoyó la decisión de la aseguradora de no cubrir el incidente. De haberse incluido dicha actividad, la póliza habría sido ajustada en consecuencia.

Así, el juez Newsom señaló que, aunque las partes presentaron diversas definiciones de «landscaping» de diferentes diccionarios, estas no proporcionaban un criterio claro y uniforme. Esto llevó al tribunal a cuestionar si una mejora debía ser natural para ser considerada como jardinería, lo cual podría excluir elementos como caminos o luces.

En este contexto, el tribunal utilizó ChatGPT para obtener una definición del término. La primera definición proporcionada por ChatGPT fue lo suficientemente amplia como para incluir la instalación de un trampolín. Ante esta respuesta, el tribunal también consultó directamente si la instalación de un trampolín podía considerarse parte de la jardinería, obteniendo una respuesta afirmativa. Una consulta similar al sistema Bard de Google arrojó resultados congruentes.

El magistrado analizó las ventajas y las desventajas del uso de inteligencia artificial en el ámbito judicial, destacando su capacidad para interpretar lenguaje ordinario y contexto, su accesibilidad y aparente transparencia, así como sus ventajas sobre métodos interpretativos tradicionales. No obstante, también subrayó posibles desventajas, como la tendencia a generar respuestas incorrectas, la falta de consideración de discursos marginales, el riesgo de manipulación de respuestas y la posible dependencia excesiva en estos sistemas.

Vea texto del fallo.

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *