14.2 C
Santiago
martes 20 de mayo de 2025

Año 2025: ¿Es la IA el legislador y juez del futuro?

En los últimos años, hemos sido testigos de cómo la Inteligencia Artificial (IA) ha comenzado a influir profundamente en diversos sectores, marcando una transformación similar a la que supuso la revolución industrial en su momento. En aquella época, la llegada de las máquinas reemplazó la mano de obra humana, generando cesantía y redefiniendo los métodos de producción. Hoy, con la rápida expansión de la IA, nos encontramos ante una nueva revolución, cuyos impactos y desafíos aún estamos empezando a comprender. Sobre esta transformación, conversamos con María Francisca Marchessi Concha, abogada de la UC y LLM en Law and Technology por el Kings College de Londres, y Sebastián Dueñas Müller, Investigador Programa de Derecho, Ciencia y Tecnología UC,  para conocer sus perspectivas sobre el fenómeno.
31 de marzo de 2025

Por Constanza Paz Eyzaguirre Parra, Universidad Mayor

¿Cómo ha influido la IA en el ámbito del Derecho

La inteligencia artificial ha transformado diversos aspectos del Derecho al automatizar tareas repetitivas y facilitar el análisis de grandes volúmenes de información. Por ejemplo, ha permitido acelerar la revisión documental, la búsqueda de jurisprudencia, la identificación de riesgos y la propuesta de estrategias legales. Esta evolución no solo incrementa la eficiencia de los procesos en el ámbito del Derecho, sino que también invita a replantear ciertas áreas de la práctica jurídica y a redefinir el rol del abogado en ellas, quien puede pasar a priorizar tareas de mayor complejidad.

¿En qué ámbitos de la profesión legal cree que ha tenido más influencia?

Su influencia destaca especialmente en áreas donde el procesamiento masivo de datos y la automatización de tareas repetitivas es fundamental. Existen herramientas, como Harvey AI, que asisten en el análisis de contratos, los procesos de due diligence, litigios y en cumplimiento normativo. Estas herramientas, además, pueden generar recomendaciones basadas en grandes cantidades de documentos, lo que significa que los abogados tienen más elementos a disposición a la hora de proponer soluciones. De esta forma, mientras las tareas repetitivas y aquellas que requieren un bajo nivel de análisis se ven resueltas de manera eficiente por sistemas de inteligencia artificial, los abogados pueden concentrar sus tareas en aquellas de mayor valor.

¿Cree que la IA podría llegar a reemplazar la función de jueces y abogados? ¿En qué grado y en qué tareas?

Me parece que la inteligencia artificial no reemplazará a jueces ni a abogados en su totalidad, lo que está sucediendo actualmente es una redefinición de funciones. Por ejemplo, en el caso de los abogados, tareas rutinarias como la revisión de documentos, la identificación y resumen de cláusulas específicas o el análisis de jurisprudencia pueden ser fácilmente automatizadas, por lo que es posible descansar, en gran medida, en un sistema autónomo. Sumado a esto, en el ámbito judicial, sistemas de inteligencia artificial pueden ayudar en la organización y clasificación de casos. Ahora bien, debido al rol que juega la racionalidad humana en la función judicial, su uso en este ámbito es de aquellos donde se debiesen considerar salvaguardas más estrictas en materia de supervisión humana.

¿Observa algún cambio en la práctica legal con el avance de la IA?

Definitivamente. La incorporación de inteligencia artificial ha llevado a una modernización de la práctica legal: los profesionales están adoptando nuevas metodologías y herramientas tecnológicas que optimizan procesos, reducen horas de trabajo y ofrecen un mayor número de perspectivas en la gestión de casos. Este cambio está impulsando una transformación en la que el conocimiento jurídico se complementa cada vez más con la capacidad de utilizar herramientas tecnológicas, incentivando a los abogados a actualizarse y a replantear sus estrategias en un entorno digital que cada vez se vuelve más profundo.

Sumado a los cambios en la práctica legal en general, el uso de sistemas de inteligencia artificial en distintos contextos ha hecho necesario abrir nuevas discusiones en materias particulares, como en libre competencia, propiedad intelectual, protección de datos personales, derecho laboral, entre otras.

¿En el ámbito de los Tribunales aprecia que es una herramienta útil y que se está utilizando?

No cabe duda de que estas herramientas son útiles para agilizar procesos, lo que es particularmente cierto en la gestión administrativa. Sumado a esto, vemos que ya existen herramientas de reconocimiento de voz que permiten a los jueces dictar sentencia transformando el audio en texto, reduciendo el tiempo que lleva la redacción de estos documentos.

Otro ejemplo para destacar es el Baremo de Daño Moral del Poder Judicial, realizado con ayuda de Watson, de IBM, para el levantamiento de criterios de avalúo de daños en ciertas materias civiles, penales y laborales, lo que es de utilidad tanto para jueces como para las partes.

¿Qué riesgos considera puede traer consigo el uso de IA en el ámbito del Derecho?

Entre los principales riesgos se encuentra la posibilidad de que los algoritmos reproduzcan o amplifiquen resultados no deseados, provenientes de los datos de entrenamiento (por ejemplo, en las sentencias), lo que puede afectar la imparcialidad de las decisiones. Además, debido a la complejidad que pueden presentar algunos sistemas en sus mecanismos de toma de decisiones, se dificulta encontrar la causalidad entre hechos o actos específicos y un resultado, lo que se traduce en una falta de explicaciones razonables para quienes intervienen en un proceso judicial. Por ello, es fundamental contar con mecanismos de supervisión que permitan detectar y corregir posibles errores, y determinar qué nivel de explicabilidad en la toma de decisiones es requerido en cada escenario.

¿De qué modo se puede controlar y sancionar el uso indebido de esta herramienta?

El control del uso indebido de sistemas de inteligencia artificial requiere un marco claro y específico. Para ello, es necesario adoptar estándares que aclaren los requisitos para el desarrollo y uso de estos sistemas. Sumado a esto, la Unión Europea ya ha comenzado a solicitar la realización de auditorías algorítmicas de forma periódica para sistemas de alto riesgo. Esto ha hecho crecer el mercado de auditores independientes en materia de inteligencia artificial, propiciando la creación de estándares específicos para estos sistemas, facilitando la rendición de cuentas. En este mismo sentido, siempre será fundamental la capacitación de quienes se vean enfrentados a la implementación de estos sistemas, para identificar y prevenir resultados no deseados, asegurando que cualquier riesgo en el uso de estas tecnologías pueda ser alertado y mitigado de manera oportuna.

¿Chile está retrasado en la regulación de la IA?

Es difícil determinar si estamos retrasados o no. A nivel regional estamos relativamente bien, con destacables resultados en índices latinoamericanos. Pero, a nivel mundial, notamos que hay tres principales faros en materia de regulación de estos sistemas –la Unión Europea, Estados Unidos y China– y pareciera ser que solo nos queda seguir la luz de uno de ellos. En esta línea, si analizamos el Proyecto de Ley que Regula los Sistemas de Inteligencia Artificial chileno, es fácil identificar la fuerte influencia del modelo regulatorio europeo, con un enfoque basado en riesgos, entre otras similitudes.

Si bien el proyecto de ley sigue en discusión, en los últimos meses ha sido posible observar importantes avances en áreas clave para el uso y desarrollo de sistemas de inteligencia artificial, como protección de datos personales y ciberseguridad.

Ahora bien, en línea con nuestra Política Nacional de Inteligencia Artificial, para seguir avanzando es necesario que el marco normativo incentive el crecimiento de los factores habilitantes de estos sistemas, como lo son, entre otros, el acceso a datos de calidad, la disponibilidad de capacidad de cómputo y la constante capacitación de la fuerza laboral.

¿Cómo ha influido la IA en el ámbito del Derecho?

La inteligencia artificial está transformando profundamente el ejercicio del Derecho, tanto en lo práctico como en lo conceptual. En términos operativos, ha traído eficiencias importantes: permite automatizar tareas repetitivas, revisar grandes volúmenes de contratos, analizar jurisprudencia, predecir tendencias judiciales y gestionar información legal de manera mucho más rápida. Esto ha liberado tiempo para que los equipos jurídicos puedan concentrarse en lo estratégico.

Además, la IA ha comenzado a democratizar el acceso a ciertos servicios legales a través de asistentes jurídicos automatizados o plataformas que entregan orientación básica a personas que, de otro modo, no podrían pagar un abogado. Estas herramientas permiten resolver dudas frecuentes, generar documentos legales simples o guiar a usuarios en trámites administrativos, contribuyendo a cerrar brechas de acceso a la justicia.

Desde el punto de vista normativo, la IA también nos enfrenta a dilemas complejos: ¿cómo regulamos decisiones tomadas por máquinas? ¿Cómo garantizamos el respeto de los derechos fundamentales cuando intervienen sistemas autónomos? ¿Quién responde cuando hay un daño causado por un algoritmo? En definitiva, la IA no es solo una herramienta técnica; está desafiando las bases mismas de cómo entendemos y aplicamos el Derecho en el siglo XXI.

¿En qué ámbitos de la profesión legal cree que ha tenido más influencia?  

Hasta ahora, podríamos decir que el mayor impacto se ha visto en tareas operativas: la revisión de contratos, la búsqueda de jurisprudencia, el análisis predictivo de litigios o la gestión de grandes volúmenes de documentos. En todos esos ámbitos, la IA se ha convertido en una aliada para ahorrar tiempo, reducir errores y aumentar la eficiencia.

Esto está empezando a cambiar el perfil del abogado en dos sentidos. Por un lado, se espera que los profesionales del derecho incorporen herramientas de inteligencia artificial en su práctica cotidiana, para optimizar su trabajo y responder con mayor agilidad a las necesidades de los clientes o del sistema judicial. Por otro lado, también se valora cada vez más al abogado que sabe leer datos, entender cómo funcionan los algoritmos y reflexionar críticamente sobre sus implicancias éticas. Porque los desafíos legales actuales no solo son normativos, también son tecnológicos y sociales.

¿Cree que la IA podría llegar a reemplazar la función de jueces y abogados? ¿En qué grado y en qué tareas?

Hay tareas donde puede ser de gran ayuda —como ordenar información, analizar patrones, sugerir argumentos o facilitar ciertos análisis técnicos—, pero el Derecho no es solo técnica. También requiere criterio, juicio y una comprensión profunda del contexto de cada caso.

En la labor judicial, por ejemplo, hay decisiones que implican ponderar principios en conflicto, interpretar normas en situaciones complejas y aplicar el Derecho con sentido de justicia. Todo eso exige una mirada humana que los sistemas automatizados no pueden replicar. En ese sentido, veo a la IA no solo como un apoyo potente, sino también como un complemento a la labor de quienes ejercemos el Derecho, capaz de potenciar nuestras capacidades, pero no de sustituir nuestro rol.

¿Observa algún cambio en la práctica legal con el avance de la IA?

Sí, y es un cambio que ya se empieza a notar con fuerza. Muchos estudios jurídicos están incorporando herramientas de inteligencia artificial para automatizar tareas como la revisión de contratos, la búsqueda de jurisprudencia, la clasificación de documentos o el análisis normativo. Esto ha permitido mejorar la eficiencia operativa y dedicar más tiempo a labores estratégicas que requieren criterio jurídico.

Pero no es un fenómeno exclusivo del ámbito privado. También en el sector público se han dado pasos importantes. Un ejemplo concreto es la implementación, por parte de la Corte Suprema de Chile, de un nuevo buscador de jurisprudencia que utiliza inteligencia artificial para facilitar el acceso a fallos relevantes. Esto demuestra que el ecosistema jurídico en su conjunto está empezando a incorporar estas tecnologías para mejorar el acceso a la información legal y modernizar su funcionamiento.

Además, han comenzado a surgir nuevos perfiles profesionales en el mundo legal, como analistas jurídicos de datos o especialistas en tecnología legal, lo que refleja que los cambios no solo son tecnológicos, sino también culturales y profesionales.

¿En el ámbito de los Tribunales aprecia que es una herramienta útil y que se está utilizando?

Sí, la inteligencia artificial tiene un gran potencial para apoyar y/o complementar la labor judicial, y ya se están viendo algunas aplicaciones concretas. En Chile, aunque el uso de IA en el Poder Judicial aún está en una etapa temprana, se han dado pasos significativos. Un buen ejemplo es el nuevo buscador jurisprudencial de la Corte Suprema, que utiliza IA para facilitar el acceso a fallos relevantes, mejorando la eficiencia en la consulta y el análisis de decisiones judiciales.

Si bien aún no se observa una implementación generalizada de sistemas de IA que asistan directamente en la toma de decisiones jurisdiccionales, existen iniciativas y desarrollos en curso orientados a modernizar la gestión de información judicial y explorar aplicaciones que apoyen funciones específicas del sistema. Estos avances reflejan un interés creciente en incorporar tecnología de manera progresiva y cuidadosa. La clave está en que estas herramientas se integren como un complemento que potencie la labor judicial, sin sustituir el juicio humano ni comprometer principios fundamentales como la motivación de las decisiones, el debido proceso y la independencia judicial.

¿Qué riesgos considera que puede traer consigo el uso de IA en el ámbito del Derecho?

Son múltiples los riesgos que puede traer consigo la incorporación de inteligencia artificial en el ámbito jurídico, especialmente si no se implementan con los resguardos necesarios. Uno de los más relevantes es la opacidad algorítmica, ya que muchos de estos sistemas funcionan como verdaderas “cajas negras”, lo que dificulta comprender cómo llegan a ciertas conclusiones. Esta falta de explicabilidad puede afectar principios jurídicos fundamentales como la transparencia, la motivación de los actos jurídicos, el derecho a defensa y el debido proceso.

Un ejemplo representativo de los desafíos que plantea la inteligencia artificial en el ámbito jurídico son los sistemas de justicia predictiva, como aquellos diseñados para estimar probabilidades de reincidencia penal. Estos sistemas se han aplicado en contextos sensibles, como decisiones sobre prisión preventiva, en función de proyecciones algorítmicas de “riesgo”. Este tipo de prácticas ha sido objeto de crítica, no solo por su falta de transparencia —que impide conocer cómo se llega a determinadas conclusiones—, sino también por el riesgo de reproducir sesgos estructurales presentes en los datos históricos. A ello se suma la posibilidad de que se adopten decisiones automatizadas sin una base justificativa clara ni una oportunidad efectiva de impugnación, lo que tensiona garantías esenciales como el debido proceso y el principio de legalidad.

Otro riesgo relevante es la tensión entre innovación y protección de datos personales. El desarrollo de sistemas de IA requiere grandes volúmenes de información, lo que puede contradecir principios básicos como la minimización, la finalidad específica o la exactitud de los datos. En muchos casos, no está del todo claro cómo se recolecta, procesa y resguarda esa información. En este contexto, la entrada en vigencia de la nueva Ley de Protección de Datos Personales en Chile, a partir de diciembre de 2026, será un hito crucial para establecer límites claros y equilibrar el avance tecnológico con la protección efectiva de derechos fundamentales.

¿De qué modo se puede controlar y sancionar el uso indebido de esta herramienta?

Lo primero es contar con reglas claras y principios que orienten el desarrollo y uso responsable de la inteligencia artificial. Pero más allá de la norma escrita, se requieren mecanismos prácticos de control, como auditorías técnicas, fiscalización efectiva, procesos de revisión independiente y la posibilidad de impugnar decisiones automatizadas cuando corresponda.

En este escenario, es fundamental promover una cultura profesional e institucional que entienda que el uso ético de la tecnología también forma parte del ejercicio del Derecho. Esto implica no solo ajustarse a lo legal, sino asumir un compromiso activo con la justicia, la transparencia y los derechos fundamentales.

Un concepto clave que debemos incorporar con mayor fuerza es el de inteligencia artificial explicable: sistemas que no solo operan correctamente, sino que pueden justificar sus decisiones de forma comprensible. Esto es especialmente relevante en contextos como el judicial o administrativo, donde las decisiones deben poder ser revisadas y comprendidas por las personas afectadas.

En ese sentido, podemos observar con atención la experiencia de la Unión Europea y su propuesta de AI Act, que establece un enfoque basado en riesgos y contempla obligaciones específicas y sanciones proporcionales para quienes desarrollen o utilicen sistemas de IA de manera indebida, especialmente cuando están en juego derechos fundamentales.

¿Chile está retrasado en la regulación de la IA?

Más que considerar que Chile está retrasado, es más adecuado decir que el país se encuentra en una etapa de construcción y fortalecimiento de su enfoque en materia de inteligencia artificial. La existencia de una Política Nacional de Inteligencia Artificial, actualizada en 2024, refleja un compromiso institucional con el desarrollo de esta tecnología, y el proyecto de ley en discusión marca un paso importante hacia la futura elaboración de un marco normativo más robusto.

Si bien aún no contamos con una legislación específica vinculante como la que están desarrollando otras regiones, como la Unión Europea con su AI Act, esta situación representa también una oportunidad estratégica. Chile tiene la posibilidad de observar experiencias comparadas, aprender de los aciertos y errores internacionales, y construir una regulación que sea pertinente, realista y respetuosa de su contexto institucional, social y tecnológico.

Lo importante ahora es avanzar con visión y decisión, asegurando que el desarrollo e implementación de la IA se realicen con un enfoque centrado en los derechos, la ética y la innovación responsable. El desafío está en equilibrar el fomento de la tecnología con la protección de las garantías fundamentales, contribuyendo así a una transformación digital justa y sostenible

 

 

Más reportajes

Destacamos

Últimas noticias

Lo más leído

Videos