Por José Ignacio Nambrard Ramírez, Universidad Autónoma de Chile.
El desarrollo de la Inteligencia Artificial (IA), durante la llamada cuarta Revolución Industrial, ha influenciado en diversas áreas de la sociedad y, una de ellas, son las ciencias sociales jurídicas. En particular, la IA se ha consolidado como uno de los factores más influyentes en la evolución de nuestro ordenamiento jurídico. Frente a este escenario, se vuelve imprescindible analizar cómo la Inteligencia Artificial ha transformado el ejercicio del derecho, en especial, la enseñanza del mismo.
La profesora Valeska Cecilia Rivas Arias, abogada de la Universidad Austral de Chile, Secretaria de Estudios de la carrera de Derecho de la Universidad Autónoma de Chile y Magister en Docencia Universitaria por la Universidad Autónoma de Chile, analiza como ha influido la Inteligencia Artificial en la actualidad jurídica nacional desde una mirada de la academia y docencia universitaria.
1.- ¿En qué medida la Inteligencia Artificial puede ser considerada un punto de inflexión en la historia del pensamiento y la práctica jurídica?
La Inteligencia Artificial es, quizás, el cambio estructural más transversal que han debido asumir las profesiones en el mundo contemporáneo. A diferencia de lo que ocurrió con la incorporación de la calculadora o la computación, esta transformación genera mayores desafíos porque se percibe, erróneamente, como un reemplazo del razonamiento humano. Ese temor es comprensible, pero debe ser matizado, la IA no sustituye competencias propiamente humanas como la empatía, la comprensión de contextos o el juicio ético. En el caso del Derecho, esto es especialmente sensible, pues nos obliga a redefinir el pensamiento jurídico, no en función de su automatización, sino en cómo potenciamos sus dimensiones más humanas.
2.- ¿Cuál es su perspectiva sobre la incorporación de la Inteligencia Artificial en la formación jurídica en el país?
Más que necesaria, considero que su incorporación es indispensable. Las facultades de Derecho deben asumir un rol activo en una integración crítica y ética de la IA en los procesos formativos. No creo que la vía sea prohibirla o temerle, sino enseñar a utilizarla con criterio, con reflexión y con responsabilidad. La IA puede ser una herramienta útil, desde lo pedagógico hasta lo profesional, pero siempre que se comprenda que no se debe partir de cero. Cuando se le entrega el control total a la herramienta, se genera una peligrosa flojera intelectual. Por el contrario, si se usa para complementar el conocimiento disciplinar que ya poseen los estudiantes, se optimizan los tiempos y se libera espacio para trabajar competencias esenciales como la ética, el trabajo en equipo, la creatividad y el pensamiento crítico.
3.- ¿Qué tipo de herramientas de Inteligencia Artificial ha adoptado en su práctica docente y con qué objetivos?
En la actualidad, utilizo herramientas de Inteligencia Artificial en diversas etapas de mi práctica docente, en la planificación de asignaturas, la construcción de casos simulados, la elaboración de material educativo y la retroalimentación personalizada a las y los estudiantes. El objetivo es ofrecer experiencias de aprendizaje más contextualizadas, que respondan a las necesidades del territorio y de la profesión jurídica. Además, actualmente estamos desarrollando un entorno de simulación en el metaverso para entrenar habilidades de litigación, lo que permite acercar a los estudiantes a escenarios reales desde una dimensión tecnológica avanzada. La clave en todos estos usos es no delegar irreflexivamente, sino entregar a la IA insumos de calidad, fruto del conocimiento y la experiencia docente, para lograr un resultado pedagógico superior.
4.- Por otro lado, y con relación a la utilización ética de la IA, ¿qué desafíos éticos plantea actualmente el uso de la inteligencia artificial en el Derecho?
Uno de los desafíos más urgentes es evitar la delegación irreflexiva de funciones que aún no son delegables. La IA debe estar siempre al servicio del ser humano, no reemplazarlo. Esto implica un uso conducido, con reflexión ética y responsabilidad, especialmente en áreas tan sensibles como el Derecho. También es necesario advertir sobre el tratamiento masivo de datos personales y sensibles, que puede afectar derechos fundamentales, reproducir sesgos y poner en entredicho principios como la igualdad, la imparcialidad y el debido proceso. Estos riesgos aumentan cuando el uso de la IA se realiza sin comprender su funcionamiento o sin control sobre sus fuentes.
En particular, hemos conocido en Chile y en el extranjero ejemplos de un uso deficiente de herramientas como ChatGPT en la práctica jurídica, con resultados preocupantes, como la invocación de jurisprudencia inexistente o citas erróneas. Esto revela una comprensión limitada del rol que deben cumplir estas tecnologías. La IA puede colaborar en ciertas tareas —como la corrección gramatical, la mejora de una estructura argumentativa o el apoyo en la redacción inicial—, pero en ningún caso se puede delegar íntegramente la elaboración de un escrito jurídico. No solo por razones éticas, sino también por las responsabilidades profesionales que asumimos frente a las personas que representamos, ya sea desde el ejercicio libre o desde funciones institucionales.
El Derecho es una disciplina que exige responsabilidad, criterio y una ética rigurosa. Por ello, debemos formar profesionales que comprendan que el uso de estas herramientas requiere reflexión, supervisión y un compromiso intachable con los principios de la profesión.
5.- Desde su experiencia profesional en el Ministerio Público y el estudio de las ciencias jurídicas penales, ¿qué impacto considera que tiene hoy la Inteligencia Artificial en el trabajo del Ministerio Público y en el desarrollo del Derecho penal?
El impacto de la IA se extiende no solo al Ministerio Público, sino también al Poder Judicial y a la defensa penal. En el caso de las fiscalías y las policías, las herramientas de IA pueden ser muy útiles para el análisis de datos, la identificación de patrones delictivos y la prevención del delito. Sin embargo, estos beneficios también conllevan riesgos importantes, como la estandarización de decisiones, la generación de perfiles y predicciones que pueden afectar la presunción de inocencia o distorsionar la valoración individualizada de los antecedentes. En muchos casos, el gran obstáculo no es la tecnología, sino la falta de datos adecuados, estandarizados y disponibles para el análisis.
En tribunales, por su parte, la IA podría utilizarse para recrear escenas del crimen o para reconstruir pruebas mediante simulaciones en el metaverso, y así ya se está haciendo. También podría tener aplicación en la etapa de ejecución penal, por ejemplo, en sistemas predictivos sobre reincidencia. Todo esto, sin embargo, debe enfrentarse con un debate serio sobre su valor probatorio, su impacto en principios como la inmediatez, y su control ético y jurídico.
6.- En ese mismo sentido, ¿qué impacto ha tenido la Inteligencia Artificial en la evolución y tipificación de nuevas conductas delictivas?
El desarrollo de la Inteligencia Artificial ha impulsado la aparición de nuevas formas de criminalidad que no pueden abordarse únicamente desde una perspectiva informática o legislativa. Este fenómeno nos exige una comprensión mucho más profunda y global, que incluya miradas jurídicas, filosóficas, técnicas y sociales. No basta con reaccionar ante las conductas ya consumadas; es necesario comprender cómo funcionan estas tecnologías para poder anticipar sus posibles usos ilícitos. Si no entendemos el modo en que operan, difícilmente podremos identificar sus riesgos reales ni diseñar estrategias eficaces de prevención, persecución o sanción. Desde lo penal, esto desafía tanto al legislador como a la doctrina y no solo se subsana con nuevos tipos penales sino por ejemplo repensando conceptos como autoría y participación a la luz de escenarios donde el componente humano puede estar mediado o incluso diluido por sistemas automatizados.
7.- En materia internacional, ¿qué regulaciones o buenas prácticas internacionales podrían implementarse localmente para enfrentar el uso indebido de la Inteligencia Artificial?
Existen recomendaciones relevantes de organismos como la Unesco, la Unión Europea o la OCDE. Todas coinciden en algunos principios clave: promover el uso transparente e informado de la IA; garantizar un respeto irrestricto a los derechos humanos, especialmente en el tratamiento de datos personales; y fortalecer las capacidades institucionales para fiscalizar el uso de estas tecnologías. Creo que Chile necesita avanzar hacia una regulación con enfoque interdisciplinario, que considere que no todos los usos de la IA son iguales: no es lo mismo aplicarla en la arquitectura que en la justicia penal o la salud. Hay sectores especialmente sensibles donde el margen de error tiene consecuencias mucho más graves. Por eso, la evaluación de riesgo y la perspectiva de derechos deben estar en el centro de cualquier normativa nacional.
8.- ¿Hay algo más que le gustaría añadir?
Solo he de destacar que no podemos seguir temiéndole a la Inteligencia Artificial. Es, probablemente, la herramienta tecnológica de mayor impacto global de las últimas décadas, pero al mismo tiempo una de las más incomprendidas. No podemos quedarnos atrás. Necesitamos formar profesionales que no solo sepan usarla, sino también reflexionar sobre sus límites, sus alcances y sus riesgos. La IA nos permite optimizar tareas y resultados, pero también permite liberarnos tiempo para centrarnos en lo más valioso, aquello que ninguna máquina puede replicar, como el juicio ético, la sensibilidad humana y la capacidad de relacionarnos con el mundo. Ahí está nuestro verdadero desafío.