1. A su juicio, ¿cuál cree usted que es el principal impacto del uso de la inteligencia artificial en el derecho? ¿Cómo se pueden medir y mejorar sus consecuencias?
Siempre es interesante que los avances tecnológicos sean observados de cerca por el Derecho, especialmente cuando se trata de herramientas usadas intensivamente por la sociedad. La inteligencia artificial, en su faz funcional, sin duda que puede, y debe, vincularse con él, y son varias las instancias en que puede hacerlo. Tal vez la más desafiante es aquella que propone el reemplazo de operadores jurídicos por máquinas capaces de resolver asuntos en el marco de un proceso, función que también se podría extrapolar a la creación de normas y regulaciones, por lo que resulta evidente el impacto que estas herramientas podrían ocasionar en el Derecho.
Por otro lado, es muy relevante el análisis de las consecuencias jurídicas que siguen del uso de la IA. Acá el panorama se abre considerablemente y vemos afectaciones en diversas áreas de las ciencias jurídicas, tales como derecho de contratos, protección de datos personales, propiedad intelectual, responsabilidad civil y penal, entre otras. De ahí que la medición y observancia jurídica de estas consecuencias dependerá en gran medida de la flexibilidad con la que se apliquen las normas pertinentes, o de la habilidad que tengan los reguladores para ordenar el fenómeno. De esta forma, frente a la consulta sobre medición y mejora de sus consecuencias, me parece que la respuesta se encuentra en el establecimiento de regulaciones de alta calidad, diseñadas en escucha activa de los actores que usan o pretende usar herramientas de IA, y que sean capaces de añadir seguridad jurídica al tiempo que protegen la innovación.
2. Teniendo en consideración la Ley 19.628 Sobre Protección de la Vida Privada y el artículo 19 numeral 4 de la Constitución de la República de Chile, ¿cuáles son los principales problemas que la inteligencia artificial tendría al aplicarse teniendo en consideración que se estructura a base de datos y qué medidas recomienda adoptar para disminuir tales problemas?
La inteligencia artificial no es un avance tecnológico en sí mismo, sino que representa la reunión sistemática de otras tecnologías y herramientas. En este sentido, el insumo fundamental que necesita son miles y miles de datos que pueda estudiar. El big data es, tal vez, lo que hoy sustenta la factibilidad técnica de la IA, y que marca un punto diferenciador en la larga historia que tienen las “maquinas pensantes”, por lo que la relación entre IA y datos, es fundamental.
En el caso estricto chileno, si estos datos tienen el carácter de personales deben ser obtenidos en consideración a lo dispuesto por la Ley 19.628 sobre Protección de la Vida Privado. En caso contrario, existiría una vulneración a dicho cuerpo normativo, y, por cierto, a las normas de rango constitucional que protegen el valor de la vida privada. En este punto, me parece que la problemática no radica exclusivamente en materia de inteligencia artificial, propiamente tal, sino que, derechamente, en sede de protección de datos. Por ende, el fortalecimiento y actualización de las normas que regulen la autodeterminación informativa y la administración de datos personales, sumado a la especialización e independencia de los órganos de control y regulación, son puntos clave de cara al uso cada vez más masivo de herramientas de IA.
Por último, el trabajo multidisciplinar que tengan los órganos reguladores es relevante. Pensemos, por ejemplo, en los términos y condiciones que suscribimos continuamente para acceder a aplicaciones y servicios. En dichos contratos de adhesión es común encontrar cláusulas referentes al uso y comercialización de información personal, y rara vez advertimos las amplísimas facultades de administración y comercialización que estamos otorgando. Acá, el diálogo entre el regulador de consumo, por ejemplo, y el regulador de datos personales, permitiría afrontar con mayor solidez institucional el fenómeno.
3. ¿Cuál es la responsabilidad legal y quién la asume cuando se aplica la inteligencia artificial en el derecho?
En materia de responsabilidad legal, el criterio de imputación resulta fundamental para atribuirla a alguien (o algo). En determinados sistemas de inteligencia artificial, existen grados de aprendizaje y autonomía decisoria que complejizan esta asignación de responsabilidad. En general, no es factible ni eficaz (hasta ahora), atribuirle responsabilidad a una cosa, siendo la ausencia de personalidad jurídica el punto tradicional de inflexión. De esta forma, las responsabilidades, a mi entender, se deben buscar en los diseñadores de los algoritmos de IA; en las personas, naturales o jurídicas, que hubiesen encargado el diseño del software; o en aquellas que utilicen, dentro de sus actividades y o procesos, las herramientas de inteligencia artificial que puedan ser causantes de un daño.
En cualquier caso, a medida que estos sistemas evolucionen y se vayan sofisticando, el paradigma de imputación podría variar. Por ello, el desafío lo enfrentan nuevamente los reguladores, que deberán establecer el mejor modo de asignación de responsabilidad y resarcimiento del daño. En mi opinión, no es un buen camino la aplicación por extensión de las normas tradicionales de responsabilidad, sino que se deben crear nuevas y atinentes regulaciones, que otorguen seguridad jurídica, y que sean lo suficientemente flexibles para no afectar la innovación y el desarrollo tecnológico.
4. ¿Sabe usted de dónde emanan los datos que se utilizan a propósito del reciente fallo en que se utilizó inteligencia artificial? ¿Existe alguna nube de datos o alguien en particular tiene la propiedad sobre tal información?
Hace algunas semanas, se viralizó el caso de un juez colombiano que utilizó el popular programa ChatGPT para resolver un caso. Este programa, en particular, utiliza el lenguaje y sistemas de la compañía OpenAI que dispone de diversas bases de información y parámetros de aprendizaje automatizado. Esto conduce a que en ocasiones sea (impactantemente) asertivo y claro, al punto de ser difícil distinguirlo de un humano.
Ahora bien, la misma plataforma de ChatGPT declara que sus sistemas pueden conducir a respuestas incorrectas, e, incluso, reconoce la existencia de sesgos generados al momento de entrenamiento del software. En base a ello, el uso y aplicación de esta herramienta en particular para la resolución de un caso judicial, no me parece para nada adecuado ni oportuno.
5. ¿Cree usted que debería implementarse una política pública en el uso de la inteligencia artificial? ¿Debería además estar contenida y regulada en la nueva constitución?
Si. Me parece muy pertinente que exista una política pública que establezca lineamientos generales para la IA. Este es, a mi entender, el camino correcto para llegar a una posterior regulación eficaz. El Estado debe inmiscuirse en estos temas, y dar un primer paso a través de algún lineamiento de política pública, es un buen punto de partida. Luego, el legislador y los reguladores competentes, serán quienes concreticen y perfeccionen esas políticas en normas y regulaciones.
En cuanto a su reconocimiento constitucional, mi opinión es que no constituye un tópico que deba tener reconocimiento de ese rango. Al tratarse de un tema tan innovador y disruptivo, siempre está la tentación de querer darle una connotación de rango constitucional. A mi entender sería innecesario. Lo relevante es que el Estado logre detectar los puntos de inflexión que puedan generar afectaciones a valores jurídicos, luego revisar la suficiencia o insuficiencia de las regulaciones establecidas para abordar estos fenómenos, y dar el gran salto a la ordenación normativa particular.
6. ¿Qué ventajas puede obtener el sistema de justicia chileno al utilizar herramientas de inteligencia artificial? ¿Quién y cómo se controlan?
La evidente ventaja que podría traer esta tecnología al sistema judicial, es la de hacer más eficientes los procesos. En aquellos que contemplen procedimientos mecanizados, en que el rol de los operadores jurídicos podría ser obviado, las herramientas de IA podrían aportar mayor celeridad, y descongestionarían la judicatura para resolver con mayor holgura los casos complejos. Ahora bien, se hace necesario un diametral cambio de paradigma a la concepción del debido proceso, y, por ahora, me parece que este cambio de paradigma no sucederá. En cualquier caso, el uso de IA, no directamente en materia resolutoria, sino que indirectamente, como herramienta de apoyo a los operadores jurídicos, me parece una experiencia muy positiva.
La pregunta referente al quién y al cómo se controla una hipotética inteligencia artificial que apoye al sistema judicial, es la clave de este asunto. Lo anterior, debido a los sesgos que pueden ser en ella introducidos, y a la fiabilidad de los datos de que disponga para analizar. En efecto, en la ponderación de un caso, los sesgos de la maquina son un elemento que no puede estar presente en la decisoria litis, y, por ende, quien tuviese el control de la IA en materia judicial, debe ser estrictamente regulado. Por otro lado, por ejemplo, su uso en la búsqueda inteligente de causas y resoluciones, para servir como insumo en un proceso de mediación, resultaría adecuado, siempre y cuando las bases de datos de que disponga sean previamente validadas o generadas por el Poder Judicial.
7. ¿Cree usted posible que los sistemas de inteligencia artificial puedan suplir ciertos roles claves en la justicia como, por ejemplo, el de relatores, secretarios u otros?
No lo creo. Roles secundarios, de apoyo al operador jurídico sí que podrían tener como herramienta e insumo, tecnologías de inteligencia artificial. Pero los roles claves del proceso, requieren elementos volitivos y experienciales que no se encuentran (aún) dentro de los parámetros de las inteligencias artificiales.
8. ¿Cómo se puede utilizar de manera ética la inteligencia artificial en el sistema judicial?
Regulando. La inteligencia artificial debe ser regulada, tanto desde su diseño y encargo, como en cuanto a las consecuencias jurídicas que de su aplicación se sigan. Esta regulación debe ser acompañada de un eficiente sistema de control y supervisión. Bajo ese prisma sería posible -aunque no en términos absolutos- esperar una utilización ética de la IA.