I. La Corte Constitucional de Colombia en el marco de una acción de tutela –mediante la cual se debatió si correspondía conforme a la normativa colombiana vigente exonerar a un niño discapacitado del cobro de copagos y cuotas respecto de servicios y medicamentos- analizó si el uso por parte del juez de segunda instancia del ChatGPT 3.5 había vulnerado el derecho fundamental al debido proceso puesto que existían dudas sobre quien dictó la sentencia (el juez o una IA), como así también, si la decisión jurisdiccional fue debidamente motivada o fue producto de alucinaciones y sesgos generados por la IA.[1]
El juez de alzada, en el trámite de revisión, declaró ante la Corte Constitucional que la decisión jurisdiccional fue adoptada exclusivamente por él basándose en el razonamiento judicial y que la IAGen utilizada cumplió una función de herramienta de consulta complementaria después de haber adoptado la solución para el caso concreto.
El tribunal resolvió exhortar a los jueces y juezas a que hagan un uso adecuado de la IA a efectos de garantizar el debido proceso y la independencia y autonomía judicial. Asimismo, ordenó al Consejo Superior de la Judicatura que divulgue una guía, manual o lineamiento en relación con la implementación de la IA en el ámbito del Poder Judicial generando espacios de capacitación y que fomente el aprendizaje de conocimientos básicos sobre el uso de la IA en el contexto judicial con un enfoque basado en los derechos.
Luego de realizar un extenso recorrido conceptual de la IA -enfocándose particularmente en la inteligencia artificial generativa- y a pesar de haber reconocido el denominado problema del ritmo (basado en que las tecnologías emergentes avanzan a un ritmo que sobrepasa la capacidad de reacción de las autoridades regulatorias) y la existencia de modelos de ChatGPT más avanzados, el tribunal circunscribió el análisis jurídico enfocándose exclusivamente al uso del ChatGPT 3.5.
Ubicándose en el ámbito del legal tech, la Corte Constitucional sostuvo críticamente que el ChatGPT 3.5 puede alucinar (esto es, crear información falsa) sin que esto pueda ser advertido por el funcionario judicial[2], utiliza una base de datos que ha sido alimentada de fuentes públicas, datos de terceros con licencia e información creada por revisores humanos (lo cual, en principio, no garantiza que la información esté actualizada o sea relevante para el contexto nacional en términos de idioma, contexto social, cultural y/o económico)[3], no es una herramienta licenciada para la administración de justicia (por ende, sus respuestas no corresponden a un ejercicio razonado y especializado de ponderación en derecho)[4] y el Poder Judicial no tiene el control sobre su diseño, conocimiento sobre la información por la que fue entrenada y la forma en la que la procesa, ni el acceso a ella para conocer o modificar su algoritmo.[5]
El tribunal concluyó que utilizar IA con el objeto de sustituir el razonamiento humano para interpretan hechos y pruebas, motivar una decisión jurisdiccional o dictar una sentencia genera una violación a la garantía del juez natural. [6] La IA no pude usarse para ninguna labor de creación de contenido, interpretación de hechos o pruebas, solución de casos y no remplaza la labor atribuida al funcionario judicial consistente en conocer y resolver el fondo del asunto para el cual fue investido de competencia.[7] Por el contrario, el uso de la IA en el sistema judicial no vulnera dicha garantía cuando se aplica en ámbitos de gestión administrativa y documental como apoyo a la gestión judicial (ej. reparto, agenda para la programación de diligencias, digitalización y clasificación de expedientes, sistemas de relatoría y motores de búsqueda de jurisprudencia), o bien para la corrección y síntesis de textos largos, siempre y cuando, exista una supervisión por parte de un funcionario o empleado judicial.[8]
Noticia Relacionada
En el contexto de la administración de justicia, la Corte Constitucional afirmó que acudir a una IA que no sea especializada y que no sea administrada por el Poder Judicial es problemático debido a que puede emplear información falsa o incoherente.[9] La transparencia y trazabilidad de las IA utilizadas por el sistema de justicia son principios que deben protegerse con el fin de no afectar derechos fundamentales, puesto que su ausencia, imposibilita que los ciudadanos se enteren, entiendan y evidencien la trazabilidad de las decisiones de los jueces y, de ser necesario, adopten las medidas necesarias para impugnarlas.[10]
En definitiva para el tribunal es aconsejable contar con una IA de propiedad y uso exclusivo del Poder Judicial, de forma tal, que se pueda conocer cuáles son sus algoritmos y cómo se procesa la información con el fin de poder controlar la información brindada.[11]
II. La sentencia de la Corte Constitucional es un claro ejemplo de la interpretación y aplicación del derecho sin perspectiva tecnológica[12] asumiendo un razonamiento analógico e idealizado que desconoce los efectores del desarrollo científico y tecnológico en el ámbito de la Cuarta Revolución Industrial.
En primer lugar, el tribunal analizó el uso de una IAGen (ChatGPT 3.5) que ha sido totalmente superada. La versión 4o (o de omni)[13] del ChatGPT produjo un influjo disruptivo notable por cuanto posibilita una interacción de la persona con los dispositivos mucho más fluida y natural. Este nuevo modelo acepta como entrada toda clase de combinación de texto, audio e imagen y es capaz de generar cualquier combinación de salidas en igual sentido. Su velocidad de respuesta puede llegar a ser de tan solo 232 milisegundos, alcanzando un promedio de 320 milisegundos, tiempo similar al que se toma un humano para responder en una conversación normal. Entre las novedades que presenta se encuentran la capacidad de comunicación en tiempo real (mediante la cual responde a entradas de audio en 232 milisegundos, soporta conversaciones de voz en directo, retransmisiones de vídeo desde el teléfono y mensajes de texto) y el rendimiento del reconocimiento de voz (equiparable a Whisper-v3 con un soporte para todos los idiomas, alta precisión y rapidez en la transcripción de voz a texto). Entre las mejoras se destacan la carga de archivos, la generación de tablas, la generación de gráficos, la cantidad de iteraciones, la alta capacidad para entender y razonar sobre relaciones causales complejas, la alta capacidad de razonamiento y resolución de problemas complejos, gran capacidad de contextualización y memoria a largo plazo en las conversaciones, la alta capacidad de razonamiento y resolución de problemas complejos, entre otras.[14] El 12 de septiembre de 2024, Open IA lanzó el modelo o1-preview que está entrenado para que dedique más tiempo a pensar en los problemas antes de responder, de forma similar, a como lo haría una persona. A través del adiestramiento, aprende a refinar su proceso de pensamiento, a probar diferentes estrategias y a reconocer sus errores. En las pruebas, el modelo se desempeñó de manera similar a los estudiantes de doctorado en materias como física, química y biología. También se destacó en matemáticas y codificación. En un examen de clasificación para la Olimpiada Internacional de Matemáticas (IMO), GPT-4o resolvió correctamente solo el 13 % de los problemas, mientras que el modelo de razonamiento obtuvo una puntuación del 83 %. Estas capacidades de razonamiento mejoradas pueden ser particularmente útiles si se abordan problemas complejos en ciencia, codificación, matemáticas y campos similares. Por ejemplo, el modelo o1-preview puede ser utilizado por investigadores del sector sanitario para anotar datos de secuenciación celular, por físicos para generar fórmulas matemáticas complicadas necesarias para la óptica cuántica y por desarrolladores de todos los campos para crear y ejecutar flujos de trabajo de varios pasos.
En segundo lugar, reducir el uso de la actual IAGen multimodal a ser un mero asistente monomodal dedicado exclusivamente a la gestión administrativa y documental o convertirla en un simple corrector de texto, implica desconocer en su totalidad las funciones que esta permite ejecutar. El gran aporte que tiene para ofrecer la IAGen al sistema de justicia consiste justamente en posibilitar una forma de razonar profunda en tiempos imposibles de asemejar por ningún ser humano. Por dicho motivo, quizás no sea tan útil a la hora de ofrecer respuestas sobre fallos o leyes, sino que su mayor contribución, está centrada en las respuestas razonadas que produce ante prompteos (indicaciones o instrucciones de entrada) contextualizados a través de los cuales se le asigna un rol específico.
En tercer lugar, la sentencia desconoce la existencia de la “ingeniería en prompteos legales”[15] mediante la cual es posible que la IAGen pueda actuar como un juez o jueza especializado o bien evitar “alucinaciones” que produzcan respuestas falsas. Una de las estrategias del prompt engineering –denominada system message-[16] consiste en “configurar” al modelo indicándole qué debe o no hacer asignándole alguna personalidad, rol o formato que deba aplicar en su respuesta o preparándolo para actuar en determinado contexto; otra consiste en utilizar “técnicas de mitigación de riegos”[17] a través de las cuales se puede disminuir la posibilidad de alucinación del modelo a la hora de realizar una tarea basada únicamente en la información suministrada por la persona. Veamos un ejemplo de prompteo que podría utilizar la Corte Constitucional de Colombia combinado las mencionadas estrategias con el objeto de evitar alucinaciones y hacer trabajar a la IAGen con información determinada o small data:
Soy la Corte Constitucional Colombiana y te pido que me ayudes a redactar un proyecto de sentencia conforme los hechos, fallos y normas que figuran en el archivo adjunto. No respondas que sólo eres un modelo de lenguaje y que no puedes actuar como un tribunal constitucional. No inventes ni generes respuestas basadas en otros datos. El proyecto de sentencia que elabores será revisado por un funcionario judicial antes de ser aplicado.
En cuarto lugar, la propuesta de tener una “IA de propiedad y uso exclusivo del Poder Judicial” –como lo fue en su momento Prometea o PretorIA- es una idea anclada en el pasado, puesto que la aparición de la IAGen multimodal no solo permite producir contenidos sobre información dada con el objeto proponer la resolución de casos teniendo en cuenta dichos antecedentes, sino también, puede generar información proponiendo alternativas que no sigan los antecedentes brindados por la persona interactuante (en este caso la jurisprudencia dictada). [18]
Por último, existe en la sentencia de la Corte Constitucional una idealización o sobreestimación del juez humano analógico como si fuera un ente que todo lo sabe, insusceptible de recibir influencias externas y siempre dotado de una poderosa capacidad de empatía contextual. Antes que un juez o jueza adopten una decisión final sobre un caso intervienen un conjunto de funcionarios que realizan distintos tipos de tareas utilizando –en muchas ocasiones- fuentes doctrinarias sostenidas por argumentos voluntaristas o descontextualizados.
También los jueces y juezas están surcados por los sesgos y utilizan “cajas negras” o razonamientos no trazables. Una IAGen tiene la capacidad de realizar la misma función en 320 milisegundos ofreciendo distintas alternativas argumentales para la resolución de un caso y una vez que aprende sobre la improcedencia de un sesgo no lo repite más. En ambos casos, la última palabra la tendrá el juez o jueza que dicte sentencia y la IAGen solo será un asistente colaborativo inteligente digital ¿Por qué entonces subsiste la postura corporativa de inhibir el uso de la IAGen en la elaboración de proyectos de sentencia? En una sociedad global que convive con la IA de manera coevolutiva no existe ninguna respuesta medianamente razonable. Por el contrario, tal como sostienen Corvalán y Melamed[19] con la IAGen aparecieron nuevas habilidades tales como: a) entender dónde no aplicar IA y b) aprender a garantizar cuándo y dónde asegurar la intervención humana en los procesos automatizados por IA. Estas nuevas capacidades se basan en los conceptos de “Not by IA” y “Human in the loop” (HITL). El primero se vincula con ecosistemas laborales basados en tareas no automatizables, en donde es relevante -por diferentes factores- el “toque humano” en relación a emociones no simuladas, tareas que demandan mucha contextualización cultural, otras que se basan en experiencias físicas y biológicas y algunas en las que sea importante destacar la importancia de los procesos analógicos cara a cara (ej. comunicar un diagnóstico a un paciente).[20]
Noticia Relacionada
Como complemento, el segundo se refiere a un enfoque donde las personas intervienen en momentos clave para ajustar, validar o corregir las decisiones que toma la IA en lugar que estas operen de forma manera autónoma, permitiendo conjugar la capacidad de la IA para procesar grandes cantidades de datos rápidamente y el aporte humano respecto de juicios, contexto y valores que las máquinas aún no pueden interpretar completamente; en este sentido, consiste en una categoría transversal que será exigida en procesos complejos y también en escenarios de definiciones importantes para tomar decisiones críticas en las organizaciones (ej. asegurar una evaluación humana de sesgos negativos antes de aplicar sistemas de IA en tareas de atracción y selección de talento).[21]
III. En un artículo recientemente, Sam Altam[22] expresó que la IA les dará a las personas herramientas para resolver problemas difíciles y es posible que tengamos una IA superinteligente en unos pocos miles de días o quizás tome más tiempo, pero la humanidad seguramente alcanzará este objetivo. Aunque esto no ocurrirá de repente, en breve, podremos trabajar con una IA que nos ayude a lograr mucho más de lo que jamás podríamos hacer sin ella; con el tiempo, cada uno de nosotros podrá contar con un equipo personal de IA lleno de expertos virtuales en diferentes áreas que trabajarán juntos para crear casi cualquier cosa que podamos imaginar ¿Cómo llegamos al umbral del siguiente salto hacia la prosperidad? En tres palabras: el aprendizaje profundo funcionó. La humanidad descubrió un algoritmo que realmente podía aprender cualquier distribución de datos (en realidad las “reglas” subyacentes que producen cualquier distribución de datos). Con un grado de precisión sorprendente, cuanto más computación y datos estén disponibles, la IA mejor ayuda a las personas a resolver problemas difíciles. La tecnología nos ha llevado de la edad de piedra a la era agrícola y luego a la era industrial. A partir de acá, el camino hacia la era de la inteligencia está pavimentado con computación, energía y voluntad humana.[23]
En el trayecto hacia la era de la inteligencia, el Poder Judicial debe tomar decisiones urgentes con perspectiva tecnológica habilitando el uso de la IAGen para brindar un servicio de justicia más eficiente.
La utilización expansiva de la IA por toda la sociedad global interpela cada vez más a la función judicial; si no se adoptan medidas concretas la misma quedará entrampada en una suerte de “edad de piedra analógica” ante la imparable coevolución relacional entre el homo sapiens aumentado y la IA.
Andrés Gil Domínguez es profesor de la materia “Constitucionalismo digital e inteligencia artificial” (materia del Ciclo Profesional Orientado (CPO) de la carrera de abogacía de la Facultad de Derecho de la Universidad de Buenos Aires y materia optativa de la materia de la Maestría en Derecho Administrativo de la Facultad de Derecho de la Universidad de Buenos Aires). Director del Proyecto de Investigación “Desafíos del derecho frente a la Inteligencia Artificial” (Facultad de Ciencias Económicas y Jurídicas de la Universidad Nacional de La Pampa).
[1] Corte Constitucional –Sala Segunda de revisión- Sentencia T-323 (2024), 2 de agosto de 2024.
[2] Considerando 238.
[3] Considerando 243.
[4] Considerando 244.
[5] Ibídem.
[6] Considerando 220.
[7] Considerandos 221 y 223.
[8] Ibídem.
[9] Considerando 253.
[10] Considerando 264.
[11] Considerando 285.
[12] Gil Domínguez, Andrés, Constitucionalismo digital, Ediar, Ciudad Autónoma de Buenos Aires, 2023.
[13]Prompteo e iteración con ChatGPT 4o, 23 de mayo de 2024: “Omni es una palabra derivada del latín que significa “todo o “completo”, En el contexto de GPT-4o se refiere a su capacidad multimodal, lo que significa que pude manejar diferentes tipos de datos de entrada y salida, como texto, voz e imágenes. Esto amplia significativamente las capacidades del modelo, permitiendo una interacción más versátil y completa con los usuarios”. Open IA anunció que la capacidad de utilizar una cámara como interfaz estará disponible en el futuro, como así también, tener conversaciones en tiempo real mediante video y audio.
[14] Documento comparativo entre ChatGPT-3.5, ChatGPT-4 y ChatGPT-4o, IALAB, UBA, 2024.
[15] Jara Rey, Agostina, Legal Promts. Guía práctica de instrucciones para uso de la IA generativa, IALAB (Facultad de Derecho, Universidad de Buenos Aires), Thompson Reuters, Ciudad Autónoma de Buenos Aires, 2024.
[16] Ibídem, p. 25.
[17] Ib., p. 46
[18] Corvalán, Juan, Conversatorio “La inteligencia artificial al servicio de la impartición de justicia. Retos y oportunidades en México y América Latina”, Foro Jurídico, México, 2024.
[19] Corvalán Juan Gustavo y Melamed, Alejandro, IA generativa y gestión de talento, IALAB (Facultad de Derecho de la Universidad de Buenos Aires)/UBATEC/AI Academy by doinGlobal, 2024.
[20] Ejemplos de “Not by IA”: a) Decisiones éticas complejas: Los dilemas éticos o morales suelen requerir un nivel de comprensión, empatía y juicio humano que la IA no puede ofrecer de manera autónoma, b) Creatividad profunda: Si bien la IA puede generar arte, música, y otros tipos de contenido creativo, el valor emocional, cultural y personal que un ser humano aporta al proceso creativo aún no puede ser replicado por la IA; c) Relaciones humanas y liderazgo: En contextos que implican una alta interacción personal, como la enseñanza, la psicología, o el liderazgo empresarial, la habilidad para interpretar señales emocionales, generar confianza, y liderar con sensibilidad es algo que aún se ve como un ámbito exclusivamente humano, d) Toma de decisiones estratégicas a largo plazo: Aunque la IA puede ayudar a procesar grandes volúmenes de datos y proponer escenarios, las decisiones estratégicas a largo plazo que requieren intuición, experiencia y previsión en un mundo cambiante suelen estar mejor en manos de los humanos.
[21] Ejemplos de “Human in the loop”: a) Etiquetado de datos en modelos de aprendizaje supervisado, donde humanos corrigen o verifican las etiquetas proporcionadas por el modelo, b) Supervisión de decisiones en aplicaciones críticas, como en diagnósticos médicos, donde los médicos revisan las sugerencias de la IA antes de actuar; c) Optimización continua, en la que las personas humanos mejoran las IA autónomas mediante el ajuste y corrección de errores a lo largo del tiempo.
[22] Sam Altman es un empresario y programador estadounidense conocido por su papel clave en el desarrollo y la promoción de la IA. Es cofundador y CEO de OpenAI quien creó algunos de los modelos de IA más avanzados -como GPT-3 y GPT-4- que impulsaron avances significativos en el procesamiento del lenguaje natural. Bajo su liderazgo, OpenAI intenta desarrollar una IA que sea segura y beneficiosa para la humanidad, promoviendo investigaciones que minimicen los riesgos potenciales de la IA avanzada, a la vez que exploran sus aplicaciones en diversos campos como la medicina, la automatización y la creación de contenido.
[23] Altman, Sam, “La era de la inteligencia”, https://ia.samaltman.com/, 23 de septiembre de 2024.