15.4 C
Santiago
jueves 24 de abril de 2025

Proyecto de Ley de Inteligencia Artificial (Boletín 16821-19): Cuando se nos olvida el Derecho Procesal.

Sin normas procesales, sin un régimen recursivo (sea administrativo o judicial), e incluso sin ninguna consecuencia legal diversa de aquellas que pudiere decidir el operador, lo cierto es que no queda clara la función detrás de la institución de los incidentes graves causados por una inteligencia artificial.

Siguiendo una tendencia mundial, sin duda liderada por la normativa comunitaria europea, en mayo pasado se presentó a través de Mensaje Presidencial un proyecto de ley cuyo propósito es regular a la Inteligencia Artificial (Boletín 16821-19). Como reconoce oficialmente el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación [1], la propuesta normativa fue construida con un claro enfoque basado en riesgos y su probabilidad de ocurrencia, distribuyendo los deberes y cargas regulatorias de los operadores en función de la categoría a la cual se hubiera asignado una determinada plataforma de inteligencia artificial.

De acuerdo con el artículo 5° propuesto, el mayor o menor riesgo de una plataforma dependerá de su (in)compatibilidad “con el respeto y garantía de los derechos fundamentales de las personas”, cuestión que da concreción al mandato presidencial de que la inteligencia artificial deba estar siempre “al servicio de la persona humana”.

Los sistemas diseñados para manipular subliminalmente, causar daño físico o psíquico, o clasificar biométrica o socialmente usando datos sensibles que puedan vulnerar la privacidad o generar discriminación (es decir, cuyo diseño causa incuestionablemente un daño o afectación a derechos fundamentales) son calificados como «sistemas de riesgo inaceptable» y están absolutamente prohibidos para operar en Chile (artículo 6°).

Si por el contrario, el sistema presenta un “riesgo significativo” [2] de causar daños a la salud, seguridad, medio ambiente o a los derechos fundamentales garantizados por la Constitución, y la probabilidad de ocurrencia del daño puede ser mitigada mediante el cumplimiento de las normas de gestión de riesgos, registro documental y supervisión humana del artículo 8° del proyecto, tales plataformas recibirán una autorización y registro para operar.

Sin duda una de las principales pretensiones de la regulación propuesta es garantizar que el uso de la inteligencia artificial en Chile sea compatible y respetuoso de los derechos fundamentales de las personas, evitando en la mayor medida de lo posible que éstas se vean expuestas o resulten víctimas de daños causados por tales plataformas.

En este sentido parecieran haberse regulado los llamados “incidentes graves”, definidos por el artículo 3 N°18 del proyecto como toda incidencia o defecto en el funcionamiento de un sistema de inteligencia artificial cuya consecuencia fuese o pudiese resultar, por ejemplo: a) en la muerte o daños a personas humanas; b) en la afectación de una infraestructura crítica de aquellas consagradas en el artículo 32 de la Constitución; c) en una vulneración a derechos fundamentales garantizados por la Constitución; o d) en un daño ambiental conforme a la Ley N°19.300.

Sin embargo, sorprende la solución propuesta por el artículo 13 del proyecto ante estos incidentes: quien identifique un incidente grave podrá reportarlo a la futura Agencia de Protección de Datos Personales, que se limitará a informar al operador de la plataforma involucrada de la existencia de la denuncia. Como se aprecia, ante denuncias de esta magnitud, el proyecto de ley optó por asignar a la agencia el rol de un mero “buzón de reclamos” y una “oficina de partes” cuya actividad se restringirá a notificar al operador denunciado.

Será entonces este operador quien deberá identificar e informar a las víctimas, evaluar el daño o vulneración de garantías fundamentales, determinar la causalidad derivada del defecto de su plataforma y decidir si aplicar, y en caso afirmativo, cuáles serían las medidas correctivas aplicables. En otras palabras, el proyecto propone que el sujeto investigado sea, simultáneamente, investigador, juez y parte en la situación denunciada: “Una vez que hayan establecido un vínculo causal entre el sistema de IA y el incidente grave, o la posibilidad razonable de que exista dicho vínculo, el operador adoptará las medidas oportunas de conformidad con el artículo 9 de la presente ley.”.

Todo ello, por supuesto, sin ningún tipo de regulación procesal que asegure la intervención de la víctima o incluso de la Agencia. Sin normas procesales, sin un régimen recursivo (sea administrativo o judicial), e incluso sin ninguna consecuencia legal diversa de aquellas que pudiere decidir el operador, lo cierto es que no queda clara la función detrás de la institución de los incidentes graves causados por una inteligencia artificial.

Esta nos parece una solución inaudita y manifiestamente contraria al debido proceso constitucional. ¿Cómo podría ser razonable que elementos fácticos y jurídicos, que debieran ser conocidos y resueltos exclusivamente por Tribunales de Justicia independientes e imparciales, bajo un proceso racional y justo, sean relegados a la determinación de la misma persona investigada y potencialmente sancionada?

La igualdad de armas y el derecho de defensa, principios y garantías basales de la tutela judicial, se ven flagrantemente invisibilizadas u olvidadas por este particular régimen desregulado y privado. Ni siquiera los sistemas más inquisitivos permiten que una persona investigada resuelva sobre su propia suerte sin control alguno.

La discusión del proyecto de ley, hasta el momento, ha estado centrada prácticamente de forma exclusiva en la regulación de los aspectos técnicos de los sistemas de inteligencia artificial. Sin duda tales cuestiones tienen una relevancia crucial en la calidad regulatoria, no obstante, no puede ser el único centro del debate. Ello, especialmente si la intención legislativa es, por sobre todas las cosas, garantizar en la práctica que la inteligencia artificial respete la Constitución y los derechos de las personas humanas.

Resulta también preocupante que la Corte Suprema, en su informe sobre este proyecto, centrara su crítica exclusivamente en la atribución de facultades sancionatorias a la Agencia, asunto ya resuelto en la reciente ley de protección de datos personales, sin mencionar en absoluto la regulación sobre «incidentes graves» del Título V del proyecto. Este es precisamente un punto clave que el máximo tribunal debió abordar, considerando que la observancia del debido proceso es central en su rol constitucional.

Para una adecuada regulación, nuestro sistema jurídico exige respetar la coherencia normativa definida por la Constitución. Es urgente corregir esta deficiencia, asegurando que la decisión sobre derechos fundamentales y daños siga correspondiendo, exclusivamente, a tribunales independientes e imparciales. (Santiago, 21 de marzo de 2024)

 

[1] https://www.minciencia.gob.cl/noticias/con-enfoque-basado-en-riesgos-gobierno-presenta-proyecto-de-ley-para-regular-usos-de-la-inteligencia-artificial/ [fecha de consulta: 20 de marzo de 2025].

[2] De acuerdo con el Artículo 3° número 3 del Proyecto, se entenderá por riesgo significativo: “riesgo que resulta como consecuencia de la combinación de su gravedad, intensidad, probabilidad de ocurrencia y duración de sus efectos y su capacidad de afectar a una o varias personas naturales.”

Más columnas de opinión

Destacamos

Entrevistas

Contrapuntos Ver más

Asuntos interés público