La implementación de la Inteligencia Artificial (“IA”) en nuestro diario vivir puede conllevar grandes impactos en un sinnúmero de ámbitos: laborales, educacionales, económicos, sociales, de salud, entre otros. Durante este último tiempo, con el avance vertiginoso de los modelos de IA a nivel mundial, los límites de la legalidad – que suele ir más despacio que los desarrollos tecnológicos – se han visto desafiados por el avance de modelos que incluyen el procesamiento masivo de datos personales, basado en un consentimiento poco informado por parte de sus usuarios, generando con ello cuestionamientos legales respecto a la legitimidad de su tratamiento, pero también éticos respecto a los límites de su uso (sobre todo cuando no existe una ley que lo prohíba). En este sentido, podemos detectar a nivel general algunos riesgos que es preciso abordar:
1) Riesgos de privacidad en las etapas del desarrollo de Modelos de IA.
El tratamiento de datos personales a través del uso de IA suele seguir un determinado proceso, cuyas principales etapas suelen ser el (i) desarrollo o entrenamiento de la Inteligencia Artificial, (ii) la validación de los datos, (iii) el despliegue de dichos datos, (iv) la explotación de estos y, finalmente, (v) la retirada de los mismos. Cada una de estas etapas puede presentar diversos riesgos con relación a los derechos fundamentales de los titulares de los datos que están siendo procesados.
Si bien, los riesgos de cada etapa debe evaluarse de forma particular, es posible apreciar que al menos, riesgos como la evaluación sistemática de aspectos personales de los titulares de datos, basadas en decisiones automatizadas; el tratamiento masivo de datos; los tratamientos que impliquen el monitoreo de una zona de acceso público, o tratamiento de datos sensibles; junto con los sistemas de IA que utilicen deep learning para el tratamiento de los datos, debiesen ser considerados riesgos importantes, altos. Así lo vemos en las principales normativas de datos internacionales, tales como el GDPR, como también en la nueva Ley N° 21.719.
Así entonces, algunas obligaciones mínimas que debieran ser consideradas para la regulación de los riesgos y la creación de nuevas regulaciones en la materia, debieran abordar a lo menos:
– Garantizar una existencia de una base de licitud para el tratamiento de los datos personales
– Informar y ser transparente con los titulares de los datos
– Proporcionar a los titulares con mecanismos que permitan el ejercicio de sus derechos fundamentales
– La aplicación de un principio de responsabilidad proactiva que establezca la necesidad de incorporar una serie de garantías adicionales apropiadas al caso concreto
– Cumplir con determinadas condiciones para transferir internacionalmente los datos
– La realización y sujeción a auditorías a los tratamientos de datos personales.
2) Riesgos en la normativa aplicable a la Inteligencia Artificial.
Actualmente, cuerpos normativos como la European Union AI Act, y el Proyecto de Ley que regula los Sistemas de IA de Chile – actualmente en tramitación en la H. Cámara de Diputados – han establecido diversas situaciones que implican sobrepasar o bien, estar en contraposición de los límites legales, como por ejemplo:
– La utilización de Inteligencias Artificiales para manipular comportamientos y los sistemas de puntuación social que dan una valoración social en función del comportamiento digital de los ciudadanos.
– Prácticas con alto potencial de manipulación o evaluación de los estados emocionales de una persona.
– Los usos biométricos para el análisis de imágenes de vídeo que empleen identificación en tiempo real (salvo para usos relacionados a la seguridad pública).
– Los sistemas de IA basados en técnicas de facial scraping.
– En general, aplicaciones que atenten contra la dignidad de las personas, entre ellas, por ejemplo, aplicaciones de IA para crear deepfakes de contenido sexual que exploten vulnerabilidad de niños, niñas y adolescentes.
Otros comportamientos que, si bien no están prohibidos, suelen ser considerados altamente riesgosos, y, por lo tanto, deben estar sujetos a obligaciones estrictas, como análisis de riesgos, trazabilidad de resultados, supervisión humana, entre otros. Algunos de ellos son: la utilización de IA en infraestructuras críticas, que puedan causar perjuicio a la salud, la seguridad, los derechos fundamentales de las personas o el medio ambiente; IA aplicada a sistemas de reclutamiento de personal, servicios públicos, inmigración, actividad legislativa y la administración de justicia, etc.
¿Cómo enfrentar dilemas éticos cuando no existe ley al respecto?
Si bien la IA ofrece puede transformar positivamente nuestras vidas, potenciando nuestras capacidades y ofreciendo nuevas oportunidades, resulta clave utilizarla dentro de un marco legal, de privacidad y ético robusto, especialmente en modelos que representan un riesgo alto, o que manejan datos sensibles. Al respecto, la EU AI Act ha indicado que aunque el enfoque basado en riesgo deber ser la base de un conjunto eficaz de normas vinculantes en materia de IA, es importante considerar un set de 7 directrices éticas (conocido como el “Trustworthy AI Framework”) que podrían ayudar a garantizar que la IA sea no solo digna de confianza, sino que además éticamente sólida, entre los cuales se encuentran:
– La intervención y supervisión humana
– La solidez técnica y la seguridad
– La privacidad y la gobernanza de los datos
– La transparencia
– La diversidad, la no discriminación y la equidad
– El bienestar social y medioambiental, y
– La responsabilidad
Si bien tales principios no son obligatorios actualmente en nuestro país, tales podrán servirnos de lineamientos válidos que sin duda contribuirán al diseño de una IA coherente, digna de confianza y centrada en el ser humano, en consonancia con los valores de nuestras leyes y de la Constitución. (Santiago, 19 de marzo de 2025)