Entrevista

Artículo 12 del Código Penal.

Profesor Francisco Bedecarratz sobre la relación entre el desarrollo de la inteligencia artificial y el Derecho Penal: “Aquí, van a aparecer formas de comisión o modus operandi totalmente nuevos como también se exacerbarán las posibilidades de daño respecto de ciertas formas comisivas ya presentes.”

El académico afirma que desde un punto de vista procesal está teniendo un impacto tremendamente profundo. El uso de sistemas de IA se puede ver como una herramienta para aumentar la efectividad de los sistemas de persecución penal, tanto en el nivel de la investigación como en el de juzgamiento. Esto es algo que ya existe y se han desarrollado proyectos pilotos a lo largo del mundo, en los cuales se implementan sistemas algorítmicos en distintas etapas de un proceso penal. Esto se puede ver en cada una de la etapas de la persecución penal. Incluso en la etapa preventiva.

6 de agosto de 2023

Por Felipe Ignacio Carrera Hernández, Universidad de Chile 

Uno de los desafíos más relevantes que le ha tocado enfrentar al Derecho en el contexto de la, así denominada, cuarta revolución industrial, son las distintas formas en que el desarrollo de la inteligencia artificial ha cambiado nuestra forma de interactuar con el mundo y la comunidad.

Con ocasión de la presentación del proyecto de ley (boletín 16.021-07) impulsado por los senadores y senadoras Pugh, Galilea, Órdenes, Rincón y Ebensperger, que busca incorporar una nueva agravante al catálogo del artículo 12 de nuestro Código Penal, referido a la comisión de delitos “mediante el uso o por medio de inteligencia artificial”, entrevistamos al profesor Francisco Bedecarratz, académico de la Universidad Autónoma y Director del Proyecto Inteligencia Artificial y Derecho de la misma casa de estudios, para conocer su opinión al respecto y comentar los nuevos desafíos y posibilidades que supone el desarrollo de la inteligencia artifical para el Derecho Penal.

1. ¿Qué relevancia considera que tiene para el Derecho Penal en el actual desarrollo de la inteligencia artificial (IA en adelante)?

Es una muy buena pregunta de inicio. Efectivamente, el impacto que tiene el actual desarrollo de los sistemas de inteligencia artificial en el Derecho Penal no se puede subestimar. Estamos ante una revolución tecnológica que escapa el marco de la cuarta revolución industrial y que representa una nueva etapa del desarrollo tecnológico en la humanidad, en la que entes distintos, dotados de capacidades similares de razonamiento al de los seres humanos, de forma más o menos autónoma, han empezado a incidir creando contenido o tomando decisiones que tienen un impacto en nuestra sociedad.

En ese sentido, el impacto que esto tiene en la esfera del Derecho Penal es a todo nivel. Por ejemplo, desde un punto de vista más dogmático, desde el punto de vista de la atribución penal, estamos viendo un impacto importante. En la medida en que va aumentando la autonomía de los sistemas informáticos y va siendo cada vez más frecuente la intervención de este tipo de sistemas en la comisión de delitos, nos enfrentamos a un problema: considerando que nuestro sistema de responsabilidad penal individual, que se basa en el principio de culpabilidad y de la reprochabilidad individual ético-social para poder atribuir una pena ¿está este en condiciones de poder responder frente a la intervención de herramientas o sistemas que toman, muchas veces, decisiones autónomas e inciden en la cadena causal que desemboca en un delito? ¿Podemos considerar como causa moralis e imputarle un delito a la persona que, en primera instancia, desencadenó una cadena causal, la que sin embargo luego se ve alterada por un sistema algorítmico que hace variar el resultado, que modifica la cadena causal o que creo o incrementó un riesgo no previsto inicialmente?

Por otro lado, desde un punto de vista procesal está teniendo un impacto tremendamente profundo. El uso de sistemas de IA se puede ver como una herramienta para aumentar la efectividad de los sistemas de persecución penal, tanto en el nivel de la investigación como en el de juzgamiento. Esto es algo que ya existe y se han desarrollado proyectos pilotos a lo largo del mundo, en los cuales se implementan sistemas algorítmicos en distintas etapas de un proceso penal. Esto se puede ver en cada una de la etapas de la persecución penal. Incluso en la etapa preventiva. Por ejemplo, Carabineros de Chile, hace tiempo viene investigando acerca de los Hotspots criminales, para poder asignar de manera más eficiente los recursos policiales en tareas preventivas. Se identifica cierta zona, intersecciones de calles o plazas, en los que existe mayor probabilidad de comisión de delitos y se destinan recursos policiales para lograr una mayor impacto de los limitados recursos con los que cuentan. En la actualidad se usan sistemas algorítmicos destinados a predecir aumentos de los niveles de criminalidad en una zona, tomando en consideración ciertas condiciones: si ha habido un partido de fútbol, el punto del mes en que nos encontramos, si la gente se encuentra con más o menos dinero, incluso las condiciones de tráfico o meteorológicas. A partir de ello, el sistema algorítmico cruza estas y otras variables para elaborar un pronóstico relativo a qué zonas mostrarán mayor actividad delictiva en el futuro cercano, y donde la asignación de recursos policiales será más efectiva y con el menor costo de oportunidad posible.

Otros ejemplos, en materia de investigación y análisis de evidencia, son los proyectos iniciados en Renania del Norte-Westfalia [Alemania] y el norte de Italia, que buscan el análisis de evidencia digital a través de sistemas algorítmicos de IA. Por de pronto, en relación con los delitos asociados a la pornografía infantil, el algoritmo es capaz de distinguir y diferenciar entre miles de imágenes, cuáles de estas han sido producidas con intervención de menores de edad. Esto, además de representar un enorme ahorro de tiempo, evita, en parte, el desgaste y daño psicológico al que se ven expuestos los agentes investigadores que deben examinar personalmente dichas imágenes.

También ha existido un impacto en lo relativo a la etapa de juzgamiento. Existen distinas propuestas en cuanto a decisiones automatizadas en la etapa de juzgamiento, por ejemplo relativas a la determinación del quantum de pena. Esto, naturalmente, interviene con principios procesales fundamentales tales como la intervención humana o la explicabilidad de las sentencias. Pero han existido propuestas para implementar esto en materia civil. Un ejemplo de ello fue la propuesta del Ministro de Justicia de Estonia realizada el 2019, que buscó implementar el juzgamiento de pequeñas causas (cuya cuantía no sea superior a 7.000 euros) a través de sistemas algorítmicos basados en IA.

Así planteado, esto abre la pregunta relativa a la posibilidad de incorporar este tipo de sistemas a procedimientos similares en nuestro sistema jurídico, por ejemplo, en relación con juicios sumarios, causas de arrendamiento o juicios ordinarios de menor cuantía (todos en el ámbito civil). Quizá tenga sentido plantear aquí un sistema automatizado de resolución de controversias. Es problemático, sin embargo, cuando estas propuestas se trasladan al ámbito penal.

En relación con la etapa de ejecución penal, también existe experiencia en cuanto a implementar sistemas algorítmicos capacaces de decidir si es que un sujeto representa o no un riesgo de reincidencia, particularmente al momento de decidir sobre su libertad condicional.

Nuestro propio DL 321 establece, en su art. 2° N°3, que el riesgo de reincidencia es un factor a considerar por la Comisión de Libertad Condicional al momento de conceder o denegar este beneficio. Lo mismo ocurre tanto con el art. 455 del Código Procesal Penal en materia de medidas de seguridad, como con el art. 140 del mismo código en relación con la prisión preventiva, en la que se prevé cuatro presupuestos que deben ser considerados por el Juez: la seguridad de la sociedad (en lo relativo a la posibilidad de reincidencia) y del ofendido (en relación con existencia o no de un riesgo de atentar el imputado contra el ofendido), la cautela en cuanto a los fines del proceso y el potencial peligro de fuga del imputado.

El riesgo es un concepto omnipresente en estos ámbitos. Sin embargo, su pronóstico futuro es una materia incierta, muy difícil de predecir para los jueces humanos. En este sentido, los sistemas algorítmicos tienen una capacidad que es superior a la humana para efectuar correlaciones y determinar relaciones de causa y efecto. Son capaces de incoporar al análisis y sopesar miles de variables para lograr un pronóstico más preciso, proceso que para un ser humano sería imposible de realizar en un margen de tiempo útil para los fines del proceso.

En Estados Unidos se ha usado este tipo de sistemas algorítmicos, principalmente en la decisión acerca de la probation (figura jurídica similar a nuestra libertad condicional). Sin embargo, un estudio realizado por ProPublica sobre el uso de COMPAS (Correctional Offender Management Profiling for Alternative Sanctions, en español: Administración de Perfiles de Criminales para Sanciones Alternativas), ejemplificó uno de los problemas que surgen a este respecto. El sistema algorítmico COMPAS es un software que ha sido utilizado por los sistemas de justicia de los estados de Wisconsin, Nueva York y otros, para determinar si un sujeto presenta mayor o menor riesgo de reincidencia. El año 2016, el estudio mencionado determinó que este sistema catalogaba desproporcionadamente a personas de raza negra (frente al número de individuos de raza blanca) como presentando un mayor riesgo de reincidencia, por el solo hecho de pertenecer a este grupo racial. Pese a que, en muchos casos, las personas blancas representaban un mayor riesgo de reincidencia (por ejemplo, en base a su número de condenas previas). El algoritmo valoraba de forma desmedida el factor racial. Este caso pone de relieve los riesgos propios del uso de algoritmos en materia procedimental, tanto en el ámbito de juzgamiento como en el ámbito de ejecución.

Pero existen también otros elementos problemáticos. Así, por ejemplo, la falta de transparencia. Los sistemas algorítmicos más complejos, tales como redes neuronales artificiales, se basan en un conjunto de unidades conectadas o nodos llamados neuronas artificiales, que modelan vagamente las neuronas de un cerebro biológico para procesar los datos y realizar las operaciones. En sistemas de aprendizaje profundo, además, tales redes se disponen en múltiples capas o niveles, con el fin de procesar resultados más complejos. Los fundamentos de decisiones algorítmicas no son fácilmente inteligibles debido a la escala de dichos sistemas y la falta de herramientas para discernir sus operaciones. Cuando hablamos de decisiones algorítmicas que pueden afectar la libertad de una persona, es importante considerar que se presentan problemas para identificar los fundamentos y criterios utilizados para tomar una decisión a este respecto (en materia penal, por de pronto: la decisión de condena o absolución, el quantum de la pena, etc…).

El art. 342, literales c) y d) del Código Procesal Penal, establecen la exigencia de explicabilidad de una sentencia penal. Este tiene distintas finalidades, una de las principales es poder reconstruir el razonamiento del tribunal para arribar a una decisión determinada, con el fin de poder dictaminar si ha sido efectuado conforme a derecho o si adolece de un vicio de nulidad. Un algoritmo, en estos casos, probablemente no está en posición de ofrecer una explicabilidad adecuada de su decisión u output, capaz de satisfacer el estándar establecido por esta norma.

Este es solo un grupo limitado de ejemplos en los que el desarrollo de los sistemas de inteligencia artificial resulta relevante para el Derecho penal y que resulta relevante discutir.

2. En parte la respuesta a esta pregunta fue adelantada, pero ¿considera que los avances en el desarrollo de los sistemas de inteligencia artificial supone la aparición de nuevas formas de comisión de delitos ya tipificados o nos abre a la pregunta por la creación de nuevos tipos de delitos?

Tanto lo uno como lo otro. Aquí, van a aparecer formas de comisión o modus operandi totalmente nuevos como también se exacerbarán las posibilidades de daño respecto de ciertas formas comisivas ya presentes.

El caso más clásico es el de la estafa a través de medios computacionales. Es decir, no delitos de fraudes informáticos, sino estafas clásicas (en el sentido de los artículos 467 y 473 del Código Penal) realizadas a través de medios informáticos. Esto ocurre, por ejemplo, a través de los denominados Deepfake, esto es: sistemas algorítmicos que imitan tanto la voz como la apariencia de una persona y que, en tal sentido, vuelven obsoletos cualquier sistema de autentificación realizado a través de medios informáticos.

Aquí vienen en consideración los casos tradicionalmente tematizados como el “cuento del tío”, que pueden volverse hiper-efectivos. Por ejemplo, el delincuente, haciéndose pasar por el hijo de una persona, llame a esta a través de un sistema de videollamadas, solicitando dinero porque, por poner un ejemplo, está detenido en una comisaría y necesita recursos; o sufrió un accidente de tránsito y necesita indemnizar a la otra persona afectada de forma inmediata para evitar iniciar un proceso judicial. Tanto la cara como la voz del delincuente están siendo sustituídas por el sistema algorítmico, de tal forma que hace casi imposible la distinción entre él y la persona real.

El hacking puede ser otro ejemplo a este respecto. Puedo pedirle a ChatGPT que analice un código fuente e identifique vulnerabilidades, que puedo posteriormente explotar a través de un código malicioso que también puedo pedir que escriba otro modelo de lenguaje. Si bien ChatGPT tiene ciertos resguardos para impedir su uso malicioso, estos son fácilmente vulnerables. En este sentido también existe un incremento del potencial delictivo en materia de delitos informáticos: el acceso ilícito, la falsificación informática, el fraude informático, etc. Estos delitos ya existen y pueden ser cometidos más fácilmente a través del apoyo de una IA.

Ahora, tratándose de amenazas completamente nuevas, un ejemplo puede ser el uso de sistemas de armas autónomas letales en hipótesis de conflicto (como hemos podido observar en el conflicto en Ucrania), comúnmente empleados para bombardear posiciones militares. Constituye un riesgo nuevo el que estos drones bombardeen, por ejemplo, una escuela, un hospital o un estableceimiento civil en general, por errores o programación maliciosa. Esta es una amenaza nueva, frente a la cual el sistema de Derecho internacional humanitario parece no estar preparado, razón por la cual se discute actualmente en distintos foros internacionales (particularmente la UE) cómo responder frente a dichos sistemas de armas autónomas letales.

3. En un artículo del año 2021 (inteligencia artificial y delitos informáticos: hacia un modelo de prevención para el entorno digital, en el libro «Inteligencia artificial y derecho: Desafíos y perspectivas») Ud. consideraba como favorable la aprobación del proyecto de lo que hoy es la ley 21.459, que actualiza el catálogo de delitos informáticos ¿Qué significó la promulgación de esta ley para la puesta al día de Chile en esta materia, en particular con las medidas previstas en el Convenio de Budapest?¿Qué alcance tiene esto para el tratamiento de la ciberdelincuencia mediante el uso de IA?

La aprobación de la ley 21.459 constituye un avance claro y muy valorable en relación con la antigua ley de delitos informáticos que teníamos vigente, que databa de 1993, es decir, de cuando ni siquiera se había masificado internet. Y eso repercutió también en la estructura normativa de la ley, que tenía cuatro artículos, uno de los cuales tenía una figura de daños materiales a un sistema informático, es decir, no se trataba de un delito propiamente informático sino uno de daños propiamente tal.

La ley estaba condicionada por su tiempo. No era una ley mala, sino que simplemente se dictó justo antes de que despegara el explosivo desarrollo de la sociedad digital que experimentamos el día de hoy. Dicha norma no estaba preparada para responder a los desafíos que existen en el presente en relación a la informática y los bienes jurídicos protegidos en esta materia.

Por lo mismo, la actual Ley 21.459 constituye un avance claro. Cumple razonablemente con lo dispuesto en el Convenio de Budapest del año 2001, respecto a la sanción de la ciberdelincuencia. Nosotros incorporamos, verbatim, es decir, casi una a una, distintas disposiciones del Convenio, con variaciones propias de la adaptación de normas de Derecho internacional y del Derecho europeo a la realidad y contexto jurídico nacional. Lo anterior, sin embargo, con dos “bemoles”: primero, el Convenio de Budapest es del año 2001 y en ese entonces no existía ninguna red social. Una norma así no cuenta con ninguna figura punible que permita sancionar los delitos de suplantación de identidad en internet. La figura de usurpación de nombre prevista en el art. 214 del Código Penal resulta también tremendamente inadecuada para poder sancionar casos de suplantación de identidad a través de redes sociales. A pesar de que se trata de delitos que generan un estrés psicológico grave para nuestras y nuestros jóvenes, que terminan sufriendo la suplantación de su identidad digital y daños en su reputación e imagen, no existió una discusión al respecto durante el proceso de tramitación de la ley, pues el Convenio de Budapest no contempla una figura en ese sentido.

En segundo lugar, otro grupo de delitos que no está contemplado en esta ley pero que sí fueron incorporados en el Código Penal y reformados mediante la ley 21.522 del 30 de diciembre del año pasado, los sexuales cometidos a través de internet, especialmente los de pornografía infantil y grooming. Así, se actualizó el catálogo de delitos incorporando figuras como la producción y difusión de material pornográfico con participación de menores. El Convenio de Budapest, en todo caso, los preveía como una expresión de la ciberdelincuencia, pero como delitos relacionados con el contenido.

¿Qué no está en nuestra ley? Todo lo relativo a la propiedad intelectual. Esto es una deficiencia importante, que está salvada en parte por las leyes que tenemos al día de hoy, en particular, la ley 17.366 de 1970 sobre propiedad intelectual. Con todo, uno de los impactos más importantes que está teniendo la IA es en esta materia es la generación de contenido aparentemente original por sistemas algorítmicos, que en realidad se trata de fragmentos de información extraídos de obras existentes. Esto está regulado en nuestra ley de propiedad intelectual de forma general a través de la figura del plagio. Sin embargo, no está contemplado el fenómeno actual de generación de nuevo contenido por sistemas algorítmicos a partir de obras de terceros, que se ve actualmente con tal nivel de masividad. Lo anterior ni siquiera surgió como pregunta durante la actualización del catálogo de delitos informáticos. Y es una discusión que debemos tener para arribar a una solución en la materia. Se analiza evidentemente en la academia, pero no desde un punto de vista legislativo.

4. ¿Cuál es su opinión respecto al proyecto de ley recientemente ingresado por un grupo de Senadores y Senadoras que busca la incorporación de una nueva agravante al catálogo del artículo 12 de nuestro Código Penal en relación a la comisión de delitos “mediante el uso o por medio de inteligencia artificial”?

Partamos aclarando qué es lo que busca hacer el proyecto para después poder hacer una valoración al respecto. Este proyecto busca incorporar una agravante general al art. 12, a través de un numeral 23 nuevo del siguiente tenor: “cometer el delito mediante uso o por medio de inteligencia artificial”.

En primer lugar, esto suscita varias preguntas. ¿Cuál es la ratio que está detrás de esta nueva agravante? ¿Cuál es su finalidad? ¿Está en línea con las demás agravantes que existen en el Código? ¿Cumple una finalidad legítima o apunta a resolver un problema existente en nuestra sociedad respecto a la valoración de delitos cometidos a través de IA? ¿Qué concepto de IA se está utilizando aquí para poder apuntar o abarcar hechos que el legislador buca valorar de forma más dura?

Son varias preguntas que, en este estado de la discusión, solo podemos responder a título especulativo. El proyecto es escueto en la materia. Sólo está compuesto por cuatro páginas, una de las cuales está dedicada al texto normativo. Y las partes destinadas a su fundamentación son bastante genéricas y no explican suficientemente su fundamentación. Hagamos, sin embargo, un intento.

En primer lugar, es necesario recordar que las agravantes en el Código Penal son un capítulo tremendamente criticado por nuestra doctrina. Las agravantes contenidas de manera general en el art. 12 son un catálogo variopinto de hipótesis, hechos y modos de comisión de delito, que el legislador valora como merecedoras de mayor pena.

Pero lo cierto, es que no hay un fundamento general (y la doctrina está mayoritariamente conteste en esta materia) ni un hilo conductor que reuna a todas estas agravantes. El art. 12 tiene su orígen en nuestra codificación del año 1874, en la cual adoptamos el sistema del Código Penal español de 1848 y 1849. Una de sus características era esta previsión de un catálogo de agravantes generales. Pero más allá de ello no existe una ratio común a las distintas causales previstas en el código.

Las agravantes pueden tener distinto fundamento: político criminalmente puede estimarse que determinadas formas de comisión deben tener una mayor pena, o bien debe ascribírseles un mayor reproche ético-social, o bien representan un injusto intensificado por causar un mayor daño o puesta en peligro.

Para poder determinar si la agravante propuesta cumple con alguno de estos fines, podemos pensar en la agravante ya prevista que más se le parece: la agravante del numeral 20, a saber: la comisión del delito a través o portando armas de aquellas referidas en el artículo 132 (armas, utensilios cortantes, punzantes o contundentes). Aquí el legislador nos dice: en casos en que se ocupen estas armas el delito será merecedor de mayor pena porque (y la doctrina está también conteste) el uso de estas armas irroga, por su solo uso, un mayor peligro para la víctima.

Surge por tanto la pregunta en nuestro caso ¿existe un mayor peligro por la comisión de un delito a través de IA? Esto es algo que no explica el proyecto de ley. El uso de IA no necesariamente implica consecuencias más negativas para la víctima que, por ejemplo y pensando en un caso de Hacking, el acceso ilícito que puede lograr un programador (Hacker) humano. El resultado en este caso es el mismo. Veo en esto una falta de fundamentación en cuanto a por qué se incorpora aquí la agravante.

En realidad, el proyecto de ley es explícito en cuanto a que busca un “valor simbólico”: El proyecto señala en su página 3 in fine: “El presente proyecto de ley tiene por objetivo dar cuenta de la necesidad de establecer medios disuasivos respecto al mal uso de la inteligencia artificial, cuando esta se destina a la comisión de delitos de diversa índole, que afectan los derechos de las personas.” Pero lo cierto es que se aparta totalmente de la fundamentación que tiene el artículo 12 N°20, aquí no se busca sancionar un mayor peligro o hacer presente un mayor reproche.

Aquí solamente se hace presente una razón política criminal: ser un medio disuasivo, es decir, prevención general negativa. Aquí volvemos a Feuerbach. Pero lo cierto es que, desde muy antiguo, ya se ha establecido que el valor disuasivo-simbólico del Derecho penal es inefectivo. El verdadero valor del Derecho penal es la prevención especial negativa: la incapacitación o inocuización del infractor durante el tiempo que dure la condena, que un sujeto adentro de la cárcel difícilmente cometerá los delitos que cometía afuera.

Es difícil desarrollar un rol disuasivo, en el sentido de presentar a la comunidad cuales son las consecuencias de cometer un delito mediante el uso de IA. Por lo tanto es difícil justificar el proyecto por esta vía.

Ahora ¿apunta a una necesidad social, porque existe una mayor cantidad de delitos cometidos a través de sistemas de IA, por ejemplo? La respuesta aquí debe ser no. No se puede afirmar eso de manera concluyente, porque no se alcanza a vislumbrar en la práctica un aumento acusado de formas comisivas a través de sistemas de inteligenia artificial.

Es difícil que los delitos de mayor connotación social sean cometidos por sistemas de IA. Por lo tanto, la utilidad práctica de este proyecto, en ese sentido, es más bien tenue y poco argumentable.

¿Cuál es el verdadero aporte del proyecto? Indavertidamente y casi por azar, el proyecto resuelve una discusión que estuvo bien en boga en el ámbito penal y es ¿pueden los sistemas de IA cometer delitos ellos mismos o en realidad es el ser humano quien los utiliza como medios y debe ser hecho responsable de los delitos? Es decir, si la IA es un sujeto de Derecho penal o es meramente una herramienta. En el mundo han existido algunas propuestas, por ejemplo en la UE, que buscaban introducir una persona electrónica para poder atribuirle consecuencias de naturaleza civil y que pasaran a ser sujetos con, por así decirlo, una capacidad de goce. En materia penal también se han desarrollado investigaciones que buscan abordar en qué medida puede un sistema de IA ser hecho responsable penalmente por la comisión de un delito.

Aquí, el proyecto establece explícitamente que considera los casos en que el delito se comete “mediante el uso o por medio de”. Es decir, considera a la IA como una herramienta. No lo considera como un sistema que tenga que sufrir las consecuencias penales por el hecho, sino que lo instaura como una herramienta al servicio humano. Ese sería el aporte del proyecto de ley. Pero, más allá de ello, no se vislumbra el fin práctico del proyecto hasta ahora. Hay que ver cómo se desarrollará la discusión, qué argumentos incorporan los promotores del proyecto de ley. A lo mejor sale algo nuevo. Pero hasta el momento no tiene una perspectiva de fundamento totalmente aceptable.

5. Un poco en consideración de algo mencionado en la respuesta anterior y respecto a la posibilidad de un eventual desarrollo de sistemas de IA fuerte (en el sentido propuesto por Searle: la idea de una IA capaz de replicar funciones propias de la mente humana como el aprendizaje o la planificación y no solo limitarse al procesamiento de datos). ¿Considera que eventualmente debamos plantearnos la posibilidad de incorporar a nuestro sistema penal una responsabilidad de la IA? De forma paralela por ejemplo (y guardando las distancias) a las reglas actuales de responsabilidad penal de la persona jurídica.

Esto es algo que se ha propuesto. Hay trabajos en la UE, sobre todo el Alemania, que han propuesto la incorporación de sistemas de responsabilidad penal de las personas jurídicas para sistemas de IA.

Efectivamente, dado que son entes ficticios (al igual que las personas jurídicas), eventualmente se podría atribuir una sanción a aquellos sistemas que representen un riesgo para la población. Y de tal manera poder ejecutar, a través de una sentencia penal, órdenes de eliminación, disolución o prohibición de uso de ciertos sistemas algorítmicos de IA que sean objetivamente aptos para generar un riesgo inaceptable para la población.

Personalmente, el valor de esto lo veo más bien centrado en el ser humano. Un sistema de IA no es lo mismo que una persona jurídica. Esta puede ser disuelta. Se realiza la subinscripción y las anotaciones correspondientes en el Registro de Comercio y la empresa deja de existir, se liquida y ya está. Tomemos por ejemplo, considerando la contingencia nacional, una fundación que incurre en actividades delictivas. Uno puede aplicar la pena de disolución o de multa y es fácil atribuir las consecuencias jurídicas.

Un sistema de IA es un sistema de software que, como tal, es fácilmente replicable a través de distintas plataformas. Imponer una sanción a este tipo de sistemas tiene una perspectiva limitada de éxito. Pasa a ser nuevamente Derecho penal simbólico. La responsabilidad penal es individual y por tanto es intransferiblemente atribuida a nosotros como seres humanos. Una persona jurídica, por su parte, es también individual y específica. Las consecuencias penales pueden serle atribuídas en concreto. Sin embargo, ya se cuestiona la aplicabilidad de penas a este tipo de entes ficticios, pues tales pueden ser disueltos y luego reconstituidos a través de escrituras aparte, libres de toda pena. Además, la comisión de delitos al interior de consorcios compuestos de distintas sociedades matrices y filiales dificultan la individualización de la persona jurídica a quien atribuir la pena, como ya planteara Van Weezel el 2010.

El problema ya adelantado se complejiza aun mas en la materia aquí en discusión. Un sistema algorítmico lo puedo replicar las veces que yo quiera. Siempre que tenga espacio en el disco duro, el programa va a existir. Siempre que tenga la copia en algún servidor lo puedo poner nuevamente en operación más adelante. Aplicar una sanción a este sistema, es decir, establecerlo como persona jurídica, es poco efectivo.

Por lo demás, esto tiene un riesgo gigantesco desde otra perspectiva, y que es la dilución de la responsabilidad penal individual a través del uso de este sistema algorítmico. Por que, claro, la persona jurídica (y es algo discutido en relación a su responsabilidad penal) puede ser utilizada como una herramienta para evadir la acción de la justicia y eludir la responsabilidad individual.

¿Puede argumentar el usuario que la responsabilidad penal ya se hizo efectiva en la persona jurídica (por ejemplo, bajo el principio ne bis in idem)? Por ejemplo, bajo la idea de que la eliminación de un sistema algorítmico representa ya una afectación de su propiedad y que por tanto no tiene sentido la imposición de otra sanción a su persona. En este sentido podría existir el riesgo de una dilución de la responsabilidad individual.

¿Cuál es el único beneficio de un sistema de responsabilidad penal de la persona jurídica aplicada a un sistema algorítmico? La posibilidad de implementar sistemas de cumplimiento o de prevención de riesgos, de forma similar a lo que existe en el artículo 4 de la ley 20.393 [sobre responsabilidad penal de la persona jurídica], que son los modelos de compliance.

En la medida en que veamos un sistema algorítmico como una entidad jurídica, podemos también establecer la obligación de aquellos titulares o dueños de los sistemas algorítmicos de implementar modelos de administración gestión y supervisión de estos sistemas, con el fin de implementar medidas de seguridad suficientes para prevenir delitos que puedan surgir a partir de su uso.

Es decir: realizar un análisis de riesgo, nombrar un encargado de prevención, establecer un sistema de prevención de delitos: con la identificación de los riesgos, aquellos más relevantes, la determinación de las medidas preventivas y reductoras del riesgo, análisis de riesgos residuales, medidas para la supervisión del cumplimiento de las medidas de prevención y mecanismos de actualización.

La propuesta no es desabellada, porque uno de los principios éticos más relevantes en materia del uso de IA es la accountability, es decir, es más que la responsabilidad. Es poder encontrar a un responsable y un encargado de la seguridad del sistema de IA y que responda en casos de que exista algún tipo de daño.

Esto sería una buena herramienta para lograr una accountability  efectiva de parte de los titulares de un sistema algorítmico, para que estos no sean mal utilizados en la comisión de actividades delictivas, por ejemplo: aquellos que desarrollan un sistema algorítmico para crear imágenes, que este no sea utilizado por terceros para crear Deepfakes y así superponer la cara de una actriz en el cuerpo de otra persona dedicada a la pornografía y, de tal manera, generar un daño a la reputación de la primera, como ya ocurrió con varias personas en el pasado: casos de actores y actrices cuyos rostros, cuerpos y voces eran utilizados en videos pornográficos sin su consentimiento, elaborados a través de este tipo de sistemas algorítmicos. En ese sentido, quizá se pueda hacer responsable al sujeto que desarrolló o al programador o al dueño del sistema algorítmico, por no implementar las medidas de seguridad adecuadas para evitar este daño, de lo contrario ¿quién responde por este tipo de hechos? Naturalmente, en la medida que incurran en algún tipo de responsabilidad bajo los criterios y requisitos de imputación propios del Derecho penal tradicional.

6. Para concluir y a partir de este último punto, se discute en la doctrina qué título de intervención puede venir en consideración en la imputación de responsabilidad penal tanto para el usuario de un sistema de IA como para (y de forma más problemática) el programador de ese sistema. ¿Cuál es su posición al respecto? ¿Cree que sería posible atribuir responsabilidad (a título de participación, por ejemplo) al desarrollador de un sistema de IA?

La cuestión relativa a qué nivel de responsabilidad tiene el elaborador de un sistema de IA por los hechos lesivos que pudieran originarse por su uso es una pregunta distinta y de otra envergadura. Y uno puede, por lo pronto, aplicar distintas reglas de responsabilidad civil como las contenidas en los artículos 2.314 y siguientes  del Código Civil para fundamentar algún tipo de responsabilidad extracontractual en la materia.

Algo totalmente distinto es ¿existe una responsabilidad del dueño del sistema algorítmico? De quien lo utilizó está claro: genera un riesgo y ese riesgo se materializó en el resultado objetivo y este le es imputable de objetivamente. El usuario sabía o debía saber, actuó con dolo eventual o dolo directo, etc… Se pueden analizar a su respecto todas las teorías de imputación.

El problema, como bien es identificado, surge con la pregunta en relación al productor. Sin adentrarnos demasiado en la discusión, yo creo que es necesario estudiar si es aplicable toda la teoría de la responsabilidad penal por el producto a los elaboradores de este tipo de sistemas algorítmicos que, finalmente, de manera consciente o con, como se dice en el derecho anglosajón, willful ignorance [la persona evita la responabilidad jurídica manteniéndose intencionalmente ignorante respecto a un determinado factor como el riesgo de una actividad] generan el sistema que iba a poder ser utilizado de manera negativa.

El problema que nosotros encontramos aquí es que podemos pensar en distintos casos de responsabilidad penal de los productores. Por ejemplo, el caso del spray de cuero en el cual una empresa sacó al mercado un spray de cuero que sabían que podía producir daños a la salud [sentencia del Tribunal Supremo Alemán BGHSt. 37, 106 de 1990] . O el caso del aceite de colza: el año 1981 en España se vendió, a sabiendas, aceite para comer que era desnaturalizado pero que no estaba totalmente aclarado y, por tanto, resultó siendo venenoso y matando a cientos de personas y dejando a otros miles con daños irreparables a la salud [sentencia del Tribunal Supremo Español Rol 3.654 de 1992]. Aquí, no estamos hablando de este tipo de casos y esa es la dificultad de emplear la teoría de la responabilidad penal por el producto a sistemas algorítmicos. No estamos hablando de productos que, a sabiendas, generan un daño a la población o cuyo uso necesariamente va a generar repercusiones negativas en parte de la población. En los dos casos mencionados antes, los productores sabían o debían saber que su uso necesariamente iba a producir daños a la población.

La IA es una tecnología de uso dual. Los sistemas de IA y los conocimientos sobre cómo diseñarlos pueden destinarse tanto a fines beneficiosos como perjudiciales. Es decir, su principal aplicación es positiva, pero pueden ser utilizados de manera negativa para desarrollar daños en la población. Es difícil entonces atribuir responsabilidad a un programador o un grupo de programadores que desarrollan un sistema algorítmico para generar imágenes, textos o voz, cuando estos son aplicados para cometer delitos por el usuario final. El centro de gravedad está en el uso adecuado de esta tecnología, pese a que exhibe también un potencial para ser utilizado de manera negativa. Sería como sancionar al sujeto que vende o produce cuchillos o tijeras, porque estas fueron utilizadas para cortarle el cuello a otra persona ¿vamos a sancionar penalmente al productor de la tijera porque el producto tenía aptitud para realizar cortes en el cuerpo de otra persona? Lo mismo puede ocurrir aquí en materia de responsabilidad penal por el producto.

Este es un estudio que todavía tiene que realizarse. Existen algunas investigaciones aunque en Chile pocas. Por lo tanto es un área abierta de análisis.

Quiero pensar que cuando el riesgo de su mal uso sea tan evidente y no se incorpore una medida de protección, como por ejemplo una “estructura de imposibilidad”, como se denomina en estos sistemas, que haga imposible su uso malicioso, en estos casos sí podría verse esta responsabilidad. Pero tendrían que ser sistemas algorítmicos de alto riesgo.

La razón de ello se encuentra en un principio fundamental del Derecho Penal clásico: no podemos establecer un sistema de responsabilidad objetiva en ninguna materia penal, y tampoco para el programador de un sistema de IA por los delitos cometidos a través de tales sistemas.

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *