Noticias

Imagen: elderecho.com
Opinión.

«La responsabilidad civil derivada del uso de inteligencia artificial», por Antonio Aznar Domingo y María Patrizia Domingues Villarroel.

Con esta investigación se pretende dar a conocer las distintas problemáticas que surgen de la utilización de sistemas dotados con inteligencia artificial, en especial la responsabilidad civil derivada de un daño ocasionado principalmente por máquinas o artefactos dotados con inteligencia y que pueden ser considerados como “autónomos”.

25 de julio de 2022

En una reciente publicación de elderecho.com se da a conocer el artículo «La responsabilidad civil derivada del uso de inteligencia artificial», por Antonio Aznar Domingo, Doctor en Derecho. PhD City University Los Ángeles (California, USA) y María Patrizia Domingues Villarroel, Graduada en Derecho, Universidad de La Laguna (España).

Se analiza atendiendo a los conceptos básicos la aplicación de IA al mundo jurídico, su relación con el derecho y las características que hacen de esta tecnología tan compleja para su regulación específica o la posibilidad de aplicar la normativa ya conocida. Conocerá las distintas problemáticas que dieron origen a este debate y las conclusiones que se han ido gestando sobre la responsabilidad de los robots dotados con IA. Por último, se estudia la factibilidad de las propuestas más novedosas para solventar la problemática jurídica con respecto a los daños causados por acciones u omisiones de máquinas con IA.

INTRODUCCIÓN

¿Podemos hacer que una máquina simule conductas humanas como el pensamiento? y si es así, ¿cuál sería su repercusión en la sociedad y el derecho? Estas son algunas de las preguntas que en los últimos años se han planteado los expertos con respecto a nuevas tecnologías cuya principal característica es la capacidad de pensar por sí misma. Pensemos en el Internet, hace tiempo atrás era una herramienta completamente desconocida para muchos, sin embargo, en la actualidad es imprescindible para nuestra sociedad; lo mismo ocurre con los robots y los sistemas de inteligencia artificial que se conciben ahora como una realidad incierta pero que está tomando gran relevancia estos últimos años, como la próxima tecnología transformadora. Por lo que, la inexistencia de una regulación específica para el sector ha generado distintas propuestas de resolución para el actual vacío legal.

Este fenómeno, aunque pensemos que es actual, hace ya tiempo que viene siendo debatido, desde 1956 con el nacimiento del término “INTELIGENCIA ARTIFICIAL” de la mano de John McCarthy, hasta la actualidad con accidentes de tráfico causados por vehículos que “nadie conducía” o incluso drones que de forma autónoma atacan personas [1]. La IA está siendo estudiada de manera progresiva tomando relevancia en los últimos tiempos, es por ello por lo que los legisladores internacionales, europeos e incluso de la doctrina española han venido mostrando interés en abordar los problemas jurídicos que la implementación de la robótica avanzada y la Inteligencia Artificial traen consigo.

En estos supuestos, en donde un sistema de conducción autónoma total basada en IA causa un accidente, ¿Quién responde por ese daño?, ¿Cómo determinamos la acción u omisión imputable?, por no decir, las dificultades de establecer la relación de causalidad. ¿Sería en todo caso acertado y necesario reconocer una personalidad jurídica a los robots?, y hacerlos responsables de los daños que podrían causar o tendremos que encontrar el origen de la anomalía para imputar a una persona física. Veremos que, para la gran mayoría, la verdadera incógnita está en determinar quién será el responsable de los daños ocasionados por un sistema inteligente ¿el productor, el usuario, el vendedor, la máquina en cuestión? y en consecuencia el sujeto que deberá hacerse cargo de la indemnización por el perjuicio ocasionado. ¿Serán responsables los sistemas de IA?.

1. CAPÍTULO PRIMERO: INTRODUCCIÓN A LOS CAMPOS DE LA INTELIGENCIA ARTIFICIAL (IA) Y EL DERECHO

Antes de adentrarnos en el objeto principal que es el análisis de la responsabilidad civil a raíz del uso de sistemas dotados con Inteligencia Artificial conviene precisar una serie de elementos y conceptos que serán de vital importancia.

1.1 Concepto de Inteligencia Artificial

Si tuviéramos que dar una aproximación de lo que significa INTELIGENCIA ARTIFICIAL (en adelante IA) “revolución tecnológica” sería la más acertada, a lo largo de la evolución humana, hemos sufrido grandes avances en muchos aspectos, pero sobre todo en el sector tecnológico. La IA hoy en día supone una forma nueva de concebir la tecnología, es sin duda uno de los cambios más importantes de la última década, y que, desde hace algunos años ha tomado especial relevancia para la sociedad y en especial el Derecho. Basándonos en su característica más destacada, la “IA es la capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar lo aprendido en la toma de decisiones tal y como lo haría un ser humano” [2], es la nueva forma de que un programa informático o un dispositivo físico, ponga en práctica una tarea que le encomendemos de forma autónoma, simulando el pensamiento humano y su respectivo trabajo de racionalización.

Lo primero que debemos destacar con respecto a esta figura, es la dificultad que han tenido los autores a la hora de establecer un concepto común para esta disciplina, en la actualidad el término IA y todo aquello que conlleva su estudio y análisis se sigue debatiendo [3]. En efecto, el primer reto que tiene la doctrina con respecto a los campos de la Inteligencia Artificial es su delimitación, la consideración de un concepto unánime del que se desprendan las características básicas o necesarias para hablar de IA y que podamos tener como base o de común acuerdo cuando hablamos de sistemas inteligentes, es aún polémica.

La primera crítica será la complejidad existente en delimitar cuando estamos ante la presencia de IA y cuando no, esto es así, porque al estar ante una disciplina tan cambiante -no es lo mismo el primer modelo computarizado que los ordenadores del siglo XXI-, moldeable -puede ir desde un programa informático hasta un androide-, amplia -en el sentido que abarca multitud de características, sistemas, ámbitos en los cuales desarrollarse, etc.-, de algún modo todavía desconocida -muchos autores afirman que todavía no sabemos el alcance máximo que tiene esta disciplina, seguimos en terrenos inexplorados en tanto a inteligencia artificial se refiere, todavía los científicos y estudiosos tratan de descifrar cómo funciona nuestro cerebro y en consecuencia nuestra inteligencia- ¿Qué nos asegura que sabemos todo sobre la IA entonces?. Es imprescindible cuanto antes poder delimitar la IA, sobre todo para las disciplinas jurídicas ya que, en este ámbito es imprescindible la utilización de conceptos jurídicos que brinden una regularización más completa y segura para la sociedad y no caer entonces en la abstracción e incertidumbre como las que se están originando últimamente en este tema.

Comenzando con -según muchos- el pionero en IA, John McCarthy quien en 1956 se encargó de acuñar el primer concepto de IA conocido, definiéndola como “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligente”, concepto que para su época solo podría ligarse a una versión idílica, pero que ahora en el siglo XXI es insuficiente, aunque sigue siendo un comienzo algo revelador. La IA es una realidad, ya forma parte de nuestra cotidianidad, no debemos pensar en sistemas inteligentes como algo a futuro, sino que debemos ir planteándonos como una realidad omnipresente. Véase, por ejemplo, los vehículos autónomos, robots médicos, e incluso robots humanoides como Sophia.

Llegados a este punto lo principal será fijar un concepto de IA, por lo que, en principio, acuñando un término general, podríamos reconocer inteligencia artificial, como una disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico [4]. Aunque bien recibido por los estudiados en la materia como un primer paso en la conformación de un término, se le critica el hecho de su “generalidad” y muy poco tecnicismo a la hora de determinar cuando estamos ante un artefacto inteligente, cosa que para el legislador genera insuficiencia en una futura regulación.

El gran inconveniente para establecer un concepto formal de IA radica en establecer qué es la inteligencia. Para hablar de inteligencia es necesario que concurra una cierta capacidad de percibir contextos de acción, posteriormente una capacidad de actuar y finalmente la capacidad de asociar determinados contextos a determinadas acciones. Teniendo estas características ya podemos hablar propiamente de inteligencia, pero la pregunta a este punto sigue siendo ¿podemos verdaderamente hacer que una máquina simule el pensamiento? Según Alberto García Serrano “…lo cierto es que no hay un consenso entre los científicos e ingenieros sobre lo que es la Inteligencia Artificial, y mucho menos se ha llegado a una definición exacta y concisa que nos permita dirimir qué programas son o no inteligentes. El problema es que ni siquiera tenemos la certeza de que seamos capaces de definir qué es la inteligencia (no artificial)” [5].

Es el informe con recomendaciones destinadas a la Comisión Europea de 2020, el que más se aproxima actualmente a una conceptualización de la IA cuando la define como “todo sistema basado en programas informáticos o incorporado en dispositivos físicos que muestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la adopción de medidas, con cierto grado de autonomía, para lograr objetivos específicos” [6]. Esta noción es una de las más novedosas y acertadas que se maneja actualmente, por ello será el principal punto de referencia. Si bien, es cierto como se dijo al principio de este apartado, tomar este concepto como el correcto no deja la puerta cerrada a nuevos pensamientos ni ideas sobre la IA, más bien debe ser concebido como un punto de inflexión para los expertos en la materia a que sigan en la búsqueda de un concepto más técnico y unitario.

1.1.2 Conceptos fundamentales relacionados con la IA.

Comenzando con el modo de funcionamiento, percibimos la IA como algoritmos que a través del razonamiento pueden pensar, tomar decisiones y resolver problemas. La IA intenta de alguna manera imitar el pensamiento humano, la forma en la que funciona la IA -al igual que la inteligencia humana- es a través del aprendizaje de patrones de comportamiento, para, a partir de ellos, predecir y solucionar problemas futuros. Veremos que la IA emula un proceso bastante parecido al que realizamos los humanos cuando razonamos: lo primero es identificar el problema -aprendizaje-, para luego analizar las situaciones del pasando y estudiar todas las posibles variables relacionadas con el problema, posteriormente a través de un sistema de estadísticas -entrenamiento- predice el resultado futuro del problema y por último una vez el sistema tiene todos los datos, proporciona la solución -resultados- más factible para el problema. Dicho esto, podemos distinguir entre una IA sencilla (o débil), que está diseñada para cumplir tareas concretas predefinidas. Un ejemplo de “IA débil” podrían ser los asistentes virtuales por voz de nuestros smartphones, como lo es Siri de Apple [7]. En otro término encontramos a la IA compleja (o fuerte) [8] que será aquella imitadora de las habilidades cognitivas humanas, este tipo de sistemas inteligentes son los más avanzadas porque implican poder encontrar soluciones a tareas desconocidas por estas máquinas, sin que previamente hayan conocido de su existencia (la variante “fuerte” de la IA, es la que por el momento no se ha desarrollado en gran medida). Tanto la Inteligencia Artificial débil como la fuerte son las que en la actualidad plantean desafíos legales múltiples e interesantes.

También podemos encontrar otra clasificación establecida por Start Russell y Peter Norving [9], quienes propusieron identificar los diferentes tipos de IA en sistemas artificiales del siguiente modo: sistemas que actúan como humanos -es el caso de los robots-, sistemas que piensan racionalmente -serían los sistemas expertos, que se encargan de percibir, razonar y actuar en consecuencia-, sistemas que actúan racionalmente -son los agentes inteligentes-, por último estarán los sistemas que piensan como humanos -como las redes neuronales artificiales-.

1.2 Breve contexto histórico. Nacimiento y evolución de la Inteligencia Artificial

Al igual que no hay un concepto unánime de lo que es IA, para los autores tampoco existe un punto en común a la hora de establecer cuál es el origen de esta disciplina. Lo que si podremos encontrar son pequeños bocetos que se fueron consolidando en la obra que hoy conocemos como IA. Si nos remontamos siglos atrás, ya los romanos hablaban de “tecnología” cuando expresaban el cumplimiento de la tria iuris praecepta, estos serán una serie de principios que deberá cumplir las actividades tecnologías según el alcance de la sociedad que se presentaran en la época [10]. Para muchos, el concebir que una maquina actúe como un humano, tiene su origen con el matemático Alan Turing, quien en 1950 publico su artículo “Computing machinery and intelligence”, donde precisamente formulaba la incógnita sobre la posibilidad de asemejar el pensamiento humano con una máquina, preguntaba “¿puede una máquina pensar?”. El padre de la ciencia de la computación -como también se le conoce- es más conocido por haber desarrollado el “Test de Turing” [11], además de formalizar los conceptos de algoritmos y computación, de esta manera sentando el precedente de las tecnologías del siglo XXI.

Es en 1956, en la conferencia de Darmouth, cuando se comienza a notar la relevancia de máquinas capaces de comprender, razonar y decidir de la misma manera que la mente humana. Los científicos Marvin L. Minsky, John McCarthy y Claude Shannon fueron los continuadores de las ideas de Turing, siendo los precursores de dicha conferencia en donde además de reunir a expertos en la materia acuñaron por primera vez el concepto de IA, considerándose el principio de esta disciplina. Sin embargo, tendremos que esperar hasta 1997 cuando un ordenador ganó al entonces campeón mundial de ajedrez Garri Kaspárov, en el histórico acontecimiento Deep Blue vs. Garri Kaspárov, que se comienza otra vez con los trabajos de investigación en materia de IA.

Finalmente, luego de varios años y algunos acontecimientos relevantes históricamente, el hito que nos lleva a preguntarnos en este caso, sobre la responsabilidad que pueden alcanzar las maquinas dotadas de IA, es sin duda el año 2014, cuando un bot computacional logró pasar el Test de Turing con éxito. A partir de este momento, la tecnología ha cobrado especial relevancia en nuestra sociedad, dejando atrás el enfoque tradicional para dar paso a una visión más innovadora donde los expertos se centran en la Inteligencia Artificial como una imitación del comportamiento humano.

1.3 Artefactos dotados de Inteligencia Artificial. Especial mención a los Robots inteligentes

En la actualidad son numerosos los sectores que aplican el uso de la IA, desde la movilidad y el transporte hasta robots sociales con inteligencia artificial, incluso su aplicación está a un paso de distancia de la sociedad común con la integración de asistentes inteligentes como “Alexa y Siri” en nuestros teléfonos. Por lo que podemos ver, la IA tiene un abanico de posibilidades en su aplicación, cosa que puede ser -a efectos jurídicos- muy beneficiosa o en extremo complicado. Lo primordial que queremos hacer ver con este apartado es la versatilidad de estos sistemas dotados de inteligencia que les proporcionan una interfaz más avanzada y que les otorga el pensamiento o razonamiento necesario para compararlos con las acciones e inteligencia humana.

Una de las aplicaciones más interesantes hoy en día es el uso de la IA en la movilidad y el transporte destacamos los vehículos autónomos de Tesla, que ha sido la primera empresa que los desarrolló y comercializó. Andrej Karpathy, director de inteligencia artificial y visión por ordenador de Tesla, explico en una conferencia cómo entrenan las redes neuronales para crear el sistema de conducción autónoma conocido como Autopilot. A pesar de haber causado más de un accidente con graves consecuencias, es un claro ejemplo de implementación de IA [12]. En medicina, son muchas las empresas que se han lanzado a desarrollar softwares destinados a la salud incluso, podemos hablar de implementación de sistemas inteligentes como dispositivos de “Internet of Things” con los que recopilan datos en tiempo real de la temperatura y humedad de las cosechas. Una vez analizados, la IA gestiona los regadíos en función de las necesidades, obteniendo así un consumo de agua más eficiente y responsable con el medio ambiente [13].

Relacionado con la IA esta la robótica, en términos sencillos, este campo surge a raíz de que los diseñadores quieran materializar la inteligencia artificial en un soporte físico con la capacidad de interactuar en su entorno, es decir, puede haber IA sin robótica, pero nunca robots inteligentes sin un sistema de inteligencia. Uno de los ejemplos más interesantes actualmente es “SOPHIA” [14], desarrollada por Hanson Robotics. La real academia española define “Robot” como aquella máquina o ingenio electrónico programable que es capaz de manipular objetos y realizar diversas operaciones, sin embargo, esta definición es más inclinada a una opinión cinéfila de la versión de robot, por lo que, a los efectos de esta investigación, utilizar este concepto, podríamos decir, es incompleto o impreciso.

En nuestra doctrina García-Prieto Cuesta define robot como “una máquina provista de cierta complejidad, tanto en sus componentes como en su diseño o en su comportamiento, y que manipula información acerca de su entorno para así interactuar con él” [15]. Cuando nos preguntemos sobre qué tipo de daños puede ocasionar la IA -ya sea como un sistema o implantada en algún artefacto- debemos prestar atención a su versatilidad ya que, al no estar contemplados en la legislación, se dan casos, como la responsabilidad civil, en los que no sabemos cómo enfrentarnos.

2. CAPITULO SEGUNDO. NOCIÓN JURÍDICA DE LA INTELIGENCIA ARTIFICIAL

2.1 ¿Derecho de los Robots?: nuevo sistema “robot-law”

El crecimiento de la IA es imparable, las previsiones del IDC establecieron que en 2021 los ingresos en tecnología inteligente crecerán un 16,4%, además se espera que en los próximos años seguirá creciendo la implementación de sistemas inteligentes en un 17,5% [16]. La IA es una realidad en nuestras vidas, que ha cambiado la forma en que percibimos y nos relacionamos con la sociedad y consecuentemente el derecho. Con la globalización de las nuevas tecnologías y su uso en la cotidianidad se ha venido gestando la idea por algunos autores de concebir una nueva rama jurídica que englobe y desarrolle una materia tan compleja como lo es la IA y todo lo que conllevaría un futuro marco legal sobre esta disciplina. El Parlamento Europeo, en su resolución de 2017 ya se adelantaba a estos hechos cuando estableció “considerando que, ahora que la humanidad se encuentra a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenará una nueva revolución industrial -que probablemente afecte a todos los estratos de la sociedad-, resulta de vital importancia que el legislador pondere las consecuencias jurídicas y éticas, sin obstaculizar con ello la innovación” [17].

Para fortalecer este debate, algunos autores creen firmemente en que no es necesario alarmarnos por el creciente número de áreas afectadas por la robótica, ya que, con la normativa “tradicional” es suficiente para hacer frente a las nuevas realidades en cuanto a tecnología se refiere. Sin embargo, otro sector -más numeroso e innovador-, defiende el hecho de crear un nuevo marco legal para esta disciplina; la eurodiputada luxemburguesa Mady Delvaux-Stehres, en su momento fue una gran defensora de esta propuesta, al plasmar su opinión de forma rotunda cunado dijo que “las reglas actuales son insuficientes y hay que actuar”.

Es en este contexto, de necesitar una regulación especializada para la IA y robótica que surge como premisa lo que autores denominan “el Proyecto Robolaw” [18] la finalidad de este proyecto, denominado “Regulación de las tecnologías emergentes en Europa: Robótica frente a la ley y la ética” [19] surge de la necesidad de suplir las lagunas jurídicas que estaba dejando la implementación en diversos sectores cada vez más frecuente de IA, según Jesús Cárcar “era la de realizar un estudio íntegro del “estado” legal de la robótica y establecer las bases para un futuro marco legal regulatorio de esta tecnología”. Este proyecto cumple con ser uno de los precedentes más importantes -no solo a nivel europeo, sino también como referente para terceros estados- que se encarga de poner énfasis en una legislación para las nuevas tecnologías.

En la actualidad, viendo cómo se desenvuelve en muchos ámbitos de la sociedad el uso de la IA -desde una vivienda inteligente, automóviles que se conducen solos, redes sociales, hasta diagnósticos médicos- es necesaria una postura innovadora y que vaya a la par de nuestros tiempos, es precisa una actualización legislativa; en la normativa actual todavía se presentas lagunas jurídicas en torno a la aplicación de nuevas tecnologías, en especial la responsabilidad de los actos u omisiones que causen los robots y la IA. Si los drones autónomos están diseñados para operar de manera autónoma ¿Quién es responsable de un ataque a personas por un dron inteligente? ¿Quién responde de los accidentes causados por vehículos inteligentes? El programador, el diseñador, el usuario o tal vez será el propio vehículo quien sea considerado “responsable”; cuando la IA “crea arte” ¿quién puede ser designado como el autor? La compañía que orquestó el proyecto, los ingenieros o el algoritmo [20]. Estás y otras son algunas de las cuestiones que se plantean a la hora de hacer frente a esta problemática, estaremos de acuerdo en que, las normas “tradicionales” o que hemos venido aplicando en nuestros ordenamientos sobre responsabilidad por daños no será suficiente para estos casos, deberemos hacer un ejercicio de extremo razonamiento e interpretación para poder aplicar las normas vigentes. El proyecto “Robot-law” como se estableció en puntos anteriores marcaría un antes y un después en la regulación jurídica de los robots en la Unión Europea. Particularmente los que defendemos la postura de un nuevo marco legislativo enfocado en los sistemas inteligentes, pensamos en promover una base viable, ética y sólida para el futuro desarrollo tecnológico. Para nuestra disciplina, el derecho debe cuanto antes ocuparse de regular este acontecimiento, que muchos catalogan como la nueva “revolución tecnología” de forma que, una vez lleguen al mercado podamos asegurar que no hay inconvenientes en su uso, en incluso antes de la llegada al mercado en sus diseños y fabricación.

Por otro lado, el hecho de concebir esta propuesta, también nos lleva a preguntarnos sobre los riesgos o desventajas que presentaría si llegara a materializarse. El inconveniente que supone la implementación de un nuevo régimen como este, además de su extenuante regulación y esperada seguridad jurídica -en cuanto a ser una materia muy cambiante y amplia- es la de no aplicar barreras demasiado excesivas que impidan a los empresarios, diseñadores y técnicos restringir el desarrollo de nuevas tecnologías como la IA. Sería contraproducente para nuestra economía y exigencias como sociedad, es decir, una regularización muy estricta y poco flexible que impida seguir desarrollando material para el avance de la sociedad [21]. En definitiva, dos son las opciones que nos ofrece la doctrina en cuanto a una nueva rama llamada “robot law”. La primera, el Derecho puede ofrecer las herramientas para dar respuesta a este fenómeno tecnológico, si bien queda mucho por hacer en un ámbito tan voluble, ya que requiere por sus características una actualización continua. Por otro lado, como segunda opción, veremos que se está gestando la idea de un nuevo marco jurídico bajo el nombre de “robot law” que se considera como una rama jurídica nueva.

2.2 Fundamentos a nivel legal sobre la IA: base legal y desarrollo

En el epígrafe anterior hemos podido constatar el conflicto que existe entre los autores por aplicar una nueva regularización o adaptar la normativa “tradicional” para los casos de IA. Por tanto, seguimos sin resolver una de las grandes incógnitas, ¿qué legislación que se aplica en la robótica?, veremos entonces cuales son las bases legales que existen actualmente en torno a sistemas inteligentes. Lo primero que debemos saber es que no tenemos una normativa sólida o especializada ni a nivel internacional con respecto a la IA o robótica -aunque algunos de ellos sean potencias en tecnología como EE.UU., China, Japón y Alemania-. La gran mayoría de ordenamientos jurídicos carecen de regulación en esta materia, no existe una “regulación específica” para sistemas que puedan realizar tareas sin ningún control o de forma autónoma, por este motivo se ha planteado adaptar las normas vigentes a estos supuestos.

Esta última noción, puede sonar un poco pesimista en su afirmación, es impreciso el hecho de afirmar tajantemente la no regulación de sistemas inteligentes. Es desmedido en todo caso, la idea de no tener en absoluto una norma a la cual acudir cuando se presente algún inconveniente en materia de IA, contamos con una regulación, aunque basta, podría pasar como las bases para una posterior regulación. Siguiendo con esta idea tendremos las “tres leyes de Asimov” creadas a mitad del siglo XX por Isaac Asimov quien propuso regir la relación de humanos y robots mediante tres sencillas reglas.

En primer lugar “un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño” (primera ley). En segundo lugar, “un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª ley” (segunda ley). En tercer lugar, “un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o 2ª ley” (tercera ley) [22]. Gracias a estas leyes no estamos desde cero en la creación de una legislación que se aplique a la robótica ya que, se suelen aplicar en la edad temprana de la realización de estos sistemas, es decir, estas leyes son una importante guía que deben cumplir los programadores, diseñadores, fabricantes, etc., a la hora de diseñar máquinas y programas inteligentes. No obstante, estas leyes siguen siendo insuficientes para los ordenamientos contemporáneos ya que, principalmente se ven enfocadas a la primera fase de la realización que es el diseño y la fabricación dejando de lado otros aspectos como su integración al mercado, su venta a empresarios o usuarios, ensamblaje, etc.

En la actualidad, solo a nivel internacional se ha comenzado a llevar a cabo los primeros estudios y propuestas sobre dicha normativa, como por ejemplo las recomendaciones e informes de la Unión Europea, así como un reglamento de IA aprobado recientemente. También en cuanto a terceros estados Corea del Sur destaca por ser el principal promotor de una regulación con la elaboración de “Robot Ethics Charter” (Carta de Ética Robótica) [23] o “Korean law on the development and distribution of intelligent robots” (Ley Coreana de promoción de desarrollo inteligente y distribución de robots) [24]; le siguen de cerca Japón y China que se centran en legislaciones éticas para estas máquinas. Así es que, a falta de una regulación directa o específica, son muchos los que optaron -y lo siguen haciendo- por la utilización de normas como la Ley de Marcas, Ley de Propiedad Intelectual, Ley General para la Defensa de los Consumidores y Usuarios, incluso la utilización del Código Civil para solventar la problemática jurídica alrededor de la utilización de sistemas inteligentes en nuestra sociedad. La premisa para utilizar estas normas y que según la doctrina “funcione” es catalogar la IA y los robots como objetos, punto importante a la hora de mantener un marco jurídico estable, puesto que dependemos de en qué figura jurídica se encuadre la IA para la aplicación de las normas. El problema de la utilización de estas normas es el hecho de que no fueron creadas para estos supuestos, la suficiencia o insuficiencia de estas normas juega un papel relevante para suplir toda la problemática en torno a la utilización de sistemas inteligentes.

2.3 Características de la IA y la Robótica que pueden afectar a su régimen de responsabilidad civil

Normalmente los autores tienen la concepción de que estas tecnologías no tienen un reflejo exacto en el régimen de responsabilidad civil. Lo cierto es que, tanto la IA como la robótica cuentan con cualidades que son de vital importancia a la hora analizarlas bajo el lente del Derecho, concretamente de cara a la problemática en el ámbito de la responsabilidad civil desencadenada precisamente por sus singularidades. La IA, el internet de las cosas y la robótica comparten características como la conectividad, la autonomía y la dependencia de datos para llevar a cabo tareas con poco o ningún control o supervisión humanos [25]. Especialmente, desde el punto de vista jurídico, toma relieve la capacidad que tienen estos sistemas para “aprender” y que sumado a la automatización en la toma de decisiones implican un cierto grado de imprevisibilidad, en el sentido de no poder predecir o saber lo que estos sistemas decidirán hacer en un momento dado. Concretamente, el principal problema que suscita a raíz de estas dos características es la dificultad que existe a la hora de determinar la persona o sujeto que pueda ser considerada responsable del daño, por lo que, se ve afectada en gran medida la reclamación de responsabilidad civil, originando problemas para la imputación.

El problema principal es que la IA, propiamente dicha, resulta muy difícil de definir y si sumado a esto, agregamos características singulares, obtendremos un supuesto al que la normativa de responsabilidad clásica no puede dar respuesta. La pregunta que debemos hacernos llegado a este término es ¿qué ocurre si a una figura jurídica clásica como la es la Responsabilidad Civil se le agrega una variante como lo es la IA con sus propias características que individualizan? Lo más lógico será que cambie la ecuación principal, si se permiten la analogía. Por este motivo analizaremos cada una de las características que dan forma a esto que llamamos IA de la mano del informe de la Unión Europea sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica.

En este mismo orden de ideas, la Comisión Europea en su informe de 2020 [26] menciona como características para tener en cuenta, para el tratamiento de la responsabilidad civil: en primer lugar, la complejidad [27] de los componentes de estas nuevas tecnologías, es decir, los múltiples componentes, partes o sistemas que conforman una totalidad hacen de estos aparatos inteligentes complejos a la hora de determinar cuál de todos sus componentes es el que ha causado el daño. En segundo lugar, vemos que la opacidad [28] para entender el código de funcionamiento de estos dispositivos es difícilmente comprensible para la gran mayoría -incluso expertos-. Cuando se habla de opacidad se refieren al hecho de hacer más difícil predecir el comportamiento de un producto basado en la IA y comprender cuáles han podido ser las causas de los daños causados.

Otra de las características que en este caso afectará directamente al cambio en la noción clásica de lo que es un producto terminado según la Directiva por productos defectuosos, es lo que el informe denomina como “apertura” [29]. Supone la variabilidad de los sistemas de IA, es decir, no pueden concebirse como sistemas cerrados e invariables, sino que están sujetos a actualizaciones y mejoras posteriores a su puesta en circulación. Por lo que, de establecer un régimen de responsabilidad se deberá tener en cuenta la mutabilidad de los sistemas inteligentes en cortos periodos de tiempo.

Posteriormente tendremos la tan discutida autonomía de estos sistemas y su consecutiva imprevisibilidad [30], significa que los dispositivos robotizados e inteligentes han sido diseñados para trabajar de modo autónomo; prácticamente sin control o supervisión humana que, una vez más, dificulta la determinación de un responsable. Desde la perspectiva jurídico-civil, la utilización de sistemas autónomos es problemática, sobre todo considerando los criterios de imputación, y es que, a partir de un determinado grado de automatización ya no resulta posible afirmar con seguridad si las acciones que a través de un sistema así se desencadenan provienen del usuario de dicho sistema y le son imputables [31].

Las últimas características que veremos son la vinculación a datos externos y la vulnerabilidad de estas tecnologías [32]. La primera de ellas se refiere a que estos dispositivos pueden llegar a operar con datos que no eran conocidos en el momento se su diseño y fabricación; vinculada a esta veremos que también estos dispositivos gozan de vulnerabilidad ya que son susceptibles de ciber-ataques, los cuales a su vez pueden desencadenar un mal funcionamiento del sistema. Por lo que será en esta medida muy difícil reclamar la responsabilidad al diseñador, programador, fabricante o persona que se sirve de dicho artefacto.

3. CAPITULO TERCERO. RESPONSABILIDAD CIVIL EN SISTEMAS DE IA: RESPONSABILIDAD POR ACTOS Y OMISIONES DE LA IA

3.1 Responsabilidad civil derivada del uso de la IA

En ocasiones una figura jurídica de nuestro ordenamiento jurídico como lo es la responsabilidad civil se ve afectada en sus principios, características y concepto cuando entran en juego los sistemas inteligentes, pensemos por ejemplo en el Instituto Sheikh Zayed de Innovación en Cirugía Pediátrica, en EE.UU., que diseño un robot inteligente llamado “STAR” que realiza cirugías sin intervención humana, al menos durante la operación [33]. El Parlamento Europeo en 2017 dijo en una resolución donde el tema principal eran las nuevas tecnologías que “Gracias a los impresionantes avances tecnológicos de la última década, los robots, ya no sólo pueden realizar actividades que antes eran típica y exclusivamente humanas sino que el desarrollo de determinados rasgos cognitivos y autónomos -como la capacidad de aprender de la experiencia y tomar decisiones cuasi independientes- ha hecho que los robots se asimilen cada vez más a agentes que interactúan con su entorno y pueden modificarlo de forma significativa; que en este contexto, es crucial la cuestión de la responsabilidad jurídica por los daños que pueda ocasionar la actuación de los robots...” [34].

Sobre la base de las consideraciones anteriores, la cuestión que debemos analizar desde este momento es ¿Cómo el sistema de responsabilidad civil abordará estos supuestos?, supuestos en los que maquinas inteligentes puedan tomar sus propias decisiones y, en consecuencia, actuar de forma independiente a los mandamientos de sus operadores y creadores. Si un robot quirúrgico como STAR comete un fallo que tiene consecuencias negativas para el paciente, ¿quién asume la responsabilidad de dicho error?.

Y es que, como se estableció por parte de la Comunicación de la Comisión al Parlamento europeo, sobre la responsabilidad por daños: “La aparición de la IA, en particular el complejo ecosistema que la hace posible y la característica de la adopción autónoma de decisiones, exige una reflexión acerca de la idoneidad de algunas de las normas establecidas en materia de seguridad y de cuestiones de Derecho civil relativas a la responsabilidad. Por lo que, habida cuenta de la generalización de la utilización de la IA, es posible que sea necesario revisar las normas tanto horizontales como sectoriales…” [35] La principal cuestión en este punto inicial será determinar si es factible construir o generar un nuevo sistema de responsabilidad civil que se acople a las características que originan un sistema inteligente. En efecto, la responsabilidad civil se ha convertido en los últimos tiempos en un tema controversial y recurrente cuando la trasladamos al ámbito de la IA.

Es evidente entonces, que la problemática de aplicar una figura jurídica “tradicional” como lo es la responsabilidad civil a nuevas tecnologías que cuentan, como hemos dicho, con características asimilables a la inteligencia de los seres humanos resulta complejo. En el supuesto que venimos analizando hasta ahora en que nuevas tecnologías inteligentes materializadas en vehículos, drones, robots quirúrgicos, humanoides causen daños -ya sean físicos o morales- que no puedan ser resarcidos por personas físicas o jurídicas, nos vemos en una encrucijada jurídica para darle respuesta a estos supuestos de la mano de normativas vigentes. Concebir adoptar nuevas normas que aporten más seguridad jurídica, sean más eficientes, actuales e innovadoras es una gran opción ya que puede acoplarse al desarrollo de las nuevas tecnologías y sus innovaciones sin dejar de lado una legislación que permita a los ciudadanos no verse perjudicados cuando interpongan las reclamaciones de responsabilidad cuando sufran un daño.

Últimamente el debate gira en torno a dos corrientes diferenciadas con respecto a este tema: una nueva normativa de responsabilidad aplicable únicamente a supuestos de IA y robótica; o la modificación y adaptación de la legislación vigente para que la problemática se vea resuelta sin necesidad de acudir a nuevas leyes. La primera, como anunciamos en el párrafo anterior, es partidaria de no atribuirle una responsabilidad directa a los robots o sistemas inteligentes -responsabilidad indirecta por el robot-; ya que considera extremista el hecho de responsabilizar a una “cosa” (aunque cuente con características de pensamiento que simulen las conductas humanas, como la inteligencia) de algún daño que esta cometa [36].

En una segunda línea, estarán los que apoyan una teoría más abierta e innovadora en ciertos términos que la anterior, ya que, consideran que las normas “tradicionales” de responsabilidad civil no son suficientes para generar responsabilidad jurídica por los daños ocasionados por el robot, pues no permiten determinar la parte que ha de hacerse cargo de la indemnización, ni exigir a dicha parte que repare el daño ocasionado [37].

De lo que si debemos estar completamente seguros -y en lo que muchos investigadores están de acuerdo- es en la creación de normas éticas firmes que combinadas con procedimientos de indemnización sólidos y justos aborden la problemática de los sistemas inteligentes eliminando el riesgo de los usuarios que sufran un menoscabo causado por IA a un sistema de indemnización injusto [38] como estableció el Parlamento Europeo en su resolución de 2020.

3.2 La IA causa el daño, pero, quién o qué deberá responder de ese daño

Normalmente lo que denominamos como “causante de un daño” y “responsable de un daño” jurídicamente hablando, no son la misma figura. En el ámbito jurídico es preciso distinguir ambas figuras, puesto que, en algunas ocasiones es necesario descubrir qué fue lo que causo un daño en la medida de poder determinar quién será el responsable de ese daño. Con la IA este hecho se ve difuminado, con la llegada de los sistemas inteligentes caracterizados por simular las conductas y el razonamiento humano, capaces de “pensar” y de tomar decisiones; esta idea se ve en ocasiones afectada, porque mientras más autómata sea el sistema o maquina mayor capacidad de realizar acciones por su cuenta tendrá. En este sentido ¿Cómo atribuimos responsabilidad a una persona que por ejemplo, no estaba conduciendo el vehículo que causo un accidente?.

En el condado de Harris (Texas, EE.UU.) ocurrió un accidente en donde un vehículo Tesla Model S colisionó con un árbol dejando dos personas muertas. El vehículo no era conducido por ninguno de sus ocupantes, por lo que se cree que el choque se produjo mientras estaba activado el piloto automático operado por la IA del vehículo [39]. Ahora bien, si seguimos la idea enunciada anteriormente, ¿Quién es el “causante del daño” y “responsable de este”? Es una máxima de nuestro Derecho que aquel que causa un daño a otro tiene el deber de repararlo, sin embargo, esto resulta inmensamente complicado en aquellos supuestos en los cuales el agente dañoso es propiamente un robot dotado de IA [40].

Como es lógico las “cosas” contribuyen al daño, o al menos en un sentido físico, tangible o material son las cosas las que causan el daño; sin embargo, la responsabilidad ha de atribuirse siempre a alguna persona, aunque la cosa haya podido intervenir en la cadena causal [41]. Esta premisa se ve dificultada en estos sistemas que como hemos establecido simulan el pensamiento humano y son autónomos en sus decisiones, no solo eso, sino que en ocasiones no solo son sistemas o programas a través de una pantalla de ordenador o teléfono móvil -como Alexa- sino que pueden ser aviones, robots, hogares y hasta ciudades -pueden realizar acciones de forma autónoma que lleguen a ser dañosas- la dificultad en los sistemas dotados con IA es que no podemos tratarlos como cosas inertes e inanimadas, ya que, estas máquinas suelen contar con movimiento propio, incluso muchas veces su actuación tiene la suficiente autonomía como para que se la pueda desvincular de una influencia humana directa [42]. La línea, por tanto, entre el causante del daño y el responsable del daño, se ve desdibujada cuando hablamos de IA y robótica, las personas se ven sesgadas muchas veces por las particularidades de estas nuevas tecnologías y suelen establecer como causante y subsiguiente responsable a esa “cosa” dotada de inteligencia.

Así, si seguimos el ejemplo anterior, si un conductor atropella a un peatón será claramente responsable del daño y “causante” del mismo. Pero si, ese peatón resultara atropellado como consecuencia de un vehículo dotado de IA que en el momento del hecho no estaba siendo conducido por “el conductor” tal vez haya un responsable del daño, pero será responsable por un daño que no se ha causado directamente.

Hasta los momentos ningún artefacto llamado inteligente o dotado con IA puede ser jurídicamente responsable -salvo algunas propuestas que no están del todo materializadas para dotarlos con personalidad jurídica-, en estos casos hay que realizar la tarea de buscar una persona ya sea física o jurídica que sea responsable por lo que haga o el daño que cause ese sistema de IA. Podríamos decir, entonces que, aunque el vehículo no esté siendo conducido por “nadie” seria el “supuesto conductor” el que debía estar al pendiente de las actuaciones del vehículo, por tanto, será el responsable. Esta es la teoría actual por la que se decantan varios autores a la hora de dar respuesta a este tipo de inconvenientes jurídicos, al no tener una normativa específica que resuelva la problemática se hace uso de un sistema que aboga por atribuir la responsabilidad como si de un objeto se tratara o en su caso lo alinearíamos con la figura de responsabilidad de los animales, en donde el dueño es siempre el responsable de los daños que pueda causar el animal.

3.3 Presupuestos de la responsabilidad civil y su alteración a raíz de la implementación de la IA

¿Qué ocurre cuando le agregamos una variante a una figura tradicional como lo es la responsabilidad civil? si ponemos en relación la responsabilidad civil como la conocemos tradicionalmente con las características y especialidades con las que cuentan estas nuevas tecnologías o artefactos inteligentes -dotados con IA-, podremos ver que los elementos clásicos que conforman esta figura jurídica de alguna manera se ven afectados o modificados en tanto que, no podemos ajustar esta nueva realidad tecnológica con los elementos o presupuestos de la responsabilidad civil tal y como los enuncia la doctrina tradicional: la acción u omisión imputable, el daño y la relación causal. En este sentido, y visto desde una perspectiva más práctica, el éxito de toda demanda de responsabilidad civil derivada del uso de la IA exigirá que la parte demandante acredite los tres requisitos comunes a toda reclamación de responsabilidad civil, sin embargo, vemos que esto no es tan sencillo como debería serlo. [43]

a. La acción u omisión imputable

Como venimos analizando, en las nuevas tecnologías, priman una serie de características que dificultan seriamente la localización de un culpable, el responsable y la imputabilidad en estos casos resulta difícil de determinar. Gracias a su marcado carácter de complejidad y opacidad, -al que ya nos hemos referido- [44] de alguna manera suelen dificultar el hecho de localizar con exactitud el componente, pieza o algoritmo que haya podido causar el daño a través de una acción o en su caso omisión.

Ahora bien, sabemos que en nuestro sistema jurídico rige mayoritariamente -fuera de los casos de responsabilidad objetiva- el criterio de imputación de la responsabilidad civil por una acción u omisión culposa [45], por lo que, para hallar este presupuesto deberemos hacer una abstracción de todos los componentes que se unen para formar la unidad -máquina o sistema inteligente en cuestión- y así poder determinar concretamente la acción u omisión que dio origen al daño, cosa que en muchos casos será difícil dadas las condiciones que anteceden al uso, fabricación, diseño, etc., de sistemas con IA.

Pensemos en un dron inteligente, capaz de realizar ataques autónomos militares [46], a personas causando graves daños a las víctimas y sus familiares. La forma en que funciona es simple, la cuestión está en lo que los militares denominan como “disparar y olvidar” lo que significa que una vez que el tirador lanza el dron, puede hacer otra cosa, como reubicarse, preparar otro ataque o incluso ir a comer. El problema para la responsabilidad en estos casos será determinar el culpable en cuestión; puede ser el militar que dejo sin supervisión al dron, o que el propio dron haya actuado de forma autónoma estableciendo un nuevo objetivo y atacando, puede ser un fallo en su diseño por parte del sujeto que debió diseñar el software, o en la fabricación, incluso un fallo del sujeto que remitió las coordenadas.

Muchos autores y en especial la Unión Europea han utilizado como solución a este problema la aplicación del régimen de responsabilidad por productos defectuosos, ya que, de aplicarlo responden tanto el productor de un componente como el del producto acabado. Aun así, hay que señalar que la característica de diseño abierto propia de estas tecnologías puede en ocasiones dificultar también la reclamación de responsabilidad, cuando no sea posible considerar que hay un “fabricante del producto completo” por haberse éste formado mediante la agregación de distintos componentes [47].

b. El daño.

Si bien, en el enunciado anterior establecimos que debe haber una acción u omisión, el elemento, podríamos decir, que da lugar a la responsabilidad es la existencia del daño. En el ámbito que venimos debatiendo de la IA no parece haber controversia a la hora de determinar dicho presupuesto. Esto es gracias a la propia entidad de ese perjuicio o menoscabo que un sujeto sufre a consecuencia de la acción u omisión de otra, que nos permite verificar rápidamente cuando existe o no este presupuesto jurídico.

Si seguimos el ejemplo del enunciado anterior, un dron autómata e inteligente que toma la decisión de atacar a personas detonando explosivos, lógicamente causara un daño a las personas y sus familiares. Ya sea que hablemos de un daño físico o un daño moral como ocurre cuando un motor de búsqueda inteligente resulta que incurre en sesgos de género resultado de representaciones estereotipadas profundamente arraigadas en nuestras sociedades que pueden hacerte perder una oferta de trabajo [48]. El daño siempre será evidente, esa detracción o lesión que experimenta un tercero por la conducta de otra -en estos casos los sistemas dotados de IA- que puede traducirse materialmente o en un sufrimiento o quebrantamiento padecido por el tercero, será siempre determinable [49].

El único inconveniente que podremos encontrar con respecto a la delimitación del daño en la responsabilidad será la del “tipo de daño” que estemos tratando. Es decir, debemos distinguir si se trata de un daño ocasionado por el accidente de un vehículo o avión autónomo o si por el contrario estaremos ante un daño causado por un programa informático inteligente como Siri; lo que se tiene es que valorar el tipo de daño en el que nos encontramos, la cuestión será la variedad de los dispositivos y sistemas que existen en la actualidad y que se utilizan para distintos fines. No podemos hablar de un solo tipo de dispositivo inteligente, existen variedades de artefactos y programas que gozan de tener como característica definitoria IA; esto nos lleva a pensar que, junto con la variedad de sus usos, estos son susceptibles paralelamente de provocar todo tipo de daños que nos será difícil determinar.

c. La relación de causalidad.

De los tres elementos clásicos que conforman la responsabilidad civil, a nivel jurídico es la relación de causalidad la que presenta más problemas en estos casos, al igual que sucede algunas veces en supuestos de normalidad tratar de establecer un nexo entre la acción u omisión y el daño resultante es en determinados supuestos difícil de conseguir. La cadena de responsabilidad que surge desde el diseño o fabricación de estos sistemas hasta que se ve materializado en las manos del usuario como una maquina o sistema finalizado dificulta la idea de establecer una relación de causalidad entre el artefacto inteligente y los demás presupuestos que conforman la responsabilidad. Muchas veces se ve truncada la idea de una relación causal por los múltiples intervinientes en estos sistemas que originan la gravosa tarea de hacer una abstracción para encontrar el momento, el sujeto y la etapa de estas máquinas donde se produjo la acción u omisión que produjo el daño y así lograr encontrar al responsable.

Según el informe del New Technologies Formation, detallado por Joaquín Ataz López en su artículo sobre “daños causados por las cosas: una nueva visión a raíz de la robótica y de la inteligencia artificial” se establece que “cuanto más compleja sea la interacción de diversos factores que contribuyeron al daño, más difícil será para la victima tener éxito en el establecimiento de la causalidad sin aliviar su carga de la prueba” [50]. En el citado informe, se establece un ejemplo sobre un detector de incendios para explicar cómo se ve afectada la relación de causalidad, es muy parecido a lo que podría ocurrir con el Dron que ataco personas en Libia; supongamos que es el usuario quien no programa de manera correctas las coordenadas del objetivo, este defecto puede ser identificable e incluso visible. Por el contrario, puede ocurrir que ese desvío en las coordenadas se deba a un fallo en el software inteligente de la máquina que estableció como mejor objetivo otro lugar distinto al convenido, puede que esto no se demuestre tan fácilmente.

La relación de causalidad nos indica cuándo existe entre dos eventos una relación de causa y efecto, o en su defecto, cuando coinciden, pero no hay relación. “Quien cause daño deberá repararlo y por tanto, la responsabilidad civil requiere una conducta humana, la producción de un daño y una relación de causalidad entre la conducta y el resultado producido” (magistrado José Luís Seoane Spiegelberg), esto nos lleva a preguntarnos, qué ocurriría si el causante del daño no es propiamente una persona física ni jurídica, sino una máquina, y no cualquier máquina, una diseñada o codificada para tomar decisiones por sí misma después de haber realizado el trabajo de “pensamiento” que cualquier humano hubiera hecho. Como consecuencia de las características únicas de estas tecnologías podrían hacer extremadamente costoso, o incluso imposible, determinar quién controlaba el riesgo asociado al sistema de IA o qué código, entrada o datos han provocado en última instancia su funcionamiento lesivo [51]. Como consecuencia de ello, el perjudicado por un sistema de IA podría tener dificultades para obtener una indemnización adecuada.

3.4 Detalle de la problemática jurídica con respecto a la implementación de la IA y su relativa consecuencia en el campo de la responsabilidad civil

En este punto resaltamos los problemas jurídicos más relevantes con respecto a la implementación de la IA en la sociedad y su relativa consecuencia en el campo del derecho. Estos serán los “problemas” a los que la doctrina pretende dar respuesta mediante una nueva regulación o el ajuste de las leyes existentes a estos supuestos. Sin duda serán los problemas que debemos tener presentes a la hora de determinar correctamente la responsabilidad civil de las nuevas tecnologías que tengan como enfoque principal la IA.

a. Pérdida de dirección y pérdida de control [52].

Cuando detallamos las características de estos sistemas, vimos que por su grado de aprendizaje y consecuente razonamiento para tomar decisiones autónomas había cierto grado de imprevisibilidad en sus acciones. Es por ello por lo que se ocasiona un obstáculo para que las personas ejerzan un control completo de las tecnologías dotadas de inteligencia. Además, estudiamos también que la “opacidad” de estos sistemas genera dificultad para predecir el comportamiento o las acciones de la IA; al hacer el mismo ejercicio que los humanos cuando pensamos genera un laberinto de capas y capas que nublan la intervención humana en estos sistemas. Pongo por caso, la concepción de lo que significa la vida para las personas; si hacemos una abstracción cada sujeto tendrá su propio concepto y manera en la que concibe la vida, podremos tener opiniones próximas o discrepar en todos los sentidos, al fin y al cabo, es un ejercicio filosófico y de pensamiento que realizamos cada uno de nosotros. Ahora bien, si trasladamos esta idea a los robots inteligentes, por ejemplo, ocurrirá lo mismo, llegados un punto nos será imposible saber con certeza lo que llevo a tomar cierta decisión gracias al ejercicio de pensamiento y razonamiento que le proporciona la IA. A raíz de la creciente utilización de sistemas autónomos y semiautónomos inevitablemente se conduce a una pérdida de dirección y de control de la persona sobre el sistema y sus “acciones” [53].

Llevado a términos jurídicos, este problema significa que, al ser máquinas y programas con un grado de autonomía alto, las personas no podemos influir en las decisiones que tomen estos sistemas, cosa que altera gravemente a figuras jurídicas como la responsabilidad, ya que, no tendríamos a una persona física o incluso jurídica que sea responsable del daño. No podremos de manera sencilla reconducir a un sujeto específico la responsabilidad de la lesión causada por haber perdido la dirección y el control del sistema inteligente en cuestión.

b. Complejidad en los criterios de imputación.

De acuerdo con lo analizado hasta ahora, el criterio de la imputación es el más repetitivo en cuanto a conflictos se refiere. Recalcamos su carácter problemático en tanto que, el vigente concepto del Derecho Civil se basa en la premisa de que sólo las personas físicas y jurídicas tienen personalidad -capacidad-, y, con ello, devienen sujetos agentes [54]. Por lo que, una vez más resultara complejo, bajo este concepto, establecer una imputabilidad del daño a la IA.

Para el derecho, es imprescindible establecer quién o qué causo el daño, para seguidamente establecer un responsable que se encargue de resarcir la lesión. Cuando nos encontramos con tecnologías que de manera artificial se consideran “inteligentes” resulta imposible decir con certeza si es el usuario, el fabricante, el vendedor o la propia maquina o programa la que es imputable. Como establece Martin Ebers, debido a esto, es cada vez más difícil distinguir a los sujetos -personas físicas o jurídicas- actuantes e identificarlos individualmente como responsables de lesiones jurídicas. ¿Quién está obligado a indemnizar daños y perjuicios cuando una máquina, en gran medida autónoma, ocasiona un daño? ¿Su fabricante? ¿Su programador? ¿El que la ha la usado? ¿Debe al final la víctima del daño soportarlo por no haber sido posible encontrar un responsable? [55]

Cierto es que, todavía no se ha alcanzado la máxima curva de desarrollo con respecto a la IA, por esto ¿debemos seguir esperando a que suceda para tener una regulación? Sophia un androide que obtuvo la ciudadanía saudita y que puede mantener conversaciones fluidas sobre cualquier tema, podría ser responsable de los daños que pueda llegar a causar o deberemos culpar a su fabricante, diseñador, usuario -hasta cierto punto la teoría en este punto flaquea-. En lo que respecta a este tema, algunos autores han concluido en el mayor de los casos a reconducir la imputabilidad al usuario. Por ejemplo, el coche que se conduce por sí mismo no decide ni si se pone en marcha, ni sobre el lugar adónde va, sino que depende siempre de las especificaciones de su usuario. Con lo que permanece, como siempre, enlazado a la acción humana, lo que es jurídicamente relevante y significa que, en última instancia, siempre se deja ver una persona imputable [56].

3.5 Iniciativas de la UE en materia de IA

La IA se ha encargado de transformar nuestro mundo, desde teléfonos móviles inteligentes hasta robots que intervienen en cirugías como parte del equipo de médicos. Por esta razón, los Estados se han dado cuenta que la normativa vigente no podrá hacerle frente por mucho a este tipo de tecnologías que evolucionan diariamente y que ya se prevé que su desarrollo tendrá un importante avance en los próximos cinco años, es por ello por lo que han dado comienzo a un proceso legislativo para comenzar a dictar normas y tratar de ir regulado el ámbito tecnológico con normas especialmente creadas para las nuevas tecnologías. Por desgracia todavía nuestro ordenamiento español no cuenta con una normativa específica relativa a IA o cualquier tecnología emergente, por lo que debemos acudir a propuestas, informes, trabajos e incluso resoluciones extranjeras como las de la Unión Europea y muy pocos países que han iniciado el desarrollo legislativo de estos sistemas. Por ser, en términos jurídicos, el más cercano al Ordenamiento Español la normativa a considerar será muchas veces la de la UE -además, muchos prevén que antes que una normativa individualizada de cada país conviene más una legislación uniforme lograda a través de tratados o reglamento es europeos-.

La Unión Europea (en adelante UE) es la pionera en normativa sobre IA. Este es el marco regulatorio más actual y que más se acerca a una respuesta sobre la problemática tanto a nivel extranjero, es decir, los terceros estados fuera de la UE -muchos países no tienen consolidada aún una normativa sobre IA, menos todavía referente a la responsabilidad civil de estos sistemas- como a nivel interno, para cada uno de los estados miembros de la UE.

a. Resolución del Parlamento Europeo de 2017 [57]

Esta resolución se centra principalmente en áreas de estudio respecto de la robótica y la IA, hace alusión a la responsabilidad civil, en particular la responsabilidad por daños causados por robots autónomos y la de la condición jurídica de los robots.

En la Propuesta sobre robótica elevada al Parlamento Europeo (en adelante PE) se establecen una serie de recomendaciones que han de seguirse para regular a corto plazo la creación, uso y efectos de la robótica en nuestras comunidades. Se parte de la consideración de que “la humanidad se encuentra a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenar una nueva revolución industrial -que va a afectar probablemente a todos los estratos de la sociedad-, resulta de vital importancia que el legislador tenga en cuenta todas las consecuencias que ello entraña” (ponencia de la eurodiputada luxemburguesa Mady Delvaux) [58].

La resolución pone especial énfasis en la responsabilidad, destacando que, en el contexto de la actuación perjudicial de un robot se debe analizar los elementos, características y principios que conforman la responsabilidad aplicable a estas máquinas. De este modo, se propone una Directiva para adoptar una legislación que abarque este tipo de ámbitos dando lugar a un marco legal claro y contundente de obligaciones y derechos dirigidos a los fabricantes de robots, a las instituciones, así como a los propietarios, usuarios y ciudadanos en general.

Considera que la futura regulación en materia de responsabilidad por actos u omisiones de robots ha de centrarse en determinar cómo una máquina puede considerarse parcial o totalmente responsable de su conducta y si la misma puede subsumirse en alguna de las categorías jurídicas ahora existentes -es decir, si los robots “deben considerarse personas físicas, personas jurídicas, animales u objetos”-. [59]. Este será el punto cumbre de la resolución del 2017, ya que, como premisa se propuso en su momento una “personalidad electrónica” para los sistemas inteligentes, se hablaba de crear una personalidad jurídica especializada para maquinas inteligentes que pudieran causar daños. Esta propuesta, fue alabada por algunos, pero discutida y rechazada por muchos, ya que, lo que se pretendía era crear “una nueva categoría, con sus propias características y repercusiones en lo que se refiere a atribución de derechos y obligaciones”. Se quería que los robots más autónomos y complejos fueran considerados “personas electrónicas” con derechos y obligaciones.

También hay que destacar, fuera de la creación de una “personalidad electrónica” -de la que hablaremos más adelante- que se propone una obligatoriedad de seguro, un fondo de compensación, un código ético, así como el establecimiento de una serie de conceptos como “robots autónomos inteligentes” que será de mucha importancia de cara a una futura regularización de esta materia. Estas últimas propuestas fueron bien recibidas como precedente o como un boceto de ideas para una muy buena regulación futura de la IA, sin embargo, la personalidad jurídica especial para robots todavía se sigue discutiendo si es realmente necesaria y posible-.

b. Resolución del Parlamento Europeo de 20 de octubre de 2020 [60].

La reciente Resolución supone un nuevo paso -el más reciente- en el proceso de regulación de la robótica y la inteligencia artificial, es de las soluciones más novedosas en este ámbito a nivel mundial con su proposición de un reglamento sobre IA que incluye una normativa especializada sobre la responsabilidad civil cuando sea ocasionado un daño por algún sistema inteligente.

La Resolución como solución a la problemática apoya una Propuesta de Reglamento (en adelante PR) cuando estableció como objetivo principal “para aprovechar eficazmente las ventajas e impedir posibles malos usos de los sistemas de IA,…es fundamental una legislación uniforme, basada en principios y preparada para el futuro en toda la Unión para todos los sistemas de IA; opina que,… parece necesario contar con un marco jurídico horizontal y armonizado basado en principios comunes con el fin de garantizar la seguridad jurídica, establecer una igualdad de normas en toda la Unión y proteger eficazmente nuestros valores europeos y los derechos de los ciudadanos” [61], Se parte de la premisa de que cualquier marco jurídico en materia de responsabilidad civil orientado al futuro debe dotar de seguridad jurídica e infundir confianza en la seguridad, fiabilidad y coherencia de los productos y servicios, incluidas las tecnologías digitales.

Al contrario de la resolución del 2017, el PE reafirma la idea que los sistemas de IA no tienen personalidad jurídica ni conciencia humana, es tajante cuando rechaza la idea de una “personalidad electrónica” por lo que la responsabilidad civil será atribuida siempre a la persona física o jurídica que cree el sistema de IA, lo mantenga, lo controle o intervenga en él. Es decir, reconduce siempre la responsabilidad a sujetos “tradicionales” y nunca al sistema inteligente. En su considerando séptimo sobre “responsabilidad civil e inteligencia artificial”, considera que “…todas las actividades, dispositivos o procesos físicos o virtuales gobernados por sistemas de IA pueden ser técnicamente la causa directa o indirecta de un daño o un perjuicio, pero casi siempre son el resultado de que alguien ha construido o desplegado los sistemas o interferido en ellos…” esto es un punto importante a tener en cuenta ya que desplaza totalmente la teoría de que son los artefactos dotados de IA los que deberían responder de los daños, en una línea más lógica analiza cada una de las vertientes de la tecnología estableciendo que aunque por las características de la IA – la opacidad, la conectividad y la autonomía- se podría dificultar o imposibilitar llegar a la “intervención humana o decisiones de diseño” que ocasiono la acción perjudicial, el concepto actual de responsabilidad civil no permite aceptar esta idea. La respuesta según la resolución será la de “hacer responsables a las diferentes personas de toda la cadena de valor que crean, mantienen o controlan el riesgo asociado al sistema de IA”.

Esta resolución trae consigo también la importantísima tarea de conceptualizar los términos referentes a la IA -que no habían sido delimitados- como, por ejemplo, define el sistema de IA en el artículo 3.a de la PR. También establece que, autónomo, en el art.3.b. PR) [62]. Otro punto importante es que la propuesta de nuevo reglamento se centra en las reclamaciones interpuestas contra el operador de un sistema de IA, sea o no sea este último un sistema de IA de “alto riesgo”. Según esta resolución “la persona que utiliza el sistema de IA está involucrado en el incidente que causa el daño, solo debe ser considerado responsable en virtud del presente Reglamento si el usuario también tiene la condición de operador. En caso contrario, el grado de contribución manifiestamente imprudente o dolosa del usuario al riesgo podría conducir a la responsabilidad subjetiva del usuario ante el demandante” [63].

Pensaríamos entonces que quedaría una laguna en tanto a los fabricantes y diseñadores de este tipo de tecnologías, ya que la responsabilidad en este reglamento solo se ciñe a los operadores. En su considerando octavo, ya nos da la respuesta a este asunto, cuando apuesta por seguir utilizando la normativa de productos defectuoso que se ha venido utilizando en los últimos treinta años, eso sí, promueve una reforma para que los sistemas inteligentes y su responsabilidad puedan ser adaptados a esta [64].

Las principales novedades pueden resumirse en lo siguiente: en primer lugar, se establece un régimen de responsabilidad objetiva para sistemas de IA de alto riesgo. Se establece que el operador de un sistema de IA de alto riesgo será objetivamente responsable de cualquier daño causado por una actividad física o virtual, un dispositivo o un proceso gobernado por dicho sistema de IA. En segundo lugar, se cree en establecer un límite en la indemnización de 2 millones de euros en caso de fallecimiento o de daños causados a su salud o a su integridad física; también se hace referencia a la creación de un seguro de responsabilidad civil obligatorio para todos aquellos operadores de sistemas de IA. Por último, también se tienen en cuenta aquellos sistemas de IA que no se acoplen a la categoría de “alto riesgo”, por lo que se propone un régimen de responsabilidad subjetiva para estos casos.

4. CAPÍTULO CUARTO. ANÁLISIS DE LAS SOLUCIONES PROPUESTAS PARA LA RESPONSABILIDAD CIVIL DERIVADA DEL USO DE LA IA

A continuación, están las soluciones más novedosas e interesantes que se han propuesto por la doctrina para solventar la problemática que hemos venido analizando:

4.1 Quién asume la responsabilidad de los daños que pueda causar un sistema de IA? Posibles sujetos responsables

La controversia más importante hasta ahora con respecto a este tema es la imputabilidad o la determinación del sujeto responsable, es decir, la interrogante más grande será la de hallar quién asume la responsabilidad de los daños que pueda causar un sistema de inteligencia artificial. Debido a esto, y a las características de autonomía, capacidad de autoaprendizaje y adaptación al entorno que hacen de estas, unas tecnologías imprevisibles fuera del control humano, será preciso establecer, o al menos tratar, de establecer un responsable jurídico para los casos en que las nuevas tecnologías como la IA y los robots causen un perjuicio a un tercero.

En primer lugar, debemos descartar de forma automática la concepción de un robot como persona física y, por tanto, su tratamiento de la responsabilidad. Un robot o un programa inteligente no puede englobarse dentro de la naturaleza de persona física, porque si analizamos más de cerca esta figura vemos que cualquier maquina dotada de IA no cumple con los presupuestos necesarios para entrar en esta categoría jurídica. Hay un presupuesto esencial para que un sujeto adquiera personalidad jurídica, como advierte el art.30 de nuestro CC –EDL 1889/1– la personalidad jurídica se adquiere en el momento del nacimiento y para ello solo es necesario que el nacimiento haya sido viable, es decir, que se produzca el “entero desprendimiento del seno materno” [65]. ¿Un robot puede “nacer” o “morir”? de momento los avances tecnológicos no cuentan con un espécimen tan desarrollado que pueda cumplir con estos requerimientos biológicos; lo que sí podría hacer un robot o incluso un programa es ser desconectado o dejar de funcionar -si se le puede llamar así, muerte- y encenderse -como símil de vida- [66]. Hasta los sistemas más complejos y sofisticados como Hatsune Miku considerada como la primera artista virtual en 2007 no puede considerarse que ha “nacido”. A pesar de que un robot o sistema dotado con IA tenga características humanas como la inteligencia, autonomía o razonamiento -hasta cierto punto-, no podrá encontrarse en principio a la par se los seres humanos. Se descarta también, bajo esta misma idea, equiparar los sistemas inteligentes con los animales a los efectos de la normativa en responsabilidad, ya que, en muchos ordenamientos son considerados como “seres vivos” o “seres vivos con sensibilidad”, a pesar de que existen robots que simulan la conducta de animales, como el perro, todavía se alejan de la naturaleza de los animales.

Dejando de lado, la idea anterior si se considera a los robots como cosas; en principio el art.333 CC –EDL 1889/1 establece como “cosas” los objetos materiales muebles o inmuebles que pueden ser objeto de apropiación [67], si seguimos este concepto un robot perfectamente es un objeto, por lo que, los sistemas inteligentes y las cosas ostentan la misma condición jurídica a priori. El problema con respecto a esta categoría jurídica radicara en delimitar si estamos ante un bien mueble o inmueble, la lógica nos lleva a atribuirle la condición mueble a estos sistemas, después de todo, hablamos de vehículos, aviones, submarinos, drones, robots, etc.; que en un principio cumplen con las características de un bien mueble. Sin embargo, nuestro código también establece en su art.334.3º que tendrá la consideración de bien inmueble “todo lo que este unido a un inmueble de manera fija, de suerte que no pueda separarse de él sin quebrantamiento de la materia o deterioro del objeto”, entonces, ¿podrían entrar en esta categoría las nuevas casa inteligentes?, son viviendas que tienen incorporado dispositivos que permiten la automatización de sus funciones, si este dispositivo fallara y por ejemplo hubiera una fuga de gas causando un incendio ¿sería responsable el dueño de la vivienda, y consecuente operario del sistema de IA?.

No obstante, lo anterior, es de común acuerdo entre la doctrina que categorizar a las nuevas tecnologías como “cosas” es de momento, la aproximación más certera que existe. Dejando de lado, que la teoría flaquea en aspectos como el anterior, sobre la correcta delimitación entre “bienes muebles o inmuebles” o sobre las bases de la propia IA cuando se establece que los robots inteligentes y programas pueden interactuar con su entorno, llevar a cabo acciones, razonar y pensar por sí mismas; cosa que quita fiabilidad a establecer de forma segura que la IA son “cosas”. Esta es de las teorías más acogida por el momento.

Para esto, en segundo término, tendremos que el Parlamento Europeo propone una personalidad jurídica específica de los robots, para dar alcance a la responsabilidad [68]. Bajo estas circunstancias se tomarán los robots como “sujetos” responsables, según esta propuesta que se llevó a cabo en 2017, se debería crear un status nuevo en el que los robots inteligentes y muchos de los sistemas dotados de IA deben ser sujetos con deberes y derechos. Bajo esta premisa, si se llegara a establecer que las nuevas tecnologías tienen lo que se denomina “personalidad electrónica” ¿Qué régimen de responsabilidad sería aplicable en estos casos? Se debería asimilar a una personalidad jurídica o deberán los legisladores crear desde cero un nuevo régimen de responsabilidad que se acople a estas situaciones.

Otros autores entre ellos, Santos González consideran que el hecho de que no se considere en la categoría de “cosa” al robot no debe impedir que se aplique el régimen jurídico de responsabilidad por producto defectuoso [69]. Esta normativa es muy importante para esta disciplina ya que, es la que se ha estado utilizando a lo largo de estos últimos años para suplir los vacíos que han dejado los aparatos inteligentes; lo interesante de esta norma es que concibe a la IA no como una cosa, sino que la establece en la categoría de “producto” siendo el responsable el fabricante de la maquina en estos casos.

En otro orden de idea, también se propone por la doctrina que el propietario o el usuario podría haber actuado con negligencia o dolo alterando o dando instrucciones inadecuadas al robot, en este caso sería el responsable del daño [70]. Lo que se quiere con este sistema de responsabilidad es buscar la vía más sencilla para establecer el sujeto que debe responder por el perjuicio causado por un sistema inteligente, como todas las teoría o propuestas, esta no es la excepción a críticas, sin embargo, junto a la categoría de los robots como “cosas” es de las más aceptadas. Esto es así, ya que, según los expertos los sistemas inteligentes siempre deben contar con un cierto grado de interacción humana para funcionar o realizar las tareas que le son encomendadas y si resulta que el operador o el usuario de estos sistemas se demuestra que actuó negligentemente o con malicia deberá responder de los daños causados y no podrá achacarle la culpa al robot, maquina o sistema inteligente abogando por su autonomía o pensamiento. “En todo caso, al menos en la etapa actual, la responsabilidad debe recaer en un humano y no en un robot”. [71] Como se puede observar, la mayor parte de las veces será posible remontarse hasta un agente humano concreto (fabricante, propietario o un usuario) y perfectamente imputable (responsable de lo ocurrido); la idea de una personalidad electrónica quedará para que los robots más avanzados y autónomos [72].

4.2 Discusión sobre una posible personalidad jurídica para los robots o maquinas dotadas de IA. ¿tienen o debe otorgarse ex novo personalidad jurídica a la IA con la consecuencia de atribuirle Derechos, obligaciones y responsabilidad?

Las características inherentes y el propio concepto que gira alrededor de la robótica inteligente han llevado a un interesante debate en los últimos años, el hecho de que una maquina sea capaz de tomar sus propias “decisiones” nos conduce a pensar sobre una alternativa para una nueva especie de “persona no humana”. Otorgar personalidad jurídica a un robot y presentarlos como personas electrónicas, es decir, capaces de ser titulares de derechos y obligaciones se presenta también en la doctrina como un escenario posible.

La idea principal de esta propuesta planteada por la UE en su resolución de 2017 fue, en síntesis, no poder establecer o colocar la IA y nuevas tecnologías en una de las figuras jurídicas que ya tenemos. El panorama europeo y sus legisladores consideraron en su momento como mejor solución la posibilidad de otorgarle personalidad jurídica a los sistemas inteligentes, dotándolos consecuentemente de deberes y derechos. Solución que fue muy polémica en su momento teniendo tanto partidarios como detractores en la propuesta. Esta resolución estableció “crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente” [73]. Todavía sigue habiendo partidarios hacia esta postura, ponemos por caso a Sophia [74], la primera humanoide con inteligencia artificial avanzada que se ha creado en el planeta y que en 2017 le fue otorgada la ciudadanía saudí (es el primer robot que cuenta con nacionalidad) [75], ¿será el primer paso para considerar una postura a favor de una personalidad jurídica electrónica?

Los partidarios de crear una personalidad jurídica específicamente para los robots abogan por considerar a los robots como personas electrónicas -se desplaza la idea de considerarlos como “cosas” o “productos”-, especialmente a los robots autónomos más complejos, -como vimos en el ejemplo anterior con Sophia-, haciéndoles responsables de reparar los daños que puedan causar [76]. Según estos autores, la forma de llevar a cabo esta idea es abordarlo desde una perspectiva nueva, la de enmarcar dicha personalidad electrónica en una nueva rama jurídica denominada “Derecho de los Robots” (Robot Law), -como establecimos capítulos anteriores- para dar respuesta a los nuevos desafíos que se van a ir planteando y que desarrolle bajo las características del régimen asociado a las personas jurídicas. Sin embargo, como cualquier tesis, hay críticas sobre esta propuesta, ya que, si se diera el caso hipotético de concebir a los robots como personas físicas o jurídicas -o una figura muy próxima-, se les estaría otorgando capacidad suficiente para contraer obligaciones y ejercer derechos.

En cuanto a los autores que discrepan sobre la otorgación de una personalidad jurídica a los robots, cabe destacar que son muchos los partidarios en manifestar abiertamente el rechazo a esta idea. Los fundamentos para rechazar este proyecto se fundamentan en tres ideas principales: el estatus de un robot no puede derivarse del modelo de persona natural, ya que el robot tendría Derechos humanos, como el derecho a la dignidad, a su integridad, a la remuneración o el derecho a la ciudadanía, confrontando así directamente los derechos humanos. En segundo lugar, el estatus legal de un robot no puede derivarse del modelo configurado para las personas jurídicas, ya que el mismo implica la existencia de personas humanas detrás de la persona jurídica para representarlo y dirigirlo. En último lugar, por ser extremadamente complejo y propio de ciertos ordenamientos el estatus legal de un robot no puede derivarse del modelo anglosajón de “trust” o “Fiducie” o “Treuhand” en Alemania [77].

La solución para los autores que se niegan a la postura más innovadora de personalidad electrónica es continuar con las legislaciones vigentes y acoplarlas de cierta manera a las nuevas tecnologías. En opinión la idea de rechazar completamente esta propuesta es pesimista ya que, no debería estar descartada del todo, si bien es un poco ambiciosa en el sentido de que se deben pensar y realizar muchas cosas hasta llegar a una personalidad electrónica, llegará un momento en que será necesaria esta personalidad; no tanto como una personalidad física o jurídica a la que estamos acostumbrada, pero si una personalidad diseñada específicamente para las necesidades y protección de los sistemas inteligentes. El derecho no está preparado en este momento para esta gran reforma, pero sin duda dentro de más años será una propuesta bastante tentadora para los legisladores. Podríamos decir, que se puede balancear esta idea con una postura intermedia.

4.3 La aplicación de la Dir 85/374/CEE –EDL 1985/9972– sobre responsabilidad derivada de productos defectuosos, recogida en el Texto Refundido de la Ley General para la Defensa de los Consumidores y Usuarios

Se entiende por producto defectuoso aquél que no ofrezca la seguridad que cabría legítimamente esperar, teniendo en cuenta todas las circunstancias y, especialmente, su presentación, el uso razonablemente previsible del mismo y el momento de su puesta en circulación [78]. ¿Podríamos entonces aplicar esta normativa a los casos de responsabilidad civil derivada del uso de la IA? En efecto, sí. Por el momento, ha sido la normativa a la que se ha estado remitiendo estas situaciones para dar respuesta a la problemática de los aparatos inteligentes.

El problema con aplicar esta normativa es la complejidad y la cadena de suministros con la que cuentan estos sistemas. Sabemos que, para tener el “producto final” debemos pasar anteriormente por una multitud de sujetos que intervienen en la producción del resultado final al que denominamos robot, sistema o maquina dotada con IA. Por ello el fabricante en estos casos no sería responsable si probara que, en el momento en que el producto fue puesto en circulación, el estado de los conocimientos científicos y técnicos no permitía descubrir la existencia del defecto. Tendremos la primera laguna jurídica. Se propone a la Comisión Europea en el informe emitido en 2020 sobre un régimen de responsabilidad civil en materia de inteligencia artificial que “evalúe si la Directiva sobre responsabilidad por los daños causados por productos defectuosos debe transformarse en un reglamento, a que aclare la definición de «productos», determinando para ello si el contenido digital y los servicios digitales entran dentro de su ámbito de aplicación, y a que considere la posibilidad de adaptar conceptos como «daño», «defecto» y «productor»; opina que, en aras de la seguridad jurídica en toda la Unión, tras la revisión de la Directiva, el concepto de «productor» debe incluir a fabricantes, desarrolladores, programadores, proveedores de servicios y operadores finales” [79] el problema entonces vendrá cuando no sea el fabricante, el proveedor del servicio, el diseñador, etc.; quien haya cometido el error sino que sea un tercero (no operador por ejemplo) o incluso el propio dueño y operador de estas máquinas quien cometa la acción que origine el daño.

Otro inconveniente de aplicar esta normativa será la categorización como producto defectuoso de estas máquinas, como sabemos, esta directiva fue creada para otro tipo de supuestos y que, en aras de establecer seguridad jurídica a los sujetos que sufrieran un daño como consecuencia de las tecnologías se permitió interpretar esta norma para dar cabida a estos supuestos. Entonces, ¿Cómo sabemos cuándo un sistema de IA cumple los requisitos para ser considerado un producto con arreglo a dicha directiva? El constante cambio en las tecnologías inteligentes impide que se dé una respuesta correcta a esta pregunta. Es por ello por lo que se pide a la comisión en el informe ante citado que “…debe seguir utilizándose en relación con las reclamaciones por responsabilidad civil contra el productor de un sistema de IA defectuoso, cuando el sistema de IA cumpla los requisitos para ser considerado un producto con arreglo a dicha Directiva” [80].

Por último, la opción que dejo sobre la mesa el PE fue la de revisar esta directiva y adaptarla al “mundo digital”, por lo que se pide una reforma de dicha norma para que se ajuste a las nuevas exigencias de los sistemas inteligentes. Estableció entonces que, aunque haya quedado de alguna manera obsoleta, es una buena legislación para estos productos que se puede seguir aplicando para “así garantizar un elevado nivel de protección efectiva de los consumidores y de seguridad jurídica para los consumidores y las empresas, a la vez que se evitan elevados costes y riesgos para las pymes y las empresas emergentes” [81].

4.4 Soluciones de la normativa europea: Propuesta de reglamento en materia de responsabilidad civil por el uso de inteligencia artificial, del Parlamento Europeo, de 20 de octubre de 2020 [82]

La Unión Europea desde que se dictó el informe de 2017 -de la que ya hemos hablado- no ha parado de continuar con el desarrollo normativo en materia de IA. El objetivo principal de la UE es lograr es una mayor seguridad jurídica y respeto de los derechos fundamentales de los ciudadanos europeos, así como seguir promoviendo el desarrollo de sistemas inteligentes. El 20 de octubre de 2020 se aprueban tres documentos de especial relevancia en materia de IA, de los cuales nos interesa en este momento es una resolución centrada en las normas de responsabilidad civil “Civil liability régimen for artificial intelligence” 2020/2014 (INL) [83], con el objetivo de proteger a los ciudadanos, a fin de generar confianza en el uso de las aplicaciones de IA en donde el punto más importante, es la propuesta de reglamento que se realizó en la resolución.

Lo primero que cabe destacar es que la Propuesta de Reglamento (en adelante PR) es muy distinta a la regulación que tuvo cabida en 2017 o, mejor dicho, se encarga de corregir los errores y vacíos jurídicos que dejo esta primera propuesta de legislación. El punto de inflexión para dejar atrás las ideas propuestas en el 2017 es el rechazo a la “personalidad electrónica” que fue promovida en ese tiempo. Establece no ser necesario atribuir personalidad jurídica a los sistemas de IA cuando dice de manera contundente que “Cualquier cambio necesario del marco jurídico vigente debe comenzar con la aclaración de que los sistemas de IA no tienen personalidad jurídica ni conciencia humana, y que su única función es servir a la humanidad…En última instancia, la gran mayoría de los sistemas de IA se utiliza para efectuar tareas triviales, sin riesgo o con riesgos mínimos para la sociedad” [84].

Si quedaban dudas sobre la personalidad electrónica, esa que permitía a la IA ser objeto de derechos y deberes, para así poder ser responsable de los daños que causara, en capítulo I sobre “disposiciones generales”, art. 1 de la PR aclara que “las demandas por responsabilidad civil de las personas físicas y jurídicas contra los operadores de sistemas de IA” [85]. Este es sin duda, el avance más importante de este futuro reglamento, ya que desecha la idea que muchos autores apoyaban de caracterizar a la IA con una personalidad jurídica. La doctrina en este caso se ha decantado por la categoría de producto como naturaleza jurídica de estos sistemas.

A. Régimen de responsabilidad.

El futuro reglamento establece dos regímenes de responsabilidad, en función del tipo de sistema de IA que haya causado el daño: por un lado, establece una responsabilidad objetiva para los daños causados con sistemas de IA de alto riesgo (art.3 PR), y por otro, una responsabilidad subjetiva para los daños causados con sistemas de IA que no supongan un alto riesgo (art.8 PR) [86]. Por tanto, el reglamento promueve una categorización de la IA en función del riesgo, es decir, según la categoría en la que se encuentren las maquinas, sistemas, programas o robots serán de aplicación una u otra responsabilidad. Se tendría que analizar caso por caso para saber si se trata de un supuesto de IA de alto riesgo o si por el contrario se trata de otro sistema de IA -que no sea de alto riesgo.

Para los sistemas de alto riesgo, el régimen de responsabilidad objetiva será el aplicable, en cambio para el resto de los sistemas inteligentes se aplicará una responsabilidad subjetiva. (art.4 y art.8 PR, respectivamente). Los sistemas de alto riesgo tendrán en cuenta la “la potencialidad de causar daños al público en general, afectando, en su caso, a un número de personas desconocidas e indeterminadas; la gravedad del daño por su efecto lesivo en los derechos fundamentales, y el valor total de perjuicios” [87]. Según el art.4.1 del PR todo operador de estos sistemas será responsable objetivamente de los daños causados por la actividad física o virtual de los dispositivos o procesos gobernados por dicho Sistema. Serán daños indemnizables: daños corporales, así como daños materiales y morales.

En segundo plano tendremos a los otros sistemas de IA que no se consideran de alto riesgo, para ello el art.8 nos dice que debemos interpretar sensu contrario lo que establece el art.3, letra c) y el art.4.2 sobre sistemas de alto riesgo. Es decir, todo lo que no sea sistema de alto riesgo será catalogado como “otros sistemas de IA”. Ante estos sistemas se aplicará la responsabilidad por culpa. Se trata de una responsabilidad cuasi objetiva, o con inversión de la carga de la prueba de la culpa, pues el art. 8.1 establece que el operador (inicial, final o ambos) estará sujeto a responsabilidad subjetiva respecto de todo daño o perjuicio causado por la actividad física o virtual del sistema [88].

B. Sujetos responsables.

Es muy importante como la propuesta de reglamento resuelve la problemática de la imputación de responsabilidad cuando hacemos uso de estos sistemas inteligentes, ya que, señala como responsable de los daños al operador. El art.3.d define operador como “tanto el operador final como el inicial, siempre que la responsabilidad civil de este último no esté ya cubierta por la Dir 85/374/CEE –EDL 1985/9972”, esto quiere decir que en los casos en que sea de aplicación la normativa por productos defectuosos no cabra aplicar este reglamento, por lo que se deberá realizar un ejercicio en “cascada” para determinar al responsable del daño: primero se debe ver si el caso está cubierto por la directiva, en caso contrario se deberá acudir al reglamento y posteriormente calificar si estamos ante un supuesto de IA de alto riesgo o no, para saber cuál es la norma que debemos aplicar.

El operador final es “toda persona física o jurídica que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de AI y se beneficia de su funcionamiento”. Por su parte, el operador inicial es la “persona física o jurídica que define, de forma continuada, las características de la tecnología y proporciona datos y un servicio final de base esencial y, por tanto, ejerce también un grado de control sobre un riesgo asociado a la operación y funcionamiento del sistema de IA”, es decir, el programador que ofrece su sistema como servicio y se mantiene vinculado a él por medio del trabajo continuado sobre el mismo. [89]

En conclusión, la Propuesta de Reglamento admite en principio que el sujeto responsable sea el productor, diseñador, fabricante, etc.; aquellos que se posicionan en la primera etapa de creación de estos sistemas. Lo que si aclara es que, se considera preferible para estos casos -cuando se cumpla con los presupuestos- aplicar la Dir 85/347 de responsabilidad por daños causados por productos defectuosos. Con respecto a esta última idea la PR también establece la necesaria reforma de la directiva para que sea perfectamente adaptable a estos supuestos jurídicos.

En segundo orden de ideas, entrara el ámbito de aplicación del PR estableciendo como sujeto responsable -como ya hemos dicho- al operador. Al margen de los responsables antes citados, en caso de daños causados por un tercero, serían de aplicación las normativas de los Estados miembros relativas a la responsabilidad subjetiva. Solo habrá que introducir correcciones en caso de que el tercero no sea rastreable o sea insolvente, previsiblemente a través de fondos descompensación. [90]

5. CONCLUSIONES

Como se ha mostrado, el Derecho puede ofrecer las herramientas necesarias, de momento, para dar respuesta a esta problemática, si bien es cierto que todavía estamos en una etapa embrionaria donde todavía quedan vacíos que resolver, es importante saber que ya se está gestando la idea de una rama jurídica nueva, el “Derecho de los Robots”, una nueva visión que está intentando adaptar las normativas en vigor y además generando un nuevo marco jurídico que se ajuste a las exigencias de la sociedad con respecto a implementar IA en su vida diaria. La IA es un campo mutable, complejo y que evoluciona a pasos agigantados, normalmente el derecho siempre va un paso por detrás de los avances sociales, esto por las propias características de nuestra disciplina que impiden de alguna manera equiparar la realidad con las leyes, y nos hace preguntarnos si ¿Nuestro ordenamiento jurídico está capacitado para dar solución a los nuevos retos que plantea la inteligencia artificial? Lo que se quiere decir es que, ya los sistemas autónomos están aquí, en los hospitales, industrias, empresas, transportes, servicios básicos, música, incluso hay proyectos de IA sobre ciudades inteligentes o “Smarts Citys” [91], es por esto por lo que se debería eliminar la brecha que existe entre las leyes y el continuo avance de las tecnologías asumiendo una postura innovadora.

Algunos siguen sosteniendo la regulación como un “obstáculo para la innovación y el desarrollo tecnológico”, es un temor razonable que puede ser despejado con un marco jurídico acorde a las exigencias de la IA que pueda balancear la libertad de los creadores de estos sistemas y la seguridad de las personas de ver resarcida su responsabilidad en caso de daños. La regulación que se pretenda aprobar deberá ser proporcional y equilibrada, permitiendo el pleno desarrollo de la tecnología de la IA, pero a su vez garantizando la transparencia de los estudios e investigaciones y la seguridad para las personas. La postura que se mantiene es la de crear una legislación estable y especializada para la robótica y la IA, partiendo de una idea tan ambiciosa como esta, conviene detallar las opiniones y aportes relativos a esta disciplina:

Primera. ¿Personalidad jurídica de los robots? ¿Es conveniente?

La pregunta gira en torno a si es factible dotar a sistemas autónomos inteligentes con una personalidad jurídica que les atribuya deberes y derechos, ¿es verdaderamente necesario reconocer una “personalidad electrónica”? El otorgamiento de esta figura jurídica a los robos y programas inteligentes es uno de los temas más polémicos e importantes en el ámbito legislativo, no solo se trata de darle a estas máquinas una postura “legal” que pueda ser de ayuda para instaurar un marco normativo, sino que también estamos dándoles la oportunidad de ostentar tanto derechos como deberes. La premisa del Parlamento Europeo era otorgar una personalidad electrónica para así obligar a esta área tecnológica a hacerse cargo de los daños que pudieran causar, sin embargo, no dejaron muy claro como harían con respecto a las demás obligaciones y sus correlativos derechos que conlleva una personalidad jurídica, ¿deberían los vehículos autónomos tener derecho a la vida y ser inscritos en el registro civil? Según Pablo García Mexía, letrado de las Cortes un prestigioso experto nacional en derecho de las tecnologías “la inteligencia artificial plantea numerosos problemas al Derecho, pero la atribución de una personalidad jurídica “electrónica” para resolver los supuestos de responsabilidad derivada del uso de estos sistemas, no es la solución, ya que erosiona el papel central de la persona humana ante estos casos” [92]. La posibilidad de dotar a los robots de una personalidad jurídica para poder atribuirles la responsabilidad civil por los daños que causen, en opinión, es excesiva. El hecho de hacer que máquinas ostenten tanto derechos como deberes -cosa que se suele olvidar- en forma de “personalidad jurídica electrónica” trae consigo una dificultad innecesaria y extenuante en su regularización.

El problema con esta personalidad electrónica es su concreción, en tanto que, para intentar desarrollar una personalidad para los robots, estamos obligados a cuestionarnos varias cosas como, por ejemplo: ¿a qué se puede asemejar dicha personalidad?, ¿podremos adaptarla a alguna figura jurídica existente o necesitaremos de alguna nueva?, ¿Cuáles serán las características? ¿Qué sistemas de IA deben tener personalidad electrónica? ¿Desde qué momento surge esta figura? entre otras incógnitas que el derecho por el momento no está preparado para responder.

Esto no quiere decir que se descarte la idea por completo, aunque en opinión seria de las últimas posibilidades para tener en cuenta, ya que, el derecho por el momento no está capacitado para dar esta respuesta, quizás en un futuro si se sigue evolucionando el ámbito tecnológico -como se tiene previsto-. Se ha demostrado que la IA va más allá de una coraza que pretende aparentar una apariencia humana; hablamos de que la inteligencia lograda de forma artificial son sistemas, son coches, son drones, son teléfonos móviles, etc. ¿también se les atribuirán deberes y derechos?, un vehículo podrá tener derechos como el de la libertad, un dron tendrá derecho al trabajo, incluso se podría hablar de derecho a la vida de estos sistemas. Viéndolo desde esta perspectiva hiperbólica ni nuestro propio ordenamiento, ni me atrevo a pensar que ningún otro tenga la capacidad de afrontar este proyecto por el momento.

Segunda. ¿Se debe crear un nuevo régimen de Responsabilidad Civil o es posible adaptar nuestra normativa? ¿Es factible una postura más actual del Derecho?

El desarrollo tecnológico y la gran presencia social y económica que tienen los robots y la IA aumentará en muy poco tiempo, lo que obliga a establecer nuevas normas jurídicas que “se centren en cómo una máquina puede considerarse parcial o totalmente responsable de sus actos y omisiones, ya que, la actual legislación en materia de responsabilidad extracontractual no abarca las consecuencias de la robótica avanzada” [93]. El debate surge cuando nos preguntamos si es adecuada la aplicación de las leyes existentes -las que llamamos tradicionales- a los cambios tecnológicos estructurales que estamos experimentando, esto es, si los principios de nuestro Derecho son suficientes para afrontar la responsabilidad que surge de la utilización de sistemas dotados con IA, o si por el contrario debería ser necesaria una legislación completamente nueva para estas situaciones.

Ya sabemos que la mayoría de la doctrina está a favor de regularizar mediante un nuevo régimen la utilización de sistemas inteligentes, es una ardua tarea que se está llevando a cabo por distintos países que consideran como mejor opción la creación de nuevas normas jurídicas especializadas en dar respuesta a la problemática que conlleva la utilización de la IA en la sociedad. De acuerdo con lo expuesto hasta ahora, es la solución más elocuente y acertada, pues ya son varios los estados que reconocen que una regularización temprana puede ayudar a solventar esta problemática jurídica. Un ejemplo, de esta posición doctrinal son principales países pioneros en el desarrollo de tecnología e inteligencia artificial China, Japón y Corea del Sur que centran sus políticas legislativas en la ética y el desarrollo de estos sistemas, además EE.UU. para el 2020 ya comenzó a plantearse preparar un texto legislativo que tiene como objetivo regular el uso de la inteligencia artificial, lo curioso de este proyecto es que se presenta como premisa diez principios que se deben tener en cuenta para poder desarrollar la IA [94]. Sin dejar atrás a la Unión Europea que en estos momentos es la primera en proponer una legislación contundente en materia de IA con una nueva propuesta de reglamento y demás recomendaciones e informes que lo preceden [95]. Un nuevo régimen de Responsabilidad Civil que abarque supuestos de IA y robótica es inminente.

Tenemos, por un lado, que el nuevo régimen de “robot law” es uno de los más ambicioso a nivel legislativo, pero fuera de ello, la crítica de esta postura es la forma de enfocar esa nueva legislación, es decir, según el punto de vista que tenga el estado con respecto a la responsabilidad, se lograra una normativa u otra. Por una parte, nos encontramos sistemas como el europeo y mayormente el americano que abogan por una normativa enfocada al daño y a la responsabilidad, por lo que se dejaría de lado el enfoque “preventivo”, lo que traería como consecuencias sistemas que solo se centran en el resarcimiento del daño y no en la aplicación de leyes para prevenir que dicho daño pueda llegar a suceder. Sin embargo, otras corrientes como la asiática estipulan sistemas enfocados no al daño y su consecuente responsabilidad, sino que promueven una normativa en donde lo principal será la regularización de todo el conglomerado de actos y sujetos que intervengan en las maquinas, robots y sistemas con IA antes de producido el daño.

Hay otros autores -la minoría- que se decantan por una teoría más tradicional consistente en la adaptación de los regímenes vigentes. En este punto, se establecen dos premisas generales del régimen de responsabilidad civil vigente en materia de IA que son: por un lado, la validez de los regímenes actuales sobre responsabilidad civil de los Estados, no precisan de una revisión completa -son normas que previamente ya han sido aprobadas según los métodos establecidos para ello en cada estado, y aunque no fueron creadas para estos sistemas son plenamente validas-. En segundo lugar, será necesaria como consecuencia, una reforma para adaptar dichos regímenes vigentes porque los sistemas de IA presentan características propias que requieren adaptaciones específicas y coordinadas de los regímenes de responsabilidad civil para evitar situaciones en las que personas que sufran un daño o un menoscabo a su patrimonio acaben sin indemnización por no encontrarse en el tipo jurídico establecido por la norma.

El inconveniente que podríamos encontrar a esta idea es que el marco jurídico del Derecho de los Robots requiere una renovación constante por sus propias características y principios, además que este nuevo marco normativo debe ser moldeado desde cero. “En primer lugar, tiene que abordar los efectos secundarios inesperados que las intervenciones regulatorias destinadas a salvaguardar determinados derechos o valores puedan tener sobre otros. En segundo lugar, debe mantenerse alerta ante la necesidad de poner al día, ampliar o cambiar el marco a la luz de los cambios en la sociedad y los sistemas de valores que se producen a través del proceso de conformación mutua de tecnologías, procesos sociales y perspectivas normativas” [96]. De momento, no es una idea fácil de materializar, hará falta mucho tiempo para lograr diseñar un sistema jurídico basado en la IA y la robótica, no obstante, es de las propuestas más acertadas que hay en la actualidad.

Tercera. Teoría preventiva.

“El riesgo consiste, en definitiva, en la posibilidad de que se causen daños que pueden afectar a la integridad o vida de las personas, daños materiales, impactos graves para la sociedad en su conjunto, o para actividades económicas de gran importancia, o distorsión en la prestación de servicios esenciales, o impactos negativos en los Derechos fundamentales” [97]. Según esta idea, utilizar algunos sistemas autónomos inteligentes como vehículos, drones, programas informáticos supone un riesgo para los derechos o bienes jurídicos protegidos por los ordenamientos jurídicos. En este sentido, son algunos autores los partidarios de que se utilice un sistema preventivo más que sancionador de la utilización de sistemas de IA que lleve a coaccionar a los empresarios, diseñadores y fabricantes el desarrollo de nuevas tecnologías como la IA y los robots. Es decir, normalmente la doctrina se centra en las consecuencias que se producen de la utilización de artefactos inteligentes más que poner atención a sistemas de previsión, que es por lo que abogan muchos juristas.

Según el artículo divulgativo publicado por Alejandro Hugo Lora sobre el proyecto de reglamento sobre inteligencia artificial “se pueden utilizar varios instrumentos o técnicas de intervención como la prohibición total o parcial de ciertas actividades para evitar los riesgos (siguiendo el principio de precaución), un régimen autorizatorio (control preventivo), otras formas de control preventivo (declaraciones responsables); en vez de un control exclusivamente posterior (responsabilidad civil y, en su caso, penal de quien causa daños utilizando esa técnica creadora de riesgos)”. Además de utilizar mecanismos de inspección para facilitar el trabajo de investigación

Dicho de otro modo, no es que se prohíba cosas que ahora están permitidas -como la construcción de vehículos autónomos, drones de piloto automático, aeronaves e incluso androides con apariencia humanoide- sino que intenta prevenir que se produzcan esos resultados lesivos o dañinos a través de una regulación exhaustiva. Sin embargo, el hecho de establecer un sistema preventivo no escapa de que se debe establecer un control posterior como veíamos al principio. Si se producen daños a pesar de la utilización de las medidas preventivas especificadas, podría haber responsabilidad civil o, en su caso, penal.

Cuarta. Cadena de investigación.

Uno de los problemas jurídicos que presenta el uso de la IA y la correlativa responsabilidad civil que puede desencadenar es la dificultad para establecer quién es el responsable de los daños que se desprendan del uso de productos o de la prestación de servicios basados en IA (el fabricante, el operador, el empresario que se sirve de la tecnología, el cesionario, el usuario, etc.) Este fenómeno fue denominado por la doctrina como “cadena de responsabilidad” supone que, en el momento en que un artefacto dotado de IA ocasione un daño, se pondrá en marcha una labor de análisis de todos aquellos sujetos que estuvieron en contacto con el sistema inteligente, para así determinar en qué momento hubo el error que desencadeno el daño y así poder establecer un responsable.

Ante esto, se propone por parte de la comisión europea considerar la responsabilidad por capas del desarrollo de la tecnología, distinguiendo si se trata, por ejemplo, de un error en el análisis del diseño y la programación del algoritmo, o del producto final, o de los resultados por su manipulación. Podríamos entonces, hacer una analogía y proponer lo que denominamos una “cadena de investigación” [98]. Por ejemplo, los daños causados por un método de IA llamado machine learning encargado de diagnosticar enfermedades, los daños causados por un accidente de avión pilotado por un programa inteligente, o incluso los daños morales que puede causar sesgos de géneros en la IA que le llevan a elegir unas personas por sobre otras gracias a los estereotipos.

La duda se centra en determinar sobre quién recae la responsabilidad estos daños: ¿sobre el sujeto desarrollador del algoritmo de IA? ¿Sobre el vendedor? ¿O sobre la compañía aseguradora? O quizás, ¿deberemos hablar de una posible responsabilidad solidaria? Incluso sería posible preguntarnos si es el propio operador de estos sistemas el responsable. Con estos ejemplos, veremos que la teoría de implementar un seguimiento que inicie desde el operador hasta el punto de origen del desarrollo del artefacto dotado de IA es un poco ambiciosa y poco practica en la realidad, puesto que supondría un exceso en la labor de investigación a la hora de determinar la responsabilidad civil para la víctima del daño ocasionado.

La idea para una mejor regularización es esquematizar en qué fase del desarrollo nos encontramos con respecto a las máquinas dotadas de IA, esto facilitara una legislación más exhaustiva propuesta en “bloques” o de manera más sistemática para saber de qué problemas estamos hablando y su posible solución. Muchos encuentran factible que un diseño de un marco regulatorio construido en base a este diseño podría ayudar a una mejor seguridad jurídica y en consecuencia una mejor normativa que si la concebimos como una totalidad o unidad ya que de sus características se desprende que estos sistemas son muy complejos en su elaboración (diseño, fabricación, construcción, etc.) en su aprobación para su introducción en el mercado (test de expertos, pruebas de mercadeo, y de seguridad) en su venta a empresarios y finalmente los usuarios.

Quinta. Posible marco regulatorio.

Para finalizar con un breve aporte, consideramos la idea de una posible regularización de los sistemas inteligentes bajo la idea de la clasificación de la IA. Es decir, conviene crear en principio, una clasificación basada en los tipos riesgos de los sistemas inteligentes -no es lo mismo un daño causado por un dron autómata que el “posible daño” que pueda causar un asistente de voz como Siri-, así los tipos de IA se determinarán en función de si suponen un riesgo bajo, medio o alto para la sociedad o seguridad de las personas. Esta idea, ya está siendo puesta en marcha a nivel europeo, la Comisión propone un marco jurídico basado en los tipos de riesgos: riesgo inadmisible, alto riesgo, riesgo limitado y riesgo mínimo.

Por consiguiente, la regulación futura de los sistemas expertos, en materia de responsabilidad civil, debería hacerse de forma sectorial en los diferentes ámbitos a los que afecte -como se ha venido haciendo con los vehículos autónomos-. De esta manera evitamos una regularización general y abstracta por una que identifica el riesgo a raíz del grado de autonomía del sistema.

BIBLIOGRAFÍA

1. LIBROS CONSULTADOS.

  • BADILLO ARIAS, JOSÉ ANTONIO; ÁLVAREZ OLALLA, PILAR; DÍAZ DÍAZ, EFRÉN. Inteligencia artificial y riesgos cibernéticos: responsabilidades y aseguramiento. Responsabilidad civil y aseguramiento obligatorio de los robots. Valencia: Tirant lo Blanch, 2019. P. 25-66, 297-324.
  • BARRIO ANDRÉS, MOISÉS; FROOMKIN A. MICHAEL. Derecho de los robots. Wolters Kluwer España, S.A. La Ley, Madrid, 2018.
  • DÍAZ ALABART, S., Robots y Responsabilidad civil, ed. Reus, Madrid, 2018.
  • GARCÍA SERRANO ALBERTO. Inteligencia artificial. Fundamentos, práctica y aplicaciones. 1º ed. Madrid: RC. Libros. 2012.
  • NÚÑEZ ZORRILLA, MARÍA DEL CARMEN, profesora titular de derecho civil, Universidad Autónoma de Barcelona. Inteligencia artificial y responsabilidad civil: régimen jurídico de los daños causados por robots autónomos con inteligencia artificial. Colección: Scientia jurídica. Editorial Reus, Madrid 2019.
  • ROUHIAINEN LASSE. “inteligencia artificial 101 cosas que debes saber hoy sobre nuestro futuro”. Editorial Planeta, S.A., 2018.
  • ZAPATA SEVILLA, JOSÉ. Inteligencia artificial y responsabilidad civil: el caso de las organizaciones descentralizadas autónomas. La regulación de los algoritmos, Cizur Menor (Navarra): Thomson Reuters Aranzadi, 2020 p. 349-364.

2. ESTUDIOS, INFORMES Y ARTÍCULOS CONSULTADOS:

  • ÁLVAREZ OLALLA PILAR, Catedrática de Derecho Civil Universidad Rey Juan Carlos. Propuesta de reglamento en materia de responsabilidad civil por el uso de inteligencia artificial, del parlamento europeo, de 20 de octubre de 2020. Revista CESCO de derecho de consumo, Nº38/2021, ISSN 2254-2582.
  • ATAZ LÓPEZ. JOAQUÍN. Universidad de Murcia (2020) “Daños causados por las cosas: una nueva visión a raíz de la robótica y de la inteligencia artificial”.
  • BAEZA-YATES RICARDO Y KARMA PEIRÓ. ¿Es posible acabar con los sesgos de los algoritmos? (1ª parte) por 17 de junio ​​de 2019. Puede verse en: https://www.karmapeiro.com/2019/06/17/es-possible-acabar-amb-els-biaixos-dels-algoritmes-1a-part/
  • BARRIO ANDRÉS, MOISÉS. “Hacia una personalidad electrónica para los robots”. Revista de derecho privado. 2018.
  • BARROS GONZÁLEZ LAURA, (octubre 2019). “El debate sobre la personalidad jurídica y la responsabilidad de los robots inteligentes. Especial referencia a la robótica sanitaria.”
  • CISNEROS MURUGARREN AMAIUR, (2021) universidad complutense de Madrid. “robots dotados de inteligencia artificial su posible personalidad jurídica y responsabilidad por daños”.
  • EBERS, MARTÍN humboldt-universität zu berlin “La utilización de agentes electrónicos inteligentes en el tráfico jurídico: ¿Necesitamos reglas especiales en el Derecho de la responsabilidad civil?” Indret: Revista para el Análisis del Derecho, 2016, No 3. www. indret.comPuede verse en: file:///C:/Users/patri/OneDrive/Documentos/CUARTO%20A%C3%91O/TFG/DOC%201.%20IMPORTANTE%20BUENA%20INFO.pdf
  • GARCÍA-PRIETO CUESTA, JUAN (2019), «¿Qué es un robot?», en BARRIO ANDRÉS (director), Derecho de los robots, 2ª edición, Wolster Kluwer 2019.
  • LAMBEA RUEDA, ANA. “Entorno digital, robótica y menores de edad”, Revista de Derecho Civil, nº 4, 2018.
  • RAMÓN FERNÁNDEZ, FRANCISCA. Robótica, inteligencia artificial y seguridad: ¿Cómo encajar la responsabilidad civil? Universitat Politècnica De València. Departamento De Urbanismo, 2019. Disponible en: https://riunet.upv.es/bitstream/handle/10251/117875/Rob%c3%b3tica.pdf?sequence=1&isAllowed=y
  • SÁNCHEZ DEL CAMPO ALEJANDRO, “Cuestiones jurídicas que plantean los robots”, Revista de privacidad y derecho digital, nº2, 2019.
  • SANTOS GONZÁLEZ, MARÍA JOSÉ, “Regulación legal de la robótica y la inteligencia artificial: retos de futuro”, Revista jurídica de la Universidad de León, nº 4, 2017.
  • TOMÁS MARTÍNEZ, GEMA “¿Puede un robot ser responsable por causar daños?: primeras reflexiones ante el nuevo reto europeo de innovación legal”. 2017
  • ZORNOZA SOMOLINOS ALEJANDRO “Breves apuntes a la propuesta de reglamento del parlamento europeo sobre responsabilidad civil en materia de inteligencia artificial”. 2020
  • Comunicación de la comisión al parlamento el parlamento europeo, el consejo, el comité económico y social europeo y al comité de las regiones. Fomentar un enfoque europeo de la Inteligencia Artificial. Bruselas, 21.4.2021.
  • Robot Law. Project title: Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics. Project website address: www.robolaw.eu. D6.2 Guidelines on Regulating Robotics, Delivery date: 22/09/2014. Organization name of lead contractor for this deliverable: SSSA. Puede verse en: http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf
  • Informe sobre inteligencia artificial: cuestiones de interpretación y de aplicación del Derecho internacional en la medida en que la UE se ve afectada en los ámbitos de los usos civil y militar, así como de la autoridad del Estado fuera del ámbito de la justicia penal 2020/2013.
  • ARTICULO: JASON MILLAR, Universidad de Ottawa. IAN R. KERR, Universidad de Ottawa “Delegation, resignation and responsibility: the perspective of expert robots.” Sección de derecho consuetudinario. Publicado: 18 mar 2013. Disponible en: https://static1.squarespace.com/static/56b8dbd62eeb817f29aa3265/t/5cf52260e9949a0001358f5f/1559568992965/Delegation%2C+relinquishment%2C+and+responsibility+%281%29.pdf
  • ARTICULO: “El reconocimiento de una personalidad jurídica electrónica no es adecuada para regular la responsabilidad por daños causados por sistemas inteligentes”. Diariolaley, Wolters Kluwer. CIBERDERECHO, (2019).

3. NORMAS CONSULTADAS.

  • Código Civil (BOE 25 de julio de 1889).
  • Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia de responsabilidad por los daños causados por productos defectuosos (BOE 25 de julio de 1985).
  • Real Decreto Legislativo 1/2007, de 16 de noviembre, por el que se aprueba el texto refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras leyes complementarias (BOE 30 de noviembre de 2007).
  • Régimen de responsabilidad civil en materia de inteligencia artificial. Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL)). Parlamento Europeo 2019-2024. Recuperado de: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_ES.pdf

4. NOTICIAS Y OTROS

  • MALDONADO ORTEGA, PEDRO J. “Robots autónomos inteligentes y derecho civil. Reflexiones al hilo de las recomendaciones del Parlamento Europeo a la Comisión sobre normas de Derecho civil sobre robótica”. (2017)
  • PUYOL JAVIER, “Robots: ¿Hacia un nuevo concepto de “personalidad jurídica”?”, 17 diciembre, 2018. Disponible en: https://confilegal.com/
  • RIUS MAYTE, “¿Urge ya regular los derechos de los robots en Europa? 2018. Disponible en:

https://www.lavanguardia.com/tecnologia/20180417/442631680924/derechos- robots-ue-persona-electronica-ia.html

5. TEXTOS CITADOS DE LA UNIÓN EUROPEA.

    • Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee, the Committee of the Region and the European Investment Bank. Investing in a smart, innovate and sustainable Industry. European Commission, 13 de septiembre (2017). Recuperado de https://ec.europa.eu/transparency/regdoc/rep/1/2017/EN/COM-2017-479- F1-EN-MAIN-PART-1.PDF
    • Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza, Comisión Europea, COM (2020) 65 final, Bruselas, 19 de febrero (2020). https://op.europa.eu/es/publication-detail/-/publication/aace9398-594d-11ea-8b81-01aa75ed71a1
    • Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica. Bruselas, 19.2.2020. https://eurlex.europa.eu/legalcontent/ES/TXT/PDF/?uri=CELEX:52020DC0064&from=ES
    • 27 enero 2017, Informe con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica [A8-0005/2017].
    • 16 febrero 2017, Resolución del Parlamento Europeo de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)).
    • 25 abril 2018, «Inteligencia artificial para Europa», Comunicación de la Comisión al Parlamento Europeo, al Consejo Europe, al Comité Económico y Social Europeo y al Comité de las regiones [COM (2018) 237 final]
    • 12 febrero 2019, Resolución del Parlamento Europeo de 12 de febrero de 2019 sobre «una política industrial global europea en materia de inteligencia artificial y robótica» [P8_TA (2019)0081].
    • 27 noviembre 2019, Informe del Grupo de Expertos en Responsabilidad y Nuevas tecnologías: «Liability for Artificial Intelligence and other emerging digital techonologies».
    • 20 de octubre de 2020, Resolución del Parlamento Europeo con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (2020/2012(INL).

ANEXOS.

  • Artificial Intelligence Index Report 2019, publicado por el Human-Centered Artificial Intelligence Institute de la Universidad de Stanford en el que se presentan los resultados de los avances en materia de investigación sobre inteligencia artificial. El informe es público y puede verse en:

https://hai.stanford.edu/sites/g/files/sbiybj10986/f/ai_index_2019_report.pdf

http://static.lefebvreelderecho.com/elderecho/IMG/1663087153/20220602111608_Grafica.jpg

Crecimiento de los artículos relacionados con inteligencia artificial publicados en todas las publicaciones entre 1998 y 2018.

http://static.lefebvreelderecho.com/elderecho/IMG/1663087153/20220602111659_Grafica%202.jpg

Crecimiento de las publicaciones sobre inteligencia artificial en China (azul), Estados Unidos (gris) y Europa (línea punteada).

http://static.lefebvreelderecho.com/elderecho/IMG/1663087153/20220602111755_Grafica%203.jpg

Crecimiento de la inversión privada en inteligencia artificial.

http://static.lefebvreelderecho.com/elderecho/IMG/1663087153/20220602111919_Grafico%204.jpg

Número de marcos éticos sobre inteligencia artificial producidos entre 2016 y 2019, ordenados por tipos de organización.

http://static.lefebvreelderecho.com/elderecho/IMG/1663087153/20220602111944_Grafica%205.jpg

Principales preocupaciones de los documentos sobre «Principios de la inteligencia artificial».

Notas:

[1] HAMBLING DAVID “Los drones pueden haber atacado a los humanos de forma totalmente autónoma por primera vez”. New Scientist. 27 de mayo de 2021.

[2] LASSE ROUHIAINEN. “inteligencia artificial 101 cosas que debes saber hoy sobre nuestro futuro”. Editorial Planeta, S.A., 2018.

[3] ALBERTO GARCÍA SERRANO. “Inteligencia artificial. Fundamentos, práctica y aplicaciones”. 1º ed. Madrid: RC. Libros. 2012, pág. 1.

[4] La inteligencia artificial (IA) según la RAE.

[5] ALBERTO GARCÍA SERRANO, “Inteligencia Artificial. Fundamentos, práctica y aplicaciones” 2012.

[6] Informe sobre inteligencia artificial: cuestiones de interpretación y de aplicación del Derecho internacional en la medida en que la UE se ve afectada en los ámbitos de los usos civil y militar, así como de la autoridad del Estado fuera del ámbito de la justicia penal 2020/201.

[7] Según el sitio web oficial de Apple, Siri es un asistente inteligente que te ayuda a hacerlo todo más rápido en tus dispositivos Apple. Incluso antes de que se lo pidas.

[8] La Inteligencia Artificial Fuerte designa a un hipotético sistema capaz de emular el total funcionamiento de la mente humana incluyendo no solo la capacidad de resolución de multitud de tareas sino también los sentimientos, la creatividad y la autoconciencia.

[9] Stuart Russell y Peter Norvig, en su libro Inteligencia “Artificial: Un Enfoque Moderno”, diferencian cuatro tipos de inteligencia artificial.

[10] Honeste vivere. Tenemos que conseguir que la tecnología pueda vivir honestamente entre nosotros. La tecnología no puede apropiarse de lo que es nuestro, no puede mancillar nada de la propia honestidad humana. Suum cuique tribuere. La tecnología debe ayudarnos a dar a cada uno lo que le corresponde y debemos dar a la tecnología, y quitárselo también si fuera necesario. Alterum non laedere. La tecnología no puede dañar; no ha de servir para dañar. En Innovación y tecnología, (2020) “¿Cómo debería regularse la relación entre robots y humanos?” podcast, José María Lassalle, director del Foro de Humanismo Tecnológico de Esade, e Iñigo Navarro, decano de la Facultad de Derecho de ICADE.

[11] Prueba de la habilidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano de tal manera que, interactuando con ella en una conversación, una persona pueda determinar si su interlocutor es una máquina o una persona.

[12] “¿Qué es la Inteligencia Artificial y para qué sirve la IA?”. Revista de robots. 2021 https://revistaderobots.com/inteligencia-artificial/que-es-la-inteligencia-artificial/.

[13] Ibidem.

[14] En 2015, la robot Sophia fue hecha ciudadana del Reino de Arabia Saudí. Se trata de la primera robot que adquiere una nacionalidad y con ello, una identidad.

[15] GARCÍA-PRIETO CUESTA, JUAN, “¿Qué es un robot?”, en BARRIO ANDRÉS, Moisés, Derecho de los Robots. Madrid, Wolters Kluwer, 2018.

[16] International Data Corporation, principal proveedor mundial de inteligencia de mercado, servicios de consultoría y eventos para los mercados de tecnología de la información, telecomunicaciones y tecnología de consumo. https://www.idc.com/ en su estudio de 23 de febrero de 2021 sobre “el crecimiento mejorado para el mercado global de IA en 2021”.

[17] Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho Civil sobre robótica. Normas de Derecho civil sobre robótica (2015/2103(INL)). https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.html

[18] Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (2020/2012 (INL).

[19] “El proyecto Robolaw, marzo de 2012, por la Comisión de Asuntos Jurídicos de la Unión Europea, podría decirse que fue el primer antecedente de regulación jurídica de los robots en la Unión Europea al tratar de estudiar y comprender las implicaciones legales y éticas de las tecnologías robóticas emergentes”. JESÚS ESTEBAN CÁRCAR BENITO, “La inteligencia artificial (IA) como aplicación jurídica y razonable: la cuestión sanitaria”.

[20] En 2016, un cuadro de Rembrandt, «El Próximo Rembrandt», fue diseñado por una computadora y creado por una impresora 3D, 351 años después de la muerte del pintor.

[21] Se nos pondría en un nivel de desventaja con respecto a las grandes potencias mundiales como lo son EE.UU. y China los cuales consideran que antes de una regularización restrictiva y castigadora se debe dar pie a normas que apoyen y promuevan la invención de estos sistemas antes que coaccionarlos.

[22] Asimov, I. (1942). Runaround. Astounding Science-Fiction. Estados Unidos. Street & Smith.

[23] ENRIQUE TORRES MARIANO, “Derechos y desafíos de la Inteligencia Artificial” El Ministerio de Comercio, Industria y Energía, mediante un órgano como la Comisión de ética de robots, creada específicamente para el tratamiento de esta temática, elaboró la «Carta de Ética Robótica» o «Robot Ethics Charter». Presentada como borrador en 2007 y concluida en 2012.

[24] Esta legislación también busca contribuir a mejorar la calidad de vida de los ciudadanos y la economía nacional. Estableciendo y promoviendo una política para el desarrollo sostenible de la industria y facilitar el desarrollo y la distribución de robots inteligentes. MARIANO ENRIQUE TORRES, “Derechos y desafíos de la Inteligencia Artificial”.

[25] Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica. Bruselas, 19.2.2020. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52020DC0064&from=ES

[26] Informe de la comisión al parlamento europeo, al consejo y al comité económico y social europeo. “Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica” Bruselas, 19.2.2020. Características de las tecnologías de la IA, el internet de las cosas y la robótica. Pág. 2.

[27] Ídem, Pág., 11.

[28] Ídem, pág., 10.

[29] Ídem, pág. 17

[30] Ídem, pág. 8.

[31] AGUSTÍ CERRILLO I MARTÍNEZ, “El impacto de la inteligencia artificial en el derecho administrativo ¿nuevos conceptos para nuevas realidades técnicas?” 2019.

[32] Informe de la comisión al parlamento europeo, al consejo y al comité económico y social europeo. “Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica” Bruselas, 19.2.2020. Características de las tecnologías de la IA, el internet de las cosas y la robótica. Pág. 10.

[33] MIGUEL ÁNGEL CRIADO, (2016) El País. “Este robot cirujano opera tejidos blandos sin intervención humana. STAR usa visión 3D y un algoritmo de sutura para igualar y hasta superar a los cirujanos humanos”. https://elpais.com/elpais/2016/05/04/ciencia/1462377006_973719.html.

[34] Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103 (INL)).

[35] Inteligencia artificial para Europa (COM/2018/237 final). Bruselas, 25.4.2018.

[36] BARROS GONZÁLEZ LAURA, “El debate sobre la personalidad jurídica y la responsabilidad de los robots inteligentes. Especial referencia a la robótica sanitaria.” (octubre 2019).

[37] Ídem, pág. 20. En la misma línea MARÍA JOSÉ SANTOS GONZÁLEZ (2017) “regulación legal de la robótica y la inteligencia artificial: retos del futuro”. Revista Jurídica de la Universidad de León núm. 4, 2017, pp. 25-50.

[38] Parlamento Europeo. Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014 (INL)). “Régimen de responsabilidad civil en materia de inteligencia artificial” https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_ES.pdf.

[39] El Mundo (19.04.2021) “Dos muertos en un accidente con un auto Tesla «sin conductor» en EE.UU”. Recuperado de https://www.dw.com/es/dos-muertos-en-un-accidente-con-un-auto-tesla-sin-conductor-en-ee-uu/a-57254573

[40] AMAIUR CISNEROS MURUGARREN, (2021) universidad complutense de Madrid. “robots dotados de inteligencia artificial su posible personalidad jurídica y responsabilidad por daños”.

[41] JOAQUÍN ATAZ LÓPEZ. Universidad de Murcia (2020) “Daños causados por las cosas: una nueva visión a raíz de la robótica y de la inteligencia artificial”.

[42] Ídem, pág., 8.

[43] La siguiente clasificación fue realizada por JOAQUÍN ATAZ LÓPEZ, en su texto “daños causados por las cosas: una nueva visión a raíz de la robótica y de la inteligencia artificial”.

[44] Informe de la comisión al parlamento europeo, al consejo y al comité económico y social europeo. Bruselas, 19.2.2020. “Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica”.

[45] JOAQUÍN ATAZ LÓPEZ. “daños causados por las cosas: una nueva visión a raíz de la robótica y de la inteligencia artificial”. Pág., 29. -El Art. 1902, Código Civil establece que el que por acción u omisión causa daño a otro, interviniendo culpa o negligencia, está obligado a reparar el daño causado.-

[46] New Scientist, DAVID HAMBLING. (2021). “Los drones pueden haber atacado a los humanos de forma totalmente autónoma por primera vez” https://www.newscientist.com/article/2278852-drones-may-have-attacked-humans-fully-autonomously-for-the-first-time/#ixzz73hZ8dUEp.

[47] JOAQUÍN ATAZ LÓPEZ. “Daños causados por las cosas, una nueva visión a raíz de la robótica y de la inteligencia artificial”

[48] UNESCO. “Inteligencia artificial: ejemplos de dilemas éticos” www.unesco.org https://es.unesco.org/artificial-intelligence/ethics/cases.

[49] LUIS MARTÍNEZ- CALCERRADA GÓMEZ. (2013) “la responsabilidad civil y el daño moral” Pág., 57.

[50] Documento publicado el pasado 27 de noviembre, de 2019, titulado «Responsabilidad por inteligencia artificial y otras tecnologías digitales emergentes» (Liability for Artificial Intelligence and other emerging digital technologies), elaborado por un grupo de expertos en Responsabilidad y nuevas tecnologías llamado New Technologies Formation. En él se realizan propuestas dirigidas a la regulación del régimen de responsabilidad civil, «sin obstaculizar con ello la innovación».

[51] Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014 (INL)). Considerando (H) Pág. 4.

[52] Clasificación extraída de MARTIN EBERS. (2016) “La utilización de agentes electrónicos inteligentes en el tráfico jurídico: ¿Necesitamos reglas especiales en el Derecho de la responsabilidad civil?”. InDret, revista para el análisis del derecho. www. indret.com.

[53] Ídem, Pág. 6

[54] Ídem, Pág. 7

[55] Ídem, Pág. 7-8

[56] Ídem, pág. 8.

[57] Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)). P8_TA (2017)0051, Parlamento Europeo 2014-2019. https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_ES.html.

[58] Ver la “Opinión sobre una política industrial global europea en materia de inteligencia artificial y robótica” por parte de a MADY DELVAUX en https://www.europarl.europa.eu/doceo/document/JURI-AL-631777_ES.pdf.

[59] Análisis de la propuesta del Parlamento Europeo en materia de robótica. 2017 “Los robots ya están de aquí y han venido para quedarse” https://www.cremadescalvosotelo.com/noticias-legales/analisis-de-la-propuesta-del-parlamento-europeo-en-materia-de-robotica.

[60] Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014 (inl) https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_ES.html.

[61] Introducción (2) de la resolución del Parlamento Europeo, de 20 de octubre de 2020. Pág. 5.

[62] Artículo 3 de la resolución del Parlamento Europeo, de 20 de octubre de 2020 sobre “definiciones”. Pág. 25.

[63] Considerando onceavo (11) del texto de la propuesta de reglamento. resolución del Parlamento Europeo, de 20 de octubre de 2020.

[64] Considerando octavo (8) sobre “Responsabilidad civil e inteligencia artificial” de la resolución del Parlamento Europeo, de 20 de octubre de 2020. Pág., 6.

[65] Código Civil, título II “del nacimiento y de la extinción de la personalidad civil”, Capítulo I “de las personas naturales”, Art. 30 “la personalidad se adquiere en el momento del nacimiento con vida, una vez producido el entero desprendimiento del seno materno”.

[66] AMAIUR CISNEROS MURUGARREN, (2021) “robots dotados de inteligencia artificial su posible personalidad jurídica y responsabilidad por daños”. Pág., 14

[67] Código Civil, Libro II “de los bienes, la propiedad y sus modificaciones”. Título I “de la clasificación de los bienes”, Disposición preliminar, art. 333.

[68] Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica.

[69] LAURA BARROS GONZÁLEZ, (2019). “El debate sobre la personalidad jurídica y la responsabilidad de los robots inteligentes. Especial referencia a la robótica sanitaria” pág., 26.

[70] Ídem, pago 27.

[71] Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, p. 16.

[72] LAURA BARROS GONZÁLEZ, (2019) “El debate sobre la personalidad jurídica y la responsabilidad de los robots inteligentes. Especial referencia a la robótica sanitaria”. En la misma línea: Santos González, María José, ob. cit., p. 44.

[73] Parlamento europeo (2017). Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)).

[74] “Sophia” es un robot humanoide (ginoide) desarrollado por la compañía, con sede en Hong Kong, Hanson Robotics.

[75] Sophia tiene la capacidad de aprender nuevas respuestas, incrementar su bagaje de conocimiento cada vez que interactúa con un ser humano, lo que es ejemplo básico de Inteligencia Artificial y aprendizaje autónomo o machine learning.

[76] LAURA BARROS GONZÁLEZ (2019). “El debate sobre la personalidad jurídica y la responsabilidad de los robots inteligentes. Especial referencia a la robótica sanitaria”.

[77] LAURA BARROS GONZÁLEZ (2019). “El debate sobre la personalidad jurídica y la responsabilidad de los robots inteligentes. Especial referencia a la robótica sanitaria” pág. 12.

[78] Real Decreto Legislativo 1/2007, de 16 de noviembre, por el que se aprueba el texto refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras leyes complementarias. Entrada en vigor: 01/12/2007. Título II “Disposiciones específicas en materia de responsabilidad”, capítulo I “Daños causados por productos”. Artículo 137.

[79] Parlamento Europeo (2020) “informe con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL))” Responsabilidad civil e inteligencia artificial (8).

[80] Ídem, Pág. 8-9.

[81] Ídem, Pág. 8.

[82] Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL)).

[83] ÁLVAREZ OLALLA PILAR. (2021). “Propuesta de reglamento en materia de responsabilidad civil por el uso de inteligencia artificial, del parlamento europeo, de 20 de octubre de 2020”. Revista CESCO de derecho de consumo. Nº 38/2021.

[84] Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial (2020/2014(INL)). Considerando (6) Pág. 16.

[85] Ídem, Pág. 25. En la misma línea, ZORNOZA SOMOLINOS ALEJANDRO (2020) “breves apuntes a la propuesta de reglamento del parlamento europeo sobre responsabilidad civil en materia de inteligencia artificial”

[86] ZORNOZA SOMOLINOS ALEJANDRO (2020) “breves apuntes a la propuesta de reglamento del parlamento europeo sobre responsabilidad civil en materia de inteligencia artificial”. R.E.D.S. núm. 17, Julio-diciembre 2020. ISSN: 2340-4647. Pág., 98.

[87] ÁLVAREZ OLALLA PILAR. (2021). “Propuesta de reglamento en materia de responsabilidad civil por el uso de inteligencia artificial, del parlamento europeo, de 20 de octubre de 2020”. Revista CESCO de derecho de consumo. Nº 38/2021. Pág., 5.

[88] Ídem, Pág. 7-8.

[89] ZORNOZA SOMOLINOS ALEJANDRO 2020. “Breves apuntes a la propuesta de reglamento del parlamento europeo sobre responsabilidad civil en materia de inteligencia artificial”.

[90] ÁLVAREZ OLALLA PILAR. (2021). “Propuesta de reglamento en materia de responsabilidad civil por el uso de inteligencia artificial, del parlamento europeo, de 20 de octubre de 2020”. Revista CESCO de derecho de consumo. Nº 38/2021. Pag, 4.

[91] La base tecnológica de las ciudades inteligentes son las plataformas tecnológicas, conformados por software y hardware que permiten el intercambio de datos e información entre los diferentes sistemas y áreas, y proporciona así un lugar centralizado de control y gestión de la ciudad. https://www.esmartcity.es/ciudades-inteligentes.

[92] Diariolaley, Wolters Kluwer. CIBERDERECHO, (2019). “El reconocimiento de una personalidad jurídica electrónica no es adecuada para regular la responsabilidad por daños causados por sistemas inteligentes”.

[93] Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103 (INL)).

[94] Diariolaley, Wolters Kluwer. CIBERDERECHO (2020) “Estados Unidos presenta diez principios para el desarrollo de la inteligencia artificial” https://diariolaley.laleynext.es/dll/2020/01/22/estados-unidos-presenta-diez-principios-para-el-desarrollo-de-la-inteligencia-artificial:

[95] Para más información, consultar la web oficial de la UE sobre “nuevas normas sobre la inteligencia artificial: preguntas y respuestas” https://ec.europa.eu/commission/presscorner/detail/es/qanda_21_1683.

[96] BARRIO ANDRÉS MOISÉS, (2018). “Robótica, inteligencia artificial y Derecho”.

[97] HUERGO LORA ALEJANDRO. Almacén de Derecho. “El proyecto de Reglamento sobre la Inteligencia Artificial” https://almacendederecho.org/el-proyecto-de-reglamento-sobre-la-inteligencia-artificial.

[98] RUTH SALA, Abogada Penalista – Delitos Informáticos. (2020). “Inteligencia Artificial: el reto de su regulación normativa” http://idpbarcelona.net/inteligencia-artificial-reto-regulacion-normativa/.

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *