Noticias

Opinión.

La máquina que «comete un delito», ¿puede ser penalmente responsable?

La ciencia ficción permite plantear los problemas con los que la humanidad se enfrentará tarde o temprano, como este de los «sintéticos», como ahora se describe a los robots humanoides en series como la recién estrenada «Picard».

5 de febrero de 2020

En una reciente publicación del medio español Confilegal se da a conocer el artículo La máquina que "comete un delito", ¿puede ser penalmente responsable?
Se sostiene que la Inteligencia Artificial (IA) es una realidad desde los años 50 del siglo pasado. Desde entonces ha experimentado una evolución exponencial que ha modificado la manera en la que interactuamos con la tecnología.
Aunque, se aclara, el Comité Económico Europeo define la Inteligencia Artificial como “una disciplina tendente a utilizar las tecnologías digitales para crear sistemas capaces de reproducir de forma autónoma las funciones cognitivas humanas, incluida la captación de datos y formas de comprensión y adaptación”, conviene también ir a los considerados como padres de esta tecnología, John McCarthy y Marvin Minsky.
Ambos la definieron como “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes” y como “la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hicieran las personas”, respectivamente.
En definitiva, se resume, la Inteligencia Artificial es la capacidad en un software de imitar la inteligencia y el razonamiento cognitivo humano. Y aquí es donde empiezan los interrogantes.
La consultora de desarrollo digital española Syntonize admite que, como cualquier tecnología disruptiva, la Inteligencia Artificial entraña riesgos en múltiple áreas (seguridad, control, ética, entre otros).
Según las normas vigentes, las consecuencias de la actuación de un robot o de la IA recaen sobre un agente humano pero no sobre el robot o la IA en sí.
“Sin embargo, ¿qué ocurre si, como está previsto en un futuro cercano, la IA aprende conductas por si sola? o ¿qué pasa si la IA toma decisiones de manera automática o auto-aprendida?”, se pregunta David Gallardo, director de Tecnología (CTO) y de innovación de Syntonize.
“Ante estas cuestiones, es evidente que las normas actuales no son suficientes, por lo que la industria debe abrir el debate para que se pueda legislar en consonancia antes de que sea demasiado tarde”.
Luego,  el texto indica que algunos académicos consideran que para medir la responsabilidad legal de la IA sería necesario, en primer lugar, diferenciarla y aplicarla solamente a las tecnologías de Inteligencia Artificial de cuarta generación, es decir, las que son capaces de razonar, auto-aprender y actuar de manera totalmente autónoma.
De este modo, se afirma, a los robots equipados con este tipo de IA se les podría otorgar una personalidad digital y considerarles personas electrónicas responsables.
“Ahora mismo partimos de la premisa de que la IA no es más que una herramienta creada por el hombre al servicio del hombre y, por tanto, está en la mano del programador realizar una adecuada labor de determinación de los patrones de actuación y limitarlos a los derechos fundamentales y libertades humanas”, continua Gallardo.
Con esta premisa, se puede determinar entonces que los diferentes agentes sobre los que puede recaer la responsabilidad legal de la IA son en la actualidad:

EL FABRICANTE 

Que sería responsable en caso de detrimento de las cualidades de sus productos y por un comportamiento negligente del producto.

EL PROGRAMADOR 

Que será responsable por los daños causados debidos a defectos en el software, fallos o errores.

EL USUARIO 

Que será responsable cuando el producto ofrezca la opción de programación por el usuario final y la cuestión legal o ética sea responsable de la programación final de este.

EL DUEÑO 

Si realiza un mal mantenimiento del producto o un uso inadecuado del mismo.
En un futuro probable, los robots llegarán a adquirir autoconciencia de su relación con el entorno y tomar decisiones autónomamente.
Entonces, deberíamos llegar a plantearnos una reinterpretación de los preceptos del Código Penal.
Se ejemplifica, cuando el doliente de la acción de un robot recayese sobre una persona.
En este caso, no debería permitírsele seguir funcionando: sería necesaria su desactivación o eliminación, por lo que los robots deberían entonces contar con una especie de “kill switch” o botón de la muerte.

 

RELACIONADOS
*Escriben: "Inteligencia Artificial y Derecho. Acerca de lo que hay"…
*Inteligencia Artificial y neuroderechos: la protección de nuestro cerebro podría quedar consagrado en la Constitución…

 

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *