Noticias

Opinión.

¿Patente o secreto empresarial?: En busca de la fórmula de proteger las creaciones derivadas de la IA.

Derivado del uso de la tecnología, surge el tema de las responsabilidades civiles que pueden surgir de la utilización de ingeniería artificial.

14 de mayo de 2019

En una reciente publicación del medio español Confilegal se da a conocer el artículo “¿Patente o secreto empresarial?: En busca de la fórmula de proteger las creaciones derivadas de la IA”.
Se sostiene que el uso creciente de la Inteligencia Artificial (IA) en compañías de diagnóstico y tratamiento médico, en decisiones de inversión y finanzas y en vehículos autónomos, entre otros sectores, genera cada vez más debates sobre la protección de los sistemas (máquina o «software») y sus resultados (obras), convirtiéndose la posibilidad de patentarlo, protegerlo o convertirlo en secreto empresarial, son algunas de las peticiones de asesoría que se hacen a los estudios de abogados.
En ese debate sobre qué proteger y cómo hacerlo, se afirma, surgen posibles problemas éticos o morales de convivencia que puede generar el uso de la IA.
A continuación, el texto asegura que la otra cuestión importante es que aún no existe una legislación que ofrezca pautas sobre de qué forma se pudiera proteger la propia inteligencia artificial y sus desarrollos de forma adecuada.
Por ese motivo, se ejemplifica, el estudio internacional de abogados Bird & Bird, celebró, hace unos días, el evento “Inteligencia Artificial: Propiedad intelectual y cuestiones de responsabilidad”, en el que participaron juristas como  Raúl Bercovitz y María Fernández, «Of Counsel» y «Associate» (consejero asociado y asociado) respectivamente, de su Departamento de Propiedad Intelectual e Industrial, y Pablo Berenguer, «Counsel» (consejero) y codirector del Departamento de Derecho Comercial y Tecnologías de las Información.
En sus intervenciones, se expone,  trataron de aclarar algunos aspectos del complejo sistema regulatorio desde el punto de vista de la protección de los sistemas de inteligencia artificial y sus resultados, además de las responsabilidades generadas por el funcionamiento de los sistemas de IA.
Unas prácticas que generan dudas por la falta de una normativa clara al respecto.
Luego se comenta que estos juristas coincidieron en señalar en que los sistemas basados en Inteligencia Artificial traen aparejados sorprendentes avances tecnológicos que implican nuevas responsabilidades y que van a suponer, a día de hoy, enormes desafíos tanto para los individuos, como para las empresas y la sociedad.
Se ejemplifica que uno de esos desafíos es la protección de la tecnología, temática que María Fernández abordó explicando las maneras en las que puede realizarse: a través de patentes, si cuentan con un efecto técnico o con sistemas de protección de «software» puro, sin efecto técnico, con depósito de Propiedad Intelectual.
“Hay muchas patentes que protegen tecnología de Inteligencia Artificial en el campo de la medicina”, aseguró.
Para Fernández,“las máquinas, en este ámbito, pueden por ejemplo reconocer imágenes de diagnóstico médico mejor que un cerebro humano. Mientras que nuestra capacidad de computación es limitada, una máquina, con un volumen de datos adecuado, puede reconocer mucho más”.
Además, señaló que “según las directrices de la EPO [Oficina Europea de Patentes] la Inteligencia Artificial se asimila a las invenciones implementadas en ordenador y aunque los algoritmos como tal, no se pueden proteger, sí se integran en un sistema que tenga una aplicación práctica, un uso de medios técnicos o dispositivos, sí se puede proteger”.
En este sentido, se aclara, la Ley de Secretos Empresariales, aprobada en febrero de 2019, entra en acción ya que, según Fernández,“si la tecnología no reúne los requisitos para formar parte de una patente o es complicado que un tercero la conozca o replique mediante ingeniería inversa, puede mantenerse como secreto”, indicó

¿Qué puede protegerse?

Sin embargo, el texto asegura, que no todo es susceptible de ser protegido y por ello Raúl Bercovitz analizó el contenido de los sistemas que podrían protegerse, destacando su uso creciente en informes cortos, tales como informes de bolsa, meteorológicos, noticias sobre resultados deportivos, etc.
“Son informaciones muy concretas y se pueden usar sistemas de IA con resultados muy eficientes”, aseguró
Bercovitz, no obstante, planteó el debate sobre si se pueden proteger estos sistemas con la legislación actual o la futura.
Desde su punto de vista, “la legislación no es muy clara sobre si debe haber una creación humana para permitir una protección legal. Mientras que la Ley de Patentes o de Diseño Industrial, o el modelo comunitario, no dicen nada sobre este aspecto, la Ley de Propiedad Intelectual simplemente habla de autor, sin especificar más”.
Enseguida se advierte que derivado del uso de la tecnología, surge el tema de las responsabilidades civiles que pueden surgir de la utilización de ingeniería artificial.
Se trata de un campo muy amplio en el que diferentes expertos y reguladores, tanto a nivel nacional como europeo están comentando y tratando ya que no hay una línea clara de respuesta.
Esa responsabilidad civil debería poder regular situaciones en las que determinadas herramientas como son los vehículos autónomos, ya en pruebas en algunos países estos artefactos que no llevan conductor, pudiera definirse quién realmente es responsable del siniestro que se produzca en el caso de accidente.
Según Pablo Berenguer, la legislación actual no se ajusta bien a las características propias de la IA y explica que “no se ajusta bien por la naturaleza y el carácter autónomo de la máquina. Si la máquina tiene capacidad de autoaprendizaje y a su vez eso provoca que las decisiones no sean previsibles, eso no encaja ni con las normas de culpa ni con las normas de productos defectuosos”.
Así, Berenguer explicó  que en un nuevo régimen de responsabilidad civil se necesita una armonización a nivel europeo, basado en principios éticos europeos.
“La Unión Europea debe ser capaz de ofrecer una legislación centrada en la dignidad de toda persona, que además suponga una ventaja competitiva y no un freno a la innovación y el desarrollo”, aseguró.
A su juicio, «la UE tiene el reto de entender a los países que llevan la delantera y ser capaz de darles respuesta”.
En definitiva, “la responsabilidad tiene que tender a ser objetiva y por riesgo, sin culpa y buscándose una protección de los perjudicados”, concluyó.

RELACIONADOS
*Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno, según el abogado Jorge Morell, especialista en derecho de Internet…
*CC de Colombia apuesta a seleccionar tutelas con inteligencia artificial…
 

 

 

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *