18.5 C
Santiago
domingo 20 de abril de 2025
Opinión.

Dos problemas actuales (y futuros) de IA y Derecho de Sociedades, por Felipe Castro.

En el plano empresarial, la IA no solamente se presenta como una mera herramienta tecnológica de asistencia, sino que, según desde donde se mire, puede representar tanto una revolución como una amenaza para la forma en que las empresas operan, toman decisiones y se gobiernan.

En la actualidad, la Inteligencia Artificial (IA) se ha convertido en el mainstream para los investigadores en prácticamente todas las áreas del conocimiento humano, no siendo el Derecho una excepción como bien saben quiénes se dedican a la academia.

Desde la creación de marcos normativos específicos para regular su uso hasta las preocupaciones sectoriales sobre su impacto en distintos ámbitos jurídicos, son muchos los polos de discusión que han surgido en torno a su implementación.

En el caso del Derecho de Sociedades, este último aspecto plantea una problemática relevante, ya que no sólo involucra asuntos eminentemente legales derivados de la masificación de la IA, sino también cuestiones propias de la gestión societaria.

En el plano empresarial, la IA no solamente se presenta como una mera herramienta tecnológica de asistencia, sino que, según desde donde se mire, puede representar tanto una revolución como una amenaza para la forma en que las empresas operan, toman decisiones y se gobiernan. Al mismo tiempo, su incorporación plantea interrogantes jurídicas significativas: ¿hasta dónde llega la responsabilidad de una máquina que decide por sí misma? ¿Y qué pensar de una IA que reclama un asiento en la mesa como socio o administrador? Estos dilemas se presentan como dos problemas en la relación IA-Derecho de Sociedades.

Para nadie es novedad que en pleno 2025 muchas empresas, especialmente las de gran escala, recurren a algoritmos avanzados para optimizar procesos como la contabilidad, el análisis de riesgos o la planificación estratégica. Estos sistemas tienen la ventaja de que no únicamente superan la precisión humana al detectar potenciales irregularidades financieras y prever tendencias de mercado, sino que lo hacen a una velocidad inigualable. Pero esta eficiencia tiene aparejada una disyuntiva.

Pregúntese el lector que, cuando una IA toma una decisión errónea (por ejemplo, una inversión fallida), ¿a quién se responsabiliza? ¿Al programador que diseñó el algoritmo, al proveedor del software o a los administradores que lo implementaron? En España, por ejemplo, el artículo 225 de la Ley de Sociedades de Capital exige a los administradores sociales actuar con diligencia, misma que en Chile reclama tener el artículo 41 de la Ley de Sociedades Anónimas, pero la autonomía de la IA complica esta ecuación legal al entorpecer la cadena de imputación, difuminando las líneas entre la acción humana y la de un autómata.

Vinculado con lo anterior, un desafío más radical es la posibilidad de que en el ámbito societario la IA asuma roles que históricamente han sido reservados a personas físicas (naturales, en el Derecho chileno) o jurídicas. Probablemente la noticia de que en 2017 Arabia Saudita otorgó ciudadanía a un robot humanoide llamado Sophia sea popular para muchas personas interesadas en la IA, pero menos conocido es el caso de Deep Knowledge Ventures, empresa con sede en Hong Kong, que en 2014 había asignado a un robot IA (VITAL) en la administración como sexto miembro de su consejo/directorio. Este acto pionero se replicó en 2024, cuando la Compañía de Holding Internacional de Abu Dahabi anunció que la inclusión de un miembro de IA (Aiden Insight), desarrollado por IA emiratí G42 y Microsoft, en su administración societaria.

La profesora Alissa Kole (2024) explica que designar IA’s como miembros de la administración en la sociedad tiene el potencial de impulsar a los consejos/directorios, «especialmente de las empresas que operan en entornos regulatorios complejos o que ejecutan estrategias de inversión diversificada». No obstante, este paso se ve perturbado por las rígidas estructuras legales actuales en la materia. La capacidad necesaria para considerarse miembro de un órgano de administración está reservada para los seres humanos, siendo en algunas legislaciones que se extiende a las personas jurídicas. VITAL, por ejemplo, no estaba permitida por la Ley de Sociedades de Hong Kong, pero a pesar de ello, y debido a su capacidad para procesar grandes cantidades de datos, se le dio un rol crucial. En este sentido, la autonomía de la IA plantea la necesidad de considerar si merece o no un estatus jurídico propio que le permita ser parte como tal en el gobierno de una sociedad o si debe ser tratada como una simple herramienta bajo el control humano1. De la respuesta a esta inquietud derivaría lo relativo a la responsabilidad y otros aspectos importantes de la disciplina.

En este contexto, «hasta ahora, los reguladores internacionales como la OCDE y la Unión Europea (UE) han analizado la IA desde la protección del consumidor, la fiabilidad y los prismas de colaboración transfronteriza» (Kole, 2024). Ello es útil y suficiente si es que se considera a la IA como una herramienta al servicio de personas físicas o naturales en la toma de decisiones corporativas, pero tomando en consideración el caso de VITAL y actualmente el de Aiden Insight, este enfoque no es particularmente adecuado para situaciones en que la IA está impulsando el proceso de gobernanza (Kole, 2024). Las sociedades son una creación del Derecho, por lo que a este respecto las respuestas a los desafíos que imponen las nuevas tecnologías pueden encontrarse en el mismo Derecho de Sociedades, trascendiendo la esfera de consideraciones éticas en sólo su uso.

El Derecho de Sociedades no tiene otra opción: debe evolucionar para integrar la IA sin sacrificar sus propios principios. Una idea que vale la pena explorar es la de un régimen de responsabilidad compartida entre los desarrolladores de los algoritmos y la administración, creándose una especie de responsabilidad objetiva. Asimismo, las juntas de accionistas podrían solicitar informes periódicos sobre el uso de IA, asegurando la transparencia mediante la rendición de cuentas. En el caso de sociedades cotizadas, el regulador debiese exigir estos mismos informes y otorgar directrices para el uso o adopción de IA en los procesos de gobierno corporativo.

He aquí que esto no solamente implica un desafío para el legislador. Nada será suficiente sin una apuesta clara por la formación de futuros profesionales en las facultades de Derecho, Economía y Empresa, pues solamente así se evitará que el Derecho de Sociedades quede rezagado ante la nueva revolución tecnológica.

1 Sobre este punto, es recomendable revisar la discusión sobre «personalidad electrónica» propuesta por la UE en 2017 y después rechazada por problemas conceptuales y prácticos.

 

Felipe Castro es abogado, doctorando en Derecho de la Universidad Autónoma de Madrid. Máster en Análisis Económico del Derecho por la Universidad Complutense de Madrid. Licenciado en Ciencias Jurídicas por la Universidad Finis Terrae. Es profesor de la línea de Derecho Comercial.

Te puede Interesar

Destacamos

Últimas noticias

Lo más leido

Videos