Noticias

Imagen: Pixabay
Opinión.

Por primera vez, la ONU adopta resolución para regular la inteligencia artificial, por Luis Eliud Tapia Olivares.

La intención de la Asamblea General de las Naciones Unidas es prevenir que los derechos humanos sean vulnerados por cuenta de la inteligencia artificial y asegurar que solo se use para beneficiar a las personas.

1 de septiembre de 2024

En una reciente publicación de agendaderecho.com se da a conocer el artículo Por primera vez, la ONU adopta resolución para regular la inteligencia artificial, por Luis Eliud Tapia Olivares (*).

El 21 de marzo de 2024 la Asamblea General de las Naciones Unidas adoptó por aclamación una resolución histórica sobre la promoción de sistemas de inteligencia artificial seguros, protegidos y fiables. Esta resolución marca un antes y después en la regulación global de la inteligencia artificial (IA). A continuación, se presenta un análisis de la resolución que destaca la necesidad de regular la IA para, por un lado, prevenir violaciones a derechos humanos como la discriminación y afectaciones a la privacidad y al debido proceso y, por otro, asegurar que esta tecnología se utilice en beneficio de las personas.

La resolución en contexto

La inteligencia artificial es parte de la conversación pública. Prácticamente ninguna área le es ajena. Por ejemplo, el ejercicio del derecho está siendo influenciado por los sistemas basados en IA. Es común encontrar ejemplos del uso ChatGPT en la función judicial. Algunos poderes judiciales empiezan a incorporar la IA a su práctica cotidiana como sucede con Prometea en Argentina y PretorIA en Colombia. Por ello, hay diferentes esfuerzos para reglamentar el uso de la IA por actores públicos y privados. El documento vinculante más importante al respecto es la Ley de la Inteligencia Artificial de la Unión Europea (Ley de IA). La prioridad de la Ley de IA es garantizar que los sistemas de IA sean seguros, transparentes, trazables, no discriminatorios y que respeten el medio ambiente. Además, deben ser supervisados por personas. Un aporte central de la legislación europea es establecer diferentes niveles de riesgo de los sistemas de IA. En el nivel más alto de riesgo (riesgo inaceptable) se colocan los sistemas de puntuación social y el reconocimiento facial en tiempo real y a distancia.

En ese ambiente surgió la resolución de la ONU que reconoce el rápido avance de la IA y su impacto potencial en la aceleración de los Objetivos de Desarrollo Sostenible (ODS). Al mismo tiempo, resalta los riesgos asociados con su uso incorrecto o malicioso, que podrían dificultar estos avances y perpetuar desigualdades, sesgos estructurales y discriminación. El organismo internacional  enfatiza la necesidad de un consenso global sobre sistemas de IA seguros, protegidos y fiables, promoviendo la cooperación internacional inclusiva y la creación de marcos normativos globales.

La necesidad de regular la IA con una aproximación equilibrada

Como cualquier tecnología, la IA presenta oportunidades y riesgos. Por ello, la resolución de la ONU aboga por marcos regulatorios y de gobernanza nacionales que promuevan la innovación y la inversión responsable en sistemas de IA seguros, protegidos y fiables. Esta regulación, de acuerdo con lo señalado por la ONU, debe incluir, entre otros elementos, la promoción de una mayor comprensión en la opinión pública respecto al funcionamiento de la IA; mecanismos de protección de la privacidad y de los datos personales; salvaguardias para proteger la seguridad de los sistemas de IA; evaluaciones de riesgo y de impacto; mecanismos de retroalimentación, medidas para identificar y corregir vulnerabilidades y resultados sesgados o discriminatorios así como la aplicación de salvaguardias para respetar la propiedad intelectual incluyendo los derechos de autor.

Al respecto, la resolución alienta a los Estados miembros a “lograr un equilibrio y abordar los posibles beneficios y los riesgos relacionados con el papel de los sistemas de inteligencia artificial”.

Un enfoque de derechos humanos y de prevención de la discriminación

Desde una perspectiva de derechos humanos, la resolución subraya que los sistemas de IA deben estar centrados en las personas, ser éticos e inclusivos, y respetar plenamente la promoción y protección de los derechos humanos y el derecho internacional. Reconoce que un uso inapropiado de la IA puede socavar los derechos humanos, reforzar sesgos estructurales y aumentar la discriminación. Por lo tanto, insta a los Estados Miembros a abstenerse de utilizar sistemas de IA que no puedan operar de acuerdo con el derecho internacional o que representen riesgos indebidos para los derechos humanos.

Uno de los riesgos más destacados de la IA es su potencial para perpetuar y amplificar la discriminación. La resolución insta a los Estados Miembros y a otras partes interesadas a desarrollar marcos normativos que incluyan salvaguardias contra la discriminación y el sesgo de los algoritmos. Esto implica analizar y mitigar el sesgo contenido en los conjuntos de datos y luchar contra la discriminación en los algoritmos. Además, alienta la promoción de la diversidad lingüística y cultural en los datos utilizados para entrenar los sistemas de IA.

La resolución destaca la importancia de cerrar la brecha digital entre los países y dentro de ellos. Además, insta a los Estados miembros a cooperar con los países en desarrollo para asegurar un acceso inclusivo y equitativo a los beneficios de la transformación digital y de los sistemas de IA. Esto incluye mejorar la conectividad de la infraestructura digital y promover la alfabetización digital.

Brecha digital de género y supervisión humana de la IA

La resolución reconoce que existe una brecha digital de género por lo que llama a los Estados miembros a adoptar medidas específicas para cerrar la brecha digital de género. Asimismo, llama a “incorporar una perspectiva que tenga en cuenta las cuestiones de discapacidad, género e igualdad racial en las decisiones políticas y los marcos que las orienten” cuando se emplean los sistemas de inteligencia artificial.

Además, los insta a promover la supervisión humana del funcionamiento de los sistemas basados en IA mediante el examen de las decisiones automatizadas. Incluso, promueve que existan medios de reparación y de rendición de cuentas para quienes sean afectados por decisiones automáticas.

Finalmente, alienta a que los Estados desarrollen herramientas como las marcas de agua o el etiquetado que permita a los usuarios distinguir el origen del contenido digital auténtico del contenido generado por inteligencia artificial o manipulado.

Conclusiones

La adopción de esta resolución representa un paso significativo hacia la promoción de sistemas de IA que sean seguros, protegidos y fiables. Al poner un fuerte énfasis en los derechos humanos y el desarrollo sostenible, la resolución busca equilibrar los beneficios potenciales de la IA con los riesgos asociados, promoviendo una innovación responsable y asegurando que nadie quede atrás en la era digital.

La resolución llega en un momento crucial dado el creciente uso de la inteligencia artificial en el mundo y especialmente en las Américas. Por ejemplo, en países como BrasilMéxico y Colombia ha proliferado el uso de sistemas de reconocimiento facial que incorporan inteligencia artificial. En algunos países como Uruguay y Chile se han hecho ensayos con sistemas que protegen predecir delitos. Dada la posible afectación a derechos como la libertad, la privacidad, la igualdad y no discriminación y el debido proceso al usar dichos sistemas, resulta fundamental regular el uso de la IA bajo un enfoque de derechos humanos. Esta resolución es un paso en el sentido correcto.

 

(*) Abogado y profesor mexicano. Es maestro en Derecho Internacional de los Derechos Humanos y Derecho Internacional Humanitario por la American University Washington College of Law.

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *