Noticias

imagen: amazonaws.com
Primera normativa de este tipo en el mundo.

Parlamento Europeo y Estados miembros de la UE llegan a un acuerdo para aprobar el texto final de la ley sobre inteligencia artificial.

El acuerdo alcanzado establece regulaciones para mitigar los riesgos asociados con la IA de alto riesgo, al mismo tiempo que fomenta la innovación y el crecimiento empresarial en el continente. El texto final deberá ser aprobado formalmente para convertirse en ley, aunque previamente requerirá el voto de las comisiones de Mercado Interior y Libertades Civiles del Parlamento.

13 de diciembre de 2023

El Parlamento Europeo y el Consejo Europeo, que agrupa a los representantes de los Estados miembros, alcanzaron un consenso político respecto al proyecto de ley que busca asegurar la seguridad, el respeto a los derechos fundamentales y la democracia en el desarrollo y uso de la inteligencia artificial (IA) en Europa.

El acuerdo alcanzado establece regulaciones para mitigar los riesgos asociados con la IA de alto riesgo, al mismo tiempo que fomenta la innovación y el crecimiento empresarial en el continente. El texto final deberá ser aprobado formalmente para convertirse en ley, aunque previamente requerirá el voto de las comisiones de Mercado Interior y Libertades Civiles del Parlamento.

Algunas de las medidas aprobadas son las siguientes:

1- Aplicaciones prohibidas de la IA: se prohíben ciertas aplicaciones de la IA que podrían amenazar los derechos y la democracia, como sistemas biométricos que utilizan características sensibles, extracción no dirigida de imágenes faciales, reconocimiento de emociones en entornos laborales y educativos, puntuación social basada en el comportamiento, manipulación del comportamiento humano, y el uso de IA para explotar las vulnerabilidades de las personas.

2- Exenciones para aplicación de la Ley: se establecen salvaguardias y excepciones para el uso de sistemas de identificación biométrica en espacios públicos con fines policiales, con autorización judicial previa y limitaciones específicas para la búsqueda de personas condenadas o sospechosas de delitos graves.

3- Obligaciones para sistemas de Alto Riesgo: los sistemas de IA clasificados como de alto riesgo estarán sujetos a evaluaciones obligatorias del impacto en los derechos fundamentales, especialmente en sectores como banca y seguros. Se incluye la posibilidad de presentar quejas y recibir explicaciones sobre decisiones basadas en sistemas de IA de alto riesgo.

4- Regulación para Sistemas Generales de IA: los sistemas de inteligencia artificial de propósito general deben cumplir con requisitos de transparencia, documentación técnica y difusión de resúmenes detallados sobre el contenido utilizado para la formación. Para modelos de alto impacto con riesgo sistémico, se imponen obligaciones más estrictas, como la realización de evaluaciones de modelos y la mitigación de riesgos sistémicos.

5- Apoyo a la innovación y las PYME: se promueven entornos de pruebas regulatorios y pruebas en el mundo real establecidos por autoridades nacionales para facilitar el desarrollo y entrenamiento de soluciones de IA innovadoras antes de su comercialización, especialmente para pymes.

6- Sanciones y entrada en Vigor: el incumplimiento de las normas puede resultar en multas significativas, con montos que varían según la gravedad de la infracción y el tamaño de la empresa. Las sanciones van desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios.

 

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *