13.9 C
Santiago
miércoles 14 de mayo de 2025
En reciente informe.

Human Rights Watch insta a regular jurídicamente la prohibición de “máquinas asesinas” con inteligencia artificial.

El informe también aborda el problema de la opacidad en los procesos de toma de decisiones de los sistemas de inteligencia artificial aplicados al uso de la fuerza. Este fenómeno, conocido como el "problema de la caja negra", dificulta la trazabilidad y comprensión del razonamiento interno de los sistemas automatizados, lo que plantea desafíos en términos de transparencia, rendición de cuentas y garantías procesales.

La ONG Human Rights Watch (HRW) emitió un informe técnico con ocasión de la convocatoria a la primera reunión de la Asamblea General de las Naciones Unidas, prevista para mayo de 2025 en Nueva York, relativa al debate internacional sobre el desarrollo y uso de sistemas de armas autónomas. En dicho documento, HRW insta a la comunidad internacional a iniciar negociaciones para la adopción de un instrumento internacional jurídicamente vinculante que establezca prohibiciones y regulaciones específicas aplicables a los sistemas de armas autónomas.

El informe identifica diversas implicaciones legales derivadas del uso de armamento autónomo, prestando especial atención a su interacción con el derecho internacional de los derechos humanos. En particular, se examina el impacto potencial sobre el derecho a la vida, que, conforme a los tratados internacionales vigentes, está protegido frente a privaciones arbitrarias. En este contexto, se plantea que los sistemas de armas autónomas podrían carecer de los elementos de juicio necesarios para aplicar adecuadamente los principios de necesidad, proporcionalidad y subsidiariedad en el uso de la fuerza letal.

Asimismo, se incluye una evaluación de las posibles interferencias con el ejercicio del derecho de reunión pacífica. HRW señala la posibilidad de que estos sistemas presenten limitaciones tecnológicas para distinguir entre conductas violentas y no violentas en contextos de manifestación pública, lo que podría derivar en restricciones indebidas de dicho derecho.

Otro aspecto destacado en el informe es el riesgo de afectación al principio de no discriminación. Se indica que los algoritmos que gobiernan el funcionamiento de estas armas podrían incorporar sesgos en los datos de entrenamiento, lo cual generaría un impacto desigual sobre determinados colectivos, especialmente aquellos históricamente marginados.

El informe también aborda el problema de la opacidad en los procesos de toma de decisiones de los sistemas de inteligencia artificial aplicados al uso de la fuerza. Este fenómeno, conocido como el «problema de la caja negra», dificulta la trazabilidad y comprensión del razonamiento interno de los sistemas automatizados, lo que plantea desafíos en términos de transparencia, rendición de cuentas y garantías procesales.

La regulación jurídica de los sistemas de armas autónomas ha sido objeto de atención reiterada por parte de órganos y expertos de las Naciones Unidas. Durante el presente mes, diversos actores de la ONU han emitido declaraciones en las que se reitera la necesidad de establecer marcos normativos que aseguren la compatibilidad del desarrollo tecnológico con las normas internacionales en materia de derechos humanos.

“Los sistemas de armas autónomas presentan numerosos riesgos para la humanidad, la mayoría de los cuales vulneran obligaciones y principios fundamentales del derecho internacional de los derechos humanos. Dichos sistemas seleccionan y atacan objetivos basándose en el procesamiento de sensores, en lugar de en la intervención humana. Las amenazas que plantean son de gran alcance debido a su uso previsto en operaciones de aplicación de la ley, así como durante conflictos armados. Dado que el derecho internacional de los derechos humanos se aplica tanto en tiempos de paz como de guerra, abarca todas las circunstancias relevantes para el uso y desarrollo de sistemas de armas autónomas”, señala el informe publicado.

Vea texto del informe.

Te puede Interesar

Destacamos

Últimas noticias

Lo más leido

[noticias_mas_vistas_5dias]

Videos