La FOC emite declaración sobre prácticas responsables de los gobiernos para las tecnologías de IA
Los países miembros de esta entidad comparten medidas para enfrentar los riesgos de estos sistemas
Los países miembros de la Coalición para la Libertad en Línea (FOC, por sus siglas en inglés), han emitido una declaración conjunta sobre los sistemas de inteligencia artificial (IA), específicamente, las enormes oportunidades que estas herramientas ofrecen a los gobiernos para optimizar la efectividad de sus labores y fomentar un desarrollo sostenible e inclusivo para todos
Asimismo, también resaltan las amenazas que plantea el uso irresponsable de estos sistemas para la protección, promoción y capacidad de ejercer los derechos humanos y las libertades fundamentales. Estas herramientas pueden contribuir a riesgos relacionados con la seguridad y la privacidad, derechos laborales, acceso equitativo a recursos y servicios y la exposición de datos personales.
Protección básica
Como se articula en la Declaración Conjunta de la FOC de 2020 sobre Inteligencia Artificial y Derechos Humanos, esta organización reafirma que los estados deben cumplir con sus obligaciones para garantizar que los derechos humanos sean plenamente respetados y protegidos.
En el comunicado también se señalan los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos (UNGPs), los cuales establecen que «los Estados deben proteger contra los abusos de los derechos humanos dentro de su territorio y/o jurisdicción por parte de terceros, incluidas las empresas».
La FOC reconoce que las prácticas gubernamentales, incluidas las exigencias de adquisición del gobierno, también pueden dar forma positivamente a las prácticas del sector privado para cumplir con su responsabilidad de respetar los derechos humanos en línea con los UNGPs.
Además, establecen que, con la exploración y adopción sin precedentes de herramientas de IA, el momento para que los gobiernos establezcan prácticas y políticas de IA responsables y respetuosas de los derechos humanos es ahora.
Medidas y prácticas
Para lograr este cometido, la FOC ha compartido una serie de medidas que representan prácticas y principios comunes cuya implementación puede variar entre las naciones dependiendo de los marcos legales y sistemas. Estas medidas son:
- Respetar las obligaciones y compromisos internacionales: diseñar, desarrollar, adquirir, desplegar, usar y desmantelar sistemas de IA de manera consistente con la Declaración Universal de los Derechos Humanos y el derecho internacional, incluida la Carta de la ONU y el derecho internacional de los derechos humanos.
- Evaluar los impactos de los sistemas de IA en contextos de alto riesgo antes del despliegue y uso: identificar, evaluar, gestionar y abordar los riesgos potenciales para los derechos humanos, la equidad, la justicia y la seguridad antes del despliegue y uso de un sistema de IA caso por caso, y abstenerse de desplegar sistemas de IA donde los riesgos sean incompatibles con la protección de los derechos humanos internacionales.
- Monitoreo continuo de los sistemas de IA en contextos de alto impacto durante su uso: identificar, evaluar y mitigar los sistemas de IA que puedan afectar los derechos humanos, la equidad, la justicia o la seguridad mediante un monitoreo continuo para detectar cambios en el impacto de la IA sobre la equidad, justicia, derechos humanos y seguridad.
- Asegurar la formación y evaluación humana adecuada: desarrollar la capacidad del personal relevante para comprender suficientemente las capacidades y limitaciones de los sistemas de IA, incluidos sus posibles impactos en los derechos humanos, mediante una formación adecuada para permitir una evaluación y supervisión apropiadas del sistema de IA.
- Comunicar y responder al público: publicar las políticas disponibles sobre cómo los gobiernos protegerán los derechos humanos en el contexto de sus actividades de IA y establecer procesos de divulgación pública sobre los usos de alto riesgo de los sistemas de IA.
- Proveer acceso efectivo a la reparación: facilitar el acceso a una consideración humana oportuna y una reparación efectiva cuando sea adecuado, cuando los individuos hayan sido negativamente impactados a lo largo de la cadena de valor de los sistemas de IA.
- Adquirir IA segura, protegida y confiable: Integrar estas prácticas en los procesos de adquisición como condiciones necesarias, según corresponda, para que los vendedores externos que diseñen, desarrollen, desplieguen, utilicen o desmantelen sistemas de IA en nombre de nuestros gobiernos cumplan con altos estándares de seguridad, protección y confiabilidad.
Fuente: Diario Libre
Deja tu comentario