El Instituto Nacional de Estándares y Tecnología (NIST), una agencia del gobierno de los Estados Unidos, ha lanzado su Marco de Gestión de Riesgos de Inteligencia Artificial (AI RMF 1.0), un documento de orientación para el uso voluntario por parte de las organizaciones que diseñan, desarrollan, implementan o utilizan sistemas de IA. Este marco busca promover que la sociedad pueda beneficiarse de las tecnologías de IA mientras también esté protegida de sus posibles daños. Con un enfoque en la confianza y la equidad, el marco promueve un cambio en la cultura institucional, alentando a las organizaciones a abordar la IA con una nueva perspectiva. Además, proporciona un proceso flexible, estructurado y medible para abordar los riesgos de la IA, maximizando los beneficios mientras reduce los impactos negativos.
Ideas clave:
- El NIST lanza el Marco de Gestión de Riesgos de Inteligencia Artificial (AI Risk Management Framework).
- El AI RMF se desarrolló en colaboración con los sectores público y privado.
- Su objetivo es acelerar la innovación y el crecimiento en IA, promoviendo los derechos civiles y la equidad.
- Describe cuatro funciones para gestionar los riesgos de los sistemas de IA: gobernar, mapear, medir y gestionar,
- El NIST también desarrolló el AI RMF Playbook, una guía sobre cómo utilizar el marco.
Fuente: National Institute of Standards and Technology. 23 de enero de 2023. NIST Risk Management Framework Aims to Improve Trustworthiness of Artificial Intelligence. https://www.nist.gov/news-events/news/2023/01/nist-risk-management-framework-aims-improve-trustworthiness-artificial