NIST. «NIST Risk Management Framework Aims to Improve Trustworthiness of Artificial Intelligence,» January 26, 2023, https://www.nist.gov/news-events/news/2023/01/nist-risk-management-framework-aims-improve-trustworthiness-artificial
En enero de 2023, el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST, por sus siglas en inglés), una entidad reconocida por establecer estándares y métricas en diversas áreas tecnológicas ha lanzado un innovador Marco de Gestión de Riesgos de Inteligencia Artificial (AI RMF 1.0). Este marco busca ayudar a las organizaciones a gestionar eficazmente los riesgos asociados con las tecnologías de IA, garantizando así que los sistemas de IA sean diseñados, desarrollados, implementados y utilizados de una manera más segura y confiable.
Ideas clave:
- El AI RMF 1.0 fue desarrollado en estrecha colaboración con expertos de los sectores público y privado, reflejando una visión integral sobre la IA.
- La IA presenta riesgos únicos por su capacidad de aprender y adaptarse a partir de datos que pueden cambiar en el tiempo. Además, la IA es influenciada por dinámicas sociales y comportamientos humanos.
- El AI RMF proporciona un proceso estructurado y medible que permite a las organizaciones maximizar los beneficios de la IA mientras minimizan sus impactos negativos.
- El AI RMF se divide en dos partes: la primera aborda cómo las organizaciones pueden enmarcar los riesgos de la IA y la segunda describe funciones específicas para abordar estos riesgos en la práctica.
El NIST es una agencia del Departamento de Comercio de los Estados Unidos. El NIST desarrolla estándares, guías y mejores prácticas para una amplia gama de sectores, incluidas la tecnología y seguridad, la ciberseguridad, la industria y la salud.
Próximamente, Morales & Co. Publicará una serie de artículos presentando el Marco de Gestión de Riesgos de Inteligencia Artificial (AI RMF 1.0) del NIST.