NIST发布AI风险管理框架,助组织降低技术应用潜在风险

美国国家标准暨技术研究院(NIST)发布第一版人工智能风险管理框架(Artificial Intelligence Risk Management Framework,AI RMF),该框架由美国国会指示NIST制定,目的是要提供设计、开发、部署和使用人工智能系统的指南,降低应用人工智能技术的风险。

NIST提到,和传统软件相比,人工智能存在更多的潜在风险。这是因为人工智能系统使用的训练资料,因时间推移而改变,有时会出现意料之外的变化,所以,NIST认为,在本质上,人工智能系统是一种社会技术(Socio-technical),像是线上聊天机器人或是筛选贷款申请所用的模型,都受到社会动态和人类行为的影响。

这套AI RMF框架由NIST与公部门和企业合作制定,能够适应不断发展的人工智能技术,以及受到组织以不同程度和能力的使用,使得整个社会不仅能从人工智能技术获益,也能免受潜在风险危害。通过该框架的查看,组织能以不同角度思考人工智能的风险,包括促进本身制度文化的变革,更全面地思考、评估和监控人工智能风险,以及积极和消极层面的影响。通过框架其中提供的灵活且结构化评估,组织只要遵循该人工智能风险管理流程,就能发挥人工智能优势,降低对个人、团体、社群,甚至是社会的负面影响。

整体而言,AI RMF分为两部分,首先探讨人工智能的相关风险,以及信赖人工智能系统(trustworthy AI systems)的特征,其次则是描述4大具体功能,分别为治理、映射、测量管理,协助组织实践框架。

关于AI RMF内容的定稿,NIST总共耗费18个月之久,他们从240个组织收到400份针对AI RMF草案的正式评论,并利用这些反馈意见补足与改良AI RMF。在此同时,NIST也发布AI RMF Playbook,从中指导组织使用该框架的方法。后续将与人工智能社群合作并定期更新框架,并成立可靠、负责任人工智能的资源中心(Trustworthy and Responsible AI Resource Center),协助组织实践AI RMF 1.0。