近日,美国商务部国家标准与技术研究院 (NIST) 发布了人工智能风险管理框架(AI RMF
1.0),这是一份供设计、开发、部署或使用人工智能系统的组织自愿使用的指导性文件,
用于帮助管理人工智能技术带来的风险。
这份文件是 NIST 按照国会要求,与私营和公共部门密切合作制定的,历时 18 个月,其方
向与《2020 年国家人工智能倡议法案》、国家人工智能建议安全委员会以及《联邦参与开
发技术标准和相关工具计划》所要求的更广泛的人工智能工作相一致。该文件反映了 NIST
从 240 多个不同组织收到的关于框架草案版本的大约 400 项建议。同时,NIST 也发布了一
些已经承诺使用或推广该框架的组织声明。
美国商务部副部长唐格雷夫斯指出:“这个自愿框架将帮助开发和部署人工智能技术,使美
国、其他国家和组织能够提高人工智能的可信度,同时根据美国的民主价值观来管理风险”
“它应该加速人工智能的创新和增长,同时推进,而不是限制或损害公民权利、公民自由和
所有人的公平。”
文件指出:
人工智能(AI)技术具有巨大的潜力,然而,人工智能技术也带来了可能对个人、团体、
组织、社区、社会、环境和地球产生负面影响的风险。与其他类型技术的风险一样,人工
智能风险可以以多种方式出现,并可分为长期或短期、高或低概率、系统性或局部性以及
高或低影响。
尽管有无数标准和最佳实践可以帮助组织减轻传统软件或基于信息的系统的风险,但人工
智能系统带来的风险在许多方面都是独一无二的。例如:
人工智能系统可能会根据数据进行训练,这些数据可能会随着时间的推移而发生变化,有
时会发生显著的意外变化,从而以难以理解的方式影响系统的功能性和可靠性。
人工智能系统及其部署的环境通常很复杂,因此很难在故障发生时检测和响应故障。
人工智能系统本质上是社会技术性的,这意味着它们受到社会动态和人类行为的影响。
人工智能的风险和收益可能来自技术方面与社会因素的相互作用,这些社会因素与系统的
使用方式、与其他人工智能系统的交互作用、操作人员以及系统部署的社会环境有关。
这些风险使人工智能成为一种独特的挑战性技术,无论是在组织还是在社会内部都需要部
署和利用。如果没有适当的控制,人工智能系统会放大、延续或加剧个人和社区的不公平
或不良后果。通过适当的控制,人工智能系统可以减轻和管理不公平的结果。
人工智能风险管理是人工智能系统负责任开发和使用的关键组成部分。负责任的人工智能
实践有助于使有关人工智能系统设计、开发和使用的决策与预期目标和价值相一致。负责
任人工智能的核心概念强调以人为本、社会责任和可持续性。人工智能风险管理可以通过
促使设计、开发和部署人工智能的组织及其内部团队更加批判性地思考环境和潜在或意外
的负面和积极影响,推动负责任的使用和实践。理解和管理人工智能系统的风险将有助于
提高可信度,进而培养公众信任。
根据《2020 年国家人工智能倡议法案》(P.L.116-283)的指示,人工智能 RMF 的目标是
为设计、开发、部署或使用人工智能系统的组织提供资源,以帮助管理人工智能的诸多风