NIST AI风险管理框架

免费文档

ID:33175

大小:0.02 MB

页数:2页

时间:2023-01-30

金币:0

上传者:战必胜
(NIST) (AI RMF
1.0)这是份供计、、部使用智能统的织自使用的性文
用于帮助管理人工智能技术带来的风险。
这份文件 NIST 按照国会要求,与营和公共部门切合作制定的,历时 18 个月,其
向与《2020 年国家人工智能倡议法案》、国家人工智能建议安全委员会以及《联邦参与开
发技术标准和相关工具计划》所要求的更广泛的人工智能工作相一致。该文件反映了 NIST
240 多个不同组织收到的关于框架草案版本的大 400 建议。同时,NIST 也发布了一
些已经承诺使用或推广该框架的组织声明。
美国商务部副部长唐格雷夫斯指出:“这个自愿框架将帮助开发和部署人工智能技术,使美
国、其他国家和组织能够提高人工智能的可信度,同时根据美国的民主价值观来管理风险”
“它应该加速人工智能的创新和增长,同时推进,而不是限制或损害公民权利、公民自由和
所有人的公平。”
文件指出:
人工智能(AI)技术具有巨大的潜力,然而,人工智能技术也带来了可能对个人、团体
组织、社区、社会、环境和地球产生负面影响的风险。与其他类型技术的风险一样,人工
智能风险可以以多种方式出现,并可分为长期或短期、高或低概率、系统性或局部性以及
高或低影响。
尽管有无数标准和最佳实践可以帮助组织减轻传统软件或基于信息的系统的风险,但人工
智能系统带来的风险在许多方面都是独一无二的。例如:
人工智能系统可能会根据数据进行训练,这些数据可能会随着的推而发生变化,有
时会发生显著意外变化,从而以以理的方式影响系统的能性和可性。
人工智能系统及其部署的环境通常很复杂因此很难故障发生时检测和响应故障
人工智能系统本质上是社会技术性的,这意味着们受到社会动态和人类行为的影响。
人工智能的风险和收可能来自技术方面与社会因素的相作用,这些社会因素与系统的
使用方式、与其他人工智能系统的交互作用、作人员以及系统部署的社会环境有关。
这些风险使人工智能一种挑战性技术,是在组是在社会
署和利用。适当制,人工智能系统会大、延续或加人和社区的不公
或不良后果通过适当制,人工智能系统可以减轻和管理不公平的结果
人工智能风险管人工智能系统负责任开发和使用的关分。人工智
实践有助于使有关人工智能系统设计、开发和使用的决策标和价值相一致。负
工智能念强人为本、社持续性。人工智能风险管理可
使设计、开发和部署人工智能的组织及其部团更加批判性地思考环境和潜在
的负面和积极响,使用和实践。理和管理人工智能系统的风险将有助于
提高可信度,进而培养
据《2020 家人智能法案P.L.116-283的指人工能 RMF
为设计、开发、部署或使用人工智能系统的组织提供资源,以帮助管理人工智能的
资源描述:

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
关闭