二是信息收集多样 , 侵犯个人隐私 。 随着人脸识别、虹膜识别等应用的普及 , 人工智能正在大规模、不间断地收集、使用敏感个人信息 , 个人隐私泄露风险加大 。
1.5 技术风险
- 不可预测性 。 人工智能算法可能会产生一些意外的结果 。 目前人工智能系统已经出现了很多失败的案例 。
- 大规模破坏 。 如果人工智能系统发规模部署 , 那么系统失败可能会引发明显的风险 。 分析师称人工智能系统识别的方式可能是相同的 , 可能会引发大规模的破坏效应 。
- 不可解释性 。 目前 , 性能最好的人工智能算法都无法解释其工作过程 。
2.风险定义
在人工智能风险管理框架中 ,“风险”表示事件发生的概率和对相应事件后果的综合衡量 , 而不是仅关注负面的影响 。
3.框架制定
信息调查:背景、范围和受众
3.1 “NIST人工智能风险管理框架”制定原则与进程
美国国家标准与技术研究所提出的 “ NIST人工智能风险管理框架” 旨在解决人工智能产品、服务和系统的设计、开发、使用和评估过程中的风险 , 并本着自愿原则进行使用 。
- 2021年7月29日 , 美国国家标准与技术研究所(NIST)就向公众发出了信息调查
- 2021年10月19日-21日举行研讨会 , 对该概念文章草稿进行讨论
本次征求意见主要关注以下问题:
- 概念文章中描述的方法是否与最终的人工智能风险管理框架一致?
- 人工智能风险管理框架的范围和受众是否适当?
- 列出的人工智能风险管理是否适当?
- 当前风险管理架构是否可以让用户合理管理人工智能风险?
- 提出的功能是否可以让用户合理管理人工智能风险?
- 文章中是否有遗漏的问题?
NIST 人工智能风险管理框架是作为映射、评估和管理与人工智能系统相关的风险的蓝图 。 文章的 受众应该尽可能多 , 而无论其对特定类型技术的熟悉程度 。 主要的受众包括:
- 负责设计或开发人工智能系统的人群
- 负责使用或部署人工智能系统的人群
- 负责人工智能系统评估或治理的人群
- 受到人工智能系统产生或放大的风险影响(伤害)的人们 , 这也是本指南制定的主要驱动因素
4.风险管理框架
4.1 框架8大属性
NIST根据信息调查和研讨会的反馈建立了该框架的属性集 , 包括:
(1) 开发 过程与定期更新是由共识驱动、 且开放透明的 。所有利益相关者都应有机会对人工智能风险管理框架开发过程进行贡献和提出建议;
(2)清晰易懂 。 使用简单易懂的语言 , 目的是能够被大众所理解 , 包括企业高管、政府官员、NGO领导人等不是人工智能专家的人 , 此外还要有足够的技术深度来帮助实践人员 。 人工智能风险管理框架应该允许在组织内、与客户、公众就人工智能风险进行沟通;
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
