访问权限管理不足;
数据管理不足;
缺乏对机器学习应用可能暴露的攻击的考虑;
使用不受控的数据;
使用不安全的数据或模型;
缺乏对投毒的控制;
在训练数据集中缺乏对投毒样本的检测;
机器学习模型组件的访问保护机制不足 。
模型或数据泄露对应的安全漏洞有:
访问权限控制不足;
存在未定义的泄露场景;
机器学习模型组件访问保护机制不足;
缺乏维护机器学习应用组件高安全等级的安全过程;
测试环境中敏感数据未保护 。
针对机器学习应用组件的攻击对应的安全漏洞有:
访问权限管理不足;
暴露过多模型信息;
由于项目中未融合安全导致机器学习应用中存在安全漏洞;
输出中暴露过多模型信息;
存在未定义的攻击场景;
缺乏网络安全意识的不安全实践;
缺乏维护机器学习应用组件高安全等级的安全过程;
由于机器学习应用未遵循安全策略导致的安全漏洞;
存在低安全等级第三方的合约 。
机器学习应用的失效或功能错误对应的安全漏洞有:
机器学习模型或数据应用中存在偏见;
存在未定义的失效场景;
决策缺乏可解释性或可追溯性;
缺乏维护机器学习应用组件高安全等级的安全过程;
由于机器学习应用未遵循安全策略导致的安全漏洞;
存在低安全等级第三方的合约 。
4.安全措施
4.1 组织层面
- 应用基于角色的访问控制模型 , 使用最小权限模型;
- 在人工智能项目中应用文档设计;
- 评估机器学习应用需要合规的法律、法规等;
- 确保机器学习应用的数据安全合规要求;
- 确保机器学习应用在身份管理、认证和访问控制策略方面的合规;
- 确保机器学习应用融入到安全操作过程中;
- 确保机器学习应用遵从安全策略;
- 将机器学习应用包含在安全应急响应过程的检测和响应中;
- 将资产管理过程包含在机器学习应用中;
- 将机器学习应用融合在整个网络安全弹性战略中;
- 将机器学习特性融入到现有的安全策略中 。
- 评估使用的模型的暴露等级;
- 检查使用的组件的安全性 , 确保不同的组件有适当的安全等级;
- 对机器学习应用进行风险分析;
- 控制机器学习模型使用的所有数据;
- 部署测试环境时确保有适当的保护;
- 确保机器学习应用遵循第三方的安全需求;
- 确保机器学习项目在将安全融合在项目中时遵循全局过程 。
- 在训练数据集中增加对抗样本;
- 在输入中应用修改;
- 构造可解释的模型;
- 选择和定义更加弹性的模型设计;
- 扩大训练数据集;
- 确保模型是没有偏见的;
- 确保模型遵循一定程度的差分隐私;
- 确保模型对应用的环境有充分的弹性;
- 实现过程来维护机器学习组件的安全等级;
- 实现工具来检测数据点是否是对抗样本;
- 将机器学习特性融合到感知战略中 , 确保所有的机器学习利益相关者能被接收到;
- 在模型评估过程之后加入投毒控制;
- 减少关于模型的信息暴露;
- 减少模型的给定信息;
- 使用联邦学习来最小化数据泄露的风险;
- 【【智库声音】《安全机器学习算法报告》提出将机器学习特性融入网络安全弹性战略与政策!】
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
