深度合成视频“真假难辨”,我们该如何应对人工智能的技术威胁?( 三 )


我国也在积极探寻有效的治理机制 。 2019年11月起先后出台的《网络音视频信息服务管理规定》《网络信息内容生态治理规定》《中华人民共和国民法典》《互联网信息服务算法推荐管理规定》 , 均对生成合成类内容等提出了不同程度的监管要求 。 今年1月 , 国家网信办公布了《互联网信息服务深度合成管理规定(征求意见稿)》 , 对深度合成内容的用途、标记、使用范围以及滥用处罚作出了具体规定 。
对于深度合成内容治理路径的探索 , 陈昌凤表示可以从技术、伦理与法制等几个方面努力 。“技术方面 , 通过政府与社会组织参与、协同治理; 伦理方面 , 确立和倡导相关的深度合成原则” 。
中国社科院哲学所科技哲学研究室主任段伟文建议 , 对深度合成技术引发的社会、法律和伦理问题 , 应展开有系统性、前瞻性的跨学科研究 , 对其可能出现的高风险应用场景 , 进行有针对性的治理与监管 。
中科院自动化所研究员、联合国教科文组织AI伦理特设专家组专家曾毅则倡导产研发展自律自治 , 他表示 , 在法律法规不完全成熟及体系化之前 , 产业界自身应强化“理论先行”意识 , 作为产业共同体共同防范滥用、严禁恶用 。
“社会层面应加大宣传普及力度 , 强化公民对深度合成等人工智能技术的认识 , 提高全社会的防范意识 , 推动公民作为负责任的深度合成技术的使用者 , 主动标识合成内容并积极践行社会监督 , ”对外经济贸易大学法学院副教授许可表示 。
对此 , 田天也表示 , 深度伪造的本质问题是透明度不足 , 因此提高公众对深度合成技术的认知尤为重要 , 只有将门槛降低到所有受众能够在共同的框架下去认识、讨论、理解这个问题的时候 , 深度合成技术才能健康良性发展 。
《报告》也建议 , 各方应当与时俱进落实好新的规范要求 , 并在此前提下不断追求技术突破 , 不断开拓深度合成技术应用场景 , 创立示范标杆 , 形成对人工智能行业整体的带动效应 , 从而促进新技术的持续健康发展 。
一图看懂《深度合成十大趋势(2022) 报告 》
深度合成视频“真假难辨”,我们该如何应对人工智能的技术威胁?
文章图片

本文综合澎湃新闻、清华传媒评论整理
【深度合成视频“真假难辨”,我们该如何应对人工智能的技术威胁?】本文编辑:徐彦琳

特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。