可持续发展的人工智能需关注公益议题 , 不能只顾短期收益
新京报:在应用人工智能过程中 , 做好隐私保护还存在哪些难点?如何破解?
曾毅:举例来说 , 对目前人工智能产业当中广泛采用的深度神经网络而言 , 直接删除用户数据会对模型准确率产生影响 , 若想消除这种影响 , 技术上还存在巨大瓶颈 。
但也有一些问题已经存在技术解决方案 。 比如人脸识别、步态识别等 , 可能存在隐私侵犯、性别偏见等问题 , 可以通过构建更合理、更公平的技术模型 , 缩小差异 , 但注意这些问题的企业还是少数 。
新京报:人工智能伦理研究是否需要跨学科的专家组成?都涉及哪些相关专业?
曾毅:在两年前 , 绝大多数技术人员是不太关注人工智能伦理和治理的 。 如今 , 基于互联网的人工智能从设计研发到产品服务周期缩短 , 没有经过任何社会学、伦理学和哲学训练的理工科学生 , 想了一个创新主意 , 开发完系统第二天就可以上线 , 它可能产生的负面影响也将随即发生 。
2018年开始 , 我们在中国科学院大学开设了《人工智能哲学与伦理》的课程 。 课堂上 , 学习人文科学的学生谈论更多的是技术会给社会带来什么问题 , 技术创新者更关注技术可能为社会带来的改变 。 当这些不同视角的辩论升级时 , 就会使我们意识到人工智能的潜在问题 。
构建负责任的人工智能 , 需要广泛学科背景的专家来参与讨论 , 涉及社会学、哲学、伦理学、法学、人类学等 , 有工程技术背景的人工智能专家特别要参与其中 。 政府和媒体也毋庸置疑要发挥监督、宣传的作用 , 实现多方共治 。
新京报:你提到人工智能发展的可持续性 , 如何理解和做到可持续?
曾毅:我们分析了计算机科学和人工智能领域发表的英文文献 , 发现800万篇人工智能和计算机科学相关的论文中 , 只有0.1%是真正跟可持续发展目标高度关联的 , 这是一个非常可悲的指标 。
目前很多人工智能应用于健康、教育 , 但是它也可能给健康和教育带来负面影响 , 所以应该同步关注产生的负面影响 , 比如用人工智能分析学生在课堂的表情 , 引发了关于隐私的讨论 。
大多数应用偏向于教育、健康 , 是因为这两个领域机遇多、能赚钱 。 如果人工智能的创新目标就是赚钱 , 那么很多可持续发展目标无法通过人工智能赋能来实现 。
我特别倡议 , 人工智能应该特别关注野生动物保护、消除饥饿、赋能文化交互、环境保护和气候行动这类议题 。 仅仅有企业的参与是不够的 , 学术界、政府在这些更长远的议题上应当发挥持续性的主导作用 。
新京报采访人员 张璐
编辑 张磊 校对 卢茜
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
