在信息产业发展与技术发展过程中 , 过往的安全性问题主要来自于大型软件设计的一个漏洞或者缺陷 , 或者这个缺陷的造成往往被利用了 , 对系统进行攻击产生一些安全问题 。 这个是相对来说容易克服的 , 一旦发现漏洞后 , 把漏洞补上即可解决 。
而发展到人工智能技术时则出现一个全新的安全问题 , 其不是来自于设计时有漏洞 , 而是来源于算法本身的不安全性 。 这个问题是非常难以解决的 , 必须对算法本身做一个彻底的改变 。
8月3日 , 中国科学院院士、清华大学人工智能研究院名誉院长张钹在RealAI主办的人工智能产业治理论坛上作了《人工智能产业治理与创新发展》的报告 , 提出发展第三代人工智能的思路 , 以及如何通过技术创新 , 解决人工智能算法的不安全性问题 。
张钹表示 , 对人工智能的治理有两个含义:一是防止人工智能技术被误用 , 就是无意识的误用 , 因为人工智能算法本身带来不安全问题 , 是很难被预先发现 。 所以 , 有时候在使用过程中间会出现很多错误 , 如果我们在使用的过程中不注意到这个问题会产生无意识地错用 , 造成严重后果 。 第二类问题是有意识(故意)地滥用人工智能技术 , 就是利用人工智能算法的不安全性 , 去造成对人工智能系统的恶意攻击或者滥用 , 这个必须要通过法律法规来解决 , 加以制止 。
张钹此次演讲主要聚焦于算法本身的不安全性问题 , 以及解决之道 。
文章图片
人工智能60年的发展历程可大致划分为两代 。 第一代人工智能主要基于知识库和推理机 , 通过推理模型来模拟人类的理性智能行为 , 如推理、规划、决策等 。 其在计算机内建立了知识库和推理机制并由此对人类的推理和思考行为进行模拟 。 这一代的人工智能一个最有代表性的成果就是国际象棋程序IBM的深蓝 , 其于1997年5月打败了当时的世界冠军卡斯帕罗夫 。
文章图片
张钹曾经一次讲演的ppt
但第一代人工智能十分严重的缺陷在于完全依赖专家的知识 , 一是将知识变成机器可理解执行的内容是十分费时费力的 , 另一方面是还有大量知识很难表达 。 因此第一代人工智能的应用范围非常有限 。
第二代人工智能则使用当下常听到的深度学习方法 , 即通过深度神经网络的模型模拟人类的感知 , 如视觉、听觉、触觉等 。 比如想让计算机识别出马 , 就先收集大量有关动物的图片 , 并把图片分成两类 。 一类作为训练图片 , 训练计算机识别马和其他动物 , 通过多层次神经网络学习 。 另一部分图片(没有学习过的图片)作为检测图片 。 如果90%识别对了 , 识别率即90% , 误识率为10% 。 这种办法不需要领域知识 , 同时由于神经网络规模很大 , 可以处理大量数据 。 在给定图像(语音)库下 , 该方法可以达到甚至超过人类的识别水平 。
文章图片
张钹认为算法的不安全性正是第二代人工智能引起的 。 第二代人工智能使用数据驱动的方法 , 在数据样本比较多的情况下 , 识别率很高 。 但一个非常本质的问题是 , 算法会非常脆弱 , 张钹在现场以一个图像识别案例进行了讲解 。
文章图片
张钹首先展示了一幅雪山的图像 , 对于这个图像 , 人类和计算机看起来都是雪山 , 但在雪山图上加上一点噪声 , 人看起来依然是雪山 , 但计算机系统有99.99%的把握认为其是狗 。 张钹认为 , 这个案例很清楚显示出算法的脆弱及易欺骗性 。
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
