中新经纬12月21日电 (薛宇飞)近日 , 清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场、算法设计与企业社会责任”研讨会 。 在研讨会上 , 中科院自然科学史研究所副研究员王彦雨表示 , 无论是外界干扰还是自我演化 , 只要人工智能可以形成区别于初始目标的新目标 , 并根据新目标自主行动 , 就可以看作是强人工智能形式 。 但机器所形成的新目标并不是基于意向性 , 而是基于目标变化而产生了与原始目标不同的新东西 , 成为相对于原始智能机器的异化体 。 基于意向性的人工智能 , 至少到现在还没有任何可行性 。
文章图片
中科院自然科学史研究所副研究员王彦雨 。 主办方供图
【王彦雨:基于意向性的强人工智能目前没有可行性】强人工智能概念在1980年提出 , 相对于弱人工智能 , 强人工智能概念有以下共同特征:一是达到或者是超越人类智慧;二是具有意向性 , 拥有自我目标设定与自我评价及认知能力;三是强AI必须有通用性 , 拥有完整的人类能力谱系 。
王彦雨分享了人工智能研究共同体和哲学科学社会界对于强AI的看法和态度转换过程 。 20世纪50年代中期至70年代初期 , 是人工智能的第一个黄金期 , 随着人工智能技术的进步 , 这一时期的人工智能界对于强AI非常乐观 , 当时的许多人工智能科学家认为10年、20年以后的机器就可以做人类能够完成的任何事情 。 但这一时期 , 哲学社会科学界共同体是以强AI的反对者身份出现的 , 他们基于人脑功能的特殊性(如心灵的整体性、感知的综合性、经验的情景性等) , 对当时的强AI乐观思潮进行了批判 。
在20世纪70年代中期至80年代末 , 人工智能研究进入寒冬期 , 强AI概念逐渐衰落 。 1966年美国自动语言处理咨询委员会发布“ALPAC 报告” , 以及1973年英国的“Lighthill Report” , 均指出当时的人工智能技术难以解决诸如语义消歧、智能爆炸、不具备学习能力等问题 。 在他们看来 , 当时的人工智能并不智能 , 更多的是依赖一系列已经给出的固定程序来执行命令 , 没有学习能力 。 在这一时期 , 一种新的理念“智能增强”——强调人工智能研究目的是为了简化人机交互 , 而不是为了制造超越人类智慧的终极机器 , 开始吸引到越来越多的科学家 。
从20世纪90年代初至90年代末 , 人工智能界基本不再提及强AI概念 , 怕被贴上“白日梦”标签 。 不过 , 那时候开始出现了“奇点议题” , 如机器人专家莫拉维克、弗诺·文奇等通过写作科幻小说 , 来宣扬未来可能会出现超级智能机器 , 它的兴起为21世纪初的哲学社会科学界的强AI思潮提供思想基础 。 进入21世纪 , 基于摩尔定律的印证 , 哲学社会科学界开始复兴奇点议题 , 从2010年到现在 , 随着深度学习理念的提出 , 强AI的论调开始盛行 。
那强AI到底强在哪里呢?他介绍 , 它拥有以深度学习为代表的学习模式 , 更类似于人 , 这种类似包括结构和学习过程等 。 而且 , 数据存储、搜索能力也比较强 , 拥有一个强大的泛化能力与进化能力 。 此外 , 当前基于深度学习技术的人工智能产品 , 具有更快的进化速度 , 以围棋AI为例 , Crazy Stone的进化单位是按年计算的 , 阿尔法狗(AlphaGo)是以月为单位进行功能提升的 , 而最新的AlphaGo Zero则呈现出以天/小时为单位的功能提升模式 , 这种进化效率令人担忧 。 此外 , 人们的担忧还包括AI的自主性 , 包括决策自主性与行动自主性 , 且纯自主的机器人已经出现 。
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
