理解能力很好代表什么 理解能力( 二 )


为了让一套系统能够理解 , 它必须建立不同概念、状态和动作之间的关联 。今天的语言翻译系统可以正确地把英语的“水”跟西班牙语的“agua”关联到一起 , 但是它们没有在“水”和“电击”之间建立起任何的关联 。
对于最新的AI进展 , 批评大都来自两个方面 。第一个是 , (研究人员、前者所在的组织 , 甚至政府以及资助机构)围绕着人工智能的炒作已经达到了极端水平 。这种炒作甚至引发了对“超级智能”或“机器人末日”迫在眉睫的恐惧 。批评对于抵制胡说八道至关重要 。
其次 , 另一种批评是持续进行的有关人工智能研究的未来研究方向以及政府拨款的分配之争的一部分 。争论的其中一方是联结主义的倡导者 , 他们发展出深度学习并支持继续进行这方面的研究 。而另一方则是倡导基于符号的建构和操纵(比方说 , 形式逻辑的使用)的AI方法 。主张在混合结构中结合这两种办法的社区业主日益壮大 。对于这类讨论来说批评也是至关重要的 , 因为AI界必须不断挑战我们的假设 , 并选择如何把社会的时间和金钱投入到AI科学和技术的发展当中 。但是 , 我反对这样的观点 , 即“因为当今基于深度学习的系统并没有表现出真正的理解 , 所以我们应该放弃深度学习” 。这种说法跟“今天基于深度学习的系统已经取得了巨大的进步 , 并且进一步研究下去将可以‘解决智能问题’”的说法一样有问题 。我喜欢Lakatos 做出的分析 , 也就是应该不断深入研究计划 , 直到研究不再产生有效成果 。所以我认为我们应该继续去追求连结主义计划 , 符号表征主义计划以及新兴的混合计划 , 因为它们都将继续结出累累硕果 。
对深度学习的批评已经把我们带到了新的方向 。尤其是 , 一方面已经证明深度学习系统在各种基准任务上跟人类的表现可以相匹敌 , 但另一方面又不能将其推广到表面上非常相似的任务上 , 这已经导致了对机器学习的批评 。研究人员正在用新想法予以回应 , 比方说学习不变性(learning invariants) , 发现因果模型(discovering causal models)等 。这些想法既适用于机器学习的符号主义也适用于联结主义 。
我相信我们不应该去争论什么才算是“真正的”理解 。相反 , 我鼓励大家把那个先放到一边 , 去寻求人工智能的科技进步 , 把焦点放在未来5、10或者50年内应该努力去实现哪些系统功能上面 。我们应该根据可以在AI系统上进行的测试来定义这些功能 , 来衡量它是否具备这些功能 。为此 , 这些功能必须是可操作的 。简而言之 , 我的观点是要AI开发要以测试为驱动 。这需要我们把我们对“理解”和“智能”的模糊概念转化为具体的 , 可衡量的能力 。这本身就是一个非常有用的练习 。
操作测试不需要只考虑AI系统的输入输出行为 。还可以可以检查产生这种行为的内部结构(数据结构 , 知识库等) 。人工智能优于神经科学的一大优势是 , 我们可以更轻松地在人工智能系统上进行实验 , 从而了解和评估它的行为 。但是请注意 , 包括深度学习在内的联结主义方法往往会建立难以解释的内部结构 , 似乎我们的大脑也是如此 。因此 , 我们不应该将确保特定结构(比方说 , 符号表示)存在作为研究目标 。相反 , 我们应该专注于希望具备的行为能力 , 并询问内部机制是如何实现这些能力的 。比方说 , 要想让对话成功进行 , 对话的每一位参与者都必须能够跟踪互动的历史 。但是有很多方法可以做到这一点 , 我们未必就要指望在深度学习系统里面找到明确的历史记忆 。相反 , 仅仅因为我们编写了特定的内部结构 , 并不意味着它就会按照我们的预期方式工作 。德鲁·麦克德莫特(Drew McDermott)在他著名的批评文章《人工智能遇到天生愚蠢》中曾详细讨论过这个问题 。


特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。