“从我国人工智能领域发展角度讲 , 我们很注重应用方面 , 但基础研究依然是短板 , 人工智能领域重大的理论和技术大都源自西方国家 。 基础科学研究的特点是需要大量资源、投入周期长、不确定性大和风险高等 , 这决定了其难以在短期内见效 , 但只有长期投入 , 保持耐心才能实现真正持久的创新与源源不断的技术发展 。 ”蒋昌俊进一步说道 。
值得注意的是 , “对数据的理解非常重要 , ”蒋昌俊对澎湃新闻(www.thepaper.cn)提到 , 深度学习依赖于大量喂数据 , 那么要判断它合适不合适 , 光从模型、算法上考虑是不够的 。 “我认为让AI能够见效的一个很好切入点 , 即是对大数据有一些理论和分析方法 。 如果对大数据的结构特征、边界特征和条件特征等有结论 , 那么自然就知道数据的形态如何 。 在对数据有了深刻理解以后 , 在算法设计时就能更好适应及贴近数据 , 起到更好效果 。 目前有图谱学、函数逼近论、随机分析等 , 但还是缺少的 。 ”
那么如何思考AI的未来?
蒋昌俊曾谈到 , 传统的AI注重从感知到认知的过程 , 实现从逻辑到计算的不断提升;而当前的AI , 则是由弱到强的智能 , 是从闭环到开环、从确定到非定的系统 。
他进一步作了解释 , “目前的神经网络模型大都侧重对数据的计算层面 。 事实上 , 一个高级的智能机器应该具有环境感知与逻辑推理的能力 。 将AI的演算和计算进行融合 , 结合基于规则系统的推理能力和神经网络的学习能力 , 即可构建一个更强大的AI模型 , 推理能力也可以帮助减少神经网络学习新事物时所需的数据量 。 这样的交互和融合将是当前AI由弱到强的主要突破口 。 ”
蒋昌俊认为 , 在构建类脑认知模型中 , 目前脉冲神经网络的神经元以电脉冲的形式对信息进行编码 , 更接近真实神经元对信息的编码方式 , 能够很好地编码时间信息 。 而由于脉冲训练缺乏高效的学习方法且需耗费大量算力 , 在性能上与深度网络等模型还存在一定差距 。 “未来 , 两类模型仍需要不断从脑科学中吸取营养并不断融合 , 发展性能更好、效能更高的新一代神经网络模型 。 ”
在被问及学会、研究机构等在AI未来发展中的角色 , 蒋昌俊对澎湃新闻(www.thepaper.cn)表示 , 无论是学会还是研究机构 , 本质上都在赋能企业 , 要做好这件事就要深入具体问题 , 比如只有真正理解交易过程的场景、规律、业务特点 , 才能解决问题 。
蒋昌俊曾谈及30年科研历程的体会 , “回顾30年来的科研历程 , 我深切感受到 , 基础创新是破解科技难题的法宝 。 当今时代 , 科技发展日新月异 , 面对科技创新的挑战 , 我们要更加重视基础创新 , 要不断回顾领域发展历史 , 梳理演进脉络 , 找准切入点 , 开阔思路、大胆创新、严谨求实 , 着力求解难题 。 ”
【算法周刊·专访|新科院士蒋昌俊:在防控网络支付风险中做到“以不变应万变”】
文章图片
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
