AI再添猛将,全球首个知识增强千亿大模型鹏城-百度·文心发布( 二 )


  • 最后再看数据优势 。
AI训练取决于数据量 , 数据越多训练出来的AI越聪明 。 文心大模型与众不同之处在于除了在海量无结构数据学习以外 , 还融合了大规模的知识 , 所以文心被称为知识增强大模型 。 我们知道 , 知识是做搜索起家的百度的天然优势 。 该千亿大模型学习了多源异构的大规模数据与知识 。 百度知识增强大模型能够从大规模知识和海量无结构数据中融合学习 , 学习效率更高、效果更好 , 具有良好的可解释性 。
由此可见 , 鹏城-百度·文心大模型集合了最强算力----鹏城云脑II、最强AI架构——百度飞桨、再结合知识增强这样的核心特色 , 三方面的优势相结合 , 形成了一个重磅“核武器” , 为中国AI产业军备又填了一枚筹码 。
百度知识基因成就“与众不同” 其实 , 这两年在大模型热下 , 全球几大科技巨头不断刷新大模型的数据量上线 。 2017年Transformer结构的提出 , 使得深度学习模型参数突破了1亿 , 随后模型参数一个比一个大 , 到了BERT网络模型的提出 , 使得参数量首次超过3亿规模 , GPT-3模型超过百亿 , 鹏城盘古实现千亿稠密的规模 , 而此次百度文心参数规模达到2600亿 , 相信这个记录很快也会再次刷新 。
大模型似乎没有最大、只有更大 。 事实上 , “大”只是一个相对值 。 AI的价值除了数据量大 , 还由很多方面的因素构成 , 不同大模型需要有自己的特色 。
在懂懂看来 , 鹏城-百度·文心大模型众不同之处就在于数据与知识的结合 , 这也是百度的独特优势所在 , 所以文心定位是知识增强大模型 。
众所周知 , 知识是人类智慧的结晶 , 是人类进步的重要推动力 。 想让计算机像人一样理解和认知世界 , 也需要让计算机具备获取、运用知识的能力 。 百度提出了知识增强大模型“文心” , 突破了多源异构数据难以统一表示与学习的瓶颈 。 文心如同站在巨人的肩膀上 , 训练效率和理解准确率大幅提升 , 并具备更好的可解释性 。 据悉 , 随着模型不断进展 , 现在不仅能做理解 , 还能做生成 , 比如说要做知识推理、小说续写、歌词创作、作诗 , 这些都可以做得很好 。
  • 首先看跨语言 。
人类历史长河中曾经有几万种语言 。 从纵向看 , 一个国家、地区在不同时代有不同的语言 。 从横向看 , 同一时代不同国家甚至不同地区都有不同的官方语言 。 所以同一语义可能会有很多种不同的表达 。 为此 , 百度研制了知识增强跨语言大模型ERNIE-M , 可同时从多种语言中学习 , 提升跨语言理解能力 , 让机器有了同时学习和理解多种语言的能力 。
比如 , 做机器翻译的时候 , 以前是需要双语对照的 , 一句中文对应一句英文的译文 , 现在基于文心大模型不必再死板的一一对照 , 而是非平行语料 。
  • 其次是跨模态 。
人类是通过语言、语音、视觉等多种模态获得对真实世界的统一认知 。 AI如果像人一样理解真实世界 , 不仅需要听懂语音、看懂图像视频、理解语言 , 这就需要突破不同模态、异构信息的语义融合统一难题 。 百度提出知识增强跨模态大模型 , 包括理解大模型ERNIE-ViL、生成大模型ERNIE-ViLG , 实现了复杂场景的多层次、高精度语义理解 。 其中 , 理解大模型ERNIE-ViL在视觉常识推理任务榜单获得第一名;生成大模型ERNIE-ViLG实现文图双向生成 , 是全球规模最大中文跨模态生成模型 。
AI的“轮子”驶向千行百业 AI再添猛将,全球首个知识增强千亿大模型鹏城-百度·文心发布
文章图片

特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。