取代上万行遗留代码,机器学习模型终“上位”!( 二 )

取代上万行遗留代码,机器学习模型终“上位”!
文章图片

有了机器学习运维 , 软件定义的基础设施和平台 , 我们就可以很容易地将想法从沙盒带入生产 。 回到开头的几个问题 , 你需要的是更多精通机器学习的软件和开发运维工程师 , 而不是更多的数据科学家 。
Transformer
人工智能状况报告表示:“Transformer 架构的应用已经远远超出了自然语言处理 , 正在成为通用的机器学习架构 。 ”例如 , 最近的模型 , 如 Google 的Vision Transformer 是一种无卷积 Transformer 架构 , 还有 CoAtNet 结合了 Transformer 与卷积 , 为 ImageNet 的图像分类设定了新的基准 , 同时训练所需的计算资源也更少 。
另外 , Transformer 在音频(例如语音识别)以及点云(一种用于模拟自动驾驶 3D 环境的技术)方面的表现也很出色 。
Kaggle的调查结果也表明 Transformer 的兴起 。 该框架的使用量逐年增长 , 而 RNN、CNN 和梯度提升算法正在衰退 。
取代上万行遗留代码,机器学习模型终“上位”!
文章图片

除了提高准确性之外 , Transformers 还在不断改善迁移学习 , 不仅能够节省训练时间和计算成本 , 而且还能更快地交付业务价值 。
随着 Transformers 的发展 , 机器学习的世界正在由“从零构建和训练深度学习模型”逐步转变为“选择一个现成的模型 , 然后利用数据进行微调即可使用 。 ”
从很多方面来说 , 这是一件好事 。最先进的技术在不断进步 , 几乎没有人能跟上该领域无情的步伐 。 还记得之前提到的 Google Vision Transformer 模型吗?你想试试看这个模型吗?在Hugging Face 的帮助下 , 尝试该模型非常简单 。
还记得 Big Science 项目推出了最新的零样本文本生成模型吗?如今 , 你可以通过Hugging Face , 尝试 16,000 多个模型和1,600 多个数据集 , 此外还可以使用推理、AutoNLP、延迟优化和硬件加速等工具 。
HuggingFace 的目标是提高机器学习的易用性和效率 , 无论你是初学者还是专家 , 都可以轻松地使用各种机器学习模型 。
我们希望尽可能减少训练、优化和部署模型所需编写的代码量 。 我们希望基础设施尽可能透明 。 我们希望提供高质量的生产模型 。
取代上万行遗留代码,机器学习模型终“上位”!
文章图片

参考链接:
https://huggingface.co/blog/the-age-of-ml-as-code
?库克霸气回应:用户想侧载可以买安卓;腾讯员工人均月薪8万;Facebook与微软达成合作 | 极客头条
?CentOS 8 , 凛冬将至!
?英伟达黄仁勋的元宇宙梦想:虚拟世界将如同互联网站那样不断涌现

特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。