译文 | Tensor 之意不在「酒」:Google Silicon 团队专访,为你揭开定制芯片的秘密( 三 )
「在我看来现目前还没有一个特别出色的、可以用来评判机器学习处理器性能的现代化方案——你所看到的大多数基准测试方案都太落后了 , 」卡马克说 。
另外——回到上面提到的那场「各不相同」的计算——从 Google 的开源机器学习库 TensorFlow 到 Google Cloud 业务中用到的 Tensor Processing Units (TPU) , Tensor 此前可以说是 Google AI 部门中非常常用的品牌名称了 。 Google 这块移动芯片依然被命名为 Tensor , 正因为这块 SoC 上的每一部分组件都有 Google AI 算法的参与 。
当这类公司谈及 AI 时 , 我们的反应也越来越麻木了 。 诸如华为这样的 Android 厂商这些年来一直在为 造势 , 但一旦被问起相比之前的智能手机它们能带来哪些直观的用户体验收益 , 这些厂商便大都收声了 。 即便是 Google 也曾犯过这样的错误:Pixel 2 中的 Google 相机就 其附带的 Pixel Visual Core (PVC);PVC 只供第三方使用 。
Tensor 的价值则将由其带来的新功能所证明 , Google 似乎也没在「画饼」 。 有了 Tensor , Google 采取了一种更垂直的方法来同时设计 AI 硬件和 AI 软件 , 并且 Google 也说 Pixel 6 的机器学习代码放在旧设备上要么运行得不够快 , 要么就不够高效 。 古普塔说 , Google 这里「将研发部门最新、最棒的成果拿出来 , 并且用更加高效的方式呈现在了 Tensor 和 Pixel 6 上 。 」
更多以往难以想象的新功能
那这些新功能都有什么呢?举个例子吧:多亏了 HDR+ 算法 , 前几代 Pixel 手机一直都得以用着最过时的传感器、拍着最好看的照片 。 只需按一下快门 , 相机就能在半秒内拍摄十张照片 , 并借助机器学习对其进行曝光堆叠(exposure stacking)和合并 。 但同样拜过时的相机硬件所赐 , Pixel 手机的视频拍摄质量一直以来也很糟糕 , 毕竟你没办法在视频拍摄中用同样的方法来进行图像堆栈……直到现在!
欢迎来到由 Google Tensor 为您呈现的 , 视频图像堆叠的世界 —— Pixel 6 可以在 4K60FPS 视频中的每一帧上运行 Google 的 HDR 算法 。
这个视频版本的 HDR+ 算法叫做 HDR Net , 在 Tensor 的图像信号处理器(ISP)中 , Google 还特地为这个算法做了一个加速器 。 古普塔说这样一来「拍视频也能有 Pixel 的味道了」 。
上面我不是提到过我们的评测小组用 4K60FPS 拍了一段 20 分钟的视频 , 在 HDR Net 应用到视频每一帧的情况下都没有遇到过热问题吗?相机好不好我们要评测了才知道 , 但上面我们讨论过的所有有关可持续的、适中的性能释放 , 以及那个奇怪的 CPU 架构的用意 , 到现在似乎开始明晰起来了 。 我觉得相对于前几代的 Pixel 设备来讲 , 这的确算是一次实实在在的、称得上是 10 倍的改进 , 要知道在之前我们用 Pixel 拍 4K 视频只能拍 3 分钟 , 而且还没有什么「花哨」的图像堆叠呢 。
这种能转瞬之间完成数量惊人的机器学习任务的能力 , 也能引导出一些新鲜有趣的图像技术 。 这次相机中内置的「消除脸部模糊」的功能也应用了 Google 图像堆叠技术:如果 Pixel 6 相机的取景器检测到一张因为运动而难以拍摄清晰的面部 , Pixel 6 就会启动第二颗镜头来同时拍摄两张照片 。 在这个过程中 , 主镜头会拍摄一张采用常规曝光的照片用于降低噪点 , 超广角镜头则会拍摄一张快速曝光的照片来移除运动模糊 。 之后 Google 对图片进行「对齐合并」 , 你就得到了一张面部清晰的好照片了 。 虽然这个功能同样还是得测试了才知道好不好 , 但经常拍那些活泼多动的孩子时可以少些糊片 , 这事想想就觉得还挺不错的 。
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
