正是在人工智能特别是边缘AI应用需求的推动下 , 存内计算的产品化开发进程也在加快 。 根据北京大学信息科学技术学院微纳电子学系副教授叶乐的介绍 , 存内计算技术大概率会实现产品化 。 目前基于SRAM的存内计算 , 已经进入到产品化的前夜 , 有望率先在可穿戴设备、智能手机等智能物联网AIoT领域应用 , 估计1~2年就有望看到产品级的SRAM存内计算芯片实现商业化落地 。 在此之后 , 存内计算芯片会逐渐往更大算力的应用领域渗透 。 基于MRAM的存内计算则会稍微滞后一些 , 这主要跟工艺可获得性有关 。 基于DRAM的存内计算芯片 , 有可能需要更长的时间才会落地 , 原因在于DRAM存内计算适用于大算力AI芯片 , 因此还需要解决其他一系列的技术难题 , 例如阵列间的互连和架构问题等 。 此外 , 大算力芯片 , 往往对通用性和可编程性要求更高 , 因此对于大算力芯片 , 架构需要更多地考虑通用性和可编程性 , 并且软硬件协同设计、编译器等工具链的重要性和难度也更为突出 。
叶乐强调 , 不同应用场合对存内计算的需求也不同 , 消费电子、物联网终端、边端计算、云端计算对功耗、能效、算力密度、Bit精度、绝对算力、成本、是否需要非易失性等方面的侧重点和侧重程度各不相同 , 因此各类存内计算技术 , 均有发展的必要性 。
生态搭建有挑战存内逻辑是方向
尽管存内计算的商业化进程不断临近 , 但在开发与应用中存在的挑战也不容忽视 。 业内专家指出 , 相较于传统处理器 , 存内计算本身就是一门非常复杂的、技术壁垒极高的设计方法 , 属于需要多年经验积累、大量资源以及时间投入才能实现的尖端领域 。 而更大的挑战还涉及相关产业生态的整合 , 其中面临的挑战更加复杂 。
在冯·诺依曼架构下 , 处理器与存储器是分别独立发展的 , 经过这么多年均已各自形成独立的产业生态 , 从设计到制造再到软件都已相当完备 。 而存内计算要想发展起来 , 实际是要将两个独立的生态整合到一起 , 其中要投入的精力和资源是非常巨大的 。
尽管存内计算面临技术开发与产业生态的双重挑战 , 但是其整体发展趋势依然被看好 。 叶乐指出 , 存内计算将是大势所趋 , 只有这种革命性的彻底的架构革新 , 才能真正解决内存墙和功耗墙的问题 。 从技术趋势上看 , 存算一体芯片将循着近存储计算、内存储计算、内存执行计算的技术路线发展 。
此外 , 基于哪类存储进行存内计算设计也是开发重点之一 。 此次SK海力士便基于DDR进行开发的 , 台积电则是基于SRAM 。 对此 , 专家指出 , 目前开发者的研究之所以多基于SRAM展开 , 一方面是因为SRAM比较容易获得 , SRAM在标准CMOS工艺下即可得到 , 流片门槛较低 。 另一方面则因SRAM的存取速度是所有主流存储器中最接近CPU的 , 基于它进行存内计算开发 , 最容易解决内存墙问题 。 但是SRAM也存在芯片成本高、面积大的问题 。 更重要的是 , SRAM属易失性存储器 , 断电后数据无法保存 , 还要把数据传输到其他NAND Flash等存储器当中 , 并不能从根本上解决功耗问题 。 NAND闪存等非易失性存储器可以保存处理后的数据 , 还具有成本低、容量大等优势 , 但是NAND闪存的存取速度慢 , 依然限制着未来存内计算芯片的速度 。
【“存内计算”照进现实】因此 , 专家认为 , 对于那些投入存内计算开发的半导体大厂来说 , 将来更大的可能是基于新型存储器如MRAM、ReRAM等 , 做存内计算的开发 。 此类新型存储器一些性能上的优势是传统存储器所不具备的 。 当然 , 专家也指出 , 当前业界开发的新型存储技术工艺还不成熟 , 以之为基础进行存内计算或许需要的更长研发时间 。 (采访人员 陈炳欣)
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
