新闻中心

EEPW首页 > 智能计算 > 业界动态 > 人工智能颠覆传统计算方式:让内存更接近计算资源

人工智能颠覆传统计算方式:让内存更接近计算资源

作者:时间:2019-03-15来源:科技行者收藏
编者按:在Forrester Research近期的一项调查中,有89%的受访者表示,计算和内存在架构上紧密相连是至关重要的。这项调研由美光(Micron Technology)公司委托,调查结果中还发现,内存和存储是如今限制人工智能和机器学习发展的非常重要的因素。

  大数据应用推动了“让更接近计算资源”的架构需求,而和机器学习则进一步证明了硬件和硬件架构在成功部署中发挥的关键作用。不过有一个关键问题——数据处理应该在哪里进行。

本文引用地址:article/201903/398518.htm

  在Forrester Research近期的一项调查中,有89%的受访者表示,计算和在架构上紧密相连是至关重要的。这项调研由美光(Micron Technology)公司委托,调查结果中还发现,和存储是如今限制和机器学习发展的非常重要的因素。此外,还有超过75%的受访者指出,他们需要升级或重新构建内存和存储架构以打破这种局限性。

  因为机器学习能够通过神经网络对庞大的数据矩阵进行多次累积操作,这使得大数据及其分析过程中的很多问题得以解决。同时,随着更多结果的产生,这样的操作还会反复进行,以生成最佳路径和最佳选择的算法,并且这些算法都是通过处理数据进行反复学习的。

  美光公司企业战略副总裁Colm Lysaght表示,因为数据量非常大,所以解决内存问题的常见方案就是增加更多的DRAM(Dynamic Random Access Memory),即动态随机存取存储器。这是最为常见的系统内存,能够将性能瓶颈从原始计算转移到数据所在的位置。“内存和存储就是数据所在的地方。我们必须把数据带入CPU,然后再返回,如此反复。因为这些庞大的数据集都需要被处理。”

  Lysaght说,如果能够让计算和内存更紧密地结合在一起,就意味着可以节省更多电力能源,因为在内存和计算之间就不需要往返太多次。“这会提高性能,因为数据处理直接发生在它所在的位置。”

  在Lysaght看来,有很多不同的方法都可以打造出更好的架构。拿神经形态处理器举例,它在内部使用神经网络,并将内部核心数据分解为更多的较小颗粒。“因为要对大量的数据要进行处理,所以让更多的核心反复执行相对简单的操作是一种更好的解决方案,”Lysaght说。

  最近,内存公司Crossbar与Gyrfalcon Technology、mtes Neural Networks(mtesNN)、RoboSensing等公司一起,打造了一个致力于提供加速、节能型平台的联盟——SCAiLE(用于边缘学习的SCABLE AI)。该联盟将结合先进的加速硬件、电阻式RAM(ReRAM)和优化神经网络,打造就绪的低功耗解决方案,使得整个过程无需进行监督学习。

  Crossbar公司战略营销和业务开发副总裁Sylvain Dubois表示,目前很多企业面临的挑战是,他们既希望在设备上采用人工智能,但是又不知道该怎么做,无论是智能扬声器、智能摄像头还是智能电视。而该联盟的目标,就是提供一个将所有必要部分组合在一起的平台。

  Crossbar的主要贡献在于内存(特别是ReRAM),它将通过各种输入处理机器学习系统中的数据,包括文本、关键字、GPS坐标、传感器可视数据等大量非结构化数据。

  Dubois设想了一种存储器阵列,它的架构能够以非常宽且高度并行的方式由实例中的每一个特定处理代码读取,实现在边缘设备中并行读取一千个字节。“如果匹配了,你就会知道该怎么做。如果没有匹配,那么这就是我们所说的学习曲率。”Dubois说。

  例如,对摄像头传感器来说,该系统将能够在ReRAM阵列备用位置保存新事件或一组功能。“下次当有类似事件在这个摄像头前发生的时候,摄像头本身就能够在没有任何训练的情况下检测到该事件。”Dubois举例说。

  这提供了一种完全不同的人工智能计算方式,因为如果出现需要快速决策的意外事件(例如关注安全性的交通场景)时,它就不再需要依赖于云中的训练能力,而能够在当下快速处理。

  Forrester Research的这项研究表明,有越来越多的企业将在公有云和边缘位置进行数据分析,从而在边缘完成更多的机器学习能力。有51%的受访者表示,他们正在公有云中运行分析,预计未来三年这一比例将增加到61%。此外,有44%的人已经在边缘设备中进行数据分析,预测到2021年这一比例将增长到53%。

  Forrester基础设施和运营高级分析师Chris Gardner对于硬件的重要性感到惊讶,特别是存储和内存。他表示,一个非常重要的研究结果是,有大量工作是脱离了存储在内存本身进行的。但值得注意的是,这取决于你的需求是什么。根据Gardner的说法,训练模型需要大量的内存和存储空间。除外之外,你根本不需要任何东西。

  Gardner说,在完美的情况下,企业希望拥有一个数百GB的RAM大型环境。但实际上,他们不得不自己构建或者付费让供应商来实现,而且这需要的是硬件方面的转变。“我们需要更多以内存为中心的架构,让计算围绕内存以及存储来进行,而不是让计算本身成为中心。“这并不是说当前的计算架构很糟糕,但这可能并不是做人工智能和机器学习最有效的方式。”Gardner表示。

  此外,Gardner还提到了边缘计算,有一个场景是某个举行大型体育赛事的体育场内安装了很多摄像头,这些摄像头实时产生了大量需要快速处理的数据,以确定是否存在危险情况。“他们可以把这些数据发送到云端并返回,但是他们没有时间去这么做,因为他们必须尽快处理这些数据。”

  未来还将有一些机器学习是在云中进行的,然后返回到物联网设备,但是其中一些设备将变得越来越智能化,并且可以自主地进行机器学习,共享回云端以及其他设备。对于内存制造商来说,这意味着商用组件制造商要持续进行转型,而且要重新编译应用以利用人工智能和机器学习工作负载所需的、以内存为中心的架构。但是现在这些技术还处于实验阶段,还没有一个真正的采用内存为中心、在实验环境之外有很多延迟表现的架构。

  Gardner说:“几十年来我们一直是用以CPU为中心的心态去构建架构,而想要摆脱这种想法是非常具有革命性的。”

  对此,去年秋天美光还宣布投资1亿美元用于人工智能,并在实验室中打造了一个类似DRAM的产品,目标是在2021年进行采样,同时美光的研究人员也在研究处理器内存架构,这也是其他很多初创公司正在研究的领域。



关键词: 人工智能 内存

评论

技术专区

关闭
博聚网