MIT研发新型神经网络芯片 2018-03-01

 MIT研发新型神经网络芯片

 

        理论上说,神经网络是非常强大的,但是它们需要大量的能量。而近日,麻省理工学院的工程师们现开发出了一种新的芯片,可以将神经网络的功耗降低95%,这也许会使得其可在电池驱动的移动设备上运行。

 

        进入当代,智能手机提供了越来越多的人工智能服务,如数字助理和实时翻译。但是,为这些服务进行数据运算的神经网络通常都在云端,智能手机的数据也是在云端来回传输。

        但实际上这种状态并不是最理想的,因为这需要大量的通信带宽,并且这意味着潜在的敏感数据正在被传输并存储在不受用户控制的服务器上。但是,图形处理器的神经网络正常运行需要大量的能量,这使得在电池电量有限的设备上运行神经网络不切实际。

 

神经网络传输的最大挑战

—能量不足

 

        神经网络由成千上万个一层层相互连接的人工神经元组成。每个神经元接收来自其下一层的多个神经元的输入,如果这一组合输入通过了一个特定的阈值,它就会将输出传送到上层的多个神经元上。神经元之间的连接强度是由在训练期间设定的权重控制的。

        这意味着,对于每个神经元,芯片必须检索特定连接的输入数据和来自内存的连接权重,将它们相乘,存储结果,然后在每一次输入时重复这个过程。

 

        而这一过程不仅需要大量的数据移动,也需要消耗大量的能量。为此麻省理工学院的新芯片另辟蹊径,使用模拟电路,在内存中并行计算所有输入。这大大减少了需要被推进的数据量,并最终能节省大量的能源。

        这种方法要求连接的权重为二进制而不是一系列的值,但是先前的理论工作表明这不会对芯片的准确性造成太大影响,研究人员发现芯片的结果基本上包括在标准计算机上运行的传统非二进制神经网络的2%到3%之内。

 

并非首次尝试

为人工智能提供网络

 

        实际上,这并不是研究人员第一次在内存中创建处理数据的芯片,以减少神经网络的功耗,但这是第一次使用这种方法,来运行基于图像的人工智能应用程序的强大的卷积神经网络。

        IBM人工智能副总裁达里奥·吉尔在一份声明中说:“研究结果显示,在使用内存阵列进行卷积运算时,它的性能令人印象深刻。它肯定会为未来物联网的图像和视频分类提供更复杂的卷积神经网络。”

 

        然而,不仅仅是研究小组在研究这个问题。智能手机、家用电器、各种物联网设备等设备实现搭载人工智能的愿望,正驱使着硅谷的大佬们纷纷转战低功耗人工智能芯片。

        目前为止,苹果已经将其Neural Engine芯片整合到iPhone X中,以增强其面部识别技术等功能。据传,亚马逊正在为下一代Echo数字助手开发自己的定制AI芯片。

 

        而大型芯片公司也越来越倾向于支持像机器学习这样的高级功能,这也迫使他们让设备升级,变得更加节能。今年早些时候,ARM公司推出了两款新芯片:ARM机器学习处理器,这一款芯片主要针对人工智能任务,从翻译到面部识别,另一款则是用于检测图像中人脸的ARM对象检测处理器。

 

 

(以上文章内容来源于网易智能

 

关注存储市场发展

 

万博官网科技

 

(公众号ID:万博官网科技)

中国军工存储先行者

  1. 万博体育官网
  2. 业界资讯

地址:北京市海淀区上地九街9号数码科技广场北楼二层B-1

电话:86-10-50947666/62104316

传真:86-10-62101617

邮箱:sales@hongq.com.cn

网址:http://www.appletnet.com

招聘联系人:李艳强

联系电话:13552031952

招聘邮箱:liyq@hongq.com.cn