麻省理工学院的研究人员开发了一种新型的“光子”芯片,它使用光而不是电,并且在这个过程中消耗的能量相对较少。这种芯片可以用于处理大规模神经网络,其效率是当今传统计算机的数百万倍。
神经网络是一种机器学习模型,广泛用于机器人目标识别、自然语言处理、药物开发、医学成像和无人驾驶汽车驱动等任务。利用光学现象加速计算的新型光学神经网络,可以比电学神经网络运行得更快、效率更高。
但随着传统神经网络和光学神经网络变得越来越复杂,它们会消耗大量的能量。为了解决这个问题,研究人员和主要的科技公司——包括谷歌、IBM和特斯拉——开发了“人工智能加速器”,这是一种专门的芯片,可以提高训练和测试神经网络的速度和效率。
对于电子芯片,包括大多数人工智能加速器,理论上都有能耗的最低限度。最近,麻省理工学院的研究人员已经开始开发用于光学神经网络的光子加速器。这些芯片的效率提高了几个数量级,但它们依赖于一些笨重的光学元件,这限制了它们只能用于相对较小的神经网络。
在一个纸张发表在物理评论X麻省理工学院的研究人员描述了一种新的光子加速器,该加速器使用更紧凑的光学元件和光学信号处理技术,以大幅降低功耗和芯片面积。这使得芯片可以扩展到比同类产品大几个数量级的神经网络。
神经网络在MNIST图像分类数据集上的模拟训练表明,该加速器理论上可以处理神经网络,比传统电基加速器的能耗限制低1000万倍以上,比光子加速器的能耗限制低1000倍左右。研究人员目前正在研制芯片原型,以实验证明结果。
电子研究实验室的博士后Ryan Hamerly说:“人们正在寻找能够计算出能量消耗基本极限的技术。”“光子加速器很有前途……但我们的动机是建造一个可以扩展到大型神经网络的(光子加速器)。”
这些技术的实际应用包括降低数据中心的能耗。“对运行大型神经网络的数据中心的需求越来越大,而且随着需求的增长,计算变得越来越难处理,”合著者亚历山大·斯卢兹(Alexander Sludds)说,他是电子研究实验室的一名研究生。其目的是“用神经网络硬件满足计算需求……解决能耗和延迟瓶颈。”
加入Sludds和Hamerly的论文有:合著者Liane Bernstein,RLE研究生;麻省理工学院物理学教授Marin Soljacic;以及麻省理工学院电子工程和计算机科学副教授、RLE研究员、量子光子学实验室负责人德克·恩格伦德。
紧凑的设计
神经网络通过许多包含相互连接的节点(称为“神经元”)的计算层来处理数据,以找到数据中的模式。神经元从它们的上游邻居接收输入,并计算一个输出信号,然后发送给下游的神经元。每个输入还分配了一个“权重”,这是一个基于其对所有其他输入的相对重要性的值。随着数据在各层中“更深”地传播,网络逐渐学习到更复杂的信息。最后,输出层根据各个层的计算生成一个预测。
所有人工智能加速器的目标都是在神经网络的一个特定线性代数步骤(称为“矩阵乘法”)中,减少处理和移动数据所需的能量。在那里,神经元和权值被编码到独立的行和列表中,然后组合起来计算输出。
在传统的光子加速器中,脉冲激光将一层神经元的信息编码进波导并通过分束器。由此产生的光信号被输入由正方形光学元件组成的网格,这被称为“马赫-曾德尔干涉仪”,它被编程执行矩阵乘法。干涉仪用每个权重的信息编码,使用信号干涉技术处理光信号和权重值,计算每个神经元的输出。但是有一个缩放的问题:对于每个神经元必须有一个波导,对于每个重量,必须有一个干涉仪。由于权值的数量与神经元的数量的平方,这些干涉仪占用了大量的空间。
哈默利说:“你很快就会意识到,输入神经元的数量不可能超过100个左右,因为你无法在芯片上安装那么多组件。”“如果你的光子加速器不能处理每层超过100个神经元,那么就很难在那种架构中实现大型神经网络。”
研究人员的芯片依赖于一种更紧凑、能效更高的“光电”方案,该方案利用光信号对数据进行编码,但对矩阵乘法使用“平衡零差检测”。这是一种计算两个光信号的振幅(波高)乘积后产生可测量电信号的技术。
光脉冲编码了每个神经网络层的输入和输出神经元的信息——这是训练网络所需要的——流经一个单一的通道。用矩阵乘法表中整行权值信息编码的单独脉冲流过单独的通道。携带神经元和重量数据的光信号呈扇形输出到零差光电探测器的网格中。光电探测器利用信号的振幅来计算每个神经元的输出值。每个检测器将每个神经元的电信号输出输入到调制器,调制器将信号转换回光脉冲。光信号成为下一层的输入,以此类推。
该设计只需要每个输入和输出神经元一个通道,并且只需要神经元数量的零差光探测器,而不需要权重。因为神经元的数量总是比权重少得多,这节省了很大的空间,所以该芯片能够扩展到每层神经元超过100万个的神经网络。
寻找最佳点
在光子加速器中,信号中不可避免地会有噪声。注入芯片的光越多,噪音就越少,精度就越高——但这样的效率相当低。较少的输入光可以提高效率,但会对神经网络的性能产生负面影响。但伯恩斯坦说,有一个“最佳点”,即在保持精度的同时使用最小的光功率。
人工智能加速器的最佳点是以执行两个数字相乘的单个操作所需的焦耳数来衡量的,例如在矩阵相乘期间。现在,传统加速器的测量单位是皮欧,即万亿分之一焦耳。光子加速器的测量单位为阿焦耳,效率高出一百万倍。
在他们的模拟中,研究人员发现他们的光子加速器可以以亚阿焦耳的效率运行。伯恩斯坦说:“在失去精度之前,你可以输入一些最小的光功率。我们芯片的基本极限比传统加速器低很多……比其他光子加速器低。”。
了下:学生项目,产品设计




