Page 353 - 《软件学报》2025年第4期
P. 353

俞诗航 等: 神经形态计算: 从脉冲神经网络到边缘部署                                                     1759


                 toolchain  for  SNNs  is  introduced,  and  a  detailed  summary  and  analysis  of  SNN  deployment  on  various  types  of  neuromorphic  hardware
                 platforms are provided. Finally, considering that hardware fault behavior has become an unavoidable issue in current research, an overview
                 of  fault  and  fault  tolerance  research  during  deploying  SNNs  at  the  edge  is  also  presented.  This  study  offers  a  comprehensive  and
                 systematic  summary  of  recent  advances  in  neuromorphic  computing,ranging  from  software  model  principles  to  hardware  platform
                 implementation.  Additionally,  it  analyzes  the  difficulties  and  challenges  in  the  edge  deployment  of  SNNs  and  points  out  possible  solutions
                 to these challenges.
                 Key words:  neural network; spiking neural network (SNN); neuromorphic computing; edge intelligence

                    近年来, 人工智能     (artificial intelligence, AI) 已经成为最重要的科学研究领域之一, AI 技术以我们过去认为不
                 可能的方式改变了世界        [1,2] . 人工神经网络  (artificial neural network, ANN) 作为人工智能领域最著名的方法, 在计
                 算机视觉   [3,4] , 自然语言处理  [5,6] , 智能驾驶  [7,8] , 医学诊断  [9,10] 等各个领域都取得了卓越的表现.
                    根据计算单元的特点, 神经网络可以分为             3  代. 第  1  代神经网络由感知机等阈值单元组成, 执行阈值运算并输
                 出二值结果    [11] . 但由于其结构过于简单, 被证明仅具备有限的功能, 只能进行线性分类, 甚至无法解决最简单的“异
                 或”逻辑问题    [12] . 为了解决线性不可分问题, 第     2  代神经网络是通过在计算单元的输出上应用连续激活函数构造
                 的运行能耗. 因此, 在边缘设备上进行智能计算的需求日益增长
                 的, 反向传播   (back propagation, BP) 机制使其能够计算一组连续的输出值, 且对于连续型前馈神经网络, 只要有足
                 够数量的隐藏神经元, 就可以以任意精度逼近任何复杂的连续映射                      [13−15] . 这类拥有隐藏层和激活函数的基于联结
                 主义的多层人工神经网络被称为第            2  代神经网络. 作为第     2  代神经网络最出色的代表, 深度神经网络           (deep neural
                 network, DNN) 出现于  20  世纪  80  年代中期  [16] , 自  2006  年以来引领了人工智能的发展  [17] . 然而, 随着近年来边缘
                 智能领域的迅速发展, 传统        ANN  暴露出许多缺点. 首先, 过去       ANN  的成功依赖于大量的训练数据和庞大的              GPU
                 计算资源, 以   GPT-3  为例, 该模型拥有超过      1 700  亿个参数和  45 TB  的训练数据  [18] . 其次, 传统  ANN  在生物学上
                 缺乏可解释性, 并且在神经元内部缺乏动态机制, 对时空信息的处理能力较弱                         [19] . 最后, ANN  模型的计算能效较
                 低, 不容易在硬件尤其是便携式设备上实现. 这些缺陷促使了第                    3  代神经网络——脉冲神经网络          (spiking neural
                 network, SNN) 的出现  [20] . 研究表明, 在  45 nm  技术节点上, 一个  ANN  神经元的乘积累加动作会消耗       4.6 pJ, 而一
                 个脉冲神经元的累加动作仅需消耗            0.9 pJ [21] , 这使得  SNN  更适合部署在低功耗边缘设备.
                    神经形态计算是一种受到生物神经系统启发的计算范式, 其试图基于大脑中神经元的脉冲事件, 在时间和空
                 间分布上模仿神经元和突触的功能, 实现高能效的计算. SNN                  与生物神经系统非常相似, 使用离散值            (脉冲) 来编
                 码和处理数据, 提供了一种高效且低功耗的计算方案                 [22] , 与神经形态计算的核心理念一致. 在生物神经元中, 当突
                 触前刺激导致的膜电位变化的总和超过阈值时, 就会产生脉冲. 脉冲产生的速度和脉冲序列的时间模式携带着相
                 关外部刺激和正在进行的运算信息. 在             SNN  中, 脉冲神经元只有当新的输入脉冲到来时才会进行处理, 这使得
                 SNN  在本质上更符合生物学原理, 表现出和真实神经回路中相同的有利特性, 如模拟计算能力、低功耗、快速推
                 理、事件驱动、在线学习和大规模并行等. 这些优势使得                   SNN  更加具备在边缘设备上部署的潜力           [23] . 目前, SNN
                 是神经形态计算的核心模型, 有望充分发挥各类神经形态硬件平台的潜力, 实现“近存计算”, 打破传统冯诺依曼计
                 算架构的瓶颈     [24] .
                    在过去的传统架构中, 所有待处理数据都被发送到数据中心进行处理和计算. 如今, 人工智能物联网                               (artificial
                 Internet of Things, AIoT) 的发展和数据量的急剧增加给数据中心带来了沉重的计算负担、较长的响应延迟和过高
                                                                   [25]
                                                                     . 边缘部署的优势在于能够在接近数据源的地
                 方进行快速的本地计算, 减少了数据传输和云端计算的延迟, 并提供实时的响应能力. 与传统                            ANN  相比, SNN  在
                 边缘设备中训练和部署时具有一些优势. 目前, 传统               ANN  的有效训练通常需要使用高能耗的            GPU, 但是在边缘设
                 备中, 计算功耗往往会有严格的限制, 这使得复杂的               ANN  很难有效部署. 而脉冲神经元之间的突触连接并不总是
                 活跃的, 因为神经元只能发射或不发射脉冲. 这种现象被称为“脉冲稀疏性”, 能让计算次数减少, 进而降低功耗和
                 延迟. 实验证明, SNN    在推理过程中的能效几乎可以达到功能相同的                 ANN  的  9  倍  [26].  此外, SNN  还拥有着  ANN
                 不具备的驱动超低功耗神经形态芯片的能力                [27] . 目前, 已经有相当一部分的工作成功将        SNN  部署在神经形态硬
                 件平台上, 并应用于边缘智能场景, 如目标检测              [28−30] , 文本分类  [31] , 情感识别  [32] , 智能医疗  [33−35] , 机器人设计  [36,37]
   348   349   350   351   352   353   354   355   356   357   358