Page 56 - 《中国医疗器械杂志》2026年第2期
P. 56

Chinese Journal of Medical Instrumentation                                         2026年 第50卷 第2期

                                                    综     合     评    述



                                                                                 [34]
               2    功能启发建模                                      强模型如MeMViT ,面向长时序任务,在架构中
                                                                                     引入专用记忆模块,以持续维持长程上下文信息。
                  类脑功能启发建模旨在抽象并重构大脑在信息                          在视频识别任务中,该模块能够有效保留历史帧信
              选择、记忆存储与情绪调节等高级认知活动中的关                            息,帮助模型捕捉帧间动态关联,从而显著提升识
              键机制,以此提升ANN在感知、决策与适应性行                            别性能。
              为等方面的功能表现。                                            此外,受大脑机制启发的类脑回放(brain-
               2.1    基于注意力机制的建模                                inspired replay, BI Replay)机制模拟海马体在离线
                  从功能角度看,注意力机制显著提升了神经                           状态下的信息回放过程,通过选择性重演关键学习
              网络的信息选择能力与计算效率。Transformer中                       经验,抑制无关信息干扰,提升策略学习的稳定
              采用的自注意力机制 可类比神经系统的资源聚焦                            性,适用于强化学习与持续学习等场景 。尽管目
                                 [29]
                                                                                                    [35]
              与干扰抑制功能,能够对跨位置的动态依赖关系建                            前尚未完全解决灾难性遗忘问题,但是这类类脑记
              模,支持高度并行计算,在自然语言处理(natural                        忆机制已显著增强神经网络在长期依赖建模与泛化
              language processing, NLP)、序列建模及视频分析               方面的能力。
              等任务中取得重要突破。其弱序列依赖的计算范式                             2.3    基于认知与情绪机制的建模
              也更符合大脑多区域并行整合信息的特点。                                   在更高层级的建模中,认知整合与情绪调控是
                  在自注意力基础上,多种类脑神经网络通过                           生物系统应对复杂环境与多模态信息的关键能力。
              机制优化进一步贴近了大脑的信息处理逻辑,并强                            为此,ANN引入多模态融合与自监督机制,以模拟
              化了大脑皮层级别的信息协调与上下文保持能力。                            相关认知功能。多模态融合通过构建跨模态信息交
              例如,视觉 Transformer先将图像分割为图像块                       互通道,有效关联并整合文本、图像、音频等不同
              (patch)并嵌入位置编码,以弥补自注意力在空                          来源的信息,突破单一模态的认知局限,显著增强
              间定位上的不足,再通过全局注意力整合特征,捕                            ANN对复杂场景的理解与处理能力 。自监督学习
                                                                                                [36]
              捉跨区域语义关联 。记忆增强模型则借鉴海马体                            则在缺乏标注数据的条件下提升表示学习与泛化能
                               [30]
              的信息存储与提取机制,借助专用记忆模块,通过                            力,致力于解决ANN在“无明确监督”情境下的自
                                         [31]
              注意力机制精确检索关键记忆 ,在处理长序列任                            主学习问题,从另一维度支撑认知层面的功能模拟。
              务时有效融合历史信息与当前输入,缓解传统神经                                除认知机制外,生物情绪学习启发模型(brain
              网络中的梯度消失与信息遗忘问题。此外,轻量级                            emotional learning inspired models, BELiMs)面向情
                        [32]
              CBAM模块 从通道与空间两个维度构建注意力机                           绪调控功能建模,模拟情绪系统与认知控制区域的
              制:通道分支评估并加权不同特征通道以强化有效                            交互机制,在环境变化或反馈不确定时动态调整学
                                                                                                      [37]
              信息;空间分支则识别特征图中关键区域的位置重                            习策略,从而增强系统的适应性与稳定性 。这些
              要性,在视觉特征提取任务中表现优异。                                机制的共同发展推动ANN从静态映射走向情境响
               2.2    基于记忆机制的建模                                 应,从纯逻辑推演迈向动机驱动的智能形态。
                  记忆机制是神经系统实现长期学习与时序建模                           3    结构–功能耦合启发建模
              的核心。ANN通过引入显性或隐性记忆结构,逐
              步具备从短时状态到长期记忆的模拟能力:隐性记                                类脑结构–功能耦合启发建模通过在同一框架
              忆通常依赖网络参数动态更新,以“内化”信息;                            中融合结构先验与功能机制,使ANN在信息路由、
              显性记忆则通过独立记忆模块实现信息的主动存取                            时空预测、记忆巩固及跨模态整合等任务中获得协
              与调用。                                              同增益,相较单一的结构或功能建模,展现出更高
                  外部记忆网络(external memory network)作              的能效、更强的可解释性与更好的泛化能力。
              为显性记忆的典型代表,通过模拟新皮层与海马体                             3.1    通用生物神经系统启发的耦合建模
              之间的信息交互,实现跨步长的依赖建模。其重要                                随着神经科学与人工智能的深度融合,越来越
              变体E2E Memory Network进一步提出可微分的注                    多的模型开始在网络结构层面引入功能性设计,以
              意力读写机制,利用注意力精准定位记忆模块中的                            模拟大脑中结构–功能紧耦合的信息处理机制。
              关键信息,支持端到端训练与多跳推理,已广泛应                            Transformer中的自注意力机制本质上实现了不同信
              用于语言理解与问答系统 。更具代表性的记忆增                            息通道之间的动态选择与加权组合,体现了空间结
                                     [33]

                                                             170
   51   52   53   54   55   56   57   58   59   60   61