Page 56 - 《中国医疗器械杂志》2026年第2期
P. 56
Chinese Journal of Medical Instrumentation 2026年 第50卷 第2期
综 合 评 述
[34]
2 功能启发建模 强模型如MeMViT ,面向长时序任务,在架构中
引入专用记忆模块,以持续维持长程上下文信息。
类脑功能启发建模旨在抽象并重构大脑在信息 在视频识别任务中,该模块能够有效保留历史帧信
选择、记忆存储与情绪调节等高级认知活动中的关 息,帮助模型捕捉帧间动态关联,从而显著提升识
键机制,以此提升ANN在感知、决策与适应性行 别性能。
为等方面的功能表现。 此外,受大脑机制启发的类脑回放(brain-
2.1 基于注意力机制的建模 inspired replay, BI Replay)机制模拟海马体在离线
从功能角度看,注意力机制显著提升了神经 状态下的信息回放过程,通过选择性重演关键学习
网络的信息选择能力与计算效率。Transformer中 经验,抑制无关信息干扰,提升策略学习的稳定
采用的自注意力机制 可类比神经系统的资源聚焦 性,适用于强化学习与持续学习等场景 。尽管目
[29]
[35]
与干扰抑制功能,能够对跨位置的动态依赖关系建 前尚未完全解决灾难性遗忘问题,但是这类类脑记
模,支持高度并行计算,在自然语言处理(natural 忆机制已显著增强神经网络在长期依赖建模与泛化
language processing, NLP)、序列建模及视频分析 方面的能力。
等任务中取得重要突破。其弱序列依赖的计算范式 2.3 基于认知与情绪机制的建模
也更符合大脑多区域并行整合信息的特点。 在更高层级的建模中,认知整合与情绪调控是
在自注意力基础上,多种类脑神经网络通过 生物系统应对复杂环境与多模态信息的关键能力。
机制优化进一步贴近了大脑的信息处理逻辑,并强 为此,ANN引入多模态融合与自监督机制,以模拟
化了大脑皮层级别的信息协调与上下文保持能力。 相关认知功能。多模态融合通过构建跨模态信息交
例如,视觉 Transformer先将图像分割为图像块 互通道,有效关联并整合文本、图像、音频等不同
(patch)并嵌入位置编码,以弥补自注意力在空 来源的信息,突破单一模态的认知局限,显著增强
间定位上的不足,再通过全局注意力整合特征,捕 ANN对复杂场景的理解与处理能力 。自监督学习
[36]
捉跨区域语义关联 。记忆增强模型则借鉴海马体 则在缺乏标注数据的条件下提升表示学习与泛化能
[30]
的信息存储与提取机制,借助专用记忆模块,通过 力,致力于解决ANN在“无明确监督”情境下的自
[31]
注意力机制精确检索关键记忆 ,在处理长序列任 主学习问题,从另一维度支撑认知层面的功能模拟。
务时有效融合历史信息与当前输入,缓解传统神经 除认知机制外,生物情绪学习启发模型(brain
网络中的梯度消失与信息遗忘问题。此外,轻量级 emotional learning inspired models, BELiMs)面向情
[32]
CBAM模块 从通道与空间两个维度构建注意力机 绪调控功能建模,模拟情绪系统与认知控制区域的
制:通道分支评估并加权不同特征通道以强化有效 交互机制,在环境变化或反馈不确定时动态调整学
[37]
信息;空间分支则识别特征图中关键区域的位置重 习策略,从而增强系统的适应性与稳定性 。这些
要性,在视觉特征提取任务中表现优异。 机制的共同发展推动ANN从静态映射走向情境响
2.2 基于记忆机制的建模 应,从纯逻辑推演迈向动机驱动的智能形态。
记忆机制是神经系统实现长期学习与时序建模 3 结构–功能耦合启发建模
的核心。ANN通过引入显性或隐性记忆结构,逐
步具备从短时状态到长期记忆的模拟能力:隐性记 类脑结构–功能耦合启发建模通过在同一框架
忆通常依赖网络参数动态更新,以“内化”信息; 中融合结构先验与功能机制,使ANN在信息路由、
显性记忆则通过独立记忆模块实现信息的主动存取 时空预测、记忆巩固及跨模态整合等任务中获得协
与调用。 同增益,相较单一的结构或功能建模,展现出更高
外部记忆网络(external memory network)作 的能效、更强的可解释性与更好的泛化能力。
为显性记忆的典型代表,通过模拟新皮层与海马体 3.1 通用生物神经系统启发的耦合建模
之间的信息交互,实现跨步长的依赖建模。其重要 随着神经科学与人工智能的深度融合,越来越
变体E2E Memory Network进一步提出可微分的注 多的模型开始在网络结构层面引入功能性设计,以
意力读写机制,利用注意力精准定位记忆模块中的 模拟大脑中结构–功能紧耦合的信息处理机制。
关键信息,支持端到端训练与多跳推理,已广泛应 Transformer中的自注意力机制本质上实现了不同信
用于语言理解与问答系统 。更具代表性的记忆增 息通道之间的动态选择与加权组合,体现了空间结
[33]
170

