Page 8 - 《中国医疗器械杂志》2026年第1期
P. 8
Chinese Journal of Medical Instrumentation 2026年 第50卷 第1期
医 学 人 工 智 能
Basic Block模块与改进后的Fusion Block模块,在 TP TP
2× ×
特征图尺寸降采样、特征维度提升时采用Basic F1 = TP+FP TP+FN (2)
TP TP
Block,而在特征图尺寸保持不变时采用Fusion +
TP+FP TP+FN
Block,以更高效地提取和融合特征,同时避免过 对于多分类的情形,上述指标仍然可用,我们
多的计算开销。 可以逐类计算其准确度和F1分数,在计算某类时将
2 实验结果与分析 其他类均视为N(反例)。
2.2 实验结果
本文首先以WESAD数据集为例说明所提方法 为公平验证所提方法的有效性,本文在相同的
的性能。WESAD数据集是德国锡根大学团队使用 WESAD数据集设置和实验配置下,设计了一系列
可穿戴设备采集的开源多模态数据集,其通过设置 对比实验。WESAD数据集上各种方法的实验结果
在胸部和腕部的传感器来采集多种生理信号和运动 如表2所示。
数据,包括脉搏波、心电、皮电、肌电、呼吸、体 表2 WESAD数据集上各种方法的实验结果
温和三轴加速度。与传统的多模态数据集不同, Tab.2 Experimental results of various methods on the WESAD dataset
WESAD数据集在采集受试者多模态数据时为受试 方法 Acc(%) F1(%)
者提供了三个任务场景(静息/压力/娱乐),能帮 ML(Mariana) 86.41 84.50
助研究人员探究生理信号和受试者情绪状态的联 AE+CNN 81.47 78.26
系。WESAD数据集还包括受试者的自评报告,用 ResNet(1D) 90.49 78.70
于受试者主观描述其自身的情绪状态。本文使用 LSTM 84.87 N/A
WESAD数据集中的ECG信号进行情绪识别三分类 RCK 91.8 91.8
任务。 CNN-RNN 94.5 93.8
2.1 实验设置 DNN 94.66 89.60
本文随机将15名受试者中的13名划分到训练 CNN+RFE 89.12 88.07
集,2名划分到测试集,训练过程中不使用测试 ResNet(2D) 92.36 82.53
集。数据集划分情况如表1所示。 本文方法
96.85 94.08
表1 数据集划分情况
Tab.1 Dataset split configuration 本文设计的对比实验对象包括1种机器学习方
数据集 静息 压力 娱乐 法,2种以转换后的“二维图像”作为输入的方
训练集 3 027 1 689 947 法,6种以一维心电信号作为输入的方法,分别为
[15]
[16]
测试集 469 276 145 AE+CNN 、ResNet(1D)、LSTM、RCK 、CNN-
RNN 、DNN 。在表2中,由于缺少源码,因此
[17] [18]
本文使用RTX 4090显卡训练模型。训练过程
除ResNet与LSTM是本文重新训练以外,其他方法
中使用带权重的交叉熵损失函数计算损失值,并使 的量化数据直接取自原论文。与众多方法相比,本
用AdamW优化器更新模型参数。损失函数中各类 文提出的基于1D-2D信号转换的情绪识别方法在准
别损失的权重值为归一化后的各类别计数的倒数, 确度与F1分数两个指标上均取得了最优的结果,分
即某一类样本较多则其损失权重较小。模型训练涉 别 达 到 了 96.85%和 94.08%。 相 比 于 Acc次 优 的
及的主要参数包括随机种子42,批大小4,训练轮 DNN方法,本文提出的方法在Acc与F1两个指标上
−4
次100,学习率4×10 ,权重衰减系数1×10 。本文 分别高出2.19%与4.48%。相比于更加均衡的Hybrid
−4
使用准确度(accuracy)和F1分数(F1-score)来 CNN-RNN方法,本文提出的方法在Acc与F1两个
客观描述不同方法的性能,对于二分类的情形,我 指标上分别高出2.35%与0.28%。与SOTA方法的对
们 可 以 通 过 混 淆 矩 阵 中 真 正 例 ( true positive, 比证明了本文方法的有效性。
TP)、假正例(false positive, FP)、真反例(true 为了验证本文的推测,我们使用原始的一维心
negative, TN)和假反例(false negative, FN)的数 电信号作为输入,分别采用基线网络ResNet18、
目来计算这两个指标: LSTM、 AE+CNN等6种方法进行了对比实验。实
TP+TN 验结果表明,本文提出的基于1D-2D信号转换的情
Acc = (1)
TP+FP+TN+FN 绪识别方法优于单纯的一维方法。对常用的进行时
4

