Page 8 - 《中国医疗器械杂志》2026年第1期
P. 8

Chinese Journal of Medical Instrumentation                                         2026年 第50卷 第1期

                                                     医  学  人   工  智  能



              Basic Block模块与改进后的Fusion Block模块,在                                     TP       TP
                                                                                2×        ×
              特征图尺寸降采样、特征维度提升时采用Basic                                       F1 =   TP+FP    TP+FN           (2)
                                                                                    TP       TP
              Block,而在特征图尺寸保持不变时采用Fusion                                                 +
                                                                                  TP+FP   TP+FN
              Block,以更高效地提取和融合特征,同时避免过                              对于多分类的情形,上述指标仍然可用,我们
              多的计算开销。                                           可以逐类计算其准确度和F1分数,在计算某类时将
               2    实验结果与分析                                     其他类均视为N(反例)。
                                                                                      2.2    实验结果

                  本文首先以WESAD数据集为例说明所提方法                             为公平验证所提方法的有效性,本文在相同的
              的性能。WESAD数据集是德国锡根大学团队使用                           WESAD数据集设置和实验配置下,设计了一系列
              可穿戴设备采集的开源多模态数据集,其通过设置                            对比实验。WESAD数据集上各种方法的实验结果
              在胸部和腕部的传感器来采集多种生理信号和运动                            如表2所示。
              数据,包括脉搏波、心电、皮电、肌电、呼吸、体                                  表2   WESAD数据集上各种方法的实验结果
              温和三轴加速度。与传统的多模态数据集不同,                             Tab.2  Experimental results of various methods on the WESAD dataset
              WESAD数据集在采集受试者多模态数据时为受试                                   方法             Acc(%)        F1(%)
              者提供了三个任务场景(静息/压力/娱乐),能帮                               ML(Mariana)         86.41         84.50
              助研究人员探究生理信号和受试者情绪状态的联                                   AE+CNN            81.47         78.26
              系。WESAD数据集还包括受试者的自评报告,用                                ResNet(1D)         90.49         78.70
              于受试者主观描述其自身的情绪状态。本文使用                                    LSTM             84.87         N/A
              WESAD数据集中的ECG信号进行情绪识别三分类                                  RCK             91.8          91.8
              任务。                                                    CNN-RNN            94.5          93.8
               2.1    实验设置                                             DNN              94.66         89.60
                  本文随机将15名受试者中的13名划分到训练                              CNN+RFE            89.12         88.07
              集,2名划分到测试集,训练过程中不使用测试                                  ResNet(2D)         92.36         82.53
              集。数据集划分情况如表1所示。                                         本文方法
                                                                                        96.85         94.08
                             表1   数据集划分情况
                          Tab.1  Dataset split configuration        本文设计的对比实验对象包括1种机器学习方
                  数据集          静息         压力         娱乐         法,2种以转换后的“二维图像”作为输入的方
                  训练集          3 027      1 689      947        法,6种以一维心电信号作为输入的方法,分别为
                                                                         [15]
                                                                                                     [16]
                  测试集          469        276        145        AE+CNN 、ResNet(1D)、LSTM、RCK 、CNN-
                                                                RNN 、DNN 。在表2中,由于缺少源码,因此
                                                                     [17]    [18]
                  本文使用RTX 4090显卡训练模型。训练过程
                                                                除ResNet与LSTM是本文重新训练以外,其他方法
              中使用带权重的交叉熵损失函数计算损失值,并使                            的量化数据直接取自原论文。与众多方法相比,本
              用AdamW优化器更新模型参数。损失函数中各类                           文提出的基于1D-2D信号转换的情绪识别方法在准
              别损失的权重值为归一化后的各类别计数的倒数,                            确度与F1分数两个指标上均取得了最优的结果,分
              即某一类样本较多则其损失权重较小。模型训练涉                            别 达 到 了 96.85%和 94.08%。 相 比 于 Acc次 优 的
              及的主要参数包括随机种子42,批大小4,训练轮                           DNN方法,本文提出的方法在Acc与F1两个指标上
                                                     −4
              次100,学习率4×10 ,权重衰减系数1×10 。本文                      分别高出2.19%与4.48%。相比于更加均衡的Hybrid
                                −4
              使用准确度(accuracy)和F1分数(F1-score)来                   CNN-RNN方法,本文提出的方法在Acc与F1两个
              客观描述不同方法的性能,对于二分类的情形,我                            指标上分别高出2.35%与0.28%。与SOTA方法的对
              们 可 以 通 过 混 淆 矩 阵 中 真 正 例 ( true  positive,       比证明了本文方法的有效性。
              TP)、假正例(false positive, FP)、真反例(true                  为了验证本文的推测,我们使用原始的一维心
              negative, TN)和假反例(false negative, FN)的数           电信号作为输入,分别采用基线网络ResNet18、
              目来计算这两个指标:                                        LSTM、 AE+CNN等6种方法进行了对比实验。实
                                    TP+TN                       验结果表明,本文提出的基于1D-2D信号转换的情
                           Acc =                          (1)
                                TP+FP+TN+FN                     绪识别方法优于单纯的一维方法。对常用的进行时


                                                              4
   3   4   5   6   7   8   9   10   11   12   13