Page 325 - 《软件学报》2025年第7期
P. 325

3246                                                       软件学报  2025  年第  36  卷第  7  期


                 其中, Q  是标签数量, N  是样本数量, XOR    是异或运算,    y i  是第  i 个样本的预测值,  ˆ y i  是第  i 个样本的真实值, tp j 、fp j 、
                 fn j 分别表示第  j 个标签下真阳性、假阳性、假阴性的样本数量.

                 3.3   基线模型
                    为了进行全方面对比, 本文选取了多种模型作为基线. 其中                   Binary relevance (BR)、CNN-RNN、LSAN  未考
                 虑标签之间的相关性, Classifier chain (CC)、MRMP、LANRTN、LACO、ML-R、SGM         考虑了标签之间的相关性.
                    ● BR [47] 为每个标签独立训练一个二元分类器         (线性  SVM).
                    ● CC [27] 将  MLTC  问题转化为一系列二进制分类问题.
                    ● CNN-RNN [48] 使用  CNN  和  RNN  提取全局和局部语义信息, 并对高阶标签相关性进行建模.
                    ● SGM [44] 提出了一种新的序列生成模型, 用于解决多标签分类问题.
                    ● LSAN [26] 借助注意机制学习标签特定的文本表示.
                    ● ML-R [49] 将推理机制引入多标签文本分类问题.
                    ● LACO [50] 通过多任务学习来增强多标签文本分类中的标签相关性学习.
                    ● MRMP [29] 在标签之间建立了推拉关系, 以此学习到标签之间更为丰富的信息.
                    ● LANRTN [51] 使用基于注意力机制的序列建模方法用于学习文本序列的表示.

                 3.4   实验设置
                    本文基于    PyTorch 框架构建模型, PyTorch 版本为    2.1.1, Python 版本为  3.11.5. 实验程序运行在  Ubuntu 20.04.1
                 LTS  系统上, CPU  型号为  Xeon Platinum 8168, GPU  型号为  NVIDIA GeForce RTX 3090, CUDA  版本为  12.0. 在超
                 参数设置方面, 本文将词向量维度和标签向量维度设为                  512, 文本语义提取网络的层数设为          2, 注意力头的数量被
                 设为  4, 图卷积层数设为     2, 标签相关语义提取网络的层数设为           2, 整个模型使用 Adam    [52] 进行训练, 初始学习率为
                 0.000 2, 步长为  10, 衰减率为  10%.

                 3.5   实验结果
                    ●问题  1: FDGN  是否比其他多标签文本分类的方法更好?
                    为了验证方法      FDGN  的有效性, 本文选取了经典的基线模型并比较了它们在                  BIBTEX、RCV1-V2  和  AAPD
                 数据集上的结果, 如表      2  所示. 结果表明, 本文所提出的模型在这          3  个数据集上都具有最好的性能. 进一步的, 本文
                 观察到如下现象.

                                                      表 2 实验结果

                                   BIBTEX                    RCV1-V2                     AAPD
                   算法
                          Micro-Precision HL×10 −2  Micro-F1  Micro-Precision HL×10 −2  Micro-F1  Micro-Precision HL×10 −2  Micro-F1
                    BR       0.531     1.66   0.388     0.904     0.85  0.857     0.664     3.16   0.646
                 CNN-RNN     0.537     1.48   0.411     0.889     0.87  0.856     0.718     2.80   0.664
                   LSAN      0.559     1.36   0.478     0.910     0.79  0.882     0.776     2.46   0.702
                    CC       0.535     1.62   0.407     0.887     0.87  0.857     0.657     3.06   0.654
                  LANRTN     0.564     1.33   0.472     0.906     0.73  0.892     0.762     2.40   0.718
                   LACO      0.558     1.30   0.483     0.907     0.72  0.883     0.803     2.13   0.748
                   SGM       0.534     1.42   0.475     0.887     0.81  0.869     0.746     2.50   0.699
                   ML-R      0.565     1.39   0.473     0.890     0.79  0.871     0.726     2.48   0.722
                   MRMP      0.566     1.32   0.479     0.912     0.73  0.896     0.799     2.12   0.749
                   FDGN      0.575 *   1.27 *  0.493 *  0.915 *  0.70 *  0.912 *  0.804 *   2.10 *  0.753 *
                 注: 粗体格式的为最优结果, 下划线格式的为次优结果 , *代表p-value值小于0.05, 具有显著性

                    1) 与  BR  和  CC  等传统机器学习方法相比, 一些基于深度学习的经典模型               (如  CNN-RNN) 在多标签文本分类
                 任务中具有明显优势, 这是因为它可以从文本中提取更深层次的语义特征. 与                        CNN-RNN  模型相比, LSAN   利用注
                 意力机制为每个标签学习一个特定的文档表示, 其中在                  AAPD  数据集上, Micro-Precision  提升了  8.08%, HL  减少
   320   321   322   323   324   325   326   327   328   329   330