Page 325 - 《软件学报》2025年第7期
P. 325
3246 软件学报 2025 年第 36 卷第 7 期
其中, Q 是标签数量, N 是样本数量, XOR 是异或运算, y i 是第 i 个样本的预测值, ˆ y i 是第 i 个样本的真实值, tp j 、fp j 、
fn j 分别表示第 j 个标签下真阳性、假阳性、假阴性的样本数量.
3.3 基线模型
为了进行全方面对比, 本文选取了多种模型作为基线. 其中 Binary relevance (BR)、CNN-RNN、LSAN 未考
虑标签之间的相关性, Classifier chain (CC)、MRMP、LANRTN、LACO、ML-R、SGM 考虑了标签之间的相关性.
● BR [47] 为每个标签独立训练一个二元分类器 (线性 SVM).
● CC [27] 将 MLTC 问题转化为一系列二进制分类问题.
● CNN-RNN [48] 使用 CNN 和 RNN 提取全局和局部语义信息, 并对高阶标签相关性进行建模.
● SGM [44] 提出了一种新的序列生成模型, 用于解决多标签分类问题.
● LSAN [26] 借助注意机制学习标签特定的文本表示.
● ML-R [49] 将推理机制引入多标签文本分类问题.
● LACO [50] 通过多任务学习来增强多标签文本分类中的标签相关性学习.
● MRMP [29] 在标签之间建立了推拉关系, 以此学习到标签之间更为丰富的信息.
● LANRTN [51] 使用基于注意力机制的序列建模方法用于学习文本序列的表示.
3.4 实验设置
本文基于 PyTorch 框架构建模型, PyTorch 版本为 2.1.1, Python 版本为 3.11.5. 实验程序运行在 Ubuntu 20.04.1
LTS 系统上, CPU 型号为 Xeon Platinum 8168, GPU 型号为 NVIDIA GeForce RTX 3090, CUDA 版本为 12.0. 在超
参数设置方面, 本文将词向量维度和标签向量维度设为 512, 文本语义提取网络的层数设为 2, 注意力头的数量被
设为 4, 图卷积层数设为 2, 标签相关语义提取网络的层数设为 2, 整个模型使用 Adam [52] 进行训练, 初始学习率为
0.000 2, 步长为 10, 衰减率为 10%.
3.5 实验结果
●问题 1: FDGN 是否比其他多标签文本分类的方法更好?
为了验证方法 FDGN 的有效性, 本文选取了经典的基线模型并比较了它们在 BIBTEX、RCV1-V2 和 AAPD
数据集上的结果, 如表 2 所示. 结果表明, 本文所提出的模型在这 3 个数据集上都具有最好的性能. 进一步的, 本文
观察到如下现象.
表 2 实验结果
BIBTEX RCV1-V2 AAPD
算法
Micro-Precision HL×10 −2 Micro-F1 Micro-Precision HL×10 −2 Micro-F1 Micro-Precision HL×10 −2 Micro-F1
BR 0.531 1.66 0.388 0.904 0.85 0.857 0.664 3.16 0.646
CNN-RNN 0.537 1.48 0.411 0.889 0.87 0.856 0.718 2.80 0.664
LSAN 0.559 1.36 0.478 0.910 0.79 0.882 0.776 2.46 0.702
CC 0.535 1.62 0.407 0.887 0.87 0.857 0.657 3.06 0.654
LANRTN 0.564 1.33 0.472 0.906 0.73 0.892 0.762 2.40 0.718
LACO 0.558 1.30 0.483 0.907 0.72 0.883 0.803 2.13 0.748
SGM 0.534 1.42 0.475 0.887 0.81 0.869 0.746 2.50 0.699
ML-R 0.565 1.39 0.473 0.890 0.79 0.871 0.726 2.48 0.722
MRMP 0.566 1.32 0.479 0.912 0.73 0.896 0.799 2.12 0.749
FDGN 0.575 * 1.27 * 0.493 * 0.915 * 0.70 * 0.912 * 0.804 * 2.10 * 0.753 *
注: 粗体格式的为最优结果, 下划线格式的为次优结果 , *代表p-value值小于0.05, 具有显著性
1) 与 BR 和 CC 等传统机器学习方法相比, 一些基于深度学习的经典模型 (如 CNN-RNN) 在多标签文本分类
任务中具有明显优势, 这是因为它可以从文本中提取更深层次的语义特征. 与 CNN-RNN 模型相比, LSAN 利用注
意力机制为每个标签学习一个特定的文档表示, 其中在 AAPD 数据集上, Micro-Precision 提升了 8.08%, HL 减少

