Page 362 - 《软件学报》2024年第4期
P. 362
1940 软件学报 2024 年第 35 卷第 4 期
表 2 列出了本文采用的 6 种在多标记学习 [5] 中广泛使用的评估方法: hamming loss, one-error, coverage, ranking
loss, average precision 和 macro-AUC, “ ↓ ”意味着度量越低越好, “ ↑ ”意味着度量越高越好. 其中 coverage 是通过
标记的数量进行归一化的, 因此所有评估度量值都在 [0, 1] 之间变化.
表 2 6 个多标记性能度量的定义
度量 公式
1 m ∑ l ∑ [ ]
Hamming loss ↓ ml I h i j , y i j
i=1 j=1
1 m ∑ [ ]
One-error ↓ I argmax f (x i ) < Y +
m i
i=1
1 m ∑ [ ]
Coverage ↓ I max j∈Y +rank f (x i , j)−1
ml i
i=1
i
1 m ∑ S
Ranking loss ↓ rank
m + −
Y Y
i=1 i i
ij
1 m ∑ 1 ∑ S precision
Average precision ↑
m + rank f (x i , j)
i=1 Y j∈Y +
i
i
j
1 l ∑ S macro
Macro-AUC ↑
l
+ −
·j
·j
j=1 Y Y
4.2 不同衡量指标下的性能
我们将 iMLDF 与以下 6 个对比算法进行比较: RF-PCT [24,25] 、DBPNN [26,27] 、RAKEL [28] 、MLKNN [29] 、
MLARAM [30] 和 MLDF [13] . 其中, DBPNN (deep back propagation neural network) 是 DNN 方法用于多标记问题的代
表算法; RAKEL (random K-label pruned sets) 和 RF-PCT (random forest of predictive clustering trees) 是多标记集成
学习方法的代表; RAKEL 从标记集合中提取 M 个大小为 k 的子集, 并对每个子集进行修剪集训练, 然后结合修剪
集分类器中的标记投票, 得到一个标记向量预测. RF-PCT 是基于 PCT 的集成, PCT 从多分类决策树改进, 它允许
在树的叶子中有多个标记, 其公式可以通过对每个标记的标准值求和来修改; RF-PCT 通过自助法采样以及特征
子集筛选来加强 PCT 的预测能力. MLKNN (multi-label K-nearest neighbours) 构建使用 K-nearest neighbors 找到与
测试样本最接近的训练样本, 并使用贝叶斯推断选择最终分配的标记. MLARAM (multi-label fuzzy adaptive
resonance associative map) 的目标是通过增加一个额外的 ART (adaptive resonance theory) 层来将学习到的原型聚
类成大型的聚类, 从而提高分类速度. 在这种情况下, 所有原型的激活可以被其中一小部分的激活所取代, 从而显
著减少分类时间.
下面列出了比较方法的参数设置. 对于 RF-PCT, 将树的个数取为 500, 分裂指标为基尼指数, 不限制树的深
√
度, 特征子集的大小为 k . 对于 DBPNN, 选择两个大小分别为 100 和 50 的隐层, 激活函数为线性整流函数, 优化
器为 Adam. 对于 RAKEL, 选择使用基尼指数为分裂标准的决策树作为基学习器, 每个标记分区的大小为 4. 对于
MLKNN, 设置近邻大小为 10, 光滑参数为 1.0. 对于 MLARAM, 设置 ART 网络的参数为 0.9. 对于 MLDF, 设置最
大层数为 10, 每层中有 4 个 RF-PCT, 每个 RF-PCT 的树的个数为 100, 每棵树都使用基尼指数作为分裂指标, 并且
不限制树的深度. 对于 iMLDF, 关于每一层中 RF-PCT 的设置与 MLDF 保持一致, 最大层数也为 10, 对于其中随
机交集树参数的设置, 选择自助采样的次数为 10; 默认的交集树的数量是 20, 深度为 5.
我们对每个算法进行了 10 次实验. 记录 10 次训练/测试实验的平均度量值和标准偏差, 以进行比较研究. 表 3
报告了比较算法的详细实验结果, ↓ (↑) 表示值越小 (越大), 性能越好, 粗体表示最好的预测性能. iMLDF 在每个评
估指标方面实现最佳平均排名. 在 7 个基准数据集中, 在所有评估指标中, iMLDF 在 88.10% 的测试中排名第 1,