Page 362 - 《软件学报》2024年第4期
P. 362

1940                                                       软件学报  2024  年第  35  卷第  4  期


                    表  2 列出了本文采用的      6 种在多标记学习     [5] 中广泛使用的评估方法: hamming loss, one-error, coverage, ranking
                 loss, average precision  和  macro-AUC, “   ↓ ”意味着度量越低越好, “  ↑ ”意味着度量越高越好. 其中 coverage 是通过
                 标记的数量进行归一化的, 因此所有评估度量值都在                 [0, 1] 之间变化.

                                               表 2    6  个多标记性能度量的定义

                                             度量                        公式
                                                                   1  m ∑ l ∑ [  ]
                                         Hamming loss    ↓         ml    I h i j , y i j
                                                                     i=1 j=1
                                                                 1  m ∑ [       ]
                                          One-error   ↓             I argmax f (x i ) < Y  +
                                                                   m           i
                                                                  i=1
                                                               1  m ∑ [           ]
                                          Coverage   ↓             I max j∈Y +rank f (x i , j)−1
                                                                 ml     i
                                                                 i=1

                                                                         i
                                                                    1  m ∑ S
                                         Ranking loss   ↓                 rank

                                                                      m   + −
                                                                        Y Y
                                                                      i=1  i  i

                                                                           ij

                                                                 1  m ∑  1  ∑ S precision
                                        Average precision    ↑

                                                                 m   +  rank f (x i , j)
                                                                   i=1  Y   j∈Y +
                                                                     i
                                                                         i

                                                                          j

                                                                    1  l ∑ S macro
                                         Macro-AUC    ↑
                                                                     l
                                                                         + −
                                                                         ·j
                                                                           ·j
                                                                      j=1 Y Y

                  4.2   不同衡量指标下的性能
                    我们将   iMLDF  与以下   6  个对比算法进行比较: RF-PCT      [24,25] 、DBPNN [26,27] 、RAKEL [28] 、MLKNN [29] 、
                 MLARAM  [30]  和 MLDF [13] . 其中, DBPNN (deep back propagation neural network) 是  DNN  方法用于多标记问题的代
                 表算法; RAKEL (random K-label pruned sets) 和  RF-PCT (random forest of predictive clustering trees) 是多标记集成
                 学习方法的代表; RAKEL      从标记集合中提取       M  个大小为  k 的子集, 并对每个子集进行修剪集训练, 然后结合修剪
                 集分类器中的标记投票, 得到一个标记向量预测. RF-PCT               是基于   PCT  的集成, PCT  从多分类决策树改进, 它允许
                 在树的叶子中有多个标记, 其公式可以通过对每个标记的标准值求和来修改; RF-PCT                         通过自助法采样以及特征
                 子集筛选来加强      PCT  的预测能力. MLKNN (multi-label K-nearest neighbours) 构建使用  K-nearest neighbors 找到与
                 测试样本最接近的训练样本, 并使用贝叶斯推断选择最终分配的标记. MLARAM (multi-label fuzzy adaptive
                 resonance associative map) 的目标是通过增加一个额外的    ART (adaptive resonance theory) 层来将学习到的原型聚
                 类成大型的聚类, 从而提高分类速度. 在这种情况下, 所有原型的激活可以被其中一小部分的激活所取代, 从而显
                 著减少分类时间.
                    下面列出了比较方法的参数设置. 对于             RF-PCT, 将树的个数取为      500, 分裂指标为基尼指数, 不限制树的深
                                   √
                 度, 特征子集的大小为        k . 对于  DBPNN, 选择两个大小分别为      100  和  50  的隐层, 激活函数为线性整流函数, 优化
                 器为  Adam. 对于  RAKEL, 选择使用基尼指数为分裂标准的决策树作为基学习器, 每个标记分区的大小为                          4. 对于
                 MLKNN, 设置近邻大小为      10, 光滑参数为    1.0. 对于  MLARAM, 设置  ART  网络的参数为    0.9. 对于  MLDF, 设置最
                 大层数为   10, 每层中有   4  个  RF-PCT, 每个  RF-PCT  的树的个数为  100, 每棵树都使用基尼指数作为分裂指标, 并且
                 不限制树的深度. 对于       iMLDF, 关于每一层中     RF-PCT  的设置与  MLDF  保持一致, 最大层数也为       10, 对于其中随
                 机交集树参数的设置, 选择自助采样的次数为              10; 默认的交集树的数量是       20, 深度为  5.
                    我们对每个算法进行了         10  次实验. 记录  10  次训练/测试实验的平均度量值和标准偏差, 以进行比较研究. 表                3
                 报告了比较算法的详细实验结果,           ↓ (↑) 表示值越小  (越大), 性能越好, 粗体表示最好的预测性能. iMLDF           在每个评
                 估指标方面实现最佳平均排名. 在           7  个基准数据集中, 在所有评估指标中, iMLDF          在  88.10%  的测试中排名第    1,
   357   358   359   360   361   362   363   364   365   366   367