Page 135 - 《软件学报》2025年第9期
P. 135

4046                                                       软件学报  2025  年第  36  卷第  9  期


                 过程中都得到同等程度的关注, 这里将聚类质心数分别设置为                    bug  数和开发人员数的      30%, 并随机选择测试集中
                 的样本作为初始簇中心. 所有实验均在配置为               16 GB  内存、英特尔酷睿     i7-7700、NVIDIA GTX 1080ti 的同一台
                 PC    机上进行.
                 4.4   结果与分析
                    ● RQ1: 性能比较.
                    表  3  显示了  CBT-MF  与其他基线方法在     3  个所选数据集的测试集上, 进行         bug  分派后获得的评估指标统计
                 结果. 其中, 带有下划线的结果为每个类别的最佳结果, 粗体显示结果为                    CBT-MF  的性能评估情况.

                                          表 3 3  类方法和两种消融模型的总体性能比较

                                   文本分类         相关性匹配                    CF推荐                  消融研究
                 数据集     指标
                                CBR   DBRNN-A  BERT GRCNN   CBCF  NCF  Light GCN  SGL  CBT-MF  CBT-G CBT-P
                        Recall@5  0.001 5  0.001 9  0.001 1  0.001 4  0.001 8 0.002 7  0.002 9  0.003 1  0.007 5  0.005 6 0.004 1
                       Recall@10 0.002 2  0.002 4  0.001 6  0.001 7  0.002 4 0.003 5  0.003 5  0.003 7  0.008 2  0.006 1 0.005 1
                       Recall@15 0.002 5  0.002 6  0.002 4  0.002 7  0.003 7 0.004 1  0.004 7  0.008 4  0.008 7  0.008 3 0.007 1
                       Recall@20 0.002 7  0.002 9  0.002 9  0.003 1  0.004 3 0.004 6  0.005 1  0.009 4  0.010 9  0.009 0 0.008 5
                       Recall@25 0.003 1  0.003 7  0.003 5  0.004 1  0.005 8 0.006 5  0.007 2  0.010 5  0.014 5  0.011 5 0.010 2
                   GC
                         Hit@5  0.019 6  0.026 1  0.024 4  0.028 8  0.029 7 0.031 5  0.036 1  0.038 8  0.047 6  0.036 8 0.033 2
                        Hit@10  0.028 4  0.032 0  0.032 3  0.038 6  0.033 2 0.039 6  0.043 6  0.040 5  0.053 9  0.041 6 0.039 6
                        Hit@15  0.033 0  0.041 0  0.040 8  0.043 2  0.041 8 0.045 1  0.049 1  0.054 0  0.060 2  0.051 1 0.045 9
                        Hit@20  0.045 7  0.046 6  0.046 9  0.048 3  0.049 9 0.051 0  0.052 0  0.058 6  0.063 1  0.055 0 0.052 5
                        Hit@25  0.062 9  0.071 2  0.058 5  0.068 9  0.068 0 0.073 0  0.090 2  0.110 1  0.121 6  0.071 5 0.065 1
                        Recall@5  0.000 3  0.000 4  0.000 7  0.000 9  0.001 0 0.001 3  0.001 4  0.001 8  0.003 6  0.001 5 0.001 2
                       Recall@10 0.000 6  0.000 7  0.000 9  0.001 0  0.001 1 0.001 3  0.001 6  0.002 4  0.004 1  0.002 2 0.002 1
                       Recall@15 0.000 7  0.000 8  0.000 9  0.001 1  0.001 0 0.001 4  0.001 7  0.002 9  0.004 3  0.002 6 0.002 3
                       Recall@20 0.000 8  0.000 9  0.001 0  0.001 1  0.001 2 0.001 6  0.001 8  0.003 2  0.004 4  0.002 9 0.002 4
                       Recall@25 0.001 0  0.001 2  0.002 5  0.002 6  0.001 9 0.002 2  0.002 7  0.003 5  0.008 5  0.003 3 0.002 9
                   MC
                         Hit@5  0.051 4  0.071 4  0.061 6  0.080 8  0.093 6 0.112 1  0.127 4  0.130 0  0.144 2  0.120 2 0.098 7
                        Hit@10  0.080 9  0.090 9  0.097 0  0.103 9  0.110 2 0.129 3  0.130 5  0.138 2  0.159 6  0.127 5 0.122 0
                        Hit@15  0.092 2  0.101 2  0.102 2  0.109 4  0.115 1 0.130 6  0.131 2  0.140 6  0.168 2  0.133 0 0.132 9
                        Hit@20  0.101 5  0.108 4  0.110 9  0.119 8  0.126 0 0.136 6  0.133 2  0.149 1  0.170 0  0.145 7 0.136 6
                        Hit@25  0.132 0  0.145 7  0.135 3  0.160 2  0.131 1 0.141 1  0.154 7  0.165 7  0.222 9  0.168 1 0.156 3
                        Recall@5  0.001 2  0.002 1  0.002 3  0.004 2  0.005 4 0.006 1  0.006 8  0.008 2  0.012 3  0.006 6 0.005 2
                       Recall@10 0.002 5  0.003 9  0.005 9  0.006 1  0.006 6 0.007 2  0.006 5  0.009 9  0.013 8  0.008 6 0.007 6
                       Recall@15 0.003 6  0.004 8  0.006 0  0.006 4  0.007 0 0.008 0  0.007 2  0.010 2  0.017 3  0.009 7 0.008 2
                       Recall@20 0.004 8  0.005 1  0.006 3  0.006 7  0.007 3 0.008 0  0.007 8  0.011 3  0.019 1  0.011 1 0.013 0
                       Recall@25 0.006 4  0.008 2  0.008 7  0.009 5  0.008 2 0.009 7  0.009 5  0.012 2  0.029 0  0.012 8 0.013 5
                   MF
                         Hit@5  0.176 2  0.189 6  0.215 9  0.233 0  0.260 2 0.287 4  0.302 4  0.356 8  0.372 7  0.295 1 0.271 7
                        Hit@10  0.207 2  0.232 5  0.253 7  0.275 1  0.288 0 0.307 9  0.328 5  0.339 1  0.398 2  0.301 1 0.292 0
                        Hit@15  0.251 5  0.278 3  0.261 5  0.283 2  0.293 6 0.318 9  0.338 5  0.359 2  0.419 6  0.355 8 0.317 3
                        Hit@20  0.280 0  0.296 5  0.279 9  0.290 2  0.299 8 0.333 3  0.346 7  0.380 0  0.423 8  0.370 6 0.345 5
                        Hit@25  0.301 5  0.324 2  0.305 7  0.324 7  0.310 8 0.353 3  0.368 0  0.401 7  0.430 9  0.401 2 0.381 3

                    从表  3  中可以观察到, 尽管     3  类不同的分派方法均采用了相同的优化方式, 但在                GC、MC  和  MF  数据集上
                 的  Recall@K  指标表现差异仍然较大. 其中, CBT-MF     在所有   Recall@K  指标上表现得最好, 其次是      SGL  方法. 而在
                 剩余方法中, NCF    和  LightGCN  方法表现较为接近. BERT    方法劣于    GRCNN, 且二者的    Recall@K  指标均低于  CF
                 推荐类的方法. 与     CBR  相比  DBRNN-A  表现出了一定的优势, 但均两类指标均低于相关性匹配和                  CF  推荐类的方
                 法. 这些方法性能表现结果差异很大程度上是因为, 基于单一模态                     bug  分类、相关性匹配和基于       CF  的方法采用
                 了不同的处理过程, 且方法模型的学习过程也不尽相同, 最终表现出了不同的数据拟合能力, 从而影响了方法的分
                 派性能.
   130   131   132   133   134   135   136   137   138   139   140