Page 271 - 《软件学报》2025年第10期
P. 271

4668                                                      软件学报  2025  年第  36  卷第  10  期


                 的计算, win-tie-loss 检验结果如表   3  所示.  N = 8 时, 当任意一个模型在大于等于       5.96  个数据集上获胜时, 两种模
                 型的差异显著. 从表      3  可以看出, IFDSCN  与其他对比模型均存在显著差异, 这体现了             IFDSCN  分类精度的优越性.

                                          IFTWSVM          IFTWSVM (4.00)
                                             KRR        KRR (2.88)
                                            IFKRR   IFKRR (1.88)
                                            RVFL        RVFL (2.88)
                                             SCN             SCN (4.62)
                                            DSCN                DSCN (5.62)
                                            IFSCN                  IFSCN (6.50)
                                           IFDSCN                     IFDSCN (7.62)
                                                0     2     4      6     8
                                                   图 2 Nemenyi 检验结果


                                                  表 3 win-tie-loss 检验结果

                     模型        IFTWSM       KRR       IFKRR      RVFL       SCN       DSCN       IFSCN
                     KRR       [2, 0, 6]     -         -          -          -         -          -
                    IFKRR      [0, 0, 8]   [4, 0, 4]   -          -          -         -          -
                    RVFL       [2, 0, 6]   [4, 0, 4]  [5, 0, 3]   -          -         -          -
                     SCN        [6,1,1]    [6, 0, 2]  [8, 0, 0]  [7, 0, 1]   -         -          -
                    DSCN       [7, 0, 1]   [7, 0, 1]  [8, 0, 0]  [7, 0, 1]  [7, 0, 1]  -          -
                    IFSCN      [7, 0, 1]   [7, 0, 1]  [8, 0, 0]  [7, 0, 1]  [8, 0, 0]  [7, 0, 1]  -
                    IFDSCN     [7, 0, 1]   [7, 0, 1]  [8, 0, 0]  [7, 0, 1]  [8, 0, 0]  [8, 0, 0]  [8, 0, 0]

                    综上所述, 我们采用不同的衡量指标和统计检验对本文提出的                     IFDSCN  模型进行了评估, 显而易见, IFDSCN
                 的模型二分类精度与本文所列的其他机器学习模型相比有着很大的优势. 与此同时, 我们也可以得出两点结论:
                 (1) IFDSCN  相较于  SCN、DSCN  在二分类性能上有了较大的改进; (2) 深层的           IFDSCN  相较于浅层的     IFSCN  也
                 有一定程度的优势, 可见深度扩展的           SCN  有利于提取更多更有效的特征信息, 从而获取更高的二分类精度.
                  3.4   加入噪声的数据集实验结果
                    为了全面评估      IFDSCN  模型的鲁棒性, 本节设计了两个对比实验, 分别在基准数据集及人造数据集上进行.
                    首先, 我们选取了表      1  中的两个数据集: ecoli3  和  wpbc, 并分别加入了    5%  和  10%  的噪声, 以模拟真实场景中
                 的数据质量波动. 在此基础上, 我们分别在            SCN、DSCN、IFSCN   和本文提出的     IFDSCN  模型上进行了实验, 以比
                 较它们在不同噪声水平下的性能表现. 图             3  展示了各模型在不同噪声比例下的分类精度曲线. 从实验结果可以看
                 出, IFDSCN  在所有噪声设置下均取得了最优的分类性能, 其精度曲线始终高于其他模型. 更值得注意的是, 随着
                 噪声水平的提高, IFDSCN     的精度下降幅度最小, 其折线走势最为平缓. 这一现象充分证明了                    IFDSCN  较之其他模
                 型具有更强的鲁棒性, 能够在噪声环境中维持稳定的分类性能.
                    然后, 我们在    Circle-in-the-Square 问题上加入不同的噪声比例对本文提出的          IFDSN  模型进行鲁棒性能评估.
                 Circle-in-the-Square 是一个二分类问题, 它需要分类器识别正方形中的样本是位于圆形的内部还是外部. 圆的位置
                 为中心, 占正方形的一半. 在本实验中, 我们挑选             10 000  个样本, 分别加入  0、5%  及  10%  的噪声, 实验结果如表    4
                 所示, 可以看出, IFDSCN   在有噪声的数据集中有着优异的表现, 在各种噪声比例下都有着最高的分类精度.
                    综合以上实验结果, 我们可以得出以下结论: 本文提出的                 IFDSCN  模型在不同程度的噪声干扰下, 展现出了较
                 好的分类精度和鲁棒性, 优于现有的            SCN、DSCN  和  IFSCN  等模型. 这表明, IFDSCN  能够有效地抑制噪声的影
                 响, 在复杂多变的实际应用场景中具有较强的适应性和可靠性.
   266   267   268   269   270   271   272   273   274   275   276