Page 271 - 《软件学报》2025年第10期
P. 271
4668 软件学报 2025 年第 36 卷第 10 期
的计算, win-tie-loss 检验结果如表 3 所示. N = 8 时, 当任意一个模型在大于等于 5.96 个数据集上获胜时, 两种模
型的差异显著. 从表 3 可以看出, IFDSCN 与其他对比模型均存在显著差异, 这体现了 IFDSCN 分类精度的优越性.
IFTWSVM IFTWSVM (4.00)
KRR KRR (2.88)
IFKRR IFKRR (1.88)
RVFL RVFL (2.88)
SCN SCN (4.62)
DSCN DSCN (5.62)
IFSCN IFSCN (6.50)
IFDSCN IFDSCN (7.62)
0 2 4 6 8
图 2 Nemenyi 检验结果
表 3 win-tie-loss 检验结果
模型 IFTWSM KRR IFKRR RVFL SCN DSCN IFSCN
KRR [2, 0, 6] - - - - - -
IFKRR [0, 0, 8] [4, 0, 4] - - - - -
RVFL [2, 0, 6] [4, 0, 4] [5, 0, 3] - - - -
SCN [6,1,1] [6, 0, 2] [8, 0, 0] [7, 0, 1] - - -
DSCN [7, 0, 1] [7, 0, 1] [8, 0, 0] [7, 0, 1] [7, 0, 1] - -
IFSCN [7, 0, 1] [7, 0, 1] [8, 0, 0] [7, 0, 1] [8, 0, 0] [7, 0, 1] -
IFDSCN [7, 0, 1] [7, 0, 1] [8, 0, 0] [7, 0, 1] [8, 0, 0] [8, 0, 0] [8, 0, 0]
综上所述, 我们采用不同的衡量指标和统计检验对本文提出的 IFDSCN 模型进行了评估, 显而易见, IFDSCN
的模型二分类精度与本文所列的其他机器学习模型相比有着很大的优势. 与此同时, 我们也可以得出两点结论:
(1) IFDSCN 相较于 SCN、DSCN 在二分类性能上有了较大的改进; (2) 深层的 IFDSCN 相较于浅层的 IFSCN 也
有一定程度的优势, 可见深度扩展的 SCN 有利于提取更多更有效的特征信息, 从而获取更高的二分类精度.
3.4 加入噪声的数据集实验结果
为了全面评估 IFDSCN 模型的鲁棒性, 本节设计了两个对比实验, 分别在基准数据集及人造数据集上进行.
首先, 我们选取了表 1 中的两个数据集: ecoli3 和 wpbc, 并分别加入了 5% 和 10% 的噪声, 以模拟真实场景中
的数据质量波动. 在此基础上, 我们分别在 SCN、DSCN、IFSCN 和本文提出的 IFDSCN 模型上进行了实验, 以比
较它们在不同噪声水平下的性能表现. 图 3 展示了各模型在不同噪声比例下的分类精度曲线. 从实验结果可以看
出, IFDSCN 在所有噪声设置下均取得了最优的分类性能, 其精度曲线始终高于其他模型. 更值得注意的是, 随着
噪声水平的提高, IFDSCN 的精度下降幅度最小, 其折线走势最为平缓. 这一现象充分证明了 IFDSCN 较之其他模
型具有更强的鲁棒性, 能够在噪声环境中维持稳定的分类性能.
然后, 我们在 Circle-in-the-Square 问题上加入不同的噪声比例对本文提出的 IFDSN 模型进行鲁棒性能评估.
Circle-in-the-Square 是一个二分类问题, 它需要分类器识别正方形中的样本是位于圆形的内部还是外部. 圆的位置
为中心, 占正方形的一半. 在本实验中, 我们挑选 10 000 个样本, 分别加入 0、5% 及 10% 的噪声, 实验结果如表 4
所示, 可以看出, IFDSCN 在有噪声的数据集中有着优异的表现, 在各种噪声比例下都有着最高的分类精度.
综合以上实验结果, 我们可以得出以下结论: 本文提出的 IFDSCN 模型在不同程度的噪声干扰下, 展现出了较
好的分类精度和鲁棒性, 优于现有的 SCN、DSCN 和 IFSCN 等模型. 这表明, IFDSCN 能够有效地抑制噪声的影
响, 在复杂多变的实际应用场景中具有较强的适应性和可靠性.

