Page 411 - 《软件学报》2025年第9期
P. 411

4322                                                       软件学报  2025  年第  36  卷第  9  期


                 能是否有促进作用; model3     表示去除基于掩码注意力机制的图卷积网络组件的                   SAMG-LP  算法, 探究空间特征对
                 链路预测性能的重要程度; model4        表示将融合注意力网络换为直接对不同粒度时空特征相加融合的                        SAMG-LP
                 算法, 探究融合不同粒度的注意力网络组件的有效性; model5                表示将稀疏惩罚损失函数替换为            MSE  损失函数的
                 SAMG-LP  算法, 探究网络稀疏特性对        SAMG-LP  算法预测性能的影响. 消融实验的结果如表             3  所示, 其中加粗部
                 分表示最佳结果. 可以观察到, 所有变体模型的综合表现都不如                   SAMG-LP  算法, 实验表明    SAMG-LP  算法各个组
                 件的有效性.

                                                     表 3 消融实验结果

                                  Haggle              LH10             LyonSchool          workplace
                    算法
                            AUC   MR    Recall  AUC   MR    Recall  AUC   MR   Recall  AUC   MR    Recall
                   model0   0.907  0.041  0.838  0.921  0.101  0.887  0.818  0.084  0.696  0.962  0.052  0.934
                   model1   0.870  0.072  0.772  0.918  0.081  0.862  0.874  0.091  0.802  0.880  0.081  0.814
                   model2   0.865  0.078  0.764  0.922  0.087  0.869  0.915  0.089  0.889  0.914  0.096  0.885
                   model3   0.894  0.068  0.809  0.584  0.403  0.504  0.846  0.509  0.891  0.635  0.443  0.708
                   model4   0.892  0.047  0.809  0.936  0.086  0.890  0.819  0.082  0.684  0.954  0.058  0.922
                   model5   0.711  0.016  0.433  0.897  0.101  0.837  0.716  0.071  0.475  0.585  0.770  0.900
                  SAMG-LP   0.915  0.039  0.853  0.942  0.072  0.898  0.924  0.081  0.900  0.965  0.049  0.942

                    在  model0  中, 该变体相比于   SAMG-LP  算法在   AUC、MR   和  Recall 指标上的预测性能平均下降了         3.7%、
                 13.8%  和  6.6%, 这表明了多粒度社交网络快照序列对          SAMG-LP  的促进作用, 原始的社交网络快照序列仅能提供
                 短期趋势的信息, 而      GWMA  生成的快照序列能够有效地补充中、长期变化趋势的信息, 丰富了节点的嵌入表示;
                 在  model1  中, 变体模型的表现都不如       SAMG-LP  算法, 这表明社交网络多元演化在链路预测中的重要性; 在
                 model2  中, 仅使用历史邻居矩阵提取空间特征无法区别邻居节点的重要性, 使得预测性能不如                          SAMG-LP  算法;
                 在  model3  中, 其相比于  SAMG-LP  算法在  AUC、MR  和  Recall 指标上的预测性能至少下降了         2.3%、74.4%  和
                 1.0%, 特别是在  LH10  和  workplace 数据集上, model3  的预测表现相比于   SAMG-LP  算法急剧下滑, 这突出了社交
                 网络空间结构特征对链路预测的重要性和必要性; 在                  model4  中, 相比于  SAMG-LP, 其在各指标上的表现都有所
                 下降了, 这证明了本文提出的融合注意力网络能够提升                  SAMG-LP  算法预测效果; 在     model5  中, 虽然  SAMG-LP
                 算法相比于    model5  在  Haggle 和  LyonSchool 数据集的  MR  指标上取得了次优结果, 但其余情况下        SAMG-LP  算
                 法预测性能都比      model5  更好. 这是因为  MSE  损失函数不区分真实标签中的零与非零元素, 社交网络的稀疏性使
                 得真实标签中的零元素远多于非零元素, MSE              损失函数使得模型更倾向于将链接存在与否预测为                  0, 进而导致模
                 型的  MR  指标表现较好, 但这也会导致模型在           AUC  和  Recall 指标上表现较差. 当模型倾向于将预测结果预测为
                 0, 其应用价值会受到影响, 特别是在需要准确识别链接存在的情况下. 因此, 实验有效证明了稀疏损失函数能够考
                 虑到了社交网络的稀疏特性, 使得模型的预测结果更加可靠.

                 3.5   参数影响分析
                    为了探究超参数对       SAMG-LP  算法预测性能的影响, 本节在         4  个真实社交网络数据集上分别对注意力头数             h、

                 时空特征嵌入维度       D、损失函数的惩罚系数         β 和时间衰减函数参数   共   θ  4  种模型核心超参数进行实验. 为分析不
                 同超参数的影响,      h 的取值范围为    {1,2,4,8,16}, D  的取值范围为  {16,32,64,128}, β  的取值范围为  {1,1.5,2,2.5,3}, θ

                            {0,0.1,0.2,0.4,0.8}. 当研究其中一个超参数时, 其余超参数的设定与第           3.2  节实验的设置保持一致.
                 的取值范围为
                 超参数的实验结果如图        5  所示.
                    从图  5(a) 可以看到, 在  Haggle 数据集上, 随着注意力头数的增加, 模型在            AUC  和  Recall 指标上的预测效果
                 先增加后减少, 然后趋于稳定; 而在          MR  指标上呈现波动状态. 特别地, 当        h = 2 时, AUC  和  Recall 达到最大值, 而
                 MR  达到最小值. 因此, 在   Haggle 数据集上, 设定注意力头数为        2, 此时  SAMG-LP  算法取得最优预测结果. 从图      5(b)
                 和图  5(d) 中可以看到, 在   LH10  和  workplace 数据集上, 当注意力头数设置为      2  时, SAMG-LP  算法在  AUC、MR
                 和  Recall 指标上都取得较好的表现. 从图       5(c) 中观察到, 在  LyonSchool 数据集中, 随着   h 的增加, SAMG-LP  算法
   406   407   408   409   410   411   412   413   414   415   416