Page 193 - 《软件学报》2026年第1期
P. 193

190                                                        软件学报  2026  年第  37  卷第  1  期


                 其中,  C 表示互相关矩阵,    λ 表示平衡系数. 使用巴洛孪生损失具有两个优势. (1) 缓解过拟合: 通过促进表征之间的
                 去相关, 巴洛孪生损失可以帮助减少过拟合. 当模型学习到数据中的噪声或不相关模式时, 就会发生过拟合. 损失
                 的去相关方面鼓励图对比学习算法只关注捕捉最相关和最有意义的信息. (2) 强可解释性: 学习到的表征经常被解
                 耦开, 这意味着特征空间的不同维度对应于数据的不同语义意义方面. 这可以使表征更具可解释性, 并有助于理解
                 图对比学习算法所学到的内容. 典型的基于巴洛孪生损失的图对比学习方法有                          G-BT  [81] 和  CBGAE [82] . 它们的损失
                 函数如公式    (14) 所示, 这里不再赘述.
                  3.3.5    基于  BYOL  损失的图对比学习方法
                    BYOL  损失通常与非对称的图神经网络编码器结构联合使用. 在图对比学习中使用                         BYOL  损失时, 方法中通
                 常包含两个编码器: 在线编码器和目标编码器. 在更新网络参数的过程中, 这两个编码器有不同的更新目标. 在线
                 编码器的目标是使两个编码器生成的节点嵌入表征尽可能相似                      (例如, 通过最大化余弦相似度). 而目标编码器则
                 采用在线编码器参数的指数滑动平均值进行更新. 这种设计的原因是: 在线编码器旨在确保两个编码器的一致性,
                 而目标编码器则用于保持两者之间的适度差异. 具体来说, BYOL                  损失形式化定义如下:

                                                             |V|    T
                                                   (  )   1  ∑   Z i H i
                                                 L ˆ θ, ˇ θ = −                                      (15)
                                                          |V|  ||Z i ||·||H i ||
                                                             i=1
                 其中,  Z i  和  H i  表示两个通道上得到的节点  i 的表征. 在线编码器参数      ˆ θ 和目标编码器参数    ˇ θ 的更新形式化分别如下:

                                                            (      (  ))
                                                  ˆ θ ← optimize ˆ θ, ˇ θ,∂ˆ θ L ˆ θ, ˇ θ            (16)

                                                      ˇ θ ← γ ˇ θ +(1−γ) ˆ θ                         (17)
                 其中,  γ 表示衰减系数. BGRL   [73] 和  MERIT [83] 是典型的采用  BYOL  损失的图对比学习方法. 例如, MERIT    模型使用
                 动量驱动的暹罗结构        (包含在线编码器和目标编码器) 和多尺度对比学习, 生成局部和全局视角的增强视图, 并通
                 过跨视图和跨网络对比目标最大化不同视图和网络间的节点表征一致性, 实现无监督节点表征学习.
                  3.3.6    基于二元交叉熵损失的图对比学习方法
                    二元交叉熵损失是一种简易高效的损失函数, 其形式化定义如下:

                                                      2|V|
                                                   1  ∑
                                              L = −      y i logˆy i +(1−y i )log(1− ˆy i )          (18)
                                                  2|V|
                                                      i=1
                 其中,  y i  表示节点  i 是否发生坍塌  (若坍塌,  y i = 1; 否则,  y i = 0 y i  表示对节点  i 是否发生坍塌的预测值. GGD [84] 是
                                                                  ˆ
                                                                ),
                 典型的基于二元交叉熵损失的图对比学习方法. GGD                 通过引入群体判别方法, 避免相似度计算. 同时, GGD              直接
                 使用二元交叉熵损失来区分图对比学习中两组节点样本, 大大减少了训练时间和内存消耗, 并在大规模数据集上
                 以更少的训练轮次达到竞争性能.
                  3.3.7    基于元学习损失的图对比学习方法
                    元学习损失由两部分损失构成——对比损失                L cl  和分类损失  L ap :

                                                                                                     (19)
                                                     L = βL cl +(1−β)L ap
                 其中,  β 是控制两项损失比例的超参数,         L cl  为公式  (15) 中的  BYOL         L ap  的形式化定义如下:
                                                                    损失. 分类损失
                                                          N b ∑ C ∑
                                                    L ap = −   y i,j log ˆy i,j                      (20)
                                                          i=1  j=1
                 其中, N b 表示一个批次内的节点数量, C        表示类别数量,     y i,j  和  ˆ y i,j  均为非  0  即  1  的值, 分别表示节点  i 是否属于类
                 别  j 的真实值和预测值. ABGML     [85] 模型通过构建增强池随机采样数据增强方法, 并结合对比学习和增强感知预测
                 任务, 提高了数据增强的多样性和表征学习的效果. ABGML                 采用多任务学习和模型无关元学习, 在子任务中进行
                 训练, 实现了对新任务的快速适应和更好的泛化能力.
                  3.3.8    基于典型相关分析损失的图对比学习方法
                    CCA  方法  [86] 中设计了典型相关分析损失, 该损失的形式化表示如下:
   188   189   190   191   192   193   194   195   196   197   198