Page 190 - 《软件学报》2026年第1期
P. 190

刘子扬 等: 图对比学习方法综述                                                                 187


                 是最小化两个图视角之间的互信息; 在第             2  阶段, AD-GCL  的优化目标是最大化两个图视角之间的互信息. 这种对
                 抗训练目标的形式化表示如下:

                                               (       (   (  ))        (   (  )))
                                                                         Aug G, ˇ θ                   (6)
                                        minmaxI GNN W 1 ,W 2  Aug G, ˆ θ ,GNN W 1 ,W 2
                                         ˆ θ, ˇ θ W 1 ,W 2
                 其中,  I (·,·) 表示两个嵌入表征之间的互信息. AD-GCL       主要侧重图级别的下游任务, 因此在图数据增强方法的选
                 择上, AD-GCL  采用了边删除这一方法,        ˆ θ、 ˇ θ 代表了全部边集合中有多少概率的边被删除.
                    在  LP-InfoMin  和  LP-InfoBN  方法中, 在最大化图视角的嵌入表征一致性时, 它们鼓励两个图视角的互信息最
                 小化. 因此, LP-InfoMin  和  LP-InfoBN  可以显式地推动生成器以不同的方式工作, 避免嵌入表征出现坍塌危机. 直
                 观来看, 互信息最小化可以使编码器丢弃更多不相关的信息                    (或干扰因素), 以促进模型在下游任务上能够有效泛
                 化. LP-InfoMin  和  LP-InfoBN  的训练目标形式化定义如下:

                          (       (   (   ))       (   (   )))  (       (   (  ))        (   (  )))
                                                     Aug G , ˇ θ                           Aug G, ˇ θ
                                                          ′
                                   Aug G, ˆ θ ,GNN W 1 ,W 2  − I GNN W 1 ,W 2  Aug G, ˆ θ ,GNN W 1 ,W 2
                       min I GNN W 1 ,W 2
                      
                       W 1 ,W 2
                                                                                                      (7)
                                  (              )
                      
                                      ′  ′  ′
                      ˆ θ, ˇ θ = argmin ˆ θ ′ , ˇ θ ′ R G,G , ˆ θ , ˇ θ ,W 1 ,W 2
                 其中,  R(·) 表示奖励函数,  G  表示通过负采样得到的除        G 以外的图.
                                     ′
                  3.1.3    无图数据增强的图对比学习方法
                    最近两年, 无图数据增强的图对比学习方法开始流行起来, 其示意图如图                       5  所示. 无图数据增强的图对比学习
                 具有以下优势. (1) 简单性和效率: 无图数据增强的图对比学习在概念上更简单, 计算效率更高. 它不需要生成输入
                 数据的增强版本, 简化了计算成本高昂的过程. (2) 减少数据预处理: 无图数据增强的图对比学习消除了设计和应
                 用特定于图数据的增强策略的需要. 这不仅简化了图数据预处理步骤, 同时也降低了引入噪声或偏差的风险.
                 (3) 稳定性: 无图数据增强的图对比学习算法在训练过程中通常更稳定. 图数据增强会引入随机性, 使训练更难控
                 制, 从而导致潜在的过拟合或收敛问题. (4) 可解释性: 由于对比学习直接作用于原始图数据, 因此学习的嵌入表征
                 更具可解释性, 因为它们反映了数据中的固有结构和关系, 而无需外部转换.

                                             无图数据增强      编码器       Z i ˆ

                                                                       对比损
                                                X i
                                                                       失函数
                                                         编码器       Z i ˆ


                                             图 5 无图数据增强的图对比学习流程

                    典型的无图数据增强的图对比学习算法有               SimGRACE [45] 、SimGCL [46] 和  AFGRL [47] . SimGRACE  摒弃了图数
                 据增强阶段, 并对图神经网络编码器做了修改. 具体来说, SimGRACE                 对其中一个图神经网络编码器的每一层网
                 络参数添加了随机高斯噪声, 其形式化表示如下:

                                     (     )         (    )
                                                          ′  ′  ′              ′                      (8)
                                                                               2
                                                          1  2  1           , W = W 2 +η·∆ W 2
                               ˆ Z = ˆ Aσ ˆ A ˆ XW 1 W 2 , ˇ Z = ˇ Aσ ˇ A ˇ XW W , W = W 1 +η·∆ W 1
                 其中,          代表随机高斯噪声, 服从高斯分布. 从公式            (8) 我们不难看出: 不同于传统的图对比学习方法使用
                     ∆ W 1  、∆ W 2
                 参数共享的图神经网络编码器, SimGRACE           使得两个通道上的编码器参数存在差异化, 并且这种差异化具有一定
                 随机性. 这种操作对于无图数据增强的算法是十分必要的, 因为对比学习的两个对象要存在差异性, 否则会陷入嵌
                 入表征坍塌的问题.
                    SimGCL  方法基于表征分布的均匀性进行设计, 并且方法中的均匀性更加可控. SimGCL                      摒弃了图数据增强,
                 取而代之的是将随机均匀噪声添加到原始嵌入表征上, 以进行表征级别的数据扩充. 尽管添加不同随机噪声制造
                 了差异性, 但是这种差异性是可控的. 与使用图数据增强的方法相比, 在表征上添加随机噪声更容易将表征正则化
                 为一个均匀分布, 同时效率也得到很大的提升. SimGCL              方法中添加随机噪声的形式化定义如下所示:
   185   186   187   188   189   190   191   192   193   194   195