Page 192 - 《软件学报》2026年第1期
P. 192

刘子扬 等: 图对比学习方法综述                                                                 189


                 元学习损失和典型相关分析损失.
                  3.3.1    基于标准化温度交叉熵损失的图对比学习方法
                    标准化温度交叉熵       (normalized temperature-scaled cross entropy) 损失的目标是最大化正样本对间的相似度并
                 最小化负样本对间的相似度. 该损失函数在图对比学习中有着广泛的应用, 其形式化定义如下所示:

                                                              (   (   )  )
                                      |V|                   exp Sim ˆ Z i , ˇ Z i /τ
                                   1  ∑
                              L = −     log                                                          (11)
                                                           |V|
                                  |V|        (  (    )  )  ∑    (   (   )  )    (  (    )  )
                                      i=1
                                          exp Sim ˆ Z i , ˇ Z i /τ +  exp Sim ˆ Z i , ˇ Z j /τ +exp Sim ˆ Z i , ˆ Z j /τ
                                                          j=1,i,j
                 其中,  τ 表示温度系数. 公式    (11) 中的温度系数    τ 起到对相似度结果进行放缩的作用. GCA           [72] 、GCC [74] 、JOAO [75] 、
                 InfoGCL  [76] 是典型的基于标准化温度交叉熵损失的图对比学习方法. 它们的优化目标和公式                      (11) 相同, 这里就不
                 再赘述.
                  3.3.2    基于杰森香农散度损失的图对比学习方法
                    杰森香农散度损失的目标是最大化同一节点表征的互信息, 同时最小化不同节点表征的互信息. 其形式化定
                 义如下所示:

                                                     |V|
                                                                 |V|
                                                  1  ∑    (   )  ∑     (   )
                                             L = −     MI ˆ Z i , ˇ Z i +  MI ˆ Z i , ˇ Z j          (12)
                                                  |V|
                                                     i=1         j=1,i,j
                 其中,  MI (·,·) 表示两个表征之间的互信息. InfoGraph   [42] 和  InfoGraph* [42] 是两个典型的基于杰森香农散度损失的图
                 对比学习方法, 它们的优化目标正如公式             (12) 所示. InfoGraph  和  InfoGraph*最大化了图嵌入表征和不同尺度的子
                 结构  (例如, 节点、边、三角子图) 的嵌入表征之间的互信息. 如此做法可以让图级表示对图数据的各个方面进行
                 编码. InfoGraph*在  InfoGraph  的基础上做了一些改进, 这是    InfoGraph  在半监督学习场景中的扩展. InfoGraph*最
                 大化了   InfoGraph  学习的无监督图表征与现有监督方法学习的有监督图表征之间的互信息. InfoGraph*方法体现
                 了图对比学习不仅可以作为一种预训练嵌入表征的技术, 同时也可以作为一个辅助性技术用于提升半监督图表征
                 学习方法的效果. 此外, GMI     [77] 和  SUGAR [78] 也是典型的基于杰森香农散度损失的图对比学习方法. GMI 通过图互
                 信息度量输入图和隐层表示之间的相关性, 保留和提取图数据中的丰富信息, 实现无监督学习. SUGAR                              通过分层
                 子图级别的选择和嵌入机制, 提取显著子图以重建简化图, 从而揭示子图级别的模式, 实现更具解释性的图分类.
                 SUGAR  采用强化池化机制自适应选择显著子图, 并通过自监督互信息机制, 使子图嵌入关注全局图结构属性, 从
                 而提高模型的泛化能力和区分能力.
                  3.3.3    基于三元组边缘损失的图对比学习方法
                    和前两种损失目标不同的是, 三元组边缘              (triplet margin) 损失考虑了正样本对和负样本对相似度之间的距离
                 性, 即正样本对相似度要比负样本对相似度要高出一个阈值. 三元组边缘损失函数的形式化定义如下:

                                                 |V|
                                              |V| ∑
                                              ∑        (    (    )    (   )   )
                                          L =       max 0,Sim ˆ Z i , ˇ Z j −Sim ˆ Z i , ˇ Z i +m    (13)
                                              i=1 j=1,i,j
                 其中,   m > 0  表示边缘阈值系数. 系数    m  的存在导致了正样本对和负样本对的相似度之间存在一个阈值的差异.
                 SUGRL [79] 和  SUBG-CON [80] 是典型的基于三元组边缘损失的图对比学习方法, 其优化目标如公式                 (13) 所示, 这里
                 不再赘述.
                  3.3.4    基于巴洛孪生损失的图对比学习方法
                    巴洛孪生损失背后的核心思想是鼓励同一节点在不同图视图上的表征相似, 同时确保它们也是去相关或正交
                                                                      ˆ Z、 ˇ Z 来计算的. 互相关矩阵捕获了表征中不
                 的. 在计算巴洛孪生损失时, 需要计算互相关矩阵, 这一矩阵是根据
                 同元素之间的成对关系, 目标是鼓励该矩阵接近单位矩阵, 表明表征是去相关的. 巴洛孪生损失的形式化定义如下:

                                                    |V|            |V|
                                                                |V| ∑
                                                    ∑          ∑
                                                            2
                                                 L =  (1−C ii ) +λ    C i j 2                        (14)
                                                    i=1         i=1 j=1,i, j
   187   188   189   190   191   192   193   194   195   196   197