Page 398 - 《软件学报》2025年第5期
P. 398
2298 软件学报 2025 年第 36 卷第 5 期
(⟨ ⟩)
exp h (final),ϕ 1 ,h (final),ϕ 2
ϕ 1 i i
L (x i ) = −log ∑ (24)
self n (⟨ ⟩)
exp h (final),ϕ 1 ,h (final),ϕ 2
j=1 i j
i
i
其中, h (final),ϕ 1 = g ϕ 1 (x i ) 为节点 在原始图 ϕ 1 中编码得到的表示向量, h (final),ϕ 2 = g ϕ 2 (x i ) 为节点 在全局视图 ϕ 2 中编
i i
码得到的表示向量, ⟨·⟩ 表示向量内积, 用于衡量两个表示向量的相似度.
通过公式 (24), 正样本对 (x ,x ) 和负样本对 (x ,x ) 的表示向量相似度可以形成对比, 该式的目的是最大化
ϕ 2
ϕ 2
ϕ 1
ϕ 1
i i i j
ϕ 2 (x i ) 也是类似的计算方式, 具体如公式
正样本对相似度的同时最小化负样本对的相似度. 相应的, L (25) 所示:
self
(⟨ ⟩)
exp h (final),ϕ 2 ,h (final),ϕ 1
ϕ 2 i i
L (x i ) = −log ∑ (⟨ ⟩) (25)
self n (final),ϕ 2 (final),ϕ 1
exp h ,h
j=1 i j
公式 (24) 和 i 在原始图和全局视图中的自监督图对比损失.
(25) 分别为节点
4.3 基于类别感知的平衡图对比学习
本节使用标签信息指导对比学习的训练过程, 使编码器更直接地捕获标签语义. 由于 CAMD 中的类别感知注
意力系数在标签稀缺的任务场景中不再适用, 因而考虑使用此种方式来更直接地利用标签信息学习节点表示, 进
一步增加节点的表示向量的区分度, 同时充分利用稀缺的标签信息. 具体来说, 在原始图 ϕ 1 与全局视图 ϕ 2 上基于
(v ,k ),(k ,v ) , 其中
ϕ 1
ϕ 2
ϕ 1
ϕ 2
标签语义构造正负样本对, 将两个视图中两个标签相同的节点视作一对正样本对, 例如
ϕ 1
ϕ 2
ϕ 1
ϕ 2
y v = y k , 标签不同的节点视作负样本对, 例如 (v , j ),( j ,v ) , 其中 y v , y j . 如图 4 所示.
类别感知图对比学习
恶意节点
正常节点
未标记节点
正样本对
负样本对
ϕ 1
ϕ 2
图 4 类别感知图对比学习
通过最大化正样本对的节点表示的相似度, 可以使编码器挖掘更多标签语义信息, 拉进相同类型节点表示间
的距离, 拉大不同类型节点表示间的距离, 使表示向量更有区分度. 引入类别感知对比损失以进行训练, 本文中的
具体方式如公式 (26) 所示:
ϕ 2
L sup (x i ) = L (x i )+L (x i ) (26)
ϕ 1
sup
sup
ϕ 2
ϕ 1 L sup (x i ) 为节点在原始图和全局视图中的有监督对比损失, 同样基于 互信息下界估计器
其中, L sup (x i ) 和 InfoNCE
来构造此对比损失. 由于类别感知对比学习也使用了标签信息, 研究表明数据不平衡也会影响对比学习的效果 [23] ,
具体来说, 作为多数类的正常节点所贡献的梯度将比作为少数类的恶意节点大得多, 这不可避免地导致损失函数
更多地专注于优化正常节点表示, 从而影响整体性能. 本文引入基于类平均的不平衡损失, 其对损失函数分母中表
示向量的相似度之和按照类内节点个数求平均, 具体来说如公式 (27) 和公式 (28) 所示:
( (final),ϕ 1 (final),ϕ 2 )
1 l ∑ 1 [y i =y k ] exp h i ,h k
ϕ 1
L (x i ) = − log ∑ 1 ∑ (⟨ ⟩) (27)
sup
k=1 exp h ,h
B y i −1 (final),ϕ 1 (final),ϕ 2
y∈{0,1} j∈B y i j
B y
( (final),ϕ 2 (final),ϕ 1 )
1 l ∑ 1 [y i =y k ] exp h i ,h
ϕ 2 k
L (x i ) = − log (28)
sup −1 ∑ 1 ∑ (⟨ ⟩)
k=1 exp h ,h
B y i (final),ϕ 2 (final),ϕ 1
y∈{0,1} j∈B y i j
B y
k 为标签与节点 相同的节
其中, B y i 表示训练集中所有标签为 y i 的节点的集合, B y i 则表示这些节点的个数, 节点 i