Page 251 - 《软件学报》2025年第12期
P. 251
5632 软件学报 2025 年第 36 卷第 12 期
2 相关工作
本节回顾知识图谱补全的相关工作和研究现状, 并且主要关注于归纳式的设定.
2.1 直推式知识图谱补全
直推式知识图谱补全是一种传统的知识图谱补全设定, 意味着在模型推断时出现的实体都是在训练中见过
的. 传统的知识图谱补全方法是基于嵌入的 [12] , 天然地是直推式的. 它们学习静态的实体和关系表示, 用于给三元
组打分. 根据打分函数的不同, 可以将它们划分为两类: 基于转移的模型和语义匹配模型. 基于转移的模型, 如
TransE 和 TransH [13] , 把一个三元组视作从头实体向尾实体的一个特定于关系的转移. ComplEx [14] 和 RotatE [11] 将
[3]
实体和关系表示引入复数空间, 进一步提高模型的表征能力. 语义匹配模型, 如 RESCAL [15] 和 DistMult [16] , 通过头
实体、关系、尾实体之间的语义是否匹配来判断一个三元组是否成立. 近期, 基于图的方法, 如 R-GCN [17] 和
CompGCN [18] , 利用知识图谱的图结构, 通过对局部子图的信息聚合来学习实体表示. 然而, 这些方法往往无法直接
应用到归纳式设定下, 因为它们无法为未见过的新实体产生合理的表示.
2.2 归纳式知识图谱补全
归纳式知识图谱补全意味着在模型推断时会有训练中未见过的新实体加入. 为了更好地建模未见过的实体,
近期的研究关注于基于文本的方法, 通过编码实体文本来得到实体的表示. DKRL [19] 使用卷积神经网络编码实体
描述得到实体的表示. KG-BERT [20] 将头实体的描述、关系文本和尾实体的描述拼接成 BERT [21] 的输入序列, 然后
使用编码后的表示对三元组进行打分或分类. BLP 和 [4] StAR 进一步引入转移模型, 在通过 BERT 编码实体描述
[5]
[6]
的基础上给三元组打分. SimKGC 引入了对比学习, 将头实体的描述和关系拼接在一起, 和尾实体的描述分别通
过 BERT 进行编码, 得到头实体的关系感知的表示和尾实体的表示, 然后通过它们之间的余弦相似度对三元组打
[7]
分. Bi-Link 进一步引入了概率性的语法提示, 然后通过一个对比学习框架来学习可以泛化到大型知识图谱上的
关系模式. 然而, 所有这些方法都忽视了知识图谱显式的图结构. GraIL [22] 和 BERTRL [23] 利用知识图谱中的局部子
图和路径完成归纳式的关系预测. RMPI [24] 组合了子图结构和本体模式, 从实体视角和关系视角进行消息传递, 从
而基于聚合到的表示为三元组打分. 然而, 这些方法都太过耗时, 难以在一个包含了知识图谱中所有实体的大规模
[8]
候选实体集上进行链接预测. StATIK 提出了一个更高效的双塔模型, 以语言模型为骨架, 在此之上堆叠了一种消
息传播神经网络来聚合实体的邻居信息. 然而, StATIK 的局限性在于它仅能够聚合邻居信息, 而本文的方法能够
在保证效率的前提下, 通过从知识图谱的局部、全局和序列视角聚合互补的信息, 全面地捕捉到知识图谱的局部
结构, 以及实体之间的隐式语义关联和多跳关联.
3 问题定义与方法概述
本节首先对归纳式知识图谱补全任务进行形式化的定义, 然后简短地概述本文的方法, 该方法的架构见后文
图 2.
3.1 问题定义
知识图谱可以被定义为一个有向图 G = (E,R,T ) E 表示实体集, R 表示关系集, 而 T 表示所有三元组
.
h、 和 分别对应头实体、关系和尾实体. 对于归纳式知识图谱补全, 存在一个训练
t
r
(h,r,t) ∈ E ×R×E 的集合, 且
,
图 G train = (E train ,R,T train ), 满足 E train ⊂ E T train ⊂ T 且 T train 中的三元组仅包含训练实体集 E train 中的实体. 该任务的目
′ ′ ′
标是利用在 G train 上训练的模型对测试三元组 (h ,r,t ) ∈ T −T train 进行头实体或尾实体的预测, 其中满足 (h < E train )∨
′ ′ (?,r,t ), 任务目标是对所有的尾实体候选或头实体候选进行排序, 满
′
(t < E train ). 具体而言, 给定一个查询 (h ,r,?) 或
足目标实体的排序尽可能高.
3.2 方法概述
本文的框架包含了一个带有差异化机制的多视角编码器和一个打分解码器. 给定一个知识图谱 G = (E,R,T ),
编码器的目标是通过局部、全局和序列视角聚合它们互补的信息, 从而学到好的实体表示 E ∈ R |E|×3d . 具体而言,

