Page 260 - 《软件学报》2025年第12期
P. 260
童翰文 等: 带有差异化机制的多视角归纳式知识图谱补全框架 5641
方法与一些交互式编码器架构的基线模型相比, 例如 KG-BERT, 推理速度是显著更快的. 更重要的是, 本文方法也
超越了其他被公认为高效的、表示式编码器架构的基线模型, 例如 BLP 和 StATIK. 这些都进一步证明了本文框
架的推理高效性.
表 6 半归纳式设定下, 归纳式模型对每个查询的推理时间 (ms)
模型 KG-BERT StAR BLP StATIK 本文方法
推理时间 87 000 321 21 4 2.8
6 总 结
本文关注于归纳式知识图谱补全, 提出了一个带有差异化机制的多视角知识图谱补全框架, 从知识图谱的局
部、全局和序列视角来学习互补的实体表示. 本文框架包含了一个带有差异化机制的多视角编码器和一个打分解
码器. 多视角编码器使用了 1 个预训练语言模型和 3 个编码模块, 通过差异化机制来避免多视角信息聚合的冗余,
从而从多视角学习到互补的实体表示. 打分解码器使用了一个基于转移的模型, 基于多视角习得的实体表示给三
元组打分. 实验结果表明, 本文方法在归纳式设定下超越了各种当前最先进的模型, 并且在直推式设定下也保持着
强有力的性能.
未来, 如何将大规模语言模型 (large language model, LLM) 与知识图谱构建和补全任务深度融合是值得继续
探索的研究方向. 一方面, 随着大语言模型具备更强的上下文理解 [40] 和更长的输入长度, 它能够更有效地理解和
处理结构化数据, 从而提升对知识图谱结构的理解能力. 通过利用更有效的线性化策略以及工具学习 [41] , 可以使
得大模型更精准地访问并理解结构数据, 进一步促进知识图谱的构建与补全. 另一方面, 知识图谱和大模型作为两
种不同的知识表示形式, 未来可以结合其各自优势, 既利用知识图谱的结构化特性, 又发挥大模型在推理能力 [42]
上的优势, 在完成知识图谱构建和补全中复杂的推理任务时也兼具可解释性 [43] .
References:
[1] Ji SX, Pan SR, Cambria E, Marttinen P, Yu PS. A survey on knowledge graphs: Representation, acquisition, and applications. IEEE
Trans. on Neural Networks and Learning Systems, 2022, 33(2): 494–514. [doi: 10.1109/TNNLS.2021.3070843]
[2] Liu Q, Li Y, Duan H, Liu Y, Qin ZG. Knowledge graph construction techniques. Journal of Computer Research and Development, 2016,
53(3): 582–600 (in Chinese with English abstract). [doi: 10.7544/issn1000-1239.2016.20148228]
[3] Bordes A, Usunier N, Garcia-Durán A, Weston J, Yakhnenko O. Translating embeddings for modeling multi-relational data. In: Proc. of
the 27th Int’l Conf. on Neural Information Processing Systems. Lake Tahoe: Curran Associates Inc., 2013. 2787–2795.
[4] Daza D, Cochez M, Groth P. Inductive entity representations from text via link prediction. In: Proc. of the 2021 Web Conf. Ljubljana:
ACM, 2021. 798–808. [doi: 10.1145/3442381.3450141]
[5] Wang B, Shen T, Long GD, Zhou TY, Wang Y, Chang Y. Structure-augmented text representation learning for efficient knowledge graph
completion. In: Proc. of the 2021 Web Conf. Ljubljana: ACM, 2021. 1737–1748. [doi: 10.1145/3442381.3450043]
[6] Wang L, Zhao W, Wei ZY, Liu JM. SimKGC: Simple contrastive knowledge graph completion with pre-trained language models. In:
Proc. of the 60th Annual Meeting of the Association for Computational Linguistics. Dublin: ACL, 2022. 4281–4294. [doi: 10.18653/v1/
2022.acl-long.295]
[7] Peng BH, Liang SH, Islam M. Bi-Link: Bridging inductive link predictions from text via contrastive learning of Transformers and
prompts. arXiv:2210.14463, 2022.
[8] Markowitz E, Balasubramanian K, Mirtaheri M, Annavaram M, Galstyan A, ver Steeg G. StATIK: Structure and text for inductive
knowledge graph completion. In: Proc. of the 2022 Findings of the Association for Computational Linguistics: NAACL. Seattle: ACL,
2022. 604–615. [doi: 10.18653/v1/2022.findings-naacl.46]
[9] Kipf TN, Welling M. Semi-supervised classification with graph convolutional networks. arXiv:1609.02907, 2016.
[10] Vaswani A, Shazeer N, Parmar N, Uszkoreit J, Jones L, Gomez AN, Kaiser Ł, Polosukhin I. Attention is all you need. In: Proc. of the
31st Int’l Conf. on Neural Information Processing Systems. Long Beach: Curran Associates Inc., 2017. 6000–6010.
[11] Sun ZQ, Deng ZH, Nie JY, Tang J. RotatE: Knowledge graph embedding by relational rotation in complex space. arXiv:1902.10197,
2019.

