Page 283 - 《软件学报》2025年第12期
P. 283
5664 软件学报 2025 年第 36 卷第 12 期
能差异较小, 而其余 4 个任务性能差异明显, 其原因是经过自监督进阶训练后能够使得获取的初始嵌入能够包含
更多的语义信息. 针对 FoodOn 与 GO 中的 4 个任务而言, 性能差异都非常明显, 表明自监督进阶训练能够有效处
理更加复杂的语义信息. 当去掉多任务联合表示学习模块后, HeLis 的类实例关系预测和 FoodOn 中的类属性性能
差异较小, 其原因也是 HeLis 中类和实例的标注属性非常相似, FoodOn 类属性预测性能差距较小则也是由于各类
之间实体标注属性信息过于相似导致. 而 HeLis、FoodOn 和 GO 中除前述两个任务外的任务性能差异都较为明
显, 其原因是 HeLis 同时包含概念层和实例层的信息, 因此 HeLis 的性能提升幅度最为明显, 表明多任务联合表示
学习模块能够有效实现不同语义视图信息的相互补充, 有助于提升 MSV-KRL 整体性能.
针对类层级关系预测任务而言, 当去掉多视图语义划分模块后, 导致在 HeLis 上指标略微下降, 说明该模块能
捕捉层级关系细节, 但影响程度较小. 然而当去掉多视图语义划分模块以及自监督进阶训练模块后, FoodOn 和
GO 各项评价指标如 MRR 等下降明显, 说明这两个模块能够捕捉层级关系的细节并丰富初始嵌入表示. 同时, 自
监督进阶训练模块对 HeLis 的影响程度也较大. 当在 3 个本体上都将多任务表示学习模块去掉后, MRR 指标和
Hits@1 指标在 FoodOn 和 GO 上都出现了明显下降, 在 HeLis 本体上大幅下降, 表明该模块在类层级关系任务中
以及 MSV-KRL 方法中在任务间语义互补上有具有重要作用. 针对类属性关系预测任务而言, 当去掉多视图语义
划分模块以及自监督进阶训练模块后, HeLis 和 FoodOn 上的 MRR 和 Hits@1 指标出现大幅下降, 而在 GO 本体中
去掉自监督进阶训练模块以及多任务联合表示学习模块后 MRR 指标出现大幅下降, 说明当本体更加复杂时多任
务联合表示学习以及自监督进阶训练能够更加有效地让 MSV-KRL 捕捉语义关系细节并丰富嵌入表示.
针对类实例预测任务而言, 当 HeLis 去掉自监督进阶训练与多任务联合表示学习后 MRR 指标下降幅度较
小, 而当去掉多语义视图划分后该指标就出现大幅下降, 说明在处理类与实例之间的关系时概念层和实例层语
义信息的单独处理是有效且重要的. 针对实例对象属性而言, 当 HeLis 去掉自监督进阶训练模块之后 MRR 指标
和 Hits@1 指标出现大幅下降, 说明对当前任务而言通过随机游走获取节点序列并进行自监督进阶训练可以有
效捕获上下文语义信息, 从而增强嵌入结果的语义表示能力. 针对实例数据属性而言, 当 HeLis 去掉 3 个模块后
的性能下降幅度相当, 说明 3 个模块很对当前任务而言对 MSV-KRL 同等重要, 但三者的 MRR 等指标下降幅度
都较大. 综合来看, 多视图语义划分模块能够有效捕捉不同视图下的复杂关系, 提高各任务的预测准确性. 而自
监督进阶训练模块通过引入更多的语义信息, 显著提升了模型的初始嵌入表示能力, 尤其是在处理复杂语义信
息时效果显著. 多任务联合表示学习模块通过任务间的语义互补, 进一步提高了整体表示学习能力, 对各任务的
性能提升均有显著贡献.
为了综合对比 MSV-KRL 各模块对整体框架的性能提升, 本文依据 MRR 指标对整体框架的性能提升幅度展
开数据可视化分析, 结果如后文图 3 所示. 从图中可以发现, 在 FoodOn 中的类层级关系预测和类属性预测任务、
GO 的类层级关系预测任务以及 HeLis 的类属性预测任务和实例对象属性预测任务上的 MRR 指标在各项消融实
验中性能提升最高, 占 9 个任务中的 5 个. 通过面向多语义视图的多任务联合表示学习后, 对 MSV-KRL 性能提升
最大的任务数量为 3 个, 占 9 个任务的 1/3. 此外, 针对多视图语义划分模块, HeLis 中的类层级关系预测和类实例
预测、FoodOn 中的类属性关系预测以及 GO 中的类层级关系预测和类属性预测任务, 在 3 个模块中的性能提升
幅度最低, 占 9 个任务中的 5 个. 综上, 可以得知 MSV-KRL 可以在本体映射后通过概念-属性-实例多视图语义划
分有效抽取 OWL 图谱中的多种语义信息与公理信息, 进而提升语义视图感知的 PLMs 自监督进阶训练效果, 最
后通过面向多语义视图的多任务联合表示学习显著提升整体表示学习能力.
3.3.3 多种语言模型适用性验证
为分析本文所提方法在模型选择方面的适用性, 参照 Shu 等人 [42] 和 Yao 等人 [43] 的 LLMs 实验设置以及
BERTSubs [25] 中提到的 PLMs, 本文选择 BiomedBERT [65] 、RoBERTa [66] 两个预训练语言模型, 以及 LLaMA-2-7B [67]
及 ChatGLM3-6B [68] 两个大语言模型开展相应实验. 其中, 对于 BiomedBERT 和 RoBERTa 两个轻量级预训练语言
模型, 本文对其进行自监督进阶训练后进行任务预测, 对于 LLaMA-2-7B 和 ChatGLM3-6B 两个大语言模型, 本文
直接使用其特征表示. 最终实验结果如表 14 和表 15 所示.

