Page 283 - 《软件学报》2025年第12期
P. 283

5664                                                      软件学报  2025  年第  36  卷第  12  期


                 能差异较小, 而其余      4  个任务性能差异明显, 其原因是经过自监督进阶训练后能够使得获取的初始嵌入能够包含
                 更多的语义信息. 针对      FoodOn  与  GO  中的  4  个任务而言, 性能差异都非常明显, 表明自监督进阶训练能够有效处
                 理更加复杂的语义信息. 当去掉多任务联合表示学习模块后, HeLis 的类实例关系预测和                        FoodOn  中的类属性性能
                 差异较小, 其原因也是      HeLis 中类和实例的标注属性非常相似, FoodOn          类属性预测性能差距较小则也是由于各类
                 之间实体标注属性信息过于相似导致. 而             HeLis、FoodOn  和  GO  中除前述两个任务外的任务性能差异都较为明
                 显, 其原因是   HeLis 同时包含概念层和实例层的信息, 因此           HeLis 的性能提升幅度最为明显, 表明多任务联合表示
                 学习模块能够有效实现不同语义视图信息的相互补充, 有助于提升                      MSV-KRL  整体性能.
                    针对类层级关系预测任务而言, 当去掉多视图语义划分模块后, 导致在                      HeLis 上指标略微下降, 说明该模块能
                 捕捉层级关系细节, 但影响程度较小. 然而当去掉多视图语义划分模块以及自监督进阶训练模块后, FoodOn                                和
                 GO  各项评价指标如     MRR  等下降明显, 说明这两个模块能够捕捉层级关系的细节并丰富初始嵌入表示. 同时, 自
                 监督进阶训练模块对        HeLis 的影响程度也较大. 当在       3  个本体上都将多任务表示学习模块去掉后, MRR              指标和
                 Hits@1  指标在  FoodOn  和  GO  上都出现了明显下降, 在   HeLis 本体上大幅下降, 表明该模块在类层级关系任务中
                 以及  MSV-KRL  方法中在任务间语义互补上有具有重要作用. 针对类属性关系预测任务而言, 当去掉多视图语义
                 划分模块以及自监督进阶训练模块后, HeLis 和            FoodOn  上的  MRR  和  Hits@1  指标出现大幅下降, 而在  GO  本体中
                 去掉自监督进阶训练模块以及多任务联合表示学习模块后                     MRR  指标出现大幅下降, 说明当本体更加复杂时多任
                 务联合表示学习以及自监督进阶训练能够更加有效地让                   MSV-KRL  捕捉语义关系细节并丰富嵌入表示.
                    针对类实例预测任务而言, 当          HeLis 去掉自监督进阶训练与多任务联合表示学习后                 MRR  指标下降幅度较
                 小, 而当去掉多语义视图划分后该指标就出现大幅下降, 说明在处理类与实例之间的关系时概念层和实例层语
                 义信息的单独处理是有效且重要的. 针对实例对象属性而言, 当                    HeLis 去掉自监督进阶训练模块之后          MRR  指标
                 和  Hits@1  指标出现大幅下降, 说明对当前任务而言通过随机游走获取节点序列并进行自监督进阶训练可以有
                 效捕获上下文语义信息, 从而增强嵌入结果的语义表示能力. 针对实例数据属性而言, 当                            HeLis 去掉  3  个模块后
                 的性能下降幅度相当, 说明        3  个模块很对当前任务而言对         MSV-KRL  同等重要, 但三者的      MRR  等指标下降幅度
                 都较大. 综合来看, 多视图语义划分模块能够有效捕捉不同视图下的复杂关系, 提高各任务的预测准确性. 而自
                 监督进阶训练模块通过引入更多的语义信息, 显著提升了模型的初始嵌入表示能力, 尤其是在处理复杂语义信
                 息时效果显著. 多任务联合表示学习模块通过任务间的语义互补, 进一步提高了整体表示学习能力, 对各任务的
                 性能提升均有显著贡献.
                    为了综合对比      MSV-KRL  各模块对整体框架的性能提升, 本文依据             MRR  指标对整体框架的性能提升幅度展
                 开数据可视化分析, 结果如后文图           3  所示. 从图中可以发现, 在     FoodOn  中的类层级关系预测和类属性预测任务、
                 GO  的类层级关系预测任务以及         HeLis 的类属性预测任务和实例对象属性预测任务上的                 MRR  指标在各项消融实
                 验中性能提升最高, 占      9  个任务中的   5  个. 通过面向多语义视图的多任务联合表示学习后, 对               MSV-KRL  性能提升
                 最大的任务数量为       3  个, 占  9  个任务的  1/3. 此外, 针对多视图语义划分模块, HeLis 中的类层级关系预测和类实例
                 预测、FoodOn   中的类属性关系预测以及         GO  中的类层级关系预测和类属性预测任务, 在              3  个模块中的性能提升
                 幅度最低, 占   9  个任务中的   5  个. 综上, 可以得知   MSV-KRL  可以在本体映射后通过概念-属性-实例多视图语义划
                 分有效抽取    OWL  图谱中的多种语义信息与公理信息, 进而提升语义视图感知的                     PLMs 自监督进阶训练效果, 最
                 后通过面向多语义视图的多任务联合表示学习显著提升整体表示学习能力.
                  3.3.3    多种语言模型适用性验证
                    为分析本文所提方法在模型选择方面的适用性, 参照                   Shu  等人  [42] 和  Yao  等人  [43] 的  LLMs 实验设置以及
                 BERTSubs  [25] 中提到的  PLMs, 本文选择  BiomedBERT [65] 、RoBERTa [66] 两个预训练语言模型, 以及  LLaMA-2-7B [67]
                 及  ChatGLM3-6B  [68] 两个大语言模型开展相应实验. 其中, 对于      BiomedBERT  和  RoBERTa 两个轻量级预训练语言
                 模型, 本文对其进行自监督进阶训练后进行任务预测, 对于                  LLaMA-2-7B  和  ChatGLM3-6B  两个大语言模型, 本文
                 直接使用其特征表示. 最终实验结果如表             14  和表  15  所示.
   278   279   280   281   282   283   284   285   286   287   288