Page 236 - 《软件学报》2025年第12期
P. 236

郑修林 等: 知识图谱补全技术及应用                                                              5617


                    Hits@1  得分为头尾实体预测的均分. 从表         24  可知, KG-BERT  是基本规模的语言模型, 而后面如         KG LLaMA
                 是规模大的语言模型, 大模型的性能得分明显高于基本规模的语言模型. 另外, 加入结构嵌入, 性能显著提高. 这表
                 明, 扩大语言模型规模有助于补全性能的提高. 同时, 合理地引入结构嵌入可以大大提高模型的性能.

                                        表 24 基于大模型的       MKGC  模型  Hits@1  结果对比

                                 模型名称               NAGO3-10       WN18RR        YAGO3-10-100
                                 KG-BERT               -            0.110 2           -
                                   StAR                -            0.243 0           -
                                 LLaMA-7B            0.025 4        0.084 9          0.03
                                LLaMA-13B            0.027 6        0.099 1          0.01
                               KG-LLaMA-7B           0.078 2        0.241 5          0.16
                               KG-LLaMA-13B          0.087 2        0.255 9          0.13
                               KG-LLaMA2-13B         0.094 9        0.268 2          0.16
                            KG-LLaMA2-13B+Struct     0.133 0        0.315 1          0.22

                    ● 多模态的    MKGC  模型实验分析
                    在多模态数据集      DB15K (含图像   12 818, 文本  9 078) 和  KVC16K (含图像  14 822, 文本  768) 的实验结果如表  25
                 所示.

                                         表 25 基于多模态的      MMKGC   模型结果对比 (%)

                                               DB15K                         KVC16K
                           模型名称
                                    MRR   Hits@1  Hits@3  Hits@10  MRR   Hits@1  Hits@3  Hits@10
                           TransAE  28.09  21.25   31.17   41.17   10.81  5.31    11.34   21.89
                           MMKRL    26.81  13.85   35.07   49.39   8.78   3.89    8.99    18.34
                            RSME    29.76  24.15   32.12   40.29   12.31  7.14    13.21   22.05
                           VBKGC    30.61  19.75   37.18   49.44   14.66  8.28    15.81   27.04
                            MOSE    28.38  21.56   30.91   41.76   8.81   4.75    9.46    16.40
                            IMF     32.25  24.20   36.00   48.19   12.01  7.42    12.82   21.01
                            QEB     28.18  14.82   36.67   51.55   12.06  5.57    13.03   25.01
                            VISTA   30.42  22.49   33.56   45.94   11.89  6.97    12.66   21.27
                           AdaMF    32.51  21.31   39.67   51.68   15.26  8.56    16.71   28.29
                           MOMOK    39.57  32.38   43.45   54.14   16.87  10.53   18.26   29.20

                    从表  25  可知, 实验模型中, MOMOK     结果最好, 原因可能是它充分利用了上下文的潜在优势, 而其他模型只
                 是为不同模态分配不同权重, 忽视了关系上下文等复杂因素的影响. 另外, 在                      2  个数据集的   Hits@1  指标上性能表
                 现最明显, 表明与其他模型比较, MOMOK           模型将正确答案排在前面的方面更有效, 表明该模型对多模态信息和
                 关系上下文对     MMKGC  模型的精细、准确推理能力发挥了重要作用.
                  6.4   已有  KGC  模型的不足
                    尽管这些年越来越多的研究在            KGC  任务上实现了很好的效果, 但是分析总结发现当前                KGC  模型仍存在以
                 下问题和挑战.
                    ● 复杂关系的处理
                    三元组的关系越复杂, 需要学习的样本就越多, 因此在少样本和零样本条件下模型处理复杂关系极具挑战. 探
                 索模型在样本不足条件下的复杂关系表示是值得关注的课题.
                    ● 模型关系复杂性高
                    KG  本质上是通过语义关系连接的数据, 其中的关系类型复杂多样, 依靠单一的模型处理复杂多样的关系, 很
                 难面面俱到. 单一结构模型数据处理效率高, 但是不适应较复杂的关系模式. 因此, 如何改进现有的                             KGC  模型, 使
                 得能够学习更大规模更加复杂的关系模式, 是当下                KGC  领域需要研究的课题.
   231   232   233   234   235   236   237   238   239   240   241