Page 234 - 《软件学报》2025年第12期
P. 234

郑修林 等: 知识图谱补全技术及应用                                                              5615



                                             表 20 张量分解的     MKGC  模型实验比较

                                             WN18                                  FB15K
                   模型名称
                              MRR   Hits@1   Hits@3  Hits@10  MR    MRR    Hits@1  Hits@3  Hits@10  MR
                   RESCAL     0.892  0.843   0.904    0.928   -     0.354  0.235    0.409   0.587    -
                   DistMult   0.831  0.733   0.804    0.943   655   0.351   -        -      0.577    -
                  ANALOGY     0.943  0.939   0.944    0.947   -     0.725  0.646    0.785   0.854    -
                   ComplEx    0.942  0.936   0.945    0.947   -     0.692  0.599    0.759   0.840    -
                    SimplE    0.943  0.939   0.944    0.947   -     0.727  0.662    0.774   0.838    -
                    TuckER    0.954  0.949   0.955    0.958   -     0.795  0.741    0.833   0.892    -
                    QuatE     0.949  0.941   0.954    0.960   388   0.770  0.700    0.821   0.878    41

                                             表 21 神经网络的     MKGC  模型实验比较

                                          NELL-One                                Wiki-One
                  模型名称            MRR                Hits@5              MRR                Hits@5
                            1-shot  3-shot  5-shot  1-shot  3-shot  5-shot  1-shot  3-shot  5-shot  1-shot  3-shot  5-shot
                  GMatching  0.200  0.171  -   0.272  0.235  -     0.185  0.279  -     0.260  0.370  -
                   MetaR    0.314  -     0.323  0.375  -    0.385  0.164  -     0.209  0.238  -    0.280
                    FSRL    0.149  0.241  0.158  -    0.327  0.206  0.170  0.318  0.153  -   0.433  0.212
                   FAAN     0.215  -     0.341  -           0.395  0.187  -     0.279   -     -    0.364
                   CogKR    0.288  -      -    0.334   -     -     0.256  -      -     0.314  -     -
                  AMmodel   0.218  -     0.248  0.243  -    0.283  0.171  -     0.201  0.234  -    0.264
                   GANA     0.301  0.331  0.351  0.350  0.389  0.407  0.307  0.322  0.344  0.409  0.432  0.437
                  TransAM   0.242  -      -     -      -     -     0.225  -      -      -     -     -
                   TransE   0.105  0.162  0.168  0.111  0.180  0.186  0.036  0.040  0.052  0.024  0.027  0.057
                   DisMult  0.165  0.201  0.214  0.174  0.223  0.246  0.046  0.052  0.077  0.034  0.041  0.078
                   ComplEx  0.179  0.228  0.239  0.212  0.252  0.253  0.055  0.064  0.070  0.044  0.053  0.063

                    从表  21  中可知: 1) 在前  4  个基于  CNN  的  KGC  模型中, CapsE  在  WN18RR  上表现良好, 可能是在  CapsE  中,
                 第  1  层中向量长度和方向有助于对相应维度中的重要特征进行建模, 因此                      CapsE  擅长处理更稀疏的数据集, 如
                 WN18RR. 另外, CapsE  模型使用预先训练的词嵌入进行初始化, 并使用辅助信息. 2) R-GCN、SACN               以及  COMPGCN
                 都是  GCN  的扩展, SACN  和  COMPGCN  利用加权的    GCN  通过可学习的权重来聚合邻居信息. 因此, 它们在所有
                 数据集上都表现出较好的结果. 3) ParamE-Gate 基本上优于所有其他神经网络模型, 这明显反映在                        MRR, Hits@1
                 和  Hits@3  在两个数据集上的表现. 需要注意的是          ConvE  和  ParamE-CNN  具有相似的网络架构, 但    ParamE-CNN
                 比  ConvE  有实质性的改进. ParamE-CNN   将参数本身作为关系嵌入, 可以捕捉内在属性. ParamE-MLP、ParamE-
                 CNN  和  ParamE-Gate 的性能比较结果表明, MLP    的建模能力弱于卷积层和门结构. 此外, 尽管卷积层擅长提取特
                 征, 但  ParamE-CNN  的性能比  ParamE-Gate 差, 因为门结构可以选择性地过滤无关信息.
                    ● Trans 距离的  MKGC  模型实验分析
                    在数据集    WN18、FB15K、WN18RR    和  FB15K-237  上进行了实验, 结果如表     22  所示.
                    从表  22  中可知: 1) 基于  TransE  模型有必要进一步考虑实体和关系之间的语义差异. 与其他模型相比, TransF
                 实现了明显和实质性的改进. 可能是           TransF  将关系空间分解为多个子空间的组合表示             KG  中不同类型的关系. 此
                 外, TransF  通过对特定关系投影矩阵子空间建模来显式学习各种关系比同类方法更高效. 2) 借助注意力机制的模
                 型  TransM、ITransF  和  TransAt 几乎都比  TransE  效果好. 具体而言, ITransF  在  WN18  和  FB5K  的多个评估指标上
                 表现更好, 而   TransM  在稀疏的数据集    WN18  的结果较差. 可能因为      ITransF  采用了稀疏注意力机制促进不同关系
                 之间的关系共享. TransAt 考虑实体中属性之间的层次结构, 使用两阶段判别方法来实现注意力机制. 这表明, 适当
                 的注意机制有助于有效地适应人类对分层的认知. 3) TorusE             和  RotatE  在  WN18 和  FB5K  上都有很好的表现. RotatE
                 擅长建模, 通过将每个关系定义为复杂向量空间中的旋转. 相比之下, TorusE                    专注于   TransE  中的正则化问题. 尽
   229   230   231   232   233   234   235   236   237   238   239