Page 233 - 《软件学报》2025年第12期
P. 233

5614                                                      软件学报  2025  年第  36  卷第  12  期


                 比  NELL-One 数据集大一个数量级, 使得传统的         KGC  能够学到更多的信息. 4) 在基于其他的          FKGC  模型, CogKR
                 模型在   1-shot 条件下表现最佳; 而基于度量的模型, TransAM        模型效果最好. 5) 总的来说, 无论在        NELL-One 还是
                 Wiki-One 上, GANA  模型效果最好, 原因可能是门控网络和图注意力机制过滤邻域中的噪音信息, 使得表示更加精准.

                                          表 18 FKGC  模型的实验结果      (MRR、Hits@5)

                                          NELL-One                                Wiki-One
                  模型名称            MRR                Hits@5              MRR                Hits@5
                            1-shot  3-shot  5-shot  1-shot  3-shot  5-shot  1-shot  3-shot  5-shot  1-shot  3-shot  5-shot
                  GMatching  0.200  0.171  -   0.272  0.235  -     0.185  0.279  -     0.260  0.370  -
                   MetaR    0.314  -     0.323  0.375  -    0.385  0.164  -     0.209  0.238  -    0.280
                    FSRL    0.149  0.241  0.158  -    0.327  0.206  0.170  0.318  0.153  -   0.433  0.212
                   FAAN     0.215  -     0.341  -           0.395  0.187  -     0.279   -     -    0.364
                   CogKR    0.288  -      -    0.334   -     -     0.256  -      -     0.314  -     -
                  AMmodel   0.218  -     0.248  0.243  -    0.283  0.171  -     0.201  0.234  -    0.264
                   GANA     0.301  0.331  0.351  0.350  0.389  0.407  0.307  0.322  0.344  0.409  0.432  0.437
                  TransAM   0.242  -      -     -      -     -     0.225  -      -      -     -     -
                   TransE   0.105  0.162  0.168  0.111  0.180  0.186  0.036  0.040  0.052  0.024  0.027  0.057
                   DisMult  0.165  0.201  0.214  0.174  0.223  0.246  0.046  0.052  0.077  0.034  0.041  0.078
                   ComplEx  0.179  0.228  0.239  0.212  0.252  0.253  0.055  0.064  0.070  0.044  0.053  0.063

                                         表 19 FKGC  模型的实验结果      (Hits@1、Hits@10)

                                          NELL-One                                Wiki-One
                  模型名称            Hits@1             Hits@10             Hits@1             Hits@10
                            1-shot  3-shot  5-shot  1-shot  3-shot  5-shot  1-shot  3-shot  5-shot  1-shot  3-shot  5-shot
                  GMatching  0.120  0.095  -   0.336  0.324  -     0.119  0.198  -     0.313  0.464  -
                   MetaR    0.266  -     0.270  0.404  -    0.418  0.093  -     0.141  0.331  -    0.355
                    FSRL    0.091  0.155  0.097  0.267  0.406  0.287  0.114  0.211  0.073  0.294  0.507  0.319
                   FAAN     0.146  -     0.281  0.362  -    0.463  0.116  -     0.200  0.316  -    0.428
                   CogKR    0.249  -           0.366   -           0.205  -      -     0.353  -
                  AMmodel   0.142  -     0.182  0.327  -    0.357  0.113  -     0.143  0.281  -    0.311
                   GANA     0.231  0.283  0.299  0.416  0.425  0.446  0.211  0.225  0.246  0.483  0.510  0.517
                  TransAM   0.184  -      -    0.358   -     -     0.152  -      -     0.360  -     -
                   TransE   0.041  0.085  0.082  0.226  0.317  0.345  0.011  0.013  0.042  0.059  0.072  0.090
                   DisMult  0.106  0.146  0.140  0.285  0.295  0.319  0.014  0.020  0.035  0.087  0.091  0.134
                   ComplEx  0.112  0.165  0.176  0.299  0.345  0.364  0.021  0.029  0.030  0.100  0.113  0.124

                  6.3.3    多样本  KGC (MKGC) 模型比较
                    文中多样本     KGC (MKGC) 模型介绍的比较多, 本节对        MKGC  模型的实验将按照不同的分类分别进行介绍.
                    ● 张量分解的    MKGC  模型实验分析
                    在  WN18  和  FB15K  数据集上对张量分解    (TF) 的  MKGC  模型进行了实验, 结果如表      20  所示.
                    从表   20  中可知: 1) TuckER  不仅优于其他线性模型, 还优于其他类别的多数复杂模型的结果, 如                    ConvE  和
                 MINERVA. TuckER  和  ComplEx  取得了较好的效果, 可推断尽管它们在具体的方法细节上有所不同, 但它们都从
                 多任务学习中获得了很大收益. 2) 从         TuckER  模型还可以得知, 简单的线性模型具有很强的表现能力, 在转向更精
                 细的模型之前, 仍值得作为基本模型. 总体而言, 在探索新的改进时, 也应注意潜在的挑战. 例如, TuckER                        参数的规
                 模将随着实体或关系的数量线性增加, 因此应该考虑算法的可扩展性和经济性问题. 3) 使用旋转或其他操作对具
                 有更高自由度的高维空间         (如  QuateE  和  TuckER) 中的实体和关系进行建模, 有助于提高       KGC  的性能.
                    ● 神经网络的    MKGC  模型实验分析
                    在数据集    WN18RR  和  FB15K-237  上进行了实验, 结果如表    21  所示.
   228   229   230   231   232   233   234   235   236   237   238