Page 233 - 《软件学报》2025年第12期
P. 233
5614 软件学报 2025 年第 36 卷第 12 期
比 NELL-One 数据集大一个数量级, 使得传统的 KGC 能够学到更多的信息. 4) 在基于其他的 FKGC 模型, CogKR
模型在 1-shot 条件下表现最佳; 而基于度量的模型, TransAM 模型效果最好. 5) 总的来说, 无论在 NELL-One 还是
Wiki-One 上, GANA 模型效果最好, 原因可能是门控网络和图注意力机制过滤邻域中的噪音信息, 使得表示更加精准.
表 18 FKGC 模型的实验结果 (MRR、Hits@5)
NELL-One Wiki-One
模型名称 MRR Hits@5 MRR Hits@5
1-shot 3-shot 5-shot 1-shot 3-shot 5-shot 1-shot 3-shot 5-shot 1-shot 3-shot 5-shot
GMatching 0.200 0.171 - 0.272 0.235 - 0.185 0.279 - 0.260 0.370 -
MetaR 0.314 - 0.323 0.375 - 0.385 0.164 - 0.209 0.238 - 0.280
FSRL 0.149 0.241 0.158 - 0.327 0.206 0.170 0.318 0.153 - 0.433 0.212
FAAN 0.215 - 0.341 - 0.395 0.187 - 0.279 - - 0.364
CogKR 0.288 - - 0.334 - - 0.256 - - 0.314 - -
AMmodel 0.218 - 0.248 0.243 - 0.283 0.171 - 0.201 0.234 - 0.264
GANA 0.301 0.331 0.351 0.350 0.389 0.407 0.307 0.322 0.344 0.409 0.432 0.437
TransAM 0.242 - - - - - 0.225 - - - - -
TransE 0.105 0.162 0.168 0.111 0.180 0.186 0.036 0.040 0.052 0.024 0.027 0.057
DisMult 0.165 0.201 0.214 0.174 0.223 0.246 0.046 0.052 0.077 0.034 0.041 0.078
ComplEx 0.179 0.228 0.239 0.212 0.252 0.253 0.055 0.064 0.070 0.044 0.053 0.063
表 19 FKGC 模型的实验结果 (Hits@1、Hits@10)
NELL-One Wiki-One
模型名称 Hits@1 Hits@10 Hits@1 Hits@10
1-shot 3-shot 5-shot 1-shot 3-shot 5-shot 1-shot 3-shot 5-shot 1-shot 3-shot 5-shot
GMatching 0.120 0.095 - 0.336 0.324 - 0.119 0.198 - 0.313 0.464 -
MetaR 0.266 - 0.270 0.404 - 0.418 0.093 - 0.141 0.331 - 0.355
FSRL 0.091 0.155 0.097 0.267 0.406 0.287 0.114 0.211 0.073 0.294 0.507 0.319
FAAN 0.146 - 0.281 0.362 - 0.463 0.116 - 0.200 0.316 - 0.428
CogKR 0.249 - 0.366 - 0.205 - - 0.353 -
AMmodel 0.142 - 0.182 0.327 - 0.357 0.113 - 0.143 0.281 - 0.311
GANA 0.231 0.283 0.299 0.416 0.425 0.446 0.211 0.225 0.246 0.483 0.510 0.517
TransAM 0.184 - - 0.358 - - 0.152 - - 0.360 - -
TransE 0.041 0.085 0.082 0.226 0.317 0.345 0.011 0.013 0.042 0.059 0.072 0.090
DisMult 0.106 0.146 0.140 0.285 0.295 0.319 0.014 0.020 0.035 0.087 0.091 0.134
ComplEx 0.112 0.165 0.176 0.299 0.345 0.364 0.021 0.029 0.030 0.100 0.113 0.124
6.3.3 多样本 KGC (MKGC) 模型比较
文中多样本 KGC (MKGC) 模型介绍的比较多, 本节对 MKGC 模型的实验将按照不同的分类分别进行介绍.
● 张量分解的 MKGC 模型实验分析
在 WN18 和 FB15K 数据集上对张量分解 (TF) 的 MKGC 模型进行了实验, 结果如表 20 所示.
从表 20 中可知: 1) TuckER 不仅优于其他线性模型, 还优于其他类别的多数复杂模型的结果, 如 ConvE 和
MINERVA. TuckER 和 ComplEx 取得了较好的效果, 可推断尽管它们在具体的方法细节上有所不同, 但它们都从
多任务学习中获得了很大收益. 2) 从 TuckER 模型还可以得知, 简单的线性模型具有很强的表现能力, 在转向更精
细的模型之前, 仍值得作为基本模型. 总体而言, 在探索新的改进时, 也应注意潜在的挑战. 例如, TuckER 参数的规
模将随着实体或关系的数量线性增加, 因此应该考虑算法的可扩展性和经济性问题. 3) 使用旋转或其他操作对具
有更高自由度的高维空间 (如 QuateE 和 TuckER) 中的实体和关系进行建模, 有助于提高 KGC 的性能.
● 神经网络的 MKGC 模型实验分析
在数据集 WN18RR 和 FB15K-237 上进行了实验, 结果如表 21 所示.

