Page 327 - 《软件学报》2025年第12期
P. 327
5708 软件学报 2025 年第 36 卷第 12 期
较于 STAMP 模型, 本文模型 TIDA-DSSR 在 HR@N 和 NDCG@N 指标上分别最少提升 31.40%, 57.34%.
③ BERT4Rec 使用双向自注意力机制来建模用户的行为序列, 相比单向结构而言, 它能获得更准确的用户行
为序列表示, 从而提高推荐性能. 相较于 BERT4Rec 模型, 本文模型 TIDA-DSSR 在 HR@N 和 NDCG@N 指标上分
别最少提升 31.30%, 34.09%.
表 4 各模型对比结果
无自监督模型 自监督模型 性能提
数据集 指标 Light- BERT- TiCo- 4 Sparse- TIDA- 升 (%)
GCN STAMP 4Rec DHCN CL4SRec DuoRec CoSeRec SeRec SSDRec S Rec EnNet DSSR
H@10 0.054 0 0.050 8 0.052 6 0.056 4 0.056 9 0.068 6 0.067 5 0.073 7 0.051 7 0.071 9 0.076 2 0.084 2 10.50
H@20 0.080 3 0.074 3 0.082 5 0.089 9 0.088 5 0.102 2 0.101 5 0.107 9 0.077 6 0.107 1 0.110 3 0.124 9 13.24
Beauty
N@10 0.029 2 0.028 3 0.026 3 0.031 6 0.027 7 0.035 9 0.038 1 0.042 1 0.024 1 0.042 6 0.042 4 0.046 8 9.86
N@20 0.035 8 0.034 2 0.033 8 0.042 0 0.035 6 0.047 0 0.046 7 0.049 9 0.030 6 0.050 5 0.051 2 0.056 8 10.94
H@10 0.037 8 0.032 7 0.033 2 0.036 8 0.041 4 0.039 2 0.042 1 0.050 7 0.025 9 0.048 2 0.052 7 0.055 3 4.93
H@20 0.057 8 0.047 4 0.053 8 0.053 2 0.063 7 0.063 0 0.062 9 0.076 7 0.039 1 0.065 6 0.077 9 0.082 2 5.52
Sports
N@10 0.020 0 0.018 5 0.016 4 0.019 7 0.021 5 0.019 5 0.024 1 0.028 2 0.012 2 0.025 7 0.029 5 0.030 5 3.39
N@20 0.025 1 0.022 2 0.021 6 0.026 4 0.027 1 0.025 6 0.029 2 0.034 5 0.015 6 0.029 2 0.035 1 0.037 3 6.27
H@10 0.009 6 0.017 8 0.016 5 0.020 1 0.018 4 0.025 1 0.023 2 0.026 7 0.018 3 - - 0.028 1 5.24
H@20 0.015 5 0.024 7 0.022 4 0.032 2 0.028 5 0.034 7 0.033 6 0.039 1 0.026 4 - - 0.041 2 3.92
Home
N@10 0.005 1 0.012 1 0.008 9 0.012 6 0.009 2 0.012 4 0.013 6 0.015 3 0.011 8 - - 0.015 9 5.37
N@20 0.006 5 0.013 3 0.010 3 0.015 8 0.011 8 0.015 2 0.016 5 0.018 4 0.008 7 - - 0.019 6 6.52
H@10 0.054 2 0.041 2 0.050 8 0.057 2 0.058 1 0.062 7 0.061 3 0.065 8 0.047 9 - 0.041 4 0.066 7 1.37
H@20 0.076 0.066 8 0.078 6 0.083 6 0.089 6 0.097 6 0.096 5 0.103 2 0.065 6 - 0.067 8 0.105 1 2.96
Yelp
N@10 0.032 8 0.021 4 0.027 9 0.029 4 0.031 2 0.034 5 0.032 2 0.037 1 0.030 9 - 0.020 9 0.038 2 1.94
N@20 0.038 3 0.027 8 0.035 2 0.039 2 0.039 0 0.043 2 0.042 5 0.045 9 0.035 4 - 0.027 5 0.047 2 2.83
注: 本文模型TIDA-DSSR的实验数据以加粗字体标示, 为便于比较, 利用下划线来突显对比模型中表现最佳的数据, 最后一列给
出本文模型相对于某一最佳对比模型的性能提升情况 (粗体标示)
3 大经典模型 LightGCN、STAMP 和 BERT4Rec 分别从高阶协同信息、会话内顺序信息和用户行为上下文
的角度考虑对项目建模, 但未深层次地挖掘用户会话序列内的时间信息, 且推荐任务本身存在的稀疏性问题也未
得到改善. 因此, 本文模型 TIDA-DSSR 采用基于时间间隔的数据增强和对比学习相结合的方式应对上述问题.
2) 与自监督学习模型相比
① DHCN 使用超图来表示用户和项目之间的复杂交互信息, 可更好地捕捉到其中的高阶关联关系. 相较于
DHCN 模型, 本文模型在 HR@N 和 NDCG@N 指标上分别最少提升 16.61%, 20.41%.
② CL4SRec 为缓解数据稀疏性问题第 1 次将对比学习运用到顺序推荐. 相较于 CL4SRec 模型, 本文模型在
HR@N 和 NDCG@N 指标上分别最少提升 14.80%, 14.80%.
③ DuoRec 在模型中构建 Dropout 的模型级数据增强方法, 同时利用相似序列挖掘自监督信号. 相较于
DuoRec 模型, 本文模型在 HR@N 和 NDCG@N 指标上分别最少提升 6.38%, 9.26%.
④ CoSeRec 在 DuoRec 基础上引入更多的数据增强操作. 相较于 CoSeRec 模型, 本文模型在 HR@N 和
NDCG@N 指标上分别最少提升 8.81%, 11.06%.
⑤ TiCoSeRec 在 CoSeRec 的基础上对时间间隔时长分布进行了细致研究, 提出 5 个数据增强算子, 将非均匀
序列转换为均匀序列, 从而更好地捕捉时间信息以提升推荐性能. 相较于 TiCoSeRec 模型, 本文模型在 HR@N 和
NDCG@N 指标上分别最少提升 1.37%, 2.83%.
⑥ SSDRec 通过设计多关系图和分层去噪策略来高效地处理损坏或不完整的序列数据. 相较于 SSDRec 模型,
本文模型在 HR@N 和 NDCG@N 指标上分别最少提升 53.55%, 34.75%.
4
⑦ S Rec 构建在线自监督自蒸馏的新型学习范式, 利用行为数据有限的用户所产生的自监督信号来提高推荐
效果. 相较于 S Rec 模型, 本文模型在 HR@N 和 NDCG@N 指标上分别最少提升 14.73%, 9.86%.
4

