Page 329 - 《软件学报》2025年第12期
P. 329

5710                                                      软件学报  2025  年第  36  卷第  12  期


                    在  Beauty, Sports, Home 及  Yelp  这  4  个公开数据集上进行消融实验, 考虑到变体模型的目的是验证模型构件
                 对性能的影响, 选择 HR@20      和  NDCG@20 (下简称  HR  和  NDCG) 作为评价指标. 实验结果如表       6  所示.

                                                   表 6 消融实验结果对比

                                     Beauty             Sports             Home               Yelp
                      模型
                                  HR      NDCG      HR      NDCG       HR      NDCG       HR      NDCG
                     Ours-1      0.103 2  0.049 4  0.058 9  0.025 7   0.036 3  0.017 9  0.091 5  0.043 3
                     Ours-2      0.102 4  0.050 4  0.074 2  0.028 6   0.035 1  0.017 6  0.098 3  0.044 1
                     Ours-3      0.095 7  0.049 7  0.061 5   0.027    0.035 7  0.018 2  0.086 7  0.042 1
                     Ours-4      0.083 7  0.048 3  0.056 2  0.024 3   0.034 3  0.016 8  0.085 9  0.042 7
                     Ours-5      0.079 2  0.047 2  0.065 8  0.026 5   0.033 9  0.016 3  0.084 2  0.041 6
                   TIDA-DSSR     0.124 9  0.056 8  0.082 2  0.030 5   0.041 2  0.019 6  0.105 1  0.047 2
                   性能提升 (%)       17.3     11.3     10.9     11.0      13.4     13.5      6.9      7.0
                 注: 本文模型TIDA-DSSR的实验数据以加粗字体标示, 为便于比较, 利用下划线来突显变体模型中表现最佳的数据, 最后一行给
                 出模型相对于某一最佳变体模型的性能提升情况 (粗体标示)

                    从表  6  中可看出, 各构件的实验效果分析如下: 时间间隔数据增强构件对模型性能影响较大, 使用原始会话的
                 变体模型   Ours-1  在  HR, NDCG  这  2  个指标上的表现均不如使用时间间隔数据增强的方法; 对偶视图编码构件对
                 于模型性能的影响非常明显, 与仅使用            Transformer 编码器的变体模型     Ours-2  相比, 使用对偶视图的效果有明显
                 提升; 从原始会话对比学习构件的实验结果可看出, 与仅使用数据增强后会话的变体模型                             Ours-3  相比, 此构件对
                 模型效果影响最大.
                    1) 与仅采用原始会话相比, 基于时间信息数据增强后的会话对模型性能影响较大                          (变体模型   Ours-1). 为针对
                 现有多数模型未充分利用会话侧信息的问题, 本文模型                  TIDA-DSSR  考虑使用基于时间间隔的数据增强模块. 尽
                 管多数用户的兴趣是影响其交互项目的主要因素, 但用户兴趣本身也受时间因素的影响, 所以用户的交互项目也
                 会受时间因素的影响, 且会话内项目间的间隔时长可体现用户兴趣的变化. 由表                         6  可看出, 与变体模型     Ours-1  相
                 比, 所提模型性能提升较大, HR       与  NDCG  指标分别平均提升      22.2%  和  13.0%. 其中, 在  HR  指标上至少提升  13.5%,
                 最多提升可达     39.6%. 由此可知, 本文基于时间间隔信息对会话序列实施数据增强, 丰富会话内信息, 进而细化用
                 户兴趣, 可更有效地提升推荐列表的准确度.
                    2) 与仅使用   Transformer 编码器相比, 对偶视图编码器对于模型性能的影响明显               (变体模型    Ours-2). 因会话推
                 荐中样本数量少, 且单个会话本身可利用的信息较少, 故如何挖掘会话间的其他信息成为越来越重要的问题. 本文
                 模型  TIDA-DSSR  构建对偶视图编码器, 将会话序列设计成超图, 再使用超图卷积网络编码器将不同会话间联系
                 起来, 实现不同会话间的信息互传递, 充分挖掘不同会话间的相关性, 同时结合                       Transformer 编码器, 分别从会话间
                 和会话内提取可利用信息. 由表          6  可看出, 与变体模型    Ours-2  相比, 所提模型性能提升明显, HR      与  NDCG  指标分
                 别平均提升    14.3%  和  9.4%. 其中, 在  HR  指标上至少提升  6.9%, 最多提升可达    22.0%. 由此可知, 对偶视图编码器
                 在多角度挖掘会话间与会话内信息, 提升会话信息的多样性, 在推荐结果上起很大作用.
                    3) 与仅使用数据增强后会话嵌入的对比学习相比, 原始会话对比学习对于模型效果影响最大                           (变体模型    Ours-3).
                 由于以数据增强后的会话嵌入作为推荐任务的主体, 在模型训练前期对于项目的编码以及项目间相似度计算的准
                 确度不高, 从而易出现会话嵌入受到无关项目影响的现象, 所以本文模型                       TIDA-DSSR  同时采用原始会话作为对
                 比学习的样本, 从多角度提取会话信息, 缓解无关项目对于会话嵌入的影响. 这也说明了本文模型各构件之间相互
                 匹配的合理性. 由表      6  可看出, 与变体模型    Ours-3  相比, 所提模型性能提升明显, HR      与  NDCG  指标分别平均提升
                 25.2%  和  11.8%. 其中, 在  HR  指标上, 至少提升  15.4%, 最多提升可达  33.7%. 由此可知, 加入原始会话对比学习组
                 成的自监督任务框架对提升推荐性能非常有效.
                    4) 从仅保留时间间隔数据增强构件的变体模型来看, 数据增强构件与其他构件的组合是合理的                                (变体模型
                 Ours-4). 本文模型  TIDA-DSSR  使用基于时间间隔的数据增强模块, 得到增强后的会话信息需进一步处理. 而对偶
                 视图编码模块和自监督任务学习模块可提供处理及融合增强后会话信息的方法. 由表                             6  可看出, 所提模型   TIDA-
   324   325   326   327   328   329   330   331   332   333   334