Page 334 - 《软件学报》2025年第12期
P. 334
钱忠胜 等: 结合时间间隔数据增强的对偶视图自监督会话推荐模型 5715
从图 5 中可看出, 随着 λ 2 增大, 所提模型 TIDA-DSSR 在不同数据集下的表现有较明显差异: 在 Beauty 数据
集下, λ 2 值为 0.001 时, HR 和 NDCG 两个指标值均最大; 在 Sports 数据集下, λ 2 值为 0.1 时, 各指标值均最大; 在
Home 数据集下, λ 2 值为 0.1 时, HR 指标值达到最大, 而 NDCG 指标在 λ 2 取 0.01 时效果最好; 在 Yelp 数据集下,
λ 2 取值为 1 时达到最大.
各指标在
λ 2 的最优取值有所不同, 我们认为这是合理的. 因为当数据集中的项目种类越多,
可见, 在不同数据集上, 参数
用户交互序列中出现无关项目的可能性就越大, 此时需加大原始会话对比学习权重 λ 2 的值, 使得会话嵌入受到无
关项目的影响降低. 即, 只有当 λ 2 的取值与数据集相匹配时, 才能使模型效果最佳.
4.4.5 模型复杂度分析 (RQ5)
所提模型 TIDA-DSSR 利用 HGCN 以及 Transformer 等技术实现推荐任务, 与现有模型相比, 推荐步骤相对增
多, 尽管复杂度随之增加, 但模型的推荐效果得到较大提升. 下面是相关模型的时间复杂度分析.
1) 本文模型 TIDA-DSSR 的时间复杂度, 主要表现在超图卷积网络、Transformer 编码器模块. 超图卷积网络
部分的时间复杂度为 O(NEFL), 其中 N 为超图的节点, E 为超图中的超边数, F 为特征维度, L 为超图卷积层数;
Transformer 编码器由多个相同的模块串联而成, 主要包括自注意力层和前馈全连接层, 它的时间复杂度主要取决
2 n 为输入的序列长度. 因此, 本文模型的时间复杂度大致
于自注意力层, 时间复杂度为 O(S n F), 其中 S 为模块数,
2
为 O(NEFL+S n F).
2) 就对比模型 LightGCN (该模型较经典, 在非自监督对比模型中复杂度最小) 来说, 它的时间主要消耗在图
卷积层的动态扩散过程中. 因此, 时间复杂度大致为 O(MDB), 其中 M 是交互图节点数, D 为扩散深度, B 为边数.
3) 就对比模型 DHCN (该模型较新, 与本文结构最为相似) 来说, 它的时间主要消耗在超图节点卷积网络和超
边卷积网络中. 因此, 时间复杂度大致为 O(NEFL+ NEFP), 其中 P 为超边卷积网络层数.
4) 就对比模型 TiCoSeRec (该模型较新, 在自监督对比模型中推荐性能最好) 来说, 它的时间主要消耗在相关
3
交互矩阵计算. 因此, 时间复杂度大致为 O(HnF + M ), 其中 H 为隐藏层大小.
5) 就对比模型 SSDRec (该模型最新, 在自监督对比模型中复杂度最小) 来说, 它的时间主要消耗在全局关系
O(UVn+Vn), 其中 U 为用户数, V 为项目数.
编码和序列自增强过程. 因此, 时间复杂度大致为
综上分析, 各模型的时间复杂度大小关系为: DHCN > TIDA-DSSR > TiCoSeRec > LightGCN > SSDRec. 从时
间复杂度上来看, 我们的模型 TIDA-DSSR 较对比模型 DHCN 更低, 并不是最高的, 尽管要略高于其他部分对比模
型, 但结合推荐效果来说, 其设计思想依然是合理的、有意义的.
1) 与模型 DHCN 相比, 所提模型 TIDA-DSSR 的时间复杂度相对较低, 训练所需的资源较少, 且利用用户交互
项目序列中的邻居用户信息对可能的隐藏高阶关系进一步挖掘, 使模型可更准确地预测结果, 在 HR 和 NDCG 指
标上分别最少提升 16.61%、20.41% (见表 4), 在增强推荐效果方面更出色.
2) 与模型 LightGCN 相比, 尽管所提模型 TIDA-DSSR 时间复杂度相对较高, 但推荐效果比 LightGCN 在 HR
和 NDCG 指标上分别最少提升 23.06%、16.46% (见表 4), 推荐性能提升明显.
3) 与模型 TiCoSeRec 相比, 尽管所提模型 TIDA-DSSR 的时间复杂度相对较高, 但 TiCoSeRec 未充分利用会
话间信息, 而本文模型从多角度考虑了会话间与会话内的信息, 丰富会话嵌入的多样性, 提高了推荐准确率, 在 HR
和 NDCG 指标上分别最少提升 1.37%、2.83% (见表 4), 推荐性能更占优势.
4) 与模型 SSDRec 相比, 尽管所提模型 TIDA-DSSR 的时间复杂度相对较高, 但 SSDRec 在项目嵌入建模时考
虑的信息过于单一, 而本文模型充分挖掘时间信息, 并从不同视角建模项目嵌入, 使推荐更精准, 比 SSDRec 在
HR 和 NDCG 指标上分别最少提升 53.55%、34.75% (见表 4), 推荐性能优势显著.
根据分析, 我们的模型 TIDA-DSSR 在计算复杂度方面是可接受的, 并通过合理的架构设计优化了计算资源
的利用效率. 具体而言, 模型的核心组件在参数规模和计算时间上均得到了良好的平衡, 可适配常见的深度学习硬
件环境. 目前市面上主流用于深度学习的设备 (如高性能 GPU 或 TPU 集群) 完全能够满足 TIDA-DSSR 模型的计
算需求, 该模型在实际部署时是可行的. 此外, 所提模型在处理推荐任务时展现出较强的性能优势, 能够有效地缓
解数据稀疏性、挖掘高阶关系以及提升推荐准确性等.

