Page 334 - 《软件学报》2025年第12期
P. 334

钱忠胜 等: 结合时间间隔数据增强的对偶视图自监督会话推荐模型                                                 5715


                    从图  5  中可看出, 随着   λ 2  增大, 所提模型  TIDA-DSSR  在不同数据集下的表现有较明显差异: 在            Beauty  数据
                 集下,  λ 2  值为  0.001  时, HR  和  NDCG  两个指标值均最大; 在  Sports 数据集下,  λ 2  值为  0.1  时, 各指标值均最大; 在
                 Home 数据集下,   λ 2  值为  0.1  时, HR  指标值达到最大, 而  NDCG  指标在  λ 2  取  0.01  时效果最好; 在  Yelp  数据集下,
                        λ 2  取值为  1  时达到最大.
                 各指标在
                                          λ 2  的最优取值有所不同, 我们认为这是合理的. 因为当数据集中的项目种类越多,
                    可见, 在不同数据集上, 参数
                 用户交互序列中出现无关项目的可能性就越大, 此时需加大原始会话对比学习权重                           λ 2  的值, 使得会话嵌入受到无
                 关项目的影响降低. 即, 只有当       λ 2  的取值与数据集相匹配时, 才能使模型效果最佳.
                  4.4.5    模型复杂度分析  (RQ5)
                    所提模型    TIDA-DSSR  利用  HGCN  以及  Transformer 等技术实现推荐任务, 与现有模型相比, 推荐步骤相对增
                 多, 尽管复杂度随之增加, 但模型的推荐效果得到较大提升. 下面是相关模型的时间复杂度分析.
                    1) 本文模型   TIDA-DSSR  的时间复杂度, 主要表现在超图卷积网络、Transformer 编码器模块. 超图卷积网络

                 部分的时间复杂度为        O(NEFL), 其中  N  为超图的节点,   E  为超图中的超边数,      F  为特征维度,  L 为超图卷积层数;
                 Transformer 编码器由多个相同的模块串联而成, 主要包括自注意力层和前馈全连接层, 它的时间复杂度主要取决
                                            2                n 为输入的序列长度. 因此, 本文模型的时间复杂度大致
                 于自注意力层, 时间复杂度为         O(S n F), 其中  S  为模块数,
                             2
                 为  O(NEFL+S n F).
                    2) 就对比模型    LightGCN (该模型较经典, 在非自监督对比模型中复杂度最小) 来说, 它的时间主要消耗在图
                 卷积层的动态扩散过程中. 因此, 时间复杂度大致为               O(MDB), 其中  M  是交互图节点数,    D 为扩散深度,    B 为边数.
                    3) 就对比模型    DHCN (该模型较新, 与本文结构最为相似) 来说, 它的时间主要消耗在超图节点卷积网络和超
                 边卷积网络中. 因此, 时间复杂度大致为           O(NEFL+ NEFP), 其中  P  为超边卷积网络层数.
                    4) 就对比模型    TiCoSeRec (该模型较新, 在自监督对比模型中推荐性能最好) 来说, 它的时间主要消耗在相关
                                                        3
                 交互矩阵计算. 因此, 时间复杂度大致为           O(HnF + M ), 其中  H  为隐藏层大小.
                    5) 就对比模型    SSDRec (该模型最新, 在自监督对比模型中复杂度最小) 来说, 它的时间主要消耗在全局关系
                                                       O(UVn+Vn), 其中  U  为用户数, V  为项目数.
                 编码和序列自增强过程. 因此, 时间复杂度大致为
                    综上分析, 各模型的时间复杂度大小关系为: DHCN > TIDA-DSSR > TiCoSeRec > LightGCN > SSDRec. 从时
                 间复杂度上来看, 我们的模型         TIDA-DSSR  较对比模型   DHCN  更低, 并不是最高的, 尽管要略高于其他部分对比模
                 型, 但结合推荐效果来说, 其设计思想依然是合理的、有意义的.
                    1) 与模型  DHCN  相比, 所提模型    TIDA-DSSR  的时间复杂度相对较低, 训练所需的资源较少, 且利用用户交互
                 项目序列中的邻居用户信息对可能的隐藏高阶关系进一步挖掘, 使模型可更准确地预测结果, 在                               HR  和  NDCG  指
                 标上分别最少提升       16.61%、20.41% (见表  4), 在增强推荐效果方面更出色.
                    2) 与模型  LightGCN  相比, 尽管所提模型     TIDA-DSSR  时间复杂度相对较高, 但推荐效果比          LightGCN  在  HR
                 和  NDCG  指标上分别最少提升      23.06%、16.46% (见表  4), 推荐性能提升明显.
                    3) 与模型  TiCoSeRec 相比, 尽管所提模型     TIDA-DSSR  的时间复杂度相对较高, 但       TiCoSeRec 未充分利用会
                 话间信息, 而本文模型从多角度考虑了会话间与会话内的信息, 丰富会话嵌入的多样性, 提高了推荐准确率, 在                                HR
                 和  NDCG  指标上分别最少提升      1.37%、2.83% (见表  4), 推荐性能更占优势.
                    4) 与模型  SSDRec 相比, 尽管所提模型     TIDA-DSSR  的时间复杂度相对较高, 但        SSDRec 在项目嵌入建模时考
                 虑的信息过于单一, 而本文模型充分挖掘时间信息, 并从不同视角建模项目嵌入, 使推荐更精准, 比                               SSDRec  在
                 HR  和  NDCG  指标上分别最少提升     53.55%、34.75% (见表  4), 推荐性能优势显著.
                    根据分析, 我们的模型       TIDA-DSSR  在计算复杂度方面是可接受的, 并通过合理的架构设计优化了计算资源
                 的利用效率. 具体而言, 模型的核心组件在参数规模和计算时间上均得到了良好的平衡, 可适配常见的深度学习硬
                 件环境. 目前市面上主流用于深度学习的设备               (如高性能   GPU  或  TPU  集群) 完全能够满足   TIDA-DSSR  模型的计
                 算需求, 该模型在实际部署时是可行的. 此外, 所提模型在处理推荐任务时展现出较强的性能优势, 能够有效地缓
                 解数据稀疏性、挖掘高阶关系以及提升推荐准确性等.
   329   330   331   332   333   334   335   336   337   338   339