Page 316 - 《软件学报》2025年第12期
P. 316
钱忠胜 等: 结合时间间隔数据增强的对偶视图自监督会话推荐模型 5697
1) 对于会话内时间信息的挖掘不够充分, 未合理处理用户交互项目间长短不一的时间间隔信息.
2) 数据增强方法仅考虑相似项目, 对高阶邻居信息的提取程度不够, 忽略了会话间的隐藏高阶关系.
3) 大多融合会话内与会话间信息的对比学习方式过于单一, 易受到无关项目的影响, 模型的泛化能力受限.
针对上述 3 个方面的问题, 本文提出结合时间间隔数据增强的对偶视图自监督会话推荐模型 (dual-view self-
supervised session recommendation model based on temporal interval aware data augmentation, TIDA-DSSR). 首先, 挖
掘会话内时间信息, 利用时间间隔信息对原始会话实施数据增强; 然后, 针对会话间的隐藏高阶关系, 构建对偶视
图编码器从多角度对增强后的会话与原始会话进行编码; 最后, 利用对比学习采集不同视图内的信息, 通过预测任
务生成推荐列表. 主要工作与贡献如下.
1) 利用会话内时间间隔信息进行数据增强, 有针对性地生成对比学习信号, 预防丢失关键会话项目特征, 丰富
会话内信息.
2) 构建含有超图神经网络的对偶视图编码器, 将数据增强后的会话序列构成超图, 从多个视角建模用户会话,
结合时间间隔数据增强模块以更好地捕捉会话间的隐藏高阶关系.
3) 构造自监督任务框架并将对比学习融入模型, 让会话内与会话间不同视图的编码器互相获取信息以提升模
型的泛化能力, 缓解会话序列中数据稀疏性对推荐任务造成的影响.
4) 在 4 个公开数据集上展开了对比与消融实验, 与当前经典的、主流的基于数据增强的推荐模型相比, 本文
模型 TIDA-DSSR 在性能上优势较明显, 也验证了模型中各组件存在的必要性以及组合的合理性.
2 相关工作
SBRS 依靠用户交互数据预测未来行为, 但常受限于数据稀疏性和噪声. 数据增强通过生成训练样本提升模
型鲁棒性 [12] . 图神经网络挖掘用户物品间复杂关系, 提高推荐准确性. 本节综述数据增强与图神经网络两者在推
荐中的应用及挑战.
● 基于数据增强的推荐方法. 该类模型是在原始用户会话的基础上进行一系列变换得到信息更丰富的会话序
列, 并基于此进行建模的方法, 但其获得的增强数据质量不如原始数据. 为解决该问题, 许多研究人员开始使用自
监督学习 [13] 让增强数据与原始数据进行相似度对比. Xie 等人 [9] 提出 3 种用于预训练推荐任务的数据增强算子
(Crop, Reorder, Mask), 并配备了相应的对比学习框架. Yao 等人 [14] 提出一种两阶段增强策略, 先掩盖项目嵌入层,
再放弃对比学习之外的类别特征. Zhou 等人 [15] 应用对比学习来最大化属性上的互信息, 并通过随机屏蔽属性和项
目实施序列增强. Qiu 等人 [16] 利用基于 dropout 的模型级增广的对比正则化来构建对比样本. Cai 等人 [17] 提出一种
图对比学习范式, 利用奇异值分解进行对比增强. Liu 等人 [18] 对数据增强算子进行改进, 并结合先进的顺序推荐模
型实施推荐. Dang 等人 [19] 在 Qiu 等人研究基础上考虑了用户会话序列中时间间隔对推荐结果的影响, 进一步改良
了数据增强方法, 提出 TiCoSeRec 模型. 方阳等人 [20] 运用异质信息网络搭建对比元学习的框架, 缓解冷启动问题.
钱忠胜等人 [21] 提出了一种双分支协同增强的推荐模型, 动态调整用户的偏好和项目的热度. Xin 等人 [22] 使用 3 种
新的数据删除策略, 并根据会话相似度将会话划分为单独的子模型训练, 以提高学习效率. Zhong 等人 [23] 设计多阶
段分层去噪机制和全局关系编码器的运用, 这显著提高了序列数据的恢复质量.
数据增强的推荐模型为提高增强数据的质量, 结合时空信息、自监督学习和对比学习等技术, 设计多种增强
策略和算子来变换用户会话来丰富信息, 缓解数据稀疏性问题, 但大多数对比学习框架形式单一, 限制了模型的泛
化能力.
● 基于图神经网络的推荐方法. 该类模型先利用用户会话信息构建出序列图, 以此为基础使用图神经网络来
对项目间的信息进行编码, 得到相应的嵌入表示; 再利用项目的嵌入表示计算得到会话的嵌入表示, 以此为最后推
荐任务的基础. Wang 等人 [10,11] 基于会话图利用 GNN 方法学习项目间的转换关系. Qiu 等人 [3] 通过多头加权注意
力图神经网络学习项目的嵌入表示, 可更好地捕捉会话中项目的最佳顺序. Wang 等人 [11] 通过对单个会话图和全
局会话图进行图卷积, 学习会话级和全局级嵌入. 随着深度学习的蓬勃发展, 超图神经网络受到广泛关注, 超图提

