Page 412 - 《软件学报》2024年第6期
P. 412

2988                                                       软件学报  2024  年第  35  卷第  6  期


                    1) Last.fm (源自  https://grouplens.org/datasets/hetrec-2011/): 音乐收听数据. 数据标签包括歌曲播放次数、歌
                 曲  ID、歌曲类型等.
                    2) Douban (源自  https://www.cse.cuhk.edu.hk/irwin.king.new/pub/data/douban): 电影点评数据. 数据标签包括用
                 户对电影的评分记录        (每个用户最少评分电影数为         20)、用户的人口统计信息         (年龄、性别)、评分时间、评论评
                 分, 以及电影的统计信息       (名称、类别、描述).
                    3) Yelp (源自  https://www.yelp.com/dataset): 餐厅点评数据. 数据标签包括用户对商家的评论及评分等.
                    4) MovieLens (源自  https://grouplens.org/datasets/movielens/): 电影点评数据. 数据标签包括用户与电影的基本
                 特征、评分、ID     和电影类别等.
                  4.2   评价指标
                    性能评价主要体现在精确度上, 为验证提出的算法是否能提高推荐性能, 选取常用的准确率                              (Precision)、召
                 回率  (Recall) 和归一化折损累计增益     (normalize discounted cumulative gain, NDCG) 作为评价指标.
                    1) Precision  和  Recall: 用来直接评价推荐算法的精确度, 如公式     (20) 所示:
                                               ∑                      ∑
                                                   |R(u)∩T(u)|            |R(u)∩T(u)|
                                      Precision =  u∈U       , Recall =  u∈U                         (20)
                                                 ∑
                                                                        ∑
                                                      |R(u)|                 |T(u)|
                                                    u∈U                   u∈U
                    公式  (20) 中,   R(u) 和  T(u) 分别为用户  u  推荐的项目列表、用户实际选择的项目列表,          |R(u)| |T(u)| 为其对应
                                                                                            ,
                 数量;   R(u)∩T(u) 为最终推荐列表中被用户实际选择项目的集合,             |R(u)∩T(u)| 为该集合中的项目数量.
                    2) NDCG  是对位置敏感的评价指标, 推荐项在列表中位置越靠前, 其贡献越大, 反之越小, 如公式                       (21) 所示:
                                                      ∑     1  ∑ k  2 −1
                                                                     t i
                                               NDCG =                                                (21)
                                                                 i=1 log (i+1)
                                                        u∈U test Y u
                                                                     2
                 其中, U tes 为测试用户集合; Y u 为用户   u  的最大  NDCG  值; k 为已推荐项目的数量; t i =1  表示击中, t i =0  表示未击中.
                        t
                  4.3   对比模型
                                                                                                      [3]
                    下面将本文提出的        LG_APIF  模型与相关模型     BPR [27] , DiffNet++  [17] , DHCF [28] , DeepFM [29] , LightGCN ,
                  2
                 S -MHCN [20] , SEPT [21] 及  FAWMF [30] 做对比实验, 验证 2
                                                          LG_APIF
                                                                 模型的有效性.
                    1) BPR: 一种流行且经典的基于贝叶斯个性化排名的推荐模型, 通过学习用户每对已评分与未评分项目的关
                 系来模拟候选项目的顺序.
                    2) DiffNet++: 一种最新的基于   GCN  的社交推荐方法, 模拟了用户和项目空间中的递归动态社交扩散.
                    3) DHCF: 一种基于超图卷积网络的方法, 用于建模用户和项目之间的高阶相关性来实现推荐.
                    4) DeepFM: 一个神经网络架构, 结合用于推荐的分解机器和用于特征学习的深度学习技术, 推出一个端到端
                 的学习用户复杂行为交互的模型, 并强调低阶和高阶特征交互的重要性.
                    5) LightGCN: 一种基于  GCN  的通用推荐模型, 利用用户与项目的邻近性来学习节点表示并生成推荐, 被认为
                 是目前比较先进的方法之一.
                       2
                    6) S -MHCN: 一种基于超图卷积网路的社交推荐方法, 将用户与用户之间的深层关联性采用超边表示.
                    7) SEPT: 一种集成了三训练的通用社会感知           SSL (secure sockets layer) 框架的推荐模型. 该框架在增强视图上
                 构建了   3  个图形编码器   (其中  1  个为推荐), 利用   个编码器生成的其他用户的自我监督信号对每个编码器进行迭
                 代改进, 以增强推荐性能.
                    8) FAWMF: 一种基于变分自编码的快速自适应加权矩阵分解方法. 采用参数化的神经网络自适应分配个性

                 化的数据置信度权重, 并从数据中推导出网络, 对所有反馈数据进行训练, 用于推荐.
                    选取的这几种作为对比的深度模型, 分别考虑了不同的信息源. BPR                    无论是对于基础或深度信息的利用率都
                 不高; DiffNet++, DHCF  及  LightGCN  则相继对基础信息进行了更充分地利用, 并引入一些深度方法; DeepFM,
                  2
                 S -MHCN, SEPT  及  FAWMF  在引入深度方法的同时, 还加强了在基础信息下对深度信息的挖掘与利用. 这有利于
   407   408   409   410   411   412   413   414   415   416   417