Page 413 - 《软件学报》2025年第4期
P. 413

邹慧琪 等: 基于图神经网络的复杂时空数据挖掘方法综述                                                     1819



                                                  X    R N×τ          Y    R N×1

                                                    …

                                                 X 1  X 2  X τ−1 X τ
                                                           τ
                                                    Input            Output
                                               GLU     GLU     Convolution-unified layer

                                          W    Spatial gated block  Fully-connected layer

                                               1D   P                cosAtt
                                              Conv  σ(Q)      l+1             l+2
                                                             H               H
                                             l      Residual  l+1        σ
                                           H               H         GCN
                                                    connection
                                                              W
                                                   GLU            Spatial gated block
                 佳, 针对这个问题, Han
                                                 图 5 LSGCN   的网络架构    [23]

                    在空间维度, 空间门控块中的          GCN  和  cosAtt 模块分别用于捕获短期任务中的邻近道路条件和长期任务中的
                 路况相似性. 在    LSGCN  中的空间门控块中, GCN      的输出结果与     Sigmoid  函数结合作为一个门, 它与      cosAtt 模块的
                 输出通过    Hadamard  积操作可以得到最终的输出         H l+2  , 用来控制流入下一层的比例. 具体来说, 在第          1  部分中,
                 GCN  的输入包括了第     1  个  GLU  生成的输出  H l+1   和邻接矩阵  W  . 而另一部分  cosAtt 模块的输入仅包括    H  l+1  . 其
                 中, 与传统的图注意网络       GAT [12] 中的公式相比, LSGCN  中的图注意力网络       cosAtt 生成的表示节点    j 对于节点   的
                                                                                                      i
                 重要性的   e ij  值相对稳定.
                    因此, LSGCN  是通过先进行时间信息学习, 即输入通过第              1  个  GLU, 再进行空间信息学习, 即第      1  个  GLU  的
                 输出通过空间门控块, 接着空间门控块的结果输入到第                  2  个  GLU  进行第  2  次时间信息的提取, 最后通过卷积统一
                 层实现时间维度的降维, 完成时空信息的融合. 然而, 由于在                LSGCN  中, 图的结构是预定义的, 不一定能反映真实
                 的空间依赖关系, 因此      LSGCN  在其他图上的泛化能力不足.
                    总的来说, 虽然在建模离散时间的动态简单图时, 相关的时间和空间方法可能综合了各种简单的神经网络方
                 法  (如  GCN、GAT  和循环神经网络方法等) 及其变体, 但是由于离散时间的动态图本身的限制, 无法提取到每个
                 时刻的信息, 可能会造成信息的丢失, 同时不同时间间隔的选择也可能会影响最终模型的性能.

                 4.1.2    基于连续时间动态图的时空融合架构
                    相比离散时间动态图, 连续时间动态图在时间上连续, 它捕获快照内部的交互, 而不是快照间的交互, 并在交
                 互发生后更新节点状态, 在时空数据挖掘领域成为新兴的一个热点方法, 常见于解决交通领域的出发地-目的地
                 (OD) 需求预测问题. 因此, 根据节点内存更新方式的不同, 我们将在本节中介绍两种在                        OD  需求预测中应用的基
                 于连续时间动态图的时空融合架构, 它们也可被推广到其他时空数据挖掘问题上.
                    (1) 参数调节法
                    由于  OD  需求发生的时间是一个连续特征, 以往的基于固定的时间窗口进行处理从而用于预测的方法效果欠
                                   等人  [24] 提出的  CMOD  在事件发生时连续更新连续时间节点表示, 在更细粒度的时间尺度
                 上学习站点的演化动态, 并建立多级结构, 将节点级信息投射到集群级和区域级, 最后融合节点级, 集群级和区域
                 级的节点信息, 从而实现多级空间信息建模. 通过这种方式融合时空信息, 可达到更高的预测精度. 其中, 节点级信
                 息反映直观的最低一级的节点表示, 而集群级是基于地理距离和功能相似性得到的更高一级的空间依赖关系计算
                 得到的节点信息, 区域级则表示基于需要提取时空信息的区域的全局空间依赖关系得到的节点信息, 集群级和区
                 域级中的空间依赖关系信息都是通过建立映射机制和更新权重的方式自动挖掘得到.
                    首先, CMOD   建立了基于参数调节的节点级的内存更新机制, 该过程可用以下公式表示:
   408   409   410   411   412   413   414   415   416   417   418