Page 410 - 《软件学报》2025年第4期
P. 410

1816                                                       软件学报  2025  年第  36  卷第  4  期


                    在  ST-Conv block  中, 作为时间学习模块的两个      TCN  模块和作为空间学习模块的一个           GCN  模块像“三明治”
                 结构串联堆叠, 其中      TCN  模块的通道数是     64, GCN  模块的通道数是    16. 然而, STGCN  仅捕获了空间静态相关性,
                 而忽视了节点和边的特征可能会因为周期相关性而发生动态变化, 因此在性能上仍有提升的空间.
                    由于以往的方法中在空间层面上定义了固定的邻接矩阵来表示静态图, 而这对实际场景中真实的空间依赖关
                 系建模不足, 此外, 时间层面中使用循环神经网络处理长期依赖具有固有限制. 基于此, Wu                          等人  [18] 提出的  Graph
                 WaveNet 分别使用了融合自适应邻接矩阵的空域             GCN  [19] 和基于门控机制的扩张因果卷积        [20] , 并将这两个模块串
                 行连接进行时空集成来解决以上两个主要问题.
                    Graph WaveNet 的模型结构如图     3. Graph WaveNet 中的  TCN  组件采用了门控机制, 其中包括两个         TCN  块,
                 它们共享相同的结构, 而参数不同, 此外, 它们的输出使用的激活函数不同. 在该                      TCN  组件中, TCN-b  充当门的角
                 色, 可以决定上一层输出信息有多少可以被传递到下一层中. 在                   TCN  模块提取到时间依赖特征之后, 输出直接传
                 到  GCN  层中提取空间依赖特征.

                                                                          Output
                                H  进行下一步的空间信息提取, 因此
                                                            K layers      Linear
                                             Residual
                                                     +
                                                                          ReLU
                                                    GCN
                                                                          Linear
                                             Gated TCN
                                                     ×
                                                                          ReLU
                                              tanh          σ
                                                TCN-a  TCN-b                +
                                                                      Skip
                                                                   connections
                                                    Linear


                                                    Input
                                             图 3 Graph WaveNet 的整体网络架构     [18]

                    在时间层面, 基于门控机制的         TCN  组件可用数学公式表示为:

                                                 h = g(Θ 1 ∗X+b)⊙σ(Θ 2 ∗X+c)                          (1)
                                                  c
                         ,
                 其中,   Θ 1 Θ 2  是待训练的权重参数, 而   b 和   是待训练的偏置参数,      ⊙ 是  Hadamard  积,   g(·) 是  tanh  激活函数,   σ(·)
                 是  Sigmoid  函数,    ∗ 表示标准卷积. 由于得到输出的    h 会直接输入到后续的       GCN  模块作为空域     GCN  中用于迭代
                 的初始的节点特征                                   Graph WaveNet 的时空融合架构是因子化的.
                    然而, Graph WaveNet 同样忽略了交通数据的周期规律性, 如工作日、节假日和每周的交通状况具有某种程
                 度上的周期重复, 因此在相关问题上仍有提升空间.
                    为了估计交通预测中的认知不确定性和任意不确定性, Qian                  等人  [8] 提出的  DeepSTUQ  则通过将空域   GCN [19]
                 和自适应图学习模块耦合进           GRU 中集成空间和时间信息, 并结合了使用蒙特卡罗                  dropout 方法  (MCDO)  [21]
                                            [9]
                 的变分推理和基于自适应加权平均             (AWA) 用来近似深度集成的方法量化认知不确定性, 并使用一种后处理模型
                 校准方法的变体, 以提升估计的性能, 有助于提高时空模型的可解释性. 在                      DeepSTUQ  中, 将  GRU  中原有的线性
                 单元替换为一个图卷积算子, 并增加了节点自适应参数学习                   (NAPL) 模块  [10] , 可用公式表示为:

                                                             1   1
                                                        ˆ A = D AD − 2                                (2)
                                                            − 2
   405   406   407   408   409   410   411   412   413   414   415