Page 371 - 《软件学报》2025年第8期
P. 371

3794                                                       软件学报  2025  年第  36  卷第  8  期


                                                             (   (     ))
                                                                   l
                                                               l
                                                      l
                                                 ¯ x l+1  = Γ ∗ T ReLU Θ ∗ G Γ ∗ T ¯x l              (12)
                                                      1            0
                                      l
                                          l
                       l
                 其中,  Θ ∗ G  表示图卷积核,  Γ  和  Γ  分别为块中第  1  个和第  2  个门控卷积核,  ReLU (·) 为线性激活函数.
                                      0
                                          1
                                                   f g (·), 该网络用于学习源域和目标域的时空特征表示. 给定任意域的交
                    综上所述, 令本文的时空卷积网络表示
                 通流数据   X p  及其邻接矩阵   A, 先通过注意力机制对输入进行调整, 再通过时空卷积模块学习到该域的时空特征表
                 示  H  如下:
                    g

                                                            (     )
                                                      H g = f g X p ,A;θ g                           (13)
                 其中,  θ g  表示网络中所有可训练参数.

                 3.3   域适应
                                                                                                    T
                                                                                                S  H . 然
                    将上述的时空图卷积网络          f g (·) 作为特征提取器, 假设其学习到源域和目标域的特征表示分别为                H  和
                                                                                                g   g
                 而, 由于两个域的特征表示分布不同, 用源域数据训练的模型不能够直接迁移到目标域, 因此本文采用对抗性域适
                 应的方式减小域间差异, 学习域不变的特征表示, 以促进知识迁移                    [26] . 在  TL-STGCN  中添加一个域判别器模块, 将
                 域判别器和特征提取器相结合, 其中域判别器用来分辨学习到的特征表示来自源域还是目标域, 通过对抗的方式
                 训练域判别器和特征提取器以学习到更接近源域的特征表示.
                                                                          (    )
                    具体来说, 给定来自任意域的特征表示             H , 域判别器学习一个函数        f w H g ;θ w , 其中  θ w  为可训练的参数, 该函
                                                    g
                 数将特征表示从多维表示映射到实数. 源域和目标域之间的                   Wasserstein  距离  W 1  计算如下:

                                                       [ (    )]     [ (    )]
                                            W 1 = sup E PH S f w H g ;θ w −E PH T f w H g ;θ w       (14)
                                                ∥ f w ∥ L ⩽1
                 其中,  P H S P H T  分别为源域和目标域的时空特征表示分布.         ∥f w ∥ ⩽ 1  为  Lipschitz  约束, 函数  f w  中的参数都满足
                        ,
                                                                  L
                 1-Lipschitz. 接着, 通过最大化如下域判别器损失来近似估算           Wasserstein  距离:

                                           N S T S −1                   N T T T −1  (        )
                              (     )   1  ∑ ∑   ([ (       )]  )   1  ∑ ∑     [ (       )]
                                S  T                  S  S                         T  T
                           L wd X ,X  =         f w  f g X ,A ;θ g ;θ w −    f w  f g X ,A ;θ g  ;θ w  (15)
                                p  p                  p                            p
                                      N T  S                 i    N T  T                   j
                                                                    T
                                       S
                                           i=1  t=0                     j=1  t=0
                     [ (       )]                                     [ (        )]
                 其中,   f g X ,A ;θ g   表示源域图中第  i 个节点的交通数据特征表示,        f g X ,A ;θ g   表示目标域图中第   j 个节点
                                                                             T
                                                                           T
                          S
                            S
                          p                                                p
                                 i                                                j
                 的交通数据特征表示.
                                                                   L gard  强制执行  Lipschitz 约束:
                    为了避免梯度爆炸或消失, 本文给参数            θ w  添加一个梯度惩罚

                                                    ( )  (    (   )    ) 2
                                                     ˆ
                                                               ˆ
                                                 L gard H = ∥∇ ˆ H f w H;θ w ∥ −1                    (16)
                                                                    2
                 其中,   ˆ H 表示源域和目标域特征表示对之间沿直线的随机点.
                    接着, 通过求解如下最大化问题来估计             Wasserstein  距离:

                                                                                                     (17)
                                                       maxL wd −γL gard
                                                        θ w
                 其中,  γ 为梯度惩罚的平衡系数.
                    在训练时首先将域判别器训练到最优, 然后保持域判别器的参数不变, 通过最小化                           Wasserstein  距离的估值,
                 使特征提取网络学习到域差异较小的特征表示. 根据上述, 域不变的特征表示学习通过解决如下最大最小问题
                 实现:

                                                                                                     (18)
                                                     minmaxL wd −γL gard
                                                      θ g  θ w
                    公式  (18) 通过迭代的方式学习具有较小域差异的特征表示, 最终学习到域不变的特征表示.

                 3.4   交通预测
                    本文的目标是学习域不变的和有鉴别性的特征表示, 从而预测数据稀缺的目标域的未来交通流. 因此                                   TL-
                 STGCN  中设计一个交通预测模块, 将源域和目标域的未来交通流数据整合到表示学习的过程中.
                                                                                       (    )
                    交通预测模块旨在训练一个神经网络模型                f pre (·), 给定任意域的特征表示  H , 通过   f pre H ;θ pre  得到该域的预
                                                                               g
                                                                                         g
   366   367   368   369   370   371   372   373   374   375   376