Page 265 - 《软件学报》2025年第10期
P. 265

4662                                                      软件学报  2025  年第  36  卷第  10  期


                 的  DSCN  网络结构如图   1  所示, 网络由输入层、多个隐含层和输出层构成.
                                                                         d
                    假定训练数据为:      X = {(x 1 ,t 1 ),...,(x N ,t N )}, 其中,  x i = [x i1 , x i2 ,..., x id ] ∈ R  表示输入数据;  T = {t 1 ,t 2 ,...,t N } t i = [t i1 ,
                                                                                                  ,
                 t i2 ,...,t im ] ∈ R  表示相应的输出数据;  i = 1,2,...,N  表示样本数序号. 具体算法过程可以描述如下.
                           m
                    令  Γ := {g 1 ,g 2 ,g 3 ,...}  表示一组实值函数,  span(Γ)  表示由  Γ  张成的函数空间.  L 2 (K)  表示所有勒贝格可测函数
                 f = [f 1 , f 2 ,..., f m ] : R → R m  的空间.
                                d
                    在第  n 层的第  L n  个节点加入网络前, 网络的输出表示为:

                                                        p
                                                     n ∑∑
                                                              (           )
                                                          (k)
                                               (n)
                                              f (x) =    β g k,j x (k−1) ;w (k−1) ,b (k−1)            (1)
                                               p          j         j   j
                                                     k=1 j=1
                    网络的残差表示为:

                                                             [                ] T
                                         e (n)  = f − f  (n)  = e (n)  (X) = e (n)  (X),...,e (n)  (X)  (2)
                                          L n −1  p   L n −1   L n −1,1  L n −1,m
                                                                    (n)
                    令   ϵ  为设定的容差, 网络在构造的初期并不满足精度需求, 即              e > ϵ. 随机配置网络能够在每次新增节点时快
                                                                    L n
                 速选择随机参数      w k,j  和  b k,j , 使得网络残差逐渐满足设定的容差, 接下来将描述这种随机参数的配置方法.

                                                (0)  (0)
                                               w j , b j        (1)  (1)
                                                               w j , b j  (k)
                                                                        β j
                                           x 1
                                           x n
                                         输入层           隐含层 1      隐含层 2     输出层
                                                 图 1 深度随机配置网络结构

                                                          +
                                                     ,
                    假设   span(Γ) 在  L 2  空间中是稠密的,  ∀g ∈ Γ b g ∈ R , 有   0 <∥ g ∥< b g  成立. 给定  0 < r < 1, 非负并满足   lim µ l = 0
                                                                                                 L→+∞
                                                 )
                                                  
 (n) 
 2

                                                                                           2 (n)
                                          (
                                                                                  (n)
                                       (n)
                                                                                       2
                 及  µ l ⩽ (1−r) 的序列   {µ l }, 令  δ = 1−r −µ j 
e  
 ,q = 1,2,...,m. 若满足不等式约束  ⟨e ,g n,j ⟩ ⩾ b δ ,q = 1,2,...,m,
                                       j,q          j−1,q                         j,q      g  j,q


                             (n)
                 则有   lim 
 f − f 
 = 0 成立, 即满足网络的全局逼近能.
                            p
                     L→+∞
                    当第   L n  个节点加入第  n 个隐含层后, 则第    n 个隐含层的输出为:

                                                        [  (   )       (   )] T
                                             (n)  (n)        (n−1)      (n−1)
                                            h := h (X) = g n,L n  x  ,...,g n,L n  x                  (3)
                                             L n  L n        1          N
                    令

                                                 ⟨  (n)  (n)  ⟩ 2
                                                  g L n −1,q ,h L n  ⟨     ⟩
                                            ξ (n)  = ⟨  ⟩  l 2  −(1−r) g (n)  ,g (n)                  (4)
                                             L n ,q  (n)  (n)      L n −1,q  L n −1,q
                                                   g ,h                     l 2
                                                    L n  L n
                                                         l 2
                    我们选取令公式      (4) 最大的一组隐含层参数, 这也就是         DSCN  配置隐含层参数的方法和理论.
                    将所有隐层的输出矩阵表示为:

                                                         [          ]
                                                             (n)
                                                          (n)
                                                    H (n)  = h ,h ,...,h (n)                          (5)
                                                      L n  1  2    L n
                 则     DSCN  的输出权值方法计算如下:
                                                          
            
 
 2

                                                              n ∑ L k ∑

                                                  ∗       
        (k)
                                                 β = argmin
 f −  β g k,j 
                           (6)
                                                          
        j
                                                        β
                                                             k=1 j=1
                    常用穆尔-彭罗斯广义逆解决公式            (6) 的最小二乘问题, 即    β = H T .
                                                                     †
                    综上所述, DSCN    的构造过程可以表述如下: 网络从只有单个节点开始逐步增加隐含层节点, 当前隐含层节点
   260   261   262   263   264   265   266   267   268   269   270