Page 99 - 《软件学报》2021年第8期
P. 99

刘立  等:基于 1D-CNN 联合特征提取的轴承健康监测与故障诊断                                              2381


                 模型.对检测为非健康状态的原始信号,令其与各故障信号裁剪获得的代表性特征通过自动编码器进行耦合,学
                 习特征间的相关性和完整性后,进入 softmax 层对故障进行具体分类.
                    本文第 1 节介绍 1D-CNN 模型的理论基础.第 2 节介绍基于 1D-CNN 联合特征提取的健康状态监测与故
                 障诊断算法.第 3 节设计实验综合验证方案的有效性.第 4 节对本文工作进行总结并提出未来研究方向.

                 1    一维卷积神经网络

                    如图 1 所示为具有 l 层的 1D-CNN 的网络架构.输入信号自输入层进入卷积层后,通过卷积层中的一维卷积
                 核对输入信号的局部区域卷积实现特征提取,不同的卷积核可从在输入中提取不同的特征信号.对于第(l−2)层
                 卷积层,其输出可以表示为
                                                        M      l− ⎛  i ⎞
                                                 x l−  j  2  =  f  ⎜  k i l−  3  * w ij  2  +  b j ⎟∑  (1)
                                                       ⎝  i= 1       ⎠
                 其中,k 表示卷积核,j 表示卷积核数量,M 表示输入 x           l−1  的通道数,b 表示与内核对应的偏置,f 表示激活函数,*表示
                 卷积算子.

                                   振动信号           1D-Pool1                      全连接层
                                                              1D-Pool2
                                                                          1D-Pool3
                                      .
                                      .
                                      .                                            .
                                             .        .     .                      .   .
                                             .        .     .     .     .          .   .
                                             .        .     .     .     .      .       .
                                                                  .     .      .
                                                                               .
                                    输入层                                             输出层
                                         1D-Conv1      1D-Conv2    1D-Conv3

                                        Fig.1    One-dimensional convolution neural networks
                                                  图 1   一维卷积神经网络

                    经卷积层提取的特征信号随后进入池化层实现特征降维,简化网络计算复杂度.若最后一个池化层是第
                 (l−1)层,其输出作为输入传递给全连接层,在全连接层产生的输出结果为
                                                   y =  i l  ( f w l−  1  x ⋅  l−  1  +  b l−  1 )    (2)
                 其中,w 表示权重,b 表示偏置.最终,全连接层连接 softmax 层进行分类操作.
                    输出层的结果与预期结果的误差反向回传网络,依次得到全连接层、池层和卷积层的误差.通过计算误差
                 梯度更新权值和阈值,直至满足误差允许条件完成训练.输入向量 a 在输出层的均方误差所示如下:
                                                    E =    l N  (y − ∑  l  t a ) 2                    (3)
                                                     a    i= 1  i  i
                                           a
                      l
                 其中, y 是网络最终的输出结果, t 为向量 a 的目标输出.为了找到 E a 的导数,首先应计算出增量误差如下:
                      i                    i
                                                            ∂ E
                                                         l
                                                        Δ =                                           (4)
                                                         k   x ∂  l
                                                             k
                                                                             l
                    增量误差可采用梯度下降法更新每个神经元的权重与偏置,增量误差 Δ 用于更新该神经元的偏差和连接
                                                                             k
                 到该神经元的上一层神经元的所有权重,其定义如下:
                                                  ∂  E  ∂  E  x ∂  l  l−
                                                                  l
                                                      =   ⋅  k  =  Δ y i  1                           (5)
                                                                  k
                                                 ∂  w ik l−  1  x ∂  l k  ∂  w l−  ik 1
                                                 ∂  E  ∂  E ∂  x l
                                                                  =
                                                                ⋅
                                                               l
                                                    =    ⋅  k  =  Δ 1 Δ l k                           (6)
                                                               k
                                                  b ∂  k l  x ∂  l k  b ∂  l k
   94   95   96   97   98   99   100   101   102   103   104