Page 197 - 《软件学报》2020年第11期
P. 197

周塔  等:基于训练空间重构的多模块 TSK 模糊系统                                                     3513


                                                          d
                                                       il ∏
                                                      w =   v jl ()x ij                              (20)
                                                          j= 1
                    (1.6) 构造规则层输出矩阵 H nl :
                                                 ⎡  η  111 +Δ     η  w  K  +Δ  ⎤
                                                    w
                                                 ⎢             1 1 nl  ⎥
                                             H nl  =  ⎢              ⎥                               (21)
                                                 ⎢  η  w  +Δ  η  w  +Δ    ⎥
                                                 ⎣  N  N 1    N  NK nl  ⎦  NK nl
                                                                       ×
                         这里,η …,η 表示规则前件系数, Δ 为增量,这些系数均可人为设定或者利用其他方法获得.
                                  N
                              1
                    (1.7) 计算第 nl 个组件单元输出权重β nl :
                                                 β  =  T ⎛  nl ⎜  1  I  + H  H H nl ⎟  T ⎞  − 1 T    (22)
                                                  nl          nl
                                                       ⎝  C       ⎠
                         其中,C 是正则化参数,I 是一个单位矩阵.
                    (1.8) 计算整个输出矩阵 Y nl :
                                                       Y nl =H nl β nl                               (23)
                    接下来对算法 1 给出分析.
                    •   分析 1
                    根据 ELM,这里,我们计算第 nl 个训练模块的输出权重β nl :

                                                 β nl  =  T ⎛  nl ⎜  1  I  + H  H H nl ⎟  T ⎞  − 1 T  (24)
                                                              nl
                                                       ⎝  C       ⎠
                 而不是使用它的替代等价解:
                                                     ⎛  1       ⎞  − 1
                                                            T
                                                  nl  = β  ⎜  I  +  H H nl ⎟  H T                    (25)
                                                            nl
                                                                   nl
                                                     ⎝  C       ⎠
                                                                                           3
                    显然,公式(25)中计算矩阵的复杂度是 (OK           3 ) ;然而在公式(24)中,计算矩阵的复杂度是 O(N ).
                    请注意,K 通常比实际应用中 N 的值小得多.由于本研究主要针对中小规模数据集,因此,选取公式(24)是合
                 理的.而算法 1 中的公式(25)更适用于大数据集分类任务.
                    •   分析 2
                    参数 C 是一个可以在算法 1 中调整的重要参数.这里,C 的值可以选择比较大的常数.在本研究中,C 可以在
                 集合{400,…,1000}中通过网格搜索确定.
                    根据算法 1,下面很容易地给出 H-TSK-FS 整个学习算法,即算法 2.
                    算法 2. H-TSK-FS 学习算法.
                                                                   T
                                          T
                    输入训练集 X=[x 1 ,x 2 ,...,x N ] ,对应的类标签集 T=[t 1 ,t 2 ,...,t N ] ,其中,x n ∈R.对于二分类,t n ∈{+1,−1};否则,对于
                 多分类,则有 t n ∈{1,2,...,c},其中,n=1,2,...,N 和 c(>2)是类的数量.在 H-TSK-FS 中,训练的深度设定为 NL.
                    (2.1) 输入:原训练样本集 X 和类标签集 T.
                    (2.2) For nl=2 to NL do
                        (2.2.1)   根据特征选取机制 RSFM,得到训练数据[X           (nl−1) ,T]训练第 nl 个基本单元.
                        (2.2.2)   得到第 nl−1 个训练模块的输出 Y nl−1 ,产生增强的输入空间,即[X          (nl−1) ,Y nl−1 ,T].
                                                    nl− 1
                                 其中, X  ()nl  = XX (nl− 1)     ∑ α Y ,α i 是很小的常数,Y 为已训练模块决策信息的最大值.

                                                                         i
                                                        ii
                                                     i= 1
                        (2.2.3)   nl=nl+1.
                        end for
                    (2.3) 输出:各训练模块的模糊规则和每个训练模块的参数.
                    接下来对算法 2 给出分析.
                    •   分析 1:一方面,根据栈式原理,分类性能一般可随着深度 NL 的增加而提高;另一方面,也应该注意到,
   192   193   194   195   196   197   198   199   200   201   202