Page 196 - 《软件学报》2020年第11期
P. 196
3512 Journal of Software 软件学报 Vol.31, No.11, November 2020
部分样本点构成的特征空间信息,也包括刚训练完成模块的部分输出特征信息,由它们几部分共同决定.对于
H-TSK-FS,每个规则对应的零阶 TSK 模糊分类器都有可解释的输出,因此,模糊系统的整体输出为二分类/多分
类的结果依然是可解释的,同时,新生成的特征也变得具有可解释性.
图 3 展示了 H-TSK-FS 结构.整个训练过程分为以下几步.首先,根据原训练样本 X 和对应的类标签 T 集使
用 RSFM 机制随机选取部分样本点和部分特征构造训练集构成第 1 个训练模块的输入空间并生成输出 Y 1 ;此
时重新构造训练空间(X′UY 1 UT),这里,U 表示重构方法, X ′ = X α Y ,α是一个很小的常数;其次,根据第 1 步获得
1
的重构训练空间(X′UY 1 UT)再次使用 RSFM 机制随机选取部分样本点和部分特征构造训练集构成第 2 个训练
模块的输入空间并生成输出 Y 2 ;此时重新构造训练空间(X′′UY 2 UT),X′′= X X ′ α Y ,α是一个很小的常数,X′是
1
抽取原样本中部分样本点所形成的训练集;值得注意的是,Y 2 可以描述成:max{Y 1 ,Y 2 ;},即重构空间中的 Y 2 实际
上是前两个模块最接近真实值的输出.依照同样的方法,训练其他模块.
X ′=X αY 1 X ″=X X ′ αY
X T RSFM Block 1 Y 1 X′ TY 1 RSFM Block 2 Y 2 X″ T Y 2 ' RSFM Block NL Y NL
Fig.3 Structure of H-TSK-FS
图 3 H-TSK-FS 结构
如图 3 所示,不难发现,(1) 原始特征空间和可解释的重构特征(前一个训练模块的输出)总是包含在 H-
TSK-FC 当前训练模块的模糊规则中,因此,H-TSK-FS 所有的模糊规则的前件总是有明确的物理意义;(2) 由于
每个训练模块中,每个模糊规则的前件是随机选取样本点和随机选择输入特征而生成的,随机选择所选输入特
征的可解释高斯隶属函数,因此每个模糊规则的前件都是可解释的.综合这两点,本研究可以认为,H-TSK-FS 每
个训练模块具有可解释性.另一方面,通过较少样本点的训练在一定程度上也能降低模型的复杂度,提高训练效
率.换句话说,一旦 H-TSK-FS 确定训练结构后,H-TSK-FS 总是可以进行解释的.
很明显,H-TSK-FS 比其他多层神经网络和 BP 神经网络更具有可解释性.当然,和一些短规则的模糊分类器
相比,H-TSK-FS 则又显得更难以解释.对于其可解释性和精度之间的权衡问题 [15] ,这是我们接下来要开展的工
作之一.本研究提出的可解释性可以归纳为:非层次 TSK 模糊分类器在每个模糊规则所给出的特征对应的前件
部分和层次 TSK 模糊分类的短模糊规则层次结构.
2.2 H-TSK-FS算法
这里,我们先阐述 H-TSK-FS 每个训练模块的学习算法,即算法 1;然后给出 H-TSK-FS,即整个学习算法 2.
算法 1. 对 H-TSK-FS,第 nl 个训练模块的学习算法.
(1.1) 模糊化所有输入特征为 5 个高斯隶属函数 FUN1、FUN2、FUN3、FUN4 和 FUN5,对应的中心固定
在区间[0,1]内.其核宽度设定在[0,1]内,σ∈R.
(1.2) 初始化特征决策矩阵 MR,规则生成矩阵 TR.
(1.3) 计算每个特征 x ij 的高斯隶属函数值:
2
uk ) = exp − ( (x − a ) σ 2 ) (18)
(,x
ij ij k k
其中,核宽度σ k ∈R,σ k ∈[0,1]a k ∈[0,1].
(1.4) 计算每个特征的值:
⎧ λ ∏ (λ − −
t
vx ij ⎪ k = 1 TR nl ( , ) ( ,j l u k x ij )) (19)
() = ⎨
jl
⎪
⎩ 1,
(1.5) 计算模糊规则前件 w: