Page 192 - 《软件学报》2020年第11期
P. 192
3508 Journal of Software 软件学报 Vol.31, No.11, November 2020
(a) 每个输入特征划分为不固定的模糊集,但其中心点设定为[0,1].
(b) 每个模糊规则在一定程度范围内可选择部分输入特征.另外,采用部分样本点进行训练模型.
(c) 通过特殊的特征融合手段,设计一种实现增强分类性能的模糊分类器,即在这种结构中,原训练样本、
前层训练样本中部分样本点构成的训练集以及前层的部分输出被增加到下一个即将训练模块的输
入空间中,无形中扩充了下一个训练模块的输入信息.这里值得一提的是,前层的部分输出信息是当
前已训练的所有层中分类信息最逼近真实值的输出.
(d) 由于构建的模型是典型的前馈神经网络,层与层之间无需反复迭代.由于本研究没有研究大样本集的
分类任务,基本围绕样本点不多且维数不高的样本进行研究,因此,本研究通过 ELM 获取每个基本训
练模块,达到快速训练每个基训练模块的目的.
基于上述思想,我们设计了一种层次结构的 TSK 模糊分类器 H-TSK-FS,重点研究深度结构中层与层训练
之间信息的约束关系,部分样本点和部分训练特征对模糊分类器整体性能的影响.本文主要贡献概括如下.
(1) 新颖的构造结构:H-TSK-FS 由多个零阶 TSK 模糊分类器组成.在 H-TSK-FS 中,原始样本点、前面已
训练好所有层的最好分类信息、前层训练模型的部分输出作为下一个训练模型的输入特征.而当前
层训练的样本则完全包含了原始数据集、前层训练的逼近真实值的样本空间、前层训练模型的部分
输出.这样做的好处是,可以方便地打开原始输入空间中的流行结构.另外,H-TSK-FS 的分层结构不同
于现有的分层 TSK 模糊分类器,它们将原始样本的信息、中间训练模块的部分输出或中间训练模块
的部分输出再加上前层训练的样本点作为当前层的输入,投影到当前训练模块.
(2) 强可解释性和后件参数的求解:H-TSK-FS 当前层中的模糊规则可以通过原始样本点特征、前层部分
样本点特征以及前层部分决策结果.这里的前层部分决策结果可以理解成当前层输入空间的融合特
征.我们认为我们所设计的模糊规则具有强可解释性.另外,特征筛选机制也非常重要.选择冗余的特
征信息无形当中会削弱整个分类器的分类性能.这里,每个高斯函数的中心点和核宽则提前设定在一
个确定的区间范围内.这种方式设计的模糊规则是可以解释的.
(3) 良好的分类性能:我们提出的分层 TSK 模糊分类器 H-TSK-FS 后件参数则利用 ELM 快速求解;对实
际数据集和应用案例进行研究,我们发现 H-TSK-FS 可以获得较好的分类性能.实验结果也表明了
H-TSK-FS 确实是一个优化的分类模型.
本文第 1 节简要介绍包括经典的 TSK 模糊分类器和 ELM 在内的相关研究.第 2 节阐述 H-TSK-FS 的细节.
第 3 节给出详细的实验结果.第 4 节对本文进行总结.
1 Takagi-Sugeno-Kang(TSK)模糊分类器和极限学习机综述
因为本文涉及极限学习机(ELM) [14] 和经典的 TSK 模糊分类器 [2,5] ,所以本节首先简要地对它们进行介绍.
[2]
经典的 TSK 模糊分类器是最常用的模糊分类器之一,它采用以下模糊规则 表示.
规则 R k :
∧
is x A ∧ IF k x is A ∧ k ... x is A k ⎫
⎪
1 1 2 2 d d ⎬ (1)
,
( ) x = THEN f k ( p p k ,..., p ⋅ k ) (1, ,... ) , k = x x T 1,2,...,K ⎪ ⎭
k
0 1 d 1 d
k
其中, A 是第 k 个规则相应输入变量 x i 的模糊子集,∧是模糊联合算子,K 是模糊规则数.
i
[2]
经过相应的操作和去模糊处理后,TSK 模糊模型的输出 可以表示为
K u k () x K
y = o K f k () = ∑ x ∑ u x k () x (2)
k
() f
k = 1 ∑ u k′ () x k = 1
k′= 1
[2]
k
其中,u (x)和 u k ()x 分别表示模糊隶属函数和归一化模糊隶属函数 ,可以写成:
d
() = ∏
u x u k ( )x i (3)
k
i= 1 i A