Page 268 - 《软件学报》2025年第10期
P. 268
丁世飞 等: 面向二分类问题的直觉模糊深度随机配置网络 4665
[ ]
e (n) = e (n) (x 1 ),...,e (n) (x N ) ,q = 1,2 (24)
L n −1,q L n −1,1 L n −1,q
当第 L n 个节点加入到第 n 个隐含层后, 隐含层的输出矩阵可以表示为:
[ ( ) ( )] T
(n)
(n)
h := h (X) = g n,1 x (n−1) ,...,g n,L n x (n−1) (25)
L n L n
依据公式 e (n) h (n) 如下:
L n −1 L n
(23), 由于进行了加权处理, 因此我们重新定义残差 及隐层输出
˜ e (n) = Θe (n) (X) (26)
L n −1 L n −1
˜
(n)
(n)
h = Θh (X) (27)
L n L n
{ √ √ √ }
公式 (26) 和公式 (27) 中, Θ = diag θ 1 , θ 2 ,..., θ N , 为了便于表示与理解, 接下来依然采用 e (n) 和 h (n) 表示
L n −1 L n
残差和隐层输出.
我们加入了 L 2 正则化项来避免输出权重 β 求解出现问题. 依据王前进等人 [19] 的研究, 结合公式 (26) 及公式
(27), 重新定义 IFDSCN 的不等式约束如下, 并且我们可以很容易地证明模型的全局逼近性.
(n)
< e (n) ,h > 2
ξ (n) = L n −1 L n −(1−r) < e (n) (X),e (n) (X) > (28)
L n ,q γ L n −1,q L n −1,q
其中,
( 1 ) 2
(n)
(n)
< h ,h > +
L n L n C
γ = 2 (29)
(n)
(n)
< h ,h > +
L n L n C
公式 (23) 的优化问题是凸二次优化问题. 因此, 该问题存在唯一的全局最优解. 该问题的解如下:
( )−1
I
H T +S HH T S Y, N < L
C
β = (30)
( )−1
I
T T
+ H S H H S Y, N ⩾ L
C
,
其中, S = diag{s 1 , s 2 ,..., s N } s i 可能是零值, 从而惩罚权重矩阵 S 可能为非奇异矩阵, 导致输出权重 β 求解出现病
态解, IFDSCN 的目标函数加入了 L 2 正则化项解决了这一问题.
IFDSCN 的具体算法流程如算法 1 所示.
算法 1. IFDSCN 伪代码.
d 2 n 层最大节点数
输入: 训练输入 X = {x 1 , x 2 ,..., x N }, x i ∈ R , 训练输出 T = {t 1 ,t 2 ,...,t N },t i ∈ R ; 最大隐含层数 M, 第
L (n) ; 容差 ϵ , 最大配置次数 T max ; 两组标量 Υ = {λ 1 ,...,λ end } R = {r 1 ,...,r end }; 样本直觉模糊惩罚权重 ;
S
,
max
输出: IFDSCN 模型.
(1)
1. while n ⩽ M and ∥e ∥ F > ϵ do
0
(1)
2. while L n ⩽ L (n) and ∥e ∥ F > ϵ
max 0
3. for λ ∈ Υ do
4. for r ∈ R do
5. for k = 1,2,...,T max do
d (n−1) (n−1)
6. 在 [−λ,λ] 及 [−λ,λ] 中随机生成 ω 和 b ;
L n L n
(n)
h ,ξ (n) ;
7. 通过公式 (26), (27) 计算
L n L n ,q
8. if min{ξ (n) ,ξ (n) } ⩾ 0 then
L n ,1 L n ,2
9. 将 w (n−1) 和 b (n−1) 保存在 W 中,
L n L n
2 ∑
ξ (n) = ξ (n)
10. 将 L n L n ,q 保存在 Ω 中;
q=1

