Page 320 - 《软件学报》2020年第11期
P. 320
李娜 等:一种基于卷积神经网络的砂岩显微图像特征表示方法 3635
重初始化的 FeRNet 网络在训练开始时已具有一定的砂岩显微图像语义信息,有助于 FeRNet 网络快速准确地找
到最优的权重,提高 FeRNet 网络对砂岩显微图像的特征表示能力.基于卷积自编码网络的权重初始化策略亦可
扩展至带标记图像较少的图像分类应用中.
1.0
0.9
Accuracy 0.8
FeRNet-nCAE
0.7
FeRNet
LDA DT NB KNN LR MLP RF AdaBoost SVM
(a) 精确度指标
1.0
0.9
F1
0.8
FeRNet-nCAE
0.7
FeRNet
LDA DT NB KNN LR MLP RF AdaBoost SVM
(b) F1 指标
Fig.8 Comparison of prediction performance of FeRNet features with and without FeRCAE
图 8 使用和不使用 FeRCAE 情况下,FeRNet 特征预测性能对比
5.3 不同激活函数对FeRNet网络训练的影响
为了探究不同激活函数的选择对 FeRNet 网络训练的影响,本文分别选取 Sigmoid、Tanh 和 ReLu 函数作为
FeRCAE 和 FeRNet 网络的激活函数,采用小批量梯度下降(mini-batch gradient descent,简称 MBGC)算法对网络
进行训练.基于训练得到的 3 种 FeRNet 网络,分别从对砂岩显微图像的特征表示能力和网络收敛速度两方面对
比 Sigmoid、Tanh 和 ReLu 函数对网络训练的影响.表 8 和图 9 分别列出采用不同激活函数时,FeRNet 网络特征
的预测性能及收敛速度.
Table 8 Prediction performance (Mean±Std) of FeRNet features based on different activation functions
表 8 基于不同激活函数,FeRNet 特征的预测性能(均值±标准差)
SVM LR
激活函数
精确度 F1 精确度 F1
Sigmoid 0.822±0.019 0.834±0.018 0.810±0.019 0.823±0.020
Tanh 0.731±0.024 0.788±0.034 0.717±0.026 0.789±0.044
ReLu 0.929±0.034 0.925±0.031 0.900±0.031 0.905±0.030
如表 8 所示,无论使用何种分类模型和评测指标,与 Sigmoid 函数和 Tanh 函数相比,使用 ReLu 函数作为激
活函数的 FeRNet 网络提取的特征在砂岩显微图像自动分类中始终具有更好的预测性能.如图 9 所示,在使用小
批量梯度下降算法对 FeRNet 网络进行优化时,与 Sigmoid 函数和 Tanh 函数相比,采用 ReLu 函数具有更快的收
敛速度和更优质的解.从图中可见,在使用 Sigmoid 函数和 Tanh 函数时,FeRNet 网络收敛速度相对缓慢,且损失
值在 0.4~0.5 左右时即趋于稳定,不再降低;而使用 ReLu 作为激活函数时,FeRNet 网络的训练损失在开始优化时