Page 321 - 《软件学报》2020年第11期
P. 321
3636 Journal of Software 软件学报 Vol.31, No.11, November 2020
即快速减小,最终在 0.2 左右时趋于稳定.
1.2
Tanh
1.0 Sigmoid
ReLu
0.8
Train loss 0.6
0.4
0.2
0.0
0 10 20 30 40 50 60 70 80 90 100
Epoch
Fig.9 Comparison of coverage speed of FeRNet network using different activation functions
图 9 使用不同激活函数,FeRNet 网络收敛速度对比
基于以上分析,与 Sigmoid 函数和 Tanh 函数相比,采用 ReLu 函数作为 FeRNet 网络的激活函数更有助于网
络的训练:一方面,采用 ReLu 函数可提高 FeRNet 网络对砂岩显微图像的特征表示能力,获得更优的预测性能;
另一方面,在使用小批量梯度下降算法对 FeRNet 网络进行优化时,ReLu 函数具有更快的收敛速度,有助于提高
网络的训练效果.因此,本文 FeRNet 网络选择 ReLu 函数作为激活函数.
6 总结和展望
本文提出一种面向小规模数据集的卷积神经网络 FeRNet,用于砂岩显微图像的特征表示,提高砂岩显微图
像的自动分类准确性.FeRNet 网络具有相对简单的网络结构,在保证对砂岩显微图像表示能力的前提下,尽可
能地减少网络参数,降低对带标记砂岩显微图像数据量的要求,防止参数过拟合.另外,针对带标记砂岩显微图
像数量不足的问题,本文分别从图像预处理和 FeRNet 网络训练两方面提出基于滑动窗口的图像扩增和基于卷
积自编码网络的权重初始化解决策略.一方面,根据砂岩显微图像裁剪语义不变特性,采用滑动窗口方式对原砂
岩显微图像进行大量裁剪,使带标记图像数量倍数级增加;另一方面,使用预训练的卷积自编码网络 FeRCAE 的
编码器权重来初始化 FeRNet 网络,改善 FeRNet 网络的训练效果,防止过拟合.基于采自西藏地区的砂岩显微图
像数据集,本文设计并进行了实验.实验结果表明,图像扩增和卷积自编码网络能够有效改善 FeRNet 网络的训
练效果;与人工定义图像特征及其他面向小规模数据集的深度自学习特征相比,本文的 FeRNet 网络能够提取砂
岩显微图像的语义信息,对砂岩显微图像具有更好的表示能力.
值得注意的是,本文提出的框架对其他相似显微图像的特征表示具有可扩展性,如其他类型岩石显微图
像、医学显微图像等.一方面,此类显微图像也很难采集到大量带标记样本,不能满足模型训练的数据需求;另一
方面,与本文砂岩显微图像相似,此类图像中感兴趣的目标对象遍布整张显微图像,也具有裁剪语义不变性.对
于这些显微图像的特征表示,同样可通过图像扩增及预编码语义信息的方式改善特征表示神经网络的训练效
果,防止过拟合.
另外,本文方法还有一些工作值得扩展:首先,采集更多的砂岩显微图像,扩充数据集,进一步提高 FeRNet 网
络对砂岩显微图像的特征表示能力;其次,与更多人工定义特征及深度自学习特征对比,探究 FeRNet 网络在砂
岩显微图像特征表示中的稳定性;最后,将 FeRNet 网络应用于其他图像的特征表示,探究其是否仍具有良好的
特征表示能力.