Page 311 - 《软件学报》2020年第11期
P. 311
3626 Journal of Software 软件学报 Vol.31, No.11, November 2020
采用上述图像扩增方式,相邻子图像间会存在部分重合,但不会完全相同.通过对砂岩显微图像进行裁剪预
处理,可有效扩增带标记砂岩显微图像数量,有助于防止过拟合,提高模型的泛化性能.
2.3 FeRNet特征表示
2.3.1 FeRNet 网络结构
人工定义图像特征对具有复杂显微结构的砂岩显微图像表示能力有限,不能捕获图像中隐含的高级语义
信息,削弱砂岩显微图像的自动分类性能.此外,由于砂岩样本采集和标注的困难性,带标记的砂岩显微图像数
量远远难以达到深度神经网络训练的要求.
针对以上问题,本文提出一种卷积神经网络 FeRNet,用于表示砂岩显微图像的语义信息.FeRNet 网络具有
相对简单的结构,在保证对砂岩显微图像特征表示能力的前提下,尽可能地降低网络对带标记样本数据量的要
求,避免出现过拟合风险.图 4 所示为本文提出的 FeRNet 网络结构示意图,表 1 列出了网络的详细设置.
60×48×32 30×24×32
480×384×16 240×192×16 120×96×16 15×12×32
960×768 1024 256
3
砂岩显微图像 Conv_1 Conv_2 Pool_1 Conv_3 Conv_4 Pool_2 Fc_1 Fc_2 Fc_3
Fig.4 Architecture of FeRNet network
图 4 FeRNet 网络结构
Table 1 Detailed settings of FeRNet network
表 1 FeRNet 网络详细设置
网络层 层类型 过滤器/步长 通道数 激活函数 输出尺寸 参数数量
Conv_1 卷积层 5×5/2 16 ReLu [24] 480×384×16 1 216
Conv_2 卷积层 5×5/2 16 ReLu [24] 240×192×16 6 416
Pool_1 最大池化层 2×2/1 16 − 120×96×16 0
Conv_3 卷积层 5×5/2 32 ReLu [24] 60×48×32 12 832
Conv_4 卷积层 5×5/2 32 ReLu [24] 30×24×32 25 632
Pool_2 最大池化层 2×2/1 32 − 15×12×32 0
Fc_1 全连接层 − 1 ReLu [24] 1 024 5 899 864
Dropout_1 Dropout 层 − 1 − 1 024 0
Fc_2 全连接层 − 1 ReLu [24] 256 262 400
Dropout_2 Dropout 层 − 1 − 256 0
Fc_3 全连接层 − 1 Softmax [37] 3 771
如表 1 所示,本文提出的 FeRNet 网络主要由 11 个网络层构成,其中包括 4 个卷积层(Conv)、2 个最大池化
层(Pool)、3 个全连接层(Fc)以及 2 个 Dropout 层.FeRNet 网络的具体架构详细介绍如下.
(1) 输入层
为避免因图像缩放等原因造成的数据损失,预处理后的砂岩显微图像不再进行任何缩放处理,直接输入
FeRNet 网络.因此,网络输入层图像的尺寸为 960×768.但在输入网络之前,需要将砂岩显微图像的像素值归一化
至[0,1]范围,方便计算.
(2) 卷积层
为捕获砂岩显微图像的语义信息,同时避免因数据不足造成过拟合,FeRNet 网络只包含 4 个卷积层.相比深
度卷积网络,FeRNet 网络在保证对砂岩显微图像特征表示能力的前提下,尽可能减少网络的参数数量,降低网
络训练对数据量的要求.所有卷积层均采用尺寸为 5×5 的卷积核(过滤器),步长均设为 2.前两个卷积层通道数为
16,后两个为 32.
常用的激活函数包括 Sigmoid [38] 、Tanh [37] 和 ReLu [24] .与 Sigmoid 和 Tanh 函数相比,ReLu 函数计算简单,在