Page 311 - 《软件学报》2020年第11期
P. 311

3626                                Journal of Software  软件学报 Vol.31, No.11, November 2020

                    采用上述图像扩增方式,相邻子图像间会存在部分重合,但不会完全相同.通过对砂岩显微图像进行裁剪预
                 处理,可有效扩增带标记砂岩显微图像数量,有助于防止过拟合,提高模型的泛化性能.
                 2.3   FeRNet特征表示
                 2.3.1 FeRNet 网络结构
                    人工定义图像特征对具有复杂显微结构的砂岩显微图像表示能力有限,不能捕获图像中隐含的高级语义
                 信息,削弱砂岩显微图像的自动分类性能.此外,由于砂岩样本采集和标注的困难性,带标记的砂岩显微图像数
                 量远远难以达到深度神经网络训练的要求.
                    针对以上问题,本文提出一种卷积神经网络 FeRNet,用于表示砂岩显微图像的语义信息.FeRNet 网络具有
                 相对简单的结构,在保证对砂岩显微图像特征表示能力的前提下,尽可能地降低网络对带标记样本数据量的要
                 求,避免出现过拟合风险.图 4 所示为本文提出的 FeRNet 网络结构示意图,表 1 列出了网络的详细设置.
                                                          60×48×32 30×24×32
                                480×384×16  240×192×16  120×96×16        15×12×32
                       960×768                                                    1024  256
                                                                                              3



                      砂岩显微图像        Conv_1      Conv_2    Pool_1  Conv_3  Conv_4  Pool_2  Fc_1  Fc_2  Fc_3

                                             Fig.4    Architecture of FeRNet network
                                                   图 4   FeRNet 网络结构

                                           Table 1    Detailed settings of FeRNet network
                                                 表 1   FeRNet 网络详细设置
                          网络层        层类型       过滤器/步长      通道数      激活函数       输出尺寸       参数数量
                          Conv_1     卷积层         5×5/2      16      ReLu [24]    480×384×16   1 216
                          Conv_2     卷积层         5×5/2      16      ReLu [24]    240×192×16   6 416
                          Pool_1   最大池化层         2×2/1      16         −       120×96×16     0
                          Conv_3     卷积层         5×5/2      32      ReLu [24]    60×48×32   12 832
                          Conv_4     卷积层         5×5/2      32      ReLu [24]    30×24×32   25 632
                          Pool_2   最大池化层         2×2/1      32         −       15×12×32      0
                           Fc_1     全连接层           −         1      ReLu [24]    1 024    5 899 864
                         Dropout_1   Dropout 层     −         1         −        1 024        0
                           Fc_2     全连接层           −         1      ReLu [24]    256       262 400
                         Dropout_2   Dropout 层     −         1         −         256         0
                           Fc_3     全连接层           −         1     Softmax [37]   3         771

                    如表 1 所示,本文提出的 FeRNet 网络主要由 11 个网络层构成,其中包括 4 个卷积层(Conv)、2 个最大池化
                 层(Pool)、3 个全连接层(Fc)以及 2 个 Dropout 层.FeRNet 网络的具体架构详细介绍如下.
                    (1)  输入层
                    为避免因图像缩放等原因造成的数据损失,预处理后的砂岩显微图像不再进行任何缩放处理,直接输入
                 FeRNet 网络.因此,网络输入层图像的尺寸为 960×768.但在输入网络之前,需要将砂岩显微图像的像素值归一化
                 至[0,1]范围,方便计算.
                    (2)  卷积层
                    为捕获砂岩显微图像的语义信息,同时避免因数据不足造成过拟合,FeRNet 网络只包含 4 个卷积层.相比深
                 度卷积网络,FeRNet 网络在保证对砂岩显微图像特征表示能力的前提下,尽可能减少网络的参数数量,降低网
                 络训练对数据量的要求.所有卷积层均采用尺寸为 5×5 的卷积核(过滤器),步长均设为 2.前两个卷积层通道数为
                 16,后两个为 32.
                    常用的激活函数包括 Sigmoid       [38] 、Tanh [37] 和 ReLu [24] .与 Sigmoid 和 Tanh 函数相比,ReLu 函数计算简单,在
   306   307   308   309   310   311   312   313   314   315   316