Page 12 - 《软件学报》2020年第9期
P. 12
葛道辉 等:轻量级神经网络架构综述 2633
(channel split)的方法将输入分割成两部分:一半作为直接连接分支,一半作为残差分支,并且残差分支中 1×1 卷
积的输入输出通道数相等(符合方案 1),并且不使用分组卷积(符合方案 2).最后进行 Concat,避免了特征相加的
操作(符合方案 4).图 7(d)去掉了通道分割操作,从而在减少了特征图空间尺寸的同时,通过 Concat 增加了通道
数.ShuffleNet V2 通过提出新的指标(MAC),并且在 MAC 上优化,加快了运行速度同时也提升了准确率.新的
ShuffleNet V2 比 MobileNet V1 快 58%,比 ShuffleNet V1 快 63%,比 Xception 快 25%.
在 Zhang 提出的 IGCNets [20] 中,同样利用了分组卷积,深度卷积可以看作是分组卷积的一种极限情况,即,将
每个通道分为一组.在 IGCNets [20] 中,使用了两级分组卷积:第 1 级是空间卷积,一般大小为 3×3;第 2 级是 1×1 的
分组卷积.为了防止各个组的特征之间无法进行信息交互,采取了不同的分组数量,即:第 1 级卷积分为 2 组,然后
对特征进行重新排列;第 2 级卷积分为 3 组,并且每一组都包含之前所有组的一部分特征.如图 8 所示.
Concat Permutation Split Concat Permutation
Split
Primary group convolution Secondary group convolution
Fig.8 Organization of interleaved group convolutions V1
图 8 交错组卷积结构(IGCV1)
而 IGCV2 [21] 更进一步,通过使用 3×3 的深度卷积和 L 个 1×1 的分组卷积来提升卷积效率.并且要求这一系
列的卷积都满足互补条件(complementary condition),即,最终输出的特征中的一个通道存在且仅存在一条路径
连接到输入特征的任意一个通道.最终确保由多个稀疏的卷积核(分组卷积)组成的卷积核矩阵是稠密的,如图 9
所示.
Output
Input
W 1 P 1 W 2 P 2 W 2
Fig.9 The interleaved structured sparse convolution (IGCV2) satisfying complementary condition
图 9 满足互补条件的交错分组卷积结构(IGCV2)
Mehta 等人提出了 EspNet [22] ,将标准卷积分解为 1×1 的逐点卷积和空间金字塔扩张卷积(spatial pyramid of
dilated convolutions).在减少了参数量和计算量的同时,增加感受野.在随后的 EspNet V2 [23] 中,将原来的 dilated
convolution 也采用了深度卷积.同时,将 1×1 的逐点卷积更改为 1×1 的分组卷积.
人工设计轻量化神经网络,不同于对现有的网络进行压缩,而是重新设计更加高效的网络单元(主要针对卷
积运算),从而在不损失网络性能的条件下,减少网络的参数量,提升网络运行速度.以上介绍的 3 种主要方式主
要从卷积核的空间尺度、卷积的输入通道数以及卷积的通道之间的稀疏连接等方面对标准卷积操作进行改进.
在这一方向,模型压缩和加速都已经取得了较好的成果.