Page 26 - 《软件学报》2020年第9期
P. 26

葛道辉  等:轻量级神经网络架构综述                                                               2647


            输入     Block      Block     Block      Block      Block     Block      Block
            图像      1          2          3         4          5         6          7      输出



                     Layer        Layer            Layer        Layer
                     2-1    ...   2-N 2            4-1     ...  4-N 4
                                        F 2                           F 4

                     CONV                      CONV  DCONV    SE    CONV
                      3*3                       1*1    5*5    0.25   1*1

                                 Fig.25    Decomposition of hierarchical search space
                                          图 25   分解层次搜索空间

             图 26 表示了 MnasNet 算法的整体流程,搜索策略由 3 个部分组成:基于递归神经网络(RNN)的控制器、获
         得模型精度的训练器和用于测量延迟的基于移动电话的推理引擎.按照众所周知的样本-评估-更新策略来训练
         控制器.在每个步骤中,控制器首先使用其当前参数对一批模型进行采样,方法是根据其 RNN 模型中的 SoftMax
         预测令牌的序列.训练每一个样本模型,并获得在特定任务上的准确度 ACC(m),并在真实手机上运行它来获得
         它的推理延迟 LAT(m).然后计算奖励值 R(m).在每一步结束时,通过使用近端策略优化使预期奖励最大化来更
         新控制器的参数.不断迭代样本-评估-更新策略,达到最大迭代步数或参数收敛为止.

                                          搜索空间采样                 便携式
                                    控制器             训练器           设备

                                                    准确度           延迟
                                              奖励          多目标
                                                           奖励

                                          Fig.26   MnasNet algorithm
                                            图 26  MnasNet 算法
                                                                                    [7]
             MnasNet 模型应用于图像分类       [86] 和 COCO 对象检测  [87] .与 MobileNet V2 [10] 相比,MnasNet 模型在谷歌像
         素手机上以相同的延迟将 ImageNet 的精度提高了 3.0%.另一方面,如果限制目标精度,那么 MnasNet 模型比
                                    [6]
                                                                                [2]
         MobileNet V2 快 1.8 倍,比 NASNet 快 2.3 倍,并具有更好的精度.与广泛使用的 ResNet-50 相比,MnasNet 模型
         在减少 4.8 倍的参数和 10 倍乘法加法操作的情况下,精度略有提升(76.7%).
         3.3   性能评估策略

             通过学习到的搜索策略找到解决特定任务的神经网络架构 M,为了更好地学习搜索策略,需要评估神经网
         络架构 M 的性能,最简单的方法是在原始训练数据集上训练神经网络架构 M,并在验证集上测试其解决特定任
         务的性能.但是需要对每个神经网络架构 M 从头开始训练,然后进行测试.这个过程非常耗时,并且需要大量的
         GPU 计算资源.因此,设计高效合理的性能评估策略是非常重要的.近些年,如何高效、准确地度量神经网络模型
         的性能是研究的热点.
             影响神经网络训练效率的因素非常多,包括训练数据集的大小、图像的分辨率、训练迭代次数等.为了加
         快搜索过程,评估神经网络架构性能的主要挑战在于采用较少的计算资源,高效准确地估计神经网络架构的性
         能.最近,一些工作通过减少训练次数            [6,88] 、采用训练数据的子集    [89] 、低分辨率图像   [90] 、更少的滤波器和更少的
         块结构   [6,54] 等方式,以低保真度的方式近似神经网络的真实性能.虽然低保真评估方法降低了计算成本,同时也
         会在估计中引入偏差,神经网络的性能通常被低估.但是当搜索策略只依赖不同构架间性能的排序,当性能排序
         相对稳定时,引入的误差对学习搜索策略没有任何的影响.
   21   22   23   24   25   26   27   28   29   30   31