Page 121 - 《软件学报》2021年第8期
P. 121

龚成  等:一种超低损失的深度神经网络量化压缩方法                                                       2403


                    •   μL2Q 与三值量化
                    三值量化将权值量化为{−1,0,1},其位宽最少为 2 比特.在位宽为 2 比特时,与最新的方法相比,μL2Q 在
                 LeNet5、VGG-like、AlexNet 和 ResNet18 上分别平均提升了 6.16%,4.94%,1.25%和 2.98%.显著优于其他量化
                 方法的原因是:首先,因为与启发式的量化方法相比,μL2Q 对权值的均值和标准差的变化是更鲁棒的;其次,
                 μL2Q 还充分利用 2 比特的位宽来表示 4 个数{−2,−1,0,1},从而可以得到较低的数据量化损失和较高的模型精
                 度.在位宽为 2 比特时,μL2Q 量化模型的推理精度比最新的三值量化模型的推理精度平均高 3.73%.
                    •   μL2Q 与定点数量化
                    定点数量化可以实现灵活的量化位宽.与最新方法相比,μL2Q 在 LeNet5、CifarNet、AlexNet 和 MobileNetV2
                 上分别平均提升了 0.39%,22.28%,8.34%和 1.93%.在 2 比特量化时,FP 只实现了 19.10%的分类精度,而μL2Q 却
                 能实现 80.26%的精度,甚至在 1 比特量化时,μL2Q 也能实现 79.28%的精度.主要原因在于:FP 使用定点数量化,
                 而μL2Q 则引入了平移参数和缩放参数,在几乎不增加额外计算量的情况下,实现了极大的精度提升.Dorefa-Net
                 和 QAT/TQT 方法则因忽略了权值数据的分布,没有对量化损失和量化参数的内在联系进行定量分析,仅使用启
                 发式的量化参数设置,造成了额外的精度下降.值得注意的是:QAT 保留了 MobileNetV2 的第 1 层和最后一层数
                 据为全精度的浮点数,而 TQT 使用全局损失感知来学习量化参数的方法.QAT 和 TQT 没有相应的低比特位宽
                 的量化结果,与之对比,μL2Q 在低比特位宽时更具优势,即使在 8 比特的权值量化结果上也能得到出具有竞争
                 力的结果.在相同的位宽下,μL2Q 的模型精度比最新的定点数量化模型的精度平均提高 8.24%.
                 4.3   显著性物体检测实验
                    显著性物体检测旨在突出图像中显著的目标区域                   [45] ,它提供了可供观测的方法依据和重要的评价指标.前
                 述实验结果表明,μL2Q 在 2 比特量化时能够在精度和量化位宽之间取得较好的平衡.因此,本实验选取 2 比特的
                 μL2Q 权值量化进行验证.
                    •   数据集与模型
                    训练集采用 MSRA10K      [47] 数据集中的训练数据(占整个数据集的 80%).训练后,在多个数据集上进行评估,
                 包括 MSRA10K 的测试集(整个数据集的 20%)、ECSSD           [47] 、HKU-IS [48] 、DUTS [49] 和 DUT-OMRRON [50] 中包含
                 目标对象和现有的真值图.所选数据集的详细信息见表 8.为了便于训练和测试,实验中将所有图像的大小都调
                 整为 224×224.实验中选择了 3 个著名的端到端语义分割模型 U-Net              [51] 、LinkNet [52] 和 UNet++ [53] 进行综合比较,
                                                  [4]
                 其详细信息见表 9.这些模型都以 ResNet50 作为骨干网,并使用 ImageNet 数据集上训练的权值进行初始化.
                                           Table 8    Datasets for salient object detection
                                                表 8   显著性物体检测数据集
                                                数据集          图像数        难度
                                               MSRA10K        10 000     *
                                                ECSSD         1 000      *
                                                HKU-IS        4 000      **
                                                 DUTs         15 572     **
                                              DUT-OMRON       5 168      **
                                           Table 9    Models for salient object detection
                                                 表 9   显著性物体检测模型
                                                                 模型

                                                       U-Net    LinkNet   UNet++
                                           骨干网        ResNet50  ResNet50  ResNet50
                                           卷积层          64        69        76
                                          参数量(M)       36.54     28.78      37.7
                                         模型大小(M)       139.37    109.80    143.81
                                         量化大小(M)       9.05       7.24      9.35

                    •   评价指标
                    选择 4 个广泛使用的度量指标进行综合评价,包括平均绝对误差(MAE)                     [54] 、最大 F-measure(MaxF) [55] 、结
   116   117   118   119   120   121   122   123   124   125   126