Page 122 - 《软件学报》2021年第8期
P. 122

2404                                   Journal of Software  软件学报 Vol.32, No.8,  August 2021

                 构度量(S-measure) [56] 和增强对齐度量(E-measure) [57] .MAE 越低,MaxF、S-measure 和 E-measure 越高,代表结果
                 越理想.
                    •   实验结果
                    如表 10 所示,UNet++、U-Net 和 LinkNet 是 3 个端到端的显著性物体检测模型,用*标记的表示量化后的模
                 型.偏差记录量化模型与全精度的模型在不同数据集的不同指标上的差异;规模表示模型的大小,单位为兆字节
                 (MB).M,F,S,E 分别表示 4 个指标:MAE、MaxF、S-measure、E-measure,箭头表示指标的评价趋势,↑表示指标越
                 高越好,↓表示指标越低越好.表格中,指标降低在 0.01 以内的所有结果用粗体表示,表示较低的性能下降.从表
                 10 的实验结果可知,在数据集 MSRA10K 上,μL2Q 的精度下降最少.与全精度的模型相比,μL2Q 的精度在几乎
                 所有指标上的下降都低于 0.01.这是因为该实验中所使用的模型,包括全精度的模型和量化模型,都是基于
                 MSRA10K 的,其训练集和验证集基于同一数据集进行划分,数据偏差小,可以达到较好的验证效果.而其余的几
                 个数据集只作为验证集,由于不同的数据集之间存在偏差,因此在这些数据集上出现了一定的性能波动.但模型
                 的尺寸通过μL2Q 量化可减少 93%以上,实现了极高的压缩率.显著性物体检测的实验表明了:μL2Q 可以应用到
                 实际的计算机视觉任务中,且能有效保证性能.

                                   Table 10    Quantization results on salient object detection models
                                          表 10   在显著性目标检测模型上的量化结果
                                                                  数据集
                    模型      规模           MSRA-10K                 ECSSD                  HKU-IS
                                   M↓    F↑    S↑    E↑    M↓    F↑    S↑   E↑    M↓    F↑    S↑    E↑
                    U-Net  143.81  0.030  0.945  0.931  0.962  0.057  0.909  0.886  0.914  0.045  0.907  0.884  0.930
                   U-Net*   9.35  0.033  0.937  0.923  0.958  0.073  0.878  0.849  0.889  0.058  0.868  0.845  0.907
                    偏差     93.50%   −0.002   0.007   0.008   0.003  −0.016  0.031  0.038  0.025  −0.013   0.039  0.039  0.023
                   LinkNet  139.37  0.032  0.942  0.928  0.959  0.060  0.905  0.882  0.911  0.048  0.900  0.878  0.927
                  LinkNet*  9.05  0.039  0.926  0.910  0.951  0.087  0.847  0.819  0.869  0.074  0.828  0.811  0.883
                    偏差     93.51%   −0.007   0.016  0.017  0.009  −0.027  0.058  0.062  0.041  −0.026   0.072  0.066  0.044
                   UNet++  109.80  0.029  0.948  0.933  0.964  0.056  0.910  0.888  0.915  0.044  0.909  0.887  0.93
                   UNet++*  7.24  0.032  0.938  0.924  0.959  0.071  0.879  0.851  0.893  0.059  0.865  0.845  0.904
                    偏差     93.40%   −0.003   0.009   0.01   0.005  −0.015  0.031  0.037  0.022  −0.015   0.043  0.042  0.026

                               Table 10    Quantization results on salient object detection models (Continued)
                                         表 10   在显著性目标检测模型上的量化结果(续)
                                                                  数据集
                                模型     规模              DUTs                DUT-OMRON
                                               M↓    F↑    S↑   E↑    M↓     F↑   S↑    E↑
                               U-Net   143.81  0.060  0.896  0.865  0.874  0.070  0.804  0.803  0.829
                               U-Net*   9.35  0.071  0.869  0.836  0.858  0.079  0.764  0.772  0.817
                                偏差    93.50%   −0.011   0.027  0.029  0.016  −0.009  0.040  0.031  0.012
                               LinkNet  139.37  0.062  0.892  0.861  0.871  0.071  0.801  0.799  0.825
                              LinkNet*  9.05  0.085  0.843  0.812  0.842  0.092  0.729  0.748  0.795
                                偏差    93.51%   −0.022   0.049  0.049  0.029  −0.021  0.073  0.051  0.030
                               UNet++  109.80  0.059  0.897  0.867  0.876  0.070  0.805  0.805  0.829
                              UNet++*   7.24  0.072  0.868  0.836  0.856  0.080  0.769  0.775  0.817
                                偏差    93.40%   −0.013   0.029  0.031  0.020  −0.010  0.035  0.030  0.012

                 5    总   结
                    本文提出了一种超低损失的 DNN 模型量化方法μL2Q,该方法的设计考虑了 DNN 权值数据的分布规律,
                 通过定量分析量化位宽与量化损失间的关系,呈现了不同量化位宽条件下的最低损失所对应的量化参数,实现
                 了极低的量化损失,从而能对 DNN 模型有效压缩并能保证模型推理精度.此外,本文还将μL2Q 融合进主流机器
                 学习训练框架中如 Keras,为 DNN 模型压缩的设计和实现提供了便捷途径,并显著降低了工程实现的难度,也有
                 效减少了人工尝试等重复性劳动.实验评估结果表明,本文提出的μL2Q 实现了极低的量化损失,显著优于其他
   117   118   119   120   121   122   123   124   125   126   127