Page 120 - 《软件学报》2021年第8期
P. 120

2402                                   Journal of Software  软件学报 Vol.32, No.8,  August 2021

                    •   方法对比
                    选择当前最为先进且典型的量化方法来进行比较,这些量化方法见表 6.
                                          Table 6    State-of-the-art quantization methods
                                                   表 6   最新的量化方法
                                     类别                          方法
                                     二值             RebNet [39] ,BNN [20] ,BPWN [16] ,BWN [18] ,BC [40]
                                     三值       TNN [41] ,TTQ [26] ,TN [42] ,TWN  [16] ,STC [27] ,ENN  [43] ,TSQ [30] ,TC [44]
                                   定点数量化               FP [19] ,Dorefa-Net [17] ,QAT [22] ,TQT [23]
                                    本文方法                        μL2Q

                    表 7 展示了在相同位宽条件下,μL2Q 和其他量化方法在几种 DNN 模型上的图像分类精度.其中,对于最新
                 的量化方法,本文直接引用其文献中的结果进行比较.本文关于结果分析中精度平均提升值的计算方式如下.
                    (1)  μL2Q 与二值量化的对比:在 VGG-like 上,μL2Q 相对 ReBNet(M=3)精度提升了 3.08%,相对 BC 精度
                        提升了 1.62%.因此μL2Q 与最新的二值量化方法相比,量化后模型精度平均提升了(3.08%+1.62%)/2=
                        2.35%.同理可得μL2Q 与其他三值量化方法的对比结果.
                    (2)  μL2Q 与定点数量化的对比:在 CifarNet 上,2 比特位宽下μL2Q 相对 FP 提升了 61.16%,4 比特位宽下
                        μL2Q 相对 FP 提升了 5.42%,8 比特位宽下μL2Q 相对 FP 提升了 0.26%.因此,μL2Q 相对 FP,精度平均
                        提升了(61.16%+5.42%+0.26%)/3=22.28%.

                                         Table 7    Comparison with state-of-the-art methods
                                                  表 7   与最新方法的比较
                            方法    位宽   精度       方法      位宽     精度        方法     位宽      精度
                                 LeNet5               VGG-like            MobileNetV2(Top1/Top5)
                            Float  32  99.40    Float    32    93.49     Float   32   71.30/90.10
                            BNN    1   98.67  ReBNet(M=3)  1   86.98    QAT-t    8     70.09/-
                            μL2Q   1   99.45    BC       1     88.44    QAT-c    8     71.10/-
                            TNN    2   98.33    μL2Q     1     90.06    TQT-wt   8    68.20/89.00
                             TN    2   82.70    TNN      2     87.89   TQT-wt-th  8   71.80/90.60
                             FP    2   98.90    TN       2     83.41     μL2Q    8    72.23/90.42
                            μL2Q   2   99.47    STC      2     88.58       AlexNet(Top1/Top5)
                             FP    4   99.10    TC       2     89.07     Float   32   60.01/81.90
                            μL2Q   4   99.51    μL2Q     2     92.18     BWN     1    56.80/79.40
                             FP    8   99.10      ResNet18(Top1/Top5)    μL2Q    1    54.47/77.41
                            μL2Q   8   99.47    Float    32  69.60/89.24  TWN    2    57.50/79.80
                                 CifarNet       BWN      1   60.80/83.00  TTQ    2    57.50/79.90
                            Float  32  81.82   BPWN      1   57.50/81.20  ENN    2    58.20/80.60
                             FP    2   19.10    μL2Q     1   63.40/84.73  TSQ    2    58.00/80.50
                            μL2Q   2   80.26    TWN      2   61.80/84.20  μL2Q   2    59.05/81.04
                             FP    4   75.90    TTQ      2   66.60/87.20  Dorefa-Net  8  53.00/-
                            μL2Q   4   81.32    ENN      2   67.00/87.50  μL2Q   8    61.4/82.87
                             FP    8   81.40    μL2Q     2   68.11/88.13  −      −       −
                            μL2Q   8   81.66     −       −       −        −      −       −

                    •   μL2Q 与二值量化
                    二值量化只能将权值量化为{−1,1}两个值,如表 7 所示,在 1 比特量化时,μL2Q 在 LeNet5、VGG-like 和
                 ResNet18 上与二值量化方法的结果相比,平均提升了 0.78%,2.35%和 4.25%(Top1).这是因为二值量化对权值的
                 均值变化和标准差变化比较敏感,导致了额外的精度下降.与之相比,由于存在平移参数和缩放参数,μL2Q 对不
                 同均值和标准差的权值是鲁棒的,能够有效保证量化模型的精度.在 AlexNet 上,μL2Q 与 BWN 相比存在一定程
                 度的精度下降,这是因为 BWN 使用的模型具有 61MB 参数量,而μL2Q 使用了较小的模型,只有 50.88MB,而且
                 量化了模型中的所有层的权值到 1 比特,包括第 1 层和最后一层.在 1 比特时,μL2Q 量化模型的精度比最新的二
                 值量化方法的结果平均高 1.94%.
   115   116   117   118   119   120   121   122   123   124   125