Page 448 - 《软件学报》2024年第6期
P. 448

3024                                                       软件学报  2024  年第  35  卷第  6  期


                                            表 5    CIFAR-10  图像分类实验超参数设置

                     阶段                模型              epochs    learning rate & type  batch size  optimizer
                    搜索阶段            ResNet-18 [25]      60          0.1, cosine      128         SGD
                                    WRN [26]  40×2      200         0.1, cosine      128         SGD
                                    WRN 28×10           200         0.1, cosine      128         SGD
                    验证阶段        Shake-Shake (26, 2×32d) [27]  1 800  0.01, cosine    128         SGD
                                Shake-Shake (26, 2×96d)  1 800      0.01, cosine     128         SGD
                                Shake-Shake (26, 2×112d)  1 800     0.01, cosine     128         SGD

                                            表 6    CIFAR-100  图像分类实验超参数设置

                     阶段               模型              epochs    learning rate & type  batch size  optimizer
                                    WRN 40×2           200         0.1, cosine       128         SGD
                    验证阶段            WRN 28×10          200         0.1, cosine       128         SGD
                                Shake-Shake (26, 2×96d)  1 800     0.01, cosine      128         SGD


                                             表 7    SVHN  图像分类实验超参数设置

                     阶段               模型              epochs    learning rate & type  batch size  optimizer
                    搜索阶段             ResNet-18          60         0.01, cosine      128         SGD
                                    WRN 28×10          200         0.01, cosine      128         SGD
                    验证阶段
                                Shake-Shake (26, 2×96d)  200       0.01, cosine      128         SGD


                                         表 8    ESC-50  和  GTZAN  语音分类实验超参数设置

                     阶段           模型          epochs    learning rate  batch size  optimizer   pretrained
                    搜索阶段        Inception [28]  5         0.000 1        32        Adam [29]     True
                                                                                       [29]
                                                                                   Adam
                                  ResNet       70        5
                                                                         32
                                                          0.000 1
                                                                                                 True
                    验证阶段         Inception     70         0.000 1        32        Adam [29]     True
                                DenseNet [30]  70         0.000 1        32        Adam [29]     True

                    (3) 文本分类实验超参数设置
                    针对文本分类任务, AGNews 和       DBpedia 需要在不同的模型上进行训练, 模型的超参数设置如表                 9  所示.

                                        表 9    AGNews 和  DBpedia 文本分类实验超参数设置

                      阶段               模型              epochs      learning rate  batch size   optimizer
                    搜索阶段             fastText [31]       2           0.001          64          Adam
                                      fastText           10          0.001          64          Adam
                                     TextCNN [32]                    0.001          64          Adam
                    验证阶段                       [33]
                                 Bi-LSTM+Attention       5           0.001          64          Adam
                                    Transformer [34]     10          0.001          64          Adam

                  4.3   实验结果与分析
                    实验主要对比分析了         SGES AA  与现有的其他自动化数据增强算法, 包括              Google AA、Fast AA、PBA、
                 Faster AA、DADA、Rand AA  等. 同时, 本文还分别实现了       DADA  和  Rand AA  两种算法在语音和文本数据集的
                 实验验证, 这两种算法均为近两年代表性的开源算法, DADA                  是可微分自动化数据增强的代表性算法, Rand AA
                 是随机搜索的代表性算法, 此外这两种算法的扩展性较强, 通过少量的修改源代码即可灵活地支持针对语音分类
   443   444   445   446   447   448   449   450   451   452   453