Page 18 - 《软件学报》2024年第4期
P. 18

1596                                                       软件学报  2024 年第 35 卷第 4 期

                 每个细胞由 23  341 个基因表示.  文献[42]从中选取了 2  866 个具有高标准化对数离散度的基因来表
                 示每个细胞.  这个数据集的目标是对细胞进行分类,  用于训练、验证和测试的类别数分别为 15/4/4.

         5.2   实验设置
             本文的实验主要在基于元学习训练机制的代表性方法 MAML 和原型网络上进行.  为了公平比较,  与文献
         [25]一致,  除了 Tabular Murris 数据集,  在其他数据集上我们采用与文献[6]相同的主干特征提取网络,  它包含
         4 个卷积块和一个分类器层.  每个卷积块各包括一个卷积层、批处理规范化层和 ReLU 激活层.  对于 MAML,
         我们在最后一个卷积块和分类器层上应用了任务特定的自适应.  在 Tabular Murris 数据集上,  主干特征提取网
         络包含两个全连接模块和一个线性回归层,  其中,  每个全连接模块各包含一个线性层、批处理归一化层、ReLU
         激活层和 dropout 层. Dropout 的比例为 0.2,  线性层的输出通道为 64.  训练和测试任务都是基于 N-way K-shot
         分类任务,  其中,  ISIC 的 N=2,  其余数据集的 N=5,  每个任务中查询样本的数目为 15.训练中,  使用动量为 0.9
         的 SGD 优化器对模型进行优化,  初始学习率为 0.05,  学习率的衰减因子为 0.1.  当模型迭代 60 轮后生效,  每
         10 轮衰减一次,  模型一共训练 15 000 轮.  测试时,  从测试数据集中随机采取 20 000 个任务进行测试,  计算在
         所有任务上的平均精度作为最终评价指标.
         5.3   实验及结果分析

             为了全面评估本文提出方法 DATG,  我们从以下几个方面进行实验验证:  (1) DATG 在小样本分类任务的
         表现如何? (2) DATG 是怎么发挥作用的? (3) DATG 在什么情况下有效?
             •   Q1: DATG 在小样本分类任务的表现如何?
             首先,  我们在标准的小样本分类任务上进行实验验证.  我们选取基于元学习中的代表性方法 MAML 和原
         型网络作为基线方法,在此基础上,  比较我们的方法 DATG 与不同增强方法(MetaMix,  Meta-MaxUp 和 MLTI)
         和基于正则化的方法(Meta-Reg, TAML 和 Meta-Dropout)在 5-way 1-shot 和 5-way 5-shot 任务上的效果.  如表 1
         所示,  在所有 4 个数据集上,  本文提出的 DATG 始终优于其他所有方法,  证明了我们方法在小样本分类任务上
         的有效性.  与 MLTI 方法只采用随机任务 Mixup 策略进行任务扩充相比,  我们的任务扩充策略考虑了任务的
         多样性和真实性,  可以生成质量更好的任务,  进一步提高模型对于小样本分类的性能.
                                 表 1   5-way 1-shot 和 5-way 5-shot 分类精度比较
                                     miniImageNet-S    ISIC       DermNet-S    Tabular Murris
                 基准方法       策略
                                     1-shot   5-shot   1-shot   5-shot   1-shot   5-shot   1-shot   5-shot
                            Vanilla   0.382 7   0.521 4   0.575 9   0.652 4   0.434 7   0.605 6   0.790 8   0.885 5
                           Meta-Reg   0.383 5   0.517 4   0.585 7   0.684 5   0.450 1   0.609 2   0.791 8   0.890 8
                            TAML     0.387 0   0.527 5   0.583 9   0.660 9   0.457 3   0.611 4   0.798 2   0.891 1
                         Meta-Dropout   0.383 2   0.525 3   0.584 0   0.673 2   0.443 0   0.608 6   0.781 8   0.892 5
                  MAML
                           MetaMix   0.394 3   0.541 4   0.603 4   0.694 7   0.468 1   0.635 2   0.810 6   0.897 5
                          Meta-MaxUp   0.392 8   0.530 2   0.586 8   0.691 6   0.461 0   0.626 4   0.795 6   0.888 8
                            MLTI     0.415 8   0.552 2   0.617 9   0.706 9   0.480 3   0.645 5   0.817 3   0.910 8
                            Ours     0.423 2   0.565 9   0.623 9   0.710 8   0.489 7   0.650 2   0.823 3   0.918 9
                            Vanilla   0.362 6   0.507 2   0.585 6   0.662 5   0.442 1   0.603 3   0.800 3   0.892 0
                           MetaMix   0.397 6   0.531 0   0.605 8   0.701 2   0.477 1   0.626 8   0.807 2   0.893 0
                 ProtoNet   Meta-MaxUp   0.398 0   0.533 5   0.596 6   0.689 7   0.460 6   0.629 7   0.808 0   0.894 2
                            MLTI     0.413 6   0.553 4   0.628 2   0.715 2   0.493 8   0.651 9   0.818 9   0.901 2
                            Ours     0.422 1   0.564 7   0.632 1   0.717 8   0.520 9   0.660 2   0.824 5   0.911 3
             为进一步验证我们的方法通过对任务进行扩充,  可以有效应对训练任务和测试任务分布之间存在差异的
         问题,  我们在更难的跨域的小样本分类任务上进行实验验证.  在跨域小样本分类任务中,  训练和测试的任务
         来自不同的数据集.  表 2 展示了在两个跨域小样本分类任务下,  我们的方法都可以有效地提升 MAML 和原型
         网络的分类性能,  进一步证明了我们所提出扩充策略可以生成有效的任务,  提升小样本分类模型的泛化性能.
   13   14   15   16   17   18   19   20   21   22   23