Page 18 - 《软件学报》2024年第4期
P. 18
1596 软件学报 2024 年第 35 卷第 4 期
每个细胞由 23 341 个基因表示. 文献[42]从中选取了 2 866 个具有高标准化对数离散度的基因来表
示每个细胞. 这个数据集的目标是对细胞进行分类, 用于训练、验证和测试的类别数分别为 15/4/4.
5.2 实验设置
本文的实验主要在基于元学习训练机制的代表性方法 MAML 和原型网络上进行. 为了公平比较, 与文献
[25]一致, 除了 Tabular Murris 数据集, 在其他数据集上我们采用与文献[6]相同的主干特征提取网络, 它包含
4 个卷积块和一个分类器层. 每个卷积块各包括一个卷积层、批处理规范化层和 ReLU 激活层. 对于 MAML,
我们在最后一个卷积块和分类器层上应用了任务特定的自适应. 在 Tabular Murris 数据集上, 主干特征提取网
络包含两个全连接模块和一个线性回归层, 其中, 每个全连接模块各包含一个线性层、批处理归一化层、ReLU
激活层和 dropout 层. Dropout 的比例为 0.2, 线性层的输出通道为 64. 训练和测试任务都是基于 N-way K-shot
分类任务, 其中, ISIC 的 N=2, 其余数据集的 N=5, 每个任务中查询样本的数目为 15.训练中, 使用动量为 0.9
的 SGD 优化器对模型进行优化, 初始学习率为 0.05, 学习率的衰减因子为 0.1. 当模型迭代 60 轮后生效, 每
10 轮衰减一次, 模型一共训练 15 000 轮. 测试时, 从测试数据集中随机采取 20 000 个任务进行测试, 计算在
所有任务上的平均精度作为最终评价指标.
5.3 实验及结果分析
为了全面评估本文提出方法 DATG, 我们从以下几个方面进行实验验证: (1) DATG 在小样本分类任务的
表现如何? (2) DATG 是怎么发挥作用的? (3) DATG 在什么情况下有效?
• Q1: DATG 在小样本分类任务的表现如何?
首先, 我们在标准的小样本分类任务上进行实验验证. 我们选取基于元学习中的代表性方法 MAML 和原
型网络作为基线方法,在此基础上, 比较我们的方法 DATG 与不同增强方法(MetaMix, Meta-MaxUp 和 MLTI)
和基于正则化的方法(Meta-Reg, TAML 和 Meta-Dropout)在 5-way 1-shot 和 5-way 5-shot 任务上的效果. 如表 1
所示, 在所有 4 个数据集上, 本文提出的 DATG 始终优于其他所有方法, 证明了我们方法在小样本分类任务上
的有效性. 与 MLTI 方法只采用随机任务 Mixup 策略进行任务扩充相比, 我们的任务扩充策略考虑了任务的
多样性和真实性, 可以生成质量更好的任务, 进一步提高模型对于小样本分类的性能.
表 1 5-way 1-shot 和 5-way 5-shot 分类精度比较
miniImageNet-S ISIC DermNet-S Tabular Murris
基准方法 策略
1-shot 5-shot 1-shot 5-shot 1-shot 5-shot 1-shot 5-shot
Vanilla 0.382 7 0.521 4 0.575 9 0.652 4 0.434 7 0.605 6 0.790 8 0.885 5
Meta-Reg 0.383 5 0.517 4 0.585 7 0.684 5 0.450 1 0.609 2 0.791 8 0.890 8
TAML 0.387 0 0.527 5 0.583 9 0.660 9 0.457 3 0.611 4 0.798 2 0.891 1
Meta-Dropout 0.383 2 0.525 3 0.584 0 0.673 2 0.443 0 0.608 6 0.781 8 0.892 5
MAML
MetaMix 0.394 3 0.541 4 0.603 4 0.694 7 0.468 1 0.635 2 0.810 6 0.897 5
Meta-MaxUp 0.392 8 0.530 2 0.586 8 0.691 6 0.461 0 0.626 4 0.795 6 0.888 8
MLTI 0.415 8 0.552 2 0.617 9 0.706 9 0.480 3 0.645 5 0.817 3 0.910 8
Ours 0.423 2 0.565 9 0.623 9 0.710 8 0.489 7 0.650 2 0.823 3 0.918 9
Vanilla 0.362 6 0.507 2 0.585 6 0.662 5 0.442 1 0.603 3 0.800 3 0.892 0
MetaMix 0.397 6 0.531 0 0.605 8 0.701 2 0.477 1 0.626 8 0.807 2 0.893 0
ProtoNet Meta-MaxUp 0.398 0 0.533 5 0.596 6 0.689 7 0.460 6 0.629 7 0.808 0 0.894 2
MLTI 0.413 6 0.553 4 0.628 2 0.715 2 0.493 8 0.651 9 0.818 9 0.901 2
Ours 0.422 1 0.564 7 0.632 1 0.717 8 0.520 9 0.660 2 0.824 5 0.911 3
为进一步验证我们的方法通过对任务进行扩充, 可以有效应对训练任务和测试任务分布之间存在差异的
问题, 我们在更难的跨域的小样本分类任务上进行实验验证. 在跨域小样本分类任务中, 训练和测试的任务
来自不同的数据集. 表 2 展示了在两个跨域小样本分类任务下, 我们的方法都可以有效地提升 MAML 和原型
网络的分类性能, 进一步证明了我们所提出扩充策略可以生成有效的任务, 提升小样本分类模型的泛化性能.