Page 200 - 《软件学报》2025年第4期
P. 200

1606                                                       软件学报  2025  年第  36  卷第  4  期


                 布内测试集与     HANS  测试集中的准确率差值仍高达           17.6%, 表明该模型仍存在明显的捷径学习问题. 基于上述探
                 索, 我们提出了基于可控性解释的混合数据增强框架, 以缓解生成式大模型的捷径学习问题, 提升模型的鲁棒性与
                 泛化性. 具体来说, 我们首先采样一定数量的训练数据赋予提示                   (prompt), 以便生成式语言模型能够更好地完成自
                 然语言理解任务, 该部分数据被称为提示性数据; 其次, 我们将提示性数据分为两部分, 一部分输入                            ChatGPT  模型
                 (GPT-3.5-turbo) [15] 生成可控性解释, 并使用生成的解释替换样本的原始目标标签, 我们称替换后的样本为可控性解
                 释数据; 最后, 我们将另一部分提示性数据与可控性解释数据以相等比例混合, 形成基于可控性解释的混合数据集
                 用于模型训练. 在多个自然语言理解任务中的实验结果表明, 使用我们的框架构造的数据集微调生成式大语言模
                 型, 有效缓解了模型的捷径学习问题, 提升了模型在分布外测试场景中的鲁棒性.
                    本文的贡献可以总结如下.
                    ● 探索并分析了近期流行的生成式大语言模型在多个自然语言理解任务中的捷径学习问题. 实验结果表明,
                 模型的捷径学习问题仍然存在, 影响了模型在分布外测试场景中的鲁棒性.
                    ● 提出了基于可控性解释的混合数据增强框架以缓解生成式大模型的捷径学习问题. 该方法不需要依赖关于
                 捷径的先验知识, 且适用于不同的任务与模型. 在              3  个流行的自然语言理解任务上的广泛实验表明, 该框架能够有
                 于提升模型的对抗攻击能力. 相比于以模型为导向的缓解方法, 基于数据的方法通常不会增加额外的训练模块或
                 效缓解模型的捷径学习问题, 显著提升了模型在多个分布外的测试场景中的鲁棒性, 并且不会牺牲甚至提升模型
                 在分布内测试场景中的性能.
                    ● 进行了大量的分析实验, 探究训练数据的规模、提示性数据与可控性解释数据的混合比例、解释性数据的
                 获取方案等因素对模型捷径学习的影响. 我们发现, 小规模可控性解释数据的使用能够有效缓解模型的捷径学习
                 问题. 并且, 对于生成式大模型来说, 过多的训练数据可能在较为简单的任务中加剧模型的捷径学习问题. 我们建
                 议利用高质量、多样性强的小规模数据集来缓解模型的捷径学习, 提升模型鲁棒性的同时节约计算资源.

                 1   相关工作

                    模型的捷径学习问题已经在众多自然语言理解任务中暴露出来. 许多研究表明, BERT                           类预训练模型在自然
                 语言推理任务中的预测依赖于数据集中的虚假关联                  [8,16] . 同样, 对于阅读理解任务, 模型依赖于问题与原文中的词
                 汇匹配进行预测, 而忽略了对其语义特征的理解               [17] . 捷径学习问题严重影响了模型在现实场景下的表现和性能                [9] ,
                 损害了模型的鲁棒性与泛化性, 因此越来越多的研究致力于缓解模型的捷径学习问题.
                    以往关于缓解模型捷径学习问题的方法主要分为以下两个思路: 以模型为中心和以数据为中心. 以模型为中
                 心的缓解方法侧重于在模型的训练阶段, 通过改变模型架构或者权重, 以减少模型对捷径特征的依赖. Liu                               等人  [18]
                 和  Han  等人  [19] 利用人工标注与捷径先验知识, 强迫模型专注于鲁棒性特征; Clark            等人  [20] 、He 等人  [21] 、Sanh  等
                 人  [22] 提出在  PoE (product-of-experts) 框架的基础上, 结合纯偏差模型与主模型, 抑制模型学习捷径. 张大操等人           [23]
                 提出因果去偏推理方法并设计对比学习模块, 实现了针对情景感知的捷径学习问题缓解方法. 此外, 在模型训练中
                 对核心特征赋予更高的权重也有助于缓解捷径学习问题                   [24,25] . 而以数据为中心的研究思路则专注于从本质上减少
                 数据集中的虚假特征所占比例. Wu          等人  [26] 提出了一种基于   z 统计  (z-statistics) [27] 的过滤机制, 用于筛选出数据集
                 中带有虚假特征的数据样本. 多种数据增强方法同样也被应用于缓解捷径学习问题, 如                            Kaushik  等人  [28] 使用反事
                 实数据增强方法, 使用反事实数据进一步训练模型以增强其鲁棒性, Si 等人                     [29] 提出对抗性和混合数据增强方法用


                 者训练目标, 适用场景更为广泛         [30,31] .
                    然而局限的是, 面向自然语言理解任务, 以往关于捷径学习问题的探索与缓解大多基于判别式预训练语言模
                 型  (如  BERT、RoBERTa 等). 目前, 生成式语言模型通过基于提示的微调方法已被证明能够出色地完成自然语言
                 理解任务   [32,33] . 同时, 随着计算资源的增长和预训练架构的优化, 拥有更大模型参数的生成式大语言模型已经在多
                 种理解任务展现强大的能力, 甚至超过了以往的最优结果                   [12] . 那么, 使用近期流行的生成式大语言模型进行微调,
                 是否能够缓解模型在自然语言理解任务中的捷径学习问题值得探索. 因此, 我们基于当前广泛使用且具有代表性
   195   196   197   198   199   200   201   202   203   204   205