Page 359 - 《软件学报》2025年第10期
P. 359
4756 软件学报 2025 年第 36 卷第 10 期
络来捕捉词与词之间的关系, 提升模型的效果. Liang 等人 [20] 将 ASTE 任务视为多类别 span 标记分类问题, 该方法
设计了 3 个标签集合, 通过在标签集合中进行贪心推理来得到三元组. 以上方法将 ABSA 任务视为序列级分类问
题, 这类方法虽然取得了不错的效果, 但性能很大程度上受限于预训练模型, 并且存在模型预测过程中没有标签的
语义信息的缺陷.
基于生成模型的方法一般采用 T5 [13] 等生成模型. 这类方法通过模型直接得到需要抽取的信息. Bao 等人 [14] 通
过树型结构的输出来强调需要抽取的实体间的关系. Zhang 等人 [11] 通过释义的方式得到输出. Mao 等人 [21] 将元组
的生成顺序转化为树上的路径, 采用这种生成方式来减少元组之间的依赖性以及解决一对多问题 (一个属性词对
应多个观点描述语). Gou 等人 [12] 引入一种基于元素顺序的 prompt 学习方法, 通过聚合多视图的结果来提升模型
性能. 以上工作通过从数据的角度出发, 让模型输出结果中附带额外信息来提升模型性能.
近些年来很多 ABSA 相关的工作关注于对话的数据, 但遗憾的是, 上述工作大多只考虑了属性情感映射, 其
所构建的数据集并没有同时考虑到对话场景下属性指代映射和属性情感映射, 显式地建模这些映射能够帮助模型
更好地理解对话中的情感. 因此我们在 ABSA 任务中加入指代映射, 并通过设置子任务代理让模型更好地理解这
些实体间的关系.
1.2 基于反思的大语言模型
LLM 在庞大的参数量基础上训练了海量的数据, 因此表现出强大的语言理解能力, 并在广泛的自然语言处理
任务中取得了令人印象深刻的结果. 如今 LLM 已经成为 NLP 领域新的范式, 目前许多高校和机构都开源了大语
言模型, 比如 Meta 开源的 LLaMA [22] 以及智谱 AI 开源的 ChatGLM [23] 等. 随着大模型的出现, 近期提出的 agent 大
多以 Zero-Shot 的方法通过设计提示词来挖掘 LLM 的能力, Zhang 等人 [24] 提出一种自动的协作学习方法, 该方法
将用户和项目同时作为 agent, 通过两个 agent 之间的交互来解决复杂任务. Xu 等人 [25] 通过多 agent 之间相互纠正
来提升 LLM 处理复杂任务的能力. Liu 等人 [26] 采用分而治之的方法, 将复杂任务拆分为若干个难度较小的子任
务, 通过解决拆分后的子任务来解决复杂任务, 让代理能够解决现实世界中复杂的任务.
尽管 LLM 对语言有着极强的理解能力, 但其仍然存在较为严重的幻觉问题. 目前很多工作都着重于解决这一
问题. ICL (in-context learning) [27] 在输入的时候给模型一个示例, 让模型在示例的指导下得到输出. ReAct [28] 通过将
推理与行动相结合的方法缓解 LLM 中的幻觉问题. Chain-of-thought (CoT) [29] 让模型输出答案的同时输出得到答
案的推导过程, 通过让模型思考来缓解幻觉问题. ToT [30] 通过对模型的思考结果进行评估, 在将生成过程转换为在
树形结构上的搜索过程来减少幻觉. Reflexion [31] 设计了启发式规则, 当模型输出的答案质量较低时执行反思操作,
通过该方式减少幻觉. 上述工作都能有效地减少大模型的幻觉问题, 其中让模型进行反思的方式挖掘了模型自身
的能力, 成为近期研究的热点. 反思是一种让模型评估生成结果并让模型在某些条件下重新生成答案的方法. 目
前, 反思成为处理大模型幻觉问题一种常见的方式, 很多工作利用反思减少幻觉现象的发生. Shinn 等人 [32] 通过设
置一个评估器, 当模型的动作评估结果不通过时进行反思. Huang 等人 [33] 设计了一个评估模型的输出的方法, 该方
法通过反思减少了大模型中的幻觉现象.
上述方法极大程度地减少了 LLM 的幻觉问题, 但遗憾的是, 并没有方法考虑到对话场景中 LLM 的幻觉问题.
基于此, 本文引入多个子任务来降低提升模型对于属性级情感任务的理解能力. 此外, 为了解决 LLM 中固有的幻
觉问题, 本文提出多代理一致性反思方法. 该方法对模型生成结果的一致性进行评估, 当评估不通过时让模型进行
反思, 通过反思让模型生成一致的结果.
2 多代理一致性反思
目前大模型仍然存在难以捕捉对话文本中细粒度的信息的问题 [34] , 这导致 LLM 并不能在大语言模型对话属
性情感理解任务上取得令人满意的性能. 为了解决上述问题, 本文提出了多代理一致性反思方法, 其结构如图 2 所
示, 其中, 一致性感知的奖励表示一致性奖励的构建过程. 因为情感理解任务数据集是中文对话数据, 在目前的开
源社区中 ChatGLM 具有较强的中文理解能力, 因此本文采用 ChatGLM3 (https://github.com/THUDM/ChatGLM3) [23]

