Page 357 - 《软件学报》2025年第10期
P. 357
4754 软件学报 2025 年第 36 卷第 10 期
consistency reflection approach. This method involves the design of three sub-task agents to aid in capturing the complex mapping
relationships within conversational structures. In addition, an enhanced consistency reflection is proposed, enabling the model to generate
optimal results through multi-agent consensus, thus alleviating hallucination problems. Experimental results demonstrate that the proposed
approach significantly outperforms state-of-the-art benchmarks. Furthermore, it exhibits superior capabilities in extracting aspect referential
relationships and aspect sentiments, contributing to advancements in fine-grained sentiment understanding within conversational contexts
using LLMs.
Key words: conversational aspect sentiment understanding; aspect-coreference mapping; large language model (LLM); multi-agent mechanism;
consistency reflection
属性级情感理解又称属性级情感分析 (aspect-based sentiment analysis, ABSA), 该任务是一个细粒度的情感分
析任务, ABSA 任务在很多领域中都有着较为广泛的应用, 比如电子商务领域和社交舆论挖掘 [1] . 早期 ABSA 相关
的工作主要集中在普通文本 [2,3] , 例如评论数据 [4] , 最近越来越多的工作注意到普通文本的局限性, 例如人们可能
在社交媒体以多轮对话的方式谈论某些产品, 明星或者政治内容. 因此目前 ABSA 工作的研究重点也从普通文本
转移到对话文本 [5,6] , 例如问答 [7] 以及对话 [5] 等. 近期大语言模型 (large language model, LLM) 的提出, 使得模型对
于对话有较强的理解能力, 这也鼓励我们使用 LLM 处理对话场景下的属性级情感理解任务.
在对话场景中, 存在属性指代映射关系和属性情感映射关系这两个极其重要的关系, 这两个关系严重制约对
话结构下的属性情感理解的精度. 基于此, 本文提出了大语言模型对话属性情感理解任务. 该任务不仅包括传统的
三元组抽取 (即属性-实体、观点描述语、情感极性), 还扩展至属性指代映射关系的识别. 图 1 中的对话所示, 这
段对话的第 2 句中出现了观点描述语“很漂亮”, “很漂亮”指向的属性实体为“杨幂”, 然而第 2 句话中还存在“她”,
在模型理解对话时这种代指提及是至关重要的, 因为在对话中属性指代映射关系可能存在较大的跨度, 这加大了
模型理解对话文本情感的难度, 但传统的 ABSA 任务忽略了这一点, 因此大语言模型对话属性情感理解任务额外
的抽取属性实体“杨幂”的代指提及“她”, 从而得到大语言模型对话属性情感理解任务需要提取的目标四元组 (杨
幂, 她, 很漂亮, 积极). 为了评估大语言模型对话属性情感理解任务, 我们标注了一个高质量的对话属性情感理解
四元组数据集用于评估大语言模型在该任务上的性能.
实体: 杨幂
杨幂你知道吗?
(b) 大语言模型对话属性情感理解任务关于对话(a)
(b)
杨幂的代指: 她 抽取的部分结果
知道呀, ෲޓਊ, ္ޓႵဆ.
观点描述语很漂亮指向的实体: 杨幂
观点描述语很漂亮在当前句中指向的实体: 她
U1 U2
杨幂的代指: 她
U1
她主演的八星抱喜你看过吗? U2 U3 代理
OM代理
这个没有看过, 是个喜剧吗?
:她
(a) 具体的对话以及对话中实体的对应关系 (c) EM 代理、OE 代理、OM 代理抽取示意
图 1 对话示例以及任务图

