Page 356 - 《软件学报》2025年第10期
P. 356

软件学报 ISSN 1000-9825, CODEN RUXUEW                                        E-mail: jos@iscas.ac.cn
                 2025,36(10):4753−4767 [doi: 10.13328/j.cnki.jos.007365] [CSTR: 32375.14.jos.007365]  http://www.jos.org.cn
                 ©中国科学院软件研究所版权所有.                                                          Tel: +86-10-62562563



                                                                              *
                 针对    LLM    对话属性情感理解的多代理一致性反思

                 刘一丁,    王晶晶,    罗佳敏,    周国栋


                 (苏州大学 计算机科学与技术学院, 江苏 苏州 215006)
                 通信作者: 周国栋, E-mail: gdzhou@suda.edu.cn

                 摘 要: 近年来, 针对对话文本的属性情感理解吸引了越来越多研究者的关注, 取得了一定的研究进展. 与已有的
                 研究工作不同, 致力于探索大语言模型在对话属性情感理解任务上的性能, 并且认为对话属性情感理解任务存在
                 属性指代映射问题和属性情感映射问题两个关键挑战, 严重制约对话结构下的属性情感理解的精度. 基于此, 提出
                 大语言模型对话属性情感理解任务. 该任务致力于利用大语言模型抽取包含属性指代映射关系和属性情感映射关
                 系的四元组, 并且标注了一个高质量的对话属性情感理解四元组数据集用于评估大语言模型在该任务上的性能.
                 进一步地, 针对上述对话属性情感理解存在的两个关键映射关系挑战以及大语言模型固有的幻觉问题挑战, 提出
                 了一种多代理一致性反思方法. 该方法首先设计了                 3  个子任务代理, 目的在于通过多代理的方式帮助模型捕捉对
                 话结构下的上述两种映射关系; 其次提出了一致性增强的反思方法, 目的在于让模型通过多代理一致反思生成最
                 优的结果, 以缓解大语言模型幻觉问题. 实验结果表明, 该方法在多个评估指标上优于当前主流的基准方法. 此外,
                 该方法相较于其他基准方法具有最优的对话属性指代关系抽取和属性情感抽取能力, 这将有力地促进大语言模型
                 在对话结构下的细粒度情感理解方面的研究.
                 关键词: 对话属性情感理解; 属性指代映射; 大语言模型; 多代理机制; 一致性反思
                 中图法分类号: TP18

                 中文引用格式: 刘一丁,  王晶晶,  罗佳敏,  周国栋.  针对LLM对话属性情感理解的多代理一致性反思.  软件学报,  2025,  36(10):
                 4753–4767. http://www.jos.org.cn/1000-9825/7365.htm
                 英文引用格式: Liu YD, Wang JJ, Luo JM, Zhou GD. Multi-agent Consistency Reflection for LLM-grounded Conversational Aspect
                 Sentiment Understanding. Ruan Jian Xue Bao/Journal of Software, 2025, 36(10): 4753–4767 (in Chinese). http://www.jos.org.cn/1000-
                 9825/7365.htm

                 Multi-agent  Consistency  Reflection  for  LLM-grounded  Conversational  Aspect  Sentiment
                 Understanding
                 LIU Yi-Ding, WANG Jing-Jing, LUO Jia-Min, ZHOU Guo-Dong
                 (School of Computer Science & Technology, Soochow University, Suzhou 215006, China)
                 Abstract:  Recently,  aspect  sentiment  understanding  in  conversational  texts  has  received  growing  attention  from  researchers,  leading  to
                 notable  progress  in  the  field.  Unlike  prior  research,  this  study  focuses  on  the  performance  of  large  language  models  (LLMs)  in
                 conversational  aspect  sentiment  understanding  tasks  and  highlights  two  primary  challenges:  aspect-coreference  mapping  and  aspect-
                 sentiment  mapping.  These  challenges  pose  significant  constraints  on  achieving  accurate  aspect  sentiment  understanding  within
                 conversational structures. To address these issues, the study defines a new task for LLMs in conversational aspect sentiment understanding,
                 aiming  to  extract  quadruples  that  encapsulate  both  aspect-coreference  mapping  and  aspect-sentiment  mapping  relationships.  A  high-quality
                 annotated  dataset  of  conversational  aspect  sentiment  quadruples  has  been  created  to  evaluate  the  performance  of  LLMs  on  this  task.  To
                 tackle  the  challenges  of  mapping  relationships  and  mitigate  the  inherent  hallucination  issues  of  LLMs,  this  study  introduces  a  multi-agent


                 *    基金项目: 国家自然科学基金  (62006166, 62376178, 62076175); 江苏高校优势学科建设工程; 软件新技术与产业化协同创新中心项目
                  刘一丁和王晶晶为共同第一作者.
                  收稿时间: 2024-05-12; 修改时间: 2024-07-21, 2024-10-04; 采用时间: 2024-11-13; jos 在线出版时间: 2025-08-01
                  CNKI 网络首发时间: 2025-08-12
   351   352   353   354   355   356   357   358   359   360   361