Page 346 - 《软件学报》2025年第12期
P. 346
余建兴 等: 基于常识推理问答的多模态题文不符检测 5727
这些数据的每个推理步骤进行标注. 但目前这种标注资源的数据集很稀缺. 此外, 手动标注成本高昂. 为了解决这
个问题, 我们借助大模型 LLM, 其具备强大的小样本学习能力. 如图 3 所示, 我们设计思维链的提示样例来输入
LLM, 利用其强大的上下文学习能力, 融合多个子提问形成一个复杂提问. 第 k 个推理结构的提示由说明、一些示
例、输入和输出占位符组成. 考虑到每个提问可以有多种同义的表达方式, 我们构造多个提示语句来模拟这种多
样性能力. 图 4 展示了部分利用思维链合成复杂提问的提示样例. 图 4 中, 带颜色的下划线文本表示每个子提问的
答案. 子提问 qp 的答案被另一个子提问 qp 提及, 表明这些子提问可以通过它们的答案关联, 从而形成一个有效
i j
的推理过程. 具体地, 我们为第 k 个推理类型收集了一组示例 E k . 通过从 E k 中抽取子集 E i 作为输入, 我们可以构
造多样化的提示语句, 而非单一且固定的提示. 基于公式 (2), 进一步为每组子提问 QP k 生成多个复杂提问, 其中 m
是采样数量, p G (·|·) 表示使用核采样的 GPT-3 模型, 其中 p = 0.5 [57] , E 是示例集.
{ ∪ m { ( )}
Y k = i=1 p G y i |prompt (QP k ,E i ) (2)
k
E i = {e i : e i E k };E k ⊆ E;QP k ⊆ QP
Chain-of-thought Prompt
Given two sub-questions and compose them into a complex question. Example:
Sub-question-1: Who succeeded the first president of South Africa? Answer: Nelson Mandela
Sub-question-2: Who succeeded Nelson Mandela? Answer: Cyril Ramaphosa
Let’s generate step by step:
Step 1: Identify the entity “first president of South Africa” in Sub -question-1.
Step 2: Note Sub-question-2 contains the answer to Sub-question-1.
Step 3: Substitute the “Nelson Mandela” from Sub-question-2 into the entity “the first president of South Africa” in Sub -question-1.
Step 4: Compose the questions into the final result: Who succeeded the first president of South Africa? Answer: Cyril Ramaphosa.
Now, we provide another two sub-questions,
Sub-question-1: [placeholder for Sub-question 1]
Sub-question-2: [placeholder for Sub-question 2]
You should compose them into a complex question like the above example and output the result:
图 3 用于生成 2 跳推理提问的思维链提示样例
’
’
图 4 基于思维链提示中使用的部分提问示例

