Page 157 - 《软件学报》2025年第9期
P. 157
4068 软件学报 2025 年第 36 卷第 9 期
智能问答 检索到三元组 (部分)
自由锻造的生产效率如何?
自由锻造的生产效率较高, 但也取决于许多因素, 例如材料、生 (ChatGLM-6B) [自由锻造, 材料, 碳素钢、合金钢]
产类型、生产率和技工技能水平等。一般来说, 自由锻造的生产 [自由锻造, 表面粗糙度, >50 μm]
率比压制锻造低。 [自由锻造, 特点, 生产率低且需高级
技工; 余量大, 为3–30 mm]
(本文方法) ...
自由锻造的生产效率较低, 且需要高级技工, 生产率低, 且余量大。
在灰铸铁和软钢中, 哪种材料的熔点更高?
3
3
在灰铸铁和软钢中, 灰铸铁的熔点更高。[铸铁, 密度, 7 (10 kg/m )],
4
切变模量, 4.5 (10 MPa)], 比热容, 544.3 J/(kg·K)], 熔点, 1 200 °C], [灰铸铁, 弹性模量, 0.8–1.6 (10 MPa)]
5
(ChatGLM-6B)
弹性模量, 0.8–1.6 (10 MPa)], 代号, HT], 而软钢的热导率: [软钢, [软钢, 热导率, 46.4 W/(m·K)]
5
熔点, 1 400 °C –1 500 °C], 比热容, 502.4 J/(kg·K)], 热导率, 46.4 W/(m·K)。 [灰铸铁, 熔点, 1 200 °C]
因此, 灰铸铁的熔点更高。
[软钢, 熔点, 1 400 °C–1 500 °C]
(本文方法) ...
在灰铸铁和软钢中, 软钢的熔点通常比灰铸铁更高。
使用哪种铸造方法制造的9-2铝青铜的布氏硬度更高?
(ChatGLM-6B)
[9-2铝青铜, 布氏硬度 (铸造方法: S),
使用J铸造方法制造的9-2铝青铜的布氏硬度更高, 为930.0 HB。
835.0 HB]
[9-2铝青铜, 布氏硬度 (铸造方法: J),
(本文方法) 930.0 HB]
使用S铸造方法制造的9-2铝青铜的布氏硬度更高, 为930.0 HB。
图 7 案例分析
5 总 结
本文探索了在“检索-问答”的框架下增强 LLM 垂直领域问答能力的方法. 首先, 为了促进机械制造领域知识
问答的研究, 本文构建了一个机械制造领域的知识图谱与问答数据集, 即: Mecha-QA. 随后, 本文提出了一种利用
知识相关性增强 LLM, 实现垂直领域知识图谱问答的方法. 该方法考虑到检索到的知识与问题的相关性不同, 对
最终答案的贡献也不同. 由此提出了一个问题相关性计算模块, 将检索到的三元组与问题相关性进行量化, 并输
入 LLM 生成最终的回复, 从而将利用大模型进行问答的框架变为“检索-相关性评估-问答”.
在未来的工作中, 我们将进一步对 Mecha-QA 数据集进行扩充, 增加其规模. 此外, 我们将研究如何更精确地
检索知识, 从检索的角度减少知识增强大模型中的噪声, 提升 LLM 的问答性能.
References:
[1] Wang ZY, Cheng JP, Wang HX, Wen JR. Short text understanding: A survey. Journal of Computer Research and Development, 2016,
53(2): 262–269 (in Chinese with English abstract). [doi: 10.7544/issn1000-1239.2016.20150742]
[2] Cao SL, Shi JX, Hou L, Li JZ. Question answering over knowledge base: An overview. Chinese Journal of Computers, 2023, 46(3):
512–539 (in Chinese with English abstract). [doi: 10.11897/SP.J.1016.2023.00512]
[3] Fan YF, Zou BW, Xu QT, Li ZF, Hong Y. Survey on commonsense question answering. Ruan Jian Xue Bao/Journal of Software, 2024,
35(1): 236–265 (in Chinese with English abstract). http://www.jos.org.cn/1000-9825/6913.htm [doi: 10.13328/j.cnki.jos.006913]
[4] Zeng AH, Liu X, Du ZX, Wang ZH, Lai HY, Ding M, Yang ZY, Xu YF, Zheng WD, Xia X, Tam WL, Ma ZX, Xue YF, Zhai JD, Chen
WG, Liu ZY, Zhang P, Dong YX, Tang J. GLM-130B: An open bilingual pre-trained model. In: Proc. of the 11th Int’l Conf. on Learning
Representations. 2023. https://iclr.cc/virtual/2023/poster/11329
[5] Du ZX, Qian YJ, Liu X, Ding M, Qiu JZ, Yang ZL, Tang J. GLM: General language model pretraining with autoregressive blank
infilling. In: Proc. of the 60th Annual Meeting of the Association for Computational Linguistics. Dublin: Association for Computational

