Page 426 - 《软件学报》2025年第4期
P. 426
1832 软件学报 2025 年第 36 卷第 4 期
h 跳的随机邻居采样完成子图构建, 在微调阶段则通过轻量级对齐投影将图中每个
点视为中心节点, 并通过进行
节点的标记与相关的文本描述关联. 在第 2 阶段针对特定任务的微调时, 则需要根据不同的下游任务设计不同的
指令模板, 并对第 1 阶段的投影进行参数优化以适应不同的应用场景. 为了应对不同结构的图数据的分布变化给
大语言模型带来的准确性等挑战, GraphGPT 结合了思维链技术 [71] 并通过蒸馏辅助生成高质量的思维链指令, 提
高了逐步推理能力. GraphGPT 总体准确率较高且具有出色的泛化性能, 但由于模型总体参数量较大, 仍有减少不
必要参数的提升空间.
总的来说, 近年来基于普通图的大模型工作利用了 LLM 在文本处理和生成方面的优势, 在附带丰富文本信息
的图数据上具有广阔的应用前景.
5.2.2 基于时空图的大模型
在时空图方面, 有一些研究者也做了相关的工作, 例如, Liu 等人 [72] 针对现有 LLM 对空间信息提取不足的问题,
提出了 ST-LLM 框架, 它包括时空嵌入层、将时空信息融合的卷积层、使用部分冻结注意力 (PFA) 的 LLM 层和回
归卷积层, 可用于交通预测. 其中, ST-LLM 中的部分冻结注意力 (PFA) 的 LLM 层中前 F 层中的多头注意力部分和
前馈层被冻结, 用来保留预训练中的重要知识, 后 U 层的多头注意力部分则被解冻, 有助于更好地提取时空依赖性.
图 11 UrbanGPT
Li 等人 [73] 提出的 UrbanGPT 则设计了一个时空编码器并使用轻量级对齐模块投影得到时空表示, 再输入到
LLM 生成有助于生成数值预测的 token, 最后通过回归层生成更准确的预测值. UrbanGPT 的结构图如图 11 所示.
其中, 时空编码器主要由门控扩张卷积层 [7] 和多级相关注入层组成, UrbanGPT 对 LLM 设计了时间和空间维度的
文本时空提示, 并进行了时空指令调优. 在表 6 中, 我们总结了 UrbanGPT [73] 与主流复杂时空融合架构 STGCN [5]
和 ASTGCN [13] 使用上述 3 个用于流量预测的经典数据集在零样本场景下进行评估的对比结果. 相比现有的主流
[5]
复杂时空融合架构, 如 STGCN 和 ASTGCN [13] , UrbanGPT 使用流量预测的经典数据集, 即 NYC-taxi, NYC-bike
和 NYC-crime 数据集中部分区域的数据进行预训练, 在零样本数据 (即训练过程中未出现过的区域的数据) 上进
行分类和回归任务的测试时表现更佳 [73] , 这表示对于时空预测任务中的零样本或者少样本场景, UrbanGPT 的泛
化能力更强, 可以更好地推广到新地区或新城市的预测任务中.
Spatio-temporal dependency encoder Spatio-temporal instruction-tuning Spatio-temporal zero-shot prediction
Region A City A
l=3 Given the historical data and th corresponding tokens
l=2 <ST_HIS> for taxi flow… The recording time… This region Train
city
is located… please generate the predictive tokens for… Train region
l=1 Instructions
Region B City B
Test
Based on the given information, the predictive tokens city
…
of taxi inflow and outflow in this region are <ST_PRE> … Test region Multi-tasks
Responses Trainable Frozen
ST instruction-tuning of LLMs Instruction-tuning Zero-shot prediction
Gate
<ST_HIS> <ST_PRE> ST encoder
ST dependency representations tokens
Regression layer Alignment Task assignment
Regression Text instructions
Lightweight alignment module Text replacement
Alignment Inflow: [28 26 20 33 49 50 48 34 40 22…]
Large language models
<ST_HIS> LLMs space <ST_HIS> Outflow: [40 52 58 32 22 10 18 19 20 24…] Liama Vicuna …
的架构 [73]
表 6 UrbanGPT 与主流复杂时空融合架构在零样本场景下的对比结果 [73]
NYC-taxi NYC-bike NYC-crime
模型 流入 流出 流入 流出 入室盗窃 抢劫
MAE (平均绝对误差) MAE (平均绝对误差) Macro-F1 召回率 Macro-F1 召回率
UrbanGPT [73] 6.16 6.83 2.02 2.01 0.67 0.34 0.69 0.42
STGCN [5] 12.54 14.32 4.11 4.45 0.48 0.00 0.64 0.30
ASTGCN [13] 9.75 12.42 5.58 5.78 0.49 0.01 0.55 0.09