Page 423 - 《软件学报》2025年第4期
P. 423

邹慧琪 等: 基于图神经网络的复杂时空数据挖掘方法综述                                                     1829


                 架构  [26] 中采用的多头自注意力机制能够较好地处理不同频率和特征的时间序列, 同时                       Transformer 对长距离依赖
                 具有优秀的提取能力, 能够对不同长度的时间序列信息进行有效挖掘, 因此, 对于不同应用场景的复杂时间序列,
                 TimeGPT  采用了与  Transformer 类似的基础模型结构. 在训练集的选择上, 为了获得不同特征和频率的时间序列,
                 TimeGPT  采用了包含超过     1 000  亿个数据的最大的公开时间序列数据集, 其中还包括了噪声值和异常值, 以应对
                 真实复杂的通用应用场景. 在推断目标时间序列时, TimeGPT                  采用滚动预测来估计误差. 在这项工作的最后,
                 Garza 等人  [42] 提出, 未来的时序大模型预测可以考虑将基础知识融入到预测过程中. 此外, 在进行时间序列分类时,
                 需要对时间序列之间的相似性进行标准设定, 这也是未来值得进一步研究的方向, 可能在提高预测准确性和可解
                 释性方面具有显著的效果.
                    除了  TimeGPT, Rasul 等人  [43] 提出了一个通用单变量概率时序预测模型          Lag-Llama, 与  TimeGPT  使用共形预
                 测不同的是, Lag-Llama 直接使用概率预测. Lag-Llama 同样使用一个基于            Transformer 的结构, 为了向量化特定频
                 率的单变量时间序列, 该模型使用了滞后特征. 在训练时, 输入的单变量序列及其协变量首先通过一个共享的线性
                 投影层, 从而将时间序列的不同特征进行维度映射对齐, 接下来, 通过                    M  个掩码解码块进行投影, 然后将输出和位
                 置编码一起输入到分布头中预测概率分布的参数, 最后利用对数概率计算损失.

                                         ### Domain: <domain knowledge>
                 5.1.2    现有大模型处理时间序列
                    除了时间序列的基础大模型, 还有一些使用现有大模型处理通用时间序列的研究工作. 其中一项最新工作是
                 Xue 等人  [44] 提出的  PromptCast, 这是一种基于提示的首次使用自然语言处理大模型, 而没有修改现有的大语言模
                 型结构来进行时间序列预测的方法. 该方法使用了一个涵盖多应用场景的大规模时间序列数据集                                PISA, 基于不同
                 模板构造的提示将连续时间步上的数值转换为自然语言句子进行描述, 并将转换得到的文本输入到大语言模型
                 中, 以类似自然语言处理任务中句子到句子的方式进行预测. 由于这项工作主要聚焦于单变量时间序列预测任务,
                 未来可以通过在时间序列相关的数据集中补充多变量时间序列, 以适应更多的应用场景.
                    还有一项工作是      Jin  等人  [45] 提出的重编程框架  TIME-LLM, 与之前的进行时间序列预测相关的研究工作不同
                 的是, 它的主要思想是在不改变大语言模型              (LLM) 主干的前提下, 将输入时间序列通过跨模态的重编程以适应现
                 有  LLM  的文本原型表示, 这样做避免了直接编辑时间序列. 如图               9  为  TIME-LLM  的主要框架, 它分为   3  个主要部
                 分, 分别是输入嵌入, patch   重编程和提示为前缀部分.

                                                                                      Output embeddings
                         Forecasts
                                                                                      Add & Layer norm
                                               ⑤    Output projection
                                                                                        Feed forward
                      Flatten & Linear
                                                                                      Add & Layer norm
                        Output patch
                        embeddings                   Pre-trained LLM                    Multi-head
                                                       (Body)                            attention
                                                                                      Input embeddings
                       Output token
                        embeddings                                                     Reprogrammed
                                                                                      patch embeddings
                      Token embedder       Pre-trained LLM   Patch reprogram
                                             (Embedder)                           ③  Multi-head attention
                                                               Patching ①
                        Tokenization
                                                ④                                 ②  Patch  Text prototypes
                                                             Instance norm
                                         <dataset description>                    embedder
                         Input text                                                          Linear
                                         ### Instruction: <task information>
                                         ### Input statistics:                    Time series  Pre-trained
                                         <time series statistic 1>
                                         <time series statistic 2> …               patches  word embeddings
                            Frozen   Training   Prompt embeddings  Patch embeddings  Forward  Backward
                                                  图 9 TIME-LLM  的架构   [45]
   418   419   420   421   422   423   424   425   426   427   428