大模型做时序预测也很强!华人团队激活 LLM 新能力,超越一众传统模型实现 SOTA
蔚明 投稿自 凹非寺
量子位 | 公众号 QbitAI
大语言模型潜力被激发——
无需训练大语言模型就能实现高精度时序预测,超越一切传统时序模型。
来自蒙纳士大学、蚂蚁、IBM 研究院提出了一种通用框架,结果成功激活大语言模型跨模态处理时序数据的能力。
时序预测有益于城市、能源、交通、遥感等典型复杂系统的决策制定。
自此,大模型有望彻底改变时序/时空数据挖掘方式。
通用大语言模型重编程框架
简单来说,研究团队提出了一个通用框架,将大语言模型轻松用于一般时间序列预测,而无需做任何训练。
主要提出两大关键技术:时序输入重编程;提示做前缀。
Time-LLM 首先使用文本原型(Text Prototypes)对输入的时序数据进行重编程,通过使用自然语言表征来表示时序数据的语义信息,进而对齐两种不同的数据模态,使大语言模型无需任何修改即可理解另一个数据模态背后的信息。
为了进一步增强 LLM 对输入时序数据和对应任务的理解,作者提出了提示做前缀(Prompt-as-Prefix,PaP)的范式,通过在时序数据表征前添加额外的上下文提示与任务指令,充分激活 LLM 在时序任务上的处理能力。
主要贡献包括:
1、提出了通过重编程大型语言模型用于时序分析的全新概念,无需对主干语言模型做任何修改。
2、提出一个通用语言模型重编程框架 Time-LLM,它包括将输入时序数据重新编程为更自然的文本原型表示,并通过声明性提示(例如领域专家知识和任务说明)来增强输入上下文,以指导 LLM 进行有效的跨域推理。
3、在主流预测任务中的表现始终超过现有最好的模型性能,尤其在少样本和零样本场景中。此外,Time-LLM 在保持出色的模型重编程效率的同时,能够实现更高的性能。大大释放 LLM 在时间序列和其他顺序数据方面尚未开发的潜力。
具体来看这一框架,首先,输入时序数据先通过 RevIN 归一化操作,然后被切分成不同 patch 并映射到隐空间。
时序数据和文本数据在表达方式上存在显著差异,两种属于不同的模态。
时间序列既不能直接编辑,也不能无损地用自然语言描述。因此,我们需要将时序输入特征对齐到自然语言文本域上。
而对齐不同模态的一个常见方式是 cross-attention,但是 LLM 固有的词汇表很大,因此无法有效直接将时序特征对齐到所有词上,而且也并不是所有词都和时间序列有对齐的语义关系。
为了解决这个问题,这项工作对词汇表进行了线形组合来获取文本原型,其中文本原型的数量远小于原始词汇量,组合起来可以用于表示时序数据的变化特征。
而为了充分激活 LLM 在指定时序任务上的能力,这项工作提出了提示做前缀的范式。
通俗点说,就是把时间序列数据集的一些先验信息,以自然语言的方式,作为前缀 prompt,和对齐后的时序特征拼接喂给 LLM,是不是能够提升预测效果?
在实践中,作者确定了构建有效提示的三个关键组件:
(1)数据集上下文;(2)任务指令,让 LLM 适配不同的下游任务;(3)统计描述,例如趋势、时延等,让 LLM 更好地理解时序数据的特性。
团队在长程预测上经典的 8 大公开数据集上进行了全面的测试。
结果 Time-LLM 在基准比较中显著超过此前领域最优效果,比如对比直接使用 GPT-2 的 GPT4TS,Time-LLM 有明显提升,表明了该方法的有效性。
此外,在 zero-shot 场景中也表现了很强的预测能力。
本项目获得蚂蚁集团智能引擎事业部旗下 AI 创新研发部门 NextEvo 支持。
感兴趣的小伙伴可戳下方链接了解论文详情~
评论