Lightweight Time Series Data Valuation on Time Series Foundation Models via In-Context Finetuning

本文提出了 LTSV 方法,通过结合上下文微调与时间块聚合技术,在时间序列基础模型上实现了兼具高效性、准确性及时间依赖捕捉能力的数据估值。

Shunyu Wu, Tianyue Li, Yixuan Leng, Jingyi Suo, Jian Lou, Dan Li, See-Kiong Ng

发布于 Wed, 11 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一种名为 LTSV 的新方法,它的核心任务是:给时间序列数据(比如股票走势、天气记录、心率监测)“打分”,告诉我们在训练超级智能的“时间序列大模型”时,哪些数据是宝贝,哪些是垃圾。

为了让你更容易理解,我们可以把整个过程想象成**“挑选食材来训练一位顶级大厨”**。

1. 背景:大厨需要好食材

现在的“时间序列基础模型”(TSFMs)就像是一位天赋异禀的超级大厨。他读过海量的食谱(数据),能预测未来的天气、股价或疾病趋势。

  • 问题:这位大厨虽然聪明,但如果给他吃的是腐烂的蔬菜(低质量数据)或者过期的肉(错误数据),他做出来的菜(预测结果)也会很难吃。
  • 目标:我们需要一种方法,在把数据喂给大厨之前,就能精准地分辨出哪些是“顶级食材”,哪些是“废料”。

2. 旧方法的困境:太慢、太贵

以前,人们想给食材打分,用的是“影响函数”(Influence Functions)或“沙普利值”(Shapley Values)。

  • 比喻:这就像是为了判断一颗土豆好不好,你要把整个厨房拆了,重新计算如果没有这颗土豆,大厨的厨艺会下降多少。
  • 缺点:对于那种拥有几十亿参数(相当于拥有几亿种烹饪技巧)的超级大厨来说,这种“拆厨房重算”的方法太慢了,算到地老天荒也算不完,而且容易算错(因为数据是连续流动的,像河流一样,旧方法容易忽略这种连续性)。

3. LTSV 的妙招:试吃一口(上下文微调)

这篇论文提出的 LTSV 方法,换了一种更聪明的思路:“试吃”

  • 核心思想
    与其把整个厨房拆了,不如直接拿这颗土豆(数据样本),让大厨快速尝一口(进行一步“上下文微调”),看看大厨尝完这口后,做下一道菜(上下文数据)的水平有没有提升。

    • 如果尝了这口土豆,大厨做下一道菜更香了 \rightarrow 这颗土豆是好食材(高分)。
    • 如果尝了这口土豆,大厨反而手抖做砸了 \rightarrow 这颗土豆是坏食材(低分)。
  • 为什么快?
    这种方法不需要重新计算复杂的数学公式(不需要算那个巨大的“海森矩阵”),只需要做一次简单的“尝一口”动作。这就好比从“拆厨房重算”变成了“快速试吃”,速度提升了成千上万倍。

4. 特殊技巧:像切香肠一样处理时间

时间序列数据有个特点:它是连续的,像一条流动的河,或者一根长长的香肠。如果只切一小块来尝,可能尝不出整根香肠的味道。

  • LTSV 的“块聚合”策略
    作者把时间序列数据像切香肠一样,切成很多重叠的小块(Temporal Block Aggregation)。
    • 先给每一小块“香肠”打分。
    • 因为小块之间有重叠,最后把重叠部分的分数加起来平均,就能得到每一个时间点、甚至每一整段数据的准确分数。
    • 好处:这样既照顾了时间的连续性(前一刻的状态会影响后一刻),又不会漏掉细节。

5. 实验结果:真的好用吗?

作者在五个不同的数据集(电力、汇率、天气等)和三种不同的大模型上做了测试:

  1. 挑得好:用 LTSV 挑出来的“好食材”(高分数据)去训练模型,效果比用全部数据训练还要好,或者至少一样好。
  2. 扔得对:把 LTSV 打低分的“坏食材”扔掉,模型反而不受影响,甚至因为去除了噪音而变得更聪明。
  3. 通用性强:用在大模型上算出来的“好食材”名单,直接拿去训练那些普通的小模型(比如 DLinear, PatchTST),小模型也能表现得更好。这说明 LTSV 找到的规律是通用的。
  4. 速度快:对于拥有几亿参数的大模型,旧方法可能需要跑几天,而 LTSV 只需要跑几分钟。

总结

LTSV 就像是一个高效的“食材质检员”
它不需要把整个厨房(大模型)拆了重装,而是通过**“快速试吃”(上下文微调)和“分段品尝”**(块聚合),就能迅速、准确地告诉我们要保留哪些数据,扔掉哪些数据。

一句话概括
在训练超级时间序列大模型时,LTSV 用一种既快又准的“试吃”方法,帮我们筛选出最有价值的“数据食材”,让模型学得更聪明,同时省去了昂贵的计算成本。