【论文阅读】2022 Self-Supervised Contrastive Pre-Training for Time Series via Time-Frequency Consistency

该论文提出了Time-FrequencyConsistency(TF-C)的预训练框架,用于解决时序数据的多样性带来的预训练挑战。通过假设时域和频域表示在隐空间中的接近性,文章构建了Time-based和Frequency-basedContrastiveEncoders,确保相同序列的不同增强版本在表示上接近。实验包括一对一和一对多的迁移学习设置,验证了该方法的有效性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述
2022 NeurlPS 哈佛大学
论文地址:https://arxiv.org/pdf/2206.08496.pdf
代码地址:https://github.com/mims-harvard/TFC-pretraining

1. 简介

1.1 动机

在NLP、CV等领域,所有数据都存在一定的先验假设,比如在NLP中,所有数据集都遵循特定的语法规则。然而,在时序预训练任务中,面临一个难点,不同领域数据集不太好找到一个共同的先验假设,因为不同数据集的频率、周期性、平稳性差异都很大。这导致了在时序领域做预训练和迁移学习的难度。

1.2 本文思路和贡献

本文提出了一个基本假设:一个时间序列的频域表示和时域表示应该在时序表征隐空间中相近。基于这个假设,本文提出了Time-Frequency Consistency (TF-C)的自监督表示学习架构,综合考虑序列在时域和频域的表征,进而更好的进行预训练学习。 在这里插入图片描述

2. 问题定义

在这里插入图片描述

3.模型

在这里插入图片描述

3.1 Time-based Contrastive Encoder

首先利用多种时间序列数据增强手段,生成每个时间序列的不同增强版本。然后将时间序列输入到Time Encoder,分别得到时间序列不同版本在时域的表征,让一个时间序列和其增强的结果表示相近,和其他时间序列远离。loss函数如下:
在这里插入图片描述

3.2 Frequency-based Contrastive Encoder

整体思路与时域类似。首先获取到时间序列的频域表示,然后通过不同的数据增强方法得到增强表示,然后经过Frequency encoder,分别得到一个时序的多种表征。相同时序的不同表征应该相近,不同时序的表征应该远离,loss定义如下:
在这里插入图片描述

3.3 Time-Frequency Consistency

基于时域和频域表示在隐空间的一致性假设。论文提出了一种衡量时域表示和频域表示距离的loss。
在这里插入图片描述

4. 实验

ont-to-one实验:在一个数据集上预训练,在另一个数据集上finetune
在这里插入图片描述
One-to-Many实验:一个数据集上预训练,在多个数据集上finetune
在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值