- 博客(324)
- 资源 (11)
- 收藏
- 关注
原创 时序数据挖掘交流群|以研会友,共探时序数据的无限可能
【科研交流群招募】专注时序数据挖掘的科研人员,你是否苦于独自钻研、缺乏交流?我们搭建了「时序数据挖掘科研交流群」,提供:1)前沿论文与技术资讯分享;2)技术难题协作解决;3)数据集/工具资源对接;4)跨机构同行深度交流。群内严格审核,确保纯粹学术氛围。关注公众号「时序课堂」回复"加群"即可加入,与志同道合者共同探索时序数据分析的无限可能!(150字)
2025-11-19 16:58:39
157
原创 时序数据集划分 “踩坑实录”:绝对不能随机划分!(附正确操作步骤)
摘要: 时序数据建模时,随机划分数据集会导致严重的预测失效问题。本文揭示了随机划分的三大核心问题:破坏时间依赖性、数据泄露及违背建模目标,并强调必须遵循“训练集→验证集→测试集”的时间顺序原则。提供了两种正确划分方法:固定时间点拆分(简单快速)和滚动窗口拆分(适用于周期数据),附Python代码实现。关键避坑点包括数据排序、周期完整性和测试集比例控制。时序建模的本质是“用过去预测未来”,只有严格按时间顺序划分数据,模型才能在实际预测中表现可靠。
2025-11-18 20:34:33
790
原创 为什么建模前必须做 “平稳性检验”?2种方法教你判断
时间序列分析中,数据平稳性是建模的关键前提。文章通过电商销售预测失败的案例,阐释了非平稳数据(如趋势增长或季节性波动)如何导致模型失效。详细介绍了ADF检验和KPSS检验两种方法:前者通过检测单位根判断平稳性,后者侧重识别趋势平稳。针对检验结果矛盾的情况,提出了差分处理等解决方案。最后以奶茶店销量数据为例,演示了完整的平稳性检验流程,强调非平稳数据必须经过差分或季节性分解等平稳化处理才能用于建模。文中附带Python代码实现和数据集,为时间序列分析实践提供了完整参考。
2025-11-11 19:25:49
942
原创 时序数据预处理避坑指南:缺失值和异常值怎么处理?(附 6 种实用方法)
摘要:本文针对时序数据分析中常见的缺失值和异常值问题,提出了6种实用处理方法。针对缺失值,介绍了前向填充(适合短期平稳数据)、线性插值(适合趋势期数据)和季节性填充(适合周期性数据)三种方法。针对异常值,讲解了箱线图法(快速识别)、Z-score法(正态分布数据)和移动标准差法(动态时序数据)三种解决方案,每种方法均附有Python代码实现和应用场景说明。文章通过奶茶店销售数据的实例演示,帮助读者掌握如何根据不同数据特点选择合适的预处理方法,确保后续时序分析建模的准确性。(146字)
2025-11-03 13:10:39
699
原创 拆解时间序列的 “4 大组成部分”:趋势、季节、周期、残差(附可视化方法)
时序数据的波动规律可拆解为四个核心组成部分:趋势(长期方向)、季节(固定短周期波动)、周期(长期循环波动)和残差(随机波动)。本文通过奶茶店销量案例,详细解析了这四部分的特征及相互关系,并提供了Python实操代码,演示如何生成数据、加载数据并可视化拆解时序数据。关键步骤包括:1)生成包含趋势、季节和残差的模拟数据;2)选择加法或乘法模型;3)使用seasonal_decompose方法拆解并可视化各组成部分。该方法适用于分析各类时序数据,帮助理解数据波动背后的规律性因素。
2025-10-27 08:39:14
976
原创 时间序列入门第一问:它和普通数据有什么不一样?(附 3 类典型案例)
本文阐述了时间序列数据与普通横截面数据的核心区别。作者通过典型案例对比说明:横截面数据(如学生成绩表)样本间独立无时间顺序,而时序数据(如每日销量)必须保持时间顺序且前后数据存在依赖关系。文章归纳了三种典型时序数据特征(平稳型、趋势型、季节型),并给出Python代码示例演示如何通过设置时间索引和可视化来识别时序数据类型。最后强调判断时序数据的两大标准:连续时间排列和前后依赖关系,避免将仅含日期字段的普通数据误认为时序数据。全文用生活化比喻和具体案例,帮助读者建立时序数据的基础认知框架。
2025-10-17 00:28:28
872
原创 想入门时间序列?这篇文章帮你理清学习路径(附 15 篇干货预告)
【摘要】本文针对时间序列学习中的常见痛点,提供系统性学习指南。首先明确时间序列在电商、工业、金融等场景的应用价值,指出三大入门误区:忽视数据预处理、随机划分数据集、过度追求复杂模型。随后提出4阶段学习路径:基础认知(数据特性、预处理)、核心技术(ARIMA/LSTM等模型)、实践避坑(全流程案例)、进阶方向,并预告15篇配套教程,涵盖平稳性检验、特征工程等关键知识点。文章强调"先懂原理再实践"的学习逻辑,旨在帮助读者建立扎实的时序分析能力。
2025-10-14 09:19:03
1347
原创 论文阅读---CARLA:用于时间序列异常检测的自监督对比表示学习方法
【摘要】论文提出CARLA,一种用于时间序列异常检测的自监督对比表示学习方法。针对现有方法因标签稀缺导致的假阳性率高、泛化能力差等问题,CARLA通过两阶段框架:1)Pretext阶段注入多种异常构建负样本,结合ResNet和三元组损失学习区分正常/异常模式;2)自监督分类阶段利用邻居信息优化分类。在7个真实数据集上的实验表明,CARLA在F1分数和AUPR指标上显著优于10种主流方法,且保持低假阳性率,验证了其有效性。代码已开源。
2025-10-13 08:44:44
1197
5
原创 时间序列的类增量学习:基准与评估
【摘要】本文提出针对时间序列数据的类增量学习(TSCIL)统一评估框架,解决非平稳环境中新类别引入导致的灾难性遗忘问题。研究系统比较了正则化、经验重放和生成式重放三类方法在标准与隐私敏感场景下的表现,发现:(1)基于重放的方法优于正则化技术;(2)层归一化(LayerNorm)比批量归一化(BatchNorm)更能平衡稳定性与可塑性;(3)生成式重放适用于隐私敏感场景。实验还揭示了记忆缓冲区容量、分类器设计等关键因素对性能的影响。该框架支持算法快速开发与标准化评估,为TSCIL研究提供重要基准。
2025-07-02 19:27:29
1139
原创 时序数据集---UWave
UWaveGestureLibraryAll数据集是一个基于加速度计的手势识别数据集,包含896条训练数据和3582条测试数据,每条数据为946维的加速度序列。数据集涵盖8种手势类别,适用于人体行为识别(HAR)研究。数据由J.Liu捐赠,最初在uWave手势识别论文中提出。数据集包含7个文件,包括ARFF格式的训练/测试文件、时序序列文件和纯文本文件,支持Weka、Python等多种工具使用。该数据集可用于手势识别算法开发,在智能设备控制和可穿戴设备行为分析等领域有应用价值。
2025-06-30 21:48:25
574
1
原创 吴恩达深度学习-第二周作业-代码
链接: https://pan.baidu.com/s/1rTJVJJpPw2Nak9Puzdf2gg 提取码: 7kff。另一位博主的详细资料,个人推荐:吴恩达深度学习课程资源-优快云博客。通过网盘分享的文件:吴恩达深度学习。--来自百度网盘超级会员v7的分享。
2024-12-27 15:07:34
461
原创 吴恩达深度学习-第二周作业-答案
链接: https://pan.baidu.com/s/1rTJVJJpPw2Nak9Puzdf2gg 提取码: 7kff。另一位博主的详细资料,个人推荐:吴恩达深度学习课程资源-优快云博客。通过网盘分享的文件:吴恩达深度学习。--来自百度网盘超级会员v7的分享。
2024-12-27 15:05:43
445
原创 吴恩达深度学习-第二周作业-题目
链接: https://pan.baidu.com/s/1rTJVJJpPw2Nak9Puzdf2gg 提取码: 7kff。另一位博主的详细资料,个人推荐:吴恩达深度学习课程资源-优快云博客。通过网盘分享的文件:吴恩达深度学习。--来自百度网盘超级会员v7的分享。
2024-12-27 14:52:13
178
原创 吴恩达深度学习-第一周作业-答案
链接: https://pan.baidu.com/s/1rTJVJJpPw2Nak9Puzdf2gg 提取码: 7kff。通过网盘分享的文件:吴恩达深度学习。--来自百度网盘超级会员v7的分享。
2024-12-27 14:50:06
205
原创 论文写作经验-相关工作1
There are two popular technique to seismic data processing.后面即可以用 One is xxx. The other is yyy.当然,这个地方也可以增加一些小章节,自己把握就好。比如:一些术语定义、使用到的其余算法都可以适当增加1-2小节。后边几段要围绕着这几类分类进行,要保证每一个分类要写一段内容。论文树状结构,该结构分层清晰,有利于读者阅读。让读者读起来舒服的写作逻辑,换位思考。2024年07月26日 20:49。
2024-07-26 20:53:58
566
原创 论文写作经验-表格1
表格最重要的一点是整齐,要求每一列小数点后保持位数一致并且要求按照小数点位置进行对齐,不要选择居中对齐,一般选择左对齐或者右对齐即可。2024年07月25日 23:37。好看的表格赏心悦目!最优:$\bullet$次优:$\circ$
2024-07-25 23:39:20
589
原创 论文写作经验-引言2
1. 写论文时一定要站在读者和审稿人的角度去写。就像一个练武的人,开始学一些招数时,会感受到束缚,但是,一旦你熟练了就会运用自如。3. 在介绍之前的技术时我们往往会喜欢使用however来进行吐槽别的方法的局限性。但是一个however就相当于挖的一个坑,要记得填坑。所谓填坑就是这个局限性一定是被自己或者后来的技术解决了的。5. 我们在写自己方法的时候经常会这样写:我们提出了...方法...提升了效率。这个地方写的就是废话,我们发论文肯定会有效果提升啊!4. 带着目的找参考文献,不要顺藤摸瓜!
2024-07-18 18:10:26
346
原创 论文写作经验-引言1
一般我们开头先说本论文提出了***框架/结构,并且包含了n种技术。可以使用,第一,,,,。接下来,介绍我们的方法是如何解决这个问题的。发展阶段B解决了A阶段问题,但是引发了新的问题。发展阶段C解决了B阶段的问题,但是也引发了新的问题。引言主要分为以下几个结构:研究背景+当前技术存在的问题或难点+我们提出了什么方法去解决了这些问题+实验结果展现和分析+论文结构详解。这个地方主要写当前有哪些技术,并简要介绍这些技术的实现过程。最后老师还提到了我写的论文语言不够优美,啊啊啊啊啊,这个还是需要看论文才能体验到。
2024-07-17 19:23:09
1073
原创 论文写作经验-单词缩写1
有很多人认为引言中使用了ECG,摘要中只出现了一次,那在摘要中也进行缩写,这是不对的。摘要,引言,相关工作等部分作为一个个个体存在。如果ECG在摘要中没有用到,就不需要缩写。2024年07月17日 13:03。注意:每一部分当做个体来看!
2024-07-17 19:21:41
369
原创 论文写作经验-题目1
越短表示创新性越高, 如rough sets, fuzzy sets 等等. 如果你敢写这么短的题目而且能被录用, 也不需要从本贴学到任何东西了.如果这样写, 读者会觉得该论文只是已有方法一个简单的扩展, 或者简单的应用. 有些中文期刊明确要求论文题目不要使用 “基于”, 因为这种题目泛滥.对于计算机方面论文而言, 应该写出自己提出的新问题或新方法. 新问题应该有意义而且有挑战性, 新方法则应该高效或准确.提出了一个新的问题, 其中频繁模式挖掘是更大的问题, 三分符号表则是本问题的特色.
2024-07-17 19:20:27
639
原创 论文写作经验-论文摘要举例
译文:本文提出了一种具有课程学习功能的双解码器网络(DDNet)来解决这些问题。首先,我们设计了一个U-Net,具有两个解码器,以获取速度模型的速度值和地层边界信息。其次,我们通过组织三个难度级别的数据,将课程学习引入网络训练。例如,需要设计有效的深度网络,需要控制训练过程,需要增强泛化能力。解析:此部分写当前存在的挑战。这里提出来三个挑战,后面必然会跟着这三个问题对应的解决方案,做到了一一对应。见解:这个主要看你的代码开不开源,不开源可以不写。译文:结果表明,我们的网络优于其他最先进的数据驱动网络。
2024-07-15 16:20:54
974
原创 论文写作经验-摘要1
本人菜鸡一名,最近几篇论文实验跑的比较顺利,结果也很不错,奈何于自己写作能力巨差,导致文章屡屡被拒。这个地方一般会先写为了解决上面提到的困难与挑战,提出了***方法/框架(1句话)。最后在分别写这几种技术是如何解决上述问题的(一种技术写2句话)。当前存在的问题,也可以说你的动机。However, 问题1, 问题2, and 问题3 are the key issues for ******.Firstly,技术1***. Secondly, 技术2***. Thirdly, 技术3***.
2024-07-15 13:12:47
526
原创 使用conda创建新的虚拟环境之后,通过pip install 在当前环境下安装一些package,但是显示已经安装。执行pip list发现显示的是base环境中的packages。
如果是在base环境下执行了 conda activate env,那么执行conda info 会显示。解决方案:先conda deactivate 再 conda activate env重新激活即可。level=2,表明嵌套了一层。
2024-06-22 16:01:52
832
1
原创 论文复现---USAD
链接:https://pan.baidu.com/s/1LbJvUzT-AFYH5cDHyzOI3A。提供main.py(作者自己根据jupyter文件整理得到)全套代码分享,包含数据集等,配好环境,没有问题即可运行。下载CSV文件到input文件夹下。--来自百度网盘超级会员V6的分享。其余环境默认安装即可。
2024-06-20 15:46:00
799
原创 USAD: 多元时间序列的无监督异常检测
时间序列:论文首先定义了单变量和多变量时间序列的概念,区分了它们在数据点上的不同。异常检测任务:描述了在给定时间序列数据集的情况下,如何通过训练数据来识别异常点。
2024-06-20 11:00:36
1006
原创 环境报错:undefined symbol: iJIT_IsProfilingActive
5. **随机数生成**:提供高质量的随机数生成器,支持多种分布(如正态分布、均匀分布等),适用于蒙特卡洛模拟、统计分析等领域。3. **矢量数学库(VML)**:包括常用的数学函数(如指数、对数、三角函数等)的高效实现,可以对矢量进行操作。2. **快速傅里叶变换(FFT)**:提供高效的FFT计算,用于信号处理、图像处理等领域。4. **稀疏矩阵运算**:提供稀疏矩阵的存储、变换和求解功能,适用于大规模稀疏矩阵的计算。
2024-06-19 21:52:15
1367
1
原创 精品壁纸分享
链接:https://pan.baidu.com/s/1hgxeKLilnZvEnlMFYv0Ucg。--来自百度网盘超级会员V6的分享。
2024-06-11 16:20:31
2014
原创 论文复现---BeatGAN
这个地方按照这个安装我尝试了很多次都没安装成功,如果配置过国内镜像源如清华源,其中是没有老版本pytorch,清华源最早支持gpu的pytorch版本是1.5.0。而且torchvision的0.2.1这个版本即使是在pytorch自己的仓库都找不到,只能找到0.2.0,更别说在国内的镜像源中了。然后找到torchvision,可以发现没有torch0.2.1,只有0.2.0,这里按照0.2.0安装也没有问题。全套代码分享,包含数据集等,配好环境,没有问题即可运行。问题3:GPU无法使用。
2024-06-11 10:05:17
769
原创 社区服务支持
在这里,每一位成员都是我们宝贵的财富,每一次分享都是我们共同成长的见证。我们诚挚地邀请您加入我们的专业社区——时序数据挖掘社区,一个专注于时序数据分析、挖掘与应用的交流平台。交流讨论:与行业专家进行深入讨论,共同探讨时序数据的奥秘。问题求助:与同行交流,解决您在时序数据处理中遇到的难题。学习打卡:记录您的学习进度,与志同道合的朋友一起成长。技术分享:获取最新的时序数据分析技术与方法。🤝 加入我们,一起探索时序数据的无限可能!- 时序数据分析的实战技巧和经验分享。- 一个充满活力和知识共享的社区环境。
2024-06-07 19:34:24
281
原创 BeatGAN:使用对抗生成时间序列的异常心律检测
BeatGAN作为一种创新的无监督异常心律检测算法,通过结合对抗生成网络的正则化能力和自编码器的重建特性,在心电图(ECG)数据上实现了接近0.95 AUC的高准确度,并且具有每心跳2.6毫秒的快速推理速度。此外,其快速推理的特点为集成到实时监测系统中提供了可能,未来可以探索将其应用于更广泛的领域,如工业和环境监测,并考虑与其他机器学习模型集成以提高检测的准确性和鲁棒性。此外,BeatGAN还显示出良好的通用性,能够准确检测多变量运动捕捉时间序列中的不寻常运动,证明了其在不同领域的应用潜力。
2024-06-07 14:30:38
1053
原创 科研新助力:深度解读国产大模型Kimi
在学术界,杨植麟师从苹果公司AI负责人,曾在Facebook AI Research工作,是中国35岁以下NLP(自然语言处理)领域引用最高的研究者之一。他还是Transformer-XL和XLNet两篇重要论文的第一作者,这两篇文章均为大语言模型领域的核心技术。在AI大模型的赛道上,虽然GPT-4等国际巨头依旧占据着领先地位,但近期,一款名为Kimi的国产大模型横空出世,以其卓越的性能和独特的优势,迅速赢得了市场的关注和用户的青睐。Kimi支持高达200万字的超长文本处理,这在当前市场上是极为罕见的。
2024-06-07 09:57:09
1967
原创 NMF算法
NMF算法的原理是找到一个分解矩阵,将原始非负数据投影到新的空间中,新空间的每个维度(基础矩阵)都与原始数据的维度正交,并且第一个基础矩阵具有最大的活跃度(即能解释数据中最多的信息),第二个基础矩阵具有第二大的活跃度,且与第一个基础矩阵正交,依此类推。NMF是一种数据降维模型,它的基本模型是通过矩阵分解将非负数据转换到新的空间,这个新空间的坐标轴(基础矩阵)按照数据的活跃度排序,活跃度越高的基础矩阵能保留更多的数据信息。NMF能够减少数据的维度,去除冗余信息,帮助我们从高维非负数据中提取出最重要的特征。
2024-06-06 20:24:01
1974
原创 PCA算法
PCA的目标是找到一个变换,将数据投影到一个新的空间中,这个新空间的每个维度(主成分)都与原始数据的维度正交。PCA算法的原理是找到一个变换矩阵,将原始数据投影到新的空间中,新空间的每个维度(主成分)都与原始数据的维度正交,并且第一个主成分具有最大的方差(即能解释数据中最多的变异性),第二个主成分具有第二大的方差,且与第一个主成分正交,依此类推。PCA是一种数据降维模型,它的基本模型是通过线性变换将数据转换到新的空间,这个新空间的坐标轴(主成分)按照方差的大小排序,方差越大的主成分能保留更多的数据信息。
2024-06-06 20:22:44
1167
原创 SVM算法
SVM算法的原理是找到一个最佳的超平面,将不同类别的数据点分开,并且使得超平面到最近的数据点的间隔最大化。SVM 的目标就是找到一个最佳的超平面,能够将不同类别的数据点分开。SVM是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,学习的基本想法是求解能够正确划分训练数据集并且几何间隔最大的分离超平面。通过找到一个最佳的超平面,将不同类别的数据点分开,实现对数据的分类。在处理非线性可分数据时,SVM 通过核技巧将数据映射到更高维的空间,以便在新的空间中找到一个更好的超平面来分类数据。
2024-06-06 20:20:01
1003
原创 通过血清拉曼光谱进行COVID-19的高效初步筛查
本研究提出了一种基于血清拉曼光谱技术的高效初步筛查方法,通过对177份血清样本的分析,包括确诊的COVID-19患者、疑似病例和健康对照组,利用拉曼光谱检测和机器学习支持向量机方法,建立了一个诊断算法,该算法在区分COVID-19病例与疑似病例、以及健康对照组方面显示出了高准确率,分类准确率分别达到了0.87和0.90,表明拉曼光谱技术是一个安全、高效的COVID-19筛查工具,具有重要的临床应用潜力。此外,该方法对于无症状和有症状的COVID-19患者都表现出较高的敏感性,有助于疫情的防控。
2024-06-04 20:14:18
1925
1
原创 高质量英文文献应该如何查找并且阅读?
通过中国计算机学会发布的CCF推荐国际学术刊物目录进行查找期刊或者会议是否属于顶刊顶会:https://www.ccf.org.cn/Academic_Evaluation/By_category/我们查找到相关论文后接下来要进行的步骤就是查看该论文发表期刊的等级。论文我一般看中科院一、二区或者CCF-A,CCF-B发表的论文,其余有兴趣的论文也可以自行决定阅读。使用connected papers进行查找论文的引用和被引用情况:https://www.connectedpapers.com/
2024-05-15 21:09:14
1423
python网络编程之http协议-数据请求
2019-12-21
UDP c/s结构通信 扫描主机端口状态
2019-12-21
python网络编程之http协议-数据提交
2019-12-21
python网络编程之网络数据与网络错误
2019-12-21
python网络编程之服务器架构
2019-12-21
python实验报告7 smtp协议.zip
2019-12-21
cp201x资源启动程序
2018-05-20
Library.zip
2019-12-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅