- 博客(116)
- 收藏
- 关注
原创 鸿蒙HarmonyOS NEXT 5.0开发(2)—— ArkUI布局&组件
【代码】鸿蒙HarmonyOS NEXT 5.0开发(2)—— ArkUI布局&组件。
2024-10-23 15:49:24
733
1
原创 鸿蒙HarmonyOS NEXT 5.0开发(1)—— ArkTS基础入门
在独立文件中写好类,如/*定义员工类* 类的属性必须初始化(静态初始化) 或 采用构造方法constructor的方式*/// export的类在其他位置可以使用/*属性用字段来表示*/// 有三个访问修饰符:private, protected, public// 默认是public// 构造方法,只能写一个,不能写多个/*行为用函数来定义*/show() {/*计算收入*/在主页面文件中使用类@Entry@Componentbuild() {
2024-10-21 18:47:45
676
1
原创 【论文阅读】Scaling Laws for Neural Language Models(2020)- 大模型预训练参数量、数据集大小、计算资源之间的关系验证
大模型效果最大程度的依赖于模型规模的大小,模型的规模指的就是NNNDDDCCC共同确定的,在以上规模达到一定的标准后,模型的超参数如宽度和深度对模型效果的影响较为微弱;大模型效果与NNNDDDCCC三个参数都有着独立的power-law关系;同时增加NNNDDD必然会带来大模型效果的提升,但是如果只提升其中一个变量,就会导致过拟合,性能会发生损失,性能损失的比例为N0.74DN^{0.74}/DN0.74D如:模型参数量每提升8倍时,数据量级需要提升至少5倍。
2024-07-02 20:28:21
1670
1
原创 MAC配置VScode中C++项目debug环境
创建项目文件夹: 在终端中创建一个新的文件夹来存放您的项目,例如project,然后在其中创建一个子文件夹,如helloworld。⇧⌘P操作配置IntelliSense,选择Clang++选项。检查是否安装了Clang,可以通过在终端运行clang --version来验证。确保您已经安装了Visual Studio Code和C++插件。
2024-06-20 22:24:20
839
原创 【NLP笔记】文本向量化
在自然语言处理中,文本向量化(Text Embedding)是很重要的一环,是将文本数据转换成向量表示,包括词、句子、文档级别的文本,深度学习向量表征就是通过算法将数据转换成计算机可处理的数字化形式。
2024-03-15 10:12:54
8095
1
原创 [MAC] Host key for github.com has changed and you have requested strict checking
2. 如果上述步骤报不存在该ip地址的key,可通过删除known_hosts文件。
2023-12-14 23:05:53
894
原创 git报错invalid object xxx和unable to read tree xxxxxx
电脑出问题了,导致git仓库像是被损坏了一样,执行git status就会报错unable to read ree,无法正常提交代码至仓库,原因是本地代码仓库.git文件损坏了,无法找到正确的提交历史和路径。利用线上仓库.git文件修复本地损坏的文件,再进行git status或者commit就正常了。
2023-11-30 11:10:50
2135
1
原创 Linux删除包含特殊字符、文件名过长且数量很多的文件
想删除包含特定文件名称的文件,当文件名过长时也能实现删除的作用。发现爆炸了,满屏幕的文件。
2023-11-29 13:24:20
1061
原创 mac安装lrzsz出错Command failed with exit 128: git
若报错,则需要下载。若存在冲突需要卸载brew重新安装对应的brew;终端检查电脑是否安装了rz和sz。
2023-08-16 13:06:02
846
原创 【论文阅读】基于深度学习的时序预测——LTSF-Linear
而且随着选取的历史窗口长度的增加,误差可能会更大。个人理解:对于简单的平稳的时序数据而言,采用transformer肯定是杀鸡用牛刀,容易过拟合且耗时肯定比线性的要多,但是对于复杂的趋势、季节性、非平稳性数据而言,简单的线性模型应该是学习不到更深入的关系的;对于时序order的问题,相邻时间范围内的数据波动范围相似,所以不一定非要完全学习时序关系,而且transfomer会对关联性较大的部分计算出更大的权重,能够更好地自动提取关注区间,简单的线性肯定不能实现这种复杂依赖关系的提取;
2023-08-11 15:07:12
1637
原创 【论文阅读】基于深度学习的时序预测——Crossformer
多层级Encoder-Decoder:由于上一步会进行two-stage的注意力运算,因此在Decoder中会分别对不同阶段的结果进行解码,模型的输入最开始是细粒度patch,随着层数增加逐渐聚合成更粗粒度的patch。Dimension-Segment-Wise Embedding:对于多维时间序列,应该对每个维度的数据进行单独的数据表征,而不是在每个点位基于所有维度的数据进行数据表征,因此本文针对每个维度的指标进行独立向量化表征(线性转换+位置编码),更好地捕捉单变量的数据信息;
2023-08-11 14:27:47
2218
原创 【论文阅读】基于深度学习的时序预测——Pyraformer
本文是上海交通大学的团队发表的,背景仍然是如何降低计算复杂度&更好地进行长期依赖性关系的表征。
2023-08-11 14:06:51
1302
2
原创 【论文阅读】基于深度学习的时序预测——Non-stationary Transformers
本文还是清华大学THUML实验室的论文,背景是在历史的研究中,大多数时序预测方法都是针对平稳型数据,但是在实际生产过程中,大部分数据其实没有那么强的平稳性,因此本文想针对这种非平稳型的数据进行模型优化;
2023-08-11 13:10:14
1678
原创 【论文阅读】基于深度学习的时序预测——FEDformer
论文地址:github地址:参考解读:快速傅立叶变换:本文是阿里达摩院的一篇文章,也是针对长序列预测的,文章背景有以下几点:整体架构感觉和Autoformer有点类似,但是细节层面上的创新点主要体现在以下几个方面:Xx1...xd]Aa1...am∈Rm∗ddssdxqx∗wQQRY^UdL)UsL)XL1。
2023-08-11 11:01:55
3699
原创 【论文阅读】基于深度学习的时序预测——Autoformer
在本文的Encoder中,更注重关注时序数据的季节性特性,因此保留的数据都是经分解后的季节性数据;在Decoder中,会将分解后的季节性、趋势性时序都作为输入,并且将原始序列的部分数据拼接在初始位置,用于指导后续序列的预测,网络具体运算细节可以参考原文;
2023-08-10 20:25:02
1084
原创 【论文阅读】基于深度学习的时序预测——Informer
这篇文章是北航提出的一篇预测论文,在实际预测过程中,大多数需要基于长期的数据,否则根据短期数据预测出来的结果是不置信的,近年来的研究表明,transformer在时序序列预测上的潜力。
2023-08-10 18:59:51
1550
2
原创 【论文阅读】基于深度学习的时序异常检测——Anomaly Transformer
基于深度学习的异常检测:Anomaly Transformer
2023-08-07 14:27:09
2215
2
原创 MAC系统Anaconda3虚拟环境出错pip is configured with locations that require TLS/SSL
Mac anaconda报错
2022-09-10 01:31:46
374
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人