Stanford cs231n 学习笔记(1)Linear Model

本文深入探讨了非参数化学习与参数化学习两种机器学习方法的区别。非参数化学习如KNN依赖于训练集中的数据样本,而参数化学习则关注模型参数的优化,如线性分类器。文章还解释了线性分类器的两种视角:模板匹配和特征空间划分。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

##非参数化学习(数据驱动型学习)和参数化学习

###数据驱动型学习

整个学习算法依赖的是训练集中的数据样本。典型代表:KNN。即通过对比带预测样本与训练集中的样本的“距离”或者某种度量,来实现分类的功能。在这种算法中,每次的样本预测是依赖和训练集中样本的比对得到的,可以理解为并没有一个真正的模型,而是纯粹地依赖训练集中的数据样本。

###参数化学习

关注的是模型的参数,即以模型的参数作为优化的目标。通过学习优化得到最终参数后,即可通过参数去表示整个模型;这对于在一些低功耗的设备上完成相关的预测算法的运算是很有帮助的:因为只需要传递一个所学习到的参数就可以实现一个模型的表示,就可以对输入的待预测样本完成预测。

线性模型表示为表示输入样本的向量与一个矩阵进行运算并加上bias。y^~ = W^T*x^~+b^~

矩阵运算为线性运算。所以线性模型与矩阵运算联系在一起。而线性分类器即通过学习得到的线性模型。

-对于线性分类器有两种视角

view1:

矩阵W的每一行即表示一类的template。所以线性分类器实际上在做的就是一个模版匹配的过程(CS231N_Lecture3中有进一步的解读。)但是在线性分类器中,每一个类别只能拥有一个模版。在之后的更复杂的模型中,包括Neural Network中不再有这个限制。

view2:

从特征空间的角度出发,线性分类器相当于在划分样本的边界,即从划分边界的角度去看待这个分类器。

内容概要:本文档详细介绍了一个基于MATLAB实现的跨尺度注意力机制(CSA)结合Transformer编码器的多变量时间序列预测项目。项目旨在精准捕捉多尺度时间序列特征,提升多变量时间序列的预测性能,降低模型计算复杂度与训练时间,增强模型的解释性和可视化能力。通过跨尺度注意力机制,模型可以同时捕获局部细节和全局趋势,显著提升预测精度和泛化能力。文档还探讨了项目面临的挑战,如多尺度特征融合、多变量复杂依赖关系、计算资源瓶颈等问题,并提出了相应的解决方案。此外,项目模型架构包括跨尺度注意力机制模块、Transformer编码器层和输出预测层,文档最后提供了部分MATLAB代码示例。 适合人群:具备一定编程基础,尤其是熟悉MATLAB和深度学习的科研人员、工程师和研究生。 使用场景及目标:①需要处理多变量、多尺度时间序列数据的研究和应用场景,如金融市场分析、气象预测、工业设备监控、交通流量预测等;②希望深入了解跨尺度注意力机制和Transformer编码器在时间序列预测中的应用;③希望通过MATLAB实现高效的多变量时间序列预测模型,提升预测精度和模型解释性。 其他说明:此项目不仅提供了一种新的技术路径来处理复杂的时间序列数据,还推动了多领域多变量时间序列应用的创新。文档中的代码示例和详细的模型描述有助于读者快速理解和复现该项目,促进学术和技术交流。建议读者在实践中结合自己的数据集进行调试和优化,以达到最佳的预测效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值