- 博客(42)
- 资源 (13)
- 收藏
- 关注
原创 VMamba--导入selective_scan_cuda_oflex报错_ZNSt15__exception_ptr13exception_ptr9_M_addrefEv
代码从https://github.com/MzeroMiko/VMamba处下载,先说环境:在上面这个配置下安装Vmamba的kernels/selective_scan显示正常,但是在import selective_scan_cuda_oflex报错,安装selective_scan_cuda未报错,报错情况如下:解决办法主要有两个,第一个是改变torch版本,从torch=2.3.0重新安装torch=2.0.0即可运行import selective_scan_cuda_oflex。下载 路径为:
2024-07-11 00:10:24
4329
1
原创 递归方程时间复杂度分析
到这里所有有关递归算法的简单分析都已经结束了,针对一个递归问题,首先可以将其使用数学递推式表示出来,根据后缀项的情况进行分类讨论,可以分为倍积、倍积常数和其它。当dnd(n)dn是倍积项时,不需要进行计算,直接使用定理即可,通过简单的比较a与dca与d(c)a与dc的大小关系来确定最终TnT(n)Tn的时间复杂度。当adca>d(c)adc时,特解与齐次解同阶;当adca = d(c)adc时,特解是齐次解的logcnlog_cnlo。
2023-07-09 00:41:10
745
原创 机器学习笔记_关于贝叶斯分类中特征是连续属性的处理
前言机器学习笔记-朴素贝叶斯分类这篇文章中已经对朴素贝叶斯分类器做了详细的介绍,从原理,模型和例题各方面介绍了朴素贝叶斯。但是那篇文章中针对的全部都是离散属性,并没有说明如何处理连续属性。本文给出贝叶斯分类处理连续属性的方法。连续特征 连续属性,即连续的数值,且数值之间存在顺序关系,即1,2,3等等,这种属性称为连续属性,在常规的机器学习任务中,连续属性要比离散属性更好处理,例如在GBDT中,对类别属性处理起来非常麻烦,因为梯度提升树是基于顺序切割最优点的,所以不适合类别数据。这里有个很容易弄混的
2022-03-27 10:47:59
3646
1
原创 机器学习笔记-最大熵模型
最大熵 在学习最大熵模型前,我们需要知道熵是什么,在前面决策树那一节,我们介绍了决策树在选择特征时所采用的三种策略:信息增益、信息增益比和基尼指数,其中信息增益和信息增益比都是基于熵计算的,在那里介绍了熵是表示随机变量不确定性的度量,如果设随机变量XXX的概率分布为:P(X=xi)=pi, i=1,2,⋯ ,nP(X=x_i)=p_i,\,\,\,\,\,i=1,2,\cdots,nP(X=xi)=pi,i=1,2,⋯,n则随机变量XXX的熵定义为:H(X)=−∑i=1npilogp
2022-03-26 19:27:57
1591
原创 机器学习笔记-朴素贝叶斯分类
前言 前面一段时间整理了很多关于树模型的文章,而接下来的篇章,主要是介绍关于概率模型的知识。 在这章中,将会出现各种各样新的名词,例如朴素贝叶斯、贝叶斯估计、极大似然估计等等,这些都是概率模型最基本的知识点,也是重中之重的基础部分。深入理解朴素贝叶斯 将朴素贝叶斯拆解为两个不相关的名词:朴素 和 贝叶斯。为了更好的理解这两个概念,我们先来了解一些概率论的基础知识。1.贝叶斯定理 朴素贝叶斯是基于贝叶斯定理提出的,那么贝叶斯定理又是由什么组成的呢? 为了解决这个问题,我们先了解几个专业
2022-03-26 00:15:11
444
原创 机器学习笔记-有关ReLU非线性的理解
如果单独看一个ReLU激活函数,那它就是线性的,但是这种激活函数在多层的神经网络中却是非线性的。在简单的三层神经网络中,我们一般使用Sigmoid函数或者Tanh函数作为激活函数,这是因为当神经网络的层数较少时,少量的ReLU训练出来的网络拟合能力可能并没有Sigmoid函数好。但是在深度神经网络中,网络层的层数高达数百数千层,在这么多层的情况下再去使用Sigmoid函数作为激活函数就会大大减慢运行速率,并且还可能存在梯度消失的情况,所以在深度神经网络中使用ReLU函数要比Sigmoid函数好。至于为什么
2022-03-10 15:57:13
2567
原创 机器学习笔记-激活函数关于零点对称问题
前言 激活函数值域关于零对称的问题在激活函数那篇文章中未详细介绍,在那里说到,当激活函数的值域不关于0点对称,会导致梯度下降的速度下降,关于这一点,过去我只是将其记下,却并未理解背后的原因。此篇谈谈背后的原因。要探讨为什么Sigmoid函数会影响学习效率这个问题,需要找到影响梯度的因素。权重更新 深度学习一般的学习方法是反向传播,简单来说,就是通过链式法则,求解全局损失函数LLL对某一参数www的偏导数,而后乘以学习率,向梯度的反方向更新参数www,更新公式可以表示为:w<−w−η⋅∂L
2022-03-09 15:51:18
1143
原创 机器学习笔记-激活函数
前言本文是对升级网络中常见的激活函数的一个总结,我们会介绍各种激活函数的基本形式和优缺点等。什么是激活函数激活函数可以说是神经网络的基础,假设默认你已经了解过神经网络的基础结构,那么...
2022-03-09 14:50:38
2933
原创 层次分析法速成
层次分析法详细的原理部分参考这篇文章:层次分析法原理一般在做题时,我们在得到打分矩阵后需要进行层次分析法,下面总结了平时遇到的代码:% X为打分矩阵[~,n] = size(X);[V,D] = eig(X);Max_eig = max(max(D));[r,c]=find(D == Max_eig , 1); disp('特征值法求权重的结果为:');disp( V(:,c) ./ sum(V(:,c)) )% % % % % % % % % % % % %下面是计算一致性比例CR的环
2022-03-07 23:10:27
182
原创 最小生成树
Kruskal算法在离散数学中接触到图论,学到了最小生成树算法,图GGG的生成树中其权之和为最小的生成树叫做最小生成树。而且了解到一个寻找最小生成树的算法:KruskalKruskalKruskal算法,中文叫做克鲁斯克尔算法。下面是该算法的原理:在连通(n,m)(n,m)(n,m)图GGG中将所有mmm个边按权值大小,从小到大顺序放入专用表内,此时GGG中只剩下nnn个结点,选最小权的边e1e_1e1至GGG,令i=1i=1i=1;当i=n−1i=n-1i=n−1时结束,否则转(3);已选e
2022-03-06 18:38:04
341
原创 机器学习笔记-时间序列基础知识
前言 本章不会对时间序列所有的内容进行一个全方位的介绍,只会简单的整理部分时间序列的基础知识点。时间序列的成分时间序列:按时间顺序记录的一组数据,称为时间序列 而一条时间序列通常可以分解为下面四个部分:趋势、季节波动、循环波动、不规则波动,又可以将上述的三个部分称作为:趋势性、季节性、周期性和随机波动性。组合这四种成分的方式主要有两种:乘法模型和加法模型。乘法模型:Yt=Tt×St×Ct×ItY_t=T_t×S_t×C_t×I_tYt=Tt×St×Ct×It加法模型:Yt=Tt+
2022-03-05 17:16:03
1266
原创 机器学习笔记-相关与回归分析
前言相关与回归分析是分析变量之间关系的统计方法,本章只介绍简单的相关分析和一元线性回归。变量间关系的度量变量之间存在的不确定的数量关系,称为相关关系即当给定一个自变量xxx,其对应的因变量yyy值可能有好几个,这种关系不确定的变量显然不能用函数关系来描述,但也不是没有规律可循,相关分析就是分析这类数据的方法。相关系数相关系数是反映两个数值变量之间关系的指标。对于数值变量xxx和yyy,我们可以通过散点图来判断两个变量之间是否有相关关系,并对这种关系进行大致的描述,但是没法给出定量的描述,因此需
2022-03-04 16:51:56
5292
原创 机器学习笔记-假设检验
前言假设检验是推断统计的一项重要内容,它是先对总体参数提出一个假设值,然后利用样本信息来判断这个假设是否成立。本章主要介绍了假设检验的基本原理和如何针对不同的数据集选择合适的检验方法。假设检验的基本原理基本概念假设检验先对总体参数提出某种假设,然后利用样本信息来判断假设是否成立的统计方法,称为假设检验假设一般包含两种假设:原假设和备择假设。研究者想搜集证据和资料来推翻的假设称为原假设,用H0H_0H0,而备择假设是研究者心里面所支持的假设,通常用H1H_1H1表示。而假设检验的第一步,就是明
2022-03-03 13:01:46
2553
原创 机器学习笔记-数据的图表展示
统计图表类别数据条形图:条形图是用宽度相同的条形来展示各类频数的图形;帕累托图:帕累托图将各类别数据出现的频数按从大到小排序后绘制的条形图;饼图:饼图是用圆形及园内扇形的角度来表示一个样本(或总体)中各类别的频数占总频数数比例大小的图形;环形图:环形图可以显示多个样本各类别频数占其相应总频数的比例;数值数据直方图:直方图是用来展示数值数据分布的一种常用图形;箱型图:用来反映一组数据的分布;其它图形散点图:用二维坐标中两个变量各取值点的分布展示变量之间的关系图形;气泡图:气泡图
2022-03-02 13:48:13
1035
原创 机器学习笔记-层次聚类
前言 层次聚类和K-means聚类以及DBSCAN聚类又截然不同。层次聚类的核心思想是试图在不同层次对数据集进行划分,形成树形的结构。本章主要介绍层次聚类的思想,算法具体步骤和Matlab编程实践。算法原理 层次聚类有两种思路:自底向上和自顶向下,这两种思路带来的是两种不同的算法。本文主要介绍AGNES(自底向上)。 自底向上如果从树状图中看,就是从树的最底端不断向上搜索。先将数据集中的每个样本看作一个初始聚类簇(如果有NNN个样本点,则初始时有NNN个簇),然后在算法运行的每一步中找到距离最
2022-03-01 16:21:29
1480
原创 机器学习笔记-密度聚类_DBSCAN
密度聚类:DBSCAN 前面一节介绍了K-means聚类算法,但是K-means算法不能解决非球形的簇和不同大小的,比如说下面这种情况 如果使用K-means来对上述样本进行聚类,那么肯定没法运行,因为笑脸的外围轮廓是圆形,如果使用K-means算法这一圈一定不会聚类成一类。如果遇到这种情况,就需要引入一个新的算法:密度聚类 密度聚类顾名思义就是基于密度的聚类,在了解密度聚类前,我们需要先明白一些定义。给定数据集D={x1,x2,⋯ ,xm}D = \{x_1,x_2,\cdots,x_m
2022-02-28 19:36:03
763
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人