matlab
文章平均质量分 54
alphahero
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
决策树 (缺CART算法)
决策树是由一个个“决策”所组成的树,放“决策依据”的是非叶节点。放“决策结果”的是叶子节点ID3算法熵:熵描述数据的不确定度,是随机变量不确定度的度量。熵越大,信息不确定度越大,数据越“混乱”,越不符合决策树分类的需求D是样品集合,Pk是第k类样品所占的比例例如:太阳从升起,必然事件,P=1,则1*log2(1)=0;必然事件熵为0;抛一枚硬币的结果,P1(正面朝上)=P2=1/2;则Ent(D)=-1/2(log2(1/2)+log2(1/2))=1;随机变量越不确定,熵越大。信息增原创 2021-07-29 18:56:00 · 414 阅读 · 0 评论 -
因子分析,聚类分析及判别
因子分析主成分分析通常和聚类、判别、回归分析等方法合用。主成分可以不需要实际意义,公共因子必须要能进行实际解释的。对因子进行命名解释是因子分析的非常重要环节,如果无法对因子作出合乎实际的解释,这个分析只能算是无效的,必须更换条件重新运算。因子分析可以看成主成分分析的推广,它也是多元统计分析中常用的一种降维方式一、因子分析的前提条件:巴特利球度检验;KMO 检验. KMO 值越接近1,意味着变量间的相关性越强,适合做因子分析.(SPSS-分析-降维-因子分析-描述-KMO和Bartlett球形度检原创 2021-07-23 20:50:53 · 5422 阅读 · 0 评论 -
基于spss和matlab对水泥热量值的主成分估计
主成分估计采用的方法是将原来的回归自变量变换到另一组变量,即主成分,选择其中一部分重要的主成分作为新的自变量(此时丢弃了一部分,影响不大的自变量,这实际达到了降维的目的),然后用最小二乘法对选取主成分后的模型参数进行估计,最后再变换回原来的模型求出参数的估计。例:有一组水泥热量值数据:降维:(判断标准很多,但有些是相关性很高的,在相关性高的标准中选一即可,即为降维)Spss软件 分析-降维-因子分析得到初方差解释表,特征值在此处;成分矩阵表中,成分矩阵中的值,除以该成分的特征值的平方根,才得到该原创 2021-07-22 21:44:38 · 936 阅读 · 0 评论 -
matlab下的logistic回归分析
Logistic回归logistic回归主要用来预测离散因变量(分类因变量)与一组解释变量(自变量)之间的关系。最常用的是二分类logistic,即因变量的取值只包含两个类别,例如:“好”和“坏” ;“发生”和“不发生”。那么,因变量常用Y=1(发生)或Y=0(不发生)表示, X则表示自变量。例:企业到金融商业机构贷款,金融商业机构需要对企业进行评估。评估结果为 0 , 1 两种形式,0 表示企业两年后破产,将拒绝贷款,而 1 表示企业 2 年后具备还款能力,可以贷款。在表 6 中,已知前 20 家企业原创 2021-07-21 19:59:49 · 7811 阅读 · 0 评论 -
matlab 碎片复原代码
clc, clear, close alla1=imread('000.bmp');[m,n]=size(a1);dirname = 'ImageChips';files = dir(fullfile(dirname, '*.bmp'));a=zeros(m,n,19);c=zeros(m,n,19);pic=[];for ii = 1:length(files) filename = fullfile(dirname, files(ii).name); a(:,:,ii)=im..原创 2021-07-21 19:25:14 · 592 阅读 · 0 评论
分享