
matlab
文章平均质量分 73
入间同学
相互学习,相互探讨,共同进步!
展开
-
matlab深度学习基本操作,深度学习讲解,源代码分享,用一用改一改随便发篇EI
神经网络工具箱™提供了算法、预训练模型和应用程序来创建、训练、可视化和模拟浅层和深层神经网络。您可以执行分类、回归、聚类、降维、时间序列预测以及动态系统建模和控制。深度学习网络包括卷积神经网络(ConvNets, CNNs)、有向无环图(DAG)网络拓扑,以及用于图像分类、回归和特征学习的自动编码器。对于时间序列分类和回归,工具箱提供了长期短期记忆(LSTM)深度学习网络。您可以可视化中间层和激活,修改网络架构,并监控培训进度。对于小的训练集,您可以通过使用预先训练的深度网络模型(包括Inception原创 2021-07-09 19:20:35 · 3705 阅读 · 2 评论 -
Code Generation for Deep Learning Networks;深度学习神经网络matlab 代码
%% Code Generation for Deep Learning Networks%% This example shows how to perform code generation for an image% classification application that uses deep learning. It uses the |codegen|% command to generate a MEX function that runs prediction by using原创 2021-06-17 21:33:28 · 471 阅读 · 0 评论 -
特征提取之关联维数(GP)matlab代码
%for i=2:8y=ct(:,5);[y,wptDEN] = func_denoise_wp1d(y);x3=y;zs=size(x3,1);%大小确定y=abs(fft(y,zs));%真实的幅值t1=[1:1:zs];%生成序列t2=t1;m=4;hhhh=fix(zs/500)%确定分段系数,分为多少段,每段500个数据;for ih=1:hhhh;n=0;N=0;j=0;i=0;a=0;b=0;pd=0;rr=0;CC=0;%改进的GP算法求关联维数(注:先导入时间序列数原创 2021-06-17 17:02:37 · 4062 阅读 · 3 评论 -
常用数据特征提取,时域特征、频域特征、小波特征提取汇总;特征提取;有效matlab代码
clc;clear%% 导入数据load(‘ct.mat’)Fs=12800;a=[];c=[];w=[];%% 1时域特征提取for i=2:8y=ct(:,i);a(1,i) = max(y); %最大值a(2,i)= min(y); %最小值a(3,i) = mean(y); %平均值ma=a(1,i) ;mi=a(2,i);a(4,i) = ma-mi; %峰-峰值a(5,i) = mean(abs(y)); %绝对值的平均值(整流平均值)a(6,原创 2021-06-17 15:49:56 · 20030 阅读 · 41 评论 -
降噪算法如何评定效果?用标准的方法,科学合理的判定你的降噪算法效果。
本节通过正弦信号、“Doppler”信号、“Blocks”信号说明本方法的有效性,在仿真信号中加入不同的噪声以模拟不同输入信噪比( SNRin) 的含噪信号。降噪效果与目前应用广泛的 EEMD 结合相关系数的降噪方法[11]( 相关系数法) 以及小波软阈值降噪法( 小波阈值法) 进行对比。并采用降噪后的信噪比 ( SNRout) 和均方根误差( root mean square error,RMSE) 作为评价降噪效果的标准,需要强调的是: SNRout值越大说明降噪效果越好; 与之相反 RMSE 值越小说原创 2021-01-03 09:42:52 · 8562 阅读 · 1 评论 -
神经网络显示误差表面的模式关联
显示误差表面的模式关联一个线性神经元的目的是对特定的输入和目标输出做出反应。X定义两个1-元素输入(列向量)。T定义相关的1-元素目标(列向量)。X = [1.0 -1.2];T = [0.5 1.0];w_range = -1:0.1:1;b_range = -1:0.1:1;ES = errsurf(X,T,w_range,b_range,‘purelin’);plotes(w_range,b_range,ES);ERRSURF计算y神经元的误差范围,可能的权重和偏置值。PLOTES将原创 2020-06-11 07:35:48 · 375 阅读 · 0 评论 -
一维及二维自组织神经网络拟合
One-Dimensional Self-organizing Map(线性拟合)2-D层中的神经元可以表示输入向量发生的输入空间的不同区域。此外,相邻的神经元可以对类似的输入进行反应,从而了解所呈现的输入空间的拓扑。下面是一维神经元的建模。例:angles = 0:0.5pi/99:0.5pi;X = [sin(angles); cos(angles)];plot(X(1,:),X(2,:),’+r’)net = selforgmap(10);%建立一个10神经元的自组织竞争神经网络net原创 2020-06-11 07:33:02 · 598 阅读 · 0 评论 -
matlab画图指令bar详解
bar条形图,用法多种多样;y = [75 91 105 123.5 131 150 179 203 226 249 281.5];bar(y)x = 1900:10:2000;y = [75 91 105 123.5 131 150 179 203 226 249 281.5];bar(x,y)y = [75 91 105 123.5 131 150 179 203 226 249 281.5];bar(y,0.4)%占可以使用空间的40%y = [2 2 3; 2 5 6; 2 8原创 2020-06-11 07:28:59 · 7638 阅读 · 0 评论 -
matlab动态建模与预测(磁悬浮)
在这个例子中,我们尝试建立一个神经网络,可以预测磁铁使用控制电流悬浮的动态行为。该系统的特点是磁体的位置和控制电流,这两种方法都决定了磁体在什么时候会在哪里。这是一个时间序列问题的例子,在这里,反馈时间序列(磁位)和外部输入系列(控制电流)的过去值被用来预测反馈系列的未来值。程序及分析:[x,t] = maglev_dataset;%导入数据net = narxnet(1:2,1:2,10);%建立非线性自回归神经网络view(net)%查看神经网络结构两层(即单层)NARX神经网络可以适应原创 2020-06-10 05:40:33 · 1691 阅读 · 1 评论 -
自组织竞争神经网络Gene Expression Analysis
程序如下:load yeastdata.mat%6400个数据,数据集相当大,许多信息对应于在实验中没有显示任何有趣变化的基因。为了更容易地找到有趣的基因,首先要做的是通过去除那些没有任何兴趣的表达资料来减少数据的大小。有6400个表达资料。你可以使用一些技术来将其减少到包含最重要基因的子集。emptySpots = strcmp(‘EMPTY’,genes);% strcmp函数,并从数据集中删除索引命令yeastvalues(emptySpots,:) = [];genes(emptySpot原创 2020-06-10 05:37:48 · 485 阅读 · 0 评论 -
自组织竞争神经网络案例(虹膜花)
自组织竞争神经网络案例(虹膜花)自组织地图(SOMs)非常擅长创建分类。此外,分类还保留了哪些类最类似于其他类的拓扑信息。自组织映射可以用任何需要的细节来创建。它们特别适合于许多维度的聚类数据,以及复杂的形状和连通的特征空间。它们很适合分类识别虹膜花。四个花的属性将作为SOM的输入,它将映射到一个二维的神经元层。程序如下:x = iris_dataset;%首先导入数据;net = selforgmap([8 8]);view(net)selforgmap通过在层的每个维度中选择神经元的数量原创 2020-06-10 05:35:54 · 771 阅读 · 1 评论 -
matlab Neural Network Time Series Tool
Neural Network Time Series Tool训练时仅需要目标数据即可。这种模型可以用来预测股票或债券的未来价值,基于这些经济变量,如失业率、GDP等。它也可以用于系统识别,在这些模型中,模型被开发出来代表动态系统,如化学过程、制造系统、机器人、航天汽车等。首先选择time series App我们可以看到里面有三种类型的神经元模式,第一种可以应用于股票预测,可以在输出中看到他们的表达形式,第一种有输入和输出共同影响输出;第二中仅有输出;第三种仅有输入影响输出。选择第一种进行讲解原创 2020-06-10 05:32:51 · 4495 阅读 · 6 评论 -
Self-Organizing Map(自组织竞争型神经网络)
操作与其他的nnstart App基本一致;点击clustering,next区别,主要是只需要输入;将输入的数据导入后点击next;然后设置神经元个数,next;点击train同样可以生成相应的源代码,不再赘述;主要进行plots分析;SOM simple hitsSOM的默认拓扑是六边形。这个数字显示了拓扑中的神经元位置,并指出了多少训练数据与每个神经元(集群中心)相关联。拓扑是一个10×10的网格,所以有100个神经元。神经元之间的最大碰撞次数是34。因此,在这个集群中有34个输入向量原创 2020-06-10 05:29:43 · 1889 阅读 · 0 评论 -
五分钟实现神经网络GUI模式识别
pattern recognization(模式识别)基本内容与neural network fitting tool一致;选择pattern recognize APP,next,next;导入所需要的数据,在input和output里面,本文使用系统自带案例;点击next,调整参数,直到训练;点击训练,依然相同;主要是nntraintool有所不同confusion绿色区表示正确的参数量和比例,红色区表示错误的参数量和比例,蓝色区表示总和;依然分为training、validation、原创 2020-06-10 05:26:07 · 740 阅读 · 0 评论 -
matlab神经网络训练结果常用评价指标
(1)Regression下面的回归图显示了网络输出对培训、验证和测试集的目标。为了完美的配合,数据应该沿着45度的线下降,网络输出等于目标。对于这个问题,fit对所有数据集都有一定的好处,在每一个情况下,R值在0.93或以上。如果需要更准确的结果,您可以通过在nftools中单击retrain来重新训练网络。这将改变网络的初始权重和偏差,并可能在重新培训后产生一个改进的网络。其他选项在以下窗格中提供。(2)Error histogram蓝色棒代表训练数据,绿色棒代表验证数据,红色条表示测试数据。直方原创 2020-06-10 05:21:10 · 18862 阅读 · 8 评论 -
一分钟了解如何使用matlab如何对函数图进行处理添加标题和坐标标签、线型和线宽设置以及不同坐标尺度一图同列
目标图片如下:%生成解析式,第一幅图x = linspace(0,6,25);y1 = sin(x/3);y2 = sin(x-pi/4);y3=sin(x);%画图figuresubplot(121);%产生两幅图像容纳空间;plot(x,y1,’–go’,x,y2,’:r*’,x,y3,’-.bs’)%画图同时确定线形、颜色和点的形状;legend(‘y = sin(x/3)’,‘y2 = sin(x-pi/4)’,‘y3=sin(x)’)%生成注解title(‘Graph of原创 2020-06-10 05:17:09 · 924 阅读 · 0 评论 -
matlab神经网络Narxnet非线性自回归神经网络
Narxnet:非线性自回归神经网络;用法:narxnet(inputDelays,feedbackDelays,hiddenSizes,trainFcn)inputDelays 输入延时Row vector of increasing 0 or positive delays (default = 1:2)feedbackDelays 输出延时Row vector of increasing 0 or positive delays (default = 1:2)hiddenSizes 隐藏层原创 2020-06-07 01:41:16 · 6585 阅读 · 3 评论 -
我才发现configure指令在matlab神经网络中有着重要的作用!
Configure:配置网络输入和输出,以达到最好的匹配输入和目标数据。使用这个质量可以减少训练次数,减少训练时间。用法:net = configure(net,x,t)net = configure(net,x)net = configure(net,‘inputs’,x,i)net = configure(net,‘outputs’,t,i)例:[x,t] = simplefit_dataset;net = feedforwardnet(20); view(net)%此时没有输入和输出;原创 2020-06-07 01:35:43 · 2342 阅读 · 0 评论 -
matlab神经网络入门不是很简单吗?
matlab神经网络入门不是很简单吗?废话不多说,直接例子。例:x = [0 1 2 3 4 5 6 7 8];t = [0 0.84 0.91 0.14 -0.77 -0.96 -0.28 0.66 0.99];%初始数据输入和输出;plot(x,t,‘o’)net = feedforwardnet(10);%前馈型神经网络net = configure(net,x,t);% 配置网络输入和输出,以达到最好的匹配输入和目标数据.y1 = net(x)plot(x,t,‘o’,x,y1原创 2020-06-07 01:28:27 · 553 阅读 · 0 评论