
机器学习
文章平均质量分 93
苹果多酚
这个作者很懒,什么都没留下…
展开
-
手把手教你用keras完成第一个深度学习项目
手把手教你用keras完成第一个深度学习项目导入数据定义Keras模型编译Keras模型训练Keras模型评估Keras模型进行预测Keras是一个用于开发和评估深度学习模型的强大又便捷的免费开源 Python 库。它封装了高效的数值计算库 Theano 和 TensorFlow,使用户只需几行代码即可定义和训练神经网络模型。下面将通过Pima二分类问题,手把手教你如何使用keras进行深度学习实战。具体步骤包括导入数据定义Keras模型编译Keras模型训练Keras模型评估Keras模型翻译 2021-10-26 15:40:27 · 633 阅读 · 0 评论 -
k-means方法解决二类聚类问题的matlab实现
代码采用鸢尾花数据集的第3,4个属性的数据,实现基于k-means方法的聚类(类别数k=2)这里的初始类别中心是随机生成的,此步骤可优化,详见https://www.cnblogs.com/dudumiaomiao/p/5839905.htmlload fisheriris x=meas;%读取鸢尾花数据集 x1=x(:,3); x2=x(:,4); scatter(x1,x2);%从散点图可以看出明显地分为两类 minx=min(x1); miny=min(x2); maxx=max(x原创 2020-08-30 11:56:27 · 1381 阅读 · 0 评论 -
bp神经网络解决iris分类问题
本文参考吴恩达教授2010年机器学习课程中bp神经网络的实现思路。代价函数误差项计算反向传播伪代码理解反向传播在此基础上采用梯度下降法等优化算法即可实现神经网络参数估计。下面给出matlab解决鸢尾花分类问题的代码。神经网络参数预测function [ w1,w2] = NN( x, y, lamda,units, alpha )% 实现一个包含一个隐含层,隐含层中非偏置单元数为units的bp神经网络,用于分类问题% 激活函数采用sigmoid% lamda为正则率(学习率),原创 2020-06-17 10:23:10 · 3066 阅读 · 0 评论 -
朴素贝叶斯多分类问题matlab实现
本文采用多项式模型实现朴素贝叶斯在多分类问题中的解决,适用于特征变量(x)为离散的情况。相关理论推导可参见博客https://blog.youkuaiyun.com/u012162613/article/details/48323777模型参数计算function [p_yk,p_yk_xi,class_num_x,class_num ] = Naive_Bayesian(x, y)% 多项式朴素贝叶斯分类器的实现m=size(x,1);%记录样本总数n=size(x,2);%记录特征数alpha=1;原创 2020-06-12 15:23:04 · 2121 阅读 · 0 评论 -
高斯判别分析matlab实现
本文基于博客https://blog.youkuaiyun.com/kwame211/article/details/81530766一文,将其改为matlab上的实现。高斯判别分析的推导过程可参见https://zhuanlan.zhihu.com/p/38269530一文。函数1:GDA参数求解// GDA参数求解function [ fi, u_pos, u_neg, sigma ] = GDA( x,y )% 高斯判别分析模型的参数估计% x为样本特征,y为样本类别m=size(x,1);% 记录样原创 2020-06-10 20:17:24 · 922 阅读 · 1 评论 -
softmax求解多分类问题的matlab实现
本文参考博主_SherryAnna的博客:https://blog.youkuaiyun.com/zsdust/article/details/79677894并给出其在matlab上的实现:function [ theta, accuracy] = mysoftmax( x,y,k, alpha )% 梯度下降法实现softmax多分类% k为类别数% 训练集占比为a,测试集占比1-aa=0.2;%训练集占比xx=[ones(size(x,1),1),x];%将x前加入一列x0%对y进行处理yy原创 2020-06-08 21:38:15 · 3830 阅读 · 6 评论 -
梯度下降法求解线性回归问题的matlab实现
本文主要给出批梯度下降法(BGD)与随机梯度下降法(SGD)的matlab实现,关于BGD与SGD的理论,可参考下文:https://www.cnblogs.com/pinard/p/5970503.html批梯度下降法(BGD)// 批梯度下降法(BGD)function [ theta,loss ] = BGD( x, y, alpha )%批梯度下降m=size(x,1);%记录样本总数n=size(x,2);%记录样本特征数xx=[ones(m,1),x];%将x前加入一列全1向量x原创 2020-06-04 10:29:41 · 1819 阅读 · 0 评论