机器学习
xzccfzy
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
python机器学习算法》学习之路-第二章(Logistic Regression逻辑回归)
Logistic RegressionLogistic Refression 模型是广义线性模型的一种,在分类的问题中,需要找到一条直线(超平面)来分割不同类别的数据。超平面的表示:y=WX+by=WX+by=WX+b其中,W为权重(向量),b为偏置(向量),根据维度的不同,公式可以表示为(y=wx+by=wx+by=wx+b或者y=w1x1+w2x2+......+wnxn+...原创 2019-08-14 12:22:24 · 388 阅读 · 0 评论 -
激活函数 tensorflow sigmoid与Relu对比
激活函数是为了改变神经网络模型的结构,使得神经网络的不是线性的。常见的激活函数:原创 2019-08-22 20:56:34 · 301 阅读 · 0 评论 -
支持向量机 tensorflow线性与非线性(高斯核函数)实现
函数间隔对于给定的训练数据集{(X1,y1),(X2,y2),......,(Xm,ym)}\left \{ (X^{1},y^{1}), (X^{2},y^{2}),......,(X^{m},y^{m})\right \}{(X1,y1),(X2,y2),......,(Xm,ym)}和分隔超平面WX+b=0WX + b = 0WX+b=0,定义分隔超平面关于样本点(Xi,yi)(X...原创 2019-08-27 18:24:40 · 580 阅读 · 0 评论 -
tensorflow iris数据集 线性回归
使用iris(花瓣宽度,花瓣长度)作为数据集。导入必要的库,创建计算图:原创 2019-08-26 19:26:49 · 409 阅读 · 0 评论 -
tensorflow基础
tensorflow 一般流程导入/生成样本数据集转换和归一化数据划分样本数据集为训练样本集,测试样本集,验证样本集设置机器学习参数初始化变量和占位符定义模型结构声明损失函数初始化模型和训练模型评估机器学习模型调优超参数发布/预测结果声明张量tensorflow 的主要数据结构是张量,用张量来操作计算图。在tensorflow创建一个张量,并不会立即在计算图...原创 2019-08-26 17:03:33 · 210 阅读 · 0 评论 -
线性回归 最小二乘法求
回归是另一类重要的监督学习算法。与分类不同的是,回归问题的目标是通过对训练样本的学习,得到从样本特征到样本标签之间的映射,且样本标签是连续值。线性回归的问题中,目标值与特征之间存在线性相关的关系线性回归模型对于线性回归算法,希望从训练数据中学习到线性回归方程,即:$$$$...原创 2019-08-23 14:12:22 · 589 阅读 · 0 评论 -
logistic regression tensorflow实现
logistic regression逻辑回归,属于线性的分类问题,即在给的数据集中,需要找到一条直线将数据集分成两种类别。直线可以表示为y=WXy = WXy=WX,其中,W和XW和XW和X都是向量,那么如何将线段映射到列别上呢,假设有一个函数,输入可以任意数据,但是输出只有两种结果,是不是就满足了需求。这种函数一般为分段函数,但是分段函数计算不方便,有一种函数可以近似的看成分段函数。即...原创 2019-08-22 13:38:14 · 222 阅读 · 0 评论 -
tensorflow全连接网络结构的前向传播算法简单示例
神经元神经元是构成一个神经网络的最小单元。一个神经元有多个输入,一个输出。神经元的输入既可以是其他神经元的输出,也可以是整个神经网络的输入。所谓神经网络的结构指的是不同神经元之间的结构。一个最简单的神经元结构的输出就是左右输入的加权和。而不同输入的权重就是神经元的参数。神经网络的优化过程就是优化神经元中参数取值的过程。神经元的结构如下图:全连接神经网络之所以成为全连接神经网络是因为相邻...原创 2019-08-21 19:43:04 · 286 阅读 · 0 评论 -
决策树
什么是决策树在我的理解来说,我举个例子来简单说一下我理解的决策树。比如说我们走在大街上,有一个人走在我们前面,那么我们如何判断这个人的性别是男还是女呢,每个人都有自己的一个依据,比如说我:我会先判断这个人头发,然后判断身材,然后判断着装;但有的人会先判断着装,在判断其他方面。在这个判断性别的过程中我觉得这就类似决策树。举个书中的例子: 表1——是否用鳃呼吸有...原创 2019-08-16 14:45:52 · 173 阅读 · 0 评论 -
k近邻算法 python实现
k近邻算法(knn)k近邻算法原理:存在一个样本数据集合(训练样本集),并且样本集中的每个数据都存在标签。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据的(最近邻)的分类标签,作为新数据的分类。一般只选取样本集中最相似的前k个数据。k一般是不大于20的整数。优缺点优点:精度高,对异常值不敏感,无数据输入假定。缺点...原创 2019-08-20 16:55:03 · 202 阅读 · 0 评论 -
数据归一化方法
简单缩放公式:xafter=xbefore−xminxmax−xminx_{after} = \frac{x_{before}-x_{min}}{x_{max}-x_{min}}xafter=xmax−xminxbefore−xmin标准差标准化公式:xafter=xbefore−uσx_{after} = \frac{x_{before}-u}{\sigma }xafter...原创 2019-08-20 14:57:12 · 281 阅读 · 0 评论 -
《python机器学习算法》学习之路-第一章(绪论)
机器学习的分类:监督学习:训练数据包含了类别信息。比如垃圾邮件检测中,训练数据中每个样本就包含了邮件的类别信息(垃圾邮件和非垃圾邮件) (1) 典型问题:分类,回归。分类问题中数据的标签值是离散的,回归问题中的标签值是连续的。 (2) 流程: 非监督学习:训练数据中不包含任何类别信息 (1)典型问题:聚类 (2)流程: 半监督学习:训练数据中部分包含类别信息,是监督学习和非监督...原创 2019-08-10 18:40:16 · 150 阅读 · 0 评论 -
softmax regression tensorflow实现 matlablib显示
softmax regression 是在 logistic regression 基础上做的推广,logistic regression只要用于处理二分类问题,二softmax regression用于处理多分类问题softmax regression模型假设有m个训练样本,{(X1,y1),(X2,y2)......(Xm,ym)}\left \{ (X^{1},y^{1}),(X^{...原创 2019-08-14 20:34:53 · 193 阅读 · 0 评论 -
tensorflow 卷积神经网络用到的一些函数
tf.truncated_normal()产生截断正态分布随机数,取值范围为:[ mean - 2 * stddev, mean + 2 * stddev ]truncated_normal(shape, # 张量的维度mean=0.0, # 均值stddev=1.0, # 标准差dtype=tf.float32, # 数据类型seed=None, # 随机种子name=Non...原创 2019-08-29 18:26:34 · 180 阅读 · 0 评论
分享