
机器学习笔记
Tiiktak
这个作者很懒,什么都没留下…
展开
-
多变量线性回归
多变量梯度下降与单变量线性回归类似,在多变量线性回归中,我们也构建一个代价函数,则这个代价函数是所有建模误差的平方和,即:其中:我们的目标和单变量线性回归问题中一样,是要找出使得代价函数最小的一系列参数。 多变量线性回归的批量梯度下降算法为:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-X8w3rqUS-1583408307734)(https://i....原创 2020-03-05 19:41:30 · 693 阅读 · 0 评论 -
【应用机器学习】评估一个假设
检验是否过拟合将数据分成训练集和测试集通常用70%的数据作为训练集,用剩下30%的数据作为测试集。很重要的一点是训练集和测试集均要含有各种类型的数据,通常我们要对数据进行洗牌,然后再分成训练集和测试集。使用训练集对模型进行训练可以得到一系列参数 theta使用测试集对模型进行测试使用测试集数据对模型进行测试,有两种方式计算误差线性回归模型利用测试集数据计算代价函数J逻辑回归...原创 2020-02-07 01:21:34 · 300 阅读 · 1 评论 -
训练神经网络的基本步骤
1. 选择一种网络结构即选择神经元之间的连通模式输入层与输出层单元个数由具体特征决定隐藏层通常默认为1层;若为多层,则每个隐藏层单元个数应相等。通常隐藏层单元数越多越好隐藏层单元数应与输入特征数相匹配2. 随机初始化权重通常把权重值初始化为接近0的很小的数3. 执行前向传播FP算法获得对应于每一个 xi 的 h_theta(xi)4. 通过代码计算出代价函数 ...原创 2020-02-07 01:19:46 · 8256 阅读 · 0 评论 -
【应用机器学习】模型选择和训练、验证、测试集
1. 重新划分数据集其中60%作为训练集,20%作为交叉验证集(cross validation),20%作为测试集2. 可以计算出三类数据的误差函数3. 使用交叉验证集选择模型选出交叉验证误差最小的一个模型4. 利用测试集计算出推广误差...原创 2020-02-07 01:17:35 · 552 阅读 · 0 评论 -
逻辑回归 Logistic Regression
分类问题在分类问题中,我们需要预测的变量y是离散的值,我们将学习一种叫做逻辑回归 (Logistic Regression) 的算法在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。将因变量(dependent variable)可能属于的两个类分别称为负向类(negative class)和正向类(positive class),则因变量y ∈ 0,1 ,其中 0 表...转载 2020-01-13 16:54:13 · 482 阅读 · 0 评论 -
分类(classification)与回归(regression)的区别与关系
我的博客: konosuba.xyz分类与回归是监督学习中的两个主要任务,它们即对应了监督学习中“学习”的部分分类模型与回归模型的本质其实一样。分类模型可将回归模型的输出离散化,回归模型也可将分类模型的输出连续化例如:Linear Recognition 线性回归使用 y = wx + b 的形式,y就是模型的输出,是一个连续值,所以可以用于处理回归问题Logistic Reco...原创 2020-01-07 20:42:24 · 3119 阅读 · 0 评论 -
单变量线性回归
线性回归线性回归是解决回归问题最基本的一个方法。其实质就是找到一条直线能尽可能多的使已知的离散值分布在其周围(二维坐标系中)就像这样:或者是在三维坐标中,找到一个面来逼近在这里我们只讨论最简单的单变量线性回归单变量线性回归单变量线性回归问题只含有一个特征(输入变量),因此可以把目标直线表达式写为:h(x) = y = wx + b其中, x代表特征/输入变量,h代表目标变量/输...原创 2020-01-07 20:40:39 · 299 阅读 · 0 评论