
斯坦福机器学习笔记
文章平均质量分 64
tiweeny
这个作者很懒,什么都没留下…
展开
-
斯坦福大学机器学习“正则化(Regularization)”
斯坦福大学机器学习第七课"正则化“学习笔记,本次课程主要包括4部分:1) The Problem of Overfitting(过拟合问题)2) Cost Function(成本函数)3) Regularized Linear Regression(线性回归的正则化)4) Regularized Logistic Regression(逻辑回归的正则化)转载 2017-07-10 18:21:28 · 1187 阅读 · 0 评论 -
斯坦福大学机器学习“逻辑回归(Logistic Regression)”
斯坦福大学机器学习第六课"逻辑回归“学习笔记,本次课程主要包括7部分:1) Classification(分类)2) Hypothesis Representation3) Decision boundary(决策边界)4) Cost function(代价函数,成本函数)5) Simplified cost function and gradient de转载 2017-07-05 12:07:38 · 350 阅读 · 0 评论 -
斯坦福机器学习课程目录
Week 1IntroductionSupervised LearningUnsupervised LearningLinear Regression with One VariableModel and Cost FunctionModel RepresentationCost FunctionParameter LearningGradient DescentGradient Descent f原创 2017-06-26 07:56:44 · 517 阅读 · 0 评论 -
Coursera解决无法播放视频问题
打开文件C:\Windows\System32\drivers\etc\hosts添加内容52.84.246.72 d3c33hcgiwev3.cloudfront.net打开cmd,输入ipconfig/flushdns。刷新dns即可原创 2017-07-04 20:03:11 · 635 阅读 · 0 评论 -
斯坦福大学机器学习笔记--第二周(1.多元线性回归及多元线性回归的梯度下降)
一.Multivariate Linear regression(多元线性回归)现在起将开始介绍一种新的更为有效的线性回归形式。这种形式适用于多个变量或者多特征量的情况。在之前学习过的线性回归中,都是只有一个单一的特征量--房屋面积 x,如图1-1所示,图1-1我们希望用房屋面积这个特征量来预测房子的价格。但是想象一下如果我们不仅有房屋面积作为预测房屋价格的特征量,我们还知转载 2017-06-25 17:45:13 · 340 阅读 · 1 评论 -
斯坦福大学机器学习笔记--第一周(5.线性回归的梯度下降)
一.Gradient Descent For Linear Regression(线性回归的梯度下降)在前面我们谈到了梯度下降算法是很常用的算法,经常被用在线性回归模型、平方误差代价函数上。在这一部分,我们要将梯度下降算法和代价函数结合。往后我们还将用到此算法,并将其应用于具体的拟合直线的线性回归算法里。图1-1是我们之前学过的一些知识, 图1-1左边的转载 2017-06-24 23:27:24 · 490 阅读 · 0 评论 -
Machine Learning(Stanford)| 斯坦福大学机器学习笔记--第一周(4.梯度下降)
一.Gradient Descent(梯度下降)之前已经定义了代价函数J,为了最小化代价函数,接下来将介绍梯度下降(Gradient Descent)这种算法。梯度下降是很常用的算法,它不仅被用在线性回归上,实际上也被广泛的应用于机器学习领域中的众多领域。为了解决其他线性回归问题,我们也将使用梯度下降法最小化其他函数,而不仅仅是只用在本节课的代价函数J。下面是问题概述,首先看图1-1,转载 2017-06-24 23:22:12 · 428 阅读 · 0 评论 -
Machine Learning(Stanford)| 斯坦福大学机器学习笔记--第一周(3.代价函数直观理解)
一.Cost Function-Intuition(代价函数直观理解)在前面我们给了代价函数一个数学上的定义,在这部分,让我们通过一些例子来获取一些直观的理解,看看代价函数到底是在干什么。回顾一下,如图1-1所示图1-1这是前面所讲过的内容,我们想找一条直线来拟合我们的数据,所以我们用θ0,θ1等参数得到了这个假设hθ(x)=θ0+θ1*x,而且通过选择不同的参数,我们会得到不同的转载 2017-06-24 23:09:43 · 486 阅读 · 0 评论 -
机器学习入门:线性回归及梯度下降
本文会讲到:(1)线性回归的定义(2)单变量线性回归(3)cost function:评价线性回归是否拟合训练集的方法(4)梯度下降:解决线性回归的方法之一(5)feature scaling:加快梯度下降执行速度的方法(6)多变量线性回归Linear Regression 注意一句话:多变量线性回归之前必须要Feature S转载 2017-06-24 09:41:50 · 293 阅读 · 0 评论 -
斯坦福大学机器学习“神经网络的表示(Neural Networks: Representation)”
斯坦福大学机器学习第八课“神经网络的表示(Neural Networks: Representation)”学习笔记,本次课程主要包括7部分:1) Non-linear hypotheses (非线性hypotheses)2) Neurons and the brain (神经元和大脑)3) Model representation I (模型表示一)4)转载 2017-07-13 11:43:36 · 464 阅读 · 0 评论 -
Logistic Regression WEEK3编程作业
这是Coursera上 Week3 的 “逻辑回归” 的编程作业代码。经过测验,全部通过。下面是 sigmoid.m 的代码:function g = sigmoid(z)%SIGMOID Compute sigmoid functoon% J = SIGMOID(z) computes the sigmoid of z.% You need to return the原创 2017-07-13 09:48:44 · 539 阅读 · 0 评论 -
Linear Regression WEEK2编程作业
1 InitIn the fi le warmUpExercise.m, you will find the outline of an Octave/MATLAB function. Modify it to return a 5x5 identity matrix by lling in the following code:A = eye(5);112.1 Plottin原创 2017-07-02 18:26:15 · 446 阅读 · 0 评论 -
斯坦福大学机器学习“神经网络的学习(Neural Networks: Learning)”
斯坦福大学机器学习斯坦福大学机器学习第九课“神经网络的学习(Neural Networks: Learning)”学习笔记,本次课程主要包括8部分:1) Cost function(代价函数)2) Backpropagation algorithm(BP算法 or 反向传播算法)3) Backpropagation intuition(BP算法的直观解释)4) Im转载 2017-07-15 11:41:56 · 1115 阅读 · 1 评论