
【Machine Learning】
xiazdong
ECNU-SEI
展开
-
机器学习入门:Linear Regression与Normal Equation
本文会讲到: (1)另一种线性回归方法:Normal Equation;(2)Gradient Descent与Normal Equation的优缺点;前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下特点:(1)需要预先选定Learning rate;(2)需要多次iteration;(3)需要Feature Scal原创 2012-09-06 11:35:40 · 28605 阅读 · 2 评论 -
机器学习入门:线性回归及梯度下降
本文会讲到:(1)线性回归的定义(2)单变量线性回归(3)cost function:评价线性回归是否拟合训练集的方法(4)梯度下降:解决线性回归的方法之一(5)feature scaling:加快梯度下降执行速度的方法(6)多变量线性回归Linear Regression 注意一句话:多变量线性回归之前必须要Feature Scaling原创 2012-09-06 11:33:10 · 134841 阅读 · 43 评论 -
机器学习入门:机器学习概论
什么是机器学习? 在1959年,Arthur Samuel:不用编程去指定机器做什么,而是让机器有能力自己学习;在1998年,Tom Mitchell:首先定义任务T,经验E,表现P,如果机器有一个任务T,随着经验E的增多,表现P也会变好,则表示机器正在经验E中学习; 以上就是对机器学习的两个定义; 机器学习在生活中也处处可见,比如:(1)在gmail原创 2012-09-06 11:18:02 · 15343 阅读 · 6 评论 -
机器学习实战:单变量线性回归的实现
一、算法实现由前面的理论,我们知道了用梯度下降解决线性回归的公式:梯度下降解决线性回归思路:算法实现:ComputeCost函数:function J = computeCost(X, y, theta) m = length(y); % number of train原创 2012-09-06 11:41:08 · 17482 阅读 · 7 评论 -
机器学习实战:多变量线性回归的实现
多元线性回归其实方法和单变量线性回归差不多,我们这里直接给出算法:computeCostMulti函数function J = computeCostMulti(X, y, theta) m = length(y); % number of training examples J = 0; predictions = X * theta; J = 1/(2*m)*原创 2012-09-06 14:01:34 · 9903 阅读 · 2 评论