
【Machine Learning】
xiazdong
ECNU-SEI
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习入门:Linear Regression与Normal Equation
本文会讲到: (1)另一种线性回归方法:Normal Equation; (2)Gradient Descent与Normal Equation的优缺点; 前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下特点: (1)需要预先选定Learning rate; (2)需要多次iteration; (3)需要Feature Scal原创 2012-09-06 11:35:40 · 28630 阅读 · 2 评论 -
机器学习入门:线性回归及梯度下降
本文会讲到: (1)线性回归的定义 (2)单变量线性回归 (3)cost function:评价线性回归是否拟合训练集的方法 (4)梯度下降:解决线性回归的方法之一 (5)feature scaling:加快梯度下降执行速度的方法 (6)多变量线性回归 Linear Regression 注意一句话:多变量线性回归之前必须要Feature Scaling原创 2012-09-06 11:33:10 · 134984 阅读 · 43 评论 -
机器学习入门:机器学习概论
什么是机器学习? 在1959年,Arthur Samuel:不用编程去指定机器做什么,而是让机器有能力自己学习; 在1998年,Tom Mitchell:首先定义任务T,经验E,表现P,如果机器有一个任务T,随着经验E的增多,表现P也会变好,则表示机器正在经验E中学习; 以上就是对机器学习的两个定义; 机器学习在生活中也处处可见,比如: (1)在gmail原创 2012-09-06 11:18:02 · 15373 阅读 · 6 评论 -
机器学习实战:单变量线性回归的实现
一、算法实现 由前面的理论,我们知道了用梯度下降解决线性回归的公式: 梯度下降解决线性回归思路: 算法实现: ComputeCost函数: function J = computeCost(X, y, theta) m = length(y); % number of train原创 2012-09-06 11:41:08 · 17513 阅读 · 7 评论 -
机器学习实战:多变量线性回归的实现
多元线性回归其实方法和单变量线性回归差不多,我们这里直接给出算法: computeCostMulti函数 function J = computeCostMulti(X, y, theta) m = length(y); % number of training examples J = 0; predictions = X * theta; J = 1/(2*m)*原创 2012-09-06 14:01:34 · 9929 阅读 · 2 评论