
machine learning
文章平均质量分 92
Geek-Yan
Get busy living, Or get busy dying.
忙活,或者等死。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Standford 机器学习—第四讲 神经网络的表示
神经网络的表示神经网络的表示 一 神经网络的引入Nonlinear hypothesis 二 神经元与大脑Neurons and Brain 三 神经网络的表示形式 四 怎样用神经网络实现逻辑表达式 五 分类问题 Classification 一、 神经网络的引入—Nonlinear hypothesis我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即: 当特征太多时,计算的负荷会非常原创 2017-03-26 13:25:20 · 569 阅读 · 0 评论 -
Standford 机器学习—第三讲 Logistic Regression 逻辑回归
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning中An原创 2017-03-19 09:40:28 · 396 阅读 · 0 评论 -
Standford 机器学习—第二讲 Linear Regression with multiple variables(多变量线性回归)
Linear Regression with multiple variables – 多变量线性回归 1. 假设函数 hθ(x)=θ0+θ1x1+θ2x2+θ3x3 h\theta(x)=\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_3 模型表示: 参数 含义 n 特征的个数 m 训练集的个数原创 2017-03-18 08:58:12 · 857 阅读 · 0 评论 -
Standford 机器学习—第一讲 Linear Regression with one variable(单变量线性回归)
Linear Regression with one variable(单变量线性回归)Linear Regression with one variable单变量线性回归 什么是线性回归 代价函数 cost function 公式 作用 Gradient Descent 梯度下降算法 Batch gradient descent 批量梯度下降 公式 学习率alpha的大小 对代价函数求导本栏目(M原创 2017-03-11 16:29:07 · 453 阅读 · 0 评论