
机器学习算法代码实现
机器学习算法的python手写实现
啥都不会可咋整
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
吴恩达机器学习作业--多分类Logistic回归
正则化逻辑回归1、什么是正则化???尽可能保留所有特征值减小除零次项以外所有参数,假设参数索引从0开始,那么即减少θj(j≥1)\theta _j(j \geq 1)θj(j≥1)的大小通过增加损失函数中一个惩罚,正则化损失函数公式如下:J(θ)=1m∑i=1m[−y(i)log(hθ(x(i)))−(1−y(i))log(1−hθ(x(i)))]+λ2m∑j=1nθj2J...原创 2020-02-04 19:43:58 · 501 阅读 · 0 评论 -
吴恩达机器学习作业python实现--Logistic回归
Logistic回归–未正则化(深度之眼学习笔记)回归中用到的公式列举如下:sigmoid 函数用线性回归解决分类问题是不妥的,因此需要对其做一个转化,令:hθ(x)=g(θTX)h_\theta (x)=g(\theta^TX)hθ(x)=g(θTX)g 代表一个常用的逻辑函数(logistic function)为S形函数(Sigmoid function),公式为:g(z)=11...原创 2020-02-04 13:01:44 · 317 阅读 · 0 评论 -
吴恩达机器学习作业python实现--单变量线性回归
线性回归(深度之眼学习笔记)1、单变量线性回归代价函数import numpy as npimport pandas as pdimport matplotlib.pyplot as pltimport randompath = 'ex1data1.txt'data = pd.read_csv(path, header=None, names=['Population', 'Pro...原创 2020-01-22 18:48:23 · 458 阅读 · 0 评论 -
吴恩达机器学习作业python实现--多变量线性回归
多变量线性回归(深度之眼学习笔记)代价函数J(θ)=12m∑i=1m(hθ(x(i))−y(i))2J\left( \theta \right)=\frac{1}{2m}\sum\limits_{i=1}^{m}{{{\left( {{h}_{\theta }}\left( {{x}^{(i)}} \right)-{{y}^{(i)}} \right)}^{2}}}J(θ)=2m1i=1∑...原创 2020-01-23 17:15:18 · 863 阅读 · 1 评论