
吴恩达机器学习
机器学习笔记
菜鸡沈
这个作者很懒,什么都没留下…
展开
-
【吴恩达系列】machine learning课程补充----反向传播-优化算法+参数分析(L2正则/参数共享)
补充反向传播的优化算法1.4. 参考资料反向传播的优化算法1.参数更新在通过整个神经网络的一次正向过程之后,输出就是一个预测值 y^\hat{y}y^。可以计算损失函数 LLL,这个案例中我们使用对数损失函数(log loss):L(y^,y)=[−ylog(y^)−(1−y)log(1−y^)] L(\hat{y},y)=[-y\log(\hat{y})-(1-y)\log(1-\hat{y})]L(y^,y)=[−ylog(y^)−(1−y)log(1−y^)] 对任意的一个原创 2020-05-19 01:34:38 · 727 阅读 · 0 评论 -
【吴恩达系列】machine learning课程week4/5----神经网络
Week4:神经网络1. 非线性回归的困境2. 神经网络的模型表示3. 前向传播和反向传播3.1 前向传播过程(Forward Propagation)3.2 代价函数3.3 反向传播过程(Back Propagation)3.4 神经网络的训练过程3.5 编程算法实现3.5.1 参数展开(Unrolling Parameters)3.5.2 梯度校验(Gradient Checking)3.5.3 权值初始化3.6 前向传播的应用3.6.1 逻辑运算3.6.1 多元分类4. 神经网络使用步骤总结5. 代码原创 2020-05-17 01:06:03 · 873 阅读 · 0 评论 -
【吴恩达系列】machine learning课程week3----正则化
Week3:正则化1. 欠拟合(under fitting)和过拟合(over fitting)2 解决过拟合问题2.1 通常情况2.2 正则化costFunction和正则化参数λ\lambdaλ2.3 正则化线性回归2.3.1 梯度下降法2.3.2 正规方程法2.3 正则化逻辑回归3. 代码3.1 Python代码3.2 Matlab代码4. 参考资料正则化1. 欠拟合(under fit...原创 2020-05-06 19:54:55 · 200 阅读 · 0 评论 -
【吴恩达系列】machine learning课程补充----正则化与模型选择 [待写]
补充正则化与模型选择1. 交叉验证(Cross Validation)1.1 保留交叉验证 (hold-out cross validation)1.2 k-折交叉验证(k-fold cross validation)2. 特征选择(Feature Selection)3. 贝叶斯统计(Bayesianstatistics)和正则化 (regularization)4. 参考资料正则化与模型选...原创 2020-05-03 07:34:54 · 153 阅读 · 0 评论 -
【吴恩达系列】machine learning课程补充----凸优化 [待完善]
补充凸优化1. 凸函数2. 最优化问题3. 参考资料凸优化1. 凸函数详解cs229笔记-凸优化1在凸的定义域上取两个点 x1,x2x_1,x_2x1,x2 ,其凸组合的值应该小于等于其值的凸组合:对于任意λ∈[0,1],f(λx1+(1−λ)x2)≤λf(x1)+(1−λ)f(x2)对于任意\lambda \in [0,1],f(\lambda x_1 + (1-\lambda)...原创 2020-05-03 07:28:36 · 250 阅读 · 0 评论 -
【吴恩达系列】machine learning课程week3----分类和逻辑回归(梯度下降+牛顿法)
Week3:逻辑回归1. 二元分类下的逻辑回归问题1.1 Sigmoid函数1.2 决策边界1.3 代价函数1.4 梯度下降法1.5 高级优化算法(fminunc)2. 多分类问题3.补充:牛顿法3.1 牛顿法求方程零点3.2 牛顿法求函数lll最大值4. 代码4.1 Python代码4.2 Matlab代码5. 参考资料逻辑回归逻辑回归属于分类问题,多数情况是二元分类,也存在元分类{1, ...原创 2020-05-02 07:04:00 · 407 阅读 · 0 评论 -
【吴恩达系列】machine learning课程week2----多变量线性回归(梯度下降/正规方程)
Week2:多变量线性回归多变量线性回归原创 2020-04-20 15:59:18 · 568 阅读 · 0 评论 -
【吴恩达系列】machine learning课程week1----机器学习概述/单变量线性回归/凸优化
Week1:机器学习基础机器学习:“A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves ...原创 2020-04-14 05:00:33 · 247 阅读 · 0 评论