
机器学习
瓜波牛排
这个作者很懒,什么都没留下…
展开
-
梯度下降算法结束条件
梯度的方向总是函数值越来越大的方向,如果是求极大值,沿着梯度的方向迭代接口;如果是求极小值,沿着梯度相反的方向迭代即可,即梯度下降法。梯度下降法(梯度上升法应该也适用)迭代结束的条件,常用的有两种:一、定义一个合理的阈值,当两次迭代之间的差值小于该阈值时,迭代结束。二、设置一个大概的迭代步数,比如1000或500,梯度下降法最终的迭代肯定会收敛,只要达到相应迭代次数,多了也没关系。因为...转载 2018-11-15 20:56:38 · 6458 阅读 · 1 评论 -
机器学习的正规方程推导
来源:优快云 原文:https://blog.youkuaiyun.com/chenlin41204050/article/details/78220280--------------------- 作者:木兄 来源:优快云 原文:https://blog.youkuaiyun.com/chenlin41204050/article/details/78220280 版权声明:本文为博主原创文章...转载 2018-11-15 21:29:13 · 509 阅读 · 0 评论 -
吴恩达老师机器学习第5周BP神经网络难点作业代码讲解
1.MATLAB对于@句柄函数的利用。 2. 神经网络的代价函数需要自我填写部分原创 2018-12-02 23:45:39 · 789 阅读 · 1 评论 -
为什么要进行梯度检验
Gradient Checking反向传播算法很难调试得到正确结果,尤其是当实现程序存在很多难于发现的bug 时。举例来说,索引的缺位错误(off-by-one error)会导致只有部分层的权重得到训练(for(i=1; i<=m; ++i) 被漏写为 for(i=1; i<m; ++i)),再比如忘记计算偏置项。这些错误会使你得到一个看似十分合理的结果(但实际上比正确代码的结果...转载 2018-12-01 20:55:40 · 1499 阅读 · 0 评论 -
matlab实现机器学习中特征缩放
feature scaling(特征缩放).: make sure multiple features are on a similar scale. Because different features take on similar ranges of values can help gradient descent converge more quickly.公式基础:代码演示:...原创 2018-12-05 11:56:22 · 707 阅读 · 0 评论 -
初识SVM算法和核函数基本概念
来着吴恩达老师、 李政轩老师(核函数)和黄海广博士笔记李政轩老师视频地址:http://www.powercam.cc/slide/6552李老师的台湾话有点意思,而且有时候边讲课边笑,有点搞笑滴。Support vector machine(SVM) algorithm.支持向量机算法简称向量机 这个SVM的公式对逻辑回归的算法进行了变形,支持向量机是直接预测...原创 2018-12-29 20:31:27 · 1094 阅读 · 0 评论 -
PCA算法学习记录
重要声明:以下内容主要参考吴恩达机器学习课程和张洋的PCA数学原理文章 降维(dimensionality reduction)降维的目的:(1)数据压缩(2)可视化数据。 PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用...原创 2019-01-06 21:09:55 · 429 阅读 · 3 评论