
机器学习笔记
文章平均质量分 67
zoe9698
Nothing
展开
-
[Deep Learning]卷积神经网络的详细理解
Deep Learning has 3 steps: Step1 step2 step3 define a set of function(neural network) goodness of function pick the best function How to connect the neurals?怎么把神经元连接起来?最常见的方式是全连接前馈神经网络。Fully connect feedforward network.所以神经网络原创 2020-09-27 15:58:03 · 417 阅读 · 0 评论 -
机器学习的发展历程--《西瓜书》笔记
机器学习的发展历程可以简单分为3个阶段———— / BEGIN / ————1950年代-1970年代:推理期这个时期人们认为“智能”就是“逻辑推理”,想要赋予计算机“智能”只需要赋予计算机逻辑推理能力即可。这个时期代表作有A.Newell和H.Simon的“逻辑理论家”和“通用问题求解”程序。其中“逻辑理论家”程序在1963年证明了《数学原理》中的全部52条定理。因此两位科学家...原创 2020-05-07 23:45:45 · 2598 阅读 · 0 评论 -
多项式回归---笔记
吴恩达老师课程文档版https://www.cnblogs.com/babers/p/6761827.html在房价预测问题中,前面我们都是利用线性回归的方法,但实际上,房价关于某个自变量的变化可能在增长到一定程度后趋于平缓。如下图:如果面对这样的数据分布继续使用线性方程去拟合,那么到数据的后半部分便会拟合效果下降,自然,我们会想到这个分布图像更像一个二次方程。这样的效果似乎也不...原创 2018-09-04 19:20:44 · 915 阅读 · 0 评论 -
特征选择,特征缩放---笔记
特征选择frontage是这块地靠近公路的那一面的长度depth是垂直公路的长度把这两个变量单独拿出来进行房价预测没有必要,于是我们设置变量x(面积)=frontage*depth,只看这一个自变量即可。这就是特征选择即将不合理的变量经过合并,剔除来简化。特征缩放在计算的过程当中,我们发现,有很多时候,参数的取值差距非常大,导致很多时候要进行大量的大数值的计算。...原创 2018-09-04 19:37:55 · 1127 阅读 · 0 评论 -
梯度下降法--笔记
1.吴恩达老师课程的文档版 https://www.cnblogs.com/ooon/p/4947688.html2. https://www.jianshu.com/p/c7e642877b0e梯度下降法的思想可类比于“下山”,初始位置在山上某点,目的位置是山的最低点,那么下山就需要不断的在当前位置找到下山最陡的那条路的'方向‘,然后向这个方向往下走一段路,再重新计算最陡方向,直到到达最...原创 2018-09-02 15:08:20 · 429 阅读 · 0 评论 -
正规方程(标准方程)法---笔记
第一篇文章对梯度下降的解释,初始位置在山上某点,目的位置是山的最低点,那么下山就需要不断的在当前位置找到下山最陡的那条路的'方向‘,然后向这个方向往下走一段路,再重新计算最陡方向,直到到达最低点。假设我们的预测函数只有一个theta参数,损失函数是一个二次方程:对应的图像是:那么对于这个损失函数我们可以使用梯度下降法求损失函数的最小值。或者从数学的角度考虑,对于二次函数秋最值我...原创 2018-09-05 13:52:15 · 7408 阅读 · 10 评论 -
多元线性回归---笔记
吴恩达老师课程的文档版https://blog.youkuaiyun.com/quiet_girl/article/details/69891443 https://blog.youkuaiyun.com/louishao/article/details/54670081之前用于学习梯度下降法的例子是该例子中只有一个自变量x(房屋面积),一个因变量(房价),线性回归目标是一个一元一次方程,该函数有两个参数,。...原创 2018-09-03 23:23:49 · 1348 阅读 · 0 评论