算法
机器学习、深度学习等算法笔记
我想唱歌给你听
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
为什么GBDT不适合处理高维特征?
转载 2020-09-04 21:29:50 · 1106 阅读 · 0 评论 -
全面理解LR逻辑回归
目录1.原理2.实现3.应用4.问题1.原理2.实现3.应用4.问题参考资料原创 2020-08-22 15:17:43 · 218 阅读 · 0 评论 -
梯度下降法原理
结合网上的资料算是弄明白了一些梯度下降法背后的原理,有时间再写一个全面理解的版本,这里只放别人的链接了,从一阶泰勒展开的角度理解是我目前掌握的,其他角度有待学习。以下是同济高等数据关于梯度这一节的内容当时最难理解的就是——梯度方向是函数变化率最大的方向、也是函数增加/减小最大的方向,想想一元函数,导数大于0是单调递增的,导数小于0是单调递减的,暂且把这个结论推广到多元函数把,暂时这么理解了。关于梯度的由来,这篇文章讲的很好:https://zhuanlan.zhihu.com/p/24913原创 2020-08-22 15:03:38 · 349 阅读 · 0 评论
分享