
机器学习
zfliu96
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习视频--神经网络反向传播算法公式推导
反向传播算法基础知识我们在计算神经网络预测结果时采用了正向传播方法,从第一层开始正向一层一层进行计算算,直到最后一层的hθ(x)hθ(x)hθ(x)hθ(x)hθ(x) h_\theta (x)hθ(x)hθ(x)hθ(x)=(a(4)−y)⋅θ(3)⋅a(3)⋅(1−a(3))=(θ(3))T⋅δ(4)⋅g′(z(3))=(θ(3...转载 2019-02-28 17:01:24 · 898 阅读 · 0 评论 -
线性回归和逻辑回代价函数公式推导
sigmoid函数求导线性回归模型逻辑回归模型转载 2019-02-28 19:04:55 · 1175 阅读 · 0 评论 -
理解:为什么L1正则先验分布是Laplace分布,L2正则先验分布是Gaussian分布
原址 https://blog.youkuaiyun.com/m0_38045485/article/details/82147817 L1、L2正则化来源推导L1L2的推导可以从两个角度:带约束条件的优化求解(拉格朗日乘子法) 贝叶斯学派的:最大后验概率1.1 基于约束条件的最优化对于模型权重系数w的求解释通过最小化目标函数实现的,也就是求解:首先...转载 2019-03-29 17:25:58 · 1901 阅读 · 2 评论 -
Bagging(Bootstrap aggregating)、随机森林(random forests)、AdaBoost
引言在这篇文章中,我会详细地介绍Bagging、随机森林和AdaBoost算法的实现,并比较它们之间的优缺点,并用scikit-learn分别实现了这3种算法来拟合Wine数据集。全篇文章伴随着实例,由浅入深,看过这篇文章以后,相信大家一定对ensemble的这些方法有了很清晰地了解。Baggingbagging能提升机器学习算法的稳定性和准确性,它可以减少模型的方差从而避免overfitt...转载 2019-03-28 17:42:56 · 500 阅读 · 0 评论 -
win10安装xgboost(超简单,实测能用)
环境: win10+64位操作系统(win7或者32位操作系统应该都可以,但是没测试)1、打开https://www.lfd.uci.edu/~gohlke/pythonlibs/#xgboost网站,选择和自己电脑匹配的版本,根据我的电脑选择:xgboost-0.82-CP37-cp37m-win_amd64.whl(cp37代表装的python3.7版本,amd64代表64位操作系统)下载该...原创 2019-04-30 23:15:54 · 1976 阅读 · 0 评论