
人工智能
crabstew
这个作者很懒,什么都没留下…
展开
-
[深度学习/人工智能]梯度消失与梯度爆炸
梯度消失与梯度爆炸出现原因解决梯度消失与梯度爆炸的方法 出现原因 梯度消失和梯度爆炸是因为在神经网络中,由于网络层数增多,导致求取的梯度趋于 ∞\infty∞(梯度爆炸)和趋于 0(梯度消失)的情况。 参考 解决梯度消失与梯度爆炸的方法 梯度剪切:防止梯度爆炸,即当梯度超过一定阈值则将梯度限制在这个阈值范围内 正则化项: Loss=(y−WTx)2+α∣∣w∣∣2 Loss=(y-W^Tx)^2...原创 2019-10-29 17:15:11 · 244 阅读 · 0 评论 -
[机器学习/人工智能]集成学习小记
集成学习小记Bagging降低方差(variance),boosting降低偏差(bias)Random Forest(随机森林)是什么?Stacking Bagging降低方差(variance),boosting降低偏差(bias) Bagging与Boosting的区别 简单的记: Bagging降低方差的原因:bagging是随机取样,因此模型间相关性不高,所以可以防止过拟合 Boosti...原创 2019-10-25 17:51:33 · 239 阅读 · 0 评论