
机器学习
文章平均质量分 50
机器学习,模型介绍为主
jzwei023
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
为啥word2vec的向量是静态的?
word2vec静态向量原创 2022-07-27 20:38:27 · 678 阅读 · 1 评论 -
GBDT小结
GBDT的核心就在于,每一棵树学的是之前所有树结论和的残差(负梯度),这个残差就是一个加预测值后能得到真实值的累加量。比如A的真实年龄是18岁,但第一棵树的预测年龄是12岁,差了6岁,即残差为6岁。那么在第二棵树里面我们把A的年龄设为6岁去学习,比如第二棵树的结论是5岁,则A仍然存在1岁的残差,第三棵树里面把A的年龄设为1岁去学习,继续学。Boosting的最大好处在于,每一步的残差计算其实变相的增大了分错的instance的权重,而已经分对的instance则都趋于0。这样后面的树就能越来越专注那些前面被原创 2021-04-11 21:27:14 · 129 阅读 · 0 评论