- 博客(4)
- 收藏
- 关注
原创 GBDT、XGBoost、LightGBM、CatBoost有可能被问到的八股问题
XGBoost用的是Level-wise,完整遍历一次数据就可以分裂统一层的节点,容易进行多线程优化,但这样不加区分地对待全部节点是一种低效的算法,因为有些节点分裂的增益太小,没必要进行分裂,去除掉这种分裂的话可以增加计算效率。现在捆绑特征A和特征B,假设特征A的取值是[0, 10], 特征B的取值是[0, 20],我们把特征B加上一个偏置项10把特征变成[10, 30],那么绑定后的特征取值范围就变成[0, 30]方差是指模型在不同数据集上的波动程度,偏差是值模型的预测值与真实值的差异。
2025-04-16 19:06:24
1004
原创 GBDT、XGBoost、LightGBM、CatBoost有可能被问到的八股问题
CART回归树是决策树算法的一个实现,他支持分类任务和回归任务分类任务中使用Gini系数(或交叉熵)作为目标函数回归任务中使用MSE作为目标函数LightGBM是一个轻量级的梯度提升机,主要解决了XGBoost中训练速度慢,内存占用大的问题,具体来说,他相较于XGBoost提出了:基于histogram直方图的决策树算法带有深度限制的leaf-wise叶子节点生长策略直接支持类别特征传统方法在解决类别特征的时候通常使用类别特征标签的平均值来将离散的类别特征转换为连续的数值特征,这种做法被称为。
2025-04-15 18:04:10
742
原创 论文笔记:Federated Graph Semantic and Structural Learning 联邦图语义与结构学习
收录于:2023 IJCAI级别:CCF-A开源:否。
2024-05-27 15:52:01
1608
1
原创 论文笔记:Multiplex Heterogeneous Graph Convolutional Network
首先要知道什么是多重网络(multiplex network),在一个网络中,用户可能会对一个商品有多种交互,比如点击、购买、评论,这些交互都形成了用户节点与商品节点交互的边,但这些边的类型不同,同一对节点之间有不同类型的边,就构成了一个多重网络。“点击、购买、评论“形成了关系异质性。
2023-11-28 14:36:26
1757
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅