gbdt lr

GBDT+LR是Facebook提出的在线广告模型,通过决策树进行特征embedding以增强线性模型LR的表现。GBDT通过叶节点编号进行one-hot编码,形成非线性特征变换。在训练过程中,GBDT先训练,然后利用其输出训练LR。在线学习中,针对不同的学习率策略进行模型更新,并处理负样本欠采样的问题。面试中常问的问题包括特征重要性评估、模型校准等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

gbdt lr

gbdt+lr是facebook提出在线广告模型,我们知道LR之前在广告和推荐系统由于其快速的计算而被广泛使用,使用由于lr是线性模型,其模型表现能力不强,需要做大量的特征工程。

facebook提出提出使用决策树进行特征embedding。

为了提升线性分类器的准确度,有两种方法进行特征变换:

  1. 对于连续特征。先进行离散化bin,然后把bin的编号作为离散型特征。这样的话,线性模型可以分段的学习到一个非线性的映射,在每一段内的映射是不变的。另外,对于bin边界的学习非常重要

  2. 对于离散特征。做笛卡尔积,生成的是tuple input features。笛卡尔积穷举了所有的特征组合,其中也包含部分没用的组合特征,不过可以筛选出来。
    提升决策树(boosted decision tree)就可以很方便很好的实现上面我们说的这种非线性和tuple特征变换。对于一个样本,针对每一颗树得到一个类别型特征。该特征取值为样本在树中落入的叶节点的编号。举例来说:
    在这里插入图片描述
    上图中的提升决策树包含两棵子树,第一棵树包含3个叶节点,第二棵树包含2个叶节点。输入样本x,在两棵树种分别落入叶子节点2和叶子节点1。那么特征转换就得到特征向量[0 1 0 1 0]。也就是说,把叶节点编号进行one-hot编码。
    那么, 怎么样直观的理解这种特征变化:

    • 看做是一种有监督的特征编码。把实值的vector转换成紧凑的二值的vector。
    • 从根节点到叶节点的一条路径,表示的是在特征上的一个特定的规则。所以,叶节点的编号代表了这种规则。表征了样本中的信息,而且进行了非线性的组合变换。
    • 最后再对叶节点编号组合,相当于学习这些规则的权重。

核心思想

  1. 数据更新

由于推荐和广告等相关的问题,是一个动态的环境,需要对模型进行实时更新,所有对于lr进行在线学习和更新,gbdt可以每天或者几天更新一次。

  1. 在线学习的学习率如何设置

一般情况有很多学习率更新的方法,可以根据当前系统进行实验得到最好的学习率设置策略。论文中给出一下几种方法:

  • Per-coordinate learning rate:
    η t , i = α β + ∑ j = 1 t ▽ j , i 2 \eta_{t,i}=\frac{\alpha}{\beta+\sqrt{\sum_{j=1}^{t}}\bigtriangledown_{j,i}^2} ηt,i=β+j=1t j,i2α
    其中, α \alpha α, β \beta β是两个超参数.
  • Per-wei
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值