商品LR训练

本文介绍了线性回归和逻辑回归的基本原理及应用。探讨了如何通过最小化误差平方和来求解线性回归中的参数,并介绍了逻辑回归模型的概率解释及其参数估计方法——最大似然估计。同时,还讨论了使用梯度下降法进行参数优化的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

线性回归:
训练过程
2. 求w:
1)定义误差 err
2)怎么衡量哪条直线最好?
所有点的误差平方和最小最好 (学习的目标)
【Loss损失函数】【cost代价函数】
3)求导等于0来求最小值对应的参数w

交叉验证:
样本分成5分:1,2,3,4,5
以1,2,3,4为训练,第5份作为预测
以1,2,3,5为训练,第4份作为预测
以1,2,4,5为训练,第3份作为预测
以1,3,4,5为训练,第2份作为预测
以2,3,4,5为训练,第1份作为预测

先用一个lambda=0.1 0.01 求平均作为最终效果
lambda=1 求平均作为最终效果

逻辑回归:

  1. 逻辑回归模型:p(y=1|x)=1/(1+exp(-wx))

  2. 求w:
    1)
    20个取10个

实际:p(黑8,白2)

黑2,白8
白10
黑10
黑5,白5
2)怎么衡量哪条直线最好? 最大似然
【Loss损失函数】【cost代价函数】

只要是概率模型,损失函数都是通过最大似然来的。
最大似然就是做参数估计用的。

概率最大,连乘概率最大。

p^8 (1-p)^2 log变换 8logp+2log(1-p)

p^9 (1-p)^2 9logp+2log(1-p)

3)求导等于0来求最小值对应的参数w
导数为0不能直接求,需要用到梯度,牛顿方式去求
梯度和牛顿只是一个方向的确定,
确定往下走的方向,负梯度
跨一步才能往下走,步长 line search确定步长

因为求梯度中有求和,所以每次梯度计算需要扫一遍数据集
加上步长,每走一步(迭代一次)就需要扫一遍数据集

LG-MLP-LR 是一种结合了多层感知机(MLP)与逻辑回归(Logistic Regression, LR)的机器学习模型架构,通常用于分类任务,特别是在处理高维稀疏数据时展现出良好的性能。该模型的设计理念是利用 MLP 的非线性建模能力提取特征间的复杂关系,同时通过逻辑回归层进行最终的分类决策,从而在保持模型表达能力的同时控制过拟合。 在实现上,LG-MLP-LR 通常采用以下结构: - **输入层**:接收原始特征向量,通常为数值型或经过嵌入(embedding)处理的类别型特征。 - **隐藏层**:由一个或多个全连接层组成,使用激活函数(如ReLU、Sigmoid)进行非线性变换,以捕捉特征之间的高阶交互。 - **输出层**:使用逻辑回归(Sigmoid 函数)作为最终分类器,输出二分类或多分类的概率结果。 以下是一个基于 PyTorch 的 LG-MLP-LR 模型实现示例: ```python import torch import torch.nn as nn class LGMLPLR(nn.Module): def __init__(self, input_dim, hidden_dims, output_dim=1): super(LGMLPLR, self).__init__() layers = [] prev_dim = input_dim for hidden_dim in hidden_dims: layers.append(nn.Linear(prev_dim, hidden_dim)) layers.append(nn.ReLU()) prev_dim = hidden_dim self.mlp = nn.Sequential(*layers) self.lr = nn.Linear(prev_dim, output_dim) def forward(self, x): x = self.mlp(x) x = torch.sigmoid(self.lr(x)) return x ``` 在训练过程中,通常使用二元交叉熵损失(Binary Cross Entropy Loss)进行优化: ```python model = LGMLPLR(input_dim=100, hidden_dims=[64, 32]) criterion = nn.BCELoss() optimizer = torch.optim.Adam(model.parameters(), lr=0.001) ``` 该模型广泛应用于点击率预测(CTR Prediction)、推荐系统、广告投放等领域。例如,在推荐系统中,LG-MLP-LR 可用于预测用户对某个商品的点击概率,输入包括用户特征、物品特征及上下文特征等[^3]。 此外,LG-MLP-LR 也可以与低秩适应(Low-Rank Adaptation, LoRA)技术结合,在微调大型模型时减少训练参数量[^2]。这种策略在资源受限的场景下尤其有用,能够显著降低计算成本,同时保持较高的预测性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值