model trainning 模型训练

本文介绍了线性回归、Ridge回归、Lasso回归和StochasticNet,包括它们的定义、优缺点及应用场景。线性回归简单易用,但对异常值敏感;Ridge回归适合高共线性,Lasso回归能做特征选择;StochasticNet结合两者优点。在选择使用时,需根据数据集特性和需求进行权衡。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

                                                     学习笔记

模型的理解,构建、神经网络的训练

使用封闭方程来求解,获得模型在当前训练集上最优的参数==》在训练集上使得损失函数达到最小值时模型的参数

使用迭代优化的方法,梯度下降(GD),在训练集上,逐渐的调整模型参数,而获得最小的损失函数,最终参数收敛到和封闭方程求解一样得到相同的值。

 批量梯度下降(Batch GD),随机地图下降(Stochastic GD)、小批量梯度下降(Mini-batch GD)(此三个在后面的神经网络里会经常用到)

复杂模型—》多项式回归,可以拟合非线性数据集:过拟合(参数较多会造成),学习曲线判断是否过拟合,正则化减少过拟合

逻辑回归(Logistic)、softmax回归(多类别回归)



线性回归的理解:

     线性回归预测模型的一般化公式:\widehat{y}=\theta _{}0+\theta _{}1X_{}1+\theta _{}2X_{}2+...+\theta _{}nX_{}n

 \widehat{y}:预测结果;

N:特征个数;

Xi:第i个特征值;

\thetaj:第j个参数(\theta _{}0:偏置项;\theta _{}1\theta _{}2...\theta _{}n:特征权重值)

线性回归预测模型的一般公式可简化为:\widehat{y}=h(\theta)=^{}\theta ^{}T\cdot X

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值