线性回归算法梳理

本文深入探讨线性回归,包括机器学习的基本概念、线性回归的原理、损失函数、代价函数、优化方法如梯度下降、牛顿法和拟牛顿法,以及线性回归的评估指标如R^2和调整后的R^2。此外,还介绍了sklearn线性回归模型的参数设置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.机器学习的一些概念

  • 有监督

    监督学习,最直接印象就是数据是否存在对应的标签。通过标签进行分类。

  • 无监督

    无监督学习,样本数据没有标签,需要通过样本间的相似性进行“聚类”。一般考虑类内间距最小化,类间间距最大化。

  • 泛化能力

    generalization,用来表征学习模型对未知数据的预测能力。归纳过程。与之对应的是,演绎过程。特化。

  • 过拟合(方差和偏差以及各自解决办法)

    由于学习能力过于强大,把训练样本不太一般的特性都学习到了。

    需要注意的是:过拟合是无法彻底避免的,只能”缓解“,或者说是减小其风险。若可彻底避免过拟合,则通过经验误差最小化就能获得最优解,这样相当于构造性的证明了”P=NP“,而这目前来说还是一个无法解决的问题。

    解决方法:1.重新清洗数据。2.增大数据的训练量。3.采用正则化方法。(结构风险最小化SRM)

    • 方差(Variance)多个模型,模型的拟合度如何,标记的聚散程度。(e.g.,打靶打出点是否密集。)

    • 偏差(Bias)单个模型,期望输出与真实标记的差别。(e.g.,打靶打出点与靶心的偏差。)

      泛化误差可分解为偏差,方差和噪音之和。需要注意的是方差和偏差是有冲突的。偏差-方差窘境
      在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值