回归预测及R语言实现 Part1 回归基础综述

本文概述了回归分析的基础,包括线性回归(一元和多元)、多项式回归和非线性回归。介绍了最小二乘法和最大似然估计法在参数估计中的应用,并列举了多种回归模型的验证方法,如标准误差、可决系数、相关系数和F检验。文章以R语言为工具,探讨回归预测在实际问题中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Part1 回归基础综述


回归方法有很多种,最常见的是线性回归(又有一元和多元之分)、多项式回归、非线性回归。另外还将简单说明对预测结果的检验方法。

 

线性回归

一元线性回归,是最简单最常见的回归模型,类似初中数学中的一元一次方程,它的基本模型如下:


我们常见的一元线性回归方程一般没有最后一项,确切的说,我们在实际的应用中也忽略了最后一项。最后一项ui的现实意义是:它是指除自变量x以外所有对因变量y有影响的其他因素,应用回归预测时,我们假设ui是一个均值为零的随机变量,方差为常值,不同ui间相互独立,并与自变量x相互独立。

 

多元线性回归,则类似多元一次方程,是指在存在二个或二个以上的自变量,会对因变量y产生线性影响,线性影响这个说法不知道有没有,意思就是一次关系。多元线性回归模型如下:


是n个对因变量y会产生影响的n个自变量。二元线性回归和三元线性回归在实际应用中都比较常见,因变量再多的话关系比较复杂但将其简单定义为线性关系,可能在用作预测时,误差会较大。

 

线性回归方法在做预测时,我们需要根据已有观测数据得到参数。常见估算b参数的方法有最小二乘法和最大似然估计法。

简单来说最小二乘法就是估算值能很好地拟合已有的观测值,使得估计值和观测值之差的平方和最小。最大似然估计法的依据是:概率最大的事件最可能发生。以一元线性回归为例,说明下,这两个算法是如何来估算的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值