我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来)

本文介绍了AI初学者如何入门,从线性回归原理开始,包括有监督学习的分类和回归问题,以及如何通过观看视频学习。重点讲解了线性回归的参数求解过程,涉及误差项定义、损失函数和似然函数的概念,以及机器学习中的学习过程。后续章节将探讨梯度下降算法在解决可逆矩阵问题上的应用。

我想入门AI,从简单的机器学习开始吧。(这是我学习过程中做的笔记,有见解不同的兄弟姐妹们也欢迎留言)我本人学习过程喜欢看视频而不是看书,针对看视频学习更高效和看书更高效的问题争论过很多次,但是个人感觉视频更高效,知识更容易进入我的大脑袋~

学习这一部分我看的视频是b站-迪哥谈AI的视频,有需要的小伙伴也可以去看看哦。

一、线性回归原理

线性回归可以认为是单层的,多层线性回归就是神经网络。

在有监督学习中,有两类问题——分类回归

比如去银行贷款,银行借or不借,属于分类问题;借多少钱,属于回归问题。

线性回归是一个有监督学习,因此在训练模型的过程中需要有“标签”(Y值),X1,X2就是特征。

求回归方程的目标就是求出上图中的“参数”θ1和θ2。

二、误差项定义

其中,θ1和θ2是权重项,θ0是偏置项,θ0控制平面的上下浮动,只进行微调,不能大范围调整。

在构造上述整合后的函数时,需要人为地加入x0(是为了矩阵的计算),如下图所示:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值