2022-02-06 机器学习案例笔记

Regression:Case Study

应用:Stock Market Forecast(股票市场预测)、Self-driving Car(自动驾驶汽车)、Recommendation(推荐系统)。

拿到一个案例后,分三步骤走:
Step 1:Model

A set of function:y = b+wx
Linear model:y = b+∑ w_i x_i
x is an attribute of input. x feature;w_i is weight;b is bias.

Step 2:Goodness of function

用Loss function检测函数好坏。线性函数的Loss function可写成 L(f) = L(w,b),输入的是一个函数,输出估测的误差。
1. Pick the “best” function
在这里插入图片描述
上图解释:arg是argument(参数)缩写,arg min指当目标函数最小时,参数的值。

2. Gradient Descent(梯度下降)
不仅是Linear function,只要函数可微分,就可以用Gradient Descent处理,帮助找到函数中更好的参数值。
Gradient Descent内容:
① 当函数只有一个参数w时:
a) 随便取一个初始值w0
w0
b) 求w0点的切线斜率,若斜率为neg(负数),w0需往增大方向移动若干得到w1,若斜率为pos(正数),则w0往减小方向移动得到w1。
w1
c) 重复迭代以上行为,直到移动到wt的斜率为0为止。

② 当函数有两个参数w、b时:
a) 随机选取初始值w0、b0, 对w0、bo求导并赋值w0,b0
b) 根据求导正负移动w、b的值
w1,b1
c) 重复迭代以上行为,直到找到使Loss值最小的参数值wt、bt
ps:在Gradient Descent中wt对应的可能是local optimal(局部最优解),而不是global optimal(全局最优解),不过在Linear regression不存在这种问题,因为Loss function 是convex(凸函数),convex意味着没有local optimal,找到的wt都是global optimal。

将Model复杂化:
在这里插入图片描述
后面还可以加wx四次方,wx五次方,幂次越高,Model越复杂,但效果不一定会更好,还可能会出现overfitting情况。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值