P3 Regression:Case Study

本文通过一个Pokemon战斗能力评估的实例,详细介绍了回归分析的过程,包括模型建立、评估函数优劣及寻找最佳函数的方法,并探讨了梯度下降算法的应用,以及如何避免过拟合问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

P3 Regression:Case Study

  • Regression:回归

img

  • Examole Application
    • Estimating the Combat Power (CP) of a pokemon after evolution
      • Output:Scalar

img

Step1:Model

  • Assumption:y = b + w × x,w,b是任意值的参数
  • Linear Model:线性回归模型
    • 通过Training Data判断Function的合理性

img

Step2:Goodness of Function

  • Training Data:10 pokemons

img有了Training Data就可以定义一个Function的好坏

  • 定义另外一个Function,定义为Loss function L:
    • Input:a function
    • Output:how bad it is(用多不好来描述
    • Loss function L:衡量一组参数的好坏

img

  • Estimation error:真正的数值再减去预测的数值再取平方,最后再求和

img

  • 红色代表最差,越蓝代表越好

Step3:Best Function

img

Gradient Descent

  • Consider loss function L(w) with one parameter w:
    • ()

img

  • Negative:切线的斜率是负的,往右边Loss会减小
  • Positive:切线的斜率是正的,往左边Loss会减小

img

  • 注:为什么是减号:微分如果是正的w要减小,微分如果是负的w要增加
  • 重复当前的步骤

img

  • Linear Regression没有Local optimal
    • Local optimal:局部最值
    • Global optimal:全局最值

Two Parameters

img

img

  • 等高线的法线方向
Worry

img

  • Linear Regression No local optimal

  • 随便选一个起始点,最后找出来的是同一组参数

img

  • 对w的偏微分和对b的偏微分

img

  • Average Error on Training Data

img

  • testing data

img

  • do better
    • 重新设计Model
    • 一阶不够升阶考虑二次项
    • 所真正关心的是Testing Average Error

img

  • 考虑更复杂的Model
    • 引入三次方

img

  • 考虑四次方
    • 结果更复杂的Model,对于Training Data有更好的Average Error,但是对于TestingThe results become worse

img

  • 考虑五次方
    • 结果不合理

img

Contrast Model
  • Training Data
  • Testing

img

  • More Complex Model yields lower error on training data:越复杂的Model能找出trainging data error越小的function
  • 越复杂的Model不一定会在testing data上得到更好的结果

img

  • This is Overfitting
    • **Overfitting:**过适
    • Select suitable model:选择一个最合适的
    • 隐藏的因素:不同的物种,不同的Linear Function

img

img

  • 分了不同的种类后的error变得更低

img

  • 其他隐藏的参数
    • Redesign the Model Again

img

  • Overfitting
    • Regularization:redesign loss function

img

  • smooth function:对于input的改变不敏感,所以w参数要小

img

  • Regularization的时候不用考虑bias,bias对于平滑程度没有影响

Conclusion&Following Lectures

  • Gradient descent
    • Following lectures:theory and tips
  • Overfitting and Regularization
    • Following lectures:more theory behind these
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值