机器学习:参数/非参数学习算法

本文介绍了参数学习算法和非参数学习算法的概念及其优缺点。参数学习算法通过固定数目的参数来拟合数据,适用于简单问题且易于理解;非参数学习算法不对目标函数形式作假设,能够更好地拟合复杂函数,但需要更多训练数据。
部署运行你感兴趣的模型镜像

一、参数学习算法(parametric learning algorithm)

 

  定义:假设可以最大程度地简化学习过程,与此同时也限制可以学习到是什么,这种算法简化成一个已知的函数形式,即通过固定数目的参数来拟合数据的算法 

     参数学习算法包括两个步骤:

  • 选择一种目标函数的形式
  • 从训练数据中学习目标函数的系数

    参数学习算法的一些常见例子包括:

  • Logistic Regression
  • LDA(线性判别分析)
  • 感知机
  • 朴素贝叶斯
  • 简单的神经网络

 

    参数机器学习算法的优点:

 

  • 简单:这些算法很容易理解和解释结果
  • 快速:参数模型可以很快从数据中学习
  • 少量的数据:它们不需要太多的训练数据,甚至可以很好地拟合有缺陷的数
    参数机器学习算法的局限性:
  • 约束:这些算法选择一种函数形式高度低限制模型本身
  • 有限的复杂性:这种算法可能更适合简单的问题
  • 不适合:在实践中,这些方法不太可能匹配潜在的目标(映射)函数

 

二、非参数学习算法(non-parametric learning algorithm)

 

  定义:不对目标函数的形式作出强烈假设的算法称为非参数机器学习算法,通过不做假设,它们可以从训练数据中自由地学习任何函数形式,即参数数量会随着训练样本数量的增长的算法。 

    非参数学习算法的一些常见例子包括:

  • KNN
  • 决策树,比如CART和C4.5
  • SVM
    非参数机器学习算法的优点:
  • 灵活性:拟合大量的不同函数形式
  • 能力:关于潜在的函数不需要假设(或者若假设)
  • 性能:可以得到用于预测的高性能模型
    非参数机器学习算法的局限性:
  • 更多的数据:需要更多的训练数据用于估计目标函数
  • :训练很慢,因为它们常常需要训练更多的参数
  • 过拟合:更多的过度拟合训练数据风险,同时它更难解释为什么要做出的具体预测

 

注:

  局部加权线性回归其实是一个非参数学习算法(non-parametric learning algorithm);

  线性回归则是一个参数学习算法(parametric learning algorithm),因为它的参数是固定不变的,而局部加权线性回归的参数是随着预测点的不同而不同。

  由于每次预测时都只看预测点附近的实例点,因此每一次预测都要重新运行一遍算法,得出一个组参数值,因此其计算代价很大。

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值