笔记:《零基础搞定机器学习及深度学习(覃秉丰)》

本文深入浅出地介绍了机器学习的基础知识,包括线性回归、逻辑回归、决策树、KNN、集成学习、贝叶斯分析等核心算法,以及梯度下降、正则化、聚类算法等关键概念。通过具体实例,如房价预测、多分类问题解决,帮助读者理解并掌握机器学习的基本原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

引自:《零基础搞定机器学习及机器学习》(网易云课堂 - 覃秉丰)

线性回归

回归分析最典型的例子就是“房价预测”。

代价函数

相关系数

决定系数

y为真实值,加 - 表示均值,加 ^ 表示预测值。

梯度下降法

用梯度下降法求解线性回归

对代价函数J(θ)的求偏导,并利用梯度下降法更新权值,不断迭代……

多元线性回归

模型方程,以及代价函数:

运用梯度下降法(求偏导,迭代更新权值):

多项式回归

标准方程法

例如:以下为多元房价特征,进行房价预测:

这里,将多个特征作为方程的因变量(多元特征向量),对w求导时就涉及到向量的导数:

对比梯度下降法与标准方程法

其他概念

数据归一化

均值标准化

 

交叉验证法

适用于数据较少时对特征的训练

过拟合

正则化(Regularized)

用于防止过拟合

岭回归(Ridge Regression)

代价函数,采用L2正则化:

LESSO

 

逻辑回归

Sigmoid/Logistic Function

决策边界

逻辑回归的代价函数

利用梯度下降法求解代价函数的最小值:

多分类问题

逻辑回归的正则化

正确率和召回率

正确率与召回率的指标

KNN

决策树

ID3算法

C4.5算法

CART算法

剪枝:预剪枝、后剪枝

决策树的评价(适用领域)

有点:小规模数据集有效

缺点:

  • 处理连续变量不好
  • 类别较多时,错误增加的比较快
  • 不能处理大量数据

集成学习

Bagging

首先,进行一种有放回的抽样~

每个数据集,都采用一种不同的学习算法(或者同一个算法,得到不同的模型)

效果如下:

随机森林

boosting(Adaptive Boosting,自适应增强)

学习器的重点放在“容易”出错的地方——增加出错数据的概率(样本采样的权值)。

Stacking

使用多个不同的分类器对训练集进行预测,把预测得到的结果作为次级分类器的输入。次级分类器的输出则是整个模型的最终预测结果。

集成学习的总结

——人多力量大、集众家之言,以民主的方式决定正确的预测结果。

贝叶斯分析

朴素贝叶斯

多特征时的概率计算,会导致计算量巨大……

朴素贝叶斯算法,会假设特征X1, X2, X3...之间是相互独立的,则

贝叶斯多项式模型

伯努利模型
混合模型

高斯模型

常用于处理连续性变量。

大脑中的贝叶斯

聚类算法

无监督式学习——

K-MEANS

G:归类

C:计算重心,然后调整中心点

 

转载于:https://www.cnblogs.com/brt3/p/10421629.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值