[百面机器学习]经典算法Q&A

博客围绕LR、决策树和SVM展开。对比了LR与线性回归的异同,介绍决策树常用启发函数,探讨线性可分点在SVM超平面投影的线性可分性,证明高斯核SVM存在训练误差为0的参数,还提及LR处理多标签分类及决策树剪枝方法,确认误差为0的SVM分类器存在。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

 

1、LR想必线性回归,有何异同?

2、决策树有哪些常用的启发函数?

3、线性可分的两类点在SVM分类超平面上的投影仍然线性可分吗?

4、证明存在一组参数使得高斯核SVM的训练误差为9

5、LR处理多标签分类问题

6、如何对于决策树进行剪枝?

7、误差为0的SVM的分类器一定存在?


1、LR相比线性回归,有何异同?

LR是分类问题,线性回归是回归问题

LR的因变量是离散的,线性回归的因变量是连续的

它们都使用了梯度下降法和极大似然估计法来建模求解

2、决策树有哪些常用的启发函数?

ID3 最大信息增益

C4.5 信息增益比

CART GINI

3、线性可分的两类点在SVM分类超平面上的投影仍然线性可分吗?

不可分,很容易想到。

4、证明存在一组参数使得高斯核SVM的训练误差为0?

确实存在

5、LR处理多标签分类问题

如果1个样本只对应1个分类,那么使用多项LR就可以。

如果1个样本对应多个分类,那么训练n个二分LR分类器(n是分类的个数)

6、如何对于决策树进行剪枝?

预剪枝

后剪枝

7、误差为0的SVM的分类器一定存在?

一定至少有一个解可以保证这样的分类器存在

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值