ML Lecture4: Classification

博客围绕分类问题展开,探讨不用Regression的原因,定义了Loss Function为分类不正确的样本个数。介绍求元素在某个类别概率的方法,用Maximum Likelihood估计高斯分布参数,还尝试参数转换。总结了分类建模的三个步骤,最后提及Naive Bayes Classifer将高维分布转化为一维分布。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.为什么不用Regression?

用Regression显然会得到紫色线,而不是绿线

 2.定义Loss Function

即分类不正确的样本个数

3.求每个元素在某个类别的概率

p(class1|x) = p(x|class1)p(class1) / [p(x|class1)p(class1) + p(x|class2)p(class2)]

p(class1)和p(class2)可以容易的算出

重点在于求p(x|class1)

假设class1是个高斯分布,我们如果有高斯分布的参数miu,sigma,就能求出p(x|class1)

 现在问题是找到最可能生成出样本的高斯分布。

用Maximum Likelihood估计出miu,sigma。

在二位四个参数的时候,miu1,miu2,sigma1,sigma2,实际效果不好。

尝试让miu1=miu2,按样本数加权平均获得sigma,转换成Linear。

 4.总结

Three Steps

first: Functions Set(Model) 如何定义分类

second: Goodness of a function 评估一个Model,

third: Find the best function

5.Naive Bayes Classifer

假设各个特征独立

p(x|c1)=p(x1|c1)*p(x2|c1)*...*p(xk|c1)

这样就没有高维分布,转化为一维分布

 

转载于:https://www.cnblogs.com/hsuppr/p/11175509.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值