机器学习笔记——贝叶斯分类器(I)贝叶斯决策论

本文介绍贝叶斯决策论的基本概念与原理,包括如何基于概率和误判损失选择最优类别标记,以及如何利用贝叶斯公式计算后验概率。讨论了判别式模型与生成式模型的区别,并介绍了贝叶斯最优分类器的概念。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

基本概念

贝叶斯决策论:

对于分类任务来说,在所有的相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。

基本原理

假设有N中可能的类别标记,即Y={c1,c2,,cN}λij是将一个真实标记为cj的样本误分类为ci所产生的损失。基于后验概率P(cix)可以获得将样本x分类为ci所产生的期望损失,即在样本x上的“条件风险”

R(cix)=j=1NλijP(cjx)

目标

找到一个判定准则h:XY以最小化总体风险

R(h)=Ex[R(h(x)x)]

贝叶斯判定准则

为最小化总体风险,只需要在每个样本上选择那个可以使得条件风险R(cx)最小的类别标记。即:

h(x)=argmincYR(cx)

此时h被称为贝叶斯最优分类器,与之对应的总体风险R(h)被称为贝叶斯风险。1R(h)反映了分类器所能达到的最好性能,即通过机器学习所能产生的模型精度的理论上限。

误判损失

若将误判损失写成:

λij={01,,if i=j;otherwise

则此时条件风险为:
R(cx)=1P(cx)

最小化分类错误率的贝叶斯最优分类器为:
h(x)=argmaxcYP(cx)

即对于每个样本x选择能够使得后验概率P(cx)最大的类别标记。

贝叶斯公式和后验概率

利用贝叶斯判定准则来最小化决策风险,首先要获得后验概率P(cx),但是这通常在现实任务中难以获得。

两种策略

判别式模型

给定x,可通过直接建模P(cx)来预测c

生成式模型

先对联合概率分布P(x,c)建模,然后再由此获得P(cx)
可以使用贝叶斯公式:

P(cx)=P(c)P(xc)P(x)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值