统计学习笔记(四)朴素贝叶斯法

朴素贝叶斯法

4.1 naive Bayes的学习与分类

4.1.1 基本方法

设输入空间为n维向量的集合 XRn ,输出空间为类标记的集合 Y={c1,c2,...,cK} 。输入为特征向量 xX ,输出为类标记 yY 。X是定义在输入空间上的随机变量,Y是定义在输出空间上的随机变量。 P(X,Y) 是XY的联合概率分布。训练数据集

T={(x1,y1),(x2,y2),...,(xN,yN)}
根据联合概率分布 P(X,Y) 独立同分布产生。

朴素贝叶斯法通过训练数据集学习联合概率分布 P(X,Y) 。具体的,学习以下先验概率分布及条件概率分布。先验概率分布

P(Y=ck),k=1,2,...,K

条件概率分布
P(X=x|Y=ck)=P(X(1)=x(1),X(2)=x(2),...,X(n)=x(n)),k=1,2,...,K

朴素贝叶斯法对条件概率分布作了条件独立性假设。假设
P(X=xY=ck)=P(X(1)=x(1),X(2)=x(2),...,X(n)=x(n)|Y=ck)=j=1nP(X(j)=x(j)Y=ck).....(4.3)

朴素贝叶斯法实际上学习到了生成数据的机制,所以属于生成模型。

朴素贝叶斯法分类时,对给定的输入 x ,通过学习到的模型计算后验概率分布 P(Y=ckX=x) ,将后验概率最大的类作为x的类输出。后验概率计算根据贝叶斯定理进行:

P(Y=ckX=x)=P(X=xY=ck)P(Y=ck)Kk=1P(X=xY=ck)P(Y=ck)(4.4)

(注:其实公式4.4右半部分的分母能进一步简化为 P(X=x) ,因为式中对 Y 的每一种情况下 X=x 的概率求和,也就是 X=x 的概率 P(X=x) 。)

将(4.3)带入(4.4),
P(Y=ckX=x)=P(Y=ck)nj=1P(X(j)=x(j)Y=ck)kP(Y=ck)nj=1P(X(j)=x(j)Y=ck)(4.5)

于是,朴素贝叶斯分类器
y=f(x)=argmaxckP(Y=ck)jP(X(j)=x(j)|Y=ck)kP(ck)jP(X(j)=x(j)|Y=ck)......(4.6)

分母对于任何一个 ck 都是相同的,所以只需让分子最大化即可。分类器简化为
y=f(x)=argmaxckP(ck)jP(X(j)=x(j)|Y=ck).........(4.7)

(注:其实我上一个注已经解释过了,文中这样解释也不是不可以,就是太繁琐了。什么叫对任何一个 ck 都是相同的?就是说这个分母其实和 ck 没什么关系。具体来说,这个分母其实就是 P(X=x) ,它对于朴素贝叶斯分类器来说是一个常数。不知我这样说读者理解了吗?)

4.1.2 后验概率最大化的含义

朴素贝叶斯法将实例分类到后验概率最大的类中,这等价于期望风险最小化。理解就好,也很好理解我不写了。

4.2 朴素贝叶斯法的参数估计

4.2.1 极大似然估计

在朴素贝叶斯法中,学习意味着估计 P(Y=ck) P(X(j)=x(j)|Y=ck) 。可以利用极大似然估计法估计相应的概率。
先验概率的极大似然估计是

P(Y=ck)=Ni=1I(yi=ck)N,k=1,2,...,K       (4.8)

设第j个特征向量 x(j) 的可能取值的集合为 {aj1,aj2,...,ajSj} ,条件概率 P(X(j)=ajl|Y=ck) 的极大似然估计是
P(X(j)=xjl|Y=ck)=Ni=1I(x(j)i=ajl,yi=ck)Ni=1I(yi=ck)j=1,2,...,n;l=1,2,...,Sj;k=1,2,...,K......(4.9)

式(4.9)中, x(j)i 是第i个特征向量的第j个特征; ajl 是第j个特征的第 l 个可能的取值; I 是指示函数取值为0和1。

4.2.2 采用极大似然估计的学习和分类的算法

(上面的数学公式输入得我要吐了,更确切的说是边tu边写到这里。总算到算法了,离代码不远了。)
算法4.1 朴素贝叶斯算法
输入:训练数据 T={(x1,y1),(x2,y2),...(xN,yN)} ,其中 xi=(x(1)i,x(2)i,...x(n)i)T x(j)i 是第 i 个样本的第 j 个特征, x(j)i{aj1,aj2,...,ajSj} ajl 是第 j 个特征可能取得第 l 个值, j=1,2,...,n l=1,2,...,Sj yi{c1,c2,...,cK} ;实例 x
输出:实例 x 的分类。
(1)计算先验概率及条件概率

P(Y=ck)=Ni=1I(yi=ck)N,k=1,2,...,KP(X(j)=ajl|Y=ck)=Ni=1I(x(j)i=ajl,yi=ck)Ni=1I(yi=ck)j=1,2,...,n;l=1,2,...,Sj;k=1,2,...,K

(2)对于给定的 n 维实例 x=(x(1),x(1),...,x(n))T ,计算
P(Y=ck)j=1nP(X(j)=x(j)|Y=ck),k=1,2,...,K

(3)确定实例 x 的类
y=f(x)=argmaxckP(ck)jP(X(j)=x(j)|Y=ck)

在此式中,运算符
argmaxck
的意义是对参数 ck 赋值从 c1 cK ,取其中的最大值。

4.2.3 贝叶斯估计

为了避免概率为0的情况对计算结果的影响,采用贝叶斯估计。直接上贝叶斯估计的公式。

Pλ(X(j)=xjl|Y=ck)=Ni=1I(x(j)i=ajl,yi=ck)+λNi=1I(yi=ck)+Sjλj=1,2,...,n;l=1,2,...,Sj;k=1,2,...,KSj:j

对于任意的 j l Pλ(X(j)=xjl|Y=ck) 仍然是一个概率( 0Pλ1 )。

代码

这里我想弄一个文本分类的代码。还在构思中。

内容概要:本文详细介绍了“秒杀商城”微服务架构的设计实战全过程,涵盖系统从需求分析、服务拆分、技术选型到核心功能开发、分布式事务处理、容器化部署及监控链路追踪的完整流程。重点解决了高并发场景下的超卖问题,采用Redis预减库存、消息队列削峰、数据库乐观锁等手段保障数据一致性,并通过Nacos实现服务注册发现配置管理,利用Seata处理跨服务分布式事务,结合RabbitMQ实现异步下单,提升系统吞吐能力。同时,项目支持Docker Compose快速部署和Kubernetes生产级编排,集成Sleuth+Zipkin链路追踪Prometheus+Grafana监控体系,构建可观测性强的微服务系统。; 适合人群:具备Java基础和Spring Boot开发经验,熟悉微服务基本概念的中高级研发人员,尤其是希望深入理解高并发系统设计、分布式事务、服务治理等核心技术的开发者;适合工作2-5年、有志于转型微服务或提升架构能力的工程师; 使用场景及目标:①学习如何基于Spring Cloud Alibaba构建完整的微服务项目;②掌握秒杀场景下高并发、超卖控制、异步化、削峰填谷等关键技术方案;③实践分布式事务(Seata)、服务熔断降级、链路追踪、统一配置中心等企业级中间件的应用;④完成从本地开发到容器化部署的全流程落地; 阅读建议:建议按照文档提供的七个阶段循序渐进地动手实践,重点关注秒杀流程设计、服务间通信机制、分布式事务实现和系统性能优化部分,结合代码调试监控工具深入理解各组件协作原理,真正掌握高并发微服务系统的构建能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值