2.朴素贝叶斯算法

本文详细介绍了一种基于朴素贝叶斯理论的机器学习算法实现过程。通过具体代码示例,展示了如何从零开始构建朴素贝叶斯分类器,包括先验概率和条件概率的计算方法。适用于初学者理解并实践朴素贝叶斯算法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

朴素贝叶斯代码(原理很简单)
直接上代码

import numpy as np 
from collections import Counter,defaultdict

class Nbayes:
		def __init__(self):
			self.p_prior={}
			self.p_condiction={}
		def fit(self,x_train,y_train):
			#首先求出y_train的长度
			N=len(y_train)#N=y_train.shape[0]
			c_y=Counter(y_train)
			for key,var in c_y.items():
				self.p_prior[key]=var/N#求出各个y所占的概率
			#接下来求条件概率
			for d in range(x.train.shape[0]):
				xd_y=default(int)
				vector=x_train[:,d]
				for x,y in zip(vextor,y_train):
					xd_y[(x,y)]+=1
					for key,var in xd_y.items():
						self.p_condiction[(d,key[0],key[1])]=var/c_y(key[1])
		return 
		#写测试
		def predict(self,x_test):
			p=defaultdict()
			for y,y1 in self.p_prior.items():
				temp=y1
				for d,xd in enumerate(x):#枚举类型
						temp*=slef.p_condiction[(d,xd,y)] # 分母P(X)相同,故直接存储联合概率分布即可
				p[y]=temp
		return max(p,key=p.get)
		

if __name__ == '__main__':
    data = np.array([[1, 0, -1], [1, 1, -1], [1, 1, 1], [1, 0, 1],
                     [1, 0, -1], [2, 0, -1], [2, 1, -1], [2, 1, 1],
                     [2, 2, 1], [2, 2, 1], [3, 2, 1], [3, 1, 1],
                     [3, 1, 1], [3, 2, 1], [3, 2, -1]])
    X_data = data[:, :-1]
    y_data = data[:, -1]
    clf = NBayes()
    clf.fit(X_data, y_data)
    print(clf.p_prior, '\n')##每个特征的概率
    print(clf.p_condition,'\n')
    print(clf.predict(np.array([2, 0])))	
				

写完了,这就是朴树贝叶斯

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值