机器学习-监督学习之朴素贝叶斯算法
贝叶斯理论是概率论框架下实施决策的基本方法,对分类任务来说,在所有的相关概率都已知的理想情况下,贝叶斯理论考虑如何基于这些概率和误判损失来选择最优的类别标记。
基本原理:
Prior: 已知的,在A/B发生条件下R发生的概率
Posterior: 未知的, 推测出来的R发生条件下是A/B的概率
误报 False positive
举个例子来解释误报,在医院看病的人中,10000个人中有一个是生病的。诊断的准确率为99%,那么在样本数据为1000000的群体里面,真正生病并且被检出来的有99人,而没有生病却被检查出来生病的有9999人,这9999人的即被称为误报。
Error = 1%
Naive Bayes
- Naive assumption:
假设A和B是互相独立的事件,那么A和B同时发生的概率如下:
- Conditional probability
条件概率事件:<