Naive Bayesian classification

本文详细介绍了贝叶斯分类的概念、分类问题综述、贝叶斯分类的基础——贝叶斯定理,以及朴素贝叶斯分类的原理与流程。特别讨论了朴素贝叶斯分类实例,即如何利用该方法检测SNS社区中的不真实账号。通过简化数据和设定特征属性,展示了如何应用朴素贝叶斯分类进行实际问题的解决。

1.1、摘要

      贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。本文作为分类算法的第一篇,将首先介绍分类问题,对分类问题进行一个正式的定义。然后,介绍贝叶斯分类算法的基础——贝叶斯定理。最后,通过实例讨论贝叶斯分类中最简单的一种:朴素贝叶斯分类。

1.2、分类问题综述

      对于分类问题,其实谁都不会陌生,说我们每个人每天都在执行分类操作一点都不夸张,只是我们没有意识到罢了。例如,当你看到一个陌生人,你的脑子下意识判断TA是男是女;你可能经常会走在路上对身旁的朋友说“这个人一看就很有钱、那边有个非主流”之类的话,其实这就是一种分类操作。

      从数学角度来说,分类问题可做如下定义:

      已知集合:,确定映射规则,使得任意有且仅有一个使得成立。(不考虑模糊数学里的模糊集情况)

      其中C叫做类别集合,其中每一个元素是一个类别,而I叫做项集合,其中每一个元素是一个待分类项,f叫做分类器。分类算法的任务就是构造分类器f。

      这里要着重强调,分类问题往往采用经验性方法构造映射规则,即一般情况下的分类问题缺少足够的信息来构造100%正确的映射规则,而是通过对经验数据的学习从而实现一定概率意义上正确的分类,因此所训练出的分类器并不是一定能将每个待分类项准确映射到其分类,分类器的质量与分类器构造方法、待分类数据的特性以及训练样本数量等诸多因素有关。

      例如,医生对病人进行诊断就是一个典型的分类过程,任何一个医生都无法直接看到病人的病情,只能观察病人表现出的症状和各种化验检测数据来推断病情,这时医生就好比一个分类器,而这个医生诊断的准确率,与他当初受到的教育方式(构造方法)、病人的症状是否突出(待分类数据的特性)以及医生的经验多少(训练样本数量)都有密切关系。

1.3、贝叶斯分类的基础——贝叶斯定理

      每次提到贝叶斯定理,我心中的崇敬之情都油然而生,倒不是因为这个定理多高深,而是因为它特别有用。这个定理解决了现实生活里经常遇到的问题:已知某条件概率,如何得到两个事件交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A)。这里先解释什么是条件概率:

      表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。其基本求解公式为:

      贝叶斯定理之所以有用,是因为我们在生活中经常遇到这种情况:我们可以很容易直接得出P(A|B),P(B|A)则很难直接得出,但我们更关心P(B|A),贝叶斯定理就为我们打通从P(A|B)获得P(B|A)的道路。

      下面不加证明地直接给出贝叶斯定理:

     

1.4、朴素贝叶斯分类

1.4.1、朴素贝叶斯分类的原理与流程

      朴素贝叶斯分类是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想真的很朴素,朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。通俗来说,就好比这么个道理,你在街上看到一个黑人,我问你你猜这哥们哪里来的,你十有八九猜非洲。为什么呢?因为黑人中非洲人的比率最高,当然人家也可能是美洲人或亚洲人,但在没有其它可用信息下,我们会选择条件概率最大的类别,这就是朴素贝叶斯的思想基础。

      朴素贝叶斯分类的正式定义如下:

      1、设为一个待分类项,而每个a为x的一个特征属性。

      2、有类别集合

      3、计算

      4、如果,则

      那么现在的关键就是如何计算第3步中的各个条件概率。我们可以这么做:

      1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。

      2、统计得到在各类别下各个特征属性的条件概率估计。即

      3、如果各个特征属性是条件独立的,则根据贝叶斯定理有如下推导:

     

      因为分母对于所有类别为常数,因为我们只要将分子最大化皆可。又因为各特征属性是条件独立的,所以有:

     

      根据上述分析,朴素贝叶斯分类的流程可以由下图表示(暂时不考虑验证):

      可以看到,整个朴素贝叶斯分类分为三个阶段:

      第一阶段——准备工作阶段,这个阶段的任务是为朴素贝叶斯分类做必要的准备,主要工作是根据具体情况确定特征属性,并对每个特征属性进行适当划分,然后由人工对一部分待分类项进行分类,形成训练样本集合。这一阶段的输入是所有待分类数据,输出是特征属性和训练样本。这一阶段是整个朴素贝叶斯分类中唯一需要人工完成的阶段,其质量对整个过程将有重要影响,分类器的质量很大程度上由特征属性、特征属性划分及训练样本质量决定。

      第二阶段——分类器训练阶段,这个阶段的任务就是生成分类器,主要工作是计算每个类别在训练样本中的出现频率及每个特征属性划分对每个类别的条件概率估计,并将结果记录。其输入是特征属性和训练样本,输出是分类器。这一阶段是机械性阶段,根据前面讨论的公式可以由程序自动计算完成。

      第三阶段——应用阶段。这个阶段的任务是使用分类器对待分类项进行分类,其输入是分类器和待分类项,输出是待分类项与类别的映射关系。这一阶段也是机械性阶段,由程序完成。

1.4.2、估计类别下特征属性划分的条件概率及Laplace校准

      这一节讨论P(a|y)的估计。

      由上文看出,计算各个划分的条件概率P(a|y)是朴素贝叶斯分类的关键性步骤,当特征属性为离散值时,只要很方便的统计训练样本中各个划分在每个类别中出现的频率即可用来估计P(a|y),下面重点讨论特征属性是连续值的情况。

      当特征属性为连续值时,通常假定其值服从高斯分布(也称正态分布)。即:

     

      而

      因此只要计算出训练样本中各个类别中此特征项划分的各均值和标准差,代入上述公式即可得到需要的估计值。均值与标准差的计算在此不再赘述。

      另一个需要讨论的问题就是当P(a|y)=0怎么办,当某个类别下某个特征项划分没有出现时,就是产生这种现象,这会令分类器质量大大降低。为了解决这个问题,我们引入Laplace校准,它的思想非常简单,就是对没类别下所有划分的计数加1,这样如果训练样本集数量充分大时,并不会对结果产生影响,并且解决了上述频率为0的尴尬局面。

1.4.3、朴素贝叶斯分类实例:检测SNS社区中不真实账号

      下面讨论一个使用朴素贝叶斯分类解决实际问题的例子,为了简单起见,对例子中的数据做了适当的简化。

      这个问题是这样的,对于SNS社区来说,不真实账号(使用虚假身份或用户的小号)是一个普遍存在的问题,作为SNS社区的运营商,希望可以检测出这些不真实账号,从而在一些运营分析报告中避免这些账号的干扰,亦可以加强对SNS社区的了解与监管。

      如果通过纯人工检测,需要耗费大量的人力,效率也十分低下,如能引入自动检测机制,必将大大提升工作效率。这个问题说白了,就是要将社区中所有账号在真实账号和不真实账号两个类别上进行分类,下面我们一步一步实现这个过程。

      首先设C=0表示真实账号,C=1表示不真实账号。

      1、确定特征属性及划分

      这一步要找出可以帮助我们区分真实账号与不真实账号的特征属性,在实际应用中,特征属性的数量是很多的,划分也会比较细致,但这里为了简单起见,我们用少量的特征属性以及较粗的划分,并对数据做了修改。

      我们选择三个特征属性:a1:日志数量/注册天数,a2:好友数量/注册天数,a3:是否使用真实头像。在SNS社区中这三项都是可以直接从数据库里得到或计算出来的。

      下面给出划分:a1:{a<=0.05, 0.05<a<0.2, a>=0.2},a1:{a<=0.1, 0.1<a<0.8, a>=0.8},a3:{a=0(不是),a=1(是)}。

      2、获取训练样本

      这里使用运维人员曾经人工检测过的1万个账号作为训练样本。

      3、计算训练样本中每个类别的频率

      用训练样本中真实账号和不真实账号数量分别除以一万,得到:

     

     

      4、计算每个类别条件下各个特征属性划分的频率

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

      5、使用分类器进行鉴别

      下面我们使用上面训练得到的分类器鉴别一个账号,这个账号使用非真实头像,日志数量与注册天数的比率为0.1,好友数与注册天数的比率为0.2。

     

     

      可以看到,虽然这个用户没有使用真实头像,但是通过分类器的鉴别,更倾向于将此账号归入真实账号类别。这个例子也展示了当特征属性充分多时,朴素贝叶斯分类对个别属性的抗干扰性。

1.5、分类器的评价

      虽然后续还会提到其它分类算法,不过这里我想先提一下如何评价分类器的质量。

      首先要定义,分类器的正确率指分类器正确分类的项目占所有被分类项目的比率。

      通常使用回归测试来评估分类器的准确率,最简单的方法是用构造完成的分类器对训练数据进行分类,然后根据结果给出正确率评估。但这不是一个好方法,因为使用训练数据作为检测数据有可能因为过分拟合而导致结果过于乐观,所以一种更好的方法是在构造初期将训练数据一分为二,用一部分构造分类器,然后用另一部分检测分类器的准确率。




原文地址:http://www.cnblogs.com/leoo2sk/archive/2010/09/17/naive-bayesian-classifier.html

<think>好的,我现在需要帮助用户实现使用贝叶斯分类器进行两种天气图像的自动识别。首先,我得确认贝叶斯分类的基本原理以及它在图像识别中的应用方式。贝叶斯分类属于生成式模型,基于概率统计,需要先计算先验概率和类条件概率,然后通过贝叶斯定理计算后验概率来进行分类。 用户的需求是区分两种天气图像,比如可能是晴天和雨天。首先,我需要考虑图像的特征提取方法。常见的图像特征包括颜色直方图、纹理特征(如灰度共生矩阵)、边缘特征等。贝叶斯分类对特征的选择比较敏感,所以需要选择能够有效区分不同天气的特征。例如,雨天图像的整体亮度可能较低,颜色分布偏冷色调,而晴天可能有更多的蓝色天空和明亮区域。 接下来,特征提取之后,需要将特征向量作为贝叶斯分类器的输入。这里可能需要假设特征之间的独立性,即朴素贝叶斯假设,因为完全贝叶斯分类在处理高维数据时计算复杂度很高。但图像特征之间可能存在相关性,比如颜色和纹理之间有关联,这可能会影响朴素贝叶斯的准确性。不过考虑到用户的需求是两种天气的分类,也许特征选择足够好的情况下,即使有独立性假设,分类效果也能接受。 然后是数据准备。用户需要收集足够多的天气图像,并进行标注,分为训练集和测试集。数据预处理包括归一化特征,可能还需要降维处理,比如使用PCA来减少特征维度,避免维度灾难。 接着是训练贝叶斯模型。对于连续型特征,通常假设其服从高斯分布,计算每个类别的均值和方差。对于离散型特征,比如颜色直方图的bin,可能需要计算每个类别的概率分布。之后,根据贝叶斯公式计算后验概率,选择概率较大的类别作为预测结果。 评估部分,需要使用测试集计算准确率、精确率、召回率等指标,验证模型的效果。如果效果不佳,可能需要调整特征提取方法,或者考虑其他模型,但用户明确要求使用贝叶斯分类,所以需要优化特征选择和模型参数。 可能的挑战包括特征之间的相关性影响朴素贝斯的效果,以及图像特征的表示是否足够区分两类天气。这时候可能需要引入更复杂的特征,或者使用贝叶斯网络的结构来捕捉特征间的关系,但复杂度会增加。 另外,参考用户提到的CVPR 2015的资料,虽然引用内容提到深度学习的局限性,但这里用户明确使用贝叶斯方法,所以可能不需要考虑深度学习。不过可以指贝叶斯方法的优缺点,比如计算效率高,但特征工程要求高,而深度学习在特征自动提取方面有优势,但需要大量数据和计算资源。 最后,需要给具体的步骤和代码示例,帮助用户实现。代码部分可能需要使用Python中的scikit-learn库的GaussianNB模块,处理图像特征后输入模型训练。同时,提醒用户注意特征归一化和数据平衡等问题。</think>### 贝叶斯分类在天气图像识别中的应用步骤 #### 1. **数据准备与预处理** - **数据集构建**:收集晴天和雨天两类图像(各至少500张),确保光照、角度等条件多样化[^1]。 - **特征提取**: - **颜色特征**:提取RGB/HSV直方图(如16-bin直方图),描述整体颜色分布。 - **纹理特征**:使用灰度共生矩阵(GLCM)计算对比度、能量等纹理指标。 - **亮度特征**:计算图像平均亮度值(适用于区分晴天的高亮度场景)。 - **特征归一化**:使用Z-score标准化消除量纲影响。 #### 2. **贝叶斯分类器建模** - **朴素贝叶斯假设**:假设特征间条件独立,简化计算。 - **概率计算**: - 计算先验概率:$P(\text{晴天}) = \frac{N_{\text{晴天}}}{N_{\text{总}}}$,$P(\text{雨天})$同理。 - 计算类条件概率:对连续特征(如亮度)假设高斯分布,估计均值$\mu$和方差$\sigma^2$: $$ P(x_i | c) = \frac{1}{\sqrt{2\pi\sigma_c^2}} \exp\left(-\frac{(x_i - \mu_c)^2}{2\sigma_c^2}\right) $$ - 对离散特征(如直方图bin值)使用频率估计: $$ P(x_i | c) = \frac{\text{类别c中特征x_i现的次数} + \alpha}{\text{类别c样本总数} + \alpha K} $$ ($\alpha$为平滑系数,$K$为特征可能取值数) #### 3. **分类决策** 对测试图像提取特征向量$\mathbf{x} = (x_1, x_2, ..., x_n)$,计算后验概率: $$ P(c|\mathbf{x}) \propto P(c) \prod_{i=1}^n P(x_i|c) $$ 选择使$P(\text{晴天}|\mathbf{x})$和$P(\text{雨天}|\mathbf{x})$更大的类别。 #### 4. **代码实现(Python示例)** ```python from sklearn.naive_bayes import GaussianNB from skimage import color, feature import numpy as np # 特征提取函数 def extract_features(image): # 转换到HSV空间 hsv = color.rgb2hsv(image) # 颜色直方图(H通道) hist_h = np.histogram(hsv[:,:,0], bins=16, range=(0,1))[0] # 亮度特征(V通道均值) brightness = np.mean(hsv[:,:,2]) # GLCM纹理特征(对比度) gray = color.rgb2gray(image) glcm = feature.graycomatrix((gray*255).astype(np.uint8), distances=[1], angles=[0]) contrast = feature.graycoprops(glcm, 'contrast')[0,0] return np.concatenate([hist_h, [brightness, contrast]]) # 数据加载与预处理 X_train = [extract_features(img) for img in train_images] y_train = train_labels # 0表示晴天,1表示雨天 # 训练贝叶斯分类器 model = GaussianNB() model.fit(X_train, y_train) # 预测 test_features = extract_features(test_image) pred = model.predict([test_features])[0] print("晴天" if pred == 0 else "雨天") ``` #### 5. **性能优化建议** - **特征选择**:通过卡方检验或互信息法筛选区分度高的特征 - **数据增强**:对训练图像添加噪声、旋转等增强鲁棒性 - **混合模型**:对颜色特征使用多项式朴素贝叶斯,对连续特征使用高斯朴素贝叶斯
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值