概述,贝叶斯策略,最大似然估计

概述,贝叶斯策略,最大似然估计

标签: 模式分类

@author lancelot-vim


绪论

宽度和数量直方图:

宽度与数量直方图.png-138.7kB

光泽度和数量直方图:

光泽度与数量直方图.png-137.3kB

宽度-光泽度联合分类图:

宽度-光泽度联合分类.png-176.6kB

简单归纳:
  1. 从单一特征得到的分类一般不强
  2. 将单一特征组合起来成多特征分类能得到更强的分类器
  3. 分类器模型简单(如图中红色线条)会比较弱,分类器太强(如图中蓝色线条)可能会过分类
  4. 以上问题,可能会存在如果鲈鱼分错,可能不会有太大的问题,但反之可能造成很大的影响
问题:
  1. 如何选择特征
  2. 如何选择分类器
  3. 分类之后如何采取行动

处理方案流程图:
Created with Raphaël 2.1.0 输入 (物理信号) 传感器 (输入信号,模拟信号、数字信号等) 预处理 (分割,组织,对单词、字母、图像去除背景等操作) 特征提取 (平移不变性、旋转不变性、尺度不变性,三维问题、遮挡问题、透视失真等) 分类 (同一类别特征值波动, 不同类别的差异,特征丢失) 后处理 (上下文信息改善分类,根据风险选择策略)

贝叶斯决策论

引言

条件概率密度与贝叶斯公式

条件概率密度与贝叶斯公式.png-90.5kB

P(w1)=23, P(w2)=13时的后验概率:

后验概率图.png-84kB


误差定义:

p(error)={ p(w1|x)p(w2|x)xw2xw2

总误差为: P(error)=p(error,x)dx=p(error|x)p(x)dx

x, 若 p(error|x) 尽量小, 那么 P(error)就尽量小, 所以令 p(error|x)=min[p(w1|x),p(w2|x)]


连续特征的贝叶斯决策论

  • 允许使用多于一个的特征
  • 允许使用两种类别以上的情形
  • 允许有其他行为而不仅仅只是判定类别
  • 通过引入一个更一般的损失函数来代替误差概率

以下4个约定:
1. { w1,w2,w3,...wc} 表示c个类别(class)
2. { α1,α2,α3....αa} 表示a中行动(action)
3. λ(αi|wj) 表示类别为wj,采取行为αi的损失
4. x⃗ 表示d维的特征

根据贝叶斯公式: p(wj|x⃗ )=p(x⃗ |wj)p(wj)p(x⃗ )

若观测到x⃗ 0,采取行为αi,则损失为:R(αi|x⃗ 0) = cj=1λ(αi|wj)p(wj|x⃗ 0)

总损失为: R=R(α(x⃗ )|x⃗ )P(x⃗ )dx⃗ 
若选择α(x⃗ 使得:R(αi|x⃗ )对每个x⃗ 尽可能小,则风险函数最小化


对于二分类问题

约定:
1. α1 对应于w1
2. α2 对应于w2
3. λij=λ(αi|w

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值