周志华眼中的贝叶斯方法(转)

对Bayesian一类的东西,除了 NB、AODE等少数几个接近 discriminative 的,我都不是很感冒。并不是看不上那些技法,有时其实还是相当欣赏那些精巧的设计。不感冒的原因,主要是觉得里面的唯心味道太重了。生长在新中国红旗下, 自认为是唯物论者,对唯心的东西有一种心理上的天然抵触。
唯心不能怪老贝,他做Bayes公式本来就是为了证明上帝的存在,没有唯心味道反倒怪了。Prior 的选取,如果是针对具体应用,倒也没什么,根据 domain knowledge 设计 prior 本来是 incorporate domain knowledge 的有效途径,是好事不是坏事。问题是,好多 Bayesian fans 都标榜自己做得多基础,根本就不 care 具体应用领域,或许其实本身就对应用没感觉(应用要做得好,一定要对应用有“感觉”)。普适的 prior 本不存在,不考虑具体 domain 就只能形而上地去折腾,然后挑几个数据发发文章,实际可能一点用没有。或许一些人本来的目的就是为了发文章而不是解决问题。
如果最终目标是预测,我总觉得,就算数据真是由某个 generative model 生成的,能够导致分类性能好的 model 也未必一定是那个 ground-truth model。就好象 manifold 一样,把 ground-truth manifold 扭曲一点说不定分类更好做,05年的那个TSMCB文章就想说这件事。
其实 Bayesian fans 自己也知道要改良。固定参数不好,就整个 Chinese Restaurant Process 搞非参。假设 Gaussian 太随意,就来个 dirichlet 考虑分布的分布。“分布的分布”还觉得味道不好,就再整个 hierarchical dirichlet 玩“分布的分布的分布”。要我说,你怎么知道该加几层啊?说不定要“分布的分布的分布的分布”?遇到 MJ 问他,说还没想到怎么办。我觉得大可以在分布方向上再开个 Restaurant,计算问题似乎也不大,应该可以 marginalize。一般数据上大概显不出好处来,找几个很复杂的数据 show 一把发个 NIPS 估计是可以的,因为这玩意儿很合 NIPS 的口味。不过我自己实在没兴趣做。有谁想玩玩可以跟我说一声。
把 discrimitive 的东西放进去,唯心成分应该会小一些。没和 EX 聊过这个问题,看他这两年走的路子,有可能是所见略同。

以下是朴素贝叶斯分类器的伪代码: 1. 训练阶段: (1)对于每个类别 i,计算先验概率P(Y=i)。 (2)对于每个特征 j,计算在每个类别 i 下该特征的条件概率P(Xj=x|Y=i)。 2. 测试阶段: (1)对于输入样本 x,计算该样本属于每个类别 i 的条件概率P(Y=i|X=x)。 (2)将样本分到概率最大的类别中。 下面是朴素贝叶斯分类器的 C++ 代码实现,其中假设特征和类别都是离散的: ``` #include <iostream> #include <vector> #include <map> #include <cmath> using namespace std; // 计算先验概率 map<int, double> cal_prior_prob(vector<int>& labels) { map<int, double> prior_prob; int total = labels.size(); for (int i = 0; i < total; i++) { int label = labels[i]; if (prior_prob.find(label) == prior_prob.end()) { prior_prob[label] = 0.0; } prior_prob[label] += 1.0; } for (auto iter = prior_prob.begin(); iter != prior_prob.end(); iter++) { iter->second /= total; } return prior_prob; } // 计算条件概率 map<int, map<int, double>> cal_cond_prob(vector<vector<int>>& features, vector<int>& labels) { map<int, map<int, double>> cond_prob; int total = labels.size(); int feature_num = features[0].size(); for (int i = 0; i < total; i++) { int label = labels[i]; if (cond_prob.find(label) == cond_prob.end()) { cond_prob[label] = map<int, double>(); } for (int j = 0; j < feature_num; j++) { int feature = features[i][j]; if (cond_prob[label].find(j) == cond_prob[label].end()) { cond_prob[label][j] = map<int, double>(); } if (cond_prob[label][j].find(feature) == cond_prob[label][j].end()) { cond_prob[label][j][feature] = 0.0; } cond_prob[label][j][feature] += 1.0; } } for (auto iter1 = cond_prob.begin(); iter1 != cond_prob.end(); iter1++) { int label = iter1->first; for (auto iter2 = iter1->second.begin(); iter2 != iter1->second.end(); iter2++) { int feature = iter2->first; int feature_total = iter2->second.size(); for (auto iter3 = iter2->second.begin(); iter3 != iter2->second.end(); iter3++) { iter3->second /= feature_total; } } } return cond_prob; } // 预测 int predict(vector<int>& feature, map<int, double>& prior_prob, map<int, map<int, double>>& cond_prob) { int label = -1; double max_prob = -1.0; for (auto iter = prior_prob.begin(); iter != prior_prob.end(); iter++) { int cur_label = iter->first; double cur_prob = log(iter->second); for (int i = 0; i < feature.size(); i++) { cur_prob += log(cond_prob[cur_label][i][feature[i]]); } if (cur_prob > max_prob) { max_prob = cur_prob; label = cur_label; } } return label; } // 测试 void test(vector<vector<int>>& features, vector<int>& labels, map<int, double>& prior_prob, map<int, map<int, double>>& cond_prob) { int total = labels.size(); int correct = 0; for (int i = 0; i < total; i++) { int predict_label = predict(features[i], prior_prob, cond_prob); if (predict_label == labels[i]) { correct++; } } cout << "Accuracy: " << (double)correct / total << endl; } int main() { // 读取数据,features存放特征,labels存放类别 vector<vector<int>> features; vector<int> labels; // 训练 map<int, double> prior_prob = cal_prior_prob(labels); map<int, map<int, double>> cond_prob = cal_cond_prob(features, labels); // 测试 test(features, labels, prior_prob, cond_prob); return 0; } ``` 注意:这里的代码只是朴素贝叶斯分类器的一种实现方式,可能还有其他实现方式。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值