Bayes Classifier by George

本文介绍了一个基于C++实现的朴素贝叶斯分类器,详细展示了从加载训练数据到预测过程的具体步骤。该分类器能处理文本分类任务,通过使用boost库解析训练文件,并实现了向量化表示和概率计算等功能。

train.txt format: label\tword word …

/*************************************************************************
 > File Name: bayesNB.cpp
 > Author: test
 ************************************************************************/
#include<iostream>
#include<unordered_map>
#include<fstream>
#include<vector>
#include<string.h>
#include <boost/algorithm/string.hpp>
#include <assert.h>
#include<time.h>
#include<math.h>
#include<algorithm>
using namespace std;

//note: asure that each line of train file more than two words, (class and one word).
void loadData(const string src_file, vector<vector<string> > &data, vector<string> &classVec){
    fstream fin;
    fin.open(src_file.c_str());
    string line;
    vector<string> words, lineVec;
    int count=0;
    while(!fin.eof()) {
        if(getline(fin, line)) {
            //the format of train file, each line as: class w1 w2 w3...
            words = boost::split(words, line, boost::is_any_of(" \t"));
            //make sure each line has more than class one word
            assert (words.size()>=2);
            for (auto iter=words.begin()+1; iter != words.end(); ++iter) {
                lineVec.push_back(*iter);
            }
            data.push_back(lineVec);
            classVec.push_back(words[0]);
            count++;
            words.clear();
            lineVec.clear();
        }
    }
    fin.close();
}

void getDictFromData(vector<vector<string> > data, unordered_map<string, float> &vcab, vector<string> &ordered_vcab){
    for (auto vec_iter=data.begin(); vec_iter != data.end(); ++vec_iter) {
        for (auto iter=(*vec_iter).begin(); iter != (*vec_iter).end(); ++iter) {
            if (*iter != "")    vcab.insert({*iter, 0});
        }
    }
    for (auto map_iter=vcab.begin(); map_iter != vcab.end(); ++map_iter) ordered_vcab.push_back(map_iter->first);
}

void getMat(vector<vector<string> > data, unordered_map<string, float> vcab, vector<vector<float> > &trainMat, vector<string> ordered_vcab, bool isTest) {
    unordered_map<string, float> tmp_map;
    for (auto map_iter=vcab.begin(); map_iter != vcab.end(); ++map_iter) tmp_map.insert({map_iter->first, 0.0});
    const size_t vcab_size = ordered_vcab.size();
    //Vec represents a vec corresponds to the dictionary for each line, as: [0, 1, ....].
    float appear;
    vector<float> vecMat;   
    for (auto vec_iter=data.begin(); vec_iter != data.end(); ++vec_iter) {
        for (auto str_iter=(*vec_iter).begin(); str_iter != (*vec_iter).end(); ++str_iter) {
            if ((*str_iter) != "") {
            auto got = tmp_map.find(*str_iter);
            if (!isTest) assert (!(got == tmp_map.end()));
            if (got==tmp_map.end()) continue;
            tmp_map[*str_iter] = 1.0;
            }
        }
        for (auto vcab_iter=ordered_vcab.begin(); vcab_iter != ordered_vcab.end(); ++vcab_iter) {
            appear = tmp_map[*vcab_iter];
            vecMat.push_back(appear);
        }
        trainMat.push_back(vecMat);
        //erase vecMat and set tmp_map->second to zeros
        for (auto str_iter=(*vec_iter).begin(); str_iter != (*vec_iter).end(); ++str_iter) tmp_map[*str_iter] = 0.0;
        vecMat.clear();
    }
}

//probs mapping class to vec 
//prob mapping class to the probability
void getClassifyVec(vector<string> classVec, vector<vector<float> >trainMat, 
        unordered_map<string, vector<float> > &probs, unordered_map<string, float> &prob) {
    assert(classVec.size()==trainMat.size());
    assert(classVec.size()>0);
    const size_t nb_train = classVec.size();
    const size_t nb_dict = trainMat[0].size();
    vector<float> fvec;
    for (unsigned int i=0; i<nb_train; ++i) {
        if (probs.find(classVec[i]) == probs.end()) {
            prob.insert({classVec[i], 2});//the time start by 1, not 0, to avoid 0 times.   
            for (auto iter=trainMat[i].begin(); iter != trainMat[i].end(); ++iter) fvec.push_back(*iter+1.0);
            probs.insert({classVec[i], fvec});
            fvec.clear();
        }else{
            prob[classVec[i]] += 1;
            for (unsigned int j=0; j<nb_dict; ++j) probs[classVec[i]][j] += trainMat[i][j];
        }
    }
    //normalize the prob
    float total = 0.0;
    for (auto iter=prob.begin(); iter != prob.end(); ++iter) total += iter->second;
    for (auto iter=prob.begin(); iter != prob.end(); ++iter) iter->second /= total;
    total = 0.0;
    //normalize the probs
    for (auto vec_iter=probs.begin(); vec_iter != probs.end(); ++vec_iter) {
        for (auto iter=(vec_iter->second).begin(); iter != (vec_iter->second).end(); ++iter) total += *iter;
        for (auto iter=(vec_iter->second).begin(); iter != (vec_iter->second).end(); ++iter) *iter/=total;
        total = 0.0;
    }
}

//predictMat represents the probability matrix corresponding to the classes
//because the testMat is organised by the ordered_vcab
//classes introduced by classVec by clear the repeated elements
void predict(vector<vector<float> >testMat, vector<vector<float> > &predictMat, vector<string> &classes, vector<string> classVec,
        unordered_map<string, vector<float> > probs, unordered_map<string, float> prob) {
    //we introduce the log to avoid too small number 
    //also it gives a beautiful form
    //init classes by classVec
    for (auto iter=classVec.begin(); iter != classVec.end(); ++iter) classes.push_back(*iter);
    sort(classes.begin(), classes.end());
    auto iter=unique(classes.begin(), classes.end());
    classes.erase(iter, classes.end());
    vector<float> predict;
    float pclass;
    float p=0.0;
    for (unsigned int i=0; i<testMat.size(); ++i) {
        for (auto iter=classes.begin(); iter != classes.end(); ++iter) {
            pclass=prob[*iter];
            assert(probs[*iter].size()==testMat[i].size());
            for (int j=0; j<probs[*iter].size(); ++j) p+=log(probs[*iter][j])*testMat[i][j];
            p += log(pclass);
            predict.push_back(p);
            p=0.0;
        }
        predictMat.push_back(predict);
        predict.clear();
    }
}

void predictClass(vector<vector<float> > predictMat, vector<string> classes,
        vector<string> &predictClasses) {
    size_t index=0;
    float maxEle;
    for (auto iter=predictMat.begin(); iter != predictMat.end(); ++iter) {
        maxEle=(*iter)[0];
        for (auto iter1=(*iter).begin(); iter1 != (*iter).end(); ++iter1) 
            maxEle = maxEle<(*iter1)?(*iter1):maxEle;   
        for (auto iter1=(*iter).begin(); iter1 != (*iter).end(); ++iter1) {
            if (maxEle==(*iter1)) break;
            index += 1;
        }
        predictClasses.push_back(classes[index]);   
        index = 0;
    }
}

int main(){
    time_t start, end;
    time(&start);
    string src_file = "train1";
    string test_file = "val1";
    vector<vector<string> > data, testData;
    vector<vector<float> > trainMat, testMat, predictMat;
    vector<string> classVec, testClassVec, classes, predictClasses;
    vector<string> ordered_vcab;
    unordered_map<string, float> vcab;
    unordered_map<string, vector<float> > probs;
    unordered_map<string, float> prob;
    loadData(src_file, data, classVec);
    getDictFromData(data, vcab, ordered_vcab);
    /*
    for (auto iter=data.begin(); iter != data.end(); ++iter) {
        for (auto iter1=(*iter).begin(); iter1 != (*iter).end(); ++iter1) {
            cout<<*iter1<<" ";
        }
        cout<<"\n";
    }
    */
    //for (auto iter=ordered_vcab.begin(); iter != ordered_vcab.end(); ++iter) cout<<*iter<<" ";
    //cout<<ordered_vcab.size()<<"\n";
    getMat(data, vcab, trainMat, ordered_vcab, 0); 
    /*
    for (auto iter=trainMat.begin(); iter != trainMat.end(); ++iter) {
        for (auto iter1=(*iter).begin(); iter1 != (*iter).end(); ++iter1) {
            cout<<*iter1<<" ";
        }
        cout<<"\n";
    }
    */
    getClassifyVec(classVec, trainMat, probs, prob);
    /*
    for (auto iter=probs.begin(); iter != probs.end(); ++iter) {
        cout<<iter->first<<"\n";
        auto tmp = &(iter->second);
        for (auto iter1=(*tmp).begin(); iter1 != (*tmp).end(); ++iter1) {
            cout<<*iter1<<" ";
        }
        cout<<"\n";
    }
    */
    loadData(test_file, testData, testClassVec);
    getMat(testData, vcab, testMat, ordered_vcab, 1);
    predict(testMat, predictMat, classes, classVec, probs, prob); 
    predictClass(predictMat, classes, predictClasses);
    /*
    for (auto iter=predictMat.begin(); iter != predictMat.end(); ++iter) {
        for (auto iter1=(*iter).begin(); iter1 != (*iter).end(); ++iter1) {
            cout<<*iter1<<" ";
        }
        cout<<"\n";
    }
    */
    //for (auto iter=predictClasses.begin(); iter !=  predictClasses.end(); ++iter) cout<<*iter<<"\n";
    time(&end);
    cout<<"running time: "<<difftime(end, start)<<"\n";
    return 0;
}
标题SpringBoot智能在线预约挂号系统研究AI更换标题第1章引言介绍智能在线预约挂号系统的研究背景、意义、国内外研究现状及论文创新点。1.1研究背景与意义阐述智能在线预约挂号系统对提升医疗服务效率的重要性。1.2国内外研究现状分析国内外智能在线预约挂号系统的研究与应用情况。1.3研究方法及创新点概述本文采用的技术路线、研究方法及主要创新点。第2章相关理论总结智能在线预约挂号系统相关理论,包括系统架构、开发技术等。2.1系统架构设计理论介绍系统架构设计的基本原则和常用方法。2.2SpringBoot开发框架理论阐述SpringBoot框架的特点、优势及其在系统开发中的应用。2.3数据库设计与管理理论介绍数据库设计原则、数据模型及数据库管理系统。2.4网络安全与数据保护理论讨论网络安全威胁、数据保护技术及其在系统中的应用。第3章SpringBoot智能在线预约挂号系统设计详细介绍系统的设计方案,包括功能模块划分、数据库设计等。3.1系统功能模块设计划分系统功能模块,如用户管理、挂号管理、医生排班等。3.2数据库设计与实现设计数据库表结构,确定字段类型、主键及外键关系。3.3用户界面设计设计用户友好的界面,提升用户体验。3.4系统安全设计阐述系统安全策略,包括用户认证、数据加密等。第4章系统实现与测试介绍系统的实现过程,包括编码、测试及优化等。4.1系统编码实现采用SpringBoot框架进行系统编码实现。4.2系统测试方法介绍系统测试的方法、步骤及测试用例设计。4.3系统性能测试与分析对系统进行性能测试,分析测试结果并提出优化建议。4.4系统优化与改进根据测试结果对系统进行优化和改进,提升系统性能。第5章研究结果呈现系统实现后的效果,包括功能实现、性能提升等。5.1系统功能实现效果展示系统各功能模块的实现效果,如挂号成功界面等。5.2系统性能提升效果对比优化前后的系统性能
在金融行业中,对信用风险的判断是核心环节之一,其结果对机构的信贷政策和风险控制策略有直接影响。本文将围绕如何借助机器学习方法,尤其是Sklearn工具包,建立用于判断信用状况的预测系统。文中将涵盖逻辑回归、支持向量机等常见方法,并通过实际操作流程进行说明。 一、机器学习基本概念 机器学习属于人工智能的子领域,其基本理念是通过数据自动学习规律,而非依赖人工设定规则。在信贷分析中,该技术可用于挖掘历史数据中的潜在规律,进而对未来的信用表现进行预测。 二、Sklearn工具包概述 Sklearn(Scikit-learn)是Python语言中广泛使用的机器学习模块,提供多种数据处理和建模功能。它简化了数据清洗、特征提取、模型构建、验证与优化等流程,是数据科学项目中的常用工具。 三、逻辑回归模型 逻辑回归是一种常用于分类任务的线性模型,特别适用于二类问题。在信用评估中,该模型可用于判断借款人是否可能违约。其通过逻辑函数将输出映射为0到1之间的概率值,从而表示违约的可能性。 四、支持向量机模型 支持向量机是一种用于监督学习的算法,适用于数据维度高、样本量小的情况。在信用分析中,该方法能够通过寻找最佳分割面,区分违约与非违约客户。通过选用不同核函数,可应对复杂的非线性关系,提升预测精度。 五、数据预处理步骤 在建模前,需对原始数据进行清理与转换,包括处理缺失值、识别异常点、标准化数值、筛选有效特征等。对于信用评分,常见的输入变量包括收入水平、负债比例、信用历史记录、职业稳定性等。预处理有助于减少噪声干扰,增强模型的适应性。 六、模型构建与验证 借助Sklearn,可以将数据集划分为训练集和测试集,并通过交叉验证调整参数以提升模型性能。常用评估指标包括准确率、召回率、F1值以及AUC-ROC曲线。在处理不平衡数据时,更应关注模型的召回率与特异性。 七、集成学习方法 为提升模型预测能力,可采用集成策略,如结合多个模型的预测结果。这有助于降低单一模型的偏差与方差,增强整体预测的稳定性与准确性。 综上,基于机器学习的信用评估系统可通过Sklearn中的多种算法,结合合理的数据处理与模型优化,实现对借款人信用状况的精准判断。在实际应用中,需持续调整模型以适应市场变化,保障预测结果的长期有效性。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
Foodpanda 的全面记录,包含 6000 条精心整理的记录,涵盖了从客户人口统计信息到订单、支付、评价和配送细节的各个方面。它为数据分析师和研究人员提供了一个丰富的资源,可用于深入分析和洞察 Foodpanda 的业务运营和客户行为。 数据集内容客户人口统计信息:数据集详细记录了客户的年龄、性别、收入水平、地理位置等基本信息。这些信息有助于了解不同客户群体的特征,为精准营销和客户细分提供数据支持。 订单信息:每条记录都包含了订单的日期、时间、金额以及购买的商品或服务。通过分析这些数据,可以发现客户的购买习惯和偏好,例如哪些时间段是订单高峰期,哪些菜品最受欢迎。 支付信息:数据集中还包含了支付方式、支付状态和支付金额等信息。这些数据可以帮助分析不同支付方式的使用频率,以及支付成功率等关键指标。 评价信息:客户对订单、服务或产品的评分和评论也被记录在数据集中。这些评价数据对于情感分析和客户满意度研究至关重要,能够帮助 Foodpanda 了解客户的真实反馈,从而改进服务质量。 配送细节:数据集还详细记录了配送时间、配送地址和配送状态等信息。通过分析这些数据,可以优化配送路线和时间,提高客户满意度。 数据集的应用场景:客户行为分析:通过分析客户的购买习惯、偏好和评价,可以更好地了解客户需求,从而提供更个性化的服务。 客户流失预测:利用数据集中的客户行为和评价数据,可以构建模型预测哪些客户可能会流失,以便提前采取措施挽留。 客户细分:根据客户的人口统计信息和购买行为,可以将客户划分为不同的群体,为每个群体提供定制化的服务和营销策略。 销售趋势分析:通过分析订单数据,可以发现销售的增长或下降趋势,为业务决策提供依据。 情感洞察:通过分析客户的评价和评论,可以了解客户对产品或服务的情感倾向,及时发现潜在问题并加以改进。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值