贝叶斯应用_文本分析_代码实践

本文通过读取数据,利用jieba进行分词,去除停用词,采用TF-IDF提取关键词,构建WordCloud进行文本可视化,并使用CountVectorizer和TfidfVectorizer将文章转化为向量,最后通过贝叶斯分类器进行文本分类,实现了对文本数据的高效分析,分类器精度达到0.8152。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一:读取数据

数据源 http://www.sogou.com/labs/resource/ca.php

import pandas as pd
import numpy as np
import jieba #pip install jieba

df_news=pd.read_table('data/val.txt',names=['category','theme','URL','content'],encoding='utf-8')
df_news=df_news.dropna()
df_news.head()

这里写图片描述

df_news.shape

输出为:(5000, 4)

二:将数据中的content列转换为list 格式
content=df_news.content.values.tolist() #jieba分词器要求输入的数据为list格式 所以将数据中的content列转换为list 格式
print (content[1000])

这里写图片描述

三:使用jieba分词器分词
content_S=[]
for line in content:
    current_segment=jieba.lcut(line)
    if len(current_segment)>1 and current_segment !='\r\n': #换行符
        content_S.append(current_segment)
content_S[1000]

输出为:
这里写图片描述

四:将分词后的content生成Dataframe格式
df_content=pd.DataFrame({
  
  'content_S':content_S})
df_content.head()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值