python sklearn CountVectorizer的使用及相关说明

博主想用Python对数据集预处理,分析系统调用关系,采用n - gram方法,介绍了sklearn中CountVectorizer方法的使用。说明了其参数如ngram_range、binary、token_pattern的意义,还介绍了调用pandas库展示结果,以及输出结果各部分的含义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近想用python对数据集进行数据预处理,想要分析系统调用之间的关系。初步想法是利用n-gram方法,因此查询到了python的sklearn中有一个CountVectorizer方法可以使用,在这里介绍一下这个函数的使用方法,以及其输出的相关含义。

0x01 输入及输出

from sklearn.feature_extraction.text import CountVectorizer
# from sklearn.feature_extraction.text import TfidfTransformer
import pandas as pd

data = ['I love you', 'you are my angle are']


vecl = CountVectorizer(ngram_range=(1, 1), binary=False, token_pattern='\w{1,}')
xl = vecl.fit_transform(data)
print(vecl.get_feature_names())  # 特征名称
print(vecl.vocabulary_)             # 特征在列表中的索引位置
X = vecl.fit_transform(data)
print(X)
df = pd.DataFrame(X.toarray(), columns=vecl.get_feature_names()) # to DataFrame
print(df.head())

首先调用CountVectorizer方法,其中的几个参数意义如下:

ngram_range:(1,1)表示1-gram (2,2)表示2-gram   (1,2)表示1-gram + 2-gram

binary:FALSE表示不将文本进行二进制表示

token_pattern:通过正则表达式来确定哪些数据被过滤掉,默认情况下单个英文字母会被过滤掉,代码中的\w{1,}可以避免这种情况

fit_transform(data) 用来对数据进行处理,表示成n-gram的形式
get_feature_names()来获取都获取了哪特征
vocabulary_用来表示特征在get_feature_names()中的列表中的位置

调用pandas库主要用于将特征以及生成的稀疏矩阵用表的形式展现出来

以下为输出结果:

图中第一行为获取的特征

第二行为各个特征的索引号,例如‘i’:2 表示字符i在特征表中的索引为2

第三部分为稀疏矩阵 正常的输出矩阵如下面的一部分所示, (0,2) 1  表示在全部矩阵的第0行第2列有数据1 在稀疏矩阵中没有表示的索引全部为0

第四部分为全部矩阵 最左侧的一列表示文本的索引号,0表示第一个文本 'I love you'   1表示'you are my angle are'

再看第二列 angle在0行值为0,在1行值为1 表示angle在一个文本中没有出现,在第二个文本中出现了一次

同理 第二列表示are在第一个文本中没有出现,在第二个文本中出现了两次。

 

### 如何使用 Python 的 scikit-learn 构建词频矩阵 构建词频矩阵的核心在于 `CountVectorizer` 类,它能够将文本数据转化为词频矩阵。以下是详细的说明以及代码示例。 #### 使用 CountVectorizer 创建词频矩阵 `CountVectorizer` 是 scikit-learn 中用于实现词袋模型的一个工具类。它可以统计每篇文档中各个单词的出现次数,并将其表示为稀疏矩阵形式[^2]。 下面是一个完整的代码示例: ```python from sklearn.feature_extraction.text import CountVectorizer # 定义输入语料库 contents = [ '我 是 中国 人。', '你 是 美国 人。', '他 叫 什么 名字?', '她 是 谁 啊?' ] # 初始化 CountVectorizer 对象 count_vectorizer = CountVectorizer() # 将文本转换成词频矩阵 text_matrix = count_vectorizer.fit_transform(contents) # 输出特征名称(即词汇表) print("词汇表:", count_vectorizer.get_feature_names_out()) # 打印词频矩阵 (稀疏矩阵) print("词频矩阵:\n", text_matrix.toarray()) ``` 上述代码实现了以下几个功能: 1. **定义语料库**:通过列表存储多条文本数据。 2. **初始化 CountVectorizer**:创建一个 `CountVectorizer` 实例对象。 3. **生成词频矩阵**:调用 `.fit_transform()` 方法完成从文本到词频矩阵的转化。 4. **获取词汇表**:利用 `.get_feature_names_out()` 获取当前语料库中的所有唯一词汇。 #### 结果解释 运行以上代码后可以得到两部分内容: 1. **词汇表**:显示的是经过预处理后的所有不重复词汇集合。 2. **词频矩阵**:每一行代表一条原始文本记录,列则对应不同的词汇项,数值表示相应位置上的词汇频率。 如果需要进一步计算 TF-IDF 权重,则可以在上面的基础上引入另一个组件——`TfidfTransformer` 或者直接改用集成版的 `TfidfVectorizer`[^1]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值