机器学习_PySpark-3.0.3文本特征提取(TF-IDF)流程
本例中 Tokenizer 是用于分词的模块。
本例中 HashingTF().tranform() 函数把词哈希成特征向量, 返回结果是 Vectors.sparse() 类型的。
本例中 IDF 类用于计算给定文档集合的反文档频率, 是一个词普遍重要性的度量 (即: 一个词存在多少个文档中)。
导入 pyspark.sql 相关模块
Spark SQL 是用于结构化数据处理的 Spark 模块。它提供了一种成为 DataFrame 编程抽象, 是由 SchemaRDD 发展而来。
不同于 SchemaRDD 直接继承 RDD, DataFrame 自己实现了 RDD 的绝大多数功能。
from pyspark.sql import SparkSession
from pyspark.ml.feature import Tokenizer, HashingTF, IDF
创建 SparkSession 对象
Spark 2.0 以上版本的 spark-shell 在启动时会自动创建一个名为 spark 的 SparkSession 对象。
当需要手工创建时, SparkSession 可以由其伴生对象的 builder 方法创建出来。
spark = SparkSession.builder.master("local[*]").appName("spark").getOrCreate()
使用 Spark 构建 DataFrame 数据 (行作为列表中的列表)
当数据量较小时, 可以使用该方法手工构建 DataFrame 数据。
构建数据集 (行作为列表中的列表):
# 创建一个简单的 DataFrame, 每一个句子代表一个文档。
Data_Set = [[0, "I heard about Spark and I love Spark"],
[0, "I wish Java could use case classes"],
[1, "Logistic regression models are neat"]]
将数据集转化到指定列名的 DataFrame 数据框:
SDF = spark.createDataFrame(Data_Set).toDF("label", "sentence")
输出 DataFrame 数据框:
print("[Message] Builded Spark DataFrame:")
SDF.show()
输出:
[Message] Builded Spark DataFrame:
+-----+--------------------+
|label| sentence|
+-----+--------------------+
| 0|I heard about Spa...|
| 0|I wish Java could...|
| 1|Logistic regressi...|
+-----+--------------------+
特征提取 Step 1 - 使用 Tokenizer 创建分词器对象
# 特征提取 Step 1 - 创建分词器对象。
MyTokenizer = Tokenizer().setInputCol("sentence").setOutputCol("Words")
Dat

本文详细介绍了如何在PySpark3.0.3环境中使用Tokenizer进行分词,然后通过HashingTF计算词频并将词哈希成特征向量,最后利用IDF计算词的反文档频率,展示了从数据预处理到特征提取的完整流程。
最低0.47元/天 解锁文章
1186





