from pyspark.sql import SparkSession
创建SparkSession
spark = SparkSession.builder.appName(“example”).getOrCreate()
读取表
example_table = spark.read.table(“example_table”)
使用collect()方法将表中的数据收集到驱动程序中
data = example_table.collect()
将收集到的数据转换为列表
data_list = [row.asDict() for row in data]
print(data_list)
关闭SparkSession
spark.stop()
PySpark操作:从表中读取并转换数据
该段代码演示了如何在PySpark中创建SparkSession,读取名为example_table的表,使用collect方法将数据收集到驱动程序并转化为字典列表,最后关闭SparkSession。
1299

被折叠的 条评论
为什么被折叠?



