from pyspark.context import SparkContext from pyspark.sql.session import SparkSession sc = SparkContext('local') spark = SparkSession(sc)df = spark.read.csv('aaa.csv')
使用spark.read.csv ,出现NameError: name 'spark' is not defined
最新推荐文章于 2021-12-12 10:25:06 发布
本文介绍如何利用PySpark中的SparkSession从本地文件系统读取CSV文件并创建DataFrame对象。
866

被折叠的 条评论
为什么被折叠?



