from pyspark.context import SparkContext from pyspark.sql.session import SparkSession sc = SparkContext('local') spark = SparkSession(sc)df = spark.read.csv('aaa.csv')
使用spark.read.csv ,出现NameError: name 'spark' is not defined
最新推荐文章于 2021-07-03 00:25:40 发布
本文介绍如何利用PySpark中的SparkSession从本地文件系统读取CSV文件并创建DataFrame对象。
912

被折叠的 条评论
为什么被折叠?



