1.读取cvs文件数据写入parquet文件
val spark =SparkSession.builder().appName("test").master("local").getOrCreate()
val file = "hdfs://clusters/test/demo.csv"
val frame = spark
博客讲述了在使用Spark处理数据时,尝试将CSV文件转换为Parquet格式遇到的错误:`org.apache.parquet.schema.InvalidSchemaException:Group type cannot be empty.` 作者发现该问题是由于parquet包的版本冲突导致,删除了非Spark依赖的parquet包后问题得到解决。
1.读取cvs文件数据写入parquet文件
val spark =SparkSession.builder().appName("test").master("local").getOrCreate()
val file = "hdfs://clusters/test/demo.csv"
val frame = spark
1147
1186
555
4901

被折叠的 条评论
为什么被折叠?