默认从hdfs中读,从文件中读应当
val df = spark.read.json(“file:///opt/module/spark-local/people.json”)
从hdfs中读还可以
val df = spark.read.json(“hdfs:///opt/module/spark-local/people.json”)
本文探讨了Spark DataFrame如何同时从HDFS和本地文件系统读取数据,重点在于比较两种方式的使用场景和效率。通过实例说明了`spark.read.json()`在不同源的选择技巧。
默认从hdfs中读,从文件中读应当
val df = spark.read.json(“file:///opt/module/spark-local/people.json”)
从hdfs中读还可以
val df = spark.read.json(“hdfs:///opt/module/spark-local/people.json”)
7270
1692
5440

被折叠的 条评论
为什么被折叠?