val rddFromFile = spark.sparkContext.textFile("test.txt").collect().mkString("\n")
注:本地文件的话,这里用相对路径和绝对路径都可以,或直接传hdfs路径
取Array[String]的第一个元素:
val rddFromFile = spark.sparkContext.textFile("test.txt").collect()(0)
参考:https://sparkbyexamples.com/spark/spark-read-text-file-rdd-dataframe/
scala> val args = Array("Hello", "world", "it's", "me")
val args: Array[String] = Array(Hello, world, it's, me)
scala> val string = args.mkString(" ")
val string: String = Hello world it's me
scala> val string = args.mkString("\n")
val string: String =
Hello
world
it's
me
Spark读取文本文件示例
本文介绍如何使用Apache Spark从不同路径加载文本文件,并演示了如何将读取到的数据转换为字符串。此外,还提供了如何操作字符串数组并将其合并成单一字符串的方法。
134

被折叠的 条评论
为什么被折叠?



