sc.textFiles() 与 sc.wholeTextFiles() 的区别及使用

 

       众所周知,sc.textFiles(path) 能将path 里的所有文件内容读出,以文件中的每一行作为一条记录的方式:

>>> textFile = sc.textFile(path)
>>> textFile.collect()
'Hello world!'

       文件的每一行 相当于 列表 的一个元素,因此可以在每个partition中用for i in data的形式遍历处理数据。



     如果需要将大量文件按照目录分类的方式存储在HDFS上,这时从HDFS上读取文件就需要使用sparkcontext.wholeTextFiles();而使用 sc.wholeTextFiles()时,参见官网:

Read a directory of text files from HDFS, a local file system
(available on all nodes), or any  Hadoop-supported file system
URI. Each file is read as a single record and returned in a
key-value pair, where the key is the path of each file, the
value is the content of each file.
...
>>> textFiles = sc.wholeTextFiles(dirPath)
>>> sorted(textFiles.collect())
[(u'.../1.txt', u'1'), (u'.../2.txt', u'2')]

         如上面所示,返回的是[(key, val), (key, val)...]的形式,其中key是文件路径,val是文件内容,这里我们要注意的重点是:'''Each file is read as a single record''' 这句话,每个文件作为一个记录!这说明这里的 val 将不再是 list的方式为你将文件每行拆成一个 list的元素,而是将整个文本的内容以字符串的形式读进来,也就是说val ='...line1...\n...line2...\n';这时需要你自己去拆分每行!而如果你还是用for i in val的形式来遍历 val那么i得到的将是每个字符。具体操作如下:

val tmp = sc.wholeTextFiles("src/main/resources/doc/")
          .map(_._2)
          .flatMap(_.split("\n"))

解释下,sc.wholeTextFiles("path")返回的是[(key, val), (key, val)...]的形式,其中key是文件路径,val是文件内容;因为我们需要的是内容部分,使用.map(_._2)取到内容,但是一个value是一个文件的全部内容且是string形式,需要手动分开,所以使用.flatMap(_.split("\n"))来进行手动换行,这样就可以了。

tip:1.wholeTextFiles对于大量的小文件效率比较高,大文件效果没有那么高

        2.textFile可以用于读取大文件

### 如何在 PySpark 中创建 RDD 在 PySpark 中,可以通过多种方式来创建 Resilient Distributed Dataset (RDD),这是 Spark 的核心抽象之一。以下是几种常见的创建 RDD 方法及其示例。 #### 使用 `parallelize` 创建 RDD 可以利用 SparkContext 提供的 `parallelize` 方法将 Python 列表或其他可迭代对象转化为分布式数据集(即 RDD)。这种方法适用于本地集合的数据并将其分布到集群上运行[^4]。 ```python from pyspark import SparkConf, SparkContext if __name__ == "__main__": conf = SparkConf().setAppName("create_rdd_parallelize").setMaster("local[*]") sc = SparkContext(conf=conf) data_list = [1, 2, 3, 4, 5] rdd_from_list = sc.parallelize(data_list) result = rdd_from_list.collect() print(result) # 输出: [1, 2, 3, 4, 5] ``` #### 从外部存储系统加载数据创建 RDD 另一种常见的方式是从 HDFS 或其他支持的文件系统中读取数据文件来构建 RDD。例如,使用 `textFile` 方法可以从文本文件生成 RDD,其中每一行作为单独的一个元素。 ```python rdd_from_file = sc.textFile("../data/input/sample.txt") print(rdd_from_file.collect()) ``` 对于更复杂的小型文件结构,还可以采用 `wholeTextFiles` 来一次性获取路径下的所有文件内容以及对应的文件名: ```python rdd_whole_text_files = sc.wholeTextFiles("../data/input/tiny_files/") for file_name, content in rdd_whole_text_files.collect(): print(f"File Name: {file_name}, Content: {content}") ``` 以上展示了两种主要途径用于初始化 RDD 实体——通过内存中的列表或者磁盘上的实际资料档案来进行操作。 ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值