PySpark tutorial 学习笔记6——Serializers

本文介绍了PySpark中序列化的基本概念及其对性能的影响,并详细对比了两种主要的序列化方式:PickleSerializer与MarshalSerializer。通过一个具体示例展示了如何使用MarshalSerializer进行数据序列化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Serializers

Serializers用于Apache Spark的性能调优。 通过网络发送或写入磁盘或持久存储在内存中的所有数据都应该序列化.

PySpark支持用于性能调优的自定义序列化程序。 PySpark支持以下两个序列化程序 - 

MarshalSerializer
使用Python的Marshal Serializer序列化对象。 此序列化程序比PickleSerializer更快,但支持更少的数据类型。

class pyspark.MarshalSerializer


PickleSerializer
使用Python的Pickle Serializer序列化对象。 此序列化程序几乎支持任何Python对象,但可能不如MarshalSerializer快。

class pyspark.PickleSerializer
让我们看一下PySpark序列化的例子。 在这里,我们使用MarshalSerializer序列化数据。

--------------------------------------serializing.py-------------------------------------
from pyspark.context import SparkContext
from pyspark.serializers import MarshalSerializer
sc = SparkContext("local", "serialization app", serializer = MarshalSerializer())
print(sc.parallelize(list(range(1000))).map(lambda x: 2 * x).take(10))
sc.stop()
--------------------------------------serializing.py-------------------------------------
Command − The command is as follows −

$SPARK_HOME/bin/spark-submit serializing.py
Output − The output of the above command is −

[0, 2, 4, 6, 8, 10, 12, 14, 16, 18]

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值