PySpark 序列化

PySpark 序列化

序列化在Apache Spark上用于性能调整。在网络上发送或写入磁盘或存储在内存中的所有数据都应该被序列化。序列化在耗时操作中起着重要的作用。

PySpark支持自定义序列化程序进行性能调优。PySpark支持以下两种序列化程序:

MarshalSerializer

使用Python的Marshal序列化程序对对象进行序列化。此序列化程序比PickleSerializer更快,但支持的数据类型较少。

class pyspark.MarshalSerializer

PickleSerializer

使用Python的Pickle Serializer对对象进行序列化。此序列化器支持几乎任何Python对象,但可能不像更专门的序列化器那样快速。

class pyspark.PickleSerializer

让我们来看一个使用PySpark序列化的例子。这里,我们使用MarshalSerializer来对数据进行序列化。

--------------------------------------serializing.py-------------------------------------
from pyspark.context import SparkContext
from pyspark.serializers import MarshalSerializer
sc = SparkContext("local", "serialization app", serializer = MarshalSerializer())
print(sc.parallelize(list(range(1000))).map(lambda x: 2 * x).take(10))
sc.stop()
--------------------------------------serializing.py-------------------------------------

命令 − 命令如下 −

$SPARK_HOME/bin/spark-submit serializing.py

输出 - 上述命令的输出是 –

[0, 2, 4, 6, 8, 10, 12, 14, 16, 18]

Python教程

Java教程

Web教程

数据库教程

图形图像教程

大数据教程

开发工具教程

计算机教程