PySpark StorageLevel
StorageLevel决定了RDD应该如何被存储。在Apache Spark中,StorageLevel决定RDD是否应该存储在内存中,还是应该存储在磁盘上,或者两者都存储。它还决定是否对RDD进行序列化,以及是否对RDD分区进行复制。
下面的代码块有一个StorageLevel的类定义:
现在,为了决定RDD的存储,有不同的存储级别,如下所示
- DISK_ONLY = StorageLevel(True, False, False, False, 1)
-
DISK_ONLY_2 = StorageLevel(True, False, False, False, 2)
-
MEMORY_AND_DISK = StorageLevel(True, True, False, False, 1)
-
MEMORY_AND_DISK_2 = StorageLevel(True, True, False, False, 2)
-
MEMORY_AND_DISK_SER = StorageLevel(True, True, False, False, 1)
-
MEMORY_AND_DISK_SER_2 = StorageLevel(True, True, False, False, 2)
-
MEMORY_ONLY = StorageLevel(False, True, False, False, 1)
-
MEMORY_ONLY_2 = StorageLevel(False, True, False, False, 2)
-
MEMORY_ONLY_SER = StorageLevel(False, True, False, False, 1)
-
MEMORY_ONLY_SER_2 = StorageLevel(False, True, False, False, 2)
-
OFF_HEAP = StorageLevel(True, True, True, False, 1)
让我们考虑以下StorageLevel的例子,我们使用存储级别 MEMORY_AND_DISK_2, 这意味着RDD分区的复制将是2。
命令 - 命令如下-
输出 - 上述命令的输出情况如下