Spark中的RDD持久化缓存 cache()、persist()(附案例)

RDD在Spark中多次复用会导致重复计算,通过cache()和persist()可以实现数据持久化,提高性能。cache等价于MEMORY_ONLY存储级别,而persist允许设置更多存储级别。实际项目常选的存储级别为MEMORY_ONLY或兼顾磁盘的MEMORY_AND_DISK。缓存是Lazy操作,需Action触发,且非必需时可释放缓存。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

对RDD的转换过程中,如果要对中间某个RDD复用多次,比如对RDD进行多次输出,那么默认情况下每次Action都会触发一个job,每个job都会从头开始加载数据并重新计算,浪费时间。

如果将逻辑上的RDDn的数据持久化到具体的存储介质上比如内存、磁盘、堆外内存,那么只用计算一次该RDD,不就可以提高程序性能了吗。

我们可以使用缓存函数:cache()persist() 来持久化存储某个RDDn的数据集到内存或磁盘中,方便后期复用该RDD时无需从头计算。


以下3个例子都是仅持久化到内存:

  • rdd.cache() 
  • 等价于 rdd.persist() 
  • 等价于 rdd.persist(storageLevel=StorageLevel.MEMORY_ONLY) 

更多储存级别:

# 表示不缓存
StorageLevel.NONE                      # StorageLevel(False, False, False, False)

# 表示缓存数据到磁盘中
StorageLevel.DISK_ONLY                 # StorageLevel(True, False, False, False)
StorageLevel.DISK_ONLY_2               # StorageLevel(True, False, False
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

竹长大大

客官,赏个银子吧,别下次一定了

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值