2021年大数据Spark十八):Spark Core的RDD Checkpoint

网友投稿 718 2022-05-28

目录

RDD Checkpoint

引入

API

代码演示

总结:持久化和Checkpoint的区别

问题:

答案:

区别:

RDD Checkpoint

引入

RDD 数据可以持久化,但是持久化/缓存可以把数据放在内存中,虽然是快速的,但是也是最不可靠的;也可以把数据放在磁盘上,也不是完全可靠的!例如磁盘会损坏等。

Checkpoint的产生就是为了更加可靠的数据持久化,在Checkpoint的时候一般把数据放在在HDFS上,这就天然的借助了HDFS天生的高容错、高可靠来实现数据最大程度上的安全,实现了RDD的容错和高可用。

在Spark Core中对RDD做checkpoint,可以切断做checkpoint RDD的依赖关系,将RDD数据保存到可靠存储(如HDFS)以便数据恢复;

API

第一步:sc.setCheckpointDir("HDFS目录") //HDFS的目录

第二步:rdd.checkpoint //后续会被多次频繁使用到的RDD/很重要的RDD

代码演示

package cn.itcast.core

import org.apache.spark.{SparkConf, SparkContext}

/**

* RDD数据Checkpoint设置,案例演示

*/

2021年大数据Spark(十八):Spark Core的RDD Checkpoint

object SparkCkptTest {

def main(args: Array[String]): Unit = {

val sparkConf: SparkConf = new SparkConf()

.setAppName(this.getClass.getSimpleName.stripSuffix("$"))

.setMaster("local[*]")

val sc: SparkContext = new SparkContext(sparkConf)

sc.setLogLevel("WARN")

// 设置检查点目录,将RDD数据保存到那个目录

sc.setCheckpointDir("./ckp")

// 读取文件数据

val datasRDD = sc.textFile("data/input/words.txt")

// 调用checkpoint函数,将RDD进行备份,需要RDD中Action函数触发

datasRDD.checkpoint()

datasRDD.count()

//再次执行count函数, 此时从checkpoint读取数据

datasRDD.count()

// 应用程序运行结束,关闭资源

sc.stop()

}

}

总结:持久化和Checkpoint的区别

问题:

缓存持久化 VS Checkpoint 开发中用哪个?

答案:

缓存持久化(保证后续再次使用的速度) + Checkpoint(保证安全)

区别:

1)、存储位置

Persist 和 Cache 只能保存在本地的磁盘和内存中(或者堆外内存);

Checkpoint 可以保存数据到 HDFS 这类可靠的存储上;

2)、生命周期

Cache和Persist的RDD会在程序结束后会被清除或者手动调用unpersist方法;

Checkpoint的RDD在程序结束后依然存在,不会被删除;

3)、Lineage(血统、依赖链、依赖关系)

Persist和Cache,不会丢掉RDD间的依赖链/依赖关系,因为这种缓存是不可靠的,如果出现了一些错误(例如 Executor 宕机),需要通过回溯依赖链重新计算出来;

Checkpoint会斩断依赖链,因为Checkpoint会把结果保存在HDFS这类存储中,更加的安全可靠,一般不需要回溯依赖链;

spark 大数据

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:句柄不回收,空间不释放
下一篇:MySQL 学习三:如何完全卸载掉本地 MySQL 数据库步骤小结
相关文章