确保Excel文档安全的有效加密策略和方法
590
2022-05-29
因为在之前的几篇博客中,小菌已经为大家带来了HDFS的基本概念及一些常用操作,这篇博客小菌将接着HDFS文件系统介绍的内容,为大家带来HDFS的读写流程!
文章目录
文件写入过程(重点)
文件读取过程(重点)
HDFS数据的完整性
文件写入过程(重点)
详细步骤解析:
1、 client发起文件上传请求,通过
RPC
与NameNode建立通讯,NameNode检查目标文件是否已存在,父目录是否存在,返回是否可以上传;RPC 指的是 远程过程调用。是集群中多个组件、多个模块进行数据通信的一 种方式。
2、 client请求第一个block该传输到哪些DataNode服务器上;
3、 NameNode根据配置文件中指定的备份数量及机架感知原理进行文件分配,返回可用的DataNode的地址如:
A,B,C;
4、 client请求3台DataNode中的一台A上传数据(本质上是一个RPC调用,建立pipeline),A收到请求会继续调用B,然后B调用C,将整个pipeline建立完成,后逐级返回client;pi
5、 client开始往A上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位(默认64K),A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答。
6、 数据被分割成一个个packet数据包在pipeline上依次传输,在pipeline反方向上,逐个发送ack(命令正确应答),最终由pipeline中第一个DataNode节点A将pipelineack发送给client;
7、关闭写入流。
8、 当一个block传输完成之后,client再次请求NameNode上传第二个block到服务器。
文件读取过程(重点)
详细步骤解析:
1、客户端通过调用FileSystem对象的open()来读取希望打开的文件。
2、 Client向NameNode发起RPC请求,来确定请求文件block所在的位置;
3、 NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode 都会返回含有该 block副本的 DataNode 地址; 这些返回的 DN 地址,会按照集群拓扑结构得出 DataNode 与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离 Client 近的排靠 前;心跳机制中超时汇报的 DN 状态为 STALE,这样的排靠后;
4、 Client 选取排序靠前的 DataNode 来读取 block,如果客户端本身就是DataNode,那么将从本地直接获取数据(短
路读取特性);
5、 底层上本质是建立 Socket Stream(FSDataInputStream),重复的调用父类 DataInputStream 的 read 方法,直到这个块上的数据读取完毕;
6、并行读取,若失败重新读取
7、当读完列表的 block 后,若文件读取还没有结束,客户端会继续向NameNode 获取下一批的 block 列表;
8、返回后续block列表
9、最终关闭读流,并将读取来所有的 block 会合并成一个完整的最终文件。
说明: 1、读取完一个 block 都会进行 checksum 验证,如果读取 DataNode 时出现错误,客户端会 通知 NameNode,然后再从下一个拥有该 block 副本的DataNode 继续读。 2、read 方法是并行的读取 block 信息,不是一块一块的读取;NameNode 只是返回Client请 求包含块的DataNode地址,并不是返回请求块的数据;
1
2
3
4
5
HDFS数据的完整性
1.数据在写入之后进行校验和的计算,DataNode周期性进行校验和计算,将计算结果与第一次的结果进行对比。
若相同表示无数据丢失,若不相同表示数据有丢失,丢失进行数据恢复。
2.数据读取之前对数据进行校验,与第一次的结果进行对比。
若相同表示数据没有丢失,可以读取。若不相同表示数据,有所丢失。需要到其他副本读取。
本次的分享就到这里了,小伙伴们有什么疑惑或好的建议可以积极在评论区留言,小菌后续还会推出HDFS系列的其他内容,希望大家持续关注小菌~~
往期内容回顾:
《HDFS文件系统介绍(1)》
《HDFS的shell常用命令大全》
Hadoop
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。