怎样给不同的柱子上添加不同的标准误差线(怎么给柱形图加误差线)
764
2022-05-30
经过上一篇博文的简单介绍,相信大家对ZooKeeper有了更深一步的了解,那么,此篇博文,开始讲述Zookeeper的内部原理。
目录
1. 选举机制(重点)
2. 节点类型
2.1 Znode有两种类型:
2.2 Znode有四种形式的目录节点(默认是persistent )
3. Stat结构体
4. -原理(重点)
5. Paxos算法
5.1 图形解释
5.2 Paxos算法流程中的每条消息描述如下
6. 写数据流程
1. 选举机制(重点)
1. 半 数 机 制 : 集 群 中 半 数 以 上 机 器 存 活 , 集 群 可 用 。 所 以 Z o o k e e p e r 适 合 安 装 奇 数 台 服 务 器 。 \color{#FF0000}{1. 半数机制:集群中半数以上机器存活,集群可用。所以Zookeeper适合安装奇数台服务器。} 1.半数机制:集群中半数以上机器存活,集群可用。所以Zookeeper适合安装奇数台服务器。
2. Zookeeper虽然在配置文件中并没有指定 M a s t e r 和 S l a v e 。 \color{#FF0000}{Master和Slave。} Master和Slave。但是,Zookeeper工作时,是有一个节点为Leader,其他则为Follower,Leader是通过内部的选举机制临时产生的。
3. 以一个简单的例子来说明整个选举的过程。
假设有五台服务器组成的Zookeeper集群,它们的id从1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是一样的。假设这些服务器依序启动,来看看会发生什么,如下图所示。
过程详解:
(1)服务器1启动,发起一次选举。服务器1投自己一票。此时服务器1票数一票,不够半数以上(3票),选举无法完成,服务器1状态保持为LOOKING;
(2)服务器2启动,再发起一次选举。服务器1和2分别投自己一票并交换选票信息:此时服务器1发现服务器2的ID比自己目前投票推举的(服务器1)大,更改选票为推举服务器2。此时服务器1票数0票,服务器2票数2票,没有半数以上结果,选举无法完成,服务器1,2状态保持LOOKING
(3)服务器3启动,发起一次选举。此时服务器1和2都会更改选票为服务器3。此次投票结果:服务器1为0票,服务器2为0票,服务器3为3票。此时服务器3的票数已经超过半数,服务器3当选Leader。服务器1,2更改状态为FOLLOWING,服务器3更改状态为LEADING;
(4)服务器4启动,发起一次选举。此时服务器1,2,3已经不是LOOKING状态,不会更改选票信息。交换选票信息结果:服务器3为3票,服务器4为1票。此时服务器4服从多数,更改选票信息为服务器3,并更改状态为FOLLOWING;
(5)服务器5启动,同4一样当小弟。
2. 节点类型
2.1 Znode有两种类型:
短暂(ephemeral):客户端和服务器端断开连接后,创建的节点自动删除
持久(persistent):客户端和服务器端断开连接后,创建的节点不删除
2.2 Znode有四种形式的目录节点(默认是persistent )
持久化目录节点(PERSISTENT)
客户端与zookeeper断开连接后,该节点依旧存在
持久化顺序编号目录节点(PERSISTENT_SEQUENTIAL)
客户端与zookeeper断开连接后,该节点依旧存在,只是Zookeeper给该节点名称进行顺序编号
临时目录节点(EPHEMERAL)
客户端与zookeeper断开连接后,该节点被删除
临时顺序编号目录节点(EPHEMERAL_SEQUENTIAL)
客户端与zookeeper断开连接后,该节点被删除,只是Zookeeper给该节点名称进行顺序编号
说明:创建znode时设置顺序标识,znode名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护
注 意 : 在 分 布 式 系 统 中 , 顺 序 号 可 以 被 用 于 为 所 有 的 事 件 进 行 全 局 排 序 , 这 样 客 户 端 可 以 通 过 顺 序 号 推 断 事 件 的 顺 序 \color{#FF0000}{注意:在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通过顺序号推断事件的顺序} 注意:在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通过顺序号推断事件的顺序
3. Stat结构体
czxid-创建节点的事务zxid
每次修改ZooKeeper状态都会收到一个zxid形式的时间戳,也就是ZooKeeper事务ID。
事务ID是ZooKeeper中所有修改总的次序。每个修改都有唯一的zxid,如果zxid1小于zxid2,那么zxid1在zxid2之前发生。
ctime - znode被创建的毫秒数(从1970年开始)
mzxid - znode最后更新的事务zxid
mtime - znode最后修改的毫秒数(从1970年开始)
pZxid-znode最后更新的子节点zxid
cversion - znode子节点变化号,znode子节点修改次数
dataversion - znode数据变化号
aclVersion - znode访问控制列表的变化号
ephemeralOwner- 如果是临时节点,这个是znode拥有者的session id。如果不是临时节点则是0。
d a t a L e n g t h − z n o d e 的 数 据 长 度 \color{#FF0000}{dataLength- znode的数据长度} dataLength−znode的数据长度
n u m C h i l d r e n − z n o d e 子 节 点 数 量 \color{#FF0000}{numChildren - znode子节点数量} numChildren−znode子节点数量
4. -原理(重点)
1. 监 听 原 理 详 解 : \color{#FF0000}{1. 监听原理详解:} 1.监听原理详解:
2. 常见的监听:
1. 监听节点数据的变化:get path [watch]
2. 监听子节点增减的变化:ls path [watch]
5. Paxos算法
Paxos算法一种基于消息传递且具有高度容错特性的一致性算法。
分布式系统中的节点通信存在两种模型:共享内存(Shared memory)和消息传递(Messages passing)。基于消息传递通信模型的分布式系统,不可避免的会发生以下错误:进程可能会慢、被杀死或者重启,消息可能会延迟、丢失、重复,在基础 Paxos 场景中,先不考虑可能出现消息篡改即拜占庭错误的情况。Paxos 算法解决的问题是在一个可能发生上述异常的分布式系统中如何就某个值达成一致,保证不论发生以上任何异常,都不会破坏决议的一致性。
5.1 图形解释
在一个Paxos系统中,首先将所有节点划分为Proposers,Acceptors,和Learners。(每个节点都可以身兼数职)
一个完整的Paxos算法流程分为三个阶段:
1. Preposer阶段
1.Proposer向Acceptors发出Prepare请求Promise(承诺)
2.Acceptors针对收到的Prepare请求进行Promise承诺
2. Accept阶段
Proposer收到多数Acceptors承诺的Promise后,向Accepter发出Propose请求
2.Acceptors针对收到的Propose请求进行Accept处理
2.Learn阶段
Proposer将形成的决议发送给所有Learners
5.2 Paxos算法流程中的每条消息描述如下
Prepare: Proposer生成全局唯一且递增的Proposal ID (可使用时间戳加Server ID),向所有Acceptors发送Prepare请求,这里无需携带提案内容,只携带Proposal ID即可。
Promise: Acceptors收到Prepare请求后,做出“两个承诺,一个应答”。
两个承诺:
a. 不再接受Proposal ID小于等于(注意:这里是<= )当前请求的Prepare请求。
b. 不再接受Proposal ID小于(注意:这里是< )当前请求的Propose请求。
一个应答:
c. 不违背以前做出的承诺下,回复已经Accept过的提案中Proposal ID最大的那个提案的Value和Proposal ID,没有则返回空值。
Propose: Proposer 收到多数Acceptors的Promise应答后,从应答中选择Proposal ID最大的提案的Value,作为本次要发起的提案。如果所有应答的提案Value均为空值,则可以自己随意决定提案Value。然后携带当前Proposal ID,向所有Acceptors发送Propose请求。
Accept: Acceptor收到Propose请求后,在不违背自己之前做出的承诺下,接受并持久化当前Proposal ID和提案Value。
Learn: Proposer收到多数Acceptors的Accept后,决议形成,将形成的决议发送给所有Learners。
下面针对上述描述做三种情况的推演举例:为了简化流程,我们这里不设置Learner。
情况1:
情况2:
Paxos算法缺陷:在网络复杂的情况下,一个应用Paxos算法的分布式系统,可能很久无法收敛,甚至陷入活锁的情况。
情况3:
造成这种情况的原因是系统中有一个以上的Proposer,多个Proposers相互争夺Acceptors,造成迟迟无法达成一致的情况。针对这种情况,一种改进的Paxos算法被提出:从系统中选出一个节点作为Leader,只有Leader能够发起提案。这样,一次Paxos流程中只有一个Proposer,不会出现活锁的情况,此时只会出现例子中第一种情况。
6. 写数据流程
本篇博客就到这里了,下一篇博客博主将为大家带来Zookeeper分布式安装部署,敬请期待!!!
看 完 就 赞 , 养 成 习 惯 ! ! ! \color{#FF0000}{看完就赞,养成习惯!!!} 看完就赞,养成习惯!!!^ _ ^ ❤️ ❤️ ❤️
码字不易,大家的支持就是我坚持下去的动力。后不要忘了关注我哦!
ZooKeeper 分布式
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。