Ceph分布式存储集群环境搭建以及节点扩容流程

网友投稿 1914 2022-05-29

Ceph分布式存储集群环境搭建以及节点扩容流程

文章目录

Ceph分布式存储集群环境搭建以及节点扩容流程

1.Ceph分布式存储集群安装方式

2.Ceph集群环境规划以及架构图

2.1.Ceph集群规划

2.2.Ceph集群部署架构图

3.搭建Ceph分布式存储集群

3.1.基础环境配置

3.2.配置Ceph yum源

3.3.安装Ceph-deploy自动化部署工具

3.4.在ceph-node-1节点中安装Monitor组件

3.4.1.首先初始化创建一个Ceph集群

3.4.2.在ceph-node-1节点中部署Monitor组件(顺便将其他组件一并安装完成)

3.4.3.初始化Monitor组件

3.4.4.推送生成的Monitor admin认证文件

3.5.在ceph-node-1节点中安装Manager组件

3.6.在集群中部署OSD组件

4.Ceph集群扩容节点

4.1.扩容Monitor集群节点

4.1.1.在Monitor集群中添加新的节点

4.1.2.使用ceph命令管理Monitor组件

4.1.2.1.查看Monitor集群的详细信息

4.1.2.2.查看Monitor集群的状态

4.1.2.3.查看Monitor集群地址的详细信息

4.2.扩容Manager集群节点

1.Ceph分布式存储集群安装方式

ceph-deploy:一个快速部署集群的工具,ceph-deploy不再维护,Ceph采用的是Nautilus版本,如果操作系统是CentOS8那么将不支持ceph-deploy方式的搭建。

Cephadm:使用容器和systemd安装和管理Ceph集群,目前比较流行的部署方式,部署Octopus版本的Ceph建议使用此方法。

ceph-ansible:使用Ansible部署和管理 Ceph 集群。

INSTALLATION (MANUAL):手动方式安装,了解部署Ceph的细节。

ROOK:部署和管理在Kubernetes中运行的Ceph集群,同时还支持通过Kubernetes API管理存储资源和配置,如果要与K8S集成,可以使用此种方式。

2.Ceph集群环境规划以及架构图

2.1.Ceph集群规划

由三个节点组成Ceph集群,每一个节点中添加两块网卡,一块网卡用于对外提供访问,一块网卡用于集群内部通信,每一个节点上暂时分别有2块网卡,后期做其他配置时再进行添加。

2.2.Ceph集群部署架构图

1、Ceph-deploy组件用于部署整个Ceph集群,安装在任意节点都可以。

2、Monitor组件在集群中十分重要,我们部署成集群模式,共有三个节点。

3、RGW组件是实现对象存储的重要组件,我们部署成集群模式,三个节点,由于RGW是无状态的WEB服务,因此通过两个Haproxy组件分别负载三个节点,并由Keepalived配置成高可用集群。

4、Mgr组件负责监控服务,也部署成集群模式,共有三个节点。

5、MDS组件是实现Cephfs文件系统的重要组件,因此也部署成集群模式,共有三个节点。

6、OSD组件是实际存储数据的组件,每个节点中都部署了两个OSD服务,后期也会进行扩容。

3.搭建Ceph分布式存储集群

3.1.基础环境配置

所有节点都按如下进行配置。

1)设置主机名并配置Hosts解析

[root@localhost ~]# hostnamectl set-hostname ceph-node-1 [root@localhost ~]# hostnamectl set-hostname ceph-node-2 [root@localhost ~]# hostnamectl set-hostname ceph-node-3 # vim /etc/hosts 192.168.20.20 ceph-node-1 192.168.20.21 ceph-node-2 192.168.20.22 ceph-node-3

1

2

3

4

5

6

7

8

2)设置ssh免密登陆

# ssh-keygen # ssh-copy-id -i .ssh/id_rsa.pub root@192.168.20.20 # ssh-copy-id -i .ssh/id_rsa.pub root@192.168.20.21 # ssh-copy-id -i .ssh/id_rsa.pub root@192.168.20.22

1

2

3

4

3)关闭防火墙以及Selinux

# systemctl stop firewalld # systemctl disable firewalld # setenforce 0 # sed -ri '/^SELINUX/c SELINUX=disabled' /etc/sysconfig/selinux # sed -ri '/^SELINUX/c SELINUX=disabled' /etc/selinux/config

1

2

3

4

5

4)设置ntp时间同步

在Ceph集群中非常注重时间信息,如果时间不同步,那么集群通信就可能会出现问题。

# yum -y install ntp # crontab -e */5 * * * * /usr/sbin/ntpdate ntp1.aliyun.com

1

2

3

3.2.配置Ceph yum源

所有节点都需要配置。

1)使用阿里云镜像源

阿里云镜像源中提供了很多工具的yum源,地址:https://developer.aliyun.com/mirror/

2)配置Centos7的Base与Epel源

# mkdir /etc/yum.repos.d/back # mv /etc/yum.repos.d/* /etc/yum.repos.d/back # curl -o /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo # curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

1

2

3

4

3)配置Ceph的镜像源

需要分布配置noarch与x86_64的镜像源。

# vim /etc/yum.repos.d/ceph.repo a[noarch] name=noarch baseurl=https://mirrors.aliyun.com/ceph/rpm-nautilus/el7/noarch/ enabled=1 gpgcheck=0 [x86_64] name=x86_64 baseurl=https://mirrors.aliyun.com/ceph/rpm-nautilus/el7/x86_64/ enabled=1 gpgcheck=0

1

2

3

4

5

6

7

8

9

10

11

12

3.3.安装Ceph-deploy自动化部署工具

我们的Ceph集群采用ceph-deploy的方式进行安装和部署,在集群中任意节点中安装ceph-deploy工具即可。

1.安装以来的python软件 [root@ceph-node-1 ~]# yum -y install python-setuptools 2.安装ceph-deploy [root@ceph-node-1 ~]# yum -y install ceph-deploy 3.查看ceph-deploy安装的版本 [root@ceph-node-1 ~]# ceph-deploy --version 2.0.1

1

2

3

4

5

6

7

8

9

3.4.在ceph-node-1节点中安装Monitor组件

首先部署一个单节点的Monitor,然后在后面进行扩展。

实际生产环境中,会将一个单独的服务器部署成Monitor节点,由于服务器有限,因此会在一个节点中搭建多个ceph组件。

1.创建一个目录存放部署各个组件的配置文件 [root@ceph-node-1 ~]# mkdir /data/ceph-deploy/ 2.创建一个ceph集群,集群节点数建议是奇数 [root@ceph-node-1 ceph-deploy]# ceph-deploy new --public-network 192.168.20.0/23 --cluster-network 192.168.30.0/23 ceph-node-1 ceph-node-2 ceph-node-3 --public-network:指定公共网络地址,也就是对外提供服务的地址。 --cluster-network:指定集群内部使用的网络地址,集群连接通信通过这个网络进行通信。

1

2

3

4

5

6

7

8

9

3.查看ceph-deploy生成的集群配置文件 [root@ceph-node-1 ceph-deploy]# ll 总用量 12 -rw-r--r--. 1 root root 264 3月 30 21:06 ceph.conf #配置文件 -rw-r--r--. 1 root root 3038 3月 30 21:06 ceph-deploy-ceph.log #日志文件,可以查看monitor配置文件的生成过程 -rw-------. 1 root root 73 3月 30 21:06 ceph.mon.keyring #认证文件 #如果创建集群时没有指定参数,则可以在生成的文件中进行配置。 [root@ceph-node-1 ceph-deploy]# cat ceph.conf [global] fsid = a5ec192a-8d13-4624-b253-5b350a616041 public_network = 192.168.20.0/23 cluster_network = 192.168.30.0/23 mon_initial_members = ceph-node-1, ceph-node-2, ceph-node-3 mon_host = 192.168.20.20,192.168.20.21,192.168.20.22 auth_cluster_required = cephx auth_service_required = cephx auth_client_required = cephx

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

部署Monitor组件有两种方式,一种是通过ceph-deploy install的方式安装,这种方式会自动处理Monitor组件依赖的其他组件,并都进行安装,但是这种方式是从国外的ceph镜像源中拉取,速度非常慢,因此我们选择另外一种,通过yum手动去安装需要的软件包。

由于是使用yum的方式安装ceph monitor组件,因此可以在这一步中直接将ceph集群中各组件全部安装完成,在所有节点中都执行。

分别安装ceph-mon、ceph-osd、ceph-mgr、ceph-radosgw、ceph-mds等组件。

1.安装ceph集群各组件 [root@ceph-node-1 ceph-deploy]# yum -y install ceph ceph-mon ceph-mgr ceph-radosgw ceph-mds [root@ceph-node-2 ~]# yum -y install ceph ceph-mon ceph-mgr ceph-radosgw ceph-mds [root@ceph-node-3 ~]# yum -y install ceph ceph-mon ceph-mgr ceph-radosgw ceph-mds 2.安装完成后会在/var/lib/ceph生成文件 [root@ceph-node-1 ceph-deploy]# ll /var/lib/ceph/ 总用量 0 drwxr-x---. 2 ceph ceph 6 6月 30 2021 bootstrap-mds drwxr-x---. 2 ceph ceph 6 6月 30 2021 bootstrap-mgr drwxr-x---. 2 ceph ceph 6 6月 30 2021 bootstrap-osd drwxr-x---. 2 ceph ceph 6 6月 30 2021 bootstrap-rbd drwxr-x---. 2 ceph ceph 6 6月 30 2021 bootstrap-rbd-mirror drwxr-x---. 2 ceph ceph 6 6月 30 2021 bootstrap-rgw drwxr-x---. 3 ceph ceph 20 3月 30 21:46 crash drwxr-x---. 2 ceph ceph 6 6月 30 2021 mds drwxr-x---. 2 ceph ceph 6 6月 30 2021 mgr drwxr-x---. 3 ceph ceph 25 3月 30 21:52 mon drwxr-x---. 2 ceph ceph 6 6月 30 2021 osd drwxr-xr-x. 2 root root 6 6月 30 2021 radosgw drwxr-x---. 2 ceph ceph 6 3月 30 21:53 tmp 3.查看ceph的版本 [root@ceph-node-1 ceph-deploy]# ceph -v ceph version 14.2.22 (ca74598065096e6fcbd8433c8779a2be0c889351) nautilus (stable)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

初始化Monitor组件会在/etc/ceph目录中生成一些配置文件和一些key文件,并启动Monitor组件。

1.初始化Monitor [root@ceph-node-1 ceph-deploy]# ceph-deploy mon create-initial #初始化的时候会对集群中所有的节点都进行操作 2.查看生成的配置文件 #配置文件 [root@ceph-node-1 ceph-deploy]# ll /etc/ceph/ 总用量 8 -rw-r--r--. 1 root root 264 3月 30 21:53 ceph.conf -rw-r--r--. 1 root root 92 6月 30 2021 rbdmap -rw-------. 1 root root 0 3月 30 21:52 tmpdpAGYU #key文件 [root@ceph-node-1 ceph-deploy]# ll 总用量 48 -rw-------. 1 root root 113 3月 30 21:53 ceph.bootstrap-mds.keyring -rw-------. 1 root root 113 3月 30 21:53 ceph.bootstrap-mgr.keyring -rw-------. 1 root root 113 3月 30 21:53 ceph.bootstrap-osd.keyring -rw-------. 1 root root 113 3月 30 21:53 ceph.bootstrap-rgw.keyring -rw-------. 1 root root 151 3月 30 21:53 ceph.client.admin.keyring -rw-r--r--. 1 root root 264 3月 30 21:06 ceph.conf -rw-r--r--. 1 root root 18651 3月 30 21:53 ceph-deploy-ceph.log -rw-------. 1 root root 73 3月 30 21:06 ceph.mon.keyring 3.查看ceph进程,此时每个节点都会起到mon组件 [root@ceph-node-1 ceph-deploy]# ps aux | grep ceph root 25265 0.0 0.4 189132 9172 ? Ss 21:46 0:00 /usr/bin/python2.7 /usr/bin/ceph-crash ceph 26057 0.2 1.7 503888 33728 ? Ssl 21:53 0:00 /usr/bin/ceph-mon -f --cluster ceph --id ceph-node-1 --setuser ceph --setgroup ceph

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

Monitor组件初始化完成后,还需要将admin的认证文件推送到节点的/etc/ceph目录下,否则无法执行ceph命令查看集群信息。

推送完成后,在将ceph集群的不安全模式禁用,否则查看集群信息时会提示“mon允许不安全的global_id回收”。

1.推送admin认证文件 [root@ceph-node-1 ceph-deploy]# ceph-deploy admin ceph-node-1 ceph-node-2 ceph-node-3 #如果现在想要在其他的节点中执行ceph命令,则可以将admin文件推送到其他的节点。 2.查看推送过来的文件 [root@ceph-node-1 ceph-deploy]# ll /etc/ceph/ 总用量 12 -rw-------. 1 root root 151 3月 30 22:00 ceph.client.admin.keyring -rw-r--r--. 1 root root 264 3月 30 22:00 ceph.conf -rw-r--r--. 1 root root 92 6月 30 2021 rbdmap -rw-------. 1 root root 0 3月 30 21:52 tmpdpAGYU

1

2

3

4

5

6

7

8

9

10

11

12

3.禁用ceph的不安全模式 [root@ceph-node-1 ceph-deploy]# ceph config set mon auth_allow_insecure_global_id_reclaim false #如果不关闭的话,查看集群信息的时候会提示mon is allowing insecure global_id reclaim 4.查看ceph集群的信息 [root@ceph-node-1 ceph-deploy]# ceph -s cluster: id: a5ec192a-8d13-4624-b253-5b350a616041 #集群的ID health: HEALTH_OK #集群的健康状态 services: mon: 3 daemons, quorum ceph-node-1,ceph-node-2,ceph-node-3 (age 3m) #monitor组件的节点 mgr: no daemons active #mgr节点,现在换没有mgr osd: 0 osds: 0 up, 0 in #osd节点 data: #资源池信息 pools: 0 pools, 0 pgs objects: 0 objects, 0 B usage: 0 B used, 0 B / 0 B avail pgs:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

3.5.在ceph-node-1节点中安装Manager组件

Manager组件是监控组件,在集群中任意节点上部署即可,部署一台即可。

**注意:**ceph-deploy命令生成的只是配置文件和启动该组件,执行该命令前需要实际的将ceph-mgr包安装好。

1.安装manager组件 [root@ceph-node-1 ceph-deploy]# ceph-deploy mgr create ceph-node-1 2.查看mgr组件启动的进程 [root@ceph-node-1 ceph-deploy]# ps aux | grep mgr postfix 2034 0.0 0.1 89900 4280 ? S 20:41 0:00 qmgr -l -t unix -u ceph 13607 4.5 3.2 1037572 127724 ? Ssl 21:13 0:02 /usr/bin/ceph-mgr -f --cluster ceph --id ceph-node-1 --setuser ceph --setgroup ceph 3.再次查看集群的状态 [root@ceph-node-1 ceph-deploy]# ceph -s cluster: id: a5ec192a-8d13-4624-b253-5b350a616041 health: HEALTH_OK services: mon: 3 daemons, quorum ceph-node-1,ceph-node-2,ceph-node-3 (age 3m) mgr: ceph-node-1(active, since 12s) #可以看到mgr已经有一个节点了,并且处于active状 osd: 0 osds: 0 up, 0 in data: pools: 0 pools, 0 pgs objects: 0 objects, 0 B usage: 0 B used, 0 B / 0 B avail pgs:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

3.6.在集群中部署OSD组件

OSD组件是真正存储数据的组件,需要与磁盘关联,每一个OSD组件需要关联至少一块磁盘。

OSD关联数据盘有两种方式:

--data指定数据盘,数据直接落入盘中。

--journal配合ssd磁盘,首先将数据写入journal,然后在刷到磁盘里,起到一个加速的作用。

OSD组件在前面已经安装过了,下面来配置OSD,先将服务器中的一块磁盘加入到OSD中,后期会进行扩容。

1.将ceph-node-1节点的/dev/sdb磁盘加入到osd中 [root@ceph-node-1 ceph-deploy]# ceph-deploy osd create ceph-node-1 --data /dev/sdb 2.将ceph-node-2节点的/dev/sdb磁盘加入到osd中 [root@ceph-node-1 ceph-deploy]# ceph-deploy osd create ceph-node-2 --data /dev/sdb 3.将ceph-node-3节点的/dev/sdb磁盘加入到osd中 [root@ceph-node-1 ceph-deploy]# ceph-deploy osd create ceph-node-3 --data /dev/sdb

1

2

3

4

5

6

7

8

OSD创建过程中,会自动配置指定的磁盘,并且启动OSD程序。

4.集群创建完OSD之后再次查看集群的状态 [root@ceph-node-1 ceph-deploy]# ceph -s cluster: id: a5ec192a-8d13-4624-b253-5b350a616041 health: HEALTH_OK services: mon: 3 daemons, quorum ceph-node-1,ceph-node-2,ceph-node-3 (age 7m) mgr: ceph-node-1(active, since 4m) osd: 3 osds: 3 up (since 23s), 3 in (since 23s) #显示集群中当下有3个OSD data: pools: 0 pools, 0 pgs objects: 0 objects, 0 B usage: 3.0 GiB used, 27 GiB / 30 GiB avail pgs: 5.查看OSD的详细信息 [root@ceph-node-1 ceph-deploy]# ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 0.02939 root default -3 0.00980 host ceph-node-1 0 hdd 0.00980 osd.0 up 1.00000 1.00000 -5 0.00980 host ceph-node-2 1 hdd 0.00980 osd.1 up 1.00000 1.00000 -7 0.00980 host ceph-node-3 2 hdd 0.00980 osd.2 up 1.00000 1.00000 #会显示出每一个节点中的OSD信息

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

4.Ceph集群扩容节点

主要对Monitor组件和Manager组件进行扩容,在前面我们只针对ceph-node-1节点进行了部署,在实际生产中是远远不够的。

Monitor组件极其重要,集群的状态都保存在Monitor中,Monitor是通过Paxos算法选举的,最好是奇数个。

Monitor集群组建完成后,会自动的进行一个仲裁选举,选举出一个Leader节点。

Manager组件是集群中的监控组件,使用的模式是active/standby,只有一个节点提供工作,其余节点处于备用状态,当主节点挂掉后,备用节点进行选举然后接替主节点的工作。

4.1.扩容Monitor集群节点

1.在ceph-node-2和ceph-node-3中部署Monitor组件 #在前面已经安装 2.将ceph-node-2和ceph-node-3节点加入到集群中 [root@ceph-node-1 ceph-deploy]# ceph-deploy mon add ceph-node-2 [root@ceph-node-1 ceph-deploy]# ceph-deploy mon add ceph-node-3 3.推送admin配置文件 [root@ceph-node-1 ceph-deploy]# ceph-deploy admin ceph-node-2 ceph-node-3

1

2

3

4

5

6

7

8

9

4.查看集群状态 [root@ceph-node-1 ceph-deploy]# ceph -s cluster: id: a5ec192a-8d13-4624-b253-5b350a616041 health: HEALTH_OK services: mon: 3 daemons, quorum ceph-node-1,ceph-node-2,ceph-node-3 (age 11m) mgr: ceph-node-1(active, since 8m) osd: 3 osds: 3 up (since 4m), 3 in (since 4m) data: pools: 0 pools, 0 pgs objects: 0 objects, 0 B usage: 3.0 GiB used, 27 GiB / 30 GiB avail pgs:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

[root@ceph-node-1 ceph-deploy]# ceph quorum_status --format json-pretty { "election_epoch": 8, "quorum": [ 0, 1, 2 ], "quorum_names": [ #monitor的节点列表,可以看到有三个 "ceph-node-1", "ceph-node-2", "ceph-node-3" ], "quorum_leader_name": "ceph-node-1", #Monitor集群中的Leader节点是ceph-node-1 "quorum_age": 718, "monmap": { #monmap信息 "epoch": 1, "fsid": "a5ec192a-8d13-4624-b253-5b350a616041", "modified": "2022-04-02 22:09:57.238072", "created": "2022-04-02 22:09:57.238072", "min_mon_release": 14, "min_mon_release_name": "nautilus", "features": { "persistent": [ "kraken", "luminous", "mimic", "osdmap-prune", "nautilus" ], "optional": [] }, "mons": [ #在mons中可以看到各节点使用monitor节点的一个地址 { "rank": 0, "name": "ceph-node-1", "public_addrs": { "addrvec": [ { "type": "v2", "addr": "192.168.20.20:3300", "nonce": 0 }, { "type": "v1", "addr": "192.168.20.20:6789", "nonce": 0 } ] }, "addr": "192.168.20.20:6789/0", "public_addr": "192.168.20.20:6789/0" }, { "rank": 1, "name": "ceph-node-2", "public_addrs": { "addrvec": [ { "type": "v2", "addr": "192.168.20.21:3300", "nonce": 0 }, { "type": "v1", "addr": "192.168.20.21:6789", "nonce": 0 } ] }, "addr": "192.168.20.21:6789/0", "public_addr": "192.168.20.21:6789/0" }, { "rank": 2, "name": "ceph-node-3", "public_addrs": { "addrvec": [ { "type": "v2", "addr": "192.168.20.22:3300", "nonce": 0 }, { "type": "v1", "addr": "192.168.20.22:6789", "nonce": 0 } ] }, "addr": "192.168.20.22:6789/0", "public_addr": "192.168.20.22:6789/0" } ] } }

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

Ceph分布式存储集群环境搭建以及节点扩容流程

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

91

92

93

94

95

96

[root@ceph-node-1 ceph-deploy]# ceph mon stat e1: 3 mons at {ceph-node-1=[v2:192.168.20.20:3300/0,v1:192.168.20.20:6789/0],ceph-node-2=[v2:192.168.20.21:3300/0,v1:192.168.20.21:6789/0],ceph-node-3=[v2:192.168.20.22:3300/0,v1:192.168.20.22:6789/0]}, election epoch 8, leader 0 ceph-node-1, quorum 0,1,2 ceph-node-1,ceph-node-2,ceph-node-3 可以看到集群中的Leader节点是谁、仲裁节点是谁,以及各节点的地址。 leader表示主节点、quorum表示仲裁节点

1

2

3

4

5

[root@ceph-node-1 ceph-deploy]# ceph mon dump epoch 1 fsid a5ec192a-8d13-4624-b253-5b350a616041 last_changed 2022-04-02 22:09:57.238072 created 2022-04-02 22:09:57.238072 min_mon_release 14 (nautilus) 0: [v2:192.168.20.20:3300/0,v1:192.168.20.20:6789/0] mon.ceph-node-1 1: [v2:192.168.20.21:3300/0,v1:192.168.20.21:6789/0] mon.ceph-node-2 2: [v2:192.168.20.22:3300/0,v1:192.168.20.22:6789/0] mon.ceph-node-3 dumped monmap epoch 1

1

2

3

4

5

6

7

8

9

10

4.2.扩容Manager集群节点

Manager节点扩容与Monitor组件不同,Manager组件扩容直接创建新节点即可。

1.在新节点中安装Manager组件 #前面已安装 2.创建新的manager节点,可以同时指定多个 [root@ceph-node-1 ceph-deploy]# ceph-deploy mgr create ceph-node-2 ceph-node-3

1

2

3

4

5

3.查看集群的状态 [root@ceph-node-1 ceph-deploy]# ceph -s cluster: id: a5ec192a-8d13-4624-b253-5b350a616041 health: HEALTH_OK services: mon: 3 daemons, quorum ceph-node-1,ceph-node-2,ceph-node-3 (age 14m) mgr: ceph-node-1(active, since 10m), standbys: ceph-node-2, ceph-node-3 #可以看到mgr节点有3个,ceph-node-1为主节点,其余为备用节点 osd: 3 osds: 3 up (since 7m), 3 in (since 7m) data: pools: 0 pools, 0 pgs objects: 0 objects, 0 B usage: 3.0 GiB used, 27 GiB / 30 GiB avail pgs:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

专属分布式存储服务 分布式

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:20年技术一线工作分享,如何化解35岁危机
下一篇:亿级 Elasticsearch 性能优化
相关文章