第 9 章 监控高可用性 Red Hat Ceph Storage 集群
使用 Red Hat Ceph Storage 部署 overcloud 时,Red Hat OpenStack Platform 使用 ceph-mon
监控守护进程来管理 Ceph 集群。director 在所有 Controller 节点上部署守护进程。
查看 Ceph Monitoring 服务的状态
在 Controller 节点上,运行 service ceph status
命令来检查 Ceph Monitoring 服务是否正在运行:
$ sudo service ceph status === mon.overcloud-controller-0 === mon.overcloud-controller-0: running {"version":"0.94.1"}
查看 Ceph 监控配置
在 Controller 节点或 Ceph 节点上,打开 /etc/ceph/ceph.conf
文件,以查看监控配置参数:
[global] osd_pool_default_pgp_num = 128 osd_pool_default_min_size = 1 auth_service_required = cephx mon_initial_members = overcloud-controller-0,overcloud-controller-1,overcloud-controller-2 fsid = 8c835acc-6838-11e5-bb96-2cc260178a92 cluster_network = 172.19.0.11/24 auth_supported = cephx auth_cluster_required = cephx mon_host = 172.18.0.17,172.18.0.15,172.18.0.16 auth_client_required = cephx osd_pool_default_size = 3 osd_pool_default_pg_num = 128 public_network = 172.18.0.17/24
本例显示以下信息:
- 所有三个 Controller 节点都被配置为使用 mon_initial_members 参数监控 Red Hat Ceph Storage 集群。
- 172.19.0.11/24 网络配置为提供 Controller 节点和 Red Hat Ceph Storage 节点之间的通信路径。
- Red Hat Ceph Storage 节点分配给与 Controller 节点独立的网络,而监控 Controller 节点的 IP 地址为 172.18.0.15、172.18.0.16 和 172.18.0.17。
查看单独的 Ceph 节点状态
登录 Ceph 节点,并运行 ceph -s
命令:
# ceph -s cluster 8c835acc-6838-11e5-bb96-2cc260178a92 health HEALTH_OK monmap e1: 3 mons at {overcloud-controller-0=172.18.0.17:6789/0,overcloud-controller-1=172.18.0.15:6789/0,overcloud-controller-2=172.18.0.16:6789/0} election epoch 152, quorum 0,1,2 overcloud-controller-1,overcloud-controller-2,overcloud-controller-0 osdmap e543: 6 osds: 6 up, 6 in pgmap v1736: 256 pgs, 4 pools, 0 bytes data, 0 objects 267 MB used, 119 GB / 119 GB avail 256 active+clean
此示例输出显示 health 参数值是 HEALTH_OK,这表示 Ceph 节点处于活动状态且健康。输出中显示了三个 overcloud-controller 节点上运行的 Ceph 监控服务,以及服务的 IP 地址和端口。
有关 Red Hat Ceph Storage 的更多信息,请参阅 Red Hat Ceph 产品页面。