6.8. Ceph Storage 节点要求

Ceph Storage 节点负责在 Red Hat OpenStack Platform 环境中提供对象存储。

放置组 (PG)
Ceph 使用放置组大规模推动动态高效的对象跟踪。如果 OSD 出现故障或集群进行重新平衡,Ceph 可移动或复制放置组及其内容,这意味着 Ceph 集群可以有效地重新平衡并恢复。director 创建的默认放置组计数并非始终最佳,因此一定要根据要求计算正确的放置组计数。您可以使用放置组计算器计算正确的计数:Placement Groups (PGs) per Pool Calculator
处理器
支持 Intel 64 或 AMD64 CPU 扩展的 64 位 x86 处理器。
内存
红帽通常建议每个 OSD 主机最少有 16GB RAM,每个 OSD 守护进程需要再增加 2 GB RAM。
磁盘配置

大小取决于您的存储要求。红帽建议 Ceph Storage 节点配置在布局中至少包括三个或更多磁盘,类似以下示例:

  • /dev/sda - 根磁盘。director 把主 overcloud 镜像复制到该磁盘。确定磁盘至少有 40 GB 可用磁盘空间。
  • /dev/sdb - journal 磁盘。这个磁盘被分为不同的分区来保存 Ceph OSD 的日志信息。例如:/dev/sdb1/dev/sdb2/dev/sdb3。journal 磁盘通常需要是一个固态磁盘(SSD)来保证系统的性能。
  • /dev/sdc 和后续 - OSD 磁盘。可以根据您的存储需要使用多个磁盘。

    注意

    Red Hat OpenStack Platform director 使用 ceph-ansible,不支持在 Ceph Storage 节点的根磁盘上安装 OSD。这意味着所支持的每个 Ceph Storage 节点需要至少两个磁盘。

网络接口卡
最少一个 1 Gbps 网络接口卡,但红帽建议您在生产环境中至少使用两个 NIC。对绑定的接口使用额外的网络接口卡,或代理标记的 VLAN 流量。红帽建议您为存储节点使用 10 Gbps 接口,特别是所创建的 OpenStack 平台环境需要处理大量网络数据时。
电源管理
每个 Controller 节点在服务器的主板上都要有一个受支持的电源管理接口,如智能平台管理接口 (IPMI) 功能。

有关使用 Ceph Storage 集群安装 overcloud 的更多信息,请参阅使用容器化 Red Hat Ceph 部署 Overcloud 指南。