5.8. Ceph Storage ノードの要件

Ceph Storage ノードは、Red Hat OpenStack Platform 環境でオブジェクトストレージを提供する役割を果たします。

配置グループ
デプロイメントの規模によらず、動的で効率的なオブジェクトの追跡を容易に実施するために、Ceph では配置グループが使用されています。OSD の障害やクラスターのリバランスの際には、Ceph は配置グループおよびその内容を移動または複製することができるので、Ceph クラスターは効率的にリバランスおよび復旧を行うことができます。director が作成するデフォルトの配置グループ数が常に最適とは限らないので、実際の要件に応じて正しい配置グループ数を計算することが重要です。配置グループの計算ツールを使用して、正しい配置グループ数を計算することができます (Ceph Placement Groups (PGs) per Pool Calculator を参照)。
プロセッサー
Intel 64 または AMD64 CPU 拡張機能をサポートする 64 ビット x86 プロセッサー。
メモリー
一般的には、OSD ホスト毎に 16 GB の RAM をベースとし、さらに OSD デーモン毎に 2 GB の RAM を追加することを推奨します。
ディスクのレイアウト

サイズはストレージ要件によって異なります。Red Hat では、Ceph Storage ノードの構成には、以下のレイアウト例に示すように 3 つ以上のディスクを含めることを推奨します。

  • /dev/sda: ルートディスク。director は、主なオーバークラウドイメージをディスクにコピーします。ディスクに最小 40 GB の空きディスク領域があることを確認します。
  • /dev/sdb: ジャーナルディスク。このディスクは、Ceph OSD ジャーナル向けにパーティションに分割されます。たとえば、/dev/sdb1/dev/sdb2、および /dev/sdb3 のようになります。ジャーナルディスクは、通常システムパフォーマンスの向上に役立つソリッドステートドライブ (SSD) です。
  • /dev/sdc 以降: OSD ディスク。ストレージ要件で必要な数のディスクを使用します。

    注記

    Red Hat OpenStack Platform director は ceph-ansible を使用しますが、Ceph Storage ノードのルートディスクへの OSD インストールには対応しません。したがって、サポートされる Ceph Storage ノードには少なくとも 2 つのディスクが必要になります。

ネットワークインターフェースカード
最小 1 枚の 1 Gbps ネットワークインターフェースカード (ただし、Red Hat では実稼働環境の場合には最低でも NIC を 2 枚使用することを推奨)。タグ付けされた VLAN トラフィックを委譲する場合や、ボンディングインターフェース向けの場合には追加のネットワークインターフェースを使用します。Red Hat では、特に大量のトラフィックを提供する OpenStack Platform 環境を構築する場合には、ストレージノードに 10 Gbps インターフェースを使用することを推奨しています。
電源管理
各コントローラーノードには、Intelligent Platform Management Interface (IPMI) 機能などのサポート対象の電源管理インターフェースがサーバーのマザーボードに搭載されている必要があります。

Ceph Storage クラスターを 使用するオーバークラウドのインストールについての詳しい情報は、『コンテナー化された Red Hat Ceph を持つオーバークラウドのデプロイ』を参照してください。