第1章 はじめに
Red Hat OpenStack Platform director は、オーバークラウド と呼ばれるクラウド環境を作成します。director を使用して、オーバークラウドの追加機能を設定することができます。これらの追加機能の 1 つに、director で作成した Ceph Storage Cluster や、既存の Ceph Storage Cluster などの Red Hat Ceph Storage との統合が含まれます。本ガイドには、director を使用してオーバークラウドに Ceph Storage を統合する方法についての説明と設定例を記載します。
1.1. Ceph Storage の定義
Red Hat Ceph Storage は、優れたパフォーマンス、信頼性、スケーリングを提供するように設計された、分散型のデータオブジェクトストレージです。非構造化データに対応しており、クライアントが新しいタイプのオブジェクトインターフェースと従来のインターフェースを同時に使用できる分散型のオブジェクトストアは、今後のストレージのあるべき姿です。Ceph デプロイメントはすべて、2 種類のデーモンで構成される Ceph Storage Cluster を中心とします。
- Ceph OSD (Object Storage Daemon)
- Ceph OSD は、Ceph クライアントの代わりにデータを格納します。また、Ceph ノードの CPU とメモリーを使用して、データの複製、リバランス、復旧、監視、レポート作成を実行します。
- Ceph モニター
- Ceph モニターは、ストレージクラスターの現在のステータスを含む Ceph ストレージクラスターのマッピングのマスターコピーを管理します。
Red Hat Ceph Storage に関する詳しい情報は、『Red Hat Ceph Storage Architecture Guide』を参照してください。
本ガイドでは、Ceph Block Storage および Ceph Object Gateway (RGW) のみを統合します。Ceph File (CephFS) ストレージの統合については記載していません。
1.2. Red Hat OpenStack Platform での Red Hat Ceph Storage の使用
Red Hat OpenStack Platform director で Red Hat Ceph Storage をオーバークラウドに統合するには、主に 2 つの方法があります。
- Ceph Storage Cluster でのオーバークラウドの作成
- director には、オーバークラウドの作成中に Ceph Storage Cluster を作成する機能があります。director は、データの格納に Ceph OSD を使用する Ceph Storage ノードセットを作成します。さらに、director は、オーバークラウドのコントローラーノードに Ceph Monitor サービスをインストールします。このため、組織が高可用性のコントローラーノード 3 台で構成されるオーバークラウドを作成する場合には、Ceph Monitor も高可用性サービスになります。
- 既存の Ceph Storage のオーバークラウドへの統合
- 既存の Ceph Storage Cluster がある場合には、オーバークラウドのデプロイメント時に統合できます。これは、オーバークラウドの設定以外のクラスターの管理やスケーリングが可能であることを意味します。
1.3. 設定要件
本ガイドは、『director のインストールと使用方法』ガイドの補足情報を提供します。これは、「要件」で指定されているのと同じ要件が本ガイドにも適用されることを意味します。必要に応じて、この要件を実装してください。
Red Hat OpenStack Platform director を使用して Ceph Storage ノードを作成する場合は、それらのノードに対する以下の要件に注意してください。
- プロセッサー
- Intel 64 または AMD64 CPU 拡張機能のサポートがある 64 ビットの x86 プロセッサー
- メモリー
- メモリー要件はストレージ容量によって異なります。ハードディスク容量 1 TB あたり最小で 1 GB のメモリーを使用するのが理想的です。
- ディスク領域
- ストレージ要件はメモリーの容量によって異なります。ハードディスク容量 1 TB あたり最小で 1 GB のメモリーを使用するのが理想的です。
- ディスクのレイアウト
推奨される Red Hat Ceph Storage ノードの設定には、以下のようなディスクレイアウトが必要です。
-
/dev/sda: ルートディスク。director は、主なオーバークラウドイメージをディスクにコピーします。 -
/dev/sdb: ジャーナルディスク。このディスクは、/dev/sdb1、/dev/sdb2、/dev/sdb3 などのように、Ceph OSD ジャーナル向けにパーティションを分割します。ジャーナルディスクは通常、システムパフォーマンス向上に役立つ Solid State Drive (SSD) です。 -
/dev/sdc以降: OSD ディスク。ストレージ要件で必要な数のディスクを使用します。
-
オーバークラウドのデプロイ前に、ジャーナルおよび OSD の対象となるディスクで既存のパーティションをすべて消去します。さらに、Ceph Storage OSD およびジャーナルディスクは、デプロイメントの一部として設定可能な GPT ディスクラベルが必要です。詳しい情報は 「Ceph Storage ノードのディスクのクリーニング」 を参照してください。
- ネットワークインターフェースカード
- 最小で 1 x 1 Gbps ネットワークインターフェースカード (実稼動環境では、最低でも NIC を 2 つ以上使用することを推奨します)。ボンディングされたインターフェース向けの場合や、タグ付けされた VLAN トラフィックを委譲する場合には、追加のネットワークインターフェースを使用します。特に大量のトラフィックにサービスを提供する OpenStack Platform 環境を構築する場合には、ストレージノードには 10 Gbps インターフェースを使用することを推奨します。
- Intelligent Platform Management Interface (IPMI)
- 各 Ceph ノードには、サーバーのマザーボード上に IPMI 機能が必要です。
本ガイドでは、以下の要件も満たす必要があります。
- Red Hat OpenStack Platform director でインストールしたアンダークラウドホスト。「アンダークラウドのインストール」を参照してください。
- Red Hat Ceph Storage のハードウェアの追加の推奨事項。これらの推奨事項については『Red Hat Ceph Storage Hardware Guide』を参照してください。
Ceph Monitor サービスは、オーバークラウドのコントローラーノードにインストールされます。これは、パフォーマンスの問題を軽減するために、適切なリソースを提供する必要があるという意味です。お使いの環境のコントローラーノードでは、最低でもメモリー 16 GB を、Ceph Monitor データにはソリッドステートドライブ (SSD) を使用するようにしてください。
1.4. シナリオの定義
本ガイドでは、2 つのシナリオを使用します。
- 最初のシナリオでは、Ceph Storage Cluster でオーバークラウドを作成します。これは、director が Ceph Storage Cluster をデプロイすることを意味します。
- 2 番目のシナリオでは、既存の Ceph Storage Cluster とオーバークラウドを統合します。これは、オーバークラウドの管理と Ceph Storage Cluster の管理を分けることを意味します。

Where did the comment section go?
Red Hat's documentation publication system recently went through an upgrade to enable speedier, more mobile-friendly content. We decided to re-evaluate our commenting platform to ensure that it meets your expectations and serves as an optimal feedback mechanism. During this redesign, we invite your input on providing feedback on Red Hat documentation via the discussion platform.