第6章 OpenStack への 2 層 Ceph Storage のデプロイ
OpenStack director を使用すると、特定の層に属する新たな Ceph ノードを Ceph クラスターに追加することで、さまざまな Red Hat Ceph Storage パフォーマンス層をデプロイすることができます。
たとえば、SSD ドライブを持つ新たな Object Storage Daemon (OSD) ノードを既存の Ceph クラスターに追加して、これらのノードのデータを保存する専用の Block Storage (cinder) バックエンドを作成することができます。次に、新たな Block Storage ボリュームを作成するユーザーは、希望するパフォーマンス層 (HDD または新しい SSD) を選択することができます。
このタイプのデプロイメントでは、Red Hat OpenStack Platform director がカスタマイズされた CRUSH マップを ceph-ansible に渡す必要があります。CRUSH マップを使用すると、ディスクパフォーマンスに基づいて OSD ノードを分割することができますが、この機能を物理インフラストラクチャーレイアウトのマッピングに使用することもできます。
以下のセクションでは、4 つのノードのデプロイ方法を説明します。4 つのうち、2 つは SSD を使用し、他の 2 つは HDD を使用します。反復可能なパターンの通信用に簡単な例を示します。ただし、実稼働デプロイメントでは、より多くのノードおよび OSD を使用して、「Red Hat Ceph Storage hardware selection guide」に従ってサポートされるようにする必要があります。
6.1. CRUSH マップを作成します。
CRUSH マップを使用して OSD ノードを CRUSH ルートに配置します。デフォルトのルートはデフォルトで作成され、すべての OSD ノードが含まれます。
指定のルート内で、物理トポロジー、ラック、部屋その他の仕様を定義し、OSD ノードを階層(またはバケット)の任意の場所に追加します。デフォルトでは、物理トポロジーは定義されません。すべてのノードが同じラックにあるかのようなフラットな設計を前提とします。

カスタム CRUSH マップの作成に関する詳細は、『 ストレージ戦略ガイド』 の「Crush Administration 」を参照してください。