第2章 オーバークラウドノードの準備
本章のシナリオでは、オーバークラウドは 6 台のノードで構成されます。
- 高可用性のコントローラーノード 3 台
- コンピュートノード 3 台
director は、独立した Ceph Storage クラスターを独自のノードでオーバークラウドに統合します。このクラスターは、オーバークラウドとは別々に管理されます。たとえば、Ceph Storage クラスターは、OpenStack Platform director ではなく Ceph 管理ツールを使用してスケーリングします。詳しい情報は、Red Hat Ceph Storage のドキュメントライブラリーを参照してください。
2.1. 既存の Ceph Storage クラスターの設定
お使いの環境に適した Ceph クラスターに以下のプールを作成します。
-
volumes: OpenStack Block Storage (cinder) のストレージ -
images: OpenStack Image Storage (glance) のストレージ -
vms: インスタンスのストレージ -
backups: OpenStack Block Storage Backup (cinder-backup) のストレージ metrics: OpenStack Telemetry Metrics (gnocchi) のストレージ以下のコマンドは指針として使用してください。
[root@ceph ~]# ceph osd pool create volumes PGNUM [root@ceph ~]# ceph osd pool create images PGNUM [root@ceph ~]# ceph osd pool create vms PGNUM [root@ceph ~]# ceph osd pool create backups PGNUM [root@ceph ~]# ceph osd pool create metrics PGNUM
オーバークラウドが CephFS がサポートする Shared File System(manila)をデプロイする場合には、CephFS データおよびメタデータプールも作成します。
[root@ceph ~]# ceph osd pool create manila_data PGNUM [root@ceph ~]# ceph osd pool create manila_metadata PGNUM
PGNUM は配置グループの数に置き換えます。Red Hat は、OSD ごとに約 100 個の配置グループを推奨します。たとえば、OSD の合計数を 100 で乗算して、レプリカ数で除算します (
osd pool default size)。適切な値を判断するには Ceph Placement Groups (PGs) per Pool Calculator を使用することを推奨します。
-
以下の機能を指定して
client.openstackユーザーを Ceph クラスターに作成します。- cap_mgr: “allow *”
- cap_mon: profile rbd
cap_osd: profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics
以下のコマンドは指針として使用してください。
[root@ceph ~]# ceph auth add client.openstack mgr 'allow *' mon 'profile rbd' osd 'profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics'
client.openstackユーザー向けに作成された Ceph クライアントキーをメモします。[root@ceph ~]# ceph auth list ... [client.openstack] key = AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw== caps mgr = "allow *" caps mon = "profile rbd" caps osd = "profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics" ...この例の
key値 (AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw==) は Ceph クライアントキーです。オーバークラウドが CephFS でサポートされる Shared File System をデプロイする場合は、以下の機能を備えた
client.manilaユーザーを Ceph クラスターに作成します。-
cap_mds:
allow * -
cap_mgr:
allow * -
cap_mon:
allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create" cap_osd:
allow rw以下のコマンドは指針として使用してください。
[root@ceph ~]# ceph auth add client.manila mon 'allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create"' osd 'allow rw' mds 'allow *' mgr 'allow *'
-
cap_mds:
manila クライアント名およびオーバークラウドデプロイメントテンプレートで使用するキー値をメモします。
[root@ceph ~]# ceph auth get-key client.manila AQDQ991cAAAAABAA0aXFrTnjH9aO39P0iVvYyg==
Ceph Storage クラスターのファイルシステム ID をメモします。この値は、クラスターの設定ファイルにある
fsidの設定で指定されています ([global]のセクション下)。[global] fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19 ...注記Ceph Storage クラスターの設定ファイルに関する詳細は、『Red Hat Ceph Storage Configuration Guide』の「Ceph configuration」を参照してください。
Ceph クライアントキーおよびファイルシステム ID、および manila クライアント ID およびキーは、すべて 3章既存の Ceph Storage クラスターとの統合 で後ほど使用されます。