オーバークラウドの既存 Red Hat Ceph クラスターとの統合

Red Hat OpenStack Platform 16.0

オーバークラウドでスタンドアロンの Red Hat Ceph Storage を使用するための設定

概要

本ガイドでは、Red Hat OpenStack Platform director を使用して、オーバークラウドを既存のスタンドアロン Red Hat Ceph クラスターと統合する方法について説明します。

第1章 はじめに

Red Hat OpenStack Platform director は、オーバークラウド と呼ばれるクラウド環境を作成します。director は、Red Hat Ceph Storage (director で作成した Ceph Storage クラスターおよび既存の Ceph Storage クラスターの両方) との統合を含む、オーバークラウドの追加機能を設定することができます。

1.1. Ceph Storage の概要

Red Hat Ceph Storage は、優れたパフォーマンス、信頼性、スケーラビリティーを提供するように設計された、分散型のデータオブジェクトストアです。非構造化データに対応しており、クライアントが新しいタイプのオブジェクトインターフェースと従来のインターフェースを同時に使用できる分散型のオブジェクトストアは、今後のストレージのあるべき姿です。すべての Ceph デプロイメントの中核となる Ceph Storage クラスターは、複数の種類のデーモンで構成されますが、主要なデーモンは以下の 2 つになります。

Ceph OSD (Object Storage Daemon)
Ceph OSD は、Ceph クライアントの代わりにデータを格納します。また、Ceph OSD は Ceph ノードの CPU とメモリーを使用して、データの複製、リバランス、復旧、監視、レポート作成を実行します。
Ceph Monitor
Ceph monitor は、ストレージクラスターの現在の状態を含む Ceph Storage クラスターのマッピングのマスターコピーを管理します。

Red Hat Ceph Storage に関する詳しい情報は、『Red Hat Ceph Storage Architecture Guide』 を参照してください。

1.2. シナリオの定義

本ガイドでは、既存の Ceph Storage クラスターをオーバークラウドと統合する手順について説明します。この場合、director はストレージ用途に Ceph Storage クラスターを使用するようにオーバークラウドを設定します。クラスターそのものは、オーバークラウド設定とは独立して管理およびスケーリングします。

1.3. 外部の NFS バックエンドに CephFS を使用する Shared File Systems のデプロイ

Red Hat OpenStack Platform director が NFS バックエンドに CephFS を使用する Shared File Systems サービスをデプロイする場合、Pacemaker (PCS) が管理するコントローラーノードに NFS-Ganesha ゲートウェイをデプロイします。PCS は、アクティブ/パッシブ構成を使用してクラスターの可用性を管理します。

この機能により、director は外部の Ceph Storage クラスターを使用して Shared File System をデプロイすることができます。この種のデプロイメントでは、Ganesha は引き続き PCS によって管理されるコントローラーノードで実行されます。

Shared File System と外部の Ceph Storage クラスターを統合するには、ceph-ansible-external.yaml のパラメーターを編集する必要があります。

注記

ceph-ansible-external.yaml ファイルを編集して、OpenStack Platform サービスが外部の Ceph Storage クラスターを使用するように設定する必要があります。

ceph-ansible-external.yaml ファイルの設定方法についての詳細は、「 Integrating with the existing Ceph cluster 」を参照してください。

注記

この機能は、Ceph Storage 4.1 以降でサポートされます。Ceph Storage 4.1 にアップグレードしたら、最新バージョンの ceph-ansible パッケージをアンダークラウドにインストールする必要があります。お使いのシステムにインストールされている Ceph Storage がどのリリースかを判断する方法は、「What are the Red Hat Ceph Storage releases and corresponding Ceph package versions?」 を参照してください。

アンダークラウド上で ceph-ansible パッケージを更新する方法は、「ceph-ansible パッケージのインストール」 を参照してください。

前提条件

外部の Ceph Storage クラスターを使用して manila を設定するには、以下の前提条件を満たす必要があります。

  • 外部の Ceph Storage クラスターにはアクティブな MDS が必要です。
  • 外部の Ceph Storage クラスターには、CephFS データ (ManilaCephFSDataPoolName) および CephFS メタデータプール (ManilaCephFSMetadataPoolName) の値に基づいた CephFS ファイルシステムが必要です。詳細は、「カスタム環境ファイルの作成」 を参照してください。
  • 外部の Ceph Storage クラスターには、Shared File Systems サービスおよび NFS-Ganesha 用の cephx クライアントキーが必要です。詳細は、「カスタム環境ファイルの作成」 を参照してください。
  • Shared File Systems サービスおよび NFS-Ganesha を設定するには、cephx ID およびクライアントキーが必要です。詳細は、「カスタム環境ファイルの作成」 を参照してください。

Red Hat Ceph Storage の詳細は、『Red Hat Ceph Storage ファイルシステムガイド 』を参照してください。

NFS バックエンドに CephFS を使用する構成についての詳細は、『 Deploying the Shared File Systems service with CephFS via NFS』を参照して ください。

第2章 オーバークラウドノードの準備

本章のシナリオでは、オーバークラウドは 6 台のノードで構成されます。

  • 高可用性のコントローラーノード 3 台
  • コンピュートノード 3 台

director は、独立した Ceph Storage クラスターを独自のノードでオーバークラウドに統合します。このクラスターは、オーバークラウドとは別々に管理されます。たとえば、Ceph Storage クラスターは、OpenStack Platform director ではなく Ceph 管理ツールを使用してスケーリングします。詳しい情報は、Red Hat Ceph Storage のドキュメントライブラリーを参照してください。

2.1. 既存の Ceph Storage クラスターの設定

  1. お使いの環境に適した Ceph クラスターに以下のプールを作成します。

    • volumes: OpenStack Block Storage (cinder) のストレージ
    • images: OpenStack Image Storage (glance) のストレージ
    • vms: インスタンスのストレージ
    • backups: OpenStack Block Storage Backup (cinder-backup) のストレージ
    • metrics: OpenStack Telemetry Metrics (gnocchi) のストレージ

      以下のコマンドは指針として使用してください。

      [root@ceph ~]# ceph osd pool create volumes PGNUM
      [root@ceph ~]# ceph osd pool create images PGNUM
      [root@ceph ~]# ceph osd pool create vms PGNUM
      [root@ceph ~]# ceph osd pool create backups PGNUM
      [root@ceph ~]# ceph osd pool create metrics PGNUM

      オーバークラウドが CephFS がサポートする Shared File System(manila)をデプロイする場合には、CephFS データおよびメタデータプールも作成します。

      [root@ceph ~]# ceph osd pool create manila_data PGNUM
      [root@ceph ~]# ceph osd pool create manila_metadata PGNUM

      PGNUM は配置グループの数に置き換えます。Red Hat は、OSD ごとに約 100 個の配置グループを推奨します。たとえば、OSD の合計数を 100 で乗算して、レプリカ数で除算します (osd pool default size)。適切な値を判断するには Ceph Placement Groups (PGs) per Pool Calculator を使用することを推奨します。

  2. 以下の機能を指定して client.openstack ユーザーを Ceph クラスターに作成します。

    • cap_mgr: “allow *”
    • cap_mon: profile rbd
    • cap_osd: profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics

      以下のコマンドは指針として使用してください。

      [root@ceph ~]# ceph auth add client.openstack mgr 'allow *' mon 'profile rbd' osd 'profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics'
  3. client.openstack ユーザー向けに作成された Ceph クライアントキーをメモします。

    [root@ceph ~]# ceph auth list
    ...
    [client.openstack]
    	key = AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw==
    	caps mgr = "allow *"
    	caps mon = "profile rbd"
    	caps osd = "profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics"
    ...

    この例の key 値 (AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw==) は Ceph クライアントキーです。

  4. オーバークラウドが CephFS でサポートされる Shared File System をデプロイする場合は、以下の機能を備えた client.manila ユーザーを Ceph クラスターに作成します。

    • cap_mds: allow *
    • cap_mgr: allow *
    • cap_mon: allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create"
    • cap_osd: allow rw

      以下のコマンドは指針として使用してください。

      [root@ceph ~]# ceph auth add client.manila mon 'allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create"' osd 'allow rw' mds 'allow *' mgr 'allow *'
  5. manila クライアント名およびオーバークラウドデプロイメントテンプレートで使用するキー値をメモします。

    [root@ceph ~]# ceph auth get-key client.manila
    AQDQ991cAAAAABAA0aXFrTnjH9aO39P0iVvYyg==
  6. Ceph Storage クラスターのファイルシステム ID をメモします。この値は、クラスターの設定ファイルにある fsid の設定で指定されています ([global] のセクション下)。

    [global]
    fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19
    ...
    注記

    Ceph Storage クラスターの設定ファイルに関する詳細は、『Red Hat Ceph Storage Configuration Guide』「Ceph configuration」を参照してください。

Ceph クライアントキーおよびファイルシステム ID、および manila クライアント ID およびキーは、すべて 3章既存の Ceph Storage クラスターとの統合 で後ほど使用されます。

2.2. stack ユーザーの初期化

stack ユーザーとして director ホストにログインし、以下のコマンドを実行して director の設定を初期化します。

$ source ~/stackrc

このコマンドでは、director の CLI ツールにアクセスする認証情報が含まれる環境変数を設定します。

2.3. ノードの登録

ノード定義のテンプレート (instackenv.json) は JSON ファイル形式で、ノード登録用のハードウェアおよび電源管理の情報が含まれています。以下に例を示します。

{
    "nodes":[
        {
            "mac":[
                "bb:bb:bb:bb:bb:bb"
            ],
            "cpu":"4",
            "memory":"6144",
            "disk":"40",
            "arch":"x86_64",
            "pm_type":"pxe_ipmitool",
            "pm_user":"admin",
            "pm_password":"p@55w0rd!",
            "pm_addr":"192.0.2.205"
        },
        {
            "mac":[
                "cc:cc:cc:cc:cc:cc"
            ],
            "cpu":"4",
            "memory":"6144",
            "disk":"40",
            "arch":"x86_64",
            "pm_type":"pxe_ipmitool",
            "pm_user":"admin",
            "pm_password":"p@55w0rd!",
            "pm_addr":"192.0.2.206"
        },
        {
            "mac":[
                "dd:dd:dd:dd:dd:dd"
            ],
            "cpu":"4",
            "memory":"6144",
            "disk":"40",
            "arch":"x86_64",
            "pm_type":"pxe_ipmitool",
            "pm_user":"admin",
            "pm_password":"p@55w0rd!",
            "pm_addr":"192.0.2.207"
        },
        {
            "mac":[
                "ee:ee:ee:ee:ee:ee"
            ],
            "cpu":"4",
            "memory":"6144",
            "disk":"40",
            "arch":"x86_64",
            "pm_type":"pxe_ipmitool",
            "pm_user":"admin",
            "pm_password":"p@55w0rd!",
            "pm_addr":"192.0.2.208"
        }
        {
            "mac":[
                "ff:ff:ff:ff:ff:ff"
            ],
            "cpu":"4",
            "memory":"6144",
            "disk":"40",
            "arch":"x86_64",
            "pm_type":"pxe_ipmitool",
            "pm_user":"admin",
            "pm_password":"p@55w0rd!",
            "pm_addr":"192.0.2.209"
        }
        {
            "mac":[
                "gg:gg:gg:gg:gg:gg"
            ],
            "cpu":"4",
            "memory":"6144",
            "disk":"40",
            "arch":"x86_64",
            "pm_type":"pxe_ipmitool",
            "pm_user":"admin",
            "pm_password":"p@55w0rd!",
            "pm_addr":"192.0.2.210"
        }
    ]
}

手順

  1. インベントリーファイルを作成したら、そのファイルを stack ユーザーのホームディレクトリーに保存します (/home/stack/instackenv.json)。
  2. stack ユーザーを初期化し、続いて instackenv.json インベントリーファイルを director にインポートします。

    $ source ~/stackrc
    $ openstack overcloud node import ~/instackenv.json

    openstack overcloud node import コマンドは、インベントリーファイルをインポートし、各ノードを director に登録します。

  3. カーネルと ramdisk イメージを各ノードに割り当てます。
$ openstack overcloud node configure <node>

director でのノードの登録、設定が完了しました。

2.4. ノードの手動でのタグ付け

各ノードの登録後、ハードウェアを検査して、ノードを特定のプロファイルにタグ付けする必要があります。プロファイルタグを使用してノードをフレーバーに照合してから、フレーバーをデプロイメントロールに割り当てます。

新規ノードを検査してタグ付けするには、以下の手順を実施します。

  1. ハードウェアのイントロスペクションをトリガーして、各ノードのハードウェア属性を取得します。

    $ openstack overcloud node introspect --all-manageable --provide
    • --all-manageable オプションを使用して、管理状態にあるノードのみをイントロスペクションします。ここでは、すべてのノードが管理状態にあります。
    • --provide オプションは、イントロスペクション後に全ノードを active の状態にリセットします。

      重要

      このプロセスが正常に完了したことを確認します。ベアメタルノードの場合には、通常 15 分ほどかかります。

  2. ノード一覧を取得して UUID を把握します。

    $ openstack baremetal node list
  3. 各ノードの properties/capabilities パラメーターに profile オプションを追加して、ノードを特定のプロファイルに手動でタグ付けします。profile オプションを追加すると、適切なプロファイルにノードをタグ付けします。

    注記

    手動でのタグ付けの代わりに、Automated Health Check (AHC) ツールを使用し、ベンチマークデータに基づいて、多数のノードに自動でタグ付けします。

    たとえば、3 つのノードが control プロファイルを使用し、別の 3 つのノードが compute プロファイルを使用するようにタグ付けするには、以下のコマンドを実行します。

    $ openstack baremetal node set 1a4e30da-b6dc-499d-ba87-0bd8a3819bc0 --property capabilities="profile:control,boot_option:local"
    $ openstack baremetal node set 6faba1a9-e2d8-4b7c-95a2-c7fbdc12129a --property capabilities="profile:control,boot_option:local"
    $ openstack baremetal node set 5e3b2f50-fcd9-4404-b0a2-59d79924b38e --property capabilities="profile:control,boot_option:local"
    $ openstack baremetal node set 484587b2-b3b3-40d5-925b-a26a2fa3036f --property capabilities="profile:compute,boot_option:local"
    $ openstack baremetal node set d010460b-38f2-4800-9cc4-d69f0d067efe --property capabilities="profile:compute,boot_option:local"
    $ openstack baremetal node set d930e613-3e14-44b9-8240-4f3559801ea6 --property capabilities="profile:compute,boot_option:local"

profile オプションを追加すると、適切なプロファイルにノードをタグ付けします。

注記

手動でのタグ付けの代わりに、Automated Health Check (AHC) ツールを使用し、ベンチマークデータに基づいて、多数のノードに自動でタグ付けします。

第3章 既存の Ceph Storage クラスターとの統合

Red Hat OpenStack Platform director は ceph-ansible を使用して既存の Ceph Storage クラスターと統合しますが、デフォルトでは ceph-ansible はアンダークラウドにインストールされていません。

3.1. ceph-ansible パッケージのインストール

手順

  • 以下のコマンドを入力して、アンダークラウドに ceph-ansible パッケージをインストールしてください。

    sudo dnf install -y ceph-ansible

3.2. カスタム環境ファイルの作成

director は ceph-ansible にパラメーターを提供し、環境ファイルを使用して外部の Ceph Storage クラスターと統合します。

  • /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml

NFS バックエンドに CephFS を使用する Shared File System をデプロイする場合は、director は別の環境ファイルからパラメーターも提供します。

  • /usr/share/openstack-tripleo-heat-templates/environments/manila-cephfsganesha-config.yaml

これらの環境ファイルはデプロイメント時(「オーバークラウドのデプロイ」)で呼び出され、既存の Ceph Storage クラスターをデプロイ中のオーバークラウドに統合します。

統合を設定するには、Ceph Storage クラスターの詳細を director に提供する必要があります。そのためには、カスタム環境ファイルを使用して、これらの環境ファイルによって提供されるデフォルト設定を上書きします。

手順

  1. カスタム環境ファイルを作成します。

    /home/stack/templates/ceph-config.yaml

  2. このファイルに parameter_defaults: ヘッダーを追加します。

    parameter_defaults:
  3. このヘッダーの下に、/usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml で上書きするすべてのパラメーターを設定します。少なくとも、以下のパラメーターを設定する必要があります。

    • CephClientKey: Ceph Storage クラスターの Ceph クライアントキー。これは、先ほど 「既存の Ceph Storage クラスターの設定」 で取得した キー の値です。たとえば、AQDLOh1VgEp6FRAAFzT7Zw+Y9V6JJExQAsRnRQ== です。
    • CephClusterFSID: Ceph Storage クラスターのファイルシステム ID。これは、先ほど 「既存の Ceph Storage クラスターの設定」 で取得した Ceph Storage クラスターの設定ファイルの fsid の値ですたとえば、4b5c8c0a-ff60-454b-a1b4-9747aa737d19 です。
    • CephExternalMonHost: Ceph Storage クラスターの全 MON ホストの IP をコンマ区切りにしたリストです。例: 172.16.1.7, 172.16.1.8

      parameter_defaults:
        CephClientKey: AQDLOh1VgEp6FRAAFzT7Zw+Y9V6JJExQAsRnRQ==
        CephClusterFSID: 4b5c8c0a-ff60-454b-a1b4-9747aa737d19
        CephExternalMonHost: 172.16.1.7, 172.16.1.8
  4. 必要な場合は、デフォルトのプール名または OpenStack Platform クライアントユーザー名を上書きし、Ceph Storage クラスターに一致させます。

    • CephClientUserName: openstack
    • NovaRbdPoolName: vms
    • CinderRbdPoolName: volumes
    • GlanceRbdPoolName: images
    • CinderBackupRbdPoolName: backups
    • GnocchiRbdPoolName: metrics
  5. CephFS がサポートする Shared File Systems(manila)サービスをデプロイする場合は、データおよびメタデータプールの名前を設定します。

      ManilaCephFSDataPoolName: manila_data
      ManilaCephFSMetadataPoolName: manila_metadata
    注記

    これらの名前が、以前に作成したプールの名前と一致していることを確認します。

  6. Shared File Systems サービス用に作成したクライアントキーとそのキーの Ceph ユーザーの名前を設定します。

      ManilaCephFSCephFSAuthId: 'manila'
      CephManilaClientKey: 'AQDQ991cAAAAABAA0aXFrTnjH9aO39P0iVvYyg=='
    注記

    デフォルトでは、このキーは manila と呼ばれるユーザーに属し、client.manila キーとして保管されます。

  7. カスタム環境ファイルにオーバークラウドパラメーターを追加することもできます。たとえば、neutron のネットワーク種別を vxlan に設定するには、parameter_defaults に以下の設定を追加します。

      NeutronNetworkType: vxlan

カスタム環境ファイルを作成したら、オーバークラウドのデプロイ時にこのファイルを追加する必要があります。オーバークラウドのデプロイに関する詳細は、「オーバークラウドのデプロイ」 を参照してください。

3.3. ロールへのノードとフレーバーの割り当て

オーバークラウドのデプロイメントのプランニングでは、各ロールに割り当てるノード数とフレーバーを指定する必要があります。すべての Heat テンプレートのパラメーターと同様に、これらのロールの仕様はカスタム環境ファイル(ここでは「 3章既存の Ceph Storage クラスターとの統合」で作成した /home/stack/templates/ceph-config )の parameter_defaults セクションで宣言する必要があります。

この設定には、以下のパラメーターを使用します。

表3.1 オーバークラウドノードのロールとフレーバー

Heat テンプレートのパラメーター説明

ControllerCount

スケールアウトするコントローラーノード数

OvercloudControlFlavor

コントローラーノードに使用するフレーバー (control)

ComputeCount

スケールアウトするコンピュートノード数

OvercloudComputeFlavor

コンピュートノードに使用するフレーバー (compute)

たとえば、オーバークラウドが各ロール (Controller および Compute) に 3 つずつノードをデプロイするように設定するには、parameter_defaults に以下の設定を追加します。

parameter_defaults:
  ControllerCount: 3
  ComputeCount: 3
  OvercloudControlFlavor: control
  OvercloudComputeFlavor: compute

3.4. Ceph Storage を使用する Red Hat OpenStack Platform 向けの Ceph コンテナー

外部の Ceph クラスターを使用する場合でも、Red Hat OpenStack Platform(RHOSP)が Ceph を使用するように設定するには、Ceph コンテナーが必要です。Red Hat Enterprise Linux 8 と互換性を持たせるには、RHOSP 16.0 には Red Hat Ceph Storage 4 が必要です。Ceph Storage 4 コンテナーは、registry.redhat.io (認証が必要なレジストリー) でホストされます。

Container image preparation parameters 」で説明されているように、heat 環境パラメーター ContainerImageRegistryCredentials を使用して registry.redhat.io で認証することができます。

3.5. オーバークラウドのデプロイ

注記

アンダークラウドのインストール時に、undercloud.conf ファイルに generate_service_certificate=false を設定します。設定しない場合は、オーバークラウドのデプロイ時にトラストアンカーを挿入する必要があります。トラストアンカーの挿入方法についての詳細は、『 オーバークラウドの 高度なカスタマイズ』 ガイドの「オーバークラウドのパブリックエンドポイントでの SSL/TLS の有効化 」を参照してください。

オーバークラウドの作成には、openstack overcloud deploy コマンドに追加の引数を指定する必要があります。以下に例を示します。

$ openstack overcloud deploy --templates \
  -e /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml \
  -e /home/stack/templates/ceph-config.yaml \
  -e --ntp-server pool.ntp.org \

上記のコマンドは、以下のオプションを使用します。

  • --templates: デフォルトの Heat テンプレートコレクション (/usr/share/openstack-tripleo-heat-templates/) からオーバークラウドを作成します。
  • -e /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml: 既存の Ceph クラスターをオーバークラウドに統合するように director を設定します。
  • -e /home/stack/templates/ceph-config.yaml: -e /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml の設定するデフォルトを上書きするためのカスタム環境ファイルを追加します。ここでは、「3章既存の Ceph Storage クラスターとの統合」で作成したカスタム環境ファイルです。
  • --ntp-server pool.ntp.org: NTP サーバーを設定します。

前述のように、NFS バックエンドに CephFS を使用する Shared File Systems と共にオーバークラウドをデプロイするには、追加の manila-cephfsganesha-config.yaml 環境ファイルが必要です。

さらに、カスタムの Controller ロールをデプロイして、Ganesha CephFS を NFS ゲートウェイで実行し、分離された StorageNFS ネットワークを設定して、ファイル共有をクライアントに提供する必要があります。

この設定では、openstack overcloud deploy コマンドの形式は以下のようになります。

$ openstack overcloud deploy --templates \
  -n /usr/share/openstack-tripleo-heat-templates/network_data_ganesha.yaml \
  -r /home/stack/custom_roles.yaml \
  -e /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml \
  -e /usr/share/openstack-tripleo-heat-templates/environments/manila-cephfsganesha-config.yaml \
  -e /home/stack/templates/ceph-config.yaml \
  -e --ntp-server pool.ntp.org
注記

カスタムの ceph-config.yaml 環境ファイルは、ceph-ansible-external.yaml ファイルおよび manila-cephfsganesha-config.yaml ファイルのパラメーターを上書きします。したがって、ceph-ansible-external.yaml および manila-cephfsganesha-config.yaml の後に、デプロイメントコマンドにカスタムの ceph-config.yaml 環境ファイルを追加します。

StorageNFS ネットワークおよび NFS バックエンドに CephFS を使用する Shared File Systems のデプロイに必要なカスタム Controller ロールに関する情報は、「 Deploying the updated environment 」を参照してください。

ヒント

アンサーファイルを使用して、すべてのテンプレートおよび環境ファイルを呼び出すこともできます。たとえば、以下のコマンドを使用して、同一のオーバークラウドをデプロイすることができます。

$ openstack overcloud deploy \
  --answers-file /home/stack/templates/answers.yaml \
  --ntp-server pool.ntp.org

この場合、アンサーファイル /home/stack/templates/answers.yaml の内容は以下のようになります。

templates: /usr/share/openstack-tripleo-heat-templates/
environments:
  - /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml \
  - /home/stack/templates/ceph-config.yaml \

詳細は、「 オーバークラウドデプロイメントへの環境ファイルの追加」を 参照してください。

オプションの完全な一覧を表示するには、以下を実行します。

$ openstack help overcloud deploy

詳しくは、『 director のインストールと 使用方法』の「CLI ツールを使用した基本的なオーバークラウド の設定」を参照してください。

オーバークラウドの作成プロセスが開始され、director によりノードがプロビジョニングされます。このプロセスは完了するまで多少時間がかかります。オーバークラウドの作成のステータスを確認するには、stack ユーザーとして別のターミナルを開き、以下を実行します。

$ source ~/stackrc
$ openstack stack list --nested

この設定では、オーバークラウドが外部の Ceph Storage クラスターを使用するように設定します。このクラスターは、オーバークラウドから独立して、管理される点に注意してください。たとえば、Ceph Storage クラスターは、OpenStack Platform director ではなく Ceph 管理ツールを使用してスケーリングします。

第4章 オーバークラウドへのアクセス

director は、アンダークラウドからオーバークラウドと対話するための設定を行い、認証をサポートするスクリプトを作成します。director は、このファイル (overcloudrc) を stack ユーザーのホームディレクトリーに保存します。このファイルを使用するには、以下のコマンドを実行します。

$ source ~/overcloudrc

これにより、アンダークラウド CLI からオーバークラウドと対話するために必要な環境変数が読み込まれます。アンダークラウドとの対話に戻るには、以下のコマンドを実行します。

$ source ~/stackrc