4.2. Ceph Storage クラスターの確認

外部 Ceph Storage クラスターを設定する場合、プールおよび client.openstack ユーザーを作成して、これらのプールにアクセスします。オーバークラウドをデプロイしたら、client.openstack ユーザーの認証情報が含まれるファイルを使用して、Red Hat OpenStack Platform (RHOSP) プールの内容を一覧表示できます。

プールの内容を一覧表示し、Image サービス (glance) イメージ、インスタンス、およびボリュームの ID が Ceph Storage クラスターに存在することを確認します。

手順

  1. source コマンドでアンダークラウドの認証情報を読み込みます。

    [stack@undercloud-0 ~]$ source stackrc
  2. 利用可能なサーバーを一覧表示して、システム上のノードの IP アドレスを取得します。

    (undercloud) [stack@undercloud-0 ~]$ openstack server list
    
    +---------------+----------------+---------------+
    | ID | Name | Status | Networks | Image | Flavor |
    +---------------+----------------+---------------+
    | d5a621bd-d109-41ae-a381-a42414397802 | compute-0 | ACTIVE | ctlplane=192.168.24.31 | overcloud-full | compute |
    | 496ab196-d6cb-447d-a118-5bafc5166cf2 | controller-0 | ACTIVE | ctlplane=192.168.24.37 | overcloud-full | controller |
    | c01e730d-62f2-426a-a964-b31448f250b3 | controller-2 | ACTIVE | ctlplane=192.168.24.55 | overcloud-full | controller |
    | 36df59b3-66f3-452e-9aec-b7e7f7c54b86 | controller-1 | ACTIVE | ctlplane=192.168.24.39 | overcloud-full | controller |
    | f8f00497-246d-4e40-8a6a-b5a60fa66483 | compute-1 | ACTIVE | ctlplane=192.168.24.10 | overcloud-full | compute |
  3. SSH を使用して、任意のコンピュートノードにログインします。

    (undercloud) [stack@undercloud-0 ~]$ ssh heat-admin@192.168.24.31
  4. root ユーザーに変更します。

    [heat-admin@compute-0 ~]$ sudo su -
  5. /etc/ceph/ceph.conf ファイルおよび /etc/ceph/ceph.client.openstack.keyring ファイルが存在することを確認します。

    [root@compute-0 ~]# ls -l /etc/ceph/ceph.conf
    
    -rw-r--r--. 1 root root 1170 Sep 29 23:25 /etc/ceph/ceph.conf
    [root@compute-0 ~]# ls -l /etc/ceph/ceph.client.openstack.keyring
    
    -rw-------. 1 ceph ceph 253 Sep 29 23:25 /etc/ceph/ceph.client.openstack.keyring
  6. 以下のコマンドを入力して、nova_compute コンテナーが rbd コマンドを使用して適切なプールの内容を一覧表示するように強制します。

    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms

    プール名は、Ceph Storage クラスターの設定時に作成したイメージ、仮想マシン、およびボリュームのプール名と一致している必要があります。詳しくは、「既存の Ceph Storage クラスターの設定」を参照してください。イメージ、コンピュートインスタンス、およびボリュームの ID は、「ID の収集」で記録した ID と一致する必要があります。

    注記

    ceph-common パッケージで提供される /usr/bin/rbd はデフォルトではオーバークラウドノードにインストールされないため、コマンドの例には podman exec nova_compute というプレフィックスが付けられています。ただし、これは nova_compute コンテナーで利用できます。このコマンドは、ブロックデバイスイメージを一覧表示します。詳細は、『Ceph Storage ブロックデバイスガイド』「ブロックデバイスイメージの一覧表示」を参照してください。

    以下の例は、「ID の収集」で取得した ID を使用して、各プールに各サービスの ID が存在するかどうかを確認する方法を示しています。

    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls images | grep 4485d4c0-24c3-42ec-a158-4d3950fa020b
    
    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms | grep 64bcb731-e7a4-4dd5-a807-ee26c669482f
    
    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls volumes | grep aeac15e8-b67f-454f-9486-46b3d75daff4