2.2. 既存の Ceph Storage クラスターの設定

Ceph Storage クラスターの OSD プールを作成し、機能を定義し、キーおよび ID を作成します。

手順

  1. お使いの環境に適した Ceph クラスターに以下のプールを作成します。

    • OpenStack Block Storage (cinder) のストレージ:

      [root@ceph ~]# ceph osd pool create volumes <pgnum>
    • OpenStack Image Storage (glance) のストレージ:

      [root@ceph ~]# ceph osd pool create images <pgnum>
    • インスタンスのストレージ:

      [root@ceph ~]# ceph osd pool create vms <pgnum>
    • OpenStack Block Storage Backup (cinder-backup) のストレージ:

      [root@ceph ~]# ceph osd pool create backups <pgnum>
    • OpenStack Telemetry Metrics (gnocchi) のストレージ:

      [root@ceph ~]# ceph osd pool create metrics <pgnum>

      オーバークラウドが CephFS がサポートする Shared File Systems サービス (manila) をデプロイする場合には、CephFS データおよびメタデータプールも作成します。

      [root@ceph ~]# ceph osd pool create manila_data <pgnum>
      [root@ceph ~]# ceph osd pool create manila_metadata <pgnum>

      <pgnum> は配置グループの数に置き換えます。1 OSD あたり約 100 個の配置グループがベストプラクティスです。たとえば、OSD の合計数を 100 で乗算して、レプリカ数で除算します (osd pool default size)。適切な値を判断するには Ceph Placement Groups (PGs) per Pool Calculator を使用することを推奨します。

  2. 以下の機能を指定して client.openstack ユーザーを Ceph クラスターに作成します。

    • cap_mgr: “allow *”
    • cap_mon: profile rbd
    • cap_osd: profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics

      [root@ceph ~]# ceph auth add client.openstack mgr 'allow *' mon 'profile rbd' osd 'profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics'
  3. client.openstack ユーザー向けに作成された Ceph クライアントキーをメモします。

    [root@ceph ~]# ceph auth list
    ...
    [client.openstack]
    	key = AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw==
    	caps mgr = "allow *"
    	caps mon = "profile rbd"
    	caps osd = "profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics"
    ...

    この例の key 値 (AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw==) は Ceph クライアントキーです。ceph-ansible パッケージをインストールするには、このキーが必要です。

  4. オーバークラウドが CephFS でサポートされる Shared File System サービスをデプロイする場合は、以下の機能を備えた client.manila ユーザーを Ceph クラスターに作成します。

    • cap_mds: allow *
    • cap_mgr: allow *
    • cap_mon: allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create"
    • cap_osd: allow rw

      [root@ceph ~]# ceph auth add client.manila mon 'allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create"' osd 'allow rw' mds 'allow *' mgr 'allow *'
  5. manila クライアント名およびオーバークラウドデプロイメントテンプレートで使用するキー値をメモします。

    [root@ceph ~]# ceph auth get-key client.manila
         AQDQ991cAAAAABAA0aXFrTnjH9aO39P0iVvYyg==
  6. Ceph Storage クラスターのファイルシステム ID をメモします。この値は、[global] のセクションで、クラスターの設定ファイルにある fsid の設定で指定されています。

    [global]
    fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19
    ...
注記

Ceph Storage クラスターの設定ファイルに関する詳細は、『Red Hat Ceph Storage Configuration Guide』「Ceph configuration」を参照してください。

ceph-ansible パッケージをインストールする際に、Ceph クライアントキーおよびファイルシステム ID、および manila クライアント ID およびキーを使用します。詳細は、「 ceph-ansible パッケージのインストール」 を参照してください。