Red Hat Training

A Red Hat training course is available for Red Hat Ceph Storage

3.6. イレイジャーコーディングを使用した Ceph ファイルシステムの作成

デフォルトでは、Ceph はデータプールにレプリケートされたプールを使用します。必要に応じて、イレイジャーコーディングのデータプールを追加することもできます。イレイジャーコーディングプールが対応する Ceph File Systems (CephFS) は、複製されたプールでサポートされる Ceph File Systems と比較して、全体的なストレージの使用量を使用します。イレイジャーコーディングされたプールは、全体的なストレージを使用しますが、レプリケートされたプールよりも多くのメモリーおよびプロセッサーリソースを使用します。

重要

イレイジャーコーディングされたプールの Ceph ファイルシステムはテクノロジープレビュー機能です。詳細は、「 Erasure Coding with Overwrites(テクノロジープレビュー) 」を参照してください。

重要

イレイジャーコーディングされたプールの Ceph ファイルシステムには、BlueStore オブジェクトストアを使用するプールが必要です。詳細は、「 Erasure Coding with Overwrites(テクノロジープレビュー) 」を参照してください。

重要

Red Hat は、レプリケートされたプールをデフォルトのデータプールとして使用することを推奨します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • BlueStore OSD を使用するプール。

手順

  1. Ceph File System 用のイレイジャーコーディングされたデータプールを作成します。

    ceph osd pool create $DATA_POOL $PG_NUM erasure

    たとえば、64 個の配置グループを持つ cephfs-data-ec という名前のイレイジャーコーディングされたプールを作成するには、以下を実行します。

    [root@monitor ~]# ceph osd pool create cephfs-data-ec 64 erasure
  2. Ceph File System 用に複製されたメタデータプールを作成します。

    ceph osd pool create $METADATA_POOL $PG_NUM

    たとえば、64 個の配置グループを持つ cephfs-metadata という名前のプールを作成するには、次のコマンドを実行します。

    [root@monitor ~]# ceph osd pool create cephfs-metadata 64
  3. 消去コード化されたプールでのオーバーライトを有効にします。

    ceph osd pool set $DATA_POOL allow_ec_overwrites true

    たとえば、cephfs-data-ec という名前のイレイジャーコーディングされたプールで上書きを有効にするには、以下を実行します。

    [root@monitor ~]# ceph osd pool set cephfs-data-ec allow_ec_overwrites true
  4. Ceph File System を作成します。

    ceph fs new $FS_EC $METADATA_POOL $DATA_POOL
    注記

    デフォルトのデータプールにイレイジャーコーディングされたプールを使用することは推奨されませんが、--force を使用してこのデフォルトを上書きできます。Ceph File System の名前と、メタデータとデータプールの名前を指定します。以下に例を示します。

    [root@monitor ~]# ceph fs new cephfs-ec cephfs-metadata cephfs-data-ec --force
  5. 設定に応じて、1 つ以上の MDS が active 状態にあることを確認します。

    ceph fs status $FS_EC

    Ceph File System の名前を指定します。以下に例を示します。

    [root@monitor ~]# ceph fs status cephfs-ec
    cephfs-ec - 0 clients
    ======
    +------+--------+-------+---------------+-------+-------+
    | Rank | State  |  MDS  |    Activity   |  dns  |  inos |
    +------+--------+-------+---------------+-------+-------+
    |  0   | active | node1 | Reqs:    0 /s |   10  |   12  |
    +------+--------+-------+---------------+-------+-------+
    +-----------------+----------+-------+-------+
    |       Pool      |   type   |  used | avail |
    +-----------------+----------+-------+-------+
    | cephfs-metadata | metadata | 4638  | 26.7G |
    |  cephfs-data-ec |   data   |    0  | 26.7G |
    +-----------------+----------+-------+-------+
    
    +-------------+
    | Standby MDS |
    +-------------+
    |    node3    |
    |    node2    |
    +-------------+
  6. イレイジャーコーディングされたプールをデータプールとして既存のファイルシステムに追加する場合は、以下を行います。

    1. Ceph File System 用のイレイジャーコーディングされたデータプールを作成します。

      ceph osd pool create $DATA_POOL $PG_NUM erasure

      たとえば、64 個の配置グループを持つ cephfs-data-ec1 という名前のイレイジャーコーディングされたプールを作成するには、以下を実行します。

      [root@monitor ~]# ceph osd pool create cephfs-data-ec1 64 erasure
    2. 消去コード化されたプールでのオーバーライトを有効にします。

      ceph osd pool set $DATA_POOL allow_ec_overwrites true

      たとえば、cephfs-data-ec1 という名前のイレイジャーコーディングされたプールで上書きを有効にするには、以下を実行します。

      [root@monitor ~]# ceph osd pool set cephfs-data-ec1 allow_ec_overwrites true
    3. 新規作成されたプールを既存の Ceph File System に追加します。

      ceph fs add_data_pool $FS_EC $DATA_POOL

      たとえば、cephfs-data-ec1 という名前のイレイジャーコーディングされたプールを追加するには、以下を実行します。

      [root@monitor ~]# ceph fs add_data_pool cephfs-ec cephfs-data-ec1
    4. 設定に応じて、1 つ以上の MDS が active 状態にあることを確認します。

      ceph fs status $FS_EC

      Ceph File System の名前を指定します。以下に例を示します。

      [root@monitor ~]# ceph fs status cephfs-ec
      cephfs-ec - 0 clients
      ======
      +------+--------+-------+---------------+-------+-------+
      | Rank | State  |  MDS  |    Activity   |  dns  |  inos |
      +------+--------+-------+---------------+-------+-------+
      |  0   | active | node1 | Reqs:    0 /s |   10  |   12  |
      +------+--------+-------+---------------+-------+-------+
      +-----------------+----------+-------+-------+
      |       Pool      |   type   |  used | avail |
      +-----------------+----------+-------+-------+
      | cephfs-metadata | metadata | 4638  | 26.7G |
      |  cephfs-data-ec |   data   |    0  | 26.7G |
      |  cephfs-data-ec1|   data   |    0  | 26.7G |
      +-----------------+----------+-------+-------+
      
      +-------------+
      | Standby MDS |
      +-------------+
      |    node3    |
      |    node2    |
      +-------------+

その他のリソース