第3章 管理

管理者は、radosgw-admin コマンドラインインターフェースを使用して Ceph Object Gateway を管理できます。

3.1. 管理データストレージ

Ceph Object Gateway は、インスタンスのゾーン設定で定義されている一連のプールに管理データを格納します。たとえば、後続のセクションで説明するバケット、ユーザー、ユーザークォータ、および使用状況の統計は、Ceph Storage クラスターのプールに保存されます。デフォルトでは、Ceph Object Gateway は以下のプールを作成し、デフォルトゾーンにマッピングします。

  • .rgw.root
  • .default.rgw.control
  • .default.rgw.meta
  • .default.rgw.log
  • .default.rgw.buckets.index
  • .default.rgw.buckets.data
  • .default.rgw.buckets.non-ec

CRUSH ルールセットおよび配置グループの数を設定できるように、これらのプールを手動で作成することを検討する必要があります。一般的な設定では、Ceph Object Gateway の管理データを保存するプールは、多くの場合同じ CRUSH ルールセットを使用し、管理データには 10 プールがあるためです。詳細は、Red Hat Ceph Storage 4 の場合は、「プール」 および 『ストレージ戦略』ガイドを参照してください。

また、配置グループの計算の詳細については、Ceph Placement Groups(PGs)per Pool Calculator も参照してください。mon_pg_warn_max_per_osd 設定は、プールに過剰な配置グループを割り当てると警告します (つまりデフォルトでは 300)。この値は、ニーズやハードウェアの能力に合わせて調整することができ、n は OSD あたりの PG の最大数です。

mon_pg_warn_max_per_osd = n