Red Hat Training
A Red Hat training course is available for Red Hat Ceph Storage
7.5. サービスプールの作成
Ceph Object Gateway は、さまざまなサービス機能に多くのプールを使用し、バケットインデックス、データ、およびその他の情報を保存するために個別の配置プールセットを使用します。
プールの配置グループをピアリングするのはコンピューティングコストがかかるため、Red Hat は通常、Ceph Object Gateway のサービスプールがデータストレージプールよりもはるかに少ない配置グループを使用することを推奨しています。
サービスプールは、サービス制御、ガベージコレクション、ロギング、ユーザー情報、および使用状況などに関連するオブジェクトを保存します。慣例により、これらのプール名には、プール名の前にゾーン名が付加されます。
-
.<zone-name>.rgw.control
: コントロールプール。 -
.<zone-name>.rgw.gc
: 削除するオブジェクトのハッシュバケットが含まれるガベージコレクションプール。 -
.<zone-name>.log
: ログプールには、すべてのバケット/コンテナーのログおよび create、read、update、および delete などのオブジェクトアクションが含まれます。 -
.<zone-name>.intent-log
: 侵入ログプールには、要求が失敗した場合に元に戻す/redo を容易にするためのオブジェクト更新要求のコピーが含まれます。 -
.<zone-name>.users.uid
: ユーザー ID プールには、一意のユーザー ID のマップが含まれます。 -
.<zone-name>.users.keys
: keys プールには、各ユーザー ID のアクセスキーと秘密鍵が含まれます。 -
.<zone-name>.users.email: メール
アドレスには、ユーザー ID に関連付けられたメールアドレスが含まれます。 -
.<zone-name>.users.swift
: Swift プールには、ユーザー ID の Swift サブユーザー情報が含まれます。 -
.<zone-name>.usage
: 使用状況プールには、ユーザーごとに使用状況のログが含まれます。
ゾーンの取得 手順を実行し、プール名を表示します。
# radosgw-admin zone get [--rgw-zone=<zone>]
radosgw-admin
はゾーンを作成すると、プール名は、ゾーン名を先頭に追加する 必要があります。たとえば、us-west
の名前ゾーンは、次のようになり何かというプールの名前を持っている 必要があります。
{ "domain_root": ".rgw.root", "control_pool": ".us-west.rgw.control", "gc_pool": ".us-west.rgw.gc", "log_pool": ".us-west.log", "intent_log_pool": ".us-west.intent-log", "usage_log_pool": ".us-west.usage", "user_keys_pool": ".us-west.users.keys", "user_email_pool": ".us-west.users.email", "user_swift_pool": ".us-west.users.swift", "user_uid_pool": ".us-west.users.uid", "system_key": { "access_key": "", "secret_key": ""}, "placement_pools": [ { "key": "default-placement", "val": { "index_pool": ".us-west.rgw.buckets.index", "data_pool": ".us-west.rgw.buckets", "data_extra_pool": ".us-west.rgw.buckets.non-ec" "index_type": 0 } } ] }
control_pool
から始まり、user_uid_pool
で終わる場合は、ゾーン名の前にプール名が追加されていれば、そのゾーン名を使用してプールを作成します。前述の例に従うと、プールの作成は以下のようになります。
# ceph osd pool create .us-west.rgw.control 32 32 replicated rgw-service ... # ceph osd pool create .us-west.users.uid 32 32 replicated rgw-service
以前の例から、rgw-service
ルールは、SSD ジャーナルおよび rack
を CRUSH 障害ドメインとして持つ SAS ドライブの CRUSH 階層を表します。前述 の例は、「CRUSH ルートの 作成」および「 CRUSH ルールの作成 」を参照してください。
PG 数の詳細は、『ストレージストラテジーガイド』の「 Ceph Placement Groups (PGs)per Pool Calculator 」および「配置グループ」の章を参照してください。プールの作成 に関する詳細は、『ストレージストラテジーガイド』の「プールの作成」セクションを 参照してください。
サービスプールの場合、計算結果から推奨される PG 数は、OSD ごとのターゲット PG よりもはるかに少なくなります。計算のステップ 3 で、正しい OSD 数を指定するようにしてください。
通常、.rgw.root
プールとサービスプールは同じ CRUSH 階層を使用し、CRUSH ルールの障害ドメインとして少なくとも node
を使用する必要があります。.rgw.root
プールと同様に、サービスプールは、データの耐久性のために、erasure
ではなく、replicated
を使用する必要があります。