Jump To Close Expand all Collapse all Table of contents 実稼働環境向け Ceph Object Gateway ガイド 1. はじめに Expand section "1. はじめに" Collapse section "1. はじめに" 1.1. 本ガイドの対象 1.2. 想定条件 1.3. 対象範囲 2. クラスターの計画 Expand section "2. クラスターの計画" Collapse section "2. クラスターの計画" 2.1. ユースケースの特定 2.2. データ永続性手法の選択 2.3. マルチサイトデプロイメントの検討 3. ハードウェアの検討 Expand section "3. ハードウェアの検討" Collapse section "3. ハードウェアの検討" 3.1. ストレージのサイズ設定の検討 3.2. ストレージの密度の検討 3.3. ネットワークハードウェアの検討 3.4. 無停電電源装置の検討 3.5. ユースケース用のハードウェアの選択 3.6. インデックスのメディアの選択 3.7. ノードのモニター用にメディアの選択 4. クラスターの設定 Expand section "4. クラスターの設定" Collapse section "4. クラスターの設定" 4.1. ホストの命名 4.2. カーネルのチューニング Expand section "4.2. カーネルのチューニング" Collapse section "4.2. カーネルのチューニング" 4.2.1. OSD 用の空きメモリーの確保 4.2.2. ファイル記述子の増加 4.2.3. 大規模なクラスターでの ulimit の調整 4.3. Ansible グループの設定 4.4. Ceph の設定 Expand section "4.4. Ceph の設定" Collapse section "4.4. Ceph の設定" 4.4.1. ジャーナルサイズの設定 4.4.2. バックフィルおよび復旧設定の調整 4.4.3. クラスターマップサイズの調整 4.4.4. スクラビングの調整 4.4.5. objecter_inflight_ops を増やします。 4.4.6. rgw_thread_pool_size を増やします。 4.4.7. ガベージコレクション設定の調整 5. Ceph のデプロイ 6. クラスターの拡張 7. ストレージストラテジーの開発 Expand section "7. ストレージストラテジーの開発" Collapse section "7. ストレージストラテジーの開発" 7.1. CRUSH 階層の開発 Expand section "7.1. CRUSH 階層の開発" Collapse section "7.1. CRUSH 階層の開発" 7.1.1. CRUSH ルートの作成 7.1.2. CRUSH マップでの論理ホスト名の使用 7.1.3. CRUSH ルールの作成 7.2. ルートプールの作成 7.3. レルムの作成 7.4. サービスプールの作成 7.5. データ配置ストラテジーの作成 Expand section "7.5. データ配置ストラテジーの作成" Collapse section "7.5. データ配置ストラテジーの作成" 7.5.1. インデックスプールの作成 7.5.2. データプールの作成 7.5.3. データ追加プールの作成 7.5.4. ゾーングループへの配置ターゲットの設定 7.5.5. ゾーンへの配置プールの設定 7.5.6. データ配置の概要 8. ゲートウェイの設定 Expand section "8. ゲートウェイの設定" Collapse section "8. ゲートウェイの設定" 8.1. Civetweb の設定 8.2. ファイアウォールポートの設定 8.3. DNS ワイルドカードの設定 8.4. ロードバランサーの設定 8.5. Beast フロントエンドの使用 8.6. Beast 設定オプション 9. その他のユースケース Expand section "9. その他のユースケース" Collapse section "9. その他のユースケース" 9.1. マルチサイトを使用したクラスターの拡張 9.2. NFS Ganesha を使用したデータの移行 9.3. 静的 Web ホスト用のクラスターの設定 9.4. LDAP/AD のクラスターの設定 9.5. OpenStack Keystone を使用するクラスターの設定 10. NVMe と LVM の最適な使用 Expand section "10. NVMe と LVM の最適な使用" Collapse section "10. NVMe と LVM の最適な使用" 10.1. 1 つの NVMe デバイスの使用 Expand section "10.1. 1 つの NVMe デバイスの使用" Collapse section "10.1. 1 つの NVMe デバイスの使用" 10.1.1. すべての既存 Ceph クラスターの削除 10.1.2. 通常インストール用のクラスター設定 10.1.3. NVMe デバイスおよび HDD デバイスの特定 10.1.4. lv_vars.yaml へのデバイスの追加 10.1.5. lv-create.yml Ansible Playbook の実行 10.1.6. LVM 設定の確認 10.1.7. osds.yml および all.yml Ansible Playbooks の編集 10.1.8. NVMe 用の Ceph のインストールおよび正常な実行の確認 10.2. 2 つの NVMe デバイスの使用 Expand section "10.2. 2 つの NVMe デバイスの使用" Collapse section "10.2. 2 つの NVMe デバイスの使用" 10.2.1. すべての既存 Ceph クラスターの削除 10.2.2. 通常インストール用のクラスター設定 10.2.3. NVMe デバイスおよび HDD デバイスの特定 10.2.4. lv_vars.yaml へのデバイスの追加 10.2.5. lv-create.yml Ansible Playbook の実行 10.2.6. 最初の NVMe LVM 設定のコピー 10.2.7. NVMe デバイス 2 で Playbook lv-create.yml を実行します。 10.2.8. 2 番目の NVMe LVM 設定のコピー 10.2.9. LVM 設定の確認 10.2.10. osds.yml および all.yml Ansible Playbooks の編集 10.2.11. NVMe 用の Ceph のインストールおよび正常な実行の確認 Settings Close Language: 简体中文 日本語 English Language: 简体中文 日本語 English Format: Multi-page Single-page PDF Format: Multi-page Single-page PDF Language and Page Formatting Options Language: 简体中文 日本語 English Language: 简体中文 日本語 English Format: Multi-page Single-page PDF Format: Multi-page Single-page PDF 3.7. ノードのモニター用にメディアの選択 Ceph モニターは、同期書き込みレイテンシーの影響を受ける leveldb を使用します。Red Hat は、SSD を使用してモニターデータを保存することを強く推奨します。選択した SSD に連続した書き込みおよびスループットの特徴が十分にあることを確認してください。 Previous Next