Dashboard ガイド

Red Hat Ceph Storage 4

Ceph Dashboard を使用した Ceph クラスターのモニタリング

概要

本書では、監視および管理の目的で Red Hat Ceph Storage Dashboard を使用する方法を説明します。
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、弊社の CTO、Chris Wright のメッセージ を参照してください。

第1章 Ceph Dashboard の概要

ストレージ管理者は、Red Hat Ceph Storage Dashboard は管理機能および監視機能を提供します。これにより、クラスターの管理および設定が可能になり、それに関連する情報およびパフォーマンス統計を可視化を可能にします。ダッシュボードは、ceph-mgr デーモンがホストする Web サーバーを使用します。

ダッシュボードは Web ブラウザーからアクセスでき、たとえばマネージャーモジュールの設定や OSD の状態の監視などの有用な管理機能および監視機能が含まれます。

1.1. 前提条件

  • システム管理者レベルの経験

1.2. ダッシュボードコンポーネント

ダッシュボードの機能は複数のコンポーネントで提供されます。

  • デプロイメント用の Ansible 自動化アプリケーション。
  • 埋め込みダッシュボードである ceph-mgr モジュール。
  • 埋め込み Prometheus である ceph-mgr モジュール。
  • Prometheus の時系列データベース。
  • ストレージクラスターの各ノードで実行される Prometheus の node-exporter デーモン。
  • 監視ユーザーインターフェイスおよびアラートを提供する Grafana プラットフォーム。

関連情報

1.3. Dashboard の機能

Ceph Dashboard は複数の機能を提供します。

管理機能

  • クラスターの階層の表示: CRUSH マップを表示できます。たとえば、特定の OSD ID が実行されているノードを判別できます。これは、OSD に問題がある場合に便利です。
  • マネージャーモジュールの設定: Ceph マネージャーモジュールのパラメーターを表示および変更できます。
  • ログの表示および絞り込み: イベントおよび監査クラスターのログを表示し、優先順位、キーワード、日付、または時間範囲に基づいてフィルタリングできます。
  • ダッシュボードコンポーネントの切り替え: ダッシュボードのコンポーネントを有効および無効にできるため、必要な機能のみが利用可能になります。
  • OSD 設定の管理: ダッシュボードを使用してクラスター全体の OSD フラグを設定できます。
  • アラートの表示 アラートページでは、現在のアラートの詳細を表示できます。
  • イメージのサービス品質: IOPS の制限や、BPS バーストレートの読み取りなど、イメージにパフォーマンス制限を設定できます。

監視機能

  • ユーザー名およびパスワード保護: 設定可能なユーザー名とパスワードのみを使用してダッシュボードにアクセスできます。
  • SSL および TLS のサポート: Web ブラウザーとダッシュボード間の HTTP 通信はすべて SSL 経由で保護されます。自己署名証明書は組み込みコマンドで作成できますが、認証局 (CA) が署名して発行したカスタム証明書をインポートすることもできます。Red Hat Ceph Storage 4.2 以降、dashboard_protocolhttps に設定され、Ansible はダッシュボードと grafana 証明書を生成します。データポイントとグラフをプロットするには、以下のように TLS ハンドシェイクを手動で更新します。

    • Alert manager API host - http://grafana_node:9093
    • Prometheus API host - http://grafana_node:9092
    • Grafana API Host - https://grafana_node:3000
  • クラスター全体の正常性: クラスター全体のステータス、ストレージ使用率 (オブジェクトの数、Raw 容量、プールごとの使用量など)、プールのリストおよびそれらのステータスと使用状況の統計を表示します。
  • ホスト: 実行中のサービスおよびインストールされた Ceph バージョンと共に、クラスターに関連付けられたホストの一覧を提供します。
  • パフォーマンスカウンター: 実行中の各サービスの詳細統計を表示します。
  • モニター: モニター、クォーラムのステータス、およびオープンセッションの一覧を表示します。
  • 設定リファレンス: 利用可能な設定オプション、その説明、デフォルト値の一覧を表示します。
  • クラスターログ: クラスターのイベントおよび監査ログを表示し、フィルタリングします。
  • ストレージクラスターの容量の表示: Red Hat Ceph Storage クラスターの Raw ストレージ容量は、Ceph Dashboard の Capacity パネルで確認できます。
  • Pools: すべての Ceph プールとその詳細を一覧表示および管理します。たとえば、アプリケーション、配置グループ、レプリケーションサイズ、EC プロファイル、CRUSH ルールセットなどです。
  • OSD: すべての OSD、それらのステータスおよび使用状況の統計に加えて、属性 (OSD マップ)、メタデータ、パフォーマンスカウンター、読み取り/書き込み操作のためのヒストグラムなどの詳細情報を一覧表示および管理します。
  • iSCSI: tcmu-runner サービスを実行するホストの一覧を表示し、読み取り/書き込み操作やトラフィックなど、すべてのイメージとそのパフォーマンスの特性を表示します。
  • イメージ: サイズ、オブジェクト、機能などのすべての RBD イメージと、そのプロパティーを表示します。RBD イメージの作成、コピー、変更、および削除を行います。選択したイメージのスナップショットを作成、削除、およびロールバックし、変更に対してこのスナップショットを保護するか、保護を解除します。スナップショットをコピーまたは複製し、複製されたイメージを平坦化します。

    注記

    特定のイメージの Overall Performance タブの I/O 変更のパフォーマンスグラフには、Cluster > Manager modules > Prometheusrbd_stats_pool パラメーターを設定すると、そのイメージを含むプールを指定した後にのみ値が表示されます。

  • ミラーリング: 同期状態を含む、すべてのアクティブな同期デーモンとそのステータス、プール、および RBD イメージの一覧を表示します。
  • ファイルシステム: アクティブな Ceph ファイルシステム (CephFS) クライアントと関連するプール (使用状況の統計を含む) の一覧を表示します。
  • Object Gateway (RGW): アクティブなすべてのObject Gateway とそのパフォーマンスカウンターを表示します。Object Gateway ユーザーの表示および管理 (追加、編集、削除) およびその詳細 (クォータなど)、ユーザーのバケットおよびその詳細 (例: 所有者、クォータなど) を表示および管理します。

関連情報

1.3.1. ダッシュボード機能のオンとオフの切り替え

オンデマンドで機能を有効または無効にすることで、Red Hat Ceph Storage ダッシュボードのコンポーネントをカスタマイズできます。デフォルトでは、すべての機能が有効になっています。機能を無効にすると、Web インターフェイス要素は非表示になり、関連付けられた REST API のエンドポイントはその機能に対する追加のリクエストを拒否します。ダッシュボード機能の有効化および無効化は、コマンドラインインターフェイスまたは Web インターフェイスから実行できます。

利用可能な機能:

  • Ceph ブロックデバイス:

    • イメージの管理 (rbd)
    • ミラーリング (mirroring)
    • iSCSI ゲートウェイ (iscsi)
  • Ceph ファイルシステム (cephfs)
  • Ceph Object Gateway (rgw)
注記

デフォルトでは、Ceph Manager は Ceph Monitor と併置されます。

注記

複数の機能を一度に無効にできます。

重要

機能が無効になったら、Web インターフェイスの変更を反映するのに最大 20 秒かかる場合があります。

前提条件

  • Red Hat Ceph Storage ダッシュボードソフトウェアのインストールおよび設定
  • Ceph Manager ノードまたはダッシュボードの Web インターフェイスへのユーザーアクセス

手順

  1. ダッシュボードの Web インターフェイスからダッシュボード機能を切り替えるには、以下を実行します。

    1. ダッシュボードページのナビゲーションバーから Cluster に移動し、Manager Modules に移動してから Dashboard をクリックします。これにより、Edit Manager モジュール ページが開きます。
    2. Edit Manager module ページから、機能名の横にある選択ボックスを選択するか、選択を解除すると、ダッシュボードの機能を有効または無効にすることができます。

      Edit Manager module
    3. 選択が完了したら、ページ下部の Update ボタンをクリックします。

      Update button
  2. コマンドラインインターフェイスからダッシュボード機能を切り替えるには、以下を実行します。

    1. Ceph Manager ノードにログインします。
    2. 機能のステータスの一覧を表示します。

      [user@mon ~]$ ceph dashboard feature status
    3. 機能を無効にします。

      [user@mon ~]$ ceph dashboard feature disable iscsi

      以下の例では、Ceph iSCSI ゲートウェイ機能を無効にします。

    4. 機能を有効にします。

      [user@mon ~]$ ceph dashboard feature enable cephfs

      以下の例では、Ceph Filesystem 機能を有効にします。

1.4. Dashboard アーキテクチャー

Dashboard アーキテクチャーは、Ceph Manager のダッシュボードプラグインおよびその他のコンポーネントによって異なります。以下の図を参照し、どのように連携するかを確認します。

Ceph Dashboard architecture diagram

第2章 Ceph Dashboard のインストールおよびアクセス

システム管理者は、ダッシュボードをインストールして初めてアクセスすることができます。

Red Hat Ceph Storage は、Cockpit Web インターフェイスを使用してグラフィックにインストールするか、ceph-ansible RPM が提供する Ansible Playbook を使用してコマンドラインにインストールされます。Cockpit で同じ Ansible Playbook を使用して Ceph をインストールします。これらの Playbook により、デフォルトでダッシュボードがインストールされます。したがって、Ansible Playbook を直接使用するか、Cockpit を使用して Ceph をインストールするかどうかに関わらず、ダッシュボードがインストールされます。

重要

デフォルトのダッシュボードパスワードを変更します。デフォルトでは、ダッシュボードのパスワードは p@ssw0rd で、安全ではありません。Playbook を使用して Ceph をインストールする前に、Ansible Playbook の all.ymldashboard_admin_password を更新するか、同じ Playbook またはダッシュボード自体を使用してインストールした後に、Ceph をインストールする前にデフォルトのパスワードを変更できます。詳細は、インストールガイドダッシュボードを使用したダッシュボードパスワードの変更 または Ansible を使用したダッシュボードのパスワードの変更 を参照してください。

2.1. Cockpit を使用したダッシュボードのインストール

Red Hat Ceph Storage のインストールに Cockpit Web インターフェイスを使用する場合、Dashboard はデフォルトでインストールされます。Grafana のインストールには Metrics ロールを持つホストを設定する必要があります。

前提条件

  • 完全な前提条件は インストールガイド を参照してください。この手順では、ダッシュボードのインストールに関連する手順のみを強調しています。

手順

  1. Hosts ページでホストを追加し、Metrics ロールを設定します。

    Cockpit add metrics host
  2. Add をクリックします。
  3. 残りの Cockpit Ceph Installer の名前変更プロンプトを完了します。
  4. デプロイプロセスが完了したら、ページの右下隅にある Complete ボタンをクリックします。これにより、ceph status コマンドの出力と Dashboard のアクセス情報を表示するウィンドウが開きます。

    Complete button
  5. Ceph Cluster Status ウィンドウ下部に、URL、ユーザー名、パスワードなど、Dashboard のアクセス情報が表示されます。この情報を書き留めておいてください。

    Ceph Cluster Status window

2.2. Ansible を使用したダッシュボードのインストール

ダッシュボードは、ceph-ansible RPM が提供する Ansible Playbook を使用して Red Hat Ceph Storage をインストールする際にデフォルトでインストールされます。

前提条件

  • 完全な前提条件は インストールガイド を参照してください。この手順では、ダッシュボードのインストールに関連する手順のみを強調しています。

手順

  1. その下でノードが定義された [grafana-server] グループが Ansible インベントリーファイルに存在することを確認します。Grafana と Prometheus がこのノードにインストールされている。

    [root@jb-ceph4-admin ~]# grep grafana-server -A 1 /etc/ansible/hosts
    [grafana-server]
    jb-ceph4-mon
  2. Ansible Playbook の all.yml で、Dashboard_enabled:False に設定されていないことを確認します。デフォルト設定が True を示すコメントがなければなりません。

    [root@jb-ceph4-admin ~]# grep "dashboard_enabled" /usr/share/ceph-ansible/group_vars/all.yml
    #dashboard_enabled: True
  3. インストールガイド e で説明されているように、Ceph をインストールするために必要な残りの手順を実施します。
  4. ベアメタルのインストール用に ansible-playbook site.yml を実行した後、コンテナーインストールの場合は ansible-playbook site-docker.yml を実行すると、Ansible によりダッシュボードのアクセス情報が出力されます。Playbook 出力の最後にあるダッシュボードの URL、ユーザー名、およびパスワードを検索します。

    2019-12-13 15:31:17,871 p=11421 u=admin |  TASK [ceph-dashboard : print dashboard URL] ************************************************************
    2019-12-13 15:31:17,871 p=11421 u=admin |  task path: /usr/share/ceph-ansible/roles/ceph-dashboard/tasks/main.yml:5
    2019-12-13 15:31:17,871 p=11421 u=admin |  Friday 13 December 2019  15:31:17 -0500 (0:00:02.189)       0:04:25.380 *******
    2019-12-13 15:31:17,934 p=11421 u=admin |  ok: [jb-ceph4-mon] =>
      msg: The dashboard has been deployed! You can access your dashboard web UI at http://jb-ceph4-mon:8443/ as an 'admin' user with 'p@ssw0rd' password.

    出力 You can access your dashboard web UI at http://jb-ceph4-mon:8443/ as an 'admin' user with 'p@ssw0rd' password. を書き留めます。

注記

Ansible Playbook は以下を行います。

  • ceph-mgr の Prometheus モジュールを有効にします。
  • ceph-mgr でダッシュボードモジュールを有効にし、TCP ポート 8443 を開きます。
  • Prometheus の node_exporter デーモンをストレージクラスターの各ノードにデプロイします。

    • TCP ポート 9100 を開きます。
    • node_exporter デーモンを起動します。
  • Ansible インベントリーファイルの [grafana-server] の下にある Docker/systemd の下に Grafana および Prometheus コンテナーをデプロイします。

    • 各 Ceph ホストで実行している ceph-mgr ノードおよび node-exporters からデータを収集するように Prometheus を設定します。
    • TCP ポート 3000 を開きます。
    • Grafana にダッシュボード、テーマ、およびユーザーアカウントを作成します。
    • Ceph Dashboard のログインページの URL を表示します。

2.3. ネットワークポートの要件

Ceph Dashboard のコンポーネントは、アクセス可能である必要のある、特定の TCP ネットワークポートを使用します。デフォルトでは、Red Hat Ceph Storage のインストール時に、ネットワークポートは firewalld で自動的に開きます。

表2.1 TCP ポート要件

Port下記を使用して、発信元ノード送信先ノード

8443

ダッシュボードの Web インターフェイス

AlertManager サービスはアラートを報告するためにダッシュボードへの接続も開始できるため、Ceph ダッシュボード UI および Ansible インベントリーファイルの [grafana-server] の下のノードにアクセスする必要がある IP アドレス。

Ceph Manager ノード。

3000

Grafana

Grafana ダッシュボード UI およびすべての Ceph Manager ホストと [grafana-server] へのアクセスが必要な IP アドレス。

Ansible インベントリーファイルの [grafana-server] の下にあるノード。

9090

基本的な Prometheus グラフ用のデフォルトの Prometheus サーバー

Prometheus UI およびすべての Ceph Manager ホスト、および Prometheus を実行しているホスト [grafana-server] またはホストにアクセスする必要がある IP アドレス。

Ansible インベントリーファイルの [grafana-server] の下にあるノード。

9092

基本的な Prometheus グラフの Prometheus サーバー

Prometheus UI およびすべての Ceph Manager ホスト、および Prometheus を実行しているホスト [grafana-server] またはホストにアクセスする必要がある IP アドレス。

Ansible インベントリーファイルの [grafana-server] の下にあるノード。

9093

Prometheus Alertmanager

Alertmanager Web UI およびすべての Ceph Manager ホスト、および Prometheus を実行しているホスト [grafana-server] またはホストへのアクセスが必要な IP アドレス。

Ansible インベントリーファイルの [grafana-server] の下にあるすべての Ceph Manager ノードとノード。

9094

複数のインスタンスから作成された可用性の高いクラスターを設定するための Prometheus Alertmanager

Ansible インベントリーファイルの [grafana-server] の下にあるすべての Ceph Manager ノードとノード。

Prometheus Alertmanager 高可用性(ピアデーモン同期)であるため、srcdst の両方が Prometheus Alertmanager を実行しているノードである必要があります。

9100

Prometheus の node-exporter デーモン

Node Exporter メトリクス Web UI およびすべての Ceph Manager ノードと [grafana-server] または Prometheus を実行しているホストを表示する必要がある Prometheus を実行しているホスト。

MON、OSDS、[grafana-server] ホストを含むすべてのストレージクラスターノード。

9283

Ceph Manager Prometheus エクスポーターモジュール

Ceph Exporter メトリクス Web UI および [grafana-server] にアクセスする必要がある Prometheus を実行しているホスト。

すべての Ceph Manager ノード。

9287

Ceph iSCSI ゲートウェイデータ

すべての Ceph Manager ホストと [grafana-server]

すべての Ceph iSCSI ゲートウェイノード。

関連情報

2.4. ダッシュボードポートの設定

デフォルトでは、Red Hat Ceph Storage ダッシュボードは TCP/IP アドレスと TCP ポートにバインドします。

デフォルトでは、ダッシュボードをホストする ceph-mgr デーモンは、SSL が無効になっている場合、TCP ポート 8443 または 8080 にバインドします。特定のアドレスが設定されていない場合、Web アプリは :: にバインドします。これは、使用可能なすべての IP4 および IP6 アドレスに対応します。

クラスター全体のレベルで設定キー機能を使用して、IP アドレスとポートを変更できます。

前提条件

  • Red Hat Ceph Storage クラスター
  • Red Hat Ceph Storage ダッシュボードのインストール。
  • すべてのノードへの root レベルのアクセス。

手順

  1. ダッシュボードにアクセスするための URL を取得します。

    [root@admin ~]# ceph mgr services

  2. ceph-mgr デーモンの現在の IP とポート設定を取得します。

    [root@admin ~]# netstat -ntlp

  3. IP アドレスとポートを設定します。

    構文

    ceph config set mgr mgr/dashboard/server_addr IP_ADDRESS
    ceph config set mgr mgr/dashboard/server_port PORT
    ceph config set mgr mgr/dashboard/ssl_server_port PORT

    [root@mon ~]# ceph config set mgr mgr/dashboard/server_addr 192.168.0.120
    [root@mon ~]# ceph config set mgr mgr/dashboard/server_port 8443
    [root@mon ~]# ceph config set mgr mgr/dashboard/ssl_server_port 8443

  4. オプション: ceph-mgr はダッシュボードの独自のインスタンスをホストするため、個別に設定できます。特定のマネージャーインスタンスの IP アドレスとポートを変更します。

    構文

    ceph config set mgr mgr/dashboard/NAME/server_addr IP_ADDRESS
    ceph config set mgr mgr/dashboard/NAME/server_port PORT
    ceph config set mgr mgr/dashboard/NAME/ssl_server_port PORT

    Replace: NAME を、ダッシュボードをホストする ceph-mgr インスタンスの ID に。

    [root@mon ~]# ceph config set mgr mgr/dashboard/mgrs-0/server_addr 192.168.0.120
    [root@mon ~]# ceph config set mgr mgr/dashboard/mgrs-0/server_port 8443
    [root@mon ~]# ceph config set mgr mgr/dashboard/mgrs-0/ssl_server_port 8443

関連情報

2.5. ダッシュボードへのアクセス

ダッシュボードにアクセスすると、Red Hat Ceph Storage クラスターを管理および監視できます。

前提条件

  • Red Hat Ceph Storage Dashboard の正常なインストール
  • NTP はクロックを適切に同期しています。
注記

ノードが適切に同期されない場合に、ダッシュボードノード、クラスターノード、およびブラウザー間で時間ラグが発生する可能性があります。すべてのノードと、ブラウザーを実行するシステムが NTP によって同期されていることを確認します。デフォルトでは、Red Hat Ceph Storage をデプロイすると、Ansible は全ノードに NTP を設定します。確認するには、Red Hat Enterprise Linux 7 の場合は ntpd を使用した NTP 設定 を参照してください。Red Hat Enterprise Linux 8 の場合は Chrony スイートを使用した NTP の設定 を参照してください。別のオペレーティングシステムでブラウザーを実行する場合は、そのオペレーティングシステムのベンダーに NTP 設定情報を確認してください。

注記

Red Hat Ceph Storage で OpenStack Platform (OSP) を使用しているときに OSP Safe Mode を有効にする場合は、以下のいずれかの方法を使用します。Ansible で Ansible Playbook の group_vars/all.yml を編集し、dashboard_admin_user_ro: true を設定してから、ベアメタルまたはコンテナーデプロイメントのそれぞれ site.yml または site-container.yml に対して ansible-playbook を再実行します。ceph コマンドを使用して OSP Safe Mode を有効にするには、ceph dashboard ac-user-set-roles admin read-only を実行します。Ansible Playbook の ceph-ansible を実行しても変更が維持されるようにするには、group_vars/all.yml を編集して Dashboard_admin_user_ro: true を設定します。

手順

  1. Web ブラウザーで、以下の URL を入力します。

    http://HOST_NAME:PORT

    以下を置き換えます。

    • HOST_NAME は、ダッシュボードノードのホスト名に置き換えます。
    • PORT は、ポート 8443 に置き換えます。

      以下は例になります。

      http://dashboard:8443
  2. インストール時にパスワードを変更しなかった場合は、ログインページでユーザー名 admin とデフォルトパスワード p@ssw0rd を入力します。

    図2.1 Ceph Dashboard ログインページ

    Ceph Dashboard Login Page
  3. ログイン後、ダッシュボードのデフォルトランディングページが表示され、Red Hat Ceph Storage クラスターのステータス、パフォーマンス、および容量のメトリックの概要が提供されています。

    図2.2 Ceph Dashboard のデフォルトのランディングページ

    Ceph Dashboard Default Landing Page

2.6. Ansible を使用したダッシュボードパスワードの変更

デフォルトでは、ダッシュボードにアクセスするためのパスワードは p@ssw0rd に設定されます。

重要

セキュリティー上の理由から、インストール後にパスワードを変更します。

Ansible を使用してダッシュボードのパスワードを変更できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Ansible 管理ノードへのアクセス

手順

  1. Ansible Playbook ファイル /usr/share/ceph-ansible/group_vars/all.yml を開いて編集します。
  2. この行でコメント解除してパスワードを更新します。

    #dashboard_admin_password: p@ssw0rd

    以下のように変更します。

    dashboard_admin_password: NEW_PASSWORD

    NEW_PASSWORD を、希望するパスワードに置き換えます。

  3. Ceph クラスターをデプロイまたは更新する Ansible Playbook ファイルを再実行します。

    1. ベアメタルのインストールには、Playbook の site.yml を使用します。

      [admin@admin ceph-ansible]$ ansible-playbook -v site.yml
    2. コンテナーのインストールには、Playbook の site-docker.yml を使用します。

      [admin@admin ceph-ansible]$ ansible-playbook -v site-docker.yml
  4. 新しいパスワードを使用してログインします。

2.7. ダッシュボードを使用したダッシュボードパスワードの変更

デフォルトでは、ダッシュボードにアクセスするためのパスワードは p@ssw0rd に設定されます。

重要

セキュリティー上の理由から、インストール後にパスワードを変更します。

ダッシュボードを使用してパスワードを変更するには、Ansible でダッシュボードのパスワード設定を変更して、Red Hat Ceph Storage クラスターの再設定に Ansible が使用されている場合は、パスワードがデフォルトのパスワードに戻らないようにします。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。

手順

  1. group_vars/all.yml ファイルでパスワードを更新し、Ansible を使用して Ceph クラスターを再設定する際にパスワードが p@ssw0rd にリセットされないようにします。

    1. Ansible Playbook ファイル /usr/share/ceph-ansible/group_vars/all.yml を開いて編集します。
    2. この行でコメント解除してパスワードを更新します。

      #dashboard_admin_password: p@ssw0rd

      以下のように変更します。

      dashboard_admin_password: NEW_PASSWORD

      NEW_PASSWORD を、希望するパスワードに置き換えます。

  2. ダッシュボードの Web ユーザーインターフェイスでパスワードを変更します。

    1. ダッシュボードにログインします。

      http://HOST_NAME:8443
    2. ツールバーの右上のダッシュボード設定アイコンをクリックして、User management をクリックします。

      user management
    3. Username テーブルで admin ユーザーを見つけ、admin をクリックします。

      user management
    4. テーブルタイトルの Username にある Edit ボタンをクリックします。
    5. 新しいパスワードを入力し、再入力して Edit User をクリックします。

      user management

      ログアウトし、ログイン画面が表示されます。パスワードの変更を確認する通知が表示されます。

  3. 新しいパスワードを使用して再度ログインします。

2.8. Ansible を使用した Grafana パスワードの変更

デフォルトでは、ダッシュボードで使用される Grafana のパスワードは admin に設定されます。パスワードを変更するには、以下の手順に従います。

重要

セキュリティー上の理由から、パスワードをデフォルトから変更してください。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • クラスター内のすべてのノードへの root アクセス。

手順

  1. オプション: Grafana コンテナーが実行されているノードがわからない場合は、通常は /etc/ansible/hosts にある Ansible ホストファイルの grafana-server の 下にリストされているノードを見つけます。

    [grafana-server]
    grafana

  2. Grafana コンテナーが実行されているノードで、パスワードを変更します。

    構文

    podman exec CONTAINER_ID grafana-cli admin reset-admin-password --homepath "/usr/share/grafana" NEW_PASSWORD

    CONTAINER_ID を Grafana コンテナーの ID に変更します。NEW_PASSWORD を必要な Grafana パスワードに変更します。

    [root@grafana ~]# podman exec 3f28b0309aee grafana-cli admin reset-admin-password --homepath "/usr/share/grafana" NewSecurePassword
    t=2020-10-29T17:45:58+0000 lvl=info msg="Connecting to DB" logger=sqlstore dbtype=sqlite3
    t=2020-10-29T17:45:58+0000 lvl=info msg="Starting DB migration" logger=migrator
    
    Admin password changed successfully ✔

  3. Ansible 管理ノードで、ansible-vault を使用して Grafana パスワードを暗号化し、暗号化されたパスワードを group_vars/all.yml に追加します。

    1. /usr/share/ceph-ansible/ ディレクトリーに移動します。

      [admin@admin ~]$ cd /usr/share/ceph-ansible/
    2. ansible-vault を実行して、新しい vault パスワードを作成します。

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:

    3. パスワードを再入力して確定します。

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:

    4. Grafana パスワードを入力し、Enter を押してから CTRL+D を入力してエントリーを完了します。

      構文

      ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NEW_PASSWORD

      NEW_PASSWORD は、以前に設定した Grafana パスワードに置き換えます。

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NewSecurePassword

    5. grafana_admin_password_vault: !vault | で開始し、数字の行 2-3 行で終了する出力をメモし、次の手順で使用します。

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NewSecurePassword
      grafana_admin_password_vault: !vault |
                $ANSIBLE_VAULT;1.1;AES256
                38383639646166656130326666633262643836343930373836376331326437353032376165306234
                3161386334616632653530383231316631636462363761660a373338373334663434363865356633
                66383963323033303662333765383938353630623433346565363534636434643634336430643438
                6134306662646365370a343135316633303830653565633736303466636261326361333766613462
                39353365343137323163343937636464663534383234326531666139376561663532
      Encryption successful

    6. group_vars/all.yml を編集し、上記からの出力をファイルに貼り付けます。

      grafana_admin_password_vault: !vault |
                $ANSIBLE_VAULT;1.1;AES256
                38383639646166656130326666633262643836343930373836376331326437353032376165306234
                3161386334616632653530383231316631636462363761660a373338373334663434363865356633
                66383963323033303662333765383938353630623433346565363534636434643634336430643438
                6134306662646365370a343135316633303830653565633736303466636261326361333766613462
                39353365343137323163343937636464663534383234326531666139376561663532

    7. 以下を使用して、暗号化されたパスワードの下に行を追加します。

      grafana_admin_password: "{{ grafana_admin_password_vault }}"

      注記

      上記のように 2 つの変数を使用する必要があります。これは、Ansible のバグ が原因で、vault 値を直接 Ansible 変数に割り当てる時に、文字列のタイプが破損するためです。

    8. ファイルを保存してから閉じます。
  4. ansible-playbook を再実行します。

    1. コンテナーベースのデプロイメントの場合:

      [admin@node1 ceph-ansible]$ ansible-playbook --ask-vault-pass -v site-container.yml -i hosts

      -i hosts は、デフォルトの Ansible hosts ファイルの場所 (/etc/ansible/hosts) を使用していない場合にのみ必要であることに注意してください。

    2. ベアメタルの場合、RPM ベースのデプロイメントの場合:

      [admin@node1 ceph-ansible]$ ansible-playbook --ask-vault-pass -v site.yml -i hosts

      -i hosts は、デフォルトの Ansible hosts ファイルの場所 (/etc/ansible/hosts) を使用していない場合にのみ必要であることに注意してください。

2.9. ダッシュボードの Red Hat Single Sign-On を使用したユーザーの同期

管理者は、Red Hat Single Sign-on (SSO) と Lightweight Directory Access Protocol (LDAP) 統合を使用して、Red Hat Ceph Storage ダッシュボードのユーザーにアクセスできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ユーザーをダッシュボードに追加しておく。
  • すべてのノードでの root レベルのアクセス。
  • Red hat Single Sign-On を ZIP ファイルからインストールしておく。詳細は、Zip ファイルからの Red Hat Single Sign-On のインストール を参照してください。

手順

  1. Red Hat Ceph ストレージがインストールされているシステムに Red Hat Single Sign-On 7.4.0 サーバー をダウンロードします。
  2. フォルダーを展開します。

    [root@cephuser]# unzip rhsso-7.4.0.zip
  3. standalone/configuration ディレクトリーに移動し、standalone.xml を開いて編集します。

    [root@cephuser]# cd standalone/configuration
    [root@cephuser configuration]# vi standalone.xml
  4. localhost の 3 つのインスタンスと 127.0.0.1 の 2 つのインスタンスは、Red Hat Single Sign-On がインストールされているマシンの IP アドレスに置き換えます。
  5. オプション: Red Hat Enterprise Linux 8 の場合には、認証局 (CA) の問題が発生する可能性があります。CA からカスタム証明書をインポートして、正確な Java バージョンを使用するキーストアに移動します。

    [root@cephuser]# keytool -import -noprompt -trustcacerts -alias ca -file ../ca.cer -keystore /etc/java/java-1.8.0-openjdk/java-1.8.0-openjdk-1.8.0.272.b10-3.el8_3.x86_64/lib/security/cacert

  6. rh-sso-7.4 フォルダーの bin ディレクトリーからサーバーを起動するには、standalone ブートスクリプトを実行します。

    [root@cephuser bin]# ./standalone.sh
  7. ユーザー名とパスワードを指定して、https:_IP_ADDRESS_:8080/auth で管理アカウントを作成します。

    Create Admin User
    注記

    admin アカウントは、コンソールに初めてログインするときにのみ作成する必要があります。

  8. 作成された認証情報を使用して管理コンソールにログインします。

    Admin Console
  9. レルムを作成するには、Master ドロップダウンをクリックします。このレルムでは、管理者はユーザーおよびアプリケーションにアクセスできます。

    Add realm drop-down
  10. Add Realm ウィンドウで、レルムの名前を入力し、パラメーター Enabled を ON に設定し、Create をクリックします。

    Add realm window
    注記

    レルム名は大文字と小文字が区別されます。

  11. Realm Settings タブで、次のパラメーターを設定し、Save をクリックします。

    1. Enabled - ON
    2. User-Managed Access - ON
    3. SAML 2.0 アイデンティティープロバイダーメタデータのリンクアドレスをコピーします。

      Add realm settings window
  12. Clients タブで、Create をクリックします。

    Add client
  13. Add Client ウィンドウで、次のパラメーターを設定し、Save をクリックします。

    1. クライアント ID - BASE_URL:8443/auth/saml2/metadata

      https://magna082.ceph.redhat.com:8443/auth/saml2/metadata

    2. クライアントプロトコル - saml

      Add client window
  14. Clients ウィンドウの Settings タブで、次のパラメーターを設定し、Save をクリックします。

    1. クライアント ID - BASE_URL:8443/auth/saml2/metadata

      https://magna082.ceph.redhat.com:8443/auth/saml2/metadata

    2. Enabled - ON
    3. クライアントプロトコル - saml
    4. Include AuthnStatement - ON
    5. Sign Documents - ON
    6. Signature Algorithm - RSA_SHA1
    7. SAML Signature Key Name - KEY_ID
    8. Valid Redirect URLs - BASE_URL:8443/*

      https://magna082.ceph.redhat.com:8443/*

    9. Base URL - BASE_URL:8443

      https://magna082.ceph.redhat.com:8443/

    10. Master SAML Processing URL - http://localhost:8080/auth/realms/REALM_NAME/protocol/saml/descriptor

      http://localhost:8080/auth/realms/Ceph_LDAP/protocol/saml/descriptor

      注記

      Realm Settings タブから SAML 2.0 アイデンティティープロバイダーメタデータのリンクを貼り付けます。

      Fine Grain SAML Endpoint Configuration で、パラメーターを設定します。

    11. assertion Consumer Service POST Binding URL - BASE_URL:8443/#/dashboard

      https://magna082.ceph.redhat.com:8443/#/dashboard

    12. Assertion Consumer Service Redirect Binding URL - BASE_URL:8443/#/dashboard

      https://magna082.ceph.redhat.com:8443/#/dashboard

    13. Logout Service Redirect Binding URL - BASE_URL:8443/

      https://magna082.ceph.redhat.com:8443/

      Client mappers upperpane
      Client mappers lowerpane
  15. Clients ウィンドウの Mappers タブで、次のパラメーターを設定し、Save をクリックします。

    1. protocol - saml
    2. name: username
    3. Mapper Property - User Property
    4. property - username
    5. SAML Attribute name - username

      Add Client Mappers
  16. Clients Scope タブで、role_list を選択します。

    1. Mappers タブで、role list を選択し、Single Role Attribute をオンに設定します。

      Add client role list
  17. User_Federation タブを選択します。

    1. User Federation ウィンドウで、ドロップダウンメニューから LDAP を選択します。

      Add ldap as provider
  18. User_Federation ウィンドウの Settings タブで、次のパラメーターを設定し、Save をクリックします。

    1. Console Display Name - rh-ldap
    2. Import Users - ON
    3. Edit_Mode - READ_ONLY
    4. Username LDAP attribute - username
    5. RDN LDAP attribute - username
    6. UUID LDAP attribute - nsuniqueid
    7. User Object Classes - inetOrgPerson, organizationalPerson, rhatPerson
    8. Connection URL - ldap:://myldap.example.com

      ldap://ldap.corp.redhat.com

      Test Connection をクリックします。

      LDAP Test Connection

      LDAP 接続が成功したという通知が表示されます。

    9. Users DN - ou=users, dc=example, dc=com

      ou=users,dc=redhat,dc=com

    10. Bind Type - simple

      User Federation Upperpane
      User Federation Lowerpane
    11. Test authentication をクリックします。

      LDAP Test Authentication

      LDAP 認証が成功したという通知が表示されます。

  19. Mappers タブで、first name の行を選択して、以下のパラメーターを編集し、Save をクリックします。

    1. LDAP 属性 - GivenName

      User Federation Mappers tab
      User Federation Mappers window
  20. User_Federation タブの Settings タブで、Synchronize all users をクリックします。

    User Federation Synchronize

    ユーザーの同期が正常に更新されたという通知が表示されます。

    User Federation synchronize notification
  21. Users タブで、ダッシュボードに追加されたユーザーを検索し、検索アイコンをクリックします。

    User search tab
  22. ユーザーを表示するには、その行をクリックします。フェデレーションリンクは、User Federation で指定した名前で表示されます。

    User details
    重要

    ユーザーは手動で追加しないでください。手動で追加した場合は、Delete をクリックしてユーザーを削除します。

  23. レルムとダッシュボードに追加されたユーザーは、メールアドレスとパスワードを使用して Ceph Dashboard にアクセスできます。

    https://magna082.ceph.redhat.com:8443

    Dashboard link

関連情報

2.10. Ceph Dashboard のシングルサインオンの有効化

Ceph Dashboard は、Security Assertion Markup Language (SAML) プロトコルを使用したユーザーの外部認証をサポートします。Ceph ダッシュボードにシングルサインオン (SSO) を使用する前に、ダッシュボードのユーザーアカウントを作成して必要なロールを割り当てます。Ceph Dashboard はユーザーの承認を実行し、認証プロセスは既存のアイデンティティープロバイダー (IdP) によって実行されます。Red Hat は、Keycloak を使用してダッシュボードの SSO 機能をテストします。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Ceph Dashboard ソフトウェアのインストール
  • Dashboard を起動します。
  • Ceph Manager ノードへのルートレベルのアクセス。
  • 以下のライブラリーパッケージを Ceph Manager ノードにインストールします。

    • python3-saml
    • python3-defusedxml
    • python3-isodate
    • python3-xmlsec

手順

  1. Ceph Dashboard で SSO を設定するには、以下のコマンドを実行します。

    1. ベアメタル デプロイメント:

      構文

      ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

      [root@mon ~]# ceph dashboard sso setup saml2 http://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username http://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    2. コンテナー デプロイメント:

      構文

      podman exec CEPH_MGR_NODE ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

      [root@mon ~]# podman exec ceph-mgr-hostname ceph dashboard sso setup saml2 http://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username http://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    置き換え

    • Ceph mgr ノードを使用した CEPH_MGR_NODE。例: ceph-mgr-hostname
    • CEPH_DASHBOARD_BASE_URL は、Ceph Dashboard にアクセスできるベース URL に置き換えます。
    • IDP_METADATA は、リモートパスまたはローカルパス、または IdP メタデータ XML の内容への URL に置き換えます。サポートされる URL タイプは http、https、およびファイルです。
    • 任意: IDP_USERNAME_ATTRIBUTE は、認証応答からユーザー名を取得するために使用される属性に置き換えます。デフォルトは uid です。
    • 任意: IDP_ENTITY_ID は、IdP メタデータに複数のエンティティー ID が存在する場合は IdP エンティティー ID に置き換えます。
    • 任意: SP_X_509_CERT は、署名および暗号化に Ceph Dashboard によって使用される証明書のファイルパスに置き換えます。
    • 任意: SP_PRIVATE_KEY は、署名および暗号化に Ceph Dashboard によって使用される秘密鍵のファイルパスに置き換えます。
  2. 現在の SAML 2.0 設定を確認します。

    1. ベアメタル デプロイメント:

      構文

      ceph dashboard sso show saml2

    2. コンテナー デプロイメント:

      構文

      podman exec CEPH_MGR_NODE ceph dashboard sso show saml2

  3. SSO を有効にするには、以下のコマンドを実行します。

    1. ベアメタル デプロイメント:

      構文

      ceph dashboard sso enable saml2
      SSO is "enabled" with "SAML2" protocol.

    2. コンテナー デプロイメント:

      構文

      podman exec CEPH_MGR_NODE ceph dashboard sso enable saml2
      SSO is "enabled" with "SAML2" protocol.

  4. ダッシュボードの URL を開きます。以下は例になります。

    http://dashboard_hostname.ceph.redhat.com:8443
  5. SSO ページで、ログインの認証情報を入力します。SSO はダッシュボードの Web インターフェイスにリダイレクトされます。

関連情報

2.11. Ceph Dashboard のシングルサインオンの無効化

Ceph Dashboard のシングルサインオンを無効にできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Ceph Dashboard ソフトウェアのインストール
  • Dashboard を起動します。
  • Ceph Manager ノードへのルートレベルのアクセス。
  • Ceph Dashboard で有効になっているシングルサインオン
  • 以下のライブラリーパッケージを Ceph Manager ノードにインストールします。

    • python3-saml
    • python3-defusedxml
    • python3-isodate
    • python3-xmlsec

手順

  1. SSO の状態を表示するには、以下のコマンドを実行します。

    1. ベアメタル デプロイメント:

      構文

      ceph dashboard sso status
      SSO is "enabled" with "SAML2" protocol.

    2. コンテナー デプロイメント:

      構文

      podman exec CEPH_MGR_NODE ceph dashboard sso status
      SSO is "enabled" with "SAML2" protocol.

      置き換え

      • Ceph mgr ノードを使用した CEPH_MGR_NODE。例: ceph-mgr-hostname
  2. SSO を無効にするには、以下のコマンドを実行します。

    1. ベアメタル デプロイメント:

      構文

      ceph dashboard sso disable
      SSO is "disabled".

    2. コンテナー デプロイメント:

      構文

      podman exec CEPH_MGR_NODE ceph dashboard sso disable
      SSO is "disabled".

      置き換え

      • Ceph mgr ノードを使用した CEPH_MGR_NODE。例: ceph-mgr-hostname

関連情報

第3章 ダッシュボードでのロールの管理

ストレージ管理者は、ダッシュボードでロールを作成、表示、編集、および削除することができます。ロールにパーミッションを付与でき、ユーザーに特定のロールを割り当てることができます。

3.1. ダッシュボードでのロールの作成

ダッシュボードでは、ユーザーに割り当て可能なダッシュボードでロールを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. Roles タブで、Create ボタンをクリックします。

    Create roles
  4. CreateRole ウィンドウで Name を設定し、このロールの Permissions を選択してから CreateRole ボタンをクリックします。

    Create role window
  5. ページの右上隅に対する通知は、ロールが正常に作成されたことを示します。

    Role create notification

3.2. ダッシュボードでのロールの表示

ダッシュボードでは、ダッシュボード上のロールの詳細を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者アクセスレベル。
  • ロールがダッシュボードに作成されている。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. ロールの詳細を表示するには、その行をクリックします。

    Click role row
  4. ロールに提供されるパーミッションの詳細が表示されます。

    View role details

関連情報

3.3. ダッシュボードでのロールの編集

ダッシュボードでは、ダッシュボードのロールを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードでロールが作成されます。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. ロールを編集するには、行をクリックします。

    Click role row
  4. Roles タブで、Edit ドロップダウンメニューの Edit を選択します。

    Edit role
  5. EditRole ウィンドウで、が含まれるパラメーターを編集して、EditRole ボタンをクリックします。

    Edit role window
  6. ページの右上隅に対する通知は、ロールが正常に更新されたことを示します。

    Edit role notification

関連情報

3.4. ダッシュボード上のロールの削除

ダッシュボードで、ダッシュボードのロールを削除できます。

注記

削除できるのは、作成したロールのみです。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードでロールが作成されます。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. ロールを削除するには、行をクリックします。

    Click role row
  4. Roles タブで、Edit ドロップダウンメニューの Delete を選択します。

    Delete role
  5. Delete Role ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete Role をクリックして設定を保存します。

    Delete role window

関連情報

第4章 ダッシュボードでのユーザーの管理

ストレージ管理者は、ダッシュボードでユーザーを作成、編集、および削除できます。

4.1. ダッシュボードでのユーザーの作成

ダッシュボードで、ダッシュボードにユーザーを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
注記

Red Hat Ceph Storage Dashboard は、ユーザーパスワードの変更時に電子メールの検証をサポートしません。Dashboard はシングルサインオン (SSO) をサポートし、この機能を SSO プロバイダーに委譲できるため、この動作は意図的です。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. Users タブで Create ボタンをクリックします。

    Create user
  4. CreateUser ウィンドウで、ロールを含む Username およびその他のパラメーターを設定し、CreateUser ボタンをクリックします。

    Create user window
  5. ページの右上隅に対する通知は、ユーザーが正常に作成されたことを示しています。

    User create notification

関連情報

4.2. ダッシュボードでのユーザーの編集

ダッシュボードでは、ダッシュボードのユーザーを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードで作成したユーザー。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. ユーザーを編集するには、行をクリックします。

    Click user row
  4. Users タブで、Edit ドロップダウンメニューで Edit を選択します。

    Edit user
  5. EditUser ウィンドウで、が含まれるパラメーターを編集して、EditUser ボタンをクリックします。

    Edit user window
  6. ページの右上隅に対する通知は、ユーザーが正常に更新されたことを示しています。

    User edit notification

関連情報

4.3. ダッシュボードでのユーザーの削除

ダッシュボードで、ダッシュボードのユーザーを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードで作成したユーザー。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. ユーザーを削除するには、行をクリックします。

    Click user row
  4. Users タブで、Edit ドロップダウンメニューの Delete を選択します。

    Delete user
  5. Delete User ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete user をクリックし、設定を保存します。

    Delete user window

関連情報

第5章 クラスターの監視

ダッシュボードの監視機能は、ストレージクラスターのさまざまな側面を示すために定期的に更新するさまざまな Web ページを提供します。ランディングページを使用してクラスターの全体的な状態を監視したり、ブロックデバイスイメージの状態など、クラスターの特定の機能を監視したりできます。

関連情報

5.1. ランディングページへのアクセス

ダッシュボードにログインすると、ランディングページが読み込まれます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

手順

  1. Dashboard にログインします。

    Log in prompt
  2. ダッシュボードにログインすると、ランディングページが読み込まれます。

    Landing page
  3. 他のダッシュボードページを表示した後にランディングページに戻るには、ページの左上隅にある Dashboard をクリックします。

    Dashboard link

関連情報

5.2. ランディングページについて

ランディングページには、個別のパネルを使用した Ceph クラスター全体の概要が表示されます。各パネルに、クラスターの状態に関する具体的な情報が表示されます。

カテゴリー

ランディングページでは、パネルが以下の 3 つのカテゴリーに分けられます。

  1. 状態
  2. 容量
  3. パフォーマンス
Ceph Dashboard landing page

Status パネル

ステータスパネルには、クラスターの状態とホストおよびデーモンの状態が表示されます。

Status panels

クラスターの状態: Ceph クラスターの現在の健常性ステータスを表示します。

ホスト: Ceph Storage クラスターのホストの合計数を表示します。

監視: Ceph Monitor の数およびクォーラムのステータスを表示します。

OSDs: Ceph Storage クラスターの OSD の合計数と、up および in の数を表示します。

マネージャー: Manager Daemon の数およびステータスを表示します。

Object Gateway : Ceph Storage クラスターのObject Gateway の数を表示します。

メタデータサーバー: Ceph ファイルシステムのメタデータサーバーの数およびステータスを表示します。

iSCSI ゲートウェイ: Ceph ストレージクラスター内の iSCSI ゲートウェイの数を表示します。

容量パネル

容量パネルには、ストレージ使用状況のメトリックが表示されます。

Capacity panels

Raw 容量: クラスターの raw ストレージ容量の使用状況および可用性を表示します。

オブジェクト: プール内のオブジェクトの合計数と、オブジェクトを HealthyMisplacedDegraded、または Unfound の状態に分割するグラフを表示します。

PG ステータス: 配置グループの合計数と、PG を CleanWorkingWarning、または Unknown の状態に分割するグラフを表示します。PG ステータスの Working および Warning の表示を簡素化するために、実際には複数の状態が含まれます。

Working の状態には、以下のいずれかの状態の PG が含まれます。

  • activating
  • backfill_wait
  • backfilling
  • creating
  • deep
  • degraded
  • forced_backfill
  • forced_recovery
  • peering
  • peered
  • recovering
  • recovery_wait
  • repair
  • scrubbing
  • snaptrim
  • snaptrim_wait

Warning の状態には、以下のいずれかの状態の PG が含まれます。

  • backfill_toofull
  • backfill_unfound
  • down
  • incomplete
  • inconsistent
  • recovery_toofull
  • recovery_unfound
  • remapped
  • snaptrim_error
  • stale
  • undersized

プール: Ceph クラスター内のストレージプールの数を表示します。

OSD ごとの PG: OSD ごとの配置グループ数を表示します。

パフォーマンスパネル

パフォーマンスパネルには、データ転送速度に関する情報が表示されます。

Cluster Performance Panels

クライアントの読み取り/書き込み: 1 秒あたりの入出力操作の合計、読み取り、および書き込みを表示します。

クライアントのスループット: クライアントスループット、読み取りスループット、書き込みスループットを表示します。

リカバリーのスループット: クライアントのリカバリー速度を表示します。

スクラビング: データの整合性を確認するために Ceph がスクラビングしているかどうかを表示します。

関連情報

第6章 特定の機能の監視

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して、ホスト、サービス、データアクセスメソッドなどに基づいてクラスターの特定の要素を監視できます。

6.1. モニターの監視

Red Hat Ceph Storage Dashboard では、Monitor ノードに関するさまざまな情報を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Cluster をクリックし、Monitors をクリックします。
  3. Monitors 概要ページには、全体的な監視ステータスに関する情報と、Monitor ノード in Quorum および Not in quorum のテーブルが表示されます。

    Monitors overview
  4. 開いているセッションの数を確認するには、青い点線のトレイルにカーソルを合わせます。

    Open sessions
  5. モニターのパフォーマンスカウンターを表示するには、ホスト名をクリックします。

    Click Monitor host name
  6. パフォーマンスカウンターを表示します。

    Monitor performance counters

関連情報

6.2. ホストの監視

Red Hat Ceph Storage Dashboard では、ホストに関するさまざまな情報を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Cluster をクリックし、Hosts をクリックします。
  3. ホストの一覧を表示するには、Hosts List タブをクリックします。

    Hosts List
  4. ホストの パフォーマンスの詳細 を表示するには、Host タブでその行をクリックし、Grafana Time Picker ドロップダウンメニューから時間の範囲を選択します。

    Host Performance Details
  5. ホスト上の特定サービスのパフォーマンスカウンターを表示するには、サービスをクリックします。

    Click Host service
  6. パフォーマンスカウンターを表示します。

    Host performance counters
  7. すべてのホストのパフォーマンスデータを表示するには、次を実行します。

    1. ページの左上にある Overall Performance タブをクリックします。

      Click host overall performance
    2. Grafana Time Picker ドロップダウンから時間の範囲を選択します。

      Host Performance Grafana drop-down
    3. Overall Performance ページを表示します。

      Host Overall Performance

関連情報

6.3. OSD のモニタリング

Red Hat Ceph Storage Dashboard では、OSD に関するさまざまな情報を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Cluster をクリックし、OSDs をクリックします。
  3. OSD の一覧を表示するには、OSDs List タブをクリックします。

    OSDs List
  4. OSD の属性を表示するには、OSDS List タブでその行をクリックします。

    OSD Attributes
  5. OSD のメタデータを表示するには、OSDs タブでその行をクリックし、Metadata タブをクリックします。

    OSD Metadata
  6. OSD のパフォーマンスカウンターを表示するには、OSDs タブでその行をクリックし、Performance counter タブをクリックします。

    OSD Performance Counter
  7. OSD のヒストグラムを表示するには、OSDs タブでその行をクリックし、Histogram タブをクリックします。

    OSD Histogram
  8. OSD のパフォーマンス情報を表示するには、以下を実行します。

    1. OSDs タブでその行をクリックし、Performance Details タブをクリックします。

      Click OSD Performance details
    2. Grafana Time Picker ドロップダウンメニューから時間の範囲を選択します。

      OSD Performance Grafana drop-down
    3. OSD のパフォーマンス情報を表示します。

      View OSD Performance details
  9. すべての OSD の全体的なパフォーマンスを表示するには、以下を実行します。

    1. ページの左上にあるOverall Performance タブをクリックします。

      Click OSDs overall performance
    2. Grafana Time Picker ドロップダウンから時間の範囲を選択します。

      OSDs Performance Grafana drop-down
  10. Overall Performance ページを表示します。

    OSDs Overall Performance

関連情報

6.4. プールの監視

Red Hat Ceph Storage Dashboard では、クラスター内のプールに関するさまざまな情報を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools をクリックします。

    Pools menu selection
  3. プールの一覧を表示します。

    Pools list
  4. 使用状況バーグラフの上にマウスをかざすと、実際に使用されている領域および空き領域が表示されます。

    Pool usage details
  5. プールに関する詳細情報を表示するには、行をクリックしてそのプールを選択します。

    Click a pool row
  6. プールの詳細を表示します。プールのパフォーマンスの詳細および設定データを表示するには、関連するタブをクリックします。

    Pool details
  7. すべてのプールのパフォーマンスデータを表示するには、ページの左上にある Overall Performance タブをクリックします。

    Click overall performance
  8. Overall Performance ページを表示します。

    Overall Performance page

関連情報

6.5. Ceph ファイルシステムの監視

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph File Systems (CephFS) および関連するコンポーネントを監視することができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph File System がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Filesystems をクリックします。

    Click Filesystems
  3. 以下の例では、cephfs ファイルシステムを確認できます。

    View filesystems
  4. ファイルシステムの詳細を表示するには、cephfs の行をクリックします。

    Click cephfs
  5. Details タブでは、メタデータサーバーとそのランクに加えて、スタンバイデーモン (1)、プールとその使用状況 (2)、パフォーマンスカウンター (3) を確認できます。

    CephFS details tab
  6. ファイルシステムをマウントしたクライアントの一覧を表示するには、Clients タブをクリックします。

    Click Clients
  7. 以下の例では、jb-ceph4-client ホストで cephfs ファイルシステムが開いていることがわかります。

    Clients table
  8. ファイルシステムのパフォーマンスを表示するには、Performance Details タブをクリックします。

    Click Performance Details
  9. 以下の例では、読み取りおよび書き込み操作 (1)、クライアントリクエスト (2) で確認できます。時間の範囲は 3 で変更できます。

    Performance Details

関連情報

6.6. イメージの全パフォーマンスの監視

Red Hat Ceph Storage Dashboard により、Blocks 内のイメージの全体的なパフォーマンスを監視できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • RADOS Block Device (RBD) プールが作成されている。
  • イメージが作成されている。
  • Manager モジュール Prometheus エクスポーターがプールに対して有効になります。

    図6.1 例

    Enable Prometheus module

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. Overall Performance タブを選択します。

    Overall performance tab
  5. Grafana Time Picker ドロップダウンから時間の範囲を選択します。

    Images Performance Grafana drop-down
  6. Overall Performance ページを表示します。

    Images Overall Performance

第7章 クラスターの管理

7.1. クラスターの管理

ダッシュボードの管理機能により、設定設定を表示および変更し、クラスターリソースを管理することができます。

7.2. CRUSH マップの表示

CRUSH マップには、OSD および関連情報の一覧が含まれます。CRUSH マップおよび CRUSH アルゴリズムが一緒になって、データの保存方法と場所を決めます。Red Hat Ceph Storage ダッシュボードでは、OSD ホスト、OSD デーモン、ID 番号、デバイスクラスなど、CRUSH マップのさまざまな側面を確認することができます。

CRUSH マップを使用すると、特定の OSD ID が実行しているノードを決定できます。これは、OSD に問題がある場合に便利です。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Cluster をクリックします。
  3. CRUSH map をクリックします。

    CRUSH Map initial view

    上記の例では、デフォルトの CRUSH マップ、3 つのノード、および OSD が 3 つあるノードのうち 2 つで実行されているのを確認できます。

  4. CRUSH マップ名、ノード、または OSD をクリックし、各オブジェクトの詳細を表示します。

    CRUSH Map detail view

    上記の例では、jb-rhel-osd3 ノードで実行している OSD に関連する変数の値を確認できます。特に、id2 であることに注意してください。

関連情報

7.3. マネージャーモジュールの設定

Red Hat Ceph Storage ダッシュボードでは、マネージャーモジュールパラメーターの表示および設定を行うことができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Cluster をクリックします。
  3. Manager モジュール をクリックします。

    Manager modules initial view

    上記のスクリーンショットは、3 ページのマネージャーモジュールの最初のページを表示します。

  4. 設定するモジュールの行をクリックします。

    Manage modules edit button

    すべてのモジュールに設定可能なパラメーターがあるわけではありません。モジュールが設定できない場合、Edit ボタンは無効になります。

  5. ページの左上にある Edit ボタンをクリックして、設定可能なパラメーターでページを読み込みます。

    Manager module balancer parameters

    上記のスクリーンショットは、バランサーモジュールで変更できるパラメーターを示しています。パラメーターの説明を表示するには、クエスチョンマークボタンをクリックします。

  6. パラメーターを変更するには、パラメーターの状態を変更し、ページ下部の Update ボタンをクリックします。

    Manager module update button

    変更を確認する通知は、ページの右上隅に表示されます。

    Manager module updated options notification

関連情報

7.4. ログのフィルタリング

Red Hat Ceph Storage Dashboard では、複数の基準に基づくログの表示および絞り込みを行うことができます。条件には、優先度キーワード日付、および 時間の範囲 が含まれます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Monitor が最後に起動してからログエントリーが生成されている。
注記

Dashboard ロギング機能は最新の高レベルイベントのみを表示します。イベントは Monitor によってメモリーに保存されます。Monitor を再起動すると、エントリーが消えます。詳細なログまたは古いログを確認する必要がある場合は、ファイルベースのログを参照してください。ファイルベースのログの詳細は、以下の関連情報を参照してください。

手順

  1. Dashboard にログインします。
  2. 上部ナビゲーションバーの Cluster ドロップダウンメニューをクリックします。
  3. ドロップダウンメニューの Logs をクリックします。
  4. 最後にフィルターが適用されていないログエントリーを表示します。

    Unfiltered cluster logs.
    1. 優先度で絞り込むには、Priority ドロップダウンメニューをクリックし、InfoWarning、または Error のいずれかを選択します。以下の例は、Error の優先度のログエントリーのみを示しています。

      Filter by priority.
    2. キーワードで絞り込むには、Keyword フォームにテキストを入力します。以下の例は、osd.2 というテキストが含まれるログエントリーのみを示しています。

      Filter by keyword.
    3. 日付で絞り込むには、Date フォームをクリックし、メニューから日付を選択するか、YYYY-MM-DD の形式で日付を入力します。以下の例は、2019-10-15 のログエントリーのみを示しています。

      Filter by date.
    4. 時間で絞り込むには、HH:MM - HH:MM 形式を使用して Time range フィールドに範囲を入力します。時間は、数字 0 から 23 に入力する必要があります。以下の例は、12:14 から 12:23 へのログエントリーのみを示しています。

      Filter by time range.
    5. フィルターを組み合わせるには、2 つ以上のフィルターを設定します。以下の例は、Warning の優先順位と osd のキーワードの両方を持つエントリーのみを示しています。

      Combine filters.

関連情報

7.5. OSD リカバリー設定の設定

ストレージ管理者は、OSD リカバリーの優先度を変更し、クラスターの復旧方法をカスタマイズできます。これにより、クラスターの再ビルドのパフォーマンスまたはリカバリーの速度に影響を与える可能性もあります。

前提条件

  • Red Hat Ceph Storage クラスター
  • ダッシュボードがインストールされている。

手順

  1. ダッシュボードにログインします。
  2. 上部ナビゲーションバーの Cluster ドロップダウンメニューをクリックします。
  3. ドロップダウンメニューの OSD をクリックします。
  4. Cluster-Wide flagss ドロップダウンメニューをクリックします。

    Click the Cluster-Wide Flags drop-down.
  5. ドロップダウンで Cluster-wide Recovery Priority を選択します。

    Select Cluster-wide Recovery Priority.
  6. 必要に応じて、ドロップダウンメニューで Priority を選択し、Submit ボタンをクリックします。

    注記

    定義済みのオプションは、LowDefaultHigh の 3 つです。

    Default priority values
  7. 必要に応じて、Customize priority values をクリックして必要な変更を行い、Submit ボタンをクリックします。

    Customize priority values
  8. フラグが正常に更新されたことを示すポップアップの右上隅に対する通知。

    OSD recovery speed priority updated notification

関連情報

7.6. 設定の表示および監視

Red Hat Ceph Storage Dashboard では、Ceph クラスターの設定オプションの一覧を表示できます。Dashboard で設定を編集することもできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Cluster をクリックした後、Configuration をクリックします。
  3. 設定の詳細を表示するには、その行をクリックします。

    Configuration details
    • Search ボックスを使用して設定を検索できます。

      Search Configuration
    • LevelService、または Source を使用して設定を絞り込むことができますのフィルターを設定できます。

      Filter Configuration
  4. 設定を編集するには、行をクリックして 編集 ボタンをクリックします。

    Edit Configuration
    1. ダイアログウィンドウで必要なパラメーターを編集し、Save ボタンをクリックします。

      Edit Configuration window

      変更を確認する通知は、ページの右上隅に表示されます。

      Edit Configuration notification

関連情報

7.7. Prometheus 環境の管理

Prometheus を使用して Ceph ストレージクラスターを監視するには、Prometheus エクスポーターを設定および有効にし、Ceph ストレージクラスターに関するメタデータ情報を収集できるようにします。

前提条件

  • 稼働中の Red Hat Ceph Storage 3.1 以降のクラスター。
  • Red Hat Ceph Storage Dashboard インストール
  • Red Hat Ceph Storage Dashboard ノードへのルートレベルのアクセス。

手順

  1. /etc/prometheus/prometheus.yml ファイルを開いて編集します。

    1. global セクションで、scrape_interval および evaluation_interval オプションを 15 秒に設定します。

      global:
        scrape_interval:     15s
        evaluation_interval: 15s

    2. scrape_configs セクションの下に honor_labels: true オプションを追加し、ceph-mgr ノードごとに targets オプションおよび instance オプションを編集します。

      scrape_configs:
        - job_name: 'node'
          honor_labels: true
          static_configs:
          - targets: [ 'node1.example.com:9100' ]
            labels:
              instance: "node1.example.com"
          - targets: ['node2.example.com:9100']
            labels:
              instance: "node2.example.com"

      注記

      honor_labels オプションを使用すると、Ceph は Ceph Storage クラスターの任意のノードに関連する適切にラベル付けされたデータを出力できます。これにより、Prometheus が上書きせずに Ceph は適切な instance ラベルをエクスポートできます。

    3. 新規ノードを追加するには、以下の形式で targets オプションおよび instance オプションを追加します。

      - targets: [ 'new-node.example.com:9100' ]
        labels:
          instance: "new-node"

      注記

      instance ラベルは、Ceph の OSD メタデータの instance フィールドに表示されるノードの短いホスト名と一致する必要があります。これにより、Ceph 統計をノードの統計と関連付けるのに役立ちます。

  2. 以下の形式で、Ceph ターゲットを /etc/prometheus/ceph_targets.yml ファイルに追加します。

    [
        {
            "targets": [ "cephnode1.example.com:9283" ],
            "labels": {}
        }
    ]

  3. Prometheus モジュールを有効にします。

    [root@mon ~]# ceph mgr module enable prometheus

7.8. grafana-server と Prometheus の復元

grafana-server には、Grafana UI、Prometheus、コンテナー、および Red Hat Ceph Storage 設定が含まれています。grafana-server がクラッシュまたは故障した場合、ファイルのバックアップを取り、バックアップされたファイルを使用して復元することで復元できます。Prometheus の場合、外部バックアップを作成してからデータを復元できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Grafana ノードへのルートレベルのアクセス。

手順

  1. Grafana データベースのバックアップを取ります。

    1. grafana-server ノードで、Grafana サービスを停止します。

      [root@node04 ~]# systemctl stop grafana-server.service
      [root@node04 ~]# systemctl status grafana-server.service

    2. Grafana データベースのバックアップを取ります。

      [root@node04 ~]# cp /var/lib/grafana/grafana.db /var/lib/grafana/grafana_backup.db

    3. grafana-server ノードで、Grafana サービスを再起動します。

      [root@node04 ~]# systemctl restart grafana-server.service

  2. grafana サーバーを復元します。

    1. grafana-server ノードで、Grafana サービスが実行されている場合は、サービスを停止します。

      [root@node04 ~]# systemctl stop grafana-server.service
      [root@node04 ~]# systemctl status grafana-server.service

    2. バックアップした grafana.db ファイルを /var/lib/grafana/ ディレクトリーに移動します。

      [root@node04 ~]# mv /var/lib/grafana/grafana_backup.db /var/lib/grafana/

    3. grafana-server ノードで、Grafana サービスを再起動します。

      [root@node04 ~]# systemctl restart grafana-server.service

  3. Prometheus アラートの場合、prometheus_data_dir ディレクトリー (デフォルトでは var/lib/prometheus ディレクトリー である Ceph-Ansible 設定) の外部バックアップを取得し、バックアップされたディレクトリーを使用してサービスを復元する必要があります。

    1. grafana-server ノードで、Prometheus サービスを停止します。

      [root@node04 ~]# systemctl stop prometheus.service
      [root@node04 ~]# systemctl status prometheus.service

    2. デフォルトの Prometheus ディレクトリーのバックアップを取得します。

      [root@node04 ~]# cp /var/lib/prometheus/ /var/lib/prometheus_backup/

    3. prometheus_data_dir ディレクトリーをバックアップしたディレクトリーに置き換えます。

      [root@node04 ~]# mv /var/lib/prometheus_backup/ /var/lib/prometheus_data_dir

    4. grafana-server ノードで、prometheus サービスを再起動します。

      [root@node04 ~]# systemctl restart prometheus.service
      [root@node04 ~]# systemctl status prometheus.service

      注記

      group_vars/all.yml ファイルで Prometheus パラメーターを変更した場合は、プレイブックを再実行する必要があります。

  4. オプション: 変更が Red Hat Ceph Storage ダッシュボードに反映されない場合は、ダッシュボードを無効にしてから有効にする必要があります。

    [root@node04 ~]# ceph mgr module disable dashboard
    [root@node04 ~]# ceph mgr module enable dashboard

7.9. アラートの表示および管理

ストレージ管理者は、Red Hat Ceph Storage Dashbaoard でアラートの詳細を表示し、アラートのサイレンスを作成できます。これには、次の事前定義されたアラートが含まれます。

  • OSD(s) Down
  • Ceph Health Error
  • Ceph Health Warning
  • Cluster Capacity Low
  • Disk(s) Near Full
  • MON(s) Down
  • Network Errors
  • OSD Host Loss Check
  • OSD Host(s) Down
  • OSD(s) with High PG Count
  • PG(s) Stuck
  • Pool Capacity Low
  • Slow OSD Responses

7.9.1. アラートの表示

アラートが起動したら、Red Hat Ceph Storage Dashboard でアラートを表示できます。ダッシュボードを有効にして、アラートに関するメールを送信することもできます。

注記

Simple mail transfer protocol (SMTP) および SSL は、Red Hat Ceph Storage 4 クラスターではサポートされていません。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • アラートが発生している。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの alerts モジュールをカスタマイズして、ストレージクラスターの電子メールアラートを取得します。

    1. ナビゲーションバーで、Cluster をクリックします。
    2. Manager modules を選択します。
    3. アラート モジュールを選択します。
    4. Edit ドロップダウンメニューで、Edit を選択します。
    5. Edit Manager module で、必要なパラメーターを更新し、Update をクリックします。

      図7.1 アラートの Manager モジュールの編集

      Edit Manager module for alerts
  3. ナビゲーションバーで、Cluster をクリックします。
  4. ドロップダウンメニューから Monitoring を選択します。
  5. アラートの詳細を表示するには、その行をクリックします。

    図7.2 アラートの詳細

    Alert Details
  6. アラートのソースを表示するには、その行をクリックし、Source をクリックします。

7.9.2. サイレンスの作成

Red Hat Ceph Storage Dashboard で、アラートを一定期間サイレントに作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • アラートが発生している。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. アラートの行をクリックし、+Create Silence をクリックします。
  5. Create Silence ウィンドウで、Duration の詳細を追加し、Create Silence をクリックします。

    図7.3 サイレンスの作成

    Create Silence
  6. サイレンスが正常に作成されたという通知が表示されます。

7.9.3. サイレンスの再作成

Red Hat Ceph Storage Dashboard で、期限切れのサイレンスをもとにサイレンスを再作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ドロップダウンメニューから Monitoring を選択します。
  3. Silences タブをクリックします。
  4. 期限切れの Silence の行をクリックします。
  5. Recreate ボタンをクリックします。
  6. RecreateSilence ウィンドウで詳細を追加し、RecreateSilence をクリックします。

    図7.4 サイレンスの再作成

    Re-create Silence
  7. サイレンスが正常に再作成されたという通知が表示されます。

7.9.4. サイレンスの編集

アクティブなサイレンスは、Red Hat Ceph Storage Dashboard でアクティブな時間を延長するなど、編集が可能です。サイレンスの有効期限が切れている場合は、サイレンスを再作成するか、アラート用に新しいサイレンスを作成することができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. Silence の行をクリックします。
  6. Edit ドロップダウンメニューで、Edit を選択します。
  7. EditSilence ウィンドウで詳細を更新し、Edit Silence をクリックします。

    図7.5 サイレンスの編集

    Edit Silence
  8. サイレンスが正常に更新されたという通知が表示されます。

7.9.5. サイレンスの終了

Red Hat Ceph Storage Dashbaoard で一致したアラートが抑制されないように、サイレンスを期限切れにすることができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. Silence の行をクリックします。
  6. Edit ドロップダウンメニューで、Expire を選択します。
  7. Expire Silence ダイアログボックスで、Yes, I am sure を選択し、Expire Silence をクリックします。

    図7.6 サイレンスの期限切れ

    Expire Silence
  8. サイレンスが正常に失効したという通知が届きます。

7.9.6. 関連情報

7.10. プールの管理

ストレージ管理者は、プールを作成、削除、および編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。

7.10.1. プールの作成

プールを作成して、ストレージオブジェクトを論理的にパーティション分割できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools をクリックします。

    Click pools
  3. ページの左上隅にある Create ボタンをクリックします。

    Click create
  4. ダイアログウィンドウで、名前を設定します。

    Set name
  5. レプリケートまたはイレイジャーコード (EC) のいずれかのプールタイプを選択します。

    Select pool type
  6. 配置グループ (PG) 番号を設定します。

    Set PG number

    PG 番号の選択には、PG calculator を使用します。不明な場合は、Red Hat テクニカルサポート にお問い合わせください。

  7. 必要に応じて、レプリケートされたプールタイプを使用する場合は、レプリケートされたサイズを設定します。

    Replicated size
  8. 必要に応じて、EC プールタイプを使用する場合には、以下の追加設定を設定します。

    1. 必要に応じて、現在選択されている EC プロファイルの設定を確認するには、クレスチョンマークをクリックします。

      EC profile setttings
      1. 選択した EC プロファイルの設定の表が表示されます。

        EC profile table
    2. 必要に応じて、プラス記号をクリックして、新しい EC プロファイルを追加します。

      Click the plus symbol
      1. 新しい EC プロファイルの名前を設定 (1) し、その設定に関する情報のクエスチョンマークをクリック (2) して、必要な設定をすべて変更したら Create EC Profile をクリック (3) します。

        EC profile dialog
      2. 新しい EC プロファイルを選択します。

        Select new EC profile
    3. 必要に応じて、EC の上書きが必要な場合は、そのボタンをクリックします。

      EC overwites
  9. 必要に応じて、鉛筆記号をクリックして、プールのアプリケーションを選択します。

    Select appliation type
  10. 必要に応じて、圧縮が必要な場合は、passiveaggressive、または force を選択します。

    Compression selection
  11. Create Pool ボタンをクリックします。

    Click Create Pool
  12. ページの右上隅に対する通知は、プールが正常に作成されたことを示しています。

    Pool created notification

関連情報

7.10.2. プールの編集

Red Hat Ceph Storage Dashboard では、プールの編集が可能です。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools をクリックします。

    Click Pools menu
  3. プールを編集するには、その行をクリックします。

    Click pool
  4. Edit ドロップダウンメニューで Edit を選択します。

    Click Edit
  5. ダイアログウィンドウで必要なパラメーターを編集し、EditPool ボタンをクリックします。

    Edit pool window
  6. ページの右上隅に対する通知は、プールが正常に更新されたことを示します。

    Pool edit notification

関連情報

  • 詳細は、Red Hat Ceph Storage アーキテクチャーガイドCeph プール を参照してください。
  • 圧縮モードの詳細は、Red Hat Ceph Storage ストレージ戦略ガイドプール値 を参照してください。

7.10.3. プールの削除

Red Hat Ceph Storage Dashboard ではプールの削除が可能です。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. mon_allow_pool_delete の値が true に設定されていることを確認します。

    1. ナビゲーションバーで Cluster をクリックした後、Configuration をクリックします。
    2. Level ドロップダウンメニューで、Advanced を選択します。

      Click Levels drop-down
    3. mon_allow_pool_delete を検索し、値を true に設定します。

      Edit Configuration
  3. ナビゲーションバーで、Pools をクリックします。

    Click Pools menu
  4. プールを削除するには、行をクリックします。

    Click pool
  5. Edit ドロップダウンメニューで Delete を選択します。

    Click Delete
  6. Delete Pool ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete Pool をクリックし、設定を保存します。

    Delete pool window
  7. ページの右上隅に対する通知は、プールが正常に削除されたことを示します。

    Pool delete notification

関連情報

  • 詳細は、Red Hat Ceph Storage アーキテクチャーガイドCeph プール を参照してください。
  • 詳細は、Red Hat Ceph Storage ダッシュボードガイド監視の設定 を参照してください。
  • 圧縮モードの詳細は、Red Hat Ceph Storage ストレージ戦略ガイドプール値 を参照してください。

第8章 Object Gateway

ストレージ管理者は、ダッシュボードのObject Gateway 機能により、Ceph Object Gateway を管理および監視することができます。

たとえば、監視機能を使用すると、ゾーン名や GET および PUT レートのパフォーマンスグラフなどのゲートウェイデーモンの詳細を表示できます。管理機能を使用すると、ユーザーとバケットの両方を表示、作成、編集できます。

Object Gateway 機能は、デーモンの機能、ユーザー機能、およびバケット機能に分けられます。

8.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。

8.2. Object Gateway デーモン機能

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway デーモンに関する情報を表示し、監視することができます。

8.2.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。

8.2.2. Object Gateway デーモンの表示

ダッシュボードでは、全 Ceph Object Gateway デーモンの一覧を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Daemons をクリックします。

    Click Daemons
  4. 以下の例では、Daemons ListID jb-ceph4-rgw.rgw0 のデーモンが表示されます。

    daemon in list
  5. 詳細を表示するには、jb-ceph4-rgw.rgw0 の行をクリックしてデーモンを選択します。

    daemon details

    デーモンがサービスしているゾーン名は default であることを確認できます。

関連情報

8.3. Object Gateway のユーザー機能

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway ユーザーの表示および管理を行うことができます。

8.3.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。

8.3.2. Object Gateway ユーザーの表示

ダッシュボードでは、全 Ceph Object Gateway ユーザーの一覧を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Users をクリックします。

    Click Users
  4. 以下の例では、rgw-user という名前のユーザーが表に表示されます。

    User in list
  5. 詳細を表示するには、rgw-user の行をクリックしてユーザーを選択します。

    User details

関連情報

8.3.3. Object Gateway ユーザーの作成

ダッシュボードでは、Ceph Object Gateway ユーザーを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Users をクリックします。

    Click Users
  4. Create をクリックします。

    User in list
  5. ユーザー名、フルネームを設定し、必要に応じてバケットの最大数を編集します。

    Create User dialog basic settings
  6. 必要に応じて、メールアドレスまたは一時停止のステータスを設定します。

    Set email address or suspended status
  7. 必要に応じて、Auto-generate key の選択を解除して、カスタムアクセスキーおよびシークレットキーを設定します。

    1. 自動生成キー の選択を解除します。

      Uncheck Aut-generate key
    2. アクセスキーおよびシークレットキーを設定します。

      Set a custom access key and secret key
  8. 必要に応じて、ユーザークォータを設定します。

    1. User quotaEnabled になっていることを確認します。

      Check enabled
    2. Unlimited size または Unlimited objects の選択を解除します。

      Uncheck Unlimited size or Unlimted objects
    3. Max. size または Max. objects に必要な値を入力します。

      Enter values for Max. size and Max. objects
  9. 必要に応じて、バケットクォータを設定します。

    1. Bucket quotaEnabled になっていることを確認します。

      Check enabled
    2. Unlimited size または Unlimited objects の選択を解除します。

      Uncheck Unlimited size or Unlimted objects
    3. Max. size または Max. objects に必要な値を入力します。

      Enter values for Max. size and Max. objects
  10. ユーザーの作成の最終処理を行うには、Create User をクリックします。

    Click Create User
  11. ユーザー作成が正常に行われたことを確認します。通知では、ユーザーが作成され、ユーザーのテーブルに表示されることを確認します。

    Verify the user was created

関連情報

8.3.4. Object Gateway ユーザーの編集

ダッシュボードでは、Ceph Object Gateway ユーザーを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。
  • Ceph Object Gateway ユーザーが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Users をクリックします。

    Click Users
  4. ユーザー機能を編集するには、その行をクリックします。

    Click user row
  5. Edit ドロップダウンメニューで Edit を選択します。

    Click Edit
  6. EditUser ウィンドウで必要なパラメーターを編集して、EditUser ボタンをクリックします。

    Edit User window
  7. ページの右上隅に対する通知は、ユーザーが正常に更新されたことを示しています。

    User edit notification

8.3.5. Object Gateway ユーザーの削除

ダッシュボードでは、Ceph Object Gateway ユーザーを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。
  • Ceph Object Gateway ユーザーが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Users をクリックします。

    Click Users
  4. ユーザーを削除するには、その行をクリックします。

    Click user row
  5. Edit ドロップダウンメニューで Delete を選択します。

    Click Delete
  6. Delete User ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete User クリックし、設定を保存します。

    Delete User window

8.3.6. Object Gateway サブユーザーの作成

サブユーザーは、S3 インターフェイスのユーザーに関連付けられます。ダッシュボードでは、Ceph Object Gateway サブユーザーを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。
  • Object Gateway ユーザーが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. ドロップダウンメニューの Users をクリックします。

    Click Users
  4. 以下の例では、ceph-dashboard という名前のユーザーが表に表示されます。行をクリックしてユーザーを選択します。

    Select user
  5. Edit ドロップダウンメニューをクリックして Edit を選択します。

    Edit drop-down
  6. +CreateSubuser ボタンをクリックします。

    Create Subuser
  7. サブユーザー 名を入力し、適切なパーティションを選択します。

    Set Subuser username
  8. 自動生成シークレット ボックスをクリックし、Create Subuser ボタンをクリックします。

    Create Subuser dialog window
    注記

    Auto-generate-secret チェックボックスをクリックすると、Object Gateway の秘密鍵が自動的に生成されます。

  9. Edit User ウィンドウで Edit user ボタンをクリックします。

    Edit User in Window
  10. サブユーザーの作成が正常に行われたことを確認します。ページの右上隅にある通知がポップアップ表示され、Object Gateway ユーザーが正常に更新されたことを示します。

    Object Gateway user update notification

関連情報

8.4. Object Gateway のバケット機能

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway バケットを表示し、管理できます。

8.4.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。

8.4.2. Object Gateway のバケットの表示

ダッシュボードでは、Ceph Object Gateway バケットを表示し、管理できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。
  • Object Gateway バケットが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Buckets をクリックします。

    Click Buckets
  4. 以下の例では、テーブルに my-bucket という名前のバケットを確認できます。

    Bucket in list
  5. 詳細を表示するには、my-bucket の行をクリックしてバケットを選択します。

    Bucket details

関連情報

8.4.3. Object Gateway のバケットの作成

ダッシュボードでは、Ceph Object Gateway バケットを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。
  • 一時停止していないObject Gateway ユーザーが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Buckets をクリックします。

    Click Buckets
  4. Create をクリックします。

    Click Create
  5. Name に値を入力し、一時停止していないユーザーを選択します。

    Set the name and user
  6. Create bucket をクリックします。

    Click Create Bucket
  7. バケットの作成が正常に行われたことを確認します。バケットが作成されたことを確認する通知が表示され、バケットはバケットのテーブルに表示されます。

    Verify the bucket was created

関連情報

8.4.4. Object Gateway バケットの編集

ダッシュボードでは、Ceph Object Gateway バケットを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。
  • 一時停止していない Ceph Object Gateway ユーザーが作成されている。
  • Ceph Object Gateway バケットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Buckets をクリックします。

    Click Buckets
  4. バケットを編集するには、その行をクリックします。

    Click bucket row
  5. Edit ドロップダウンメニューで Edit を選択します。

    Click Edit
  6. EditBucket ウィンドウで、必要なパラメーターを編集して EditBucket ボタンをクリックします。

    Edit Bucket window
  7. ページの右上隅に対する通知は、バケットが正常に更新されたことを示します。

    Bucket edit notification

関連情報

8.4.5. Object Gateway バケットの削除

ダッシュボードでは、Ceph Object Gateway バケットを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されます。
  • 一時停止していない Ceph Object Gateway ユーザーが作成されている。
  • Ceph Object Gateway バケットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Buckets をクリックします。

    Click Buckets
  4. バケットを削除するには、その行をクリックします。

    Click bucket row
  5. Edit ドロップダウンメニューで Delete を選択します。

    Click Delete
  6. Delete Bucket ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete bucket クリックし、設定を保存します。

    Delete Bucket window

8.5. Object Gateway ログイン認証情報をダッシュボードに手動で追加

Red Hat Ceph Storage Dashboard は、RADOS Gateway または RGW として知られる Ceph Object Gateway を管理できます。Ceph Object Gateway を管理するには、ダッシュボードは system フラグを使用して RGW ユーザーのログイン認証情報を使用して接続する必要があります。ceph-ansible を使用して Object Gateway をインストールすると、自動的にログイン認証情報がダッシュボードに追加されます。ログインの認証情報を手動で設定することもできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。

手順

  1. system フラグを有効にして RGW ユーザーの access_key および secret_key を取得します。

    • system フラグを有効にしている RGW ユーザーがない場合は、これを作成します。

      radosgw-admin user create --uid=USER_ID --display-name=DISPLAY_NAME --system

      以下に例を示します。

      [root@mon ~]# radosgw-admin user create --uid=rgw-user --display-name=RGW-user --system
      {
          "user_id": "rgw-user",
          "display_name": "RGW-user",
          "email": "",
          "suspended": 0,
          "max_buckets": 1000,
          "subusers": [],
          "keys": [
              {
                  "user": "rgw-user",
                  "access_key": "BYC5SWQQH24A2BFHS2RC",
                  "secret_key": "159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT"
              }
          ],
          "swift_keys": [],
          "caps": [],
          "op_mask": "read, write, delete",
          "system": "true",
          "default_placement": "",
          "default_storage_class": "",
          "placement_tags": [],
          "bucket_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "user_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "temp_url_keys": [],
          "type": "rgw",
          "mfa_ids": []
      }

      access_key および secret_key の値を書き留めます。上記の例では、access_keyBYC5SWQQH24A2BFHS2RC で、secret_key159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT です。

    • system フラグが有効な RGW ユーザーがすでに作成されている場合は、radosgw-admin ユーティリティーの user info コマンドを使用して認証情報を取得します。

      radosgw-admin user info --uid=USER_ID

      以下に例を示します。

      [root@mon ~]# radosgw-admin user info --uid=rgw-user
      {
          "user_id": "rgw-user",
          "display_name": "RGW-user",
          "email": "",
          "suspended": 0,
          "max_buckets": 1000,
          "subusers": [],
          "keys": [
              {
                  "user": "rgw-user",
                  "access_key": "BYC5SWQQH24A2BFHS2RC",
                  "secret_key": "159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT"
              }
          ],
          "swift_keys": [],
          "caps": [],
          "op_mask": "read, write, delete",
          "system": "true",
          "default_placement": "",
          "default_storage_class": "",
          "placement_tags": [],
          "bucket_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "user_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "temp_url_keys": [],
          "type": "rgw",
          "mfa_ids": []
      }

      access_key および secret_key の値を書き留めます。上記の例では、access_keyBYC5SWQQH24A2BFHS2RC で、secret_key159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT です。

  2. access_key および secret_key の認証情報をダッシュボードに指定します。

    1. ダッシュボードに access_key を指定します。

      ceph dashboard set-rgw-api-access-key ACCESS_KEY

      以下に例を示します。

      [root@mon ~]# ceph dashboard set-rgw-api-access-key BYC5SWQQH24A2BFHS2RC
      Option RGW_API_ACCESS_KEY updated
    2. secret_key をダッシュボードに指定します。

      ceph dashboard set-rgw-api-secret-key SECRET_KEY

      以下に例を示します。

      [root@mon ~]# ceph dashboard set-rgw-api-secret-key 159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT
      Option RGW_API_SECRET_KEY updated
  3. Object Gateway のホスト名およびポートをダッシュボードに指定します。

    1. ダッシュボードにホスト名を指定します。

      ceph dashboard set-rgw-api-host HOST_NAME

      以下に例を示します。

      [root@mon ~]# ceph dashboard set-rgw-api-host 192.168.122.193
      Option RGW_API_HOST updated
    2. ポートをダッシュボードに指定します。

      ceph dashboard set-rgw-api-port PORT

      以下に例を示します。

      [root@mon ~]# ceph dashboard set-rgw-api-port 8080
      Option RGW_API_PORT updated
  4. 必要に応じて、自己署名証明書と共に HTTPS を使用している場合は、ダッシュボードで証明書の検証を無効にして、拒否された接続を回避します。

    証明書が不明な認証局によって署名されている場合や、使用するホスト名が証明書のホスト名と一致しない場合は、拒否される接続が発生する可能性があります。

    ceph dashboard set-rgw-api-ssl-verify false

    以下に例を示します。

    [root@mon ~]# ceph dashboard set-rgw-api-ssl-verify false
    Option RGW_API_SSL_VERIFY updated

関連情報

第9章 ブロックデバイス

9.1. ブロックデバイスの概要

ダッシュボードのブロックデバイス機能により、ブロックデバイスイメージを管理および監視できます。この機能は、一般的なイメージ機能、ミラーリング機能、iSCSI 機能、およびサービスの品質設定に分けられます。たとえば、新規イメージの作成、クラスター間でミラーリングされたイメージの状態の表示、iSCSI ターゲットの管理または監視、およびイメージでの IOPS 制限の設定を行うことができます。

9.2. イメージ関数

ダッシュボードは、イメージの管理および監視に関連する複数の機能を提供します。

9.2.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

9.2.2. イメージの作成

ダッシュボードでは、イメージを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. Images タブで、Create ボタンをクリックします。

    Create image
  5. CreateRBD ウィンドウで、パラメーターを入力します。

    Create image window
  6. 必要に応じて Advanced をクリックし、パラメーターを設定します。

    Create image Advanced settings
    Create image Advanced settings parameters
  7. CreateRBD ボタンをクリックします。

    Click Create RBD
  8. ページの右上隅に対する通知は、イメージが正常に作成されたことを示しています。

    Image create notification

関連情報

9.2.3. イメージの表示

ダッシュボードでは、イメージを表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • イメージがクラスターにある。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. Images をクリックします。

    Images view

    上記の例では、disk_1 という名前の 10 GiB イメージを確認できます。

  4. 詳細を表示するには、disk_1 の行をクリックしてイメージを選択します。

    Images view details

関連情報

9.2.4. イメージの編集

ダッシュボードでは、イメージを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージを編集するには、Images タブでその行をクリックします。

    Click Image row
  5. Edit ドロップダウンメニューで Edit を選択します。

    Click Edit
  6. EditRBD ダイアログで、必要なパラメーターを編集して、EditRBD ボタンをクリックします。

    Edit Image dialog
  7. ページの右上隅に対する通知は、イメージが正常に更新されたことを示しています。

    Image edit notification

関連情報

  • 詳細は、Red Hat Ceph Storage ダッシュボードガイドイメージの作成 セクションを参照してください。

9.2.5. イメージのコピー

ダッシュボードでは、イメージをコピーできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージをコピーするには、Images タブでその行をクリックします。

    Click Image row
  5. Edit ドロップダウンの Copy を選択します。

    Click Copy
  6. CopyRBD ウィンドウで必要なパラメーターを編集して、CopyRBD ボタンをクリックします。

    Copy Image window
  7. ページの右上隅に対する通知は、イメージが正常に更新されたことを示しています。

    Copy image notification

関連情報

  • 詳細は、Red Hat Ceph Storage ダッシュボードガイドイメージの作成 セクションを参照してください。

9.2.6. イメージのごみ箱への移動

ダッシュボードでは、イメージをごみ箱に移動できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージをゴミ箱に移動するには、Images タブでその行をクリックします。

    Click Image row
  5. Edit ドロップダウンメニューで Move to Trash を選択します。

    Click Move to Trash
  6. Moving an image to trash ウィンドウで、イメージが保護する必要のある日付を編集し、Move Image ボタンをクリックします。

    Move image to Trash window
  7. ページの右上隅に対する通知では、イメージが正常にごみ箱に移動したことが分かります。

    Move image to trash notification

9.2.7. ごみ箱のパージ

ダッシュボードでは、イメージのごみ箱をパージすることができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージがゴミ箱に捨てられている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. Trash タブで、Purge Trash ボタンをクリックします。

    Click Purge Trash
  5. Purge Trash ウィンドウでプールを選択し、Purge Trash ボタンをクリックします。

    Purge Trash window
  6. ページの右上隅にある通知は、選択したプールからイメージが正常に削除されたことを示しています。

    Purge from trash notification

関連情報

9.2.8. ゴミ箱からのイメージの復元

ダッシュボードでは、ごみ箱からイメージを復元できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージがゴミ箱に捨てられている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. ゴミ箱からイメージを復元するには、Trash タブでその行をクリックします。

    Click Image row in Trash tab
  5. Restore ドロップダウンメニューで Restore を選択します。

    Click Restore
  6. Restore Image ウィンドウで、イメージの名前を入力してから、Restore Image をクリックします。

    Restore from Trash window
  7. ページの右上隅にある通知は、イメージがゴミ箱から正常に復元されたことを示しています。

    Restore from trash notification

関連情報

  • RBD プールでのイメージ作成に関する詳しい情報は、Red Hat Ceph Storage ダッシュボードガイドイメージの作成 セクションを参照してください。

9.2.9. イメージの削除

ダッシュボードでは、イメージを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージを編集するには、Images タブでその行をクリックします。

    Click Image row
  5. Edit ドロップダウンメニューで Delete を選択します。

    Click Delete
  6. Delete RBD ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete RBD をクリックして設定を保存します。

    Delete image window
  7. ページの右上隅に対する通知では、イメージが正常にごみ箱に移動したことが分かります。

    Delete image notification

9.2.10. イメージのスナップショットの作成

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットを作成するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Create ドロップダウンで Create を選択します。

    Create snapshot of the image
  6. CreateRBD Snapshot ダイアログでパラメーターを入力し、CreateRBD Snapshot ボタンをクリックします。

    Create snapshot of the image dialog
  7. ページの右上隅に対する通知は、イメージのスナップショットが正常に作成されたことを示しています。

    Creation of snapshot of the image notification

関連情報

  • スナップショットの作成に関する詳細はRed Hat Ceph Storage ブロックデバイスガイドブロックデバイスのスナップショットの作成 セクションを参照してください。
  • RBD プールの作成に関する詳細は、Red Hat Ceph Storage ダッシュボードガイドプールの作成 セクションを参照してください。
  • 詳細は、Red Hat Ceph Storage ダッシュボードガイドイメージの作成 セクションを参照してください。

9.2.11. イメージのスナップショットの名前変更

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットの名前を変更することができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットの名前を変更するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで、Rename を選択します。

    Rename snapshot of the image
  6. RenameRBD Snapshot ダイアログでパラメーターを入力し、RenameRBD Snapshot ボタンをクリックします。

    Rename snapshot of the image dialog
  7. ページの右上隅に対する通知は、イメージのスナップショットが正常に更新されたことを示しています。

    Snapshot update of the image notification

関連情報

  • 詳細は、Red Hat Ceph Storage ブロックデバイスガイドブロックデバイススナップショットの名前変更 セクションを参照してください。
  • RBD プールの作成に関する詳細は、Red Hat Ceph Storage ダッシュボードガイドプールの作成 セクションを参照してください。
  • RBD プールでのイメージ作成に関する詳しい情報は、Red Hat Ceph Storage ダッシュボードガイドイメージの作成 セクションを参照してください。

9.2.12. イメージのスナップショットの保護

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットを保護できます。これは、スナップショットのクローンを作成する必要がある場合に必要です。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンで Protect を選択します。

    Protect snapshot of the image
  6. ページの右上隅に対する通知は、イメージのスナップショットが正常に更新されたことを示しています。

    Snapshot update of the image notification

関連情報

  • 詳細は、Red Hat Ceph Storage ブロックデバイスガイドブロックデバイススナップショットの保護 セクションを参照してください。
  • RBD プールの作成に関する詳細は、Red Hat Ceph Storage ダッシュボードガイドプールの作成 セクションを参照してください。
  • RBD プールでのイメージ作成に関する詳しい情報は、Red Hat Ceph Storage ダッシュボードガイドイメージの作成 セクションを参照してください。

9.2.13. イメージのスナップショットのクローン作成

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットのクローンを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。
  • イメージのスナップショットは保護されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットを作成するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで、Clone を選択します。

    Rename snapshot of the image
  6. CloneRBD ダイアログでパラメーターを入力し、CloneRBD ボタンをクリックします。

    Clone snapshot of the image dialog
  7. ページの右上隅に対する通知は、イメージのスナップショットのクローンが正常に作成されたことを示しています。

    Clone of snapshot of the image notification

関連情報

9.2.14. イメージのスナップショットのコピー

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットをコピーできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットをコピーするには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで Copy を選択します。

    Copy snapshot of the image
  6. CopyRBD ダイアログでパラメーターを入力し、CopyRBD ボタンをクリックします。

    Rename snapshot of the image dialog
  7. ページの右上隅に対する通知は、イメージのスナップショットが正常に更新されたことを示しています。

    Copy Snapshot of the image notification

関連情報

  • RBD プールの作成に関する詳細は、Red Hat Ceph Storage ダッシュボードガイドプールの作成 セクションを参照してください。
  • RBD プールでのイメージ作成に関する詳しい情報は、Red Hat Ceph Storage ダッシュボードガイドイメージの作成 セクションを参照してください。

9.2.15. イメージのスナップショットのロールバック

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットをロールバックできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットをロールバックするには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで、Rollback を選択します。

    Rollback snapshot of the image
  6. RBD snapshot rollback ウィンドウで、Rollback ボタンをクリックします。

    Rollback snapshot of the image window
  7. ページの右上隅に対する通知は、イメージのスナップショットが正常にロールバックされたことを示しています。

    Rollback Snapshot of the image notification

関連情報

9.2.16. イメージのスナップショットの保護解除

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットの保護を解除できます。これは、スナップショットを削除する必要がある場合に必要です。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。
  • イメージのスナップショットは保護されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショット名の保護を解除するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで UnProtect を選択します。

    Unprotect snapshot of the image
  6. ページの右上隅に対する通知は、イメージのスナップショットが正常に更新されたことを示しています。

    Snapshot update of the image notification

関連情報

9.2.17. イメージのスナップショットの削除

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットのクローンを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されている。
  • イメージのスナップショットは保護されていない。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットを削除するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで、Delete を選択します。

    Delete snapshot of the image
  6. ページの右上隅に対する通知は、イメージのスナップショットが正常に更新されたことを示しています。

    Snapshot deletion of the image notification

関連情報

9.3. ミラーリング機能

ダッシュボードでは、ミラーリング機能の管理および監視を行うことができます。

9.3.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

9.3.2. ミラーリングビュー

ダッシュボードでは、ミラーリング機能の全体的な状態を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • ミラーリングが設定されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. Mirroring をクリックします。

    Images view

    上記の例では、DaemonsPools、および Images というラベルのテーブルに分類されたミラーリング情報を確認できます。

関連情報

9.3.3. 編集モード

ダッシュボードでは、プールとイメージを含むミラーリング機能全体のモードを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Mirroring をクリックします。

    Click Mirroring
  4. Pools タブで、その行をクリックします。

    Click row
  5. Edit Mode ドロップダウンメニューで Edit Mode を選択します。

    Click Edit Mode
  6. Edit Pool mirror mode ウィンドウで、ドロップダウンからモードを選択し、Update ボタンをクリックします。

    Edit Mode Window
  7. ページの右上隅に対する通知は、ミラーモードが正常に更新されたことを示します。

    Mirror mode edit notification

関連情報

9.3.4. ミラーリングでピアの追加

ダッシュボードでは、rbd-daemon ミラーのストレージクラスターピアを追加して、そのピアストレージクラスターを検出できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Mirroring をクリックします。

    Click Mirroring
  4. Pools タブで、その行をクリックします。

    Click row
  5. Edit Mode ドロップダウンメニューで、Add peer を選択します。

    Click Add peer
  6. Add pool mirror peer ウィンドウでパラメーターを入力し、Submit ボタンをクリックします。

    Add peer Window
  7. ページの右上隅に対する通知は、ミラーピアが正常に作成されたことを示しています。

    Add peer notification

関連情報

9.3.5. ミラーリングのピアの編集

ダッシュボードでは、rbd-daemon ミラーのストレージクラスターピアを編集して、そのピアストレージクラスターを検出できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。
  • ピアが追加されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。

    Click Block
  3. ドロップダウンから Mirroring をクリックします。

    Click Mirroring
  4. Pools タブで、その行をクリックします。

    Click row
  5. Edit Mode ドロップダウンメニューで、Edit peer を選択します。

    Click Edit peer
  6. Edit pool mirror peer ウィンドウでパラメーターを編集し、Submit ボタンをクリックします。

    Edit peer Window
  7. ページの右上隅に対する通知は、ミラーピアが正常に更新されたことを示しています。

    Edit peer notification

関連情報

9.3.6. ミラーリングでピアの削除

ダッシュボードでは、rbd-daemon ミラーのストレージクラスターピアを編集して、そのピアストレージクラスターを検出できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。
  • ピアが追加されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。

    Click Block
  3. ドロップダウンから Mirroring をクリックします。

    Click Mirroring
  4. Pools タブで、その行をクリックします。

    Click row
  5. Edit Mode ドロップダウンメニューで、Delete peer を 選択します。

    Click Delete peer
  6. Delete mirror peer ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete mirror peer クリックし、設定を保存します。

    Delete image window
  7. ページの右上隅に対する通知では、イメージが正常にごみ箱に移動したことが分かります。

    Delete peer notification

関連情報

9.4. iSCSI 機能 (制限付き)

ダッシュボードでは、iSCSI イメージおよびターゲットを管理および監視できます。ダッシュボードを使用して iSCSI イメージおよびターゲットを管理および監視する前に、ゲートウェイを追加してダッシュボードの iSCSI 機能を有効化する必要があります。

注記

この技術には、利用制限があります。詳細は、Deprecated functionality の章を参照してください。

9.4.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • iSCSI ゲートウェイが ダッシュボードに追加 されている。

9.4.2. Dashboard への iSCSI ゲートウェイの手動追加

Red Hat Ceph Storage Dashboard は、Ceph iSCSI Gateway の rbd-target-api サービスによって提供される REST API を使用して iSCSI ターゲットを管理できます。ダッシュボードがこれにアクセスする前に、API アドレスをダッシュボードに追加する必要があります。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイがインストールされている。
重要

Ceph iSCSI ゲートウェイには、高可用性を提供するためにゲートウェイが 2 つ必要です。

手順

  1. Monitor ノードにログインします。
  2. 必要に応じて、iSCSI ゲートウェイの REST API が自己署名証明書を使用して HTTPS モードで設定されている場合は、API へのアクセス時の SSL 証明書の検証を回避するようにダッシュボードを設定する必要があります。以下のコマンドを実行して SSL 検証を無効にします。

    # ceph dashboard set-iscsi-api-ssl-verification false

    以下に例を示します。

    [root@mon ~]# ceph dashboard set-iscsi-api-ssl-verification false
    Option ISCSI_API_SSL_VERIFICATION updated
  3. ゲートウェイ用に 2 つのファイルを作成します。

    # echo "SCHEME :// USERNAME : PASSWORD @ HOST [: PORT ]" > FILE_CONTAINING_GATEWAY_URL

    以下に例を示します。

    [root@mon ~]# echo "http://admin:admin@192.168.122.157:5000" > /tmp/first_gateway
    [root@mon ~]# echo "http://admin:admin@192.168.122.193:5000" > /tmp/second_gateway
    注記

    iSCSI ターゲットを設定している 場合に USERNAME および PASSWORD が設定されていました。認証情報は、iSCSI ゲートウェイノードの iscsi-gateway.cfg ファイルから取得できます。

  4. 2 つのゲートウェイをダッシュボードに追加します。

    # ceph dashboard iscsi-gateway-add -i FILE_CONTAINING_GATEWAY_URL

    以下に例を示します。

    [root@mon ~]# ceph dashboard iscsi-gateway-add -i /tmp/first_gateway
    Success
    [root@mon ~]# ceph dashboard iscsi-gateway-add -i /tmp/second_gateway
    Success
  5. ゲートウェイが正しく追加されたことを確認します。

    # ceph dashboard iscsi-gateway-list

    以下に例を示します。

    [root@mon ~]# ceph dashboard iscsi-gateway-list
    {"gateways": {"ceph4": {"service_url": "http://admin:admin@192.168.122.193:5000"}, "ceph4": {"service_url": "http://admin:admin@192.168.122.193:5000"}}}
  6. 必要に応じて、間違えてゲートウェイを追加した場合は、iscsi-gateway-list コマンドで説明されているようにホスト名を指定することでゲートウェイを削除できます。

    # ceph dashboard iscsi-gateway-rm GATEWAY_NAME

    以下に例を示します。

    [root@mon ~]# ceph dashboard iscsi-gateway-rm ceph4
    Success

関連情報

9.4.3. iSCSI の概要

ダッシュボードでは、iSCSI 経由でエクスポートされた iSCSI ゲートウェイホストおよびイメージを表示する概要が提供されています。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイがインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. iSCSI をクリックします。

    iSCSI overview

関連情報

9.4.4. iSCSI ターゲットの作成

ダッシュボードでは iSCSI ターゲットを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. iSCSI をクリックします。

    iSCSI overview
  4. ページの左上隅にある Targets タブをクリックします。

    iSCSI Targets
  5. ページの左上隅にある Add ボタンをクリックします。

    Create target initial view
  6. 必要に応じて、ターゲット IQN を変更します。

    Modify Target IQN
  7. 必要に応じて、ターゲットの詳細設定を設定します。

    1. 歯車をクリックして、ターゲットの詳細設定を設定します。

      Gear for Advanced Settings for Target IQN
    2. Advanced Settings ダイアログウィンドウに詳細設定を設定します。

      Advanced Settings for Target IQN
    3. Confirm をクリックして設定を保存します。
  8. Add portal ボタンをクリックし、2 つ以上のゲートウェイの最初のゲートウェイを選択します。

    Add portal one
  9. Add portal ボタンをクリックし、2 つ以上のゲートウェイの 2 番目のゲートウェイを選択します。

    Add additional gateways

    追加のゲートウェイに対してこの手順を繰り返します。

  10. Add image ボタンをクリックして、ターゲットによってエクスポートされるイメージを選択します。

    Add an image

    追加のイメージに対してこの手順を繰り返します。

  11. 必要に応じて、イメージを変更します。

    1. イメージの右側にある歯車をクリックします。

      Gear to Configure Images
    2. Configure ダイアログウィンドウでイメージ設定を変更します。

      Configure Image
    3. Confirm をクリックして設定を保存します。
  12. ACL authentication ボックスをクリックし、Add initiator ボタンをクリックします。

    ACL authentication and Add initiator
  13. 最初のテキストボックスに、クライアントの IQN を入力します。

    Client IQN

    イニシエーターソフトウェアが実行されるシステムからクライアント IQN を取得します。詳細は、ブロックデバイスガイドiSCSI イニシエーターの設定 を参照してください。

  14. ターゲットのユーザー名およびパスワードの詳細を入力します。

    Add initiator user name and password
  15. Add image をクリックして、イメージを選択します。

    Add an image

    追加のイメージに対してこの手順を繰り返します。

  16. Create Target ボタンをクリックして手順を完了します。

    Create Target button
  17. Targets ページで検索して、ターゲットが追加されたことを確認します。

    Targets ページを見つけるには、ダッシュボードガイドiSCSI ターゲットの表示 の手順に従います。

関連情報

9.4.5. iSCSI ターゲットの表示

ダッシュボードでは、iSCSI ターゲットを表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイがインストールされている。
  • iSCSI ターゲットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックし、iSCSI をクリックします。

    Click Block and then click iSCSI
  3. ページの左上隅にある Targets タブをクリックします。

    Click Targets
  4. ターゲットの詳細を表示するには、その行をクリックします。

    Click the target row
  5. イニシエーターがログインしているかどうかを含め、iSCSI トポロジーを確認できます。

    iSCSI topology
  6. オブジェクトをクリックして、その詳細情報を表示します。

    Target IQN details

    注記: クリックすると、一部のオブジェクトのみが詳細情報を表示します。

関連情報

9.4.6. iSCSI ターゲットの編集

ダッシュボードでは、iSCSI ターゲットを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。
  • iSCSI ターゲットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. iSCSI をクリックします。

    iSCSI overview
  4. ページの左上隅にある Targets タブをクリックします。

    Click Targets
  5. ターゲットを編集するには、その行をクリックします。

    Click the target row
  6. ページの左上隅にある Edit ボタンをクリックします。

    Edit target initial view
  7. パラメーターを編集し、Edit Target ボタンをクリックします。

    Edit target window
  8. Targets ページで検索して、ターゲットが編集されたことを確認します。

    Targets ページを見つけるには、ダッシュボードガイドiSCSI ターゲットの表示 の手順に従います。

関連情報

9.4.7. iSCSI ターゲットの削除

ダッシュボードでは、iSCSI ターゲットを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • iSCSI ターゲットが作成されている。
  • すべての iSCSI イニシエーターを切断します。iSCSI イニシエーターの切断 を参照してください。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. iSCSI をクリックします。

    iSCSI overview
  4. ページの左上隅にある Targets タブをクリックします。

    Click Targets
  5. ターゲットを削除するには、その行をクリックします。

    Click the target row
  6. ページの左上隅にある Edit ドロップダウンをクリックします。
  7. ドロップダウンから Delete を選択します。

    Delete target initial view
  8. Yes, I am sure ボックスをクリックし Delete iSCSI をクリックして設定を保存します。

    Delete iSCSI window

関連情報

9.4.8. 検出認証の設定

ダッシュボードは、CHAP/CHAP_MUTUAL を使用した検出認証を許可します。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. iSCSI をクリックします。

    iSCSI overview
  4. ページの左上隅にある Targets タブをクリックします。

    iSCSI Targets
  5. ページの左上隅にある Discovery authentication ボタンをクリックします。

    Discovery authentication
  6. Discovery Authentication ウィンドウで詳細を指定し、Submit ボタンをクリックします。

    Discovery Authentication window

9.5. サービス品質の設定

ストレージ管理者は、サービス品質 (QoS) 制限を使用して、プールまたはイメージのパフォーマンスに優先順位を付けたり、優先順位を下げたりして、すべてのイメージが特定のビジネスニーズを満たすために必要なリソースを取得できるようにすることができます。

9.5.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。

9.5.2. 既存イメージでのサービス品質の設定

ストレージ管理者は、サービス品質 (QoS) の制限を使用して、既存イメージのパフォーマンスを優先順位を付けたり、優先順位を下げることができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。
  • 既存のイメージ。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックし、Images をクリックします。

    Click Block and then click Images.
  3. イメージの行をクリックして、編集するイメージを選択します。

    Select an image.
  4. Edit ボタンをクリックします。

    Click the Edit button.
  5. ダイアログの右下隅にある Advanced をクリックします。

    Click Advanced…​
  6. Quality of Service の横にあるプラス記号をクリックして、QoS 設定を開きます。

    Open the QoS settings.
  7. 必要に応じて、個々の設定の横にあるクエスチョンマークをクリックして、その詳細を確認します。

    Click the question mark symbol.
  8. 変更する QoS 設定の値を入力または編集します。

    Enter values for QoS settings.
  9. 必要に応じて、設定の消しゴム記号をクリックしてローカル値を削除し、親のプールまたはグローバル設定から値を継承します。

    Click the eraser symbol to remove local values.

    設定のフィールドは無効になっているため、親から値を継承していることが示されます。

    The field is disabled.
  10. 編集 ボタンをクリックして変更を保存します。

    Save the changes.

9.5.3. 既存のプールでのサービス品質の設定

ストレージ管理者は、既存のプールでサービス品質 (QoS) を設定できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools をクリックします。

    Click Pools.

  3. RBD アプリケーションを持つ複製されたプールの行をクリックし、編集のために選択します。

    Select a pool.
  4. Edit ボタンをクリックします。

    Click the Edit button.
  5. Quality of Service の横にあるプラス記号をクリックして、QoS 設定を開きます。

    Open the QoS settings.
  6. 必要に応じて、個々の設定の横にあるクエスチョンマークをクリックして、その詳細を確認します。

    Click the question mark symbol.
  7. 変更する QoS 設定の値を入力または編集します。

    Enter values for QoS settings.
  8. 必要に応じて、設定の消しゴム記号をクリックしてローカル値を削除し、親グローバル設定から値を継承します。

    Click the eraser symbol to remove local values.

    設定のフィールドは無効になっているため、親から値を継承していることが示されます。

    The field is disabled.
  9. 編集 ボタンをクリックして変更を保存します。

    Save the changes.

9.5.4. イメージ作成時のサービス品質の設定

ストレージ管理者は、イメージの作成時にサービス品質 (QoS) の制限を設定できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックし、Images をクリックします。

    Click Block and then click Images.
  3. Create ボタンをクリックします。

    Click the Create button.
  4. 1 に名前を設定し、2 にプールを設定し、3 にサイズを設定して、4Advanced をクリックします。

    Set basic image settings
  5. Quality of Service の横にあるプラス記号をクリックして、QoS 設定を開きます。

    Open the QoS settings.
  6. 必要に応じて、個々の設定の横にあるクエスチョンマークをクリックして、その詳細を確認します。

    Click the question mark symbol.
  7. 変更する QoS 設定の値を入力または編集します。

    Enter values for QoS settings.
  8. 必要に応じて、設定の消しゴム記号をクリックしてローカル値を削除し、親のローカル設定から値を継承します。

    Click the eraser symbol to remove local values.

    設定のフィールドは無効になっているため、親から値を継承していることが示されます。

    The field is disabled.
  9. Create RBD ボタンをクリックします。

    Create the image.

9.5.5. プール作成時のサービス品質の設定

ストレージ管理者は、プールの作成時にサービス品質 (QoS) を設定できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行されている。
  • Dashboard がインストールされている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools をクリックします。

    Click Pools.
  3. ページの左上隅にある Create ボタンをクリックします。

    Click the Create button.
  4. ダイアログボックスで、1 にプール名を設定して、2 にプールのタイプを erasure に設定します。3 に配置グループの数を設定し、4EC Overwrites を有効にします。5rbd アプリケーションを設定し、最後に 6Create Pool をクリックします。

    Create an EC RBD pool.
  5. 別のプールを作成しますが、今回はその種別を replicated に設定します。

    create a replicated pool
  6. Quality of Service の横にあるプラス記号をクリックして、QoS 設定を開きます。

    Open the QoS settings.
  7. 必要に応じて、個々の設定の横にあるクエスチョンマークをクリックして、その詳細を確認します。

    Click the question mark symbol.
  8. 変更する QoS 設定の値を入力または編集します。

    Enter values for QoS settings.
  9. 必要に応じて、設定の消しゴム記号をクリックしてローカル値を削除し、親グローバル設定から値を継承します。

    Click the eraser symbol to remove local values.

    設定のフィールドは無効になっているため、親から値を継承していることが示されます。

    The field is disabled.
  10. Create Pool ボタンをクリックします。

    Create the pool.

9.5.6. 関連情報

付録A トラブルシューティング

本項では、ダッシュボードを使用した際の複数のトラブルシューティングシナリオを説明します。

A.1. ダッシュボードの応答が遅い

ダッシュボードの応答が遅い場合には、ブラウザーキャッシュをクリアし、ダッシュボードを再読み込みします。

A.2. ダッシュボードでサービスがダウンしたことを示す

ダッシュボードはクラスターのレプリカのみになります。サービスが停止している場合は、ノードで実行している node-exporter で収集される情報がダッシュボードに表示されるので、ノードでサービスのステータスを確認します。この問題は、クラスター、設定、またはネットワークで発生している可能性があります。

A.3. Dashboard でのタスク障害

ダッシュボードでいずれかのタスクを実行しても、障害が発生した場合には、それぞれの Ceph デーモンを確認してください。詳細は、トラブルシューティングガイド を参照してください。

A.4. イメージを表示できない

イメージは、そのイメージにあるプールの RBD アプリケーションが有効にされている場合に限り、Block > Images に表示されます。

The RBD application is enabled.
The image is viewable.

関連情報

詳細は、トラブルシューティングガイド を参照してください。