Menu Close

ダッシュボードガイド

Red Hat Ceph Storage 4

Ceph Dashboard を使用した Ceph クラスターのモニタリング

概要

本書では、監視および管理の目的で Red Hat Ceph Storage Dashboard を使用する方法を説明します。
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、弊社の CTO、Chris Wright のメッセージ を参照してください。

第1章 Ceph ダッシュボードの概要

ストレージ管理者は、Red Hat Ceph Storage Dashboard は管理機能および監視機能を提供します。これにより、クラスターの管理および設定が可能になり、それに関連する情報およびパフォーマンス統計を可視化を可能にします。ダッシュボードは、ceph-mgr デーモンがホストする Web サーバーを使用します。

ダッシュボードは Web ブラウザーからアクセスでき、たとえばマネージャーモジュールの設定や OSD の状態の監視などの有用な管理機能および監視機能が含まれます。

1.1. 前提条件

  • システム管理者レベルの経験

1.2. ダッシュボードコンポーネント

ダッシュボードの機能は複数のコンポーネントで提供されます。

  • デプロイメント用の Ansible 自動化アプリケーション。
  • 埋め込みダッシュボードである ceph-mgr モジュール。
  • 埋め込み Prometheus である ceph-mgr モジュール。
  • Prometheus の時系列データベース。
  • ストレージクラスターの各ノードで実行される Prometheus の node-exporter デーモン。
  • 監視ユーザーインターフェースおよびアラートを提供する Grafana プラットフォーム。

関連情報

1.3. Dashboard の機能

Ceph Dashboard は複数の機能を提供します。

管理機能

  • クラスターの階層の表示: CRUSH マップを表示できます。たとえば、特定の OSD ID が実行されているノードを判別できます。これは、OSD に問題がある場合に便利です。
  • マネージャーモジュールの設定: Ceph マネージャーモジュールのパラメーターを表示および変更できます。
  • ログの表示および絞り込み: イベントおよび監査クラスターのログを表示し、優先順位、キーワード、日付、または時間範囲に基づいてフィルタリングできます。
  • ダッシュボードコンポーネントの切り替え: ダッシュボードのコンポーネントを有効および無効にできるため、必要な機能のみが利用可能になります。
  • OSD 設定の管理: ダッシュボードを使用してクラスター全体の OSD フラグを設定できます。
  • アラートの表示 アラートページでは、現在のアラートの詳細を表示できます。
  • イメージのサービス品質: IOPS の制限や、BPS バーストレートの読み取りなど、イメージにパフォーマンス制限を設定できます。

監視機能

  • ユーザー名およびパスワード保護: 設定可能なユーザー名とパスワードのみを使用してダッシュボードにアクセスできます。
  • SSL および TLS のサポート: Web ブラウザーとダッシュボード間の HTTP 通信はすべて SSL 経由で保護されます。自己署名証明書は組み込みコマンドで作成できますが、認証局 (CA) が署名して発行したカスタム証明書をインポートすることもできます。Red Hat Ceph Storage 4.2 以降、Dashboard_protocolhttps に設定され、Ansible はダッシュボードおよび grafana 証明書を生成します。データポイントとグラフをプロットするには、以下のように TLS ハンドシェイクを手動で更新します。

    • Alert Manager API ホスト - http://grafana_node:9093
    • Prometheus API ホスト: http://grafana_node:9092
    • Grafana API ホスト - https://grafana_node:3000
  • クラスター全体の正常性: クラスター全体のステータス、ストレージ使用率 (オブジェクトの数、Raw 容量、プールごとの使用量など)、プールのリストおよびそれらのステータスと使用状況の統計を表示します。
  • ホスト: 実行中のサービスおよびインストールされた Ceph バージョンと共に、クラスターに関連付けられたホストの一覧を提供します。
  • パフォーマンスカウンター: 実行中の各サービスの詳細統計を表示します。
  • モニター: モニター、クォーラムのステータス、およびオープンセッションの一覧を表示します。
  • 設定リファレンス: 利用可能な設定オプション、その説明、デフォルト値の一覧を表示します。
  • クラスターログ: クラスターのイベントおよび監査ログを表示し、フィルタリングします。
  • ストレージクラスターの容量の表示: Red Hat Ceph Storage クラスターの Raw ストレージ容量は、Ceph Dashboard の Capacity パネルで確認できます。
  • Pools: すべての Ceph プールとその詳細を一覧表示および管理します。たとえば、アプリケーション、配置グループ、レプリケーションサイズ、EC プロファイル、CRUSH ルールセットなどです。
  • OSD: すべての OSD、それらのステータスおよび使用状況の統計に加えて、属性 (OSD マップ)、メタデータ、パフォーマンスカウンター、読み取り/書き込み操作のためのヒストグラムなどの詳細情報を一覧表示および管理します。
  • iSCSI: tcmu-runner サービスを実行するホストの一覧を表示し、読み取り/書き込み操作やトラフィックなど、すべてのイメージとそのパフォーマンスの特性を表示します。
  • イメージ: サイズ、オブジェクト、機能などのすべての RBD イメージと、そのプロパティーを表示します。RBD イメージの作成、コピー、変更、および削除を行います。選択したイメージのスナップショットを作成、削除、およびロールバックし、変更に対してこのスナップショットを保護するか、または保護を解除します。スナップショットをコピーまたは複製し、複製されたイメージを平坦化します。

    注記

    特定のイメージの Overall Performance タブの I/O 変更のパフォーマンスグラフには、Cluster > Manager modules > Prometheusrbd_stats_pool パラメーターを設定すると、そのイメージを含むプールを指定した後にのみ値が表示されます。

  • ミラーリング: 同期状態を含む、すべてのアクティブな同期デーモンとそのステータス、プール、および RBD イメージの一覧を表示します。
  • ファイルシステム: アクティブな Ceph ファイルシステム (CephFS) クライアントと関連するプール (使用状況の統計を含む) の一覧を表示します。
  • オブジェクトゲートウェイ (RGW): アクティブなすべてのオブジェクトゲートウェイとそのパフォーマンスカウンターを表示します。オブジェクトゲートウェイユーザーの表示および管理 (追加、編集、削除) およびその詳細 (クォータなど)、ユーザーのバケットおよびその詳細 (例: 所有者、クォータなど) を表示および管理します。

関連情報

1.3.1. ダッシュボード機能のオンとオフの切り替え

オンデマンドで機能を有効または無効にすることで、Red Hat Ceph Storage ダッシュボードのコンポーネントをカスタマイズできます。デフォルトでは、すべての機能が有効になっています。機能を無効にすると、Web インターフェース要素は非表示になり、関連付けられた REST API のエンドポイントはその機能に対する追加のリクエストを拒否します。ダッシュボード機能の有効化および無効化は、コマンドラインインターフェースまたは Web インターフェースから実行できます。

利用可能な機能:

  • Ceph ブロックデバイス:

    • イメージの管理 (rbd)
    • ミラーリング (mirroring)
    • iSCSI ゲートウェイ (iscsi)
  • Ceph ファイルシステム (cephfs)
  • Ceph Object Gateway (rgw)
注記

デフォルトでは、Ceph Manager は Ceph Monitor と併置されます。

注記

複数の機能を一度に無効にできます。

重要

機能が無効になったら、Web インターフェースの変更を反映するのに最大 20 秒かかる場合があります。

前提条件

  • Red Hat Ceph Storage ダッシュボードソフトウェアのインストールおよび設定
  • Ceph Manager ノードまたはダッシュボードの Web インターフェースへのユーザーアクセス

手順

  1. ダッシュボードの Web インターフェースからダッシュボード機能を切り替えるには、以下を実行します。

    1. ダッシュボードページのナビゲーションバーから Cluster に移動し、Manager Modules に移動してから Dashboard をクリックします。これにより、Edit Manager モジュール ページが開きます。
    2. Edit Manager module ページから、機能名の横にある選択ボックスを選択するか、選択を解除すると、ダッシュボードの機能を有効または無効にすることができます。

      Edit Manager module
    3. 選択が完了したら、ページ下部の Update ボタンをクリックします。

      Update button
  2. コマンドラインインターフェースからダッシュボード機能を切り替えるには、以下を実行します。

    1. Ceph Manager ノードにログインします。
    2. 機能のステータスの一覧を表示します。

      [user@mon ~]$ ceph dashboard feature status
    3. 機能を無効にします。

      [user@mon ~]$ ceph dashboard feature disable iscsi

      以下の例では、Ceph iSCSI ゲートウェイ機能を無効にします。

    4. 機能を有効にします。

      [user@mon ~]$ ceph dashboard feature enable cephfs

      以下の例では、Ceph Filesystem 機能を有効にします。

1.4. Dashboard アーキテクチャー

Dashboard アーキテクチャーは、Ceph Manager のダッシュボードプラグインおよびその他のコンポーネントによって異なります。以下の図を参照し、どのように連携するかを確認します。

Ceph Dashboard architecture diagram

第2章 Ceph Dashboard のインストールおよびアクセス

システム管理者は、ダッシュボードをインストールして初めてアクセスすることができます。

Red Hat Ceph Storage は、Cockpit Web インターフェースを使用してグラフィックにインストールするか、ceph-ansible RPM が提供する Ansible Playbook を使用してコマンドラインにインストールされます。Cockpit で同じ Ansible Playbook を使用して Ceph をインストールします。これらの Playbook により、デフォルトでダッシュボードがインストールされます。したがって、Ansible Playbook を直接使用するか、または Cockpit を使用して Ceph をインストールするかどうかに関わらず、ダッシュボードがインストールされます。

重要

デフォルトのダッシュボードパスワードを変更します。デフォルトでは、ダッシュボードのパスワードは p@ssw0rd で、安全ではありません。Playbook を使用して Ceph をインストールする前に、Ansible Playbook の all.ymldashboard_admin_password を更新するか、同じ Playbook またはダッシュボード自体を使用してインストールした後に、Ceph をインストールする前にデフォルトのパスワードを変更できます。詳細は、『インストールガイド』「ダッシュボードを使用したダッシュボードパスワードの変更」または「Ansible を使用したダッシュボードのパスワードの変更」を参照してください。

2.1. Cockpit を使用したダッシュボードのインストール

Red Hat Ceph Storage のインストールに Cockpit Web インターフェースを使用する場合、Dashboard はデフォルトでインストールされます。Grafana のインストールには Metrics ロールを持つホストを設定する必要があります。

前提条件

  • 完全な前提条件は 『インストールガイド』を参照してください。この手順では、ダッシュボードのインストールに関連する手順のみを強調しています。

手順

  1. Hosts ページでホストを追加し、Metrics ロールを設定します。

    Cockpit add metrics host
  2. Add をクリックします。
  3. 残りの Cockpit Ceph Installer の名前変更プロンプトを完了します。
  4. デプロイプロセスが完了したら、ページの右下隅にある Complete ボタンをクリックします。これにより、ceph status コマンドの出力と Dashboard のアクセス情報を表示するウィンドウが開きます。

    Complete button
  5. Ceph Cluster Status ウィンドウ下部に、URL、ユーザー名、パスワードなど、Dashboard のアクセス情報が表示されます。この情報を書き留めておいてください。

    Ceph Cluster Status window

2.2. Ansible を使用したダッシュボードのインストール

ダッシュボードは、ceph-ansible RPM が提供する Ansible Playbook を使用して Red Hat Ceph Storage をインストールする際にデフォルトでインストールされます。

前提条件

  • 完全な前提条件は 『インストールガイド』を参照してください。この手順では、ダッシュボードのインストールに関連する手順のみを強調しています。

手順

  1. その下でノードが定義された [grafana-server] グループが Ansible インベントリーファイルに存在することを確認します。Grafana と Prometheus がこのノードにインストールされている。

    [root@jb-ceph4-admin ~]# grep grafana-server -A 1 /etc/ansible/hosts
    [grafana-server]
    jb-ceph4-mon
  2. Ansible Playbook の all.yml で、Dashboard_enabled:False に設定されていないことを確認します。デフォルト設定が True を示すコメントがなければなりません。

    [root@jb-ceph4-admin ~]# grep "dashboard_enabled" /usr/share/ceph-ansible/group_vars/all.yml
    #dashboard_enabled: True
  3. インストールガイドe』で説明されているように、Ceph をインストールするために必要な残りの手順を実施します。
  4. ベアメタルのインストール用に ansible-playbook site.yml を実行した後、コンテナーインストールの場合は ansible-playbook site-docker.yml を実行すると、Ansible によりダッシュボードのアクセス情報が出力されます。Playbook 出力の最後にあるダッシュボードの URL、ユーザー名、およびパスワードを検索します。

    2019-12-13 15:31:17,871 p=11421 u=admin |  TASK [ceph-dashboard : print dashboard URL] ************************************************************
    2019-12-13 15:31:17,871 p=11421 u=admin |  task path: /usr/share/ceph-ansible/roles/ceph-dashboard/tasks/main.yml:5
    2019-12-13 15:31:17,871 p=11421 u=admin |  Friday 13 December 2019  15:31:17 -0500 (0:00:02.189)       0:04:25.380 *******
    2019-12-13 15:31:17,934 p=11421 u=admin |  ok: [jb-ceph4-mon] =>
      msg: The dashboard has been deployed! You can access your dashboard web UI at http://jb-ceph4-mon:8443/ as an 'admin' user with 'p@ssw0rd' password.

    出力 You can access your dashboard web UI at http://jb-ceph4-mon:8443/ as an 'admin' user with 'p@ssw0rd' password. を書き留めます。

注記

Ansible Playbook は以下を行います。

  • ceph-mgr の Prometheus モジュールを有効にします。
  • ceph-mgr でダッシュボードモジュールを有効にし、TCP ポート 8443 を開きます。
  • Prometheus の node_exporter デーモンをストレージクラスターの各ノードにデプロイします。

    • TCP ポート 9100 を開きます。
    • node_exporter デーモンを起動します。
  • Ansible インベントリーファイルの [grafana-server] の下にある Docker/systemd の下に Grafana および Prometheus コンテナーをデプロイします。

    • 各 Ceph ホストで実行している ceph-mgr ノードおよび node-exporters からデータを収集するように Prometheus を設定します。
    • TCP ポート 3000 を開きます。
    • Grafana にダッシュボード、テーマ、およびユーザーアカウントを作成します。
    • Ceph Dashboard のログインページの URL を表示します。

2.3. ネットワークポートの要件

Ceph ダッシュボードのコンポーネントは、アクセス可能である必要のある、特定の TCP ネットワークポートを使用します。デフォルトでは、Red Hat Ceph Storage のインストール時に、ネットワークポートは firewalld で自動的に開きます。

表2.1 TCP ポート要件

ポート使用方法発信元ノード送信先ノード

8443

ダッシュボードの Web インターフェース

Ceph Manager ノード。

Ceph ダッシュボード UI にアクセスする必要がある IP アドレス。

8443

ダッシュボードの Web インターフェース

Ceph ダッシュボード UI にアクセスする必要がある IP アドレス。

Ceph Manager ノード。

3000

Grafana

Ansible インベントリーファイルの [grafana-server] の下にあるノード。

Grafana ダッシュボード UI およびすべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

3000

Grafana

Grafana ダッシュボード UI およびすべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

Ansible インベントリーファイルの [grafana-server] の下にあるノード。

9090

基本的な Prometheus グラフ用のデフォルトの Prometheus サーバー

Ansible インベントリーファイルの [grafana-server] の下にあるノード。

Prometheus UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

9090

基本的な Prometheus グラフ用のデフォルトの Prometheus サーバー

Prometheus UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

Ansible インベントリーファイルの [grafana-server] の下にあるノード。

9092

基本的な Prometheus グラフ用の Prometheus サーバー

Ansible インベントリーファイルの [grafana-server] の下にあるノード。

Prometheus UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

9092

基本的な Prometheus グラフ用の Prometheus サーバー

Prometheus UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

Ansible インベントリーファイルの [grafana-server] の下にあるノード。

9093

Prometheus Alertmanager

Ansible インベントリーファイルの [grafana-server] の下にあるすべての Ceph Manager ノードおよびノード。

AlertManager Web UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

9093

Prometheus Alertmanager

AlertManager Web UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

Ansible インベントリーファイルの [grafana-server] の下にあるすべての Ceph Manager ノードおよびノード。

9094

複数のインスタンスから作成された可用性の高いクラスターを設定するための Prometheus Alertmanager

Ansible インベントリーファイルの [grafana-server] の下にあるすべての Ceph Manager ノードおよびノード。

AlertManager Web UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

9094

複数のインスタンスから作成された可用性の高いクラスターを設定するための Prometheus Alertmanager

AlertManager Web UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

Ansible インベントリーファイルの [grafana-server] の下にあるすべての Ceph Manager ノードおよびノード。

9100

Prometheus の node-exporter デーモン

MOS、OSDS、[grafana-server] ホストを含む、すべてのストレージクラスタノード。

Node Exporter メトリック Web UI およびすべての MGR ノード、および Grafana サーバーまたは Prometheus ホストを表示する必要がある IP アドレス。

9100

Prometheus の node-exporter デーモン

Node Exporter メトリック Web UI およびすべての MGR ノード、および Grafana サーバーまたは Prometheus ホストを表示する必要がある IP アドレス。

MOS、OSDS、[grafana-server] ホストを含む、すべてのストレージクラスタノード。

9283

Ceph Manager Prometheus エクスポーターモジュール

すべての Ceph Manager ノード。

Ceph Exporter メトリクス Web UI および Grafana サーバーまたは prometheus ホストへのアクセス権が必要な IP アドレス。

9283

Ceph Manager Prometheus エクスポーターモジュール

Ceph Exporter メトリクス Web UI および Grafana サーバーまたは prometheus ホストへのアクセス権が必要な IP アドレス。

すべての Ceph Manager ノード。

9287

Ceph iSCSI ゲートウェイデータ

すべての Ceph iSCSI ゲートウェイノード。

すべての MGR ホストと Grafana サーバーまたは Prometheus ホスト。

9287

Ceph iSCSI ゲートウェイデータ

すべての MGR ホストと Grafana サーバーまたは Prometheus ホスト。

すべての Ceph iSCSI ゲートウェイノード。

関連情報

2.4. ダッシュボードへのアクセス

ダッシュボードにアクセスすると、Red Hat Ceph Storage クラスターを管理および監視できます。

前提条件

  • Red Hat Ceph Storage Dashboard の正常なインストール
  • NTP はクロックを適切に同期しています。
注記

ノードが適切に同期されない場合に、ダッシュボードノード、クラスターノード、およびブラウザー間で時間ラグが発生する可能性があります。すべてのノードと、ブラウザーを実行するシステムが NTP によって同期されていることを確認します。デフォルトでは、Red Hat Ceph Storage をデプロイすると、Ansible は全ノードに NTP を設定します。確認するには、Red Hat Enterprise Linux 7 の場合は「ntpd を使用した NTP 設定」を参照してください。Red Hat Enterprise Linux 8 の場合は「Chrony スイートを使用した NTP の設定」を参照してください。別のオペレーティングシステムでブラウザーを実行する場合は、そのオペレーティングシステムのベンダーに NTP 設定情報を確認してください。

注記

Red Hat Ceph Storage で OpenStack Platform (OSP) を使用しているときに OSP Safe Mode を有効にする場合は、以下のいずれかの方法を使用します。Ansible で Ansible Playbook の group_vars/all.yml を編集し、dashboard_admin_user_ro: true を設定してから、ベアメタルまたはコンテナーデプロイメントのそれぞれ site.yml または site-container.yml に対して ansible-playbook を再実行します。ceph コマンドを使用して OSP Safe Mode を有効にするには、ceph dashboard ac-user-set-roles admin read-only を実行します。Ansible Playbook の ceph-ansible を実行しても変更が維持されるようにするには、group_vars/all.yml を編集して Dashboard_admin_user_ro: true を設定します。

手順

  1. Web ブラウザーに以下の URL を入力します。

    http://HOST_NAME:PORT

    以下を置き換えます。

    • HOST_NAME は、ダッシュボードノードのホスト名に置き換えます。
    • PORT は、ポート 8443 に置き換えます。

      以下に例を示します。

      http://dashboard:8443
  2. インストール時にパスワードを変更しなかった場合は、ログインページでユーザー名 admin とデフォルトパスワード p@ssw0rd を入力します。

    図2.1 Ceph Dashboard ログインページ

    Ceph Dashboard Login Page
  3. ログイン後、ダッシュボードのデフォルトランディングページが表示され、Red Hat Ceph Storage クラスターのステータス、パフォーマンス、および容量のメトリックの概要が提供されています。

    図2.2 Ceph Dashboard のデフォルトのランディングページ

    Ceph Dashboard Default Landing Page

2.5. Ansible を使用したダッシュボードパスワードの変更

デフォルトでは、ダッシュボードにアクセスするためのパスワードは p@ssw0rd に設定されます。

重要

セキュリティー上の理由から、インストール後にパスワードを変更します。

Ansible を使用してダッシュボードのパスワードを変更できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Ansible 管理ノードへのアクセス

手順

  1. Ansible Playbook ファイル /usr/share/ceph-ansible/group_vars/all.yml を開いて編集します。
  2. この行でコメント解除してパスワードを更新します。

    #dashboard_admin_password: p@ssw0rd

    これを以下に変更します。

    dashboard_admin_password: NEW_PASSWORD

    NEW_PASSWORD を、希望するパスワードに置き換えます。

  3. Ceph クラスターをデプロイまたは更新する Ansible Playbook ファイルを再実行します。

    1. ベアメタルのインストールには、Playbook の site.yml を使用します。

      [admin@admin ceph-ansible]$ ansible-playbook -v site.yml
    2. コンテナーのインストールには、Playbook の site-docker.yml を使用します。

      [admin@admin ceph-ansible]$ ansible-playbook -v site-docker.yml
  4. 新しいパスワードを使用してログインします。

2.6. ダッシュボードを使用したダッシュボードパスワードの変更

デフォルトでは、ダッシュボードにアクセスするためのパスワードは p@ssw0rd に設定されます。

重要

セキュリティー上の理由から、インストール後にパスワードを変更します。

ダッシュボードを使用してパスワードを変更するには、Ansible でダッシュボードのパスワード設定を変更して、Red Hat Ceph Storage クラスターの再設定に Ansible が使用されている場合は、パスワードがデフォルトのパスワードに戻らないようにします。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。

手順

  1. group_vars/all.yml ファイルでパスワードを更新し、Ansible を使用して Ceph クラスターを再設定する際にパスワードが p@ssw0rd にリセットされないようにします。

    1. Ansible Playbook ファイル /usr/share/ceph-ansible/group_vars/all.yml を開いて編集します。
    2. この行でコメント解除してパスワードを更新します。

      #dashboard_admin_password: p@ssw0rd

      これを以下に変更します。

      dashboard_admin_password: NEW_PASSWORD

      NEW_PASSWORD を、希望するパスワードに置き換えます。

  2. ダッシュボードの Web ユーザーインターフェースでパスワードを変更します。

    1. ダッシュボードにログインします。

      http://HOST_NAME:8443
    2. ツールバーの右上のダッシュボード設定アイコンをクリックして、User management をクリックします。

      user management
    3. Username テーブルで admin ユーザーを見つけ、admin をクリックします。

      user management
    4. テーブルタイトルの Username にある Edit ボタンをクリックします。
    5. 新しいパスワードを入力し、再入力して Edit User をクリックします。

      user management

      ログアウトし、ログイン画面が表示されます。パスワードの変更を確認する通知が表示されます。

  3. 新しいパスワードを使用して再度ログインします。

2.7. Ansible を使用した Grafana パスワードの変更

デフォルトでは、ダッシュボードで使用される Grafana のパスワードは admin に設定されます。以下の手順を使用してパスワードを変更します。

重要

セキュリティー上の理由から、パスワードをデフォルトから変更します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • クラスター内のすべてのノードへの root アクセス。

手順

  1. 必要に応じて、Grafana コンテナーが実行されているノードが分からない場合は、Ansible ホストファイル(通常は /etc/ansible/hosts にある)にある [grafana-server] に一覧表示されているノードを確認します。

    [grafana-server]
    grafana

  2. Grafana コンテナーが実行されているノードで、パスワードを変更します。

    構文

    podman exec CONTAINER_ID grafana-cli admin reset-admin-password --homepath "/usr/share/grafana" NEW_PASSWORD

    CONTAINER_ID を Grafana コンテナーの ID に変更します。NEW_PASSWORD を必要な Grafana パスワードに変更します。

    [root@grafana ~]# podman exec 3f28b0309aee grafana-cli admin reset-admin-password --homepath "/usr/share/grafana" NewSecurePassword
    t=2020-10-29T17:45:58+0000 lvl=info msg="Connecting to DB" logger=sqlstore dbtype=sqlite3
    t=2020-10-29T17:45:58+0000 lvl=info msg="Starting DB migration" logger=migrator
    
    Admin password changed successfully ✔

  3. Ansible 管理ノードで、ansible -vault を使用して Grafana パスワードを暗号化します。次に、暗号化されたパスワードを group_vars/all.yml に追加します。

    1. /usr/share/ceph-ansible/ ディレクトリーに移動します。

      [admin@admin ~]$ cd /usr/share/ceph-ansible/
    2. ansible-vault を実行して、新しい vault パスワードを作成します。

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:

    3. パスワードを再入力して確認します。

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:

    4. Grafana パスワードを入力し、入力し、CTRL+D を入力してエントリーを完了します。

      構文

      ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NEW_PASSWORD

      NEW_PASSWORD を、以前設定した Grafana パスワードに置き換えます。

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NewSecurePassword

    5. 次の手順で使用されるように、grafana_admin_password_vault: !vault | で始まり、数行の数字で終わる出力を書き留めます。

      [admin@admin ceph-ansible]$ ansible-vault encrypt_string --stdin-name 'grafana_admin_password_vault'
      New Vault password:
      Confirm New Vault password:
      Reading plaintext input from stdin. (ctrl-d to end input)
      NewSecurePassword
      grafana_admin_password_vault: !vault |
                $ANSIBLE_VAULT;1.1;AES256
                38383639646166656130326666633262643836343930373836376331326437353032376165306234
                3161386334616632653530383231316631636462363761660a373338373334663434363865356633
                66383963323033303662333765383938353630623433346565363534636434643634336430643438
                6134306662646365370a343135316633303830653565633736303466636261326361333766613462
                39353365343137323163343937636464663534383234326531666139376561663532
      Encryption successful

    6. group_vars/all.yml を編集し、上記からの出力をファイルに貼り付けます。

      grafana_admin_password_vault: !vault |
                $ANSIBLE_VAULT;1.1;AES256
                38383639646166656130326666633262643836343930373836376331326437353032376165306234
                3161386334616632653530383231316631636462363761660a373338373334663434363865356633
                66383963323033303662333765383938353630623433346565363534636434643634336430643438
                6134306662646365370a343135316633303830653565633736303466636261326361333766613462
                39353365343137323163343937636464663534383234326531666139376561663532

    7. 以下を使用して、暗号化されたパスワードの下に行を追加します。

      grafana_admin_password: "{{ grafana_admin_password_vault }}"

      注記

      上記のように 2 つの変数を使用する必要があります。これは、Ansible のバグ が原因で、vault 値を直接 Ansible 変数に割り当てる時に、文字列のタイプが破損するためです。

    8. ファイルを保存してから閉じます。
  4. ansible-playbook を再実行します

    1. コンテナーベースのデプロイメントの場合:

      [admin@node1 ceph-ansible]$ ansible-playbook -v site-container.yml -i hosts

      -i ホストは、デフォルトの Ansible ホストファイルの場所 /etc/ansible/hosts を使用しない場合にのみ必要となることに注意してください。

    2. ベアメタルの場合、RPM ベースのデプロイメント:

      [admin@node1 ceph-ansible]$ ansible-playbook -v site.yml -i hosts

      -i ホストは、デフォルトの Ansible ホストファイルの場所 /etc/ansible/hosts を使用しない場合にのみ必要となることに注意してください。

2.8. Dashboard に Red Hat Single Sign-On を使用したユーザーの同期

管理者は、LDAP(Lightweight Directory Access Protocol)統合を備えた Red Hat Single Sign-on(SSO)を使用して Red Hat Ceph Storage Dashboard のユーザーにアクセスすることができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ユーザーをダッシュボードに追加しておく。
  • すべてのノードでの root レベルのアクセス。
  • Red hat Single Sign-On をZIP ファイルからインストールしておく。詳細は、「Zip ファイルからの Red Hat Single Sign-On のインストール」を参照してください。

手順

  1. Red Hat Ceph ストレージがインストールされているシステムに Red Hat Single Sign-On 7.4.0 サーバー をダウンロードします。
  2. フォルダーを展開します。

    [root@cephuser]# unzip rhsso-7.4.0.zip
  3. standalone/configuration ディレクトリーに移動し、standalone.xml を開いて編集します。

    [root@cephuser]# cd standalone/configuration
    [root@cephuser configuration]# vi standalone.xml
  4. localhost の 3 つのインスタンスと 127.0.0.1 の 2 つのインスタンスを、Red Hat Single Sign-On がインストールされているマシンの IP アドレスに置き換えます。
  5. オプション: Red Hat Enterprise Linux 8 の場合には、認証局 (CA) の問題が発生する可能性があります。カスタム証明書を CA からインポートし、正確な java バージョンでキーストアに移動します。

    [root@cephuser]# keytool -import -noprompt -trustcacerts -alias ca -file ../ca.cer -keystore /etc/java/java-1.8.0-openjdk/java-1.8.0-openjdk-1.8.0.272.b10-3.el8_3.x86_64/lib/security/cacert

  6. rh-sso-7.4 フォルダーの bin ディレクトリーからサーバーを起動するには、standalone ブートスクリプトを実行します。

    [root@cephuser bin]# ./standalone.sh
  7. http:_IP_ADDRESS_:8080/auth にユーザー名とパスワードで管理者アカウントを作成します。

    Create Admin User
    注記

    管理コンソールへの初回ログイン時にのみ管理者アカウントを作成する必要があります。

  8. 作成した認証情報を使用して、管理コンソールにログインします。

    Admin Console
  9. レルムを作成するには、Master ドロップダウンをクリックします。このレルムでは、管理者はユーザーとアプリケーションへのアクセスを提供します。

    Add realm drop-down
  10. Add Realm ウィンドウでレルム の名前を入力し、パラメーター Enabled を ON に設定し、Create をクリックします。

    Add realm window
    注記

    レルム名は大文字と小文字を区別します。

  11. Realm Settings タブで以下のパラメーターを設定し、Save をクリックします。

    1. enabled - ON
    2. ユーザー管理アクセス: ON
    3. SAML 2.0 Identity Provider Metadata のリンクアドレスをコピーします。

      Add realm settings window
  12. Clients タブで、Create をクリックします。

    Add client
  13. Add Client ウィンドウで以下のパラメーターを設定し、Save をクリックします。

    1. Client ID - BASE_URL:8443/auth/saml2/metadata

      https://magna082.ceph.redhat.com:8443/auth/saml2/metadata

    2. Client Protocol - saml

      Add client window
  14. Clients ウィンドウで Settings タブで以下のパラメーターを設定し、Save をクリックします。

    1. Client ID - BASE_URL:8443/auth/saml2/metadata

      https://magna082.ceph.redhat.com:8443/auth/saml2/metadata

    2. enabled - ON
    3. Client Protocol - saml
    4. include AuthnStatement - ON
    5. Sign Documents: ON
    6. 署名アルゴリズム: RSA_SHA1
    7. SAML 署名キー名 - KEY_ID
    8. 有効なリダイレクト URL - BASE_URL:8443/*

      https://magna082.ceph.redhat.com:8443/*

    9. ベース URL - BASE_URL:8443

      https://magna082.ceph.redhat.com:8443/

    10. マスター SAML Processing URL - http://localhost:8080/auth/realms/REALM_NAME/protocol/saml/descriptor

      http://localhost:8080/auth/realms/Ceph_LDAP/protocol/saml/descriptor

      注記

      Realm Settings タブから SAML 2.0 Identity Provider Metadata のリンクを貼り付けます。

      Fine Grain SAML Endpoint 設定下で、パラメーターを設定します。

    11. アサーションコンシューマーサービス POST バインディング URL - BASE_URL:8443/#/dashboard

      https://magna082.ceph.redhat.com:8443/#/dashboard

    12. アサーションコンシューマーサービスリダイレクトバインディング URL - BASE_URL:8443/#/dashboard

      https://magna082.ceph.redhat.com:8443/#/dashboard

    13. logout Service Redirect Binding URL - BASE_URL:8443/

      https://magna082.ceph.redhat.com:8443/

      Client mappers upperpane
      Client mappers lowerpane
  15. Clients ウィンドウで Mappers タブで、以下のパラメーターを設定し、Save をクリックします。

    1. プロトコル - saml
    2. name: username
    3. マッパープロパティー: ユーザープロパティー
    4. property - username
    5. SAML 属性名 - ユーザー名

      Add Client Mappers
  16. Clients Scope タブで role_list を選択します。

    1. Mappers タブで ロール一覧 を選択し、Single Role Attribute を ON に設定します。

      Add client role list
  17. User_Federation タブを選択します:

    1. User Federation ウィンドウで、ドロップダウンから ldap を選択します。

      Add ldap as provider
  18. User_Federation ウィンドウで Settings タブで以下のパラメーターを設定し、Save をクリックします。

    1. コンソール表示名 - rh-ldap
    2. ユーザーのインポート - ON
    3. Edit_Mode - READ_ONLY
    4. ユーザー名 LDAP 属性: ユーザー名
    5. RDN LDAP 属性 - ユーザー名
    6. UUID LDAP 属性 - nsuniqueid
    7. ユーザーオブジェクトクラス - inetOrgPerson、organizationPerson、rhatPerson
    8. 接続 URL - ldap:://myldap.example.com

      ldap://ldap.corp.redhat.com

      Test Connection をクリックします。

      LDAP Test Connection

      LDAP 接続が正常に行われたことを示す通知が表示されます。

    9. ユーザー DN - ou=users, dc=example, dc=com

      ou=users,dc=redhat,dc=com

    10. bind Type: simple

      User Federation Upperpane
      User Federation Lowerpane
    11. Test authentication をクリックします。

      LDAP Test Authentication

      LDAP 認証が正常に行われたことを示す通知が表示されます。

  19. Mappers タブで First name row を選択し、以下のパラメーターを編集し、Save をクリックします。

    1. LDAP 属性 - givenName

      User Federation Mappers tab
      User Federation Mappers window
  20. User_Federation タブで 設定 タブで、全ユーザーの同期 をクリックします。

    User Federation Synchronize

    ユーザーの同期が正常に更新されたことを示す通知が表示されます。

    User Federation synchronize notification
  21. Users タブで、ダッシュボードに追加したユーザーを検索し、検索 アイコンをクリックします。

    User search tab
  22. ユーザーを表示するには、その行をクリックします。ユーザーフェデレーション に提供される名前にフェデレーションリンクが表示されるはずです。

    User details
    重要

    手動でユーザーを追加しないでください。手動で追加した場合は、Delete をクリックしてユーザーを削除します。

  23. レルムに追加され、ダッシュボードはそのメールアドレスおよびパスワードを使用して Ceph ダッシュボードにアクセスできます。

    https://magna082.ceph.redhat.com:8443

    Dashboard link

関連情報

  • Dashboard にユーザーを追加する場合には、『Red Hat Ceph Storage Dashboard Guide』の「 Creating users on dashboard 」セクションを参照してください。
  • Dashboard でユーザー用のロールを追加する場合は、『Red Hat Ceph Storage Dashboard Guide』 の「 Creating roles on dashboard 」セクションを参照してください。

2.9. Ceph Dashboard のシングルサインオンの有効化

Ceph Dashboard は、Security Assertion Markup Language (SAML) プロトコルを使用したユーザーの外部認証をサポートします。Ceph ダッシュボードにシングルサインオン (SSO) を使用する前に、ダッシュボードのユーザーアカウントを作成して必要なロールを割り当てます。Ceph Dashboard はユーザーの承認を実行し、認証プロセスは既存のアイデンティティープロバイダー (IdP) によって実行されます。Red Hat は、Keycloak を使用してダッシュボードの SSO 機能をテストします。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Ceph Dashboard ソフトウェアのインストール
  • Dashboard を起動します。
  • Ceph Manager ノードへのルートレベルのアクセス。
  • 以下のライブラリーパッケージを Ceph Manager ノードにインストールします。

    • python3-saml
    • python3-defusedxml
    • python3-isodate
    • python3-xmlsec

手順

  1. Ceph Dashboard で SSO を設定するには、以下のコマンドを実行します。

    1. ベアメタル デプロイメント:

      構文

      ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

      [root@mon ~]# ceph dashboard sso setup saml2 http://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username http://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    2. コンテナー デプロイメント:

      構文

      podman exec CEPH_MGR_NODE ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

      [root@mon ~]# podman exec ceph-mgr-hostname ceph dashboard sso setup saml2 http://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username http://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    置き換え

    • Ceph mgr ノードを使用した CEPH_MGR_NODE。例: ceph-mgr-hostname
    • CEPH_DASHBOARD_BASE_URL は、Ceph Dashboard にアクセスできるベース URL に置き換えます。
    • IDP_METADATA は、リモートパスまたはローカルパス、または IdP メタデータ XML の内容への URL に置き換えます。サポートされる URL タイプは http、https、およびファイルです。
    • 任意: IDP_USERNAME_ATTRIBUTE は、認証応答からユーザー名を取得するために使用される属性に置き換えます。デフォルトは uid です。
    • 任意: IDP_ENTITY_ID は、IdP メタデータに複数のエンティティー ID が存在する場合は IdP エンティティー ID に置き換えます。
    • 任意: SP_X_509_CERT は、署名および暗号化に Ceph Dashboard によって使用される証明書のファイルパスに置き換えます。
    • 任意: SP_PRIVATE_KEY は、署名および暗号化に Ceph Dashboard によって使用される秘密鍵のファイルパスに置き換えます。
  2. 現在の SAML 2.0 設定を確認します。

    1. ベアメタル デプロイメント:

      構文

      ceph dashboard sso show saml2

    2. コンテナー デプロイメント:

      構文

      podman exec CEPH_MGR_NODE ceph dashboard sso show saml2

  3. SSO を有効にするには、以下のコマンドを実行します。

    1. ベアメタル デプロイメント:

      構文

      ceph dashboard sso enable saml2
      SSO is "enabled" with "SAML2" protocol.

    2. コンテナー デプロイメント:

      構文

      podman exec CEPH_MGR_NODE ceph dashboard sso enable saml2
      SSO is "enabled" with "SAML2" protocol.

  4. ダッシュボードの URL を開きます。以下に例を示します。

    http://dashboard_hostname.ceph.redhat.com:8443
  5. SSO ページで、ログインの認証情報を入力します。SSO はダッシュボードの Web インターフェースにリダイレクトされます。

関連情報

2.10. Ceph Dashboard のシングルサインオンの無効化

Ceph Dashboard のシングルサインオンを無効にできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Ceph Dashboard ソフトウェアのインストール
  • Dashboard を起動します。
  • Ceph Manager ノードへのルートレベルのアクセス。
  • Ceph Dashboard で有効になっているシングルサインオン
  • 以下のライブラリーパッケージを Ceph Manager ノードにインストールします。

    • python3-saml
    • python3-defusedxml
    • python3-isodate
    • python3-xmlsec

手順

  1. SSO の状態を表示するには、以下のコマンドを実行します。

    1. ベアメタル デプロイメント:

      構文

      ceph dashboard sso status
      SSO is "enabled" with "SAML2" protocol.

    2. コンテナー デプロイメント:

      構文

      podman exec CEPH_MGR_NODE ceph dashboard sso status
      SSO is "enabled" with "SAML2" protocol.

      置き換え

      • Ceph mgr ノードを使用した CEPH_MGR_NODE。例: ceph-mgr-hostname
  2. SSO を無効にするには、以下のコマンドを実行します。

    1. ベアメタル デプロイメント:

      構文

      ceph dashboard sso disable
      SSO is "disabled".

    2. コンテナー デプロイメント:

      構文

      podman exec CEPH_MGR_NODE ceph dashboard sso disable
      SSO is "disabled".

      置き換え

      • Ceph mgr ノードを使用した CEPH_MGR_NODE。例: ceph-mgr-hostname

関連情報

第3章 ダッシュボードでのロールの管理

ストレージ管理者は、ダッシュボードでロールを作成、表示、編集、および削除することができます。ロールにパーミッションを付与でき、ユーザーに特定のロールを割り当てることができます。

3.1. ダッシュボードでのロールの作成

ダッシュボードでは、ユーザーに割り当て可能なダッシュボードでロールを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. Roles タブで、Create ボタンをクリックします。

    Create roles
  4. CreateRole ウィンドウで Name を設定し、このロールの Permissions を選択してから CreateRole ボタンをクリックします。

    Create role window
  5. ページの右上隅に対する通知は、ロールが正常に作成されたことを示します。

    Role create notification

3.2. ダッシュボードでのロールの表示

ダッシュボードでは、ダッシュボード上のロールの詳細を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者アクセスレベル。
  • ロールがダッシュボードに作成されている。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. ロールの詳細を表示するには、その行をクリックします。

    Click role row
  4. ロールに提供されるパーミッションの詳細が表示されます。

    View role details

関連情報

3.3. ダッシュボードでのロールの編集

ダッシュボードでは、ダッシュボードのロールを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードでロールが作成されます。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. ロールを編集するには、行をクリックします。

    Click role row
  4. Roles タブで、Edit ドロップダウンメニューの Edit を選択します。

    Edit role
  5. EditRole ウィンドウで、が含まれるパラメーターを編集して、EditRole ボタンをクリックします。

    Edit role window
  6. ページの右上隅に対する通知は、ロールが正常に更新されたことを示します。

    Edit role notification

関連情報

3.4. ダッシュボード上のロールの削除

ダッシュボードで、ダッシュボードのロールを削除できます。

注記

削除できるのは、作成したロールのみです。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードでロールが作成されます。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. ロールを削除するには、行をクリックします。

    Click role row
  4. Roles タブで、Edit ドロップダウンメニューの Delete を選択します。

    Delete role
  5. Delete Role ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete Role をクリックして設定を保存します。

    Delete role window

関連情報

第4章 ダッシュボードでのユーザーの管理

ストレージ管理者は、ダッシュボードでユーザーを作成、編集、および削除できます。

4.1. ダッシュボードでのユーザーの作成

ダッシュボードで、ダッシュボードにユーザーを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
注記

Red Hat Ceph Storage Dashboard は、ユーザーパスワードの変更時に電子メールの検証をサポートしません。Dashboard はシングルサインオン (SSO) をサポートし、この機能を SSO プロバイダーに委譲できるため、この動作は意図的です。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. Users タブで Create ボタンをクリックします。

    Create user
  4. CreateUser ウィンドウで、ロールを含む Username およびその他のパラメーターを設定し、CreateUser ボタンをクリックします。

    Create user window
  5. ページの右上隅に対する通知は、ユーザーが正常に作成されたことを示しています。

    User create notification

関連情報

4.2. ダッシュボードでのユーザーの編集

ダッシュボードでは、ダッシュボードのユーザーを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードで作成したユーザー。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. ユーザーを編集するには、行をクリックします。

    Click user row
  4. Users タブで、Edit ドロップダウンメニューで Edit を選択します。

    Edit user
  5. EditUser ウィンドウで、が含まれるパラメーターを編集して、EditUser ボタンをクリックします。

    Edit user window
  6. ページの右上隅に対する通知は、ユーザーが正常に更新されたことを示しています。

    User edit notification

関連情報

4.3. ダッシュボードでのユーザーの削除

ダッシュボードで、ダッシュボードのユーザーを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードで作成したユーザー。

手順

  1. Dashboard にログインします。
  2. Dashboard の右上にある歯車アイコンをクリックして、ユーザー管理 を選択します。

    Click User management
  3. ユーザーを削除するには、行をクリックします。

    Click user row
  4. Users タブで、Edit ドロップダウンメニューの Delete を選択します。

    Delete user
  5. Delete User ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete user をクリックし、設定を保存します。

    Delete user window

関連情報

第5章 クラスターの監視

ダッシュボードの監視機能は、ストレージクラスターのさまざまな側面を示すために定期的に更新するさまざまな Web ページを提供します。ランディングページを使用してクラスターの全体的な状態を監視したり、ブロックデバイスイメージの状態など、クラスターの特定の機能を監視したりできます。

5.1. ランディングページへのアクセス

ダッシュボードにログインすると、ランディングページが読み込まれます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

手順

  1. Dashboard にログインします。

    Log in prompt
  2. ダッシュボードにログインすると、ランディングページが読み込まれます。

    Landing page
  3. 他のダッシュボードページを表示した後にランディングページに戻るには、ページの左上隅にある Dashboard をクリックします。

    Dashboard link

関連情報

5.2. ランディングページについて

ランディングページには、個別のパネルを使用した Ceph クラスター全体の概要が表示されます。各パネルに、クラスターの状態に関する具体的な情報が表示されます。

カテゴリー

ランディングページでは、パネルが以下の 3 つのカテゴリーに分けられます。

  1. 状態
  2. 容量
  3. パフォーマンス
Ceph Dashboard landing page

Status パネル

ステータスパネルには、クラスターの状態とホストおよびデーモンの状態が表示されます。

Status panels

クラスターの状態: Ceph クラスターの現在の健常性ステータスを表示します。

ホスト: Ceph Storage クラスターのホストの合計数を表示します。

監視: Ceph Monitor の数およびクォーラムのステータスを表示します。

OSDs: Ceph Storage クラスターの OSD の合計数と、up および in の数を表示します。

マネージャー: Manager Daemon の数およびステータスを表示します。

オブジェクトゲートウェイ: Ceph Storage クラスターのオブジェクトゲートウェイの数を表示します。

メタデータサーバー: Ceph ファイルシステムのメタデータサーバーの数およびステータスを表示します。

iSCSI ゲートウェイ: Ceph ストレージクラスター内の iSCSI ゲートウェイの数を表示します。

容量パネル

容量パネルには、ストレージ使用状況のメトリックが表示されます。

Capacity panels

Raw 容量: クラスターの raw ストレージ容量の使用状況および可用性を表示します。

オブジェクト: プール内のオブジェクトの合計数と、オブジェクトを HealthyMisplacedDegraded、または Unfound の状態に分割するグラフを表示します。

PG ステータス: 配置グループの合計数と、PG を CleanWorkingWarning、または Unknown の状態に分割するグラフを表示します。PG ステータスの Working および Warning の表示を簡素化するために、実際には複数の状態が含まれます。

Working の状態には、以下のいずれかの状態の PG が含まれます。

  • activating
  • backfill_wait
  • backfilling
  • creating
  • deep
  • degraded
  • forced_backfill
  • forced_recovery
  • peering
  • peered
  • recovering
  • recovery_wait
  • repair
  • scrubbing
  • snaptrim
  • snaptrim_wait

Warning の状態には、以下のいずれかの状態の PG が含まれます。

  • backfill_toofull
  • backfill_unfound
  • down
  • incomplete
  • inconsistent
  • recovery_toofull
  • recovery_unfound
  • remapped
  • snaptrim_error
  • stale
  • undersized

プール: Ceph クラスター内のストレージプールの数を表示します。

OSD ごとの PG: OSD ごとの配置グループ数を表示します。

パフォーマンスパネル

パフォーマンスパネルには、データ転送速度に関する情報が表示されます。

Cluster Performance Panels

クライアントの読み取り/書き込み: 1 秒あたりの入出力操作の合計、読み取り、および書き込みを表示します。

クライアントのスループット: クライアントスループット、読み取りスループット、書き込みスループットを表示します。

リカバリーのスループット: クライアントのリカバリー速度を表示します。

スクラビング: データの整合性を確認するために Ceph がスクラビングしているかどうかを表示します。

関連情報

第6章 特定の機能の監視

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して、ホスト、サービス、データアクセスメソッドなどに基づいてクラスターの特定の要素を監視できます。

6.1. モニターの監視

Red Hat Ceph Storage Dashboard では、Monitor ノードに関するさまざまな情報を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Cluster をクリックし、Monitors をクリックします
  3. Monitors 概要ページには、全体的な監視ステータスに関する情報と、Monitor ノード in Quorum および Not in quorum のテーブルが表示されます。

    Monitors overview
  4. 開いているセッションの数を確認するには、青い点線のトレイルにカーソルを合わせます。

    Open sessions
  5. モニターのパフォーマンスカウンターを表示するには、ホスト名をクリックします。

    Click Monitor host name
  6. パフォーマンスカウンターを表示します。

    Monitor performance counters

関連情報

6.2. ホストの監視

Red Hat Ceph Storage Dashboard では、ホストに関するさまざまな情報を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Cluster をクリックし、Hosts をクリックします。
  3. ホストの一覧を表示するには、Hosts List タブをクリックします。

    Hosts List
  4. ホストの パフォーマンスの詳細 を表示するには、Host タブでその行をクリックし、Grafana Time Picker ドロップダウンメニューから時間の範囲を選択します。

    Host Performance Details
  5. ホスト上の特定サービスのパフォーマンスカウンターを表示するには、サービスをクリックします。

    Click Host service
  6. パフォーマンスカウンターを表示します。

    Host performance counters
  7. すべてのホストのパフォーマンスデータを表示するには、次を実行します。

    1. ページの左上にある Overall Performance タブをクリックします。

      Click host overall performance
    2. Grafana Time Picker ドロップダウンから時間の範囲を選択します。

      Host Performance Grafana drop-down
    3. Overall Performance ページを表示します。

      Host Overall Performance

関連情報

6.3. OSD のモニタリング

Red Hat Ceph Storage Dashboard では、OSD に関するさまざまな情報を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Cluster をクリックし、OSD をクリックします。
  3. OSD の一覧を表示するには、OSDs List タブをクリックします。

    OSDs List
  4. OSD の属性を表示するには、OSDS List タブでその行をクリックします。

    OSD Attributes
  5. OSD のメタデータを表示するには、OSDs タブでその行をクリックし、Metadata タブをクリックします。

    OSD Metadata
  6. OSD のパフォーマンスカウンターを表示するには、OSDs タブでその行をクリックし、Performance counter タブをクリックします。

    OSD Performance Counter
  7. OSD のヒストグラムを表示するには、OSDs タブでその行をクリックし、Histogram タブをクリックします。

    OSD Histogram
  8. OSD のパフォーマンス情報を表示するには、以下を実行します。

    1. OSDs タブでその行をクリックし、Performance Details タブをクリックします。

      Click OSD Performance details
    2. Grafana Time Picker ドロップダウンメニューから時間の範囲を選択します。

      OSD Performance Grafana drop-down
    3. OSD のパフォーマンス情報を表示します。

      View OSD Performance details
  9. すべての OSD の全体的なパフォーマンスを表示するには、以下を実行します。

    1. ページの左上にある「Overall Performance」 タブをクリックします。

      Click OSDs overall performance
    2. Grafana Time Picker ドロップダウンから時間の範囲を選択します。

      OSDs Performance Grafana drop-down
  10. Overall Performance ページを表示します。

    OSDs Overall Performance

関連情報

6.4. プールの監視

Red Hat Ceph Storage Dashboard では、クラスター内のプールに関するさまざまな情報を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools をクリックします。

    Pools menu selection
  3. プールの一覧を表示します。

    Pools list
  4. 使用状況バーグラフの上にマウスをかざすと、実際に使用されている領域および空き領域が表示されます。

    Pool usage details
  5. プールに関する詳細情報を表示するには、行をクリックしてそのプールを選択します。

    Click a pool row
  6. プールの詳細を表示します。プールのパフォーマンスの詳細および設定データを表示するには、関連するタブをクリックします。

    Pool details
  7. すべてのプールのパフォーマンスデータを表示するには、ページの左上にある Overall Performance タブをクリックします。

    Click overall performance
  8. Overall Performance ページを表示します。

    Overall Performance page

関連情報

6.5. Ceph ファイルシステムの監視

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph File Systems (CephFS) および関連するコンポーネントを監視することができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph File System がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Filesystems をクリックします。

    Click Filesystems
  3. 以下の例では、cephfs ファイルシステムを確認できます。

    View filesystems
  4. ファイルシステムの詳細を表示するには、cephfs の行をクリックします。

    Click cephfs
  5. Details タブでは、メタデータサーバーとそのランクに加えて、スタンバイデーモン (1)、プールとその使用状況 (2)、パフォーマンスカウンター (3) を確認できます。

    CephFS details tab
  6. ファイルシステムをマウントしたクライアントの一覧を表示するには、Clients タブをクリックします。

    Click Clients
  7. 以下の例では、jb-ceph4-client ホストで cephfs ファイルシステムが開いていることがわかります。

    Clients table
  8. ファイルシステムのパフォーマンスを表示するには、Performance Details タブをクリックします。

    Click Performance Details
  9. 以下の例では、読み取りおよび書き込み操作 (1)、クライアントリクエスト (2) で確認できます。時間の範囲は 3 で変更できます。

    Performance Details

関連情報

6.6. イメージの全パフォーマンスの監視

Red Hat Ceph Storage Dashboard により、Blocks 内のイメージの全体的なパフォーマンスを監視できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • RADOS Block Device (RBD) プールが作成されている。
  • イメージが作成されている。
  • Manager モジュール Prometheus エクスポーターがプールに対して有効になります。

    図6.1 例

    Enable Prometheus module

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. Overall Performance タブを選択します。

    Overall performance tab
  5. Grafana Time Picker ドロップダウンから時間の範囲を選択します。

    Images Performance Grafana drop-down
  6. Overall Performance ページを表示します。

    Images Overall Performance

第7章 クラスターの管理

7.1. クラスターの管理

ダッシュボードの管理機能により、構成設定を表示および変更し、クラスターリソースを管理することができます。

7.2. CRUSH マップの表示

CRUSH マップには、OSD および関連情報の一覧が含まれます。CRUSH マップおよび CRUSH アルゴリズムが一緒になって、データの保存方法と場所を決めます。Red Hat Ceph Storage ダッシュボードでは、OSD ホスト、OSD デーモン、ID 番号、デバイスクラスなど、CRUSH マップのさまざまな側面を確認することができます。

CRUSH マップを使用すると、特定の OSD ID が実行しているノードを決定できます。これは、OSD に問題がある場合に便利です。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Cluster をクリックします。
  3. CRUSH map をクリックします。

    CRUSH Map initial view

    上記の例では、デフォルトの CRUSH マップ、3 つのノード、および OSD が 3 つあるノードのうち 2 つで実行されているのを確認できます。

  4. CRUSH マップ名、ノード、または OSD をクリックし、各オブジェクトの詳細を表示します。

    CRUSH Map detail view

    上記の例では、jb-rhel-osd3 ノードで実行している OSD に関連する変数の値を確認できます。特に、id2 であることに注意してください。

関連情報

7.3. マネージャーモジュールの設定

Red Hat Ceph Storage ダッシュボードでは、マネージャーモジュールパラメーターの表示および設定を行うことができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Cluster をクリックします。
  3. Manager モジュール をクリックします。

    Manager modules initial view

    上記のスクリーンショットは、3 ページのマネージャーモジュールの最初のページを表示します。

  4. 設定するモジュールの行をクリックします。

    Manage modules edit button

    すべてのモジュールに設定可能なパラメーターがあるわけではありません。モジュールが設定できない場合、Edit ボタンは無効になります。

  5. ページの左上にある Edit ボタンをクリックして、設定可能なパラメーターでページを読み込みます。

    Manager module balancer parameters

    上記のスクリーンショットは、バランサーモジュールで変更できるパラメーターを示しています。パラメーターの説明を表示するには、クエスチョンマークボタンをクリックします。

  6. パラメーターを変更するには、パラメーターの状態を変更し、ページ下部の Update ボタンをクリックします。

    Manager module update button

    変更を確認する通知は、ページの右上隅に表示されます。

    Manager module updated options notification

関連情報

7.4. ログのフィルタリング

Red Hat Ceph Storage Dashboard では、複数の基準に基づくログの表示および絞り込みを行うことができます。条件には、優先度キーワード日付、および 時間の範囲 が含まれます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Monitor が最後に起動してからログエントリーが生成されている。
注記

Dashboard ロギング機能は最新の高レベルイベントのみを表示します。イベントは Monitor によってメモリーに保存されます。Monitor を再起動すると、エントリーが消えます。詳細なログまたは古いログを確認する必要がある場合は、ファイルベースのログを参照してください。ファイルベースのログの詳細は、以下の「関連情報」を参照してください。

手順

  1. Dashboard にログインします。
  2. 上部ナビゲーションバーの Cluster ドロップダウンメニューをクリックします。
  3. ドロップダウンメニューの Logs をクリックします。
  4. 最後にフィルターが適用されていないログエントリーを表示します。

    Unfiltered cluster logs.
    1. 優先度で絞り込むには、Priority ドロップダウンメニューをクリックし、InfoWarning、または Error のいずれかを選択します。以下の例は、Error の優先度のログエントリーのみを示しています。

      Filter by priority.
    2. キーワードで絞り込むには、Keyword フォームにテキストを入力します。以下の例は、osd.2 というテキストが含まれるログエントリーのみを示しています。

      Filter by keyword.
    3. 日付で絞り込むには、Date フォームをクリックし、メニューから日付を選択するか、YYYY-MM-DD の形式で日付を入力します。以下の例は、2019-10-15 のログエントリーのみを示しています。

      Filter by date.
    4. 時間で絞り込むには、HH:MM - HH:MM 形式を使用して Time range フィールドに範囲を入力します。時間は、数字 0 から 23 に入力する必要があります。以下の例は、12:14 から 12:23 へのログエントリーのみを示しています。

      Filter by time range.
    5. フィルターを組み合わせるには、2 つ以上のフィルターを設定します。以下の例は、Warning の優先順位と osd のキーワードの両方を持つエントリーのみを示しています。

      Combine filters.

関連情報

7.5. OSD リカバリー設定の構成

ストレージ管理者は、OSD リカバリーの優先度を変更し、クラスターの復旧方法をカスタマイズできます。これにより、クラスターの再ビルドのパフォーマンスまたはリカバリーの速度に影響を与える可能性もあります。

前提条件

  • Red Hat Ceph Storage クラスター
  • ダッシュボードがインストールされている。

手順

  1. ダッシュボードにログインします。
  2. 上部ナビゲーションバーの Cluster ドロップダウンメニューをクリックします。
  3. ドロップダウンメニューの OSD をクリックします。
  4. Cluster-Wide flagss ドロップダウンメニューをクリックします。

    Click the Cluster-Wide Flags drop-down.
  5. ドロップダウンで Cluster-wide Recovery Priority を選択します。

    Select Cluster-wide Recovery Priority.
  6. 必要に応じて、ドロップダウンメニューで Priority を選択し、Submit ボタンをクリックします。

    注記

    定義済みのオプションは、LowDefaultHigh の 3 つです。

    Default priority values
  7. 必要に応じて、Customize priority values をクリックして必要な変更を行い、Submit ボタンをクリックします。

    Customize priority values
  8. フラグが正常に更新されたことを示すポップアップの右上隅に対する通知。

    OSD recovery speed priority updated notification

関連情報

7.6. 設定の表示および監視

Red Hat Ceph Storage Dashboard では、Ceph クラスターの設定オプションの一覧を表示できます。Dashboard で設定を編集することもできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Cluster をクリックし、Configuration をクリックします。
  3. 設定の詳細を表示するには、その行をクリックします。

    Configuration details
    • Search ボックスを使用して設定を検索できます。

      Search Configuration
    • LevelService、または Source を使用して設定を絞り込むことができますのフィルターを設定できます。

      Filter Configuration
  4. 設定を編集するには、行をクリックして 編集 ボタンをクリックします。

    Edit Configuration
    1. ダイアログウィンドウで必要なパラメーターを編集し、Save ボタンをクリックします。

      Edit Configuration window

      変更を確認する通知は、ページの右上隅に表示されます。

      Edit Configuration notification

関連情報

7.7. Prometheus 環境の管理

Prometheus を使用して Ceph ストレージクラスターを監視するには、Prometheus エクスポーターを設定および有効にし、Ceph ストレージクラスターに関するメタデータ情報を収集できるようにします。

前提条件

  • 稼働中の Red Hat Ceph Storage 3.1 以降のクラスター。
  • Red Hat Ceph Storage Dashboard インストール
  • Red Hat Ceph Storage Dashboard ノードへのルートレベルのアクセス。

手順

  1. /etc/prometheus/prometheus.yml ファイルを開いて編集します。

    1. global セクションで、scrape_interval および evaluation_interval オプションを 15 秒に設定します。

      global:
        scrape_interval:     15s
        evaluation_interval: 15s

    2. scrape_configs セクションの下に honor_labels: true オプションを追加し、ceph-mgr ノードごとに targets オプションおよび instance オプションを編集します。

      scrape_configs:
        - job_name: 'node'
          honor_labels: true
          static_configs:
          - targets: [ 'node1.example.com:9100' ]
            labels:
              instance: "node1.example.com"
          - targets: ['node2.example.com:9100']
            labels:
              instance: "node2.example.com"

      注記

      honor_labels オプションを使用すると、Ceph は Ceph Storage クラスターの任意のノードに関連する適切にラベル付けされたデータを出力できます。これにより、Prometheus が上書きせずに Ceph は適切な instance ラベルをエクスポートできます。

    3. 新規ノードを追加するには、以下の形式で targets オプションおよび instance オプションを追加します。

      - targets: [ 'new-node.example.com:9100' ]
        labels:
          instance: "new-node"

      注記

      instance ラベルは、Ceph の OSD メタデータの instance フィールドに表示されるノードの短いホスト名と一致する必要があります。これにより、Ceph 統計をノードの統計と関連付けるのに役立ちます。

  2. 以下の形式で、Ceph ターゲットを /etc/prometheus/ceph_targets.yml ファイルに追加します。

    [
        {
            "targets": [ "cephnode1.example.com:9283" ],
            "labels": {}
        }
    ]

  3. Prometheus モジュールを有効にします。

    [root@mon ~]# ceph mgr module enable prometheus

7.8. アラートの表示および管理

ストレージ管理者は、アラートの詳細が表示され、Red Hat Ceph Storage ダッシュボードでアラートのサイレンスを作成できます。これには、以下の事前定義済みのアラートが含まれます。

  • OSD(s) Down
  • Ceph Health Error
  • Ceph Health Warning
  • Cluster Capacity Low
  • Disk(s) Near Full
  • MON(s) Down
  • Network Errors
  • OSD Host Loss Check
  • OSD Host(s) Down
  • OSD(s) with High PG Count
  • PG(s) Stuck
  • Pool Capacity Low
  • Slow OSD Responses

7.8.1. アラートの表示

アラートの発生後に、Red Hat Ceph Storage Dashboard でアラートを表示できます。また、ダッシュボードを有効にして、アラートについてのメールを送信することもできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードで アラート モジュールをカスタマイズし、ストレージクラスターのメールアラートを取得します。

    1. ナビゲーションバーで、Cluster をクリックします。
    2. Manager modules を選択します。
    3. alerts module を選択します。
    4. Edit ドロップダウンメニューで、Edit を選択します。
    5. Edit Manager モジュールでは、必要なパラメーターを更新して、Update をクリックします。

      図7.1 アラート用の Manager モジュールの編集

      Edit Manager module for alerts
  3. ナビゲーションバーで、Cluster をクリックします。
  4. ドロップダウンメニューから Monitoring を選択します。
  5. アラートの詳細を表示するには、その行をクリックします。

    図7.2 アラートの詳細

    Alert Details
  6. アラートのソースを表示するには、その行をクリックし、Source をクリックします。

7.8.2. サイレンスの作成

Red Hat Ceph Storage Dashboard で、指定の時間についてのアラートのサイレンスを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. アラートの行をクリックしてから、+ Create Silence をクリックします。
  5. CreateSilence ウィンドウで、Duration の詳細を追加し、Create Silence をクリックします

    図7.3 サイレンスを作成

    Create Silence
  6. サイレンスが正常に作成された通知を取得します。

7.8.3. サイレンスの再作成

Red Hat Ceph Storage Dashboard で、期限切れのサイレンスからサイレンスを再作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラート用に作成されたサイレンス。

手順

  1. ダッシュボードにログインします。
  2. ドロップダウンメニューから Monitoring を選択します。
  3. Silences タブをクリックします。
  4. 期限切れのサイレンスの行をクリックします。
  5. 再作成 ボタンをクリックします。
  6. RecreateSilence ウィンドウで、詳細を追加し、RecreateSilence をクリックします

    図7.4 再作成サイレンス

    Re-create Silence
  7. サイレンスが正常に再作成された通知を取得します。

7.8.4. サイレンスの編集

たとえば、アクティブなサイレンスを編集して、Red Hat Ceph Storage Dashboard でアクティブな時間を延長することができます。サイレンスが期限切れである場合、サイレンスを再作成するか、またはアラートの新規のサイレンスを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラート用に作成されたサイレンス。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. サイレンスの行をクリックします。
  6. Edit ドロップダウンメニューで、Edit を選択します。
  7. EditSilence ウィンドウで、詳細を更新し、Edit Silence をクリックします。

    図7.5 サイレンスの編集

    Edit Silence
  8. サイレンスが正常に更新された通知を取得します。

7.8.5. サイレンスの終了

サイレンスが期限切れになる可能性があるため、一致するすべてのアラートは Red Hat Ceph Storage Dashboard で抑制されません。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラート用に作成されたサイレンス。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. サイレンスの行をクリックします。
  6. Edit ドロップダウンメニューで Expire を選択します。
  7. Expire Silence ダイアログボックスで、Yes、I am sure、および Expire Silence をクリックします。

    図7.6 サイレンスの期限切れ

    Expire Silence
  8. サイレンスが正常に期限切れになったことを示す通知を取得します。

7.8.6. 関連情報

7.9. プールの管理

ストレージ管理者は、プールを作成、削除、および編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。

7.9.1. プールの作成

プールを作成して、ストレージオブジェクトを論理的にパーティション分割できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools をクリックします。

    Click pools
  3. ページの左上隅にある Create ボタンをクリックします。

    Click create
  4. ダイアログウィンドウで、名前を設定します。

    Set name
  5. レプリケートまたはイレイジャーコード (EC) のいずれかのプールタイプを選択します。

    Select pool type
  6. 配置グループ (PG) 番号を設定します。

    Set PG number

    PG 番号の選択には、PG calculator を使用します。不明な場合は、Red Hat テクニカルサポート にお問い合わせください。

  7. 必要に応じて、レプリケートされたプールタイプを使用する場合は、レプリケートされたサイズを設定します。

    Replicated size
  8. 必要に応じて、EC プールタイプを使用する場合には、以下の追加設定を設定します。

    1. 必要に応じて、現在選択されている EC プロファイルの設定を確認するには、クレスチョンマークをクリックします。

      EC profile setttings
      1. 選択した EC プロファイルの設定の表が表示されます。

        EC profile table
    2. 必要に応じて、プラス記号をクリックして、新しい EC プロファイルを追加します。

      Click the plus symbol
      1. 新しい EC プロファイルの名前を設定 (1) し、その設定に関する情報のクエスチョンマークをクリック (2) して、必要な設定をすべて変更したら Create EC Profile をクリック (3) します。

        EC profile dialog
      2. 新しい EC プロファイルを選択します。

        Select new EC profile
    3. 必要に応じて、EC の上書きが必要な場合は、そのボタンをクリックします。

      EC overwites
  9. 必要に応じて、鉛筆記号をクリックして、プールのアプリケーションを選択します。

    Select appliation type
  10. 必要に応じて、圧縮が必要な場合は、passiveaggressive、または force を選択します。

    Compression selection
  11. Create Pool ボタンをクリックします。

    Click Create Pool
  12. ページの右上隅に対する通知は、プールが正常に作成されたことを示しています。

    Pool created notification

関連情報

7.9.2. プールの編集

Red Hat Ceph Storage Dashboard では、プールの編集が可能です。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools をクリックします。

    Click Pools menu
  3. プールを編集するには、その行をクリックします。

    Click pool
  4. Edit ドロップダウンメニューで Edit を選択します。

    Click Edit
  5. ダイアログウィンドウで必要なパラメーターを編集し、EditPool ボタンをクリックします。

    Edit pool window
  6. ページの右上隅に対する通知は、プールが正常に更新されたことを示します。

    Pool edit notification

関連情報

  • 詳細は、『Red Hat Ceph Storage アーキテクチャーガイド』「Ceph プール」を参照してください。
  • 圧縮モードの詳細は、『Red Hat Ceph Storage ストレージ戦略ガイド』「プール値」を参照してください。

7.9.3. プールの削除

Red Hat Ceph Storage Dashboard ではプールの削除が可能です。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. mon_allow_pool_delete の値が true に設定されていることを確認します。

    1. ナビゲーションバーで Cluster をクリックし、Configuration をクリックします。
    2. Level ドロップダウンメニューで、Advanced を選択します。

      Click Levels drop-down
    3. mon_allow_pool_delete を検索し、値を true に設定します。

      Edit Configuration
  3. ナビゲーションバーで、Pools をクリックします。

    Click Pools menu
  4. プールを削除するには、行をクリックします。

    Click pool
  5. Edit ドロップダウンメニューで Delete を選択します。

    Click Delete
  6. Delete Pool ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete Pool をクリックし、設定を保存します。

    Delete pool window
  7. ページの右上隅に対する通知は、プールが正常に削除されたことを示します。

    Pool delete notification

関連情報

  • 詳細は、『Red Hat Ceph Storage アーキテクチャーガイド』「Ceph プール」を参照してください。
  • 詳細は、『Red Hat Ceph Storage ダッシュボードガイド』「監視の設定」を参照してください。
  • 圧縮モードの詳細は、『Red Hat Ceph Storage ストレージ戦略ガイド』「プール値」を参照してください。

第8章 Object Gateway

ストレージ管理者は、ダッシュボードのオブジェクトゲートウェイ機能により、Ceph Object Gateway を管理および監視することができます。

たとえば、監視機能を使用すると、ゾーン名や GET および PUT レートのパフォーマンスグラフなどのゲートウェイデーモンの詳細を表示できます。管理機能を使用すると、ユーザーとバケットの両方を表示、作成、編集できます。

オブジェクトゲートウェイ機能は、デーモンの機能、ユーザー機能、およびバケット機能に分けられます。

8.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。

8.2. オブジェクトゲートウェイデーモン機能

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway デーモンに関する情報を表示し、監視することができます。

8.2.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されます。

8.2.2. オブジェクトゲートウェイデーモンの表示

ダッシュボードでは、全 Ceph Object Gateway デーモンの一覧を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Daemons をクリックします。

    Click Daemons
  4. 以下の例では、Daemons ListID jb-ceph4-rgw.rgw0 のデーモンが表示されます。

    daemon in list
  5. 詳細を表示するには、jb-ceph4-rgw.rgw0 の行をクリックしてデーモンを選択します。

    daemon details

    デーモンがサービスしているゾーン名は default であることを確認できます。

関連情報

8.3. オブジェクトゲートウェイのユーザー機能

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway ユーザーの表示および管理を行うことができます。

8.3.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されます。

8.3.2. オブジェクトゲートウェイユーザーの表示

ダッシュボードでは、全 Ceph Object Gateway ユーザーの一覧を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Users をクリックします。

    Click Users
  4. 以下の例では、rgw-user という名前のユーザーが表に表示されます。

    User in list
  5. 詳細を表示するには、rgw-user の行をクリックしてユーザーを選択します。

    User details

関連情報

8.3.3. オブジェクトゲートウェイユーザーの作成

ダッシュボードでは、Ceph Object Gateway ユーザーを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Users をクリックします。

    Click Users
  4. Create をクリックします。

    User in list
  5. ユーザー名、フルネームを設定し、必要に応じてバケットの最大数を編集します。

    Create User dialog basic settings
  6. 必要に応じて、メールアドレスまたは一時停止のステータスを設定します。

    Set email address or suspended status
  7. 必要に応じて、Auto-generate key の選択を解除して、カスタムアクセスキーおよびシークレットキーを設定します。

    1. 自動生成キー の選択を解除します。

      Uncheck Aut-generate key
    2. アクセスキーおよびシークレットキーを設定します。

      Set a custom access key and secret key
  8. 必要に応じて、ユーザークォータを設定します。

    1. User quotaEnabled になっていることを確認します。

      Check enabled
    2. Unlimited size または Unlimited objects の選択を解除します。

      Uncheck Unlimited size or Unlimted objects
    3. Max. size または Max. objects に必要な値を入力します。

      Enter values for Max. size and Max. objects
  9. 必要に応じて、バケットクォータを設定します。

    1. Bucket quotaEnabled になっていることを確認します。

      Check enabled
    2. Unlimited size または Unlimited objects の選択を解除します。

      Uncheck Unlimited size or Unlimted objects
    3. Max. size または Max. objects に必要な値を入力します。

      Enter values for Max. size and Max. objects
  10. ユーザーの作成の最終処理を行うには、Create User をクリックします。

    Click Create User
  11. ユーザー作成が正常に行われたことを確認します。通知では、ユーザーが作成され、ユーザーのテーブルに表示されることを確認します。

    Verify the user was created

関連情報

8.3.4. オブジェクトゲートウェイユーザーの編集

ダッシュボードでは、Ceph Object Gateway ユーザーを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されます。
  • Ceph Object Gateway ユーザーが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Users をクリックします。

    Click Users
  4. ユーザー機能を編集するには、その行をクリックします。

    Click user row
  5. Edit ドロップダウンメニューで Edit を選択します。

    Click Edit
  6. EditUser ウィンドウで必要なパラメーターを編集して、EditUser ボタンをクリックします。

    Edit User window
  7. ページの右上隅に対する通知は、ユーザーが正常に更新されたことを示しています。

    User edit notification

8.3.5. オブジェクトゲートウェイユーザーの削除

ダッシュボードでは、Ceph Object Gateway ユーザーを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されます。
  • Ceph Object Gateway ユーザーが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Users をクリックします。

    Click Users
  4. ユーザーを削除するには、その行をクリックします。

    Click user row
  5. Edit ドロップダウンメニューで Delete を選択します。

    Click Delete
  6. Delete User ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete User クリックし、設定を保存します。

    Delete User window

8.3.6. オブジェクトゲートウェイサブユーザーの作成

サブユーザーは、S3 インターフェースのユーザーに関連付けられます。ダッシュボードでは、Ceph Object Gateway サブユーザーを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. ドロップダウンメニューの Users をクリックします。

    Click Users
  4. 以下の例では、ceph-dashboard という名前のユーザーが表に表示されます。行をクリックしてユーザーを選択します。

    Select user
  5. Edit ドロップダウンメニューをクリックして Edit を選択します。

    Edit drop-down
  6. +CreateSubuser ボタンをクリックします。

    Create Subuser
  7. サブユーザー 名を入力し、適切なパーティションを選択します。

    Set Subuser username
  8. 自動生成シークレット ボックスをクリックし、Create Subuser ボタンをクリックします。

    Create Subuser dialog window
    注記

    Auto-generate-secret チェックボックスをクリックすると、オブジェクトゲートウェイの秘密鍵が自動的に生成されます。

  9. Edit User ウィンドウで Edit user ボタンをクリックします。

    Edit User in Window
  10. サブユーザーの作成が正常に行われたことを確認します。ページの右上隅にある通知がポップアップ表示され、Object Gateway ユーザーが正常に更新されたことを示します。

    Object Gateway user update notification

関連情報

8.4. オブジェクトゲートウェイのバケット機能

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway バケットを表示し、管理できます。

8.4.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。

8.4.2. オブジェクトゲートウェイのバケットの表示

ダッシュボードでは、Ceph Object Gateway バケットを表示し、管理できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイバケットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Buckets をクリックします。

    Click Buckets
  4. 以下の例では、テーブルに my-bucket という名前のバケットを確認できます。

    Bucket in list
  5. 詳細を表示するには、my-bucket の行をクリックしてバケットを選択します。

    Bucket details

関連情報

8.4.3. オブジェクトゲートウェイのバケットの作成

ダッシュボードでは、Ceph Object Gateway バケットを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • 一時停止していないオブジェクトゲートウェイユーザーが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Buckets をクリックします。

    Click Buckets
  4. Create をクリックします。

    Click Create
  5. Name に値を入力し、一時停止していないユーザーを選択します。

    Set the name and user
  6. Create bucket をクリックします。

    Click Create Bucket
  7. バケットの作成が正常に行われたことを確認します。バケットが作成されたことを確認する通知が表示され、バケットはバケットのテーブルに表示されます。

    Verify the bucket was created

関連情報

8.4.4. オブジェクトゲートウェイバケットの編集

ダッシュボードでは、Ceph Object Gateway バケットを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • 一時停止していない Ceph Object Gateway ユーザーが作成されている。
  • Ceph Object Gateway バケットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Buckets をクリックします。

    Click Buckets
  4. バケットを編集するには、その行をクリックします。

    Click bucket row
  5. Edit ドロップダウンメニューで Edit を選択します。

    Click Edit
  6. EditBucket ウィンドウで、必要なパラメーターを編集して EditBucket ボタンをクリックします。

    Edit Bucket window
  7. ページの右上隅に対する通知は、バケットが正常に更新されたことを示します。

    Bucket edit notification

関連情報

8.4.5. オブジェクトゲートウェイバケットの削除

ダッシュボードでは、Ceph Object Gateway バケットを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • 一時停止していない Ceph Object Gateway ユーザーが作成されている。
  • Ceph Object Gateway バケットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。

    Click Object Gateway
  3. Buckets をクリックします。

    Click Buckets
  4. バケットを削除するには、その行をクリックします。

    Click bucket row
  5. Edit ドロップダウンメニューで Delete を選択します。

    Click Delete
  6. Delete Bucket ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete bucket クリックし、設定を保存します。

    Delete Bucket window

8.5. オブジェクトゲートウェイログイン認証情報をダッシュボードに手動で追加

Red Hat Ceph Storage Dashboard は、RADOS Gateway または RGW として知られる Ceph Object Gateway を管理できます。Ceph Object Gateway を管理するには、ダッシュボードは system フラグを使用して RGW ユーザーのログイン認証情報を使用して接続する必要があります。ceph-ansible を使用して Object Gateway をインストールすると、自動的にログイン認証情報がダッシュボードに追加されます。ログインの認証情報を手動で設定することもできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。

手順

  1. system フラグを有効にして RGW ユーザーの access_key および secret_key を取得します。

    • system フラグを有効にしている RGW ユーザーがない場合は、これを作成します。

      radosgw-admin user create --uid=USER_ID --display-name=DISPLAY_NAME --system

      たとえば、以下のようになります。

      [root@mon ~]# radosgw-admin user create --uid=rgw-user --display-name=RGW-user --system
      {
          "user_id": "rgw-user",
          "display_name": "RGW-user",
          "email": "",
          "suspended": 0,
          "max_buckets": 1000,
          "subusers": [],
          "keys": [
              {
                  "user": "rgw-user",
                  "access_key": "BYC5SWQQH24A2BFHS2RC",
                  "secret_key": "159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT"
              }
          ],
          "swift_keys": [],
          "caps": [],
          "op_mask": "read, write, delete",
          "system": "true",
          "default_placement": "",
          "default_storage_class": "",
          "placement_tags": [],
          "bucket_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "user_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "temp_url_keys": [],
          "type": "rgw",
          "mfa_ids": []
      }

      access_key および secret_key の値を書き留めます。上記の例では、access_keyBYC5SWQQH24A2BFHS2RC で、secret_key159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT です。

    • system フラグが有効な RGW ユーザーがすでに作成されている場合は、radosgw-admin ユーティリティーの user info コマンドを使用して認証情報を取得します。

      radosgw-admin user info --uid=USER_ID

      たとえば、以下のようになります。

      [root@mon ~]# radosgw-admin user info --uid=rgw-user
      {
          "user_id": "rgw-user",
          "display_name": "RGW-user",
          "email": "",
          "suspended": 0,
          "max_buckets": 1000,
          "subusers": [],
          "keys": [
              {
                  "user": "rgw-user",
                  "access_key": "BYC5SWQQH24A2BFHS2RC",
                  "secret_key": "159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT"
              }
          ],
          "swift_keys": [],
          "caps": [],
          "op_mask": "read, write, delete",
          "system": "true",
          "default_placement": "",
          "default_storage_class": "",
          "placement_tags": [],
          "bucket_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "user_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "temp_url_keys": [],
          "type": "rgw",
          "mfa_ids": []
      }

      access_key および secret_key の値を書き留めます。上記の例では、access_keyBYC5SWQQH24A2BFHS2RC で、secret_key159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT です。

  2. access_key および secret_key の認証情報をダッシュボードに指定します。

    1. ダッシュボードに access_key を指定します。

      ceph dashboard set-rgw-api-access-key ACCESS_KEY

      たとえば、以下のようになります。

      [root@mon ~]# ceph dashboard set-rgw-api-access-key BYC5SWQQH24A2BFHS2RC
      Option RGW_API_ACCESS_KEY updated
    2. secret_key をダッシュボードに指定します。

      ceph dashboard set-rgw-api-secret-key SECRET_KEY

      たとえば、以下のようになります。

      [root@mon ~]# ceph dashboard set-rgw-api-secret-key 159d94uHK9ADiWZrGsNYWYjRXCDrhL2xVi8PO6kT
      Option RGW_API_SECRET_KEY updated
  3. オブジェクトゲートウェイのホスト名およびポートをダッシュボードに指定します。

    1. ダッシュボードにホスト名を指定します。

      ceph dashboard set-rgw-api-host HOST_NAME

      たとえば、以下のようになります。

      [root@mon ~]# ceph dashboard set-rgw-api-host 192.168.122.193
      Option RGW_API_HOST updated
    2. ポートをダッシュボードに指定します。

      ceph dashboard set-rgw-api-port PORT

      たとえば、以下のようになります。

      [root@mon ~]# ceph dashboard set-rgw-api-port 8080
      Option RGW_API_PORT updated
  4. 必要に応じて、自己署名証明書と共に HTTPS を使用している場合は、ダッシュボードで証明書の検証を無効にして、拒否された接続を回避します。

    証明書が不明な認証局によって署名されている場合や、使用するホスト名が証明書のホスト名と一致しない場合は、拒否される接続が発生する可能性があります。

    ceph dashboard set-rgw-api-ssl-verify false

    たとえば、以下のようになります。

    [root@mon ~]# ceph dashboard set-rgw-api-ssl-verify false
    Option RGW_API_SSL_VERIFY updated

関連情報

第9章 ブロックデバイス

9.1. ブロックデバイスの概要

ダッシュボードのブロックデバイス機能により、ブロックデバイスイメージを管理および監視できます。この機能は、一般的なイメージ機能、ミラーリング機能、iSCSI 機能、およびサービスの品質設定に分けられます。たとえば、新規イメージの作成、クラスター間でミラーリングされたイメージの状態の表示、iSCSI ターゲットの管理または監視、およびイメージでの IOPS 制限の設定を行うことができます。

9.2. イメージ関数

ダッシュボードは、イメージの管理および監視に関連する複数の機能を提供します。

9.2.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

9.2.2. イメージの作成

ダッシュボードでは、イメージを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. Images タブで、Create ボタンをクリックします。

    Create image
  5. CreateRBD ウィンドウで、パラメーターを入力します。

    Create image window
  6. 必要に応じて Advanced をクリックし、パラメーターを設定します。

    Create image Advanced settings
    Create image Advanced settings parameters
  7. CreateRBD ボタンをクリックします。

    Click Create RBD
  8. ページの右上隅に対する通知は、イメージが正常に作成されたことを示しています。

    Image create notification

関連情報

9.2.3. イメージの表示

ダッシュボードでは、イメージを表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • イメージがクラスターにある。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. Images をクリックします。

    Images view

    上記の例では、disk_1 という名前の 10 GiB イメージを確認できます。

  4. 詳細を表示するには、disk_1 の行をクリックしてイメージを選択します。

    Images view details

関連情報

9.2.4. イメージの編集

ダッシュボードでは、イメージを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージを編集するには、Images タブでその行をクリックします。

    Click Image row
  5. Edit ドロップダウンメニューで Edit を選択します。

    Click Edit
  6. EditRBD ダイアログで、必要なパラメーターを編集して、EditRBD ボタンをクリックします。

    Edit Image dialog
  7. ページの右上隅に対する通知は、イメージが正常に更新されたことを示しています。

    Image edit notification

関連情報

  • 詳細は、『Red Hat Ceph Storage ダッシュボードガイド』「イメージの作成」セクションを参照してください。

9.2.5. イメージのコピー

ダッシュボードでは、イメージをコピーできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージをコピーするには、Images タブでその行をクリックします。

    Click Image row
  5. Edit ドロップダウンの Copy を選択します。

    Click Copy
  6. CopyRBD ウィンドウで必要なパラメーターを編集して、CopyRBD ボタンをクリックします。

    Copy Image window
  7. ページの右上隅に対する通知は、イメージが正常に更新されたことを示しています。

    Copy image notification

関連情報

  • 詳細は、『Red Hat Ceph Storage ダッシュボードガイド』「イメージの作成」セクションを参照してください。

9.2.6. イメージのごみ箱への移動

ダッシュボードでは、イメージをごみ箱に移動できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージをゴミ箱に移動するには、Images タブでその行をクリックします。

    Click Image row
  5. Edit ドロップダウンメニューで Move to Trash を選択します。

    Click Move to Trash
  6. Moving an image to trash ウィンドウで、イメージが保護する必要のある日付を編集し、Move Image ボタンをクリックします。

    Move image to Trash window
  7. ページの右上隅に対する通知では、イメージが正常にごみ箱に移動したことが分かります。

    Move image to trash notification

9.2.7. ごみ箱のパージ

ダッシュボードでは、イメージのごみ箱をパージすることができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されます。
  • イメージがゴミ箱に捨てられている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. Trash タブで、Purge Trash ボタンをクリックします。

    Click Purge Trash
  5. Purge Trash ウィンドウでプールを選択し、Purge Trash ボタンをクリックします。

    Purge Trash window
  6. ページの右上隅にある通知は、選択したプールから画像が正常に削除されたことを示しています。

    Purge from trash notification

関連情報

9.2.8. ゴミ箱からのイメージの復元

ダッシュボードでは、ごみ箱からイメージを復元できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されます。
  • イメージがゴミ箱に捨てられている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. ゴミ箱からイメージを復元するには、Trash タブでその行をクリックします。

    Click Image row in Trash tab
  5. Restore ドロップダウンメニューで Restore を選択します。

    Click Restore
  6. Restore Image ウィンドウで、イメージの名前を入力してから、Restore Image をクリックします。

    Restore from Trash window
  7. ページの右上隅にある通知は、イメージがゴミ箱から正常に復元されたことを示しています。

    Restore from trash notification

関連情報

  • RBD プールでのイメージ作成に関する詳しい情報は、『Red Hat Ceph Storage ダッシュボードガイド』「イメージの作成」セクションを参照してください。

9.2.9. イメージの削除

ダッシュボードでは、イメージを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージを編集するには、Images タブでその行をクリックします。

    Click Image row
  5. Edit ドロップダウンメニューで Delete を選択します。

    Click Delete
  6. Delete RBD ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete RBD をクリックして設定を保存します。

    Delete image window
  7. ページの右上隅に対する通知では、イメージが正常にごみ箱に移動したことが分かります。

    Delete image notification

9.2.10. イメージのスナップショットの作成

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットを作成するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Create ドロップダウンで Create を選択します。

    Create snapshot of the image
  6. CreateRBD Snapshot ダイアログでパラメーターを入力し、CreateRBD Snapshot ボタンをクリックします。

    Create snapshot of the image dialog
  7. ページの右上隅に対する通知は、イメージのスナップショットが正常に作成されたことを示しています。

    Creation of snapshot of the image notification

関連情報

9.2.11. イメージのスナップショットの名前変更

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットの名前を変更することができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットの名前を変更するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで、Rename を選択します。

    Rename snapshot of the image
  6. RenameRBD Snapshot ダイアログでパラメーターを入力し、RenameRBD Snapshot ボタンをクリックします。

    Rename snapshot of the image dialog
  7. ページの右上隅に対する通知は、イメージのスナップショットが正常に更新されたことを示しています。

    Snapshot update of the image notification

関連情報

9.2.12. イメージのスナップショットの保護

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットを保護できます。これは、スナップショットのクローンを作成する必要がある場合に必要です。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンで Protect を選択します。

    Protect snapshot of the image
  6. ページの右上隅に対する通知は、イメージのスナップショットが正常に更新されたことを示しています。

    Snapshot update of the image notification

関連情報

9.2.13. イメージのスナップショットのクローン作成

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットのクローンを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。
  • イメージのスナップショットは保護されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットを作成するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで、Clone を選択します。

    Rename snapshot of the image
  6. CloneRBD ダイアログでパラメーターを入力し、CloneRBD ボタンをクリックします。

    Clone snapshot of the image dialog
  7. ページの右上隅に対する通知は、イメージのスナップショットのクローンが正常に作成されたことを示しています。

    Clone of snapshot of the image notification

関連情報

9.2.14. イメージのスナップショットのコピー

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットをコピーできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットをコピーするには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで Copy を選択します。

    Copy snapshot of the image
  6. CopyRBD ダイアログでパラメーターを入力し、CopyRBD ボタンをクリックします。

    Rename snapshot of the image dialog
  7. ページの右上隅に対する通知は、イメージのスナップショットが正常に更新されたことを示しています。

    Copy Snapshot of the image notification

関連情報

  • RBD プールの作成に関する詳細は、『Red Hat Ceph Storage ダッシュボードガイド』「プールの作成」セクションを参照してください。
  • RBD プールでのイメージ作成に関する詳しい情報は、『Red Hat Ceph Storage ダッシュボードガイド』「イメージの作成」セクションを参照してください。

9.2.15. イメージのスナップショットのロールバック

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットをロールバックできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットをロールバックするには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで、Rollback を選択します。

    Rollback snapshot of the image
  6. RBD snapshot rollback ウィンドウで、Rollback ボタンをクリックします。

    Rollback snapshot of the image window
  7. ページの右上隅に対する通知は、イメージのスナップショットが正常にロールバックされたことを示しています。

    Rollback Snapshot of the image notification

関連情報

9.2.16. イメージのスナップショットの保護解除

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットの保護を解除できます。これは、スナップショットを削除する必要がある場合に必要です。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。
  • イメージのスナップショットは保護されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショット名の保護を解除するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで UnProtect を選択します。

    Unprotect snapshot of the image
  6. ページの右上隅に対する通知は、イメージのスナップショットが正常に更新されたことを示しています。

    Snapshot update of the image notification

関連情報

9.2.17. イメージのスナップショットの削除

ダッシュボードでは、Ceph ブロックデバイスイメージのスナップショットのクローンを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されている。
  • イメージのスナップショットは保護されていない。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Images を選択します。

    Select Images from drop-down
  4. イメージのスナップショットを削除するには、Images タブでその行をクリックし、Snapshots タブをクリックします。

    Click Snapshots tab
  5. Rename ドロップダウンメニューで、Delete を選択します。

    Delete snapshot of the image
  6. ページの右上隅に対する通知は、イメージのスナップショットが正常に更新されたことを示しています。

    Snapshot deletion of the image notification

関連情報

9.3. ミラーリング機能

ダッシュボードでは、ミラーリング機能の管理および監視を行うことができます。

9.3.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

9.3.2. ミラーリングビュー

ダッシュボードでは、ミラーリング機能の全体的な状態を表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • ミラーリングが設定されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. Mirroring をクリックします。

    Images view

    上記の例では、DaemonsPools、および Images というラベルのテーブルに分類されたミラーリング情報を確認できます。

関連情報

9.3.3. 編集モード

ダッシュボードでは、プールとイメージを含むミラーリング機能全体のモードを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Mirroring をクリックします。

    Click Mirroring
  4. Pools タブで、その行をクリックします。

    Click row
  5. Edit Mode ドロップダウンメニューで Edit Mode を選択します。

    Click Edit Mode
  6. Edit Pool mirror mode ウィンドウで、ドロップダウンからモードを選択し、Update ボタンをクリックします。

    Edit Mode Window
  7. ページの右上隅に対する通知は、ミラーモードが正常に更新されたことを示します。

    Mirror mode edit notification

関連情報

9.3.4. ミラーリングでピアの追加

ダッシュボードでは、「rbd-daemon」ミラーのストレージクラスターピアを追加して、そのピアストレージクラスターを検出できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。

    Click Block
  3. ドロップダウンから Mirroring をクリックします。

    Click Mirroring
  4. Pools タブで、その行をクリックします。

    Click row
  5. Edit Mode ドロップダウンメニューで、Add peer を選択します。

    Click Add peer
  6. Add pool mirror peer ウィンドウでパラメーターを入力し、Submit ボタンをクリックします。

    Add peer Window
  7. ページの右上隅に対する通知は、ミラーピアが正常に作成されたことを示しています。

    Add peer notification

関連情報

9.3.5. ミラーリングのピアの編集

ダッシュボードでは、「rbd-daemon」ミラーのストレージクラスターピアを編集して、そのピアストレージクラスターを検出できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。
  • ピアが追加されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。

    Click Block
  3. ドロップダウンから Mirroring をクリックします。

    Click Mirroring
  4. Pools タブで、その行をクリックします。

    Click row
  5. Edit Mode ドロップダウンメニューで、Edit peer を選択します。

    Click Edit peer
  6. Edit pool mirror peer ウィンドウでパラメーターを編集し、Submit ボタンをクリックします。

    Edit peer Window
  7. ページの右上隅に対する通知は、ミラーピアが正常に更新されたことを示しています。

    Edit peer notification

関連情報

9.3.6. ミラーリングでピアの削除

ダッシュボードでは、「rbd-daemon」ミラーのストレージクラスターピアを編集して、そのピアストレージクラスターを検出できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。
  • ピアが追加されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。

    Click Block
  3. ドロップダウンから Mirroring をクリックします。

    Click Mirroring
  4. Pools タブで、その行をクリックします。

    Click row
  5. Edit Mode ドロップダウンメニューで、Delete peer を 選択します。

    Click Delete peer
  6. Delete mirror peer ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete mirror peer クリックし、設定を保存します。

    Delete image window
  7. ページの右上隅に対する通知では、イメージが正常にごみ箱に移動したことが分かります。

    Delete peer notification

関連情報

9.4. iSCSI 関数(高可用性)

ダッシュボードでは、iSCSI イメージおよびターゲットを管理および監視できます。ダッシュボードを使用して iSCSI イメージおよびターゲットを管理および監視する前に、ゲートウェイを追加してダッシュボードの iSCSI 機能を有効化する必要があります。

注記

この技術には、利用制限があります。詳細は、Deprecated functionality の章を参照してください。

9.4.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • iSCSI ゲートウェイが ダッシュボードに追加 されている。

9.4.2. Dashboard への iSCSI ゲートウェイの手動追加

Red Hat Ceph Storage Dashboard は、Ceph iSCSI Gateway の rbd-target-api サービスによって提供される REST API を使用して iSCSI ターゲットを管理できます。ダッシュボードがこれにアクセスする前に、API アドレスをダッシュボードに追加する必要があります。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイがインストールされている。
重要

Ceph iSCSI ゲートウェイには、高可用性を提供するためにゲートウェイが 2 つ必要です。

手順

  1. Monitor ノードにログインします。
  2. 必要に応じて、iSCSI ゲートウェイの REST API が自己署名証明書を使用して HTTPS モードで設定されている場合は、API へのアクセス時の SSL 証明書の検証を回避するようにダッシュボードを設定する必要があります。以下のコマンドを実行して SSL 検証を無効にします。

    # ceph dashboard set-iscsi-api-ssl-verification false

    たとえば、以下のようになります。

    [root@mon ~]# ceph dashboard set-iscsi-api-ssl-verification false
    Option ISCSI_API_SSL_VERIFICATION updated
  3. ダッシュボードに、少なくとも 2 つあるゲートウェイの最初のものを追加します。

    # ceph dashboard iscsi-gateway-add SCHEME :// USERNAME : PASSWORD @ HOST [: PORT ]

    たとえば、以下のようになります。

    [root@mon ~]# ceph dashboard iscsi-gateway-add http://admin:admin@192.168.122.157:5000
    Success
    注記

    iSCSI ターゲットを設定している場合に USERNAME および PASSWORD が設定されていました。認証情報は、iSCSI ゲートウェイノードの iscsi-gateway.cfg ファイルから取得できます。

  4. ダッシュボードに、少なくとも 2 つあるゲートウェイの 2 つ目のものを追加します。

    # ceph dashboard iscsi-gateway-add SCHEME :// USERNAME : PASSWORD @ HOST [: PORT ]

    たとえば、以下のようになります。

    [root@mon ~]# ceph dashboard iscsi-gateway-add http://admin:admin@192.168.122.193:5000
    Success
    注記

    iSCSI ターゲットを設定している場合に USERNAME および PASSWORD が設定されていました。認証情報は、iSCSI ゲートウェイノードの iscsi-gateway.cfg ファイルから取得できます。

  5. ゲートウェイが正しく追加されたことを確認します。

    # ceph dashboard iscsi-gateway-list

    たとえば、以下のようになります。

    [root@mon ~]# ceph dashboard iscsi-gateway-list
    {"gateways": {"jb-ceph4-rgw": {"service_url": "http://admin:admin@192.168.122.193:5000"}, "jb-ceph4-osd1": {"service_url": "http://admin:admin@192.168.122.157:5000"}}}
  6. 必要に応じて、間違えてゲートウェイを追加した場合は、iscsi-gateway-list コマンドで説明されているようにホスト名を指定することでゲートウェイを削除できます。

    # ceph dashboard iscsi-gateway-rm GATEWAY_NAME

    たとえば、以下のようになります。

    [root@mon ~]# ceph dashboard iscsi-gateway-rm jb-ceph4-rgw
    Success

関連情報

9.4.3. iSCSI の概要

ダッシュボードでは、iSCSI 経由でエクスポートされた iSCSI ゲートウェイホストおよびイメージを表示する概要が提供されています。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイがインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. iSCSI をクリックします。

    iSCSI overview

関連情報

9.4.4. iSCSI ターゲットの作成

ダッシュボードでは iSCSI ターゲットを作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. iSCSI をクリックします。

    iSCSI overview
  4. ページの左上隅にある Targets タブをクリックします。

    iSCSI Targets
  5. ページの左上隅にある Add ボタンをクリックします。

    Create target initial view
  6. 必要に応じて、ターゲット IQN を変更します。

    Modify Target IQN
  7. 必要に応じて、ターゲットの詳細設定を設定します。

    1. 歯車をクリックして、ターゲットの詳細設定を設定します。

      Gear for Advanced Settings for Target IQN
    2. Advanced Settings ダイアログウィンドウに詳細設定を設定します。

      Advanced Settings for Target IQN
    3. Confirm をクリックして設定を保存します。
  8. Add portal ボタンをクリックし、2 つ以上のゲートウェイの最初のゲートウェイを選択します。

    Add portal one
  9. Add portal ボタンをクリックし、2 つ以上のゲートウェイの 2 番目のゲートウェイを選択します。

    Add additional gateways

    追加のゲートウェイに対してこの手順を繰り返します。

  10. Add image ボタンをクリックして、ターゲットによってエクスポートされるイメージを選択します。

    Add an image

    追加のイメージに対してこの手順を繰り返します。

  11. 必要に応じて、イメージを変更します。

    1. イメージの右側にある歯車をクリックします。

      Gear to Configure Images
    2. Configure ダイアログウィンドウでイメージ設定を変更します。

      Configure Image
    3. Confirm をクリックして設定を保存します。
  12. ACL authentication ボックスをクリックし、Add initiator ボタンをクリックします。

    ACL authentication and Add initiator
  13. 最初のテキストボックスに、クライアントの IQN を入力します。

    Client IQN

    イニシエーターソフトウェアが実行されるシステムからクライアント IQN を取得します。詳細は、『ブロックデバイスガイド』「iSCSI イニシエーターの設定」を参照してください。

  14. ターゲットのユーザー名およびパスワードの詳細を入力します。

    Add initiator user name and password
  15. Add image をクリックして、イメージを選択します。

    Add an image

    追加のイメージに対してこの手順を繰り返します。

  16. Create Target ボタンをクリックして手順を完了します。

    Create Target button
  17. Targets ページで検索して、ターゲットが追加されたことを確認します。

    Targets ページを見つけるには、『ダッシュボードガイド』「iSCSI ターゲットの表示」の手順に従います。

関連情報

9.4.5. iSCSI ターゲットの表示

ダッシュボードでは、iSCSI ターゲットを表示できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイがインストールされている。
  • iSCSI ターゲットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックし、iSCSI をクリックします。

    Click Block and then click iSCSI
  3. ページの左上隅にある Targets タブをクリックします。

    Click Targets
  4. ターゲットの詳細を表示するには、その行をクリックします。

    Click the target row
  5. イニシエーターがログインしているかどうかを含め、iSCSI トポロジーを確認できます。

    iSCSI topology
  6. オブジェクトをクリックして、その詳細情報を表示します。

    Target IQN details

    注記: クリックすると、一部のオブジェクトのみが詳細情報を表示します。

関連情報

9.4.6. iSCSI ターゲットの編集

ダッシュボードでは、iSCSI ターゲットを編集できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。
  • iSCSI ターゲットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. iSCSI をクリックします。

    iSCSI overview
  4. ページの左上隅にある Targets タブをクリックします。

    Click Targets
  5. ターゲットを編集するには、その行をクリックします。

    Click the target row
  6. ページの左上隅にある Edit ボタンをクリックします。

    Edit target initial view
  7. パラメーターを編集し、Edit Target ボタンをクリックします。

    Edit target window
  8. Targets ページで検索して、ターゲットが編集されたことを確認します。

    Targets ページを見つけるには、『ダッシュボードガイド』「iSCSI ターゲットの表示」の手順に従います。

関連情報

9.4.7. iSCSI ターゲットの削除

ダッシュボードでは、iSCSI ターゲットを削除できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • iSCSI ターゲットが作成されている。
  • すべての iSCSI イニシエーターを切断します。「iSCSI イニシエーターの切断」を参照してください。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. iSCSI をクリックします。

    iSCSI overview
  4. ページの左上隅にある Targets タブをクリックします。

    Click Targets
  5. ターゲットを削除するには、その行をクリックします。

    Click the target row
  6. ページの左上隅にある Edit ドロップダウンをクリックします。
  7. ドロップダウンから Delete を選択します。

    Delete target initial view
  8. Yes, I am sure ボックスをクリックし Delete iSCSI をクリックして設定を保存します。

    Delete iSCSI window

関連情報

9.4.8. 検出認証の設定

ダッシュボードは、CHAP/CHAP_MUTUAL を使用した検出認証を許可します。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. iSCSI をクリックします。

    iSCSI overview
  4. ページの左上隅にある Targets タブをクリックします。

    iSCSI Targets
  5. ページの左上隅にある Discovery authentication ボタンをクリックします。

    Discovery authentication
  6. Discovery Authentication ウィンドウで詳細を指定し、Submit ボタンをクリックします。

    Discovery Authentication window

9.5. サービス品質の設定

ストレージ管理者は、QoS(Quality of Service)上限を使用して、プールまたはイメージのパフォーマンスを優先または優先順位付けまたは切断することで、すべてのイメージが特定のビジネスニーズに合わせて必要なリソースをすべて取得することができます。

9.5.1. 前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。

9.5.2. 既存イメージでのサービス品質の設定

ストレージ管理者は、サービス品質 (QoS) の制限を使用して、既存イメージのパフォーマンスを優先順位を付けたり、優先順位を下げることができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。
  • 既存のイメージ。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックし、Images をクリックします。

    Click Block and then click Images.
  3. イメージの行をクリックして、編集するイメージを選択します。

    Select an image.
  4. Edit ボタンをクリックします。

    Click the Edit button.
  5. ダイアログの右下隅にある Advanced をクリックします。

    Click Advanced…​
  6. Quality of Service の横にあるプラス記号をクリックして、QoS 設定を開きます。

    Open the QoS settings.
  7. 必要に応じて、個々の設定の横にあるクエスチョンマークをクリックして、その詳細を確認します。

    Click the question mark symbol.
  8. 変更する QoS 設定の値を入力または編集します。

    Enter values for QoS settings.
  9. 必要に応じて、設定の消しゴム記号をクリックしてローカル値を削除し、親のプールまたはグローバル設定から値を継承します。

    Click the eraser symbol to remove local values.

    設定のフィールドは無効になっているため、親から値を継承していることが示されます。

    The field is disabled.
  10. 編集 ボタンをクリックして変更を保存します。

    Save the changes.

9.5.3. 既存のプールでのサービス品質の設定

ストレージ管理者は、既存のプールでサービス品質 (QoS) を設定できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools をクリックします。

    Click Pools.

  3. RBD アプリケーションを持つ複製されたプールの行をクリックし、編集のために選択します。

    Select a pool.
  4. Edit ボタンをクリックします。

    Click the Edit button.
  5. Quality of Service の横にあるプラス記号をクリックして、QoS 設定を開きます。

    Open the QoS settings.
  6. 必要に応じて、個々の設定の横にあるクエスチョンマークをクリックして、その詳細を確認します。

    Click the question mark symbol.
  7. 変更する QoS 設定の値を入力または編集します。

    Enter values for QoS settings.
  8. 必要に応じて、設定の消しゴム記号をクリックしてローカル値を削除し、親グローバル設定から値を継承します。

    Click the eraser symbol to remove local values.

    設定のフィールドは無効になっているため、親から値を継承していることが示されます。

    The field is disabled.
  9. 編集 ボタンをクリックして変更を保存します。

    Save the changes.

9.5.4. イメージ作成時のサービス品質の設定

ストレージ管理者は、イメージの作成時にサービス品質 (QoS) の制限を設定できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックし、Images をクリックします。

    Click Block and then click Images.
  3. Create ボタンをクリックします。

    Click the Create button.
  4. 1 に名前を設定し、2 にプールを設定し、3 にサイズを設定して、4Advanced をクリックします。

    Set basic image settings
  5. Quality of Service の横にあるプラス記号をクリックして、QoS 設定を開きます。

    Open the QoS settings.
  6. 必要に応じて、個々の設定の横にあるクエスチョンマークをクリックして、その詳細を確認します。

    Click the question mark symbol.
  7. 変更する QoS 設定の値を入力または編集します。

    Enter values for QoS settings.
  8. 必要に応じて、設定の消しゴム記号をクリックしてローカル値を削除し、親のローカル設定から値を継承します。

    Click the eraser symbol to remove local values.

    設定のフィールドは無効になっているため、親から値を継承していることが示されます。

    The field is disabled.
  9. Create RBD ボタンをクリックします。

    Create the image.

9.5.5. プール作成時のサービス品質の設定

ストレージ管理者は、プールの作成時にサービス品質 (QoS) を設定できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools をクリックします。

    Click Pools.
  3. ページの左上隅にある Create ボタンをクリックします。

    Click the Create button.
  4. ダイアログボックスで、1 にプール名を設定して、2 にプールのタイプを erasure に設定します。3 に配置グループの数を設定し、4EC Overwrites を有効にします。5rbd アプリケーションを設定し、最後に 6Create Pool をクリックします。

    Create an EC RBD pool.
  5. 別のプールを作成しますが、今回はその種別を replicated に設定します。

    create a replicated pool
  6. Quality of Service の横にあるプラス記号をクリックして、QoS 設定を開きます。

    Open the QoS settings.
  7. 必要に応じて、個々の設定の横にあるクエスチョンマークをクリックして、その詳細を確認します。

    Click the question mark symbol.
  8. 変更する QoS 設定の値を入力または編集します。

    Enter values for QoS settings.
  9. 必要に応じて、設定の消しゴム記号をクリックしてローカル値を削除し、親グローバル設定から値を継承します。

    Click the eraser symbol to remove local values.

    設定のフィールドは無効になっているため、親から値を継承していることが示されます。

    The field is disabled.
  10. Create Pool ボタンをクリックします。

    Create the pool.

9.5.6. 関連情報

付録A トラブルシューティング

本項では、ダッシュボードを使用した際の複数のトラブルシューティングシナリオを説明します。

A.1. ダッシュボードの応答が遅い

ダッシュボードの応答が遅い場合には、ブラウザーキャッシュをクリアし、ダッシュボードを再読み込みします。

A.2. ダッシュボードでサービスがダウンしたことを示す

ダッシュボードはクラスターのレプリカのみになります。サービスが停止している場合は、ノードで実行している node-exporter で収集される情報がダッシュボードに表示されるので、ノードでサービスのステータスを確認します。この問題は、クラスター、設定、またはネットワークで発生している可能性があります。

A.3. Dashboard でのタスク障害

ダッシュボードでいずれかのタスクを実行しても、障害が発生した場合には、それぞれの Ceph デーモンを確認してください。詳細は、『トラブルシューティングガイド』を参照してください。

A.4. イメージを表示できない

イメージは、そのイメージにあるプールの RBD アプリケーションが有効にされている場合に限り、Block > Images に表示されます。

The RBD application is enabled.
The image is viewable.

関連情報

詳細は、『トラブルシューティングガイド』を参照してください。