Dashboard ガイド

Red Hat Ceph Storage 5

Ceph Dashboard を使用した Ceph クラスターのモニタリング

概要

本書では、監視および管理の目的で Red Hat Ceph Storage Dashboard を使用する方法を説明します。
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、弊社の CTO、Chris Wright のメッセージを参照してください。

第1章 Ceph Dashboard の概要

ストレージ管理者は、Red Hat Ceph Storage Dashboard は管理機能および監視機能を提供します。これにより、クラスターの管理および設定が可能になり、それに関連する情報およびパフォーマンス統計を可視化を可能にします。ダッシュボードは、ceph-mgr デーモンがホストする Web サーバーを使用します。

ダッシュボードは Web ブラウザーからアクセスでき、たとえばマネージャーモジュールの設定や OSD の状態の監視などの有用な管理機能および監視機能が含まれます。

1.1. 前提条件

  • システム管理者レベルの経験

1.2. Ceph Dashboard コンポーネント

ダッシュボードの機能は複数のコンポーネントで提供されます。

  • デプロイメント用の Cephadm アプリケーション。
  • 埋め込みダッシュボードである ceph-mgr モジュール。
  • 埋め込み Prometheus である ceph-mgr モジュール。
  • Prometheus の時系列データベース。
  • ストレージクラスターの各ノードで実行される Prometheus の node-exporter デーモン。
  • 監視ユーザーインターフェースおよびアラートを提供する Grafana プラットフォーム。

関連情報

1.3. Ceph Dashboard 機能

Ceph Dashboard には、次の機能があります。

  • マルチユーザーとロールの管理: ダッシュボードは、異なる権限とロールが割り当てられた複数のユーザーアカウントをサポートします。ユーザーアカウントとロールは、コマンドラインと Web ユーザーインターフェースの両方を使用して管理できます。ダッシュボードは、パスワードセキュリティーの強化に向けたさまざまな方法をサポートしています。ユーザーは最初のログイン後または設定可能な期間の後にパスワードを変更する必要があるなど、パスワードの複雑性ルールは設定できます。
  • シングルサインオン (SSO): ダッシュボードは、SAML 2.0 プロトコルを使用した外部 ID プロバイダーとの認証をサポートしています。
  • 監査:ダッシュボードバックエンドは、すべての PUT、POST、および DELETE API 要求を Ceph マネージャーログに記録するように設定できます。

管理機能

  • クラスターの階層の表示: CRUSH マップを表示できます。たとえば、特定の OSD ID が実行されているノードを判別できます。これは、OSD に問題がある場合に便利です。
  • マネージャモジュールの設定: Ceph マネージャーモジュールのパラメーターを表示および変更できます。
  • 埋め込み Grafana ダッシュボード: Ceph Dashboard の Grafana ダッシュボードは、Prometheus モジュールによって収集された情報とパフォーマンスメトリクスを表示するために、外部アプリケーションや Web ページに埋め込まれている場合があります。
  • ログの表示および絞り込み: イベントおよび監査クラスターのログを表示し、優先順位、キーワード、日付、または時間範囲に基づいてフィルタリングできます。
  • ダッシュボードコンポーネントの切り替え: ダッシュボードのコンポーネントを有効および無効にできるため、必要な機能のみが利用可能になります。
  • OSD 設定の管理: ダッシュボードを使用してクラスター全体の OSD フラグを設定できます。また、OSD のアップ、ダウン、またはアウトのマーク付け、OSD のパージと加重付け、スクラブ操作の実行、さまざまなスクラブ関連の設定オプションの変更、プロファイルの選択によるバックフィルアクティビティーのレベル調整なども可能です。OSD のデバイスクラスを設定および変更して、デバイスクラス別に OSD を表示して並べ替えることができます。OSD を新しいドライブおよびホストにデプロイできます。
  • iSCSI 管理: iSCSI ターゲットを作成、変更、および削除します。
  • アラートの表示 アラートページでは、現在のアラートの詳細を表示できます。
  • イメージのサービス品質: IOPS の制限や、BPS バーストレートの読み取りなど、イメージにパフォーマンス制限を設定できます。

監視機能

  • ユーザー名およびパスワード保護: 設定可能なユーザー名とパスワードのみを使用してダッシュボードにアクセスできます。
  • クラスター全体のヘルス: パフォーマンスと容量のメトリクスを表示します。クラスター全体のステータス、ストレージ使用率 (オブジェクトの数、Raw 容量、プールごとの使用量など)、プールのリストおよびそれらのステータスと使用状況の統計を表示します。
  • ホスト: 実行中のサービスおよびインストールされた Ceph バージョンと共に、クラスターに関連付けられたホストの一覧を提供します。
  • パフォーマンスカウンター: 実行中の各サービスの詳細統計を表示します。
  • モニター: モニター、クォーラムのステータス、およびオープンセッションの一覧を表示します。
  • 設定エディター: 使用可能なすべての設定オプション、説明、タイプ、デフォルト、および現在設定されている値を表示します。これらの値は編集可能です。
  • クラスターログ:クラスターのイベントおよび監査ログファイルの最新の更新を、優先度、日付、またはキーワード別に表示およびフィルタリングします。
  • デバイス管理:オーケストレーターが認識しているすべてのホストを一覧表示します。ホストに接続されているすべてのドライブとそのプロパティーを一覧表示します。ドライブのヘルス予測、SMART データ、点滅エンクロージャ LED を表示します。
  • ストレージクラスターの容量の表示: Red Hat Ceph Storage クラスターの生ストレージ容量は、Ceph Dashboard の Capacity パネルで確認できます。
  • Pools: すべての Ceph プールとその詳細を一覧表示および管理します。たとえば、アプリケーション、配置グループ、レプリケーションサイズ、EC プロファイル、クォータ、CRUSH ルールセットなどです。
  • OSD: すべての OSD、それらのステータスおよび使用状況の統計に加えて、属性 (OSD マップ)、メタデータ、読み取り/書き込み操作のパフォーマンスカウンターなどの詳細情報を一覧表示および管理します。OSD に関連付けられているすべてのドライブを一覧表示します。
  • iSCSI: tcmu-runner サービスを実行するホストの一覧を表示し、読み取り/書き込み操作やトラフィックなど、すべてのイメージとそのパフォーマンスの特性を表示します。また、iSCSI ゲートウェイのステータスおよびアクティブなイニシエーターに関する情報も表示します。
  • イメージ: サイズ、オブジェクト、機能などのすべての RBD イメージと、そのプロパティーを表示します。RBD イメージの作成、コピー、変更、および削除を行います。選択したイメージのスナップショットを作成、削除、およびロールバックし、変更に対してこのスナップショットを保護するか、または保護を解除します。スナップショットをコピーまたは複製し、複製されたイメージを平坦化します。

    注記

    特定のイメージの Overall Performance タブの I/O 変更のパフォーマンスグラフには、Cluster > Manager modules > Prometheusrbd_stats_pool パラメーターを設定すると、そのイメージを含むプールを指定した後にのみ値が表示されます。

  • RBD ミラーリング:リモート Ceph サーバーへの RBD ミラーリングを有効化および設定します。同期状態を含む、すべてのアクティブな同期デーモンとそのステータス、プール、および RBD イメージの一覧を表示します。
  • Ceph ファイルシステム: アクティブな Ceph ファイルシステム (CephFS) クライアントと関連するプール (使用状況の統計を含む) の一覧を表示します。アクティブな CephFS クライアントを退避し、CephFS クォータとスナップショットを管理して、CephFS ディレクトリー構造を参照します。
  • オブジェクトゲートウェイ (RGW): アクティブなすべてのオブジェクトゲートウェイとそのパフォーマンスカウンターを表示します。オブジェクトゲートウェイユーザーの表示および管理 (追加、編集、削除) およびその詳細 (クォータなど)、ユーザーのバケットおよびその詳細 (例: 所有者、クォータなど) を表示および管理します。
  • NFS: NFS Ganesha を使用して CephFS および Ceph オブジェクトゲートウェイ S3 バケットの NFS エクスポートを管理します。

セキュリティー機能

  • SSL および TLS のサポート: Web ブラウザーとダッシュボード間の HTTP 通信はすべて SSL 経由で保護されます。自己署名証明書は組み込みコマンドで作成できますが、認証局 (CA) が署名して発行したカスタム証明書をインポートすることもできます。

関連情報

1.4. Red Hat Ceph ストレージダッシュボードアーキテクチャー

Dashboard アーキテクチャーは、Ceph Manager のダッシュボードプラグインおよびその他のコンポーネントによって異なります。以下の図を参照し、どのように連携するかを確認します。

Ceph Dashboard architecture diagram

第2章 Ceph Dashboard のインストールおよびアクセス

システム管理者は、クラスターのブートストラップ時に提示された認証情報を使用してダッシュボードにアクセスできます。

Cephadm はデフォルトでダッシュボードをインストールします。以下は、ダッシュボード URL の例です。

URL: https://host01:8443/
User: admin
Password: zbiql951ar
注記

ダッシュボード URL にアクセスする前に、ブラウザーを更新して Cookie をクリアします。

Ceph Dashboard 構成で使用できる Cephadm ブートストラップオプションを以下に示します。

  • [—initial-dashboard-user INITIAL_DASHBOARD_USER] - 初期ダッシュボードユーザーを設定するには、ブートストラップ中にこのオプションを使用します。
  • [—initial-dashboard-password] - 初期ダッシュボードパスワードを設定するには、ブートストラップ中にこのオプションを使用します。
  • [-SSL-dashboard-port SSL_DASHBOARD_PORT] - このオプションを使用して、ブートストラップ時にデフォルトの 8443 以外のカスタムダッシュボードポートを設定します。
  • [—dashboard-key DASHBOARD_KEY] - SSL のカスタムキーを設定するには、ブートストラップ中にこのオプションを使用します。
  • [—dashboard-crt DASHBOARD_CRT] - SSL のカスタム証明書を設定するには、ブートストラップ中にこのオプションを使用します。
  • [—skip-dashboard] - ダッシュボードなしで Ceph をデプロイするには、ブートストラップ中にこのオプションを使用します。
  • [—dashboard-password-noupdate] - 上記の 2 つのオプションを使用して初回ログイン時にパスワードをリセットしない場合は、ブートストラップ中にこのオプションを使用します。
  • [—allow-Fqdn-hostname] - 完全修飾ホスト名を使用できるようにするには、ブートストラップ中にこのオプションを使用します。
  • [—skip-prepare-host] - ホストの準備をスキップするには、ブートストラップ中にこのオプションを使用します。
注記

ダッシュボード関連の外部 URL の接続の問題を回避するには、ホスト名に完全修飾ドメイン名 (FQDN) を使用します (例:host01.ceph.redhat.com)。

注記

クライアントのインターネットブラウザーで Grafana URL を直接開き、セキュリティー例外を受け入れ、Ceph Dashboard のグラフを確認します。ブラウザーをリロードして、変更を表示します。

[ceph: root@host01 /]# cephadm bootstrap --mon-ip 127.0.0.1 --registry-json cephadm.txt  --initial-dashboard-user  admin --initial-dashboard-password zbiql951ar --dashboard-password-noupdate --allow-fqdn-hostname

注記

cephadm を使用してストレージクラスターをブートストラップするときに、カスタムコンテナーイメージまたはローカルコンテナーイメージに —image オプションを使用できます。

注記

ブートストラップ時に —dashboard-password-noupdate オプションを使用しない場合にのみ、ブートストラップ時に指定した資格情報を使用してダッシュボードへの初回ログイン時にパスワードを変更する必要があります。Ceph Dashboard の認証情報は var/log/ceph/cephadm.log ファイルにあります。「Ceph Dashboard is now available at」という文字列で検索します。

このセクションでは、次のタスクについて説明します。

2.1. Ceph Dashboard のネットワークポート要件

Ceph Dashboard のコンポーネントは、アクセス可能である必要のある、特定の TCP ネットワークポートを使用します。デフォルトでは、Red Hat Ceph Storage のインストール時に、ネットワークポートは firewalld で自動的に開きます。

表2.1 TCP ポート要件

ポート使用方法発信元ノード送信先ノード

8443

ダッシュボードの Web インターフェース

Ceph Manager ノード。

Ceph Dashboard UI にアクセスする必要がある IP アドレス。

8443

ダッシュボードの Web インターフェース

Ceph Dashboard UI にアクセスする必要がある IP アドレス。

Ceph Manager ノード。

3000

Grafana

[grafana-server] の下のノード。

Grafana ダッシュボード UI およびすべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

3000

Grafana

Grafana ダッシュボード UI およびすべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

[grafana-server] の下のノード。

2049

NFS_Ganesha

[grafana-server] の下のノード。

NFS にアクセスする必要がある IP アドレス。

2049

NFS-Ganesha

NFS にアクセスする必要がある IP アドレス。

[grafana-server] の下のノード。

9095

基本的な Prometheus グラフ用のデフォルトの Prometheus サーバー

[grafana-server] の下のノード。

Prometheus UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

9095

基本的な Prometheus グラフ用のデフォルトの Prometheus サーバー

Prometheus UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

[grafana-server] の下のノード。

9093

Prometheus Alertmanager

すべての Ceph マネージャーノードと [grafana-server] の下のノード。

AlertManager Web UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

9093

Prometheus Alertmanager

AlertManager Web UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

すべての Ceph マネージャーノードと [grafana-server] の下のノード。

9094

複数のインスタンスから作成された可用性の高いクラスターを設定するための Prometheus Alertmanager

すべての Ceph マネージャーノードと [grafana-server] の下のノード。

AlertManager Web UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

9094

複数のインスタンスから作成された可用性の高いクラスターを設定するための Prometheus Alertmanager

AlertManager Web UI、すべての MGR ホスト、および Grafana サーバーまたは Prometheus ホストにアクセス権が必要な IP アドレス。

すべての Ceph マネージャーノードと [grafana-server] の下のノード。

9100

Prometheus の node-exporter デーモン

MOS、OSDS、[grafana-server] ホストを含む、すべてのストレージクラスターノード。

Node Exporter メトリック Web UI およびすべての MGR ノード、および Grafana サーバーまたは Prometheus ホストを表示する必要がある IP アドレス。

9100

Prometheus の node-exporter デーモン

Node Exporter メトリック Web UI およびすべての MGR ノード、および Grafana サーバーまたは Prometheus ホストを表示する必要がある IP アドレス。

MOS、OSDS、[grafana-server] ホストを含む、すべてのストレージクラスターノード。

9283

Ceph Manager Prometheus エクスポーターモジュール

すべての Ceph Manager ノード。

Ceph Exporter メトリクス Web UI および Grafana サーバーまたは prometheus ホストへのアクセス権が必要な IP アドレス。

9283

Ceph Manager Prometheus エクスポーターモジュール

Ceph Exporter メトリクス Web UI および Grafana サーバーまたは prometheus ホストへのアクセス権が必要な IP アドレス。

すべての Ceph Manager ノード。

9287

Ceph iSCSI ゲートウェイデータ

すべての Ceph iSCSI ゲートウェイノード。

すべての MGR ホストと Grafana サーバーまたは Prometheus ホスト。

9287

Ceph iSCSI ゲートウェイデータ

すべての MGR ホストと Grafana サーバーまたは Prometheus ホスト。

すべての Ceph iSCSI ゲートウェイノード。

関連情報

2.2. Ceph Dashboard へのアクセス

Ceph Dashboard にアクセスして Red Hat Ceph Storage クラスターを管理および監視できます。

要件

  • Red Hat Ceph Storage Dashboard の正常なインストール
  • NTP はクロックを適切に同期しています。

手順

  1. Web ブラウザーに以下の URL を入力します。

    構文

    https:// HOST_NAME : PORT

    以下を置き換えます。

    • HOST_NAME は、アクティブなマネージャノードの完全修飾ドメイン名 (FQDN) に置き換えます。
    • PORT は、ポート 8443 に置き換えます。

      https://host01:8443

      Cephadm シェルで次のコマンドを実行して、ダッシュボードの URL を取得することもできます。

      [ceph: root@host01 /]# ceph mgr services

      このコマンドは、現在設定されているすべてのエンドポイントを表示します。ダッシュボード キーを探して、ダッシュボードにアクセスするための URL を取得します。

  2. ログインページで、ブートストラップ時に指定したユーザ名 admin とデフォルトパスワードを入力します。
  3. Red Hat Ceph Storage ダッシュボードに初めてログインするときにパスワードを変更する必要があります。
  4. ログイン後、ダッシュボードのデフォルトランディングページが表示され、Red Hat Ceph Storage クラスターのステータス、パフォーマンス、および容量のメトリックの概要が提供されています。

    図2.1 Ceph Dashboard のランディングページ

    Ceph dashboard landing page
  5. ダッシュボードのランディングページの以下のアイコンをクリックして、垂直メニューのオプションを折りたたむか表示します。

    図2.2 Ceph Dashboard の垂直メニュー

    Vertical menu on Ceph dashboard

2.3. Ceph Dashboard 機能の切り替え

オンデマンドで機能を有効または無効にすることで、Red Hat Ceph Storage ダッシュボードのコンポーネントをカスタマイズできます。デフォルトでは、すべての機能が有効になっています。機能を無効にすると、Web インターフェース要素は非表示になり、関連付けられた REST API のエンドポイントはその機能に対する追加のリクエストを拒否します。ダッシュボード機能の有効化および無効化は、コマンドラインインターフェースまたは Web インターフェースから実行できます。

利用可能な機能:

  • Ceph ブロックデバイス:

    • イメージの管理 (rbd)
    • ミラーリング (mirroring)
    • iSCSI ゲートウェイ (iscsi)
  • Ceph ファイルシステム (cephfs)
  • Ceph オブジェクトゲートウェイ (rgw)
  • NFS Ganesha ゲートウェイ (nfs)
注記

デフォルトでは、Ceph Manager は Ceph Monitor と併置されます。

注記

複数の機能を一度に無効にできます。

重要

機能が無効になったら、Web インターフェースの変更を反映するのに最大 20 秒かかる場合があります。

前提条件

  • Red Hat Ceph Storage ダッシュボードソフトウェアのインストールおよび設定
  • Ceph Manager ノードまたはダッシュボードの Web インターフェースへのユーザーアクセス
  • Ceph マネージャノードへのルートレベルのアクセス。

手順

  • ダッシュボードの Web インターフェースからダッシュボード機能を切り替えるには、以下を実行します。

    1. ダッシュボードのランディングページで、Cluster ドロップダウンメニューに移動します。
    2. Manager Modules を選択し、Dashboard を選択します。
    3. Edit Manager module ページで、機能名の横にある選択ボックスを選択するか、選択を解除すると、ダッシュボードの機能を有効または無効にできます。

      図2.3 Manager モジュールを編集

      Edit Manager module
    4. 選択が完了したら、下にスクロールして Update をクリックします。
  • コマンドラインインターフェースからダッシュボード機能を切り替えるには、以下を実行します。

    1. Cephadm シェルにログインします。

      [root@host01 ~]# cephadm shell

    2. 機能のステータスの一覧を表示します。

      [ceph: root@host01 /]# ceph dashboard feature status

    3. 機能を無効にします。

      [ceph: root@host01 /]# ceph dashboard feature disable iscsi

      以下の例では、Ceph iSCSI ゲートウェイ機能を無効にします。

    4. 機能を有効にします。

      [ceph: root@host01 /]# ceph dashboard feature enable cephfs

      以下の例では、Ceph Filesystem 機能を有効にします。

2.4. Ceph Dashboard のランディングページの理解

ランディングページには、個別のパネルを使用した Ceph クラスター全体の概要が表示されます。各パネルに、クラスターの状態に関する具体的な情報が表示されます。

カテゴリー

ランディングページでは、パネルが以下の 3 つのカテゴリーに分けられます。

  1. 状態
  2. 容量
  3. Performance

図2.4 Ceph Dashboard のランディングページ

Ceph dashboard Landing page

ステータスパネル

ステータスパネルには、クラスターの状態とホストおよびデーモンの状態が表示されます。

クラスターの状態: Ceph ストレージクラスターの現在のヘルスステータスを表示します。

ホスト: Ceph Storage クラスターのホストの合計数を表示します。

監視: Ceph Monitor の数およびクォーラムのステータスを表示します。

OSDs: Ceph Storage クラスターの OSD の合計数と、up および in の数を表示します。

マネージャー: Manager Daemon の数およびステータスを表示します。

オブジェクトゲートウェイ: Ceph Storage クラスターのオブジェクトゲートウェイの数を表示します。

メタデータサーバー: Ceph ファイルシステム (CephFS) のメタデータサーバーの数とステータスを表示します。

iSCSI ゲートウェイ: Ceph ストレージクラスター内の iSCSI ゲートウェイの数を表示します。

容量パネル

容量パネルには、ストレージ使用量のメトリックが表示されます。

生の容量: クラスターの生のストレージ容量の使用状況および可用性を表示します。

オブジェクト: プール内のオブジェクトの合計数と、オブジェクトを HealthyMisplacedDegraded、または Unfound の状態に分割するグラフを表示します。

PG ステータス: 配置グループの合計数と、PG を CleanWorkingWarning、または Unknown の状態に分割するグラフを表示します。PG ステータスの Working および Warning の表示を簡素化するために、実際には複数の状態が含まれます。

Working の状態には、以下のいずれかの状態の PG が含まれます。

  • activating
  • backfill_wait
  • backfilling
  • creating
  • deep
  • degraded
  • forced_backfill
  • forced_recovery
  • peering
  • peered
  • recovering
  • recovery_wait
  • repair
  • scrubbing
  • snaptrim
  • snaptrim_wait

Warning の状態には、以下のいずれかの状態の PG が含まれます。

  • backfill_toofull
  • backfill_unfound
  • down
  • incomplete
  • inconsistent
  • recovery_toofull
  • recovery_unfound
  • remapped
  • snaptrim_error
  • stale
  • undersized

プール: Ceph クラスター内のストレージプールの数を表示します。

OSD ごとの PG: OSD ごとの配置グループ数を表示します。

パフォーマンスパネル

パフォーマンスパネルには、データ転送速度に関する情報が表示されます。

クライアントの読み取り/書き込み: 1 秒あたりの入出力操作の合計、読み取り、および書き込みを表示します。

クライアントのスループット: クライアントスループット、読み取りスループット、書き込みスループットを表示します。

リカバリーのスループット: データのリカバリー速度を表示します。

スクラビング: データの整合性を確認するために Ceph がスクラビングしているかどうかを表示します。

関連情報

2.5. Ceph Dashboard を使用したダッシュボードパスワードの変更

デフォルトでは、ダッシュボードにアクセスするためのパスワードは、クラスタのブートストラップ中にシステムでランダムに生成されます。Red Hat Ceph Storage ダッシュボードに初めてログインするときにパスワードを変更する必要があります。ダッシュボードを使用して、admin ユーザーのパスワードを変更できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスターがある。

手順

  1. ダッシュボードにログインします。

    https://HOST_NAME:8443
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    図2.5 ユーザー管理

    User management
  3. admin のパスワードを変更するには、その行をクリックします。
  4. Edit ドロップダウンメニューで Edit を選択します。
  5. Edit User ウィンドウで、新しいパスワードを入力し、その他のパラメーターを変更し、Edit User をクリックします。

    図2.6 ユーザー管理の編集

    Edit user management

    ログアウトし、ログイン画面にリダイレクトされます。パスワードの変更を確認する通知が表示されます。

2.6. Red Hat Ceph Storage Dashboard の手動有効化

ブートストラップ中に --skip-dashboard オプションを使用して Red Hat Ceph Storage クラスターをインストールした場合は、ブートストラップの出力でダッシュボードの URL および認証情報が利用できないことを確認できます。コマンドラインインターフェースを使用して、ダッシュボードを手動で有効にできます。Prometheus、Grafana、Alertmanager、node-exporter などのモニタリングスタックコンポーネントがデプロイされ、それらは無効にされ、それらを手動で有効にする必要があります。

前提条件

  • ブートストラップ時に --skip-dashboard オプションを使用して実行中の Red Hat Ceph Storage クラスターがインストールされている。
  • ダッシュボードを有効にする必要があるノードへの root レベルのアクセス。

手順

  1. Cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell

  2. Ceph Manager サービスを確認します。

    [ceph: root@host01 /]# ceph mgr services
    
    {
        "prometheus": "http://10.8.0.101:9283/"
    }

    Dashboard URL が設定されていないことを確認できます。

  3. Dashboard モジュールを有効にします。

    [ceph: root@host01 /]# ceph mgr module enable dashboard

  4. ダッシュボードアクセス用に自己署名証明書を作成します。

    [ceph: root@host01 /]# ceph dashboard create-self-signed-cert

    注記

    認定エラーを回避するために、証明書の検証を無効にすることができます。

  5. Ceph Manager サービスを確認します。

    [ceph: root@host01 /]# ceph mgr services
    
    {
        "dashboard": "https://10.8.0.101:8443/",
        "prometheus": "http://10.8.0.101:9283/"
    }

  6. Red Hat Ceph Storage Dashboard にアクセスするための管理ユーザーおよびパスワードを作成します。

    構文

    echo -n "p@ssw0rd" > PASSWORD_FILE
    ceph dashboard ac-user-create admin -i PASSWORD_FILE administrator

    [ceph: root@host01 /]# echo -n "p@ssw0rd" > password.txt
    [ceph: root@host01 /]# ceph dashboard ac-user-create admin -i password.txt administrator

  7. モニタリングスタックを有効にします。詳細は、『 Red Hat Ceph Storage Dashboard ガイド』の「 モニタリングスタックの有効化 」セクションを参照してください。

関連情報

2.7. 管理アカウントを作成することでユーザーと Ceph Dashboard との同期

ユーザーを Ceph Dashboard に同期するには、管理者アカウントを作成する必要があります。

アカウントを作成したら、Red Hat シングルサインオン (SSO) を使用して、ユーザーを Ceph Dashboard と同期させます。『Red Hat Ceph Storage ダッシュボードガイド』の「Red Hat シングルサインオンを使用した Ceph Dashboard へのユーザーの同期」セクションを参照してください。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ユーザーをダッシュボードに追加しておく。
  • すべてのノードでの root レベルのアクセス。
  • Red hat Single Sign-On をZIP ファイルからインストールしておく。詳細は、「Zip ファイルからの Red Hat Single Sign-On のインストール」を参照してください。

手順

  1. Red Hat Ceph ストレージがインストールされているシステムに Red Hat Single Sign-On 7.4.0 サーバー をダウンロードします。
  2. フォルダーを展開します。

    [root@host01 ~]# unzip rhsso-7.4.0.zip
  3. standalone/configuration ディレクトリーに移動し、standalone.xml を開いて編集します。

    [root@host01 ~]# cd standalone/configuration
    [root@host01 configuration]# vi standalone.xml
  4. localhost のすべてのインスタンスと 127.0.0.1 の 2 つのインスタンスは、Red Hat SSO がインストールされているマシンの IP アドレスに置き換えます。
  5. オプション: Red Hat Enterprise Linux 8 の場合には、認証局 (CA) の問題が発生する可能性があります。CA からカスタム証明書をインポートして、正確な Java バージョンを使用するキーストアに移動します。

    [root@host01 ~]# keytool -import -noprompt -trustcacerts -alias ca -file ../ca.cer -keystore /etc/java/java-1.8.0-openjdk/java-1.8.0-openjdk-1.8.0.272.b10-3.el8_3.x86_64/lib/security/cacert

  6. rh-sso-7.4 フォルダーの bin ディレクトリーからサーバーを起動するには、standalone ブートスクリプトを実行します。

    [root@host01 bin]# ./standalone.sh
  7. ユーザー名とパスワードを指定して、https: IP_ADDRESS :8080/auth で管理アカウントを作成します。

    注記

    管理者アカウントを作成する必要があるのは、コンソールに初めてログインするときだけです。

  8. 作成された認証情報を使用して管理コンソールにログインします。

関連情報

  • ダッシュボードでユーザーのロールを追加する方法は、『Red Hat Ceph Storage ダッシュボードガイド』の「Ceph Dashboard でのロールの作成」セクションを参照してください。
  • ダッシュボードでユーザーを作成する方法は、『Red Hat Ceph Storage ダッシュボードガイド』の「Ceph Dashboard でのユーザーの作成」セクションを参照してください。

2.8. Red Hat シングルサインオンを使用したユーザーの Ceph Dashboard への同期

Red Hat シングルサインオン (SSO) と Lightweight Directory Access Protocol (LDAP) 統合を使用して、ユーザーを Red Hat Ceph ストレージダッシュボードと同期させることができます。

ユーザーは特定のレルムに追加されます。このレルムでは、パスワードの追加要件なしで SSO を介してダッシュボードにアクセスできます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ユーザーをダッシュボードに追加しておく。『Red Hat Ceph Storage ダッシュボードガイド』の「ダッシュボードでのユーザーの作成」セクションを参照してください。
  • すべてのノードでの root レベルのアクセス。
  • ユーザーの同期用に作成された管理者アカウント。『Red Hat Ceph Storage Dashboard ガイド』の「Ceph Dashboard でユーザーを同期するための管理者アカウントの作成」セクションを参照してください。

手順

  1. レルムを作成するには、Master ドロップダウンメニューをクリックします。このレルムでは、ユーザーおよびアプリケーションにアクセスできます。
  2. Add Realm ウィンドウで、レルム名 (大文字と小文字を区別) を入力し、パラメーターを Enabled に設定し、Create をクリックします。

    Add realm window
  3. Realm Settings タブで、次のパラメーターを設定し、Save をクリックします。

    1. Enabled - ON
    2. User-Managed Access - ON
    3. Client Settings に貼り付ける SAML 2.0 アイデンティティープロバイダメタデータのリンクアドレスをメモしておきます。

      Add realm settings window
  4. Clients タブで、Create をクリックします。

    Add client
  5. Add Client ウィンドウで、次のパラメーターを設定し、Save をクリックします。

    1. クライアント ID - BASE_URL:8443/auth/saml2/metadata

      https://example.ceph.redhat.com:8443/auth/saml2/metadata

    2. クライアントプロトコル - saml
  6. Client ウィンドウの Settings タブで、次のパラメーターを設定します。

    表2.2 クライアント設定タブ

    パラメーターの名前構文

    クライアント ID

    BASE_URL:8443/auth/saml2/metadata

    https://example.ceph.redhat.com:8443/auth/saml2/metadata

    有効

    ON

    ON

    クライアントプロトコル

    saml

    saml

    AuthnStatement の追加

    ON

    ON

    サインインドキュメント

    ON

    ON

    署名アルゴリズム

    RSA_SHA1

    RSA_SHA1

    SAML 署名キー名

    KEY_ID

    KEY_ID

    有効なリダイレクト URL

    BASE_URL:8443/*

    https://example.ceph.redhat.com:8443/*

    Base URL

    BASE_URL:8443

    https://example.ceph.redhat.com:8443/

    マスター SAML 処理 URL

    https://localhost:8080/auth/realms/REALM_NAME/protocol/saml/descriptor

    https://localhost:8080/auth/realms/Ceph_LDAP/protocol/saml/descriptor

    注記

    Realm Settings タブから SAML 2.0 アイデンティティープロバイダーメタデータのリンクを貼り付けます。

    Fine Grain SAML Endpoint Configuration で、次のパラメーターを設定し、Save をクリックします。

    表2.3 詳細にわたる SAML 構成

    パラメーターの名前構文

    assertion Consumer Service POST バインディング URL

    BASE_URL:8443/#/dashboard

    https://example.ceph.redhat.com:8443/#/dashboard

    assertion Consumer Service リダイレクトバインディング URL

    BASE_URL:8443/#/dashboard

    https://example.ceph.redhat.com:8443/#/dashboard

    サービスリダイレクトバインディング URL をログアウトする

    BASE_URL:8443/

    https://example.ceph.redhat.com:8443/

  7. Clients ウィンドウの Mappers タブで、次のパラメーターを設定し、Save をクリックします。

    表2.4 クライアントマッパータブ

    パラメーターの名前

    プロトコル

    saml

    名前

    username

    マッパープロパティー

    ユーザープロパティー

    プロパティー

    username

    SAML 属性名

    username

  8. Clients Scope タブで、role_list を選択します。

    1. Mappers タブで、role list を選択し、Single Role Attribute をオンに設定します。
  9. User_Federation タブを選択します。

    1. User Federation ウィンドウで、ドロップダウンメニューから LDAP を選択します。
    2. User_Federation ウィンドウの Settings タブで、次のパラメーターを設定し、Save をクリックします。

      表2.5 ユーザーフェデレーション設定タブ

      パラメーターの名前

      コンソール表示名

      rh-ldap

      ユーザーのインポート

      ON

      Edit_Mode

      READ_ONLY

      ユーザ名 LDAP 属性

      username

      RDN LDAP 属性

      username

      UUID LDAP 属性

      nsuniqueid

      ユーザーオブジェクトクラス

      inetOrgPerson

      organizationalPerson

      rhatPerson

      接続 URL

      例: ldap: //ldap.corp.redhat.com。Test Connection をクリックします。LDAP 接続が成功したという通知が表示されます。

      ユーザー DN

      ou=users、dc=example、dc=com

      バインドタイプ

      simple

      Test authentication をクリックします。LDAP 認証が成功したという通知が表示されます。

    3. Mappers タブで、first name の行を選択して、以下のパラメーターを編集し、Save をクリックします。

      • LDAP 属性 - GivenName
    4. User_Federation タブの Settings タブで、Synchronize all users をクリックします。

      User Federation Synchronize

      ユーザーの同期が正常に終了したという通知が表示されます。

  10. Users タブで、ダッシュボードに追加されたユーザーを検索し、検索アイコンをクリックします。

    User search tab
  11. ユーザーを表示するには、特定の行をクリックします。フェデレーションリンクは、 User Federation で指定した名前で表示されます。

    User details
    重要

    ユーザーは LDAP では同期されないため、手動でユーザーを追加しないでください。手動で追加した場合は、Delete をクリックしてユーザーを削除します。

検証

  • レルムとダッシュボードに追加されたユーザーは、メールアドレスとパスワードを使用して Ceph Dashboard にアクセスできます。

    https://example.ceph.redhat.com:8443

関連情報

  • ダッシュボードでユーザーのロールを追加する方法は、『Red Hat Ceph Storage ダッシュボードガイド』の「ダッシュボードでのロールの作成」セクションを参照してください。

2.9. Ceph Dashboard のシングルサインオンの有効化

Ceph Dashboard は、Security Assertion Markup Language (SAML) 2.0 プロトコルを使用したユーザーの外部認証をサポートします。Ceph Dashboard にシングルサインオン (SSO) を使用する前に、ダッシュボードのユーザーアカウントを作成して必要なロールを割り当てます。Ceph Dashboard はユーザーの承認を実行し、認証プロセスは既存のアイデンティティープロバイダー (IdP) によって実行されます。SAML プロトコルを使用してシングルサインオンを有効にできます。

要件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Ceph Dashboard のインストール。
  • Ceph Manager ノードへのルートレベルのアクセス。

手順

  1. Ceph Dashboard で SSO を設定するには、以下のコマンドを実行します。

    構文

    podman exec CEPH_MGR_NODE ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

    [root@host01 ~]# podman exec host01 ceph dashboard sso setup saml2 https://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username https://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    置き換え

    • Ceph mgr ノードを使用した CEPH_MGR_NODE。(例: host01)
    • CEPH_DASHBOARD_BASE_URL は、Ceph Dashboard にアクセスできるベース URL に置き換えます。
    • IDP_METADATA は、リモートパスまたはローカルパス、または IdP メタデータ XML の内容への URL に置き換えます。サポートされる URL タイプは http、https、およびファイルです。
    • 任意: IDP_USERNAME_ATTRIBUTE は、認証応答からユーザー名を取得するために使用される属性に置き換えます。デフォルトは uid です。
    • 任意: IDP_ENTITY_ID は、IdP メタデータに複数のエンティティー ID が存在する場合は IdP エンティティー ID に置き換えます。
    • 任意: SP_X_509_CERT は、署名および暗号化に Ceph Dashboard によって使用される証明書のファイルパスに置き換えます。
    • 任意: SP_PRIVATE_KEY は、署名および暗号化に Ceph Dashboard によって使用される秘密鍵のファイルパスに置き換えます。
  2. 現在の SAML 2.0 設定を確認します。

    構文

    podman exec CEPH_MGR_NODE ceph dashboard sso show saml2

    [root@host01 ~]#  podman exec host01 ceph dashboard sso show saml2

  3. SSO を有効にするには、以下のコマンドを実行します。

    構文

    podman exec CEPH_MGR_NODE ceph dashboard sso enable saml2
    SSO is "enabled" with "SAML2" protocol.

    [root@host01 ~]#  podman exec host01 ceph dashboard sso enable saml2

  4. ダッシュボードの URL を開きます。

    https://dashboard_hostname.ceph.redhat.com:8443

  5. SSO ページで、ログインの認証情報を入力します。SSO はダッシュボードの Web インターフェースにリダイレクトされます。

関連情報

2.10. Ceph Dashboard のシングルサインオンの無効化

SAML 2.0 プロトコルを使用して、Ceph Dashboard のシングルサインオンを無効にすることができます。

要件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Ceph Dashboard のインストール。
  • Ceph Manager ノードへのルートレベルのアクセス。
  • Ceph Dashboard で有効になっているシングルサインオン

手順

  1. SSO の状態を表示するには、以下のコマンドを実行します。

    構文

    podman exec CEPH_MGR_NODE ceph dashboard sso status
    SSO is "enabled" with "SAML2" protocol.

    [root@host01 ~]#  podman exec host01 ceph dashboard sso show saml2

  2. SSO を無効にするには、以下のコマンドを実行します。

    構文

    podman exec CEPH_MGR_NODE ceph dashboard sso disable
    SSO is "disabled".

    [root@host01 ~]#  podman exec host01 ceph dashboard sso disable

関連情報

第3章 Ceph Dashboard でのロールの管理

ストレージ管理者は、ダッシュボードでロールを作成、編集、複製、削除できます。

デフォルトでは、8 つのシステムロールがあります。カスタムロールを作成し、それらのロールにアクセス権を付与できます。これらのロールは、要件に基づいてユーザーに割り当てることができます。

本セクションでは、以下の管理タスクを説明します。

3.1. Ceph Dashboard 上のユーザーロールとパーミッション

ユーザーアカウントは、アクセスが可能な特定のダッシュボード機能を定義する一連のロールに関連付けられます。

Red Hat Ceph Storage のダッシュボード機能またはモジュールは、セキュリティー範囲内でグループ化されます。セキュリティースコープは、事前定義済みおよび静的です。Red Hat Ceph Storage ダッシュボードで利用可能な現在の セキュリティースコープ は以下のとおりです。

  • CephFS: CephFS 管理に関連するすべての機能が含まれます。
  • config-opt: Ceph 設定オプションの管理に関連するすべての機能が含まれます。
  • dashboard-settings: ダッシュボード設定を編集することができます。
  • Grafana: Grafana プロキシーに関連するすべての機能が含まれます。
  • hosts: Hosts メニューエントリーに関連するすべての機能が含まれます。
  • ISCSI: iSCSI 管理に関連するすべての機能が含まれます。
  • ログ: Ceph ログ管理に関連するすべての機能が含まれます。
  • manager: Ceph Manager 管理に関連するすべての機能が含まれます。
  • モニター: Ceph モニター管理に関連するすべての機能が含まれます。
  • NFS-ganesha: NFS-Ganesha 管理に関連するすべての機能を含めます。
  • OSD: OSD 管理に関連するすべての機能が含まれます。
  • プール: プール管理に関連するすべての機能が含まれます。
  • Prometheus: Prometheus アラート管理に関連するすべての機能が含まれます。
  • rbd-image: RBD イメージ管理に関連するすべての機能が含まれます。
  • rbd-mirroring: RBD ミラーリング管理に関連するすべての機能が含まれます。
  • RGW: Ceph オブジェクトゲートウェイ(RGW)管理に関連するすべての機能が含まれます。

ロールは、セキュリティースコープと一連のパーミッション間のマッピングを指定します。パーミッション には 4 つのタイプがあります。

  • 読み取り
  • 作成
  • Update
  • Delete
Security scope and permission

システムロールの一覧は以下のようになります

  • Administrator: すべてのセキュリティースコープの完全なパーミッションを許可します。
  • block-manager: RBD-image、RBD-mirroring、および iSCSI スコープの完全なパーミッションを許可します。
  • cephfs-manager: Ceph ファイルシステムスコープの完全なパーミッションを許可します。
  • cluster-manager: ホスト、OSD、モニター、マネージャー、および config-opt スコープの完全なパーミッションを許可します。
  • Ganesha-manager: NFS-Ganesha スコープの完全なパーミッションを許可します。
  • pool-manager: プールスコープの完全なパーミッションを許可します。
  • read-only: ダッシュボード設定および config-opt スコープ以外のすべてのセキュリティースコープの読み取りパーミッションを許可します。
  • RGW-manager: Ceph オブジェクトゲートウェイスコープの完全なパーミッションを許可します。
System roles

たとえば、すべての Ceph オブジェクトゲートウェイ操作についてユーザーに rgw-manager アクセスを提供する必要があります。

関連情報

  • Ceph Dashboard でユーザーを作成するには、『Red Hat Ceph Storage Dashboard ガイド』の「Ceph Dashboard でのユーザーの作成」のセクションを参照してください。
  • Ceph Dashboard でロールを作成するには、『Red Hat Ceph Storage Dashboard ガイド』の「Ceph Dashboard でのロールの作成」についてのセクションを参照してください。

3.2. Ceph Dashboard でのロールの作成

ダッシュボードでカスタムロールを作成し、ロールに基づいてこれらのロールをユーザーに割り当てることができます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Roles タブで、Create をクリックします。
  4. Create Role ウィンドウで、NameDescription を設定し、このロールの Permissions を選択して、Create Role ボタンをクリックします。

    Create role window

    この例では、Ganesha-manager ロールと rgw-manager ロールを付与すると、これらのロールに割り当てられたユーザは、すべての NFS-GanesHA ゲートウェイおよび Ceph オブジェクトゲートウェイ操作を管理できます。

  5. ロールが正常に作成されたという通知が表示されます。
  6. その行の Expand/Collapse アイコンをクリックして、ロールに付与された詳細と権限を表示します。

関連情報

3.3. Ceph Dashboard でのロールの編集

ダッシュボードでは、ダッシュボードのロールを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードでロールが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Roles タブで、編集するロールをクリックします。
  4. Edit Role ウィンドウで、パラメーターを編集し、Edit Role をクリックします。

    Edit role window
  5. ロールが正常に更新されたという通知が表示されます。

関連情報

3.4. Ceph Dashboard でのロールのクローン作成

既存のロールに追加の権限を割り当てる場合は、システムロールのクローンを作成し、Red Hat Ceph Storage Dashbaord で編集できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者アクセスレベル。
  • ロールがダッシュボードに作成されている。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Roles タブで、クローンを作成するロールをクリックします。
  4. Edit ドロップダウンメニューから Clone を選択します。
  5. Clone Role ダイアログボックスで、ロールの詳細を入力し、Clone Role をクリックします。

    Delete role window
  6. ロールを複製すると、要件に従って権限をカスタマイズできます。

関連情報

3.5. Ceph Dashboard でのロールの削除

Red Hat Ceph Storage Dashboard で作成したカスタムロールは削除できます。

注記

Ceph Dashboard のシステムロールは削除できません。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • カスタムロールがダッシュボードで作成されている。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Roles タブで、削除するロールをクリックします。
  4. Edit ドロップダウンメニューから Delete を選択します。
  5. Delete Role ダイアログボックスで、Yes, I am sure ボックスをクリックし、Delete Role をクリックします。

    Delete role window

関連情報

第4章 Ceph Dashboard でのユーザーの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で特定のロールが割り当てられたユーザーを作成、編集、削除できます。ロールベースのアクセス制御は、各ユーザーのロールと要件に基づいて各ユーザーに付与されます。

本セクションでは、以下の管理タスクを説明します。

4.1. Ceph Dashboard でのユーザーの作成

Red Hat Ceph Storage Dashboard で、ロールに基づいて適切なロールと権限が割り当てられたユーザーを作成できます。たとえば、Ceph オブジェクトゲートウェイ操作を管理させる場合には、ユーザーに rgw-manager ロールを付与できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
注記

Red Hat Ceph Storage Dashboard は、ユーザーパスワードの変更時に電子メールの検証をサポートしません。Dashboard はシングルサインオン (SSO) をサポートし、この機能を SSO プロバイダーに委譲できるため、この動作は意図的です。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Users タブで、Create をクリックします。
  4. Create User ウィンドウで、Username とロールを含むその他のパラメーターを設定し、Create User をクリックします。

    Create user window
  5. ユーザーが正常に作成されたという通知が表示されます。

関連情報

4.2. Ceph Dashboard でのユーザーの編集

Red Hat Ceph Storage Dashboard でユーザーを編集できます。要件に基づいて、ユーザーのパスワードとロールを変更できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードで作成したユーザー。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. ユーザーを編集するには、行をクリックします。
  4. Users タブで、Edit ドロップダウンメニューから Edit を選択します。
  5. Edit User ウィンドウで、パスワードやロールなどのパラメーターを編集し、Edit User をクリックします。

    Edit user window
    注記

    Ceph Dashboard へのユーザーのアクセスを無効にするには、Edit User ウィンドウで Enabled オプションの選択を解除します。

  6. ユーザーが正常に作成されたという通知が表示されます。

関連情報

4.3. Ceph Dashboard でのユーザーの削除

Ceph Dashboard でユーザーを削除できます。一部のユーザーがシステムから削除される可能性があります。このようなユーザーへのアクセスは、Ceph Dashboard から削除できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードで作成したユーザー。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Users タブで、削除するユーザーをクリックします。
  4. Edit ドロップダウンメニューから Delete を選択します。
  5. Delete User ダイアログボックスで、Yes, I am sure ボックスをクリックし、Delete User をクリックして設定を保存します。

    Delete user window

関連情報

第5章 Ceph Dashboard でのクラスターの監視

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して、ホストのタイプ、サービス、データアクセス方法などに基づいて、クラスターの特定の側面を監視できます。

本セクションでは、以下の管理タスクを説明します。

5.1. ダッシュボードでの Ceph クラスターのホストの監視

Red Hat Ceph Storage Dashboard でクラスターのホストを監視できます。

以下で、ホストページの各種タブを紹介します。

  • デバイス - このタブには、デバイス ID、ヘルス状態、デバイス名、ホスト上のデーモンなどの詳細が表示されます。
  • インベントリー: このタブには、選択したホストに接続されているすべてのディスクと、そのタイプ、サイズなどが表示されます。デバイスパス、デバイスのタイプ、可用性、ベンダー、モデル、サイズ、デプロイされた OSD などの詳細があります。
  • デーモン - このタブには、選択したホストにデプロイされたすべてのサービス、実行中のコンテナー、および現在のステータスが表示されます。ホスト名、デーモンタイプ、デーモン ID、コンテナー ID、コンテナーイメージ名、コンテナーイメージ ID、バージョンステータス、最終更新時刻などの詳細があります。
  • パフォーマンスの詳細 - このタブには、デプロイされた OSD、CPU 使用率、RAM 使用率、ネットワーク負荷、ネットワークドロップ率、OSD ディスクのパフォーマンス統計などの詳細が表示されます。
  • デバイスのヘルス - スマート対応デバイスの場合には、OSD がデプロイされたホスト上でのみ個々のヘルスステータスと SMARTデータを取得できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • ホストがストレージクラスターに追加されている。
  • すべてのサービス、モニター、マネージャー、および OSD デーモンがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. 特定のホストの詳細を表示するには、そのホストの行にある Expand/Collapse アイコンをクリックします。
  4. 各タブをクリックすると、デバイスインベントリーデーモンパフォーマンスの詳細デバイスのヘルス などの詳細を表示できます。

    図5.1 Ceph クラスターのホストの監視

    Monitoring hosts of the Ceph cluster

関連情報

5.2. ダッシュボードでの Ceph クラスターの設定の表示と編集

ダッシュボードで Ceph クラスターのさまざまな構成オプションを表示できます。編集できるのは一部の設定オプションのみです。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • すべてのサービスがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Configuration を選択します。
  3. オプション: 検索 ボックスを使用して構成を検索できます。
  4. オプション: 次のフィルターを使用して、特定の構成をフィルタリングできます。

    • レベル - Basic、advanced または dev
    • サービス - Any、mon、mgr、osd、mds、common、mds_client、rgw などのフィルター。
    • ソース - Any、mon などのフィルター
    • 変更済み - Yes または No
  5. 設定の詳細を表示するには、その行の Expand/Collapse アイコンをクリックします。

    図5.2 設定オプション

    Configuration options
  6. 構成を編集するには、その行をクリックし、Edit をクリックします。

    1. 編集ダイアログウィンドウで、必要なパラメーターを編集し、Update をクリックします。
  7. 設定が正常に更新されたという通知が表示されます。

関連情報

5.3. ダッシュボードでの Ceph クラスターのマネージャーモジュールの表示および編集

マネージャーモジュールは、モジュール固有の設定管理すに使用されます。たとえば、クラスターのヘルスに関するアラートを有効にできます。

Red Hat Ceph Storage Dashboard で、クラスターのマネージャーモジュールを表示、有効化、無効化、および編集できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。

マネージャモジュールの表示

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Manager Modules を選択します。
  3. 特定のマネージャーモジュールの詳細を表示するには、その行の Expand/Collapse アイコンをクリックします。

    図5.3 マネージャーモジュール

    Manager modules

マネージャーモジュールの有効化

  1. 行を選択します。
  2. Edit ドロップダウンメニューから、Enable を選択します。

マネージャーモジュールの無効化

  1. 行を選択します。
  2. Edit ドロップダウンメニューから、Disable を選択します。

マネージャーモジュールの編集

  1. 行を選択します。

    注記

    すべてのモジュールに設定可能なパラメーターがあるわけではありません。モジュールが設定できない場合、Edit ボタンは無効になります。

  2. 必要なパラメーターを編集し、Update をクリックします。
  3. モジュールが正常に更新されたという通知が表示されます。

5.4. ダッシュボードでの Ceph クラスターのモニター監視

Ceph モニターのパフォーマンスを監視するには、Red Hat Ceph Storage ダッシュボードのランディングページで、モニターのステータス、クォーラム、オープンセッション数、パフォーマンスカウンターなどの詳細を Monitors タブに表示することもできます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • モニターはストレージクラスターにデプロイされます。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Monitors を選択します。
  3. Monitors 概要ページには、全体的な監視ステータスに関する情報と、Monitor ノード in Quorum および Not in quorum のテーブルが表示されます。

    Monitoring monitors of the Ceph cluster
  4. 開いているセッションの数を確認するには、青い点線のトレイルにカーソルを合わせます。
  5. モニターのパフォーマンスカウンターを表示するには、そのホスト名をクリックします。

    • モニターのパフォーマンスカウンタを表示します。

      Monitor performance counters

関連情報

5.5. ダッシュボードでの Ceph クラスターの監視サービス

Red Hat Ceph Storage Dashboard でクラスターのサービスを監視できます。ホスト名、デーモンタイプ、デーモン ID、コンテナー ID、コンテナーイメージ名、コンテナーイメージ ID、バージョンステータス、最終更新時刻の詳細を表示できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • ホストがストレージクラスターに追加されている。
  • すべてのサービスがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services を選択します。
  3. 特定のサービスの詳細を表示するには、そのホストの行にある Expand/Collapse アイコンをクリックします。

    図5.4 Ceph クラスターの監視サービス

    Monitoring services of the Ceph cluster

関連情報

5.6. ダッシュボードでの Ceph OSD の監視

Red Hat Ceph Storage Dashboard のランディングページで、Ceph OSD のステータスを監視できます。OSD タブでは、ホスト、ステータス、デバイスクラス、プレイスメントグループ (PG) の数、サイズフラグ、使用状況、読み取りまたは書き込み操作時間などの詳細を表示することもできます。

OSD ページのさまざまなタブを次に示します。

  • デバイス - このタブには、デバイス ID、ヘルス状態、有効期限、デバイス名、ホストのデーモンなどの詳細が表示されます。
  • 属性 (OSD マップ) - このタブには、クラスターアドレス、ハートビートの詳細、OSD の状態、およびその他の OSD 属性が表示されます。
  • メタデータ - このタブには、OSD オブジェクトストア、デバイス、オペレーティングシステム、およびカーネルの詳細が表示されます。
  • デバイスのヘルス - スマート対応デバイスの場合には、個々のヘルスステータスと SMART データを取得できます。
  • パフォーマンスカウンター - このタブには、デバイスに書き込まれたバイトの詳細が表示されます。
  • パフォーマンスの詳細 - このタブには、デプロイされた OSD、CPU 使用率、RAM 使用率、ネットワーク負荷、ネットワークドロップ率、OSD ディスクのパフォーマンス統計などの詳細が表示されます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • ホストがストレージクラスターに追加されている。
  • OSD を含むすべてのサービスがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、OSD を選択します。
  3. 特定の OSD の詳細を表示するには、そのホストの行にある Expand/Collapse アイコンをクリックします。

    図5.5 Ceph クラスターの OSD のモニタリング

    Monitoring OSDs of the Ceph cluster

    各タブをクリックすると、デバイス属性(OSD マップ)メタデータデバイスヘルスパフォーマンスカウンターパフォーマンスの詳細 などの情報を表示できます。

関連情報

5.7. ダッシュボードでの Ceph クラスターの CRUSH マップの表示

Red Hat Ceph Storage Dashbaoard で、OSD のリストおよび関連情報を含む CRUSH マップを表示できます。CRUSH マップおよび CRUSH アルゴリズムが一緒になって、データの保存方法と場所を決めます。このダッシュボードでは、OSD ホスト、OSD デーモン、ID 番号、デバイスクラスなど、CRUSH マップのさまざまな側面を確認することができます。

CRUSH マップを使用すると、特定の OSD ID が実行しているノードを決定できます。これは、OSD に問題がある場合に便利です。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • OSD デーモンがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、CRUSH Map を選択します。
  3. 特定の OSD の詳細を表示するには、その行をクリックします。

    図5.6 CRUSH Map の詳細ビュー

    CRUSH Map detail view

関連情報

  • CRUSH マップの詳細は、『Red Hat Ceph Storage Storage 戦略ガイド』の「クラッシュ管理」を参照してください。

5.8. ダッシュボードでの Ceph クラスターのログのフィルタリング

いくつかの条件をもとに、ダッシュボードで Red Hat Ceph Storage クラスターのログを表示およびフィルタリングできます。条件には、優先度キーワード日付、および 時間範囲 が含まれます。

ログをシステムにダウンロードするか、ログをクリップボードにコピーして、さらに分析することができます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Monitor が最後に起動されてからログエントリーが生成されている。
注記

Dashboard ロギング機能は最新の高レベルイベントのみを表示します。イベントは Ceph Monitor によってメモリーに格納されます。Monitor を再起動すると、エントリーが消えます。詳細なログまたは古いログを確認する必要がある場合は、ファイルベースのログを参照してください。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Logs を選択します。

    図5.7 クラスターログ

    Cluster logs
    1. 優先度で絞り込むには、Priority ドロップダウンメニューをクリックし、DebugInfoWarningError または All のいずれかを選択します。
    2. キーワードで絞り込むには、Keyword フィールドにテキストを入力します。
    3. 日付で絞り込むには、Date フィールドをクリックし、メニューから日付を選択するか、YYYY-MM-DD の形式で日付を入力します。
    4. 時間で絞り込むには、HH:MM - HH:MM 形式を使用して Time range フィールドに範囲を入力します。時間は、数字 0 から 23 に入力する必要があります。
    5. フィルターを組み合わせるには、2 つ以上のフィルターを設定します。
  3. Download アイコンまたは Copy to Clipboard アイコンをクリックして、ログをダウンロードします。

関連情報

  • 詳細については、『Red Hat Ceph Storage トラブルシューティングガイド』の「ロギングの設定」の章を参照してください。
  • 詳細については、『Red Hat Ceph Storage トラブルシューティングガイド』の「Ceph ログについて」のセクションを参照してください。

5.9. ダッシュボードでの Ceph クラスターのプールの監視

Red Hat Ceph Storage Dashboard では、クラスター内のプールの詳細、パフォーマンスの詳細、構成、および全体的なパフォーマンスを表示できます。

プールは、Ceph Storage クラスターがデータを分散し、格納する方法において重要な役割を果たします。プールを作成せずにクラスターをデプロイした場合に、Ceph はデフォルトのプールを使用してデータを格納します。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools を選択します。
  3. データ保護の詳細と、プールが有効化されているアプリケーションが含まれるプールリストを表示します。必要な詳細を表示するには、UsageRead bytes および Write bytes にマウスをかざします。
  4. プールに関する詳細情報を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図5.8 プールの監視

    Monitoring pools

関連情報

  • プールの詳細については、『Red Hat Ceph Storage アーキテクチャーガイド』の「Ceph プール」を参照してください。
  • 詳細は、『Red Hat Ceph Storage Dashboard ガイド』「Ceph Dashboard でのプールの作成」セクションを参照してください。

5.10. ダッシュボードでの Ceph ファイルシステムの監視

Red Hat Ceph Storage Dashboard を使用して Ceph File Systems (CephFS) および関連するコンポーネントを監視することができます。ファイルシステム には、次の 4 つの主要なタブがあります。

  • Details: メタデータサーバー (MDS) とそのランクに加えて、スタンバイデーモン、プール、その使用状況、パフォーマンスカウンターを表示します。
  • Clients: ファイルシステムをマウントしたクライアントのリストを表示します。
  • ディレクトリー - ディレクトリーのリストを表示します。
  • パフォーマンス: ファイルシステムのパフォーマンスを表示します。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • MDS サービスが少なくとも 1 つのノードにデプロイされている。
  • Ceph File System がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Filesystems をクリックします。
  3. ファイルシステムに関する詳細情報を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図5.9 Ceph ファイルシステムの監視

    Monitoring Ceph File Systems

関連情報

5.11. ダッシュボードでの Ceph オブジェクトゲートウェイデーモンの監視

Red Hat Ceph Storage Dashboard を使用して、Ceph オブジェクトゲートウェイデーモンを監視できます。Ceph オブジェクトゲートウェイデーモンの詳細、パフォーマンスカウンター、およびパフォーマンスの詳細を表示できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • ストレージクラスターに少なくとも 1 つの Ceph オブジェクトゲートウェイデーモンが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Ceph オブジェクトゲートウェイデーモンの詳細を表示するには、その行の Expand/Collapse アイコンをクリックします。

    図5.10 Ceph オブジェクトゲートウェイデーモンの監視

    Monitoring Ceph object gateway daemons

    Ceph Object Gateway デーモンを複数設定している場合は、Sync Performance タブをクリックして、マルチサイトのパフォーマンスカウンターを表示します。

関連情報

5.12. Ceph Dashboard でブロックデバイスイメージを監視します。

Red Hat Ceph ストレージダッシュボードを使用して、ブロックデバイスイメージを監視および管理できます。イメージの詳細、スナップショット、構成の詳細、およびパフォーマンスの詳細を表示できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. 画像の詳細を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図5.11 ブロックデバイスイメージの監視

    Monitoring Block device images

関連情報

第6章 Ceph Dashboard でのアラートの管理

ストレージ管理者は、Red Hat Ceph Storage Dashbaoard でアラートの詳細を表示し、アラートのサイレンスを作成できます。これには、次の事前定義されたアラートが含まれます。

  • OSD が 10% ダウン
  • OSD のフラップ
  • ヘルスエラー
  • ヘルスの警告
  • PG カウントの偏差が高い
  • モニタークォーラム数が少ない
  • MTU ミスマッチ
  • ネットワークパケットエラー
  • ネットワークパケットのドロップ
  • OSD がダウン
  • OSD がほぼいっぱい
  • PG が非アクティブ
  • PG がクリーンでない
  • プールがいっぱいになってきている
  • プールがいっぱいになった
  • ルートボリュームがいっぱい
  • OSD Ops が遅い
  • ストレージがいっぱいになってきている

図6.1 事前定義されたアラート

Pre-defined alerts

6.1. モニタリングスタックの有効化

コマンドラインインターフェースを使用して、Prometheus、Alertmanager、および Grafana などの Red Hat Ceph Storage クラスターのモニタリングスタックを手動で有効にできます。

Prometheus および Alertmanager API を使用してアラートおよびサイレンスを管理できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • すべてのノードへの root レベルのアクセス。

手順

  1. cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell

  2. モニタリングスタックの API を設定します。

    • Alertmanager サーバーのホストおよびポートを指定します。

      構文

      ceph dashboard set-alertmanager-api-host 'ALERTMANAGER_API__HOST: PORT'

      [ceph: root@host01 /]# ceph dashboard set-alertmanager-api-host 'http://10.0.0.101:9093'
      Option ALERTMANAGER_API_HOST updated

    • 設定されたアラートを表示するには、Prometheus API への URL を設定します。この API を使用して、Ceph Dashboard UI は新しいサイレンスが対応するアラートと一致することを確認します。

      構文

      ceph dashboard set-prometheus-api-host 'PROMETHEUS_API_HOST: PORT'

      [ceph: root@host01 /]# ceph dashboard set-prometheus-api-host 'http://10.0.0.101:9095'
      Option PROMETHEUS_API_HOST updated

      ホストの設定後に、ブラウザーのダッシュボードウィンドウを更新します。

    • Grafana サーバーのホストおよびポートを指定します。

      構文

      ceph dashboard set-grafana-api-url 'GRAFANA_API__URL: PORT'

      [ceph: root@host01 /]# ceph dashboard set-grafana-api-url 'http://10.0.0.101:3000'
      Option GRAFANA_API_URL updated

  3. Prometheus、Alertmanager、および Grafana API ホストの詳細を取得します。

    [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-host
    http://10.0.0.101:9093
    [ceph: root@host01 /]# ceph dashboard get-prometheus-api-host
    http://10.0.0.101:9095
    [ceph: root@host01 /]# ceph dashboard get-grafana-api-url
    http://10.0.0.101:3000

  4. オプション: Prometheus、Alertmanager、または Grafana 設定で自己署名証明書を使用している場合は、ダッシュボードで証明書の検証を無効にします。これにより、未知の認証局(CA)によって署名された証明書によって生じる拒否接続が回避されます。

    • Prometheus の場合:

      [ceph: root@host01 /]# ceph dashboard set-prometheus-api-ssl-verify False

    • Alertmanager の場合:

      [ceph: root@host01 /]# ceph dashboard set-alertmanager-api-ssl-verify False

    • Grafana の場合:

      [ceph: root@host01 /]# ceph dashboard set-grafana-api-ssl-verify False

  5. Prometheus、Alertmanager、および Grafana の自己署名証明書検証設定の詳細を取得します。

    [ceph: root@host01 /]# ceph dashboard get-prometheus-api-ssl-verify
    [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-ssl-verify
    [ceph: root@host01 /]# ceph dashboard get-grafana-api-ssl-verify

  6. オプション: ダッシュボードに変更が反映されない場合は、ダッシュボードを無効にしてから有効にする必要があります。

    [ceph: root@host01 /]# ceph mgr module disable dashboard
    [ceph: root@host01 /]# ceph mgr module enable dashboard

関連情報

6.2. Ceph Dashboard でのアラートの表示

アラートが起動したら、Red Hat Ceph Storage Dashboard でアラートを表示できます。マネージャーモジュール の設定を編集して、アラートが発行されたときにメールをトリガーできます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • アラートが発生している。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの alerts モジュールをカスタマイズして、ストレージクラスターの電子メールアラートを取得します。

    1. ナビゲーションメニューで、Cluster をクリックします。
    2. Manager modules を選択します。
    3. アラート モジュールを選択します。
    4. Edit ドロップダウンメニューで、Edit を選択します。
    5. Edit Manager module ウィンドウで、必要なパラメーターを更新し、Update をクリックします。

      図6.2 アラートの Manager モジュールの編集

      Edit Manager module for alerts
  3. ナビゲーションメニューで、Cluster をクリックします。
  4. ドロップダウンメニューから Monitoring を選択します。
  5. アラートの詳細を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図6.3 アラートの表示

    Viewing alerts
  6. アラートのソースを表示するには、その行をクリックし、Source をクリックします。

6.3. Ceph Dashboard でのサイレンスの作成

Red Hat Ceph Storage Dashboard で、アラートを一定期間サイレントに作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • アラートが発生している。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. アラートのサイレンスを作成するには、その行を選択します。
  5. +Create Silence をクリックします。
  6. Create Silence ウィンドウで、Duration の詳細を追加し、 Create Silence をクリックします。

    図6.4 サイレンスの作成

    Create Silence
  7. サイレンスが正常に作成されたという通知が表示されます。

6.4. Ceph Dashboard でのサイレンスの再作成

Red Hat Ceph Storage Dashboard で、期限切れのサイレンスをもとにサイレンスを再作成できます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. 期限切れのサイレンスを作成しなおすには、その行をクリックします。
  6. Recreate ボタンをクリックします。
  7. Recreate Silence ウィンドウで、詳細を追加し、Recreate Silence をクリックします。

    図6.5 サイレンスの再作成

    Re-create Silence
  8. サイレンスが正常に再作成されたという通知が表示されます。

6.5. Ceph Dashboard でのサイレンスの編集

アクティブなサイレンスは、Red Hat Ceph Storage Dashboard でアクティブな時間を延長するなど、編集が可能です。サイレンスの有効期限が切れている場合は、サイレンスを再作成するか、アラート用に新しいサイレンスを作成することができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. サイレンスを編集するには、その行をクリックします。
  6. Edit ドロップダウンメニューで、Edit を選択します。
  7. Edit Silence ウィンドウで、詳細を更新し、Edit Silence をクリックします。

    図6.6 サイレンスの編集

    Edit Silence
  8. サイレンスが正常に更新されたという通知が表示されます。

6.6. Ceph Dashboard でのサイレンスの失効

Red Hat Ceph Storage Dashbaoard で一致したアラートが抑制されないように、サイレンスを期限切れにすることができます。

前提条件

  • Red Hat Ceph Storage クラスターが実行中である。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. サイレンスを失効させるには、その行をクリックします。
  6. Edit ドロップダウンメニューで、Expire を選択します。
  7. Expire Silence ダイアログボックスで、Yes, I am sure を選択し、Expire Silence をクリックします。

    図6.7 サイレンスの期限切れ

    Expire Silence
  8. サイレンスが正常に失効したという通知が届きます。

6.7. 関連情報

第7章 Ceph Dashboard での NFS Ganesha エクスポートの管理

ストレージ管理者は、Red Hat Ceph Storage Dashbaoard で Ceph オブジェクトゲートウェイをバックストアとして使用する NFS Ganesha エクスポートを管理できます。ダッシュボードで NFS ganesha デーモンをデプロイ、構成、編集、削除できます。

ダッシュボードでは、Ceph クラスター上の RADOS オブジェクトに格納されている NFS-Ganesha 設定ファイルを管理します。NFS-Ganesha は、設定の一部を Ceph クラスターに格納する必要があります。

7.1. Ceph Dashboard での NFS Ganesha デーモンの設定

コマンドラインインターフェースを使用して Ceph オブジェクトゲートウェイを構成し、NFS-Ganesha 専用のプールを有効にしてから、ダッシュボードで NFS Ganesha を設定できます。

注記

Red Hat Ceph Storage 5 は、NFSv4 プロトコルのみをサポートしています。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Ceph Object ゲートウェイのログイン資格情報がダッシュボードに追加されている。
  • 専用のプールが有効で、nfs のカスタムタグが付けられている。
  • 最低でも Ceph Dashboard での Ganesha-manager レベルのアクセス。

手順

  1. Cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell

  2. RADOS プールと namespace を作成し、rgw を有効にします。

    構文

    ceph osd pool create POOL_NAME _
    ceph osd pool application enable POOL_NAME freeform/rgw/rbd/cephfs/nfs

    [ceph: root@host01 /]# ceph osd pool create nfs-ganesha
    [ceph: root@host01 /]# ceph osd pool application enable nfs-ganesha rgw

  3. コマンドラインインターフェースで配置指定を使用して NFS-Ganesha ゲートウェイをデプロイします。

    構文

    ceph orch apply nfs SERVICE_ID --pool POOL_NAME --namespace NAMESPACE --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"

    [ceph: root@host01 /]# ceph orch apply nfs foo --pool nfs-ganesha --namespace nfs-ns --placement="2 host01 host02"

    これにより、host01 および host02 の 1 つのデーモンと、NFS-Ganesha クラスター nfsganesha がデプロイされます。

  4. ganesha-clusters-rados-pool-namespace パラメーターは、namespace と service_ID に更新します。

    構文

    ceph dashboard set-ganesha-clusters-rados-pool-namespace POOL_NAME/SERVICE_ID

    [ceph: root@host01 /]# ceph dashboard set-ganesha-clusters-rados-pool-namespace nfs-ganesha/foo

  5. ダッシュボードのランディングページで、NFS をクリックします。
  6. Create を選択します。
  7. Create NFS export ウィンドウで、次のパラメーターを設定し、Create NFS export をクリックします。

    1. Cluster - クラスターの名前。
    2. Daemons - すべてのデーモンを選択できます。
    3. ストレージバックエンド - オブジェクトゲートウェイを選択できます。
    4. オブジェクトゲートウェイユーザー - 作成したユーザーを選択します。この例では、test_user です。
    5. パス - 任意のディレクトリー。
    6. NFS プロトコル - NFSv4 がデフォルトで選択されています。
    7. 疑似 - ルートパス
    8. アクセスタイプ
    9. Squash
    10. トランスポートプロトコル
    11. クライアント

      Create NFS export window
  8. NFS デーモンが設定されていることを確認します。

    [ceph: root@host01 /]# ceph -s

  9. root ユーザーで、NFS-Service がアクティブで稼働しているかどうかを確認します。

    [root@host01 ~]# systemctl list-units grep|nfs

  10. NFS エクスポートをマウントし、いくつかの I/O 操作を実行します。
  11. NFS サービスが起動して実行されたら、NFS-RGW コンテナーで、etc/ganesha/ganesha.conf ファイルの dir_chunk=0 パラメーターをコメントアウトします。NFS-Ganesha サービスを再起動します。これにより、NFS マウントでの適切なリスト表示が可能になります。

検証

  • NFS デーモンは、Ceph オブジェクトゲートウェイのバケットの下に表示できます。

    NFS bucket

関連情報

7.2. Ceph Dashboard での NFS Ganesha デーモンの編集

NFS Ganesha デーモンは Red Hat Ceph Storage Dashboard で編集できます。

要件

  • Red Hat Ceph Storage クラスターが実行中である。
  • 最低でも Ceph Dashboard での Ganesha-manager レベルのアクセス。
  • NFS Ganesha デーモンがダッシュボードで設定されている。

手順

  1. ダッシュボードで、NFS をクリックします。
  2. 編集が必要な行をクリックします。
  3. Edit ドロップダウンメニューから、Edit をクリックします。
  4. Edit NFS export ウィンドウで、必要なパラメーターを編集し、Edit NFS export をクリックします。

    Edit NFS export window

検証

  • NFS Ganesha が正常に更新されたことを示す通知が表示されます。

関連情報

7.3. Ceph Dashboard での NFS Ganesha デーモンの削除

Ceph Dashboard では、NFS Ganesha デーモンを削除できます。

要件

  • Red Hat Ceph Storage クラスターが実行中である。
  • 最低でも Ceph Dashboard での ’Ganesha-manager’ レベルのアクセス。
  • NFS Ganesha デーモンがダッシュボードで設定されている。

手順

  1. ダッシュボードで、NFS をクリックします。
  2. 削除の必要な行をクリックします。
  3. Edit ドロップダウンメニューから、Delete をクリックします。
  4. Delete NFS export ダイアログボックスで、Yes, I am sure チェックボックスをオンにして、Delete NFS export をクリックします。

    Delete NFS export window

検証

  • 選択した行が正常に削除されます。

関連情報

第8章 Ceph Dashboard でのプールの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でプールを作成、編集、削除できます。

本セクションでは、以下の管理タスクを説明します。

8.1. Ceph Dashboard でのプールの作成

プールを作成せずにストレージクラスターをデプロイすると、Ceph はデフォルトのプールを使用してデータを格納します。Red Hat Ceph Storage Dashboard で、プールを作成して、ストレージオブジェクトを論理的にパーティション分割できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Pools をクリックします。
  3. Create をクリックします。
  4. Create Pool ウィンドウで、次のパラメーターを設定します。

    図8.1 プールの作成

    Creating pools
    1. プールの名前を設定し、プールタイプを選択します。
    2. レプリケートまたはイレイジャーコード (EC) のいずれかのプールタイプを選択します。
    3. 配置グループ (PG) 番号を設定します。
    4. 必要に応じて、レプリケートされたプールタイプを使用する場合は、レプリケートされたサイズを設定します。
    5. 必要に応じて、EC プールタイプを使用する場合には、以下の追加設定を設定します。
    6. 必要に応じて、現在選択されている EC プロファイルの設定を確認するには、クレスチョンマークをクリックします。
    7. 必要に応じて、プラス記号をクリックして、新しい EC プロファイルを追加します。
    8. 必要に応じて、鉛筆記号をクリックして、プールのアプリケーションを選択します。
    9. オプション: 該当する場合は、CRUSH ルールを設定します。
    10. 必要に応じて、圧縮が必要な場合は、passiveaggressive、または force を選択します。
    11. オプション: クォータを設定します。
    12. オプション: サービス品質 (Quality of Service) 構成を設定します。
  5. Create Pool をクリックします。
  6. プールが正常に作成されたという通知が表示されます。

関連情報

  • 詳細は、『Red Hat Ceph Storage アーキテクチャーガイド』「Ceph プール」を参照してください。

8.2. Ceph Dashboard でのプールの編集

Red Hat Ceph Storage Dashboard でプールを編集できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Pools をクリックします。
  3. プールを編集するには、その行をクリックします。
  4. Edit ドロップダウンで Edit を選択します。
  5. Edit Pool ウィンドウで、必要なパラメーターを編集し、Edit Pool をクリックします。

    図8.2 プールの編集

    Editing pools
  6. プールが正常に作成されたという通知が表示されます。

関連情報

  • 詳細は、『Red Hat Ceph Storage アーキテクチャーガイド』「Ceph プール」を参照してください。
  • 圧縮モードの詳細は、『Red Hat Ceph Storage ストレージ戦略ガイド』「プール値」を参照してください。

8.3. Ceph Dashboard でのプールの削除

Red Hat Ceph Storage Dashboard でプールを削除できます。マネージャモジュールで mon_allow_pool_delete の値が True に設定されていることを確認します。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーの Cluster ドロップダウンメニューで、Configuration をクリックします。
  3. Level ドロップダウンメニューで、Advanced を選択します。
  4. mon_allow_pool_delete を検索し、編集をクリックします。
  5. すべての値を true に設定します。

    図8.3 プールを削除する設定

    Edit Configuration to delete pools
  6. ナビゲーションバーで、Pools をクリックします。
  7. プールを削除するには、行をクリックします。
  8. Edit ドロップダウンメニューから、Delete を選択します。
  9. Delete Pool ウィンドウで、Yes, I am sure ボックスをクリックし、Delete Pool をクリックして設定を保存します。

    図8.4 プールの削除

    Delete pools

関連情報

  • 詳細は、『Red Hat Ceph Storage アーキテクチャーガイド』「Ceph プール」を参照してください。
  • 圧縮モードの詳細は、『Red Hat Ceph Storage ストレージ戦略ガイド』「プール値」を参照してください。

第9章 ダッシュボードでの Ceph OSD の管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で OSD を監視および管理できます。

Red Hat Ceph Storage Dashboard の機能には、次のようなものがあります。

  • OSD、OSD のステータス、統計、属性、メタデータ、デバイスの健全性、パフォーマンスカウンター、パフォーマンスの詳細などの情報を一覧表示します。
  • OSD のアップ、ダウン、またはアウトのマーク付け、OSD のパージと再加重付け、スクラブ、ディープスクラブ、プロファイルの選択によるバックフィルアクティビティー調整を行います。
  • OSD に関連付けられているすべてのドライブを一覧表示します。
  • OSD のデバイスクラスを設定および変更します。
  • OSD を新しいドライブとホストにデプロイします。

9.1. 要件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Red Hat Ceph Storage Dashboard での cluster-manager のアクセスレベル

9.2. Ceph Dashboard での OSD の管理

Red Hat Ceph Storage Dashboard の Ceph OSD で以下のアクションを実行できます。

  • 新規 OSD を作成します。
  • OSD のデバイスクラスを編集します。
  • フラグを No UpNo DownNo In または No Out とマーク付けします。
  • OSD をスクラブしてディープスクラブします。
  • OSD の加重を変更します。
  • OSD を OutinDownLost にマークします。
  • OSD をパージします。
  • OSD を破棄します。
  • OSD を削除します。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • ホストがストレージクラスターに追加されている。
  • OSD を含むすべてのサービスがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、OSD を選択します。

OSD の作成

  1. OSD を作成するには、Create をクリックします。

    1. Create OSDs ウィンドウで、+Add をクリックします。
    2. Primary devices ダイアログボックスの Hostname ドロップダウンリストから、いずれかのフィルターを選択します。Any ドロップダウンリストから、該当するオプションを選択します。

      注記

      デバイスを追加するには、まずホスト名を選択し、次に少なくとも 1 つのフィルターを選択する必要があります。

      たとえば、Hostname リストから Type を選択し、Any リストから hdd を選択します。Vendor を選択し、Any リストから ATA を選択します。

      図9.1 OSD 用のデバイスの追加

      Add device for OSDs
    3. Add をクリックします。
    4. Create OSDs window ウィンドウで、Preview ボタンをクリックします。
    5. OSD Creation Preview ダイアログボックスで、Create をクリックします。
    6. OSD が正常に作成されたという通知が表示されます。
    7. OSD は、ステータスを in および downin および up に変更します。

OSD の編集

  1. OSD を編集するには、その行を選択します。

    1. Edit ドロップダウンメニューから、Edit を選択します。
    2. デバイスクラスを編集します。
    3. Edit OSD をクリックします。

      図9.2 OSD の編集

      Edit an OSD
    4. OSD が正常に更新されたという通知が表示されます。

OSD のフラグのマーク付け

  1. OSD のフラグをマークするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Flags を選択します。
    2. フラグを No UpNo DownNo In または No Out とマーク付けします。
    3. Update をクリックします。

      図9.3 OSD のフラグのマーク付け

      Marking Flags of an OSD
    4. OSD のフラグが正常に更新されたという通知が表示されます。

OSD のスクラブ

  1. OSD をスクラブするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Scrub を選択します。
    2. OSDs Scrub ダイアログボックスで、Update をクリックします。

      図9.4 OSD のスクラブ

      Scrubbing an OSD
    3. OSD のスクラブが正常に開始されたことを示す通知が表示されます。

OSD のディープスクラブ

  1. OSD をディープスクラブするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Deep scrub を選択します。
    2. OSDs Deep Scrub ダイアログボックスで、Update をクリックします。

      図9.5 OSD のディープスクラブ

      Deep-scrubbing an OSD
    3. OSD のディープスクラブが正常に開始されたことを示す通知が表示されます。

OSD の加重付けの変更

  1. OSD の加重を変更するには、その行を選択します。

    1. Edit ドロップダウンメニューから、Reweight を選択します。
    2. Reweight OSD ダイアログボックスで、0 から 1 の間の値を入力します。
    3. Reweight をクリックします。

      図9.6 OSD の加重の変更

      Reweighting an OSD

OSD を Out とマーク付け

  1. OSD を out とマーク付けするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Mark Out を選択します。
    2. Mark OSD out ダイアログボックスで、Mark Out をクリックします。

      図9.7 OSD を Out とマーク付け

      Marking OSDs out
    3. OSD のステータスは out に変わります。

OSD を in とマーク付け

  1. OSD を in とマーク付けするには、ステータスが out の OSD 行を選択します。

    1. Edit ドロップダウンメニューから、Mark In を選択します。
    2. Mark OSD in ダイアログボックスで、Mark In をクリックします。

      図9.8 OSD を In とマーク付け

      Marking OSDs in
    3. OSD のステータスは in に変わります。

OSD を Down とマーク付け

  1. OSD を down とマーク付けするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Mark Down を選択します。
    2. Mark OSD down ダイアログボックスで、Mark Down をクリックします。

      図9.9 OSD を Down とマーク付け

      Marking OSDs down
    3. OSD のステータスは down に変わります。

OSD を Lost とマーク付け

  1. OSD を Lost とマーク付けするには、ステータスが out および down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Mark Lost を選択します。
    2. Mark OSD Lost ダイアログボックスの Yes, I am sure オプションを選択し、Mark Lost をクリックします。

      図9.10 OSD を Lost とマーク付け

      Marking OSDs lost

OSD のパージ

  1. OSD をパージするには、ステータスが down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Purge を選択します。
    2. Purge OSDs ダイアログボックスで、Yes, I am sure オプションを選択し、Purge OSD をクリックします。

      図9.11 OSD のパージ

      Purging OSDs
    3. すべてのフラグがリセットされ、OSD のステータスが inup に戻ります。

OSD の破棄

  1. OSD を破棄するには、ステータスが down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Destroy を選択します。
    2. Destroy OSDs ダイアログボックスで、Yes, I am sure オプションをクリックし、Destroy OSD をクリックします。

      図9.12 OSD の破棄

      Destroying OSDs
    3. OSD のステータスが destroyed に変わります。

OSD の削除

  1. OSD を削除するには、ステータスが down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Delete を選択します。
    2. Destroy OSDs ダイアログボックスで、Yes, I am sure オプションをクリックし、Delete OSD をクリックします。

      注記

      障害のある OSD を置き換える必要がある場合は、OSD_ID を保持することができます。

      図9.13 OSD の削除

      Deleting OSDs

9.3. Ceph Dashboard で障害が発生した OSD の交換

Red Hat Ceph Storage クラスターで障害のある OSD は、ダッシュボードで cluster-manager レベルのアクセス権限がある場合に、置き換えることができます。ダッシュボードでのこの機能で注目すべき点の 1 つとして、障害のある OSD を置き換える時に OSD ID を保持できることが挙げられます。

要件

  • Red Hat Ceph Storage クラスターが実行中である。
  • 最低でも Ceph Dashboard での cluster-manager レベルのアクセス。
  • 最低でも OSD の 1 つが down している。

手順

  1. ダッシュボードでは、以下の方法で障害のある OSD を特定できます。

    • ダッシュボード AlertManager ポップアップ通知。
    • HEALTH_WARN ステータスを示すダッシュボードのランディングページ。
    • 障害のある OSD を表示するダッシュボードのランディングページ。
    • 障害のある OSD を表示するダッシュボード OSD ページ。

      Health status of OSDs

      この例では、OSD の 1 つが Dashboard のランディングページでダウンしていることが分かります。

      これとは別に、物理ドライブでは、OSD のいずれかがダウンした場合に LED ライトが点滅していることを確認できます。

  2. OSD をクリックします。
  3. out および down の OSD を選択します。

    1. Edit ドロップダウンメニューから Flags を選択し、No Up を選択し、Update をクリックします。
    2. Edit ドロップダウンメニューから、Delete を選択します。
    3. Delete OSD ダイアログボックスで、Preserve OSD ID(s) for replacement チェックボックスと Yes, I am sure チェックボックスを選択します。
    4. Delete OSD をクリックします。
    5. OSD のステータスが out および destroyed に変更されるまで待機します。
  4. オプション:クラスタ全体の No Up Flag を変更する場合は、Cluster-wide configuration ドロップダウンメニューで Flags を選択します。

    1. Cluster-wide OSDs Flags ダイアログボックスで、No Up を選択し、更新をクリックします。
  5. オプション: ハードディスク障害が原因で OSD がダウンしている場合は、物理ドライブを置き換えます。

    • ドライブがホットスワップ可能な場合は、故障したドライブを新しいものと交換します。
    • ドライブがホットスワップに対応しておらず、ノードに複数の OSD が含まれる場合は、ノード全体をシャットダウンして物理ドライブを交換する必要がある場合があります。クラスターのバックフィルを防ぐことを検討してください。詳細は、『Red Hat Ceph Storage トラブルシューティングガイド』「リバランスの停止および開始」の章を参照してください。
    • ドライブが /dev/ ディレクトリー配下に表示されたら、ドライブパスを書き留めます。
    • OSD を手動で追加する必要がある場合には、OSD ドライブを見つけ、ディスクをフォーマットします。
    • 新規ディスクにデータがある場合には、ディスクを消去します。

      構文

      ceph orch device zap HOST_NAME PATH --force

      ceph orch device zap ceph-adm2 /dev/sdc --force

  6. Create ドロップダウンメニューから、Create を選択します。
  7. Create OSDs ウィンドウで、+Add をクリックします。

    1. Primary devices ダイアログボックスの Hostname ドロップダウンリストから、いずれかのフィルターを選択します。Any ドロップダウンリストから、該当するオプションを選択します。

      注記

      デバイスを追加するには、まずホスト名を選択し、次に少なくとも 1 つのフィルターを選択する必要があります。

      たとえば、Hostname リストから Type を選択し、Any リストから hdd を選択します。Vendor を選択し、Any リストから ATA を選択します。

      Add device for OSDs
    2. Add をクリックします。
    3. Create OSDs window ウィンドウで、Preview ボタンをクリックします。
    4. OSD Creation Preview ダイアログボックスで、Create をクリックします。
    5. OSD が作成されたという通知が表示されます。OSD のステータスが outdown になります。
  8. ステータスが out および down の新規作成された OSD を選択します。

    1. Edit ドロップダウンメニューで、Mark-in を選択します。
    2. Mark OSD in ウィンドウで、Mark in を選択します。
    3. Edit ドロップダウンメニューで、Flags を選択します。
    4. No Up のチェックを外し、Update をクリックします。
  9. オプション: 過去にクラスター全体の設定を No Up のフラグに変更した場合には、Cluster-wide configuration メニューで Flags を選択します。

    1. Cluster-wide OSDs Flags ダイアログボックスで、No Up の選択を解除して、Update をクリックします。

検証

  1. 破棄された OSD がデバイスに作成され、OSD ID が保持されていることを確認します。

    OSD is created

関連情報

  • ダウンしている OSD の詳細は、『Red Hat Ceph Storage トラブルシューティングガイド』「Down OSD」セクションを参照してください。
  • その他のサポートについては、『Red Hat Ceph Storage トラブルシューティングガイド』の「サービスのサポート」セクションを参照してください。
  • システムロールの詳細は、『Red Hat Ceph Storage Dashboard ガイド』の「Ceph Dashboard のシステムロール」セクションを参照してください。

第10章 Dashboard を使用した Ceph オブジェクトゲートウェイの管理

ストレージ管理者は、ダッシュボードのオブジェクトゲートウェイ機能により、Ceph オブジェクトゲートウェイを管理および監視することができます。

Dashboard を使用して、Secure Sockets Layer (SSL) で Ceph オブジェクトゲートウェイサービスを作成することもできます。

たとえば、監視機能を使用すると、ゾーン名や GET および PUT レートのパフォーマンスグラフなどのゲートウェイデーモンの詳細を表示できます。管理機能を使用すると、ユーザーとバケットの両方を表示、作成、編集できます。

Ceph オブジェクトゲートウェイ機能は、ユーザー機能とバケット機能に分けられます。

10.1. Ceph オブジェクトゲートウェイログイン認証情報のダッシュボードへの手動追加

Red Hat Ceph Storage Dashboard は、RADOS Gateway または RGW として知られる Ceph Object Gateway を管理できます。Ceph オブジェクトゲートウェイを管理するには、system フラグが付いた RGW ユーザーのログイン認証情報を使用してダッシュボードをストレージクラスターに接続する必要があります。コマンドラインインターフェースを使用して、Ceph オブジェクトゲートウェイ認証情報を手動で Ceph Dashboard に追加できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。

手順

  1. system フラグを有効にして RGW ユーザーの access_key および secret_key を取得します。

    • system フラグを有効にしている RGW ユーザーがない場合は、これを作成します。

      構文

      radosgw-admin user create --uid=USER_NAME --display-name=USER_NAME --system

      [ceph: root@host01 /]# radosgw-admin user create --uid=test_user --display-name=TEST_USER --system
      {
          "user_id": "test_user",
          "display_name": "TEST_USER",
          "email": "",
          "suspended": 0,
          "max_buckets": 1000,
          "subusers": [],
          "keys": [
              {
                  "user": "test_user",
                  "access_key": "NE48APYCAODEPLKBCZVQ",
                  "secret_key": "u24GHQWRE3yxxNBnFBzjM4jn14mFIckQ4EKL6LoW"
              }
          ],
          "swift_keys": [],
          "caps": [],
          "op_mask": "read, write, delete",
          "system": "true",
          "default_placement": "",
          "default_storage_class": "",
          "placement_tags": [],
          "bucket_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "user_quota": {
              "enabled": false,
              "check_on_raw": false,
              "max_size": -1,
              "max_size_kb": 0,
              "max_objects": -1
          },
          "temp_url_keys": [],
          "type": "rgw",
          "mfa_ids": []
      }

      access_key および secret_key の値を書き留めます。上記の例では、access_keyNE48APYCAODEPLKBCZVQsecret_keyu24GHQWRE3yxxNBnFBzjM4jn14mFIckQ4EKL6LoW です。

    • system フラグが有効な RGW ユーザーがすでに作成されている場合は、radosgw-admin ユーティリティーの user info コマンドを使用して認証情報を取得します。

      構文

      radosgw-admin user info --uid=USER_NAME

      例:

      [root@mon ~]# radosgw-admin user info --uid=test-user
      {
          "user": "test_user",
          "access_key": "NE48APYCAODEPLKBCZVQ",
          "secret_key": "u24GHQWRE3yxxNBnFBzjM4jn14mFIckQ4EKL6LoW"
      }
      ],
      "swift_keys": [],
      "caps": [],
      "op_mask": "read, write, delete",
      "system": "true",
      "default_placement": "",
      "default_storage_class": "",
      "placement_tags": [],
      "bucket_quota": {
      "enabled": false,
      "check_on_raw": false,
      "max_size": -1,
      "max_size_kb": 0,
      "max_objects": -1
      },
      "user_quota": {
      "enabled": false,
      "check_on_raw": false,
      "max_size": -1,
      "max_size_kb": 0,
      "max_objects": -1
      },
      "temp_url_keys": [],
      "type": "rgw",
      "mfa_ids": []
      }

      access_key および secret_key の値を書き留めます。

  2. access_keysecret_key の 2 つのファイルを作成して、アクセスキーとシークレットキーをそれぞれのファイルに保存します。

    1. オブジェクトゲートウェイが 1 つの場合は、以下のようにファイルを作成します。

      構文

      echo -n "ACCESS_KEY" > PATH_TO_FILE
      echo -n "SECRET_KEY" > PATH_TO_FILE

      [ceph: root@host01 /]# echo -n "NE48APYCAODEPLKBCZVQ" > access_key
      [ceph: root@host01 /]# echo -n "u24GHQWRE3yxxNBnFBzjM4jn14mFIckQ4EKL6LoW" > secret_key

    2. Ceph オブジェクトゲートウェイが、複数のゾーンおよび複数のユーザーなど含め、複数ある場合は、以下のようにファイルを作成します。

      構文

      echo -n "{'DAEMON_ID_1': 'USER_1_ACCESS_KEY', 'DAEMON_ID_2': 'USER_2_ACCESS_KEY', ...}" > ACCESS_KEY_FILE
      echo -n "{'DAEMON_ID_1': 'USER_1_SECRET_KEY', 'DAEMON_ID_2': 'USER_2_SECRET_KEY', ...}" > SECRET_KEY_FILE

      [ceph: root@host01 /]# echo -n "{'usa.host007.erutef': 'abc123', 'usa.host008.sgavma': 'abc123',  'usa.host009.noykkg': 'abc123', 'india.host001.byfevl': '8RHCRYGPDQRKMCS1KIDU','india.host002.esnbmx': '8RHCRYGPDQRKMCS1KIDU','india.host003.upjqrq': '8RHCRYGPDQRKMCS1KIDU', 'india.host004.qfmvep': '8RHCRYGPDQRKMCS1KIDU', 'india.host006.wlyhue': '8RHCRYGPDQRKMCS1KIDU', 'india.host007.voihji': '8RHCRYGPDQRKMCS1KIDU', 'india.host008.pfshew': '8RHCRYGPDQRKMCS1KIDU', 'india.host009.uqjzbo': '8RHCRYGPDQRKMCS1KIDU'}"  > access_key
      [ceph: root@host01 /]# echo -n "{'usa.host007.erutef': 'abc123', 'usa.host008.sgavma': 'abc123',  'usa.host009.noykkg': 'abc123', 'india.host001.byfevl': 'ZzeTwPuZGfR4BLC2iqoTtJhaqBmMrZJRfn5B8xdK','india.host002.esnbmx': 'ZzeTwPuZGfR4BLC2iqoTtJhaqBmMrZJRfn5B8xdK','india.host003.upjqrq': 'ZzeTwPuZGfR4BLC2iqoTtJhaqBmMrZJRfn5B8xdK', 'india.host004.qfmvep': 'ZzeTwPuZGfR4BLC2iqoTtJhaqBmMrZJRfn5B8xdK', 'india.host006.wlyhue': 'ZzeTwPuZGfR4BLC2iqoTtJhaqBmMrZJRfn5B8xdK', 'india.host007.voihji': 'ZzeTwPuZGfR4BLC2iqoTtJhaqBmMrZJRfn5B8xdK', 'india.host008.pfshew': 'ZzeTwPuZGfR4BLC2iqoTtJhaqBmMrZJRfn5B8xdK', 'india.host009.uqjzbo': 'ZzeTwPuZGfR4BLC2iqoTtJhaqBmMrZJRfn5B8xdK'}" > secret_key

  3. access_key および secret_key の認証情報をダッシュボードに指定します。

    1. ダッシュボードに access_key を指定します。

      構文

      ceph dashboard set-rgw-api-access-key -i PATH_TO_FILE

      [ceph: root@host01 /]# ceph dashboard set-rgw-api-access-key -i access_key
      Option RGW_API_ACCESS_KEY updated

    2. secret_key をダッシュボードに指定します。

      構文

      ceph dashboard set-rgw-api-secret-key -i PATH_TO_FILE

      [ceph: root@host01 /]# ceph dashboard set-rgw-api-secret-key -i secret_key
      Option RGW_API_SECRET_KEY updated

  4. オプション: Ceph オブジェクトゲートウェイが複数ある場合には、オブジェクトゲートウェイのホスト名およびポートをダッシュボードに指定して、デフォルトのゲートウェイを設定できます。

    1. HOST_NAME または IP_ADDRESS をダッシュボードに指定します。

      構文

      ceph dashboard set-rgw-api-host HOST_NAME

      [ceph: root@host01 /]#ceph dashboard set-rgw-api-host 192.168.122.193
      Option RGW_API_HOST updated

    2. ポートをダッシュボードに指定します。

      構文

      ceph dashboard set-rgw-api-port PORT

      [ceph: root@host01 /]# ceph dashboard set-rgw-api-port 8080
      Option RGW_API_PORT updated

  5. 必要に応じて、自己署名証明書と共に HTTPS を使用している場合は、ダッシュボードで証明書の検証を無効にして、拒否された接続を回避します。

    証明書が不明な認証局によって署名されている場合や、使用するホスト名が証明書のホスト名と一致しない場合は、拒否される接続が発生する可能性があります。

    構文

    ceph dashboard set-rgw-api-ssl-verify false

    [ceph: root@host01 /]# ceph dashboard set-rgw-api-ssl-verify false
    Option RGW_API_SSL_VERIFY updated

10.2. ダッシュボードを使用した SSL での Ceph オブジェクトゲートウェイサービスの作成

Red Hat Ceph Storage クラスターのインストール後に、2 つの方法を使用して SSL で Ceph オブジェクトゲートウェイサービスを作成することができます。

  • コマンドラインインターフェースの使用
  • ダッシュボードの使用

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • 認証局 (CA) からの SSL キー
注記

ゲートウェイノードのホスト名に一致する CA から SSL 証明書を取得します。Red Hat は、subject alternate name フィールドがあり、S3-style サブドメインで使用するワイルドカードを持つ CA から証明書を取得することを推奨します。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services を選択します。
  3. +Create をクリックします。
  4. Create Service ウィンドウで、rgw サービスを選択します。
  5. SSL を選択し、Certificate.pem 形式でアップロードします。

    図10.1 Ceph オブジェクトゲートウェイサービスの作成

    Creating Ceph Object Gateway service
  6. Create Service をクリックします。
  7. Ceph オブジェクトゲートウェイサービスが稼働していることを確認します。

関連情報

  • Red Hat Ceph Storage オブジェクトゲートウェイガイド』の「Configuring SSL for Beast」セクションを参照してください。

10.3. ダッシュボードでの Ceph オブジェクトゲートウェイユーザーの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway ユーザーの表示および管理を行うことができます。

10.3.1. 前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。

10.3.2. ダッシュボードでの Ceph オブジェクトゲートウェイユーザーの作成

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage で Ceph オブジェクトゲートウェイユーザーを作成できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されます。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Create Service をクリックし、Create をクリックします。
  4. Create User ウィンドウで、次のパラメーターを設定します。

    1. ユーザー名、フルネームを設定し、必要に応じてバケットの最大数を編集します。
    2. 必要に応じて、メールアドレスまたは一時停止のステータスを設定します。
    3. 必要に応じて、Auto-generate key の選択を解除して、カスタムアクセスキーおよびシークレットキーを設定します。
    4. 必要に応じて、ユーザークォータを設定します。
    5. User quotaEnabled を選択します。
    6. Unlimited size または Unlimited objects の選択を解除します。
    7. Max. size または Max. objects に必要な値を入力します。
    8. 必要に応じて、バケットクォータを設定します。
    9. Bucket quotaEnabled をオンにします。
    10. Unlimited size または Unlimited objects の選択を解除します。
    11. Max. size または Max. objects に必要な値を入力します。
  5. Create User をクリックします。

    図10.2 Ceph オブジェクトゲートウェイユーザーの作成

    Ceph object gateway create user
  6. ユーザーが正常に作成されたという通知が表示されます。

関連情報

10.3.3. ダッシュボードでの Ceph オブジェクトゲートウェイサブユーザーの作成

サブユーザーは、S3 インターフェースのユーザーに関連付けられます。Red Hat Ceph Storage Dashboard で、特定の Ceph オブジェクトゲートウェイユーザーのサブユーザーを作成できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Users をクリックします。
  4. 行をクリックしてユーザーを選択します。
  5. Edit ドロップダウンメニューから、Edit を選択します。
  6. Edit User ウィンドウで、+Create Subuser をクリックします。
  7. Create Subuser ダイアログボックスで、ユーザー名を入力し、適切な権限を選択します。
  8. Auto-generate secret チェックボックスにチェックを入れ、Create Subuser をクリックします。

    図10.3 Ceph オブジェクトゲートウェイのサブユーザーの作成

    Ceph object gateway create subuser
    注記

    Auto-generate-secret チェックボックスをクリックすると、オブジェクトゲートウェイの秘密鍵が自動的に生成されます。

  9. Edit User ウィンドウで、Edit user ボタンをクリックします。
  10. ユーザーが正常に更新されたことを示す通知が表示されます。

10.3.4. ダッシュボードで Ceph オブジェクトゲートウェイユーザーの編集

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage で Ceph オブジェクトゲートウェイユーザーを編集できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • Ceph オブジェクトゲートウェイユーザーが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Users をクリックします。
  4. ユーザー機能を編集するには、その行をクリックします。
  5. Edit ドロップダウンメニューで Edit を選択します。
  6. Edit User ウィンドウで、必要なパラメーターを編集します。
  7. Edit User をクリックします。

    図10.4 Ceph オブジェクトゲートウェイユーザーの編集

    Ceph object gateway edit user
  8. ユーザーが正常に更新されたことを示す通知が表示されます。

関連情報

10.3.5. Dashboard での Ceph オブジェクトゲートウェイユーザーの削除

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage で Ceph オブジェクトゲートウェイユーザーを削除できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • Ceph オブジェクトゲートウェイユーザーが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Users をクリックします。
  4. ユーザーを削除するには、その行をクリックします。
  5. Edit ドロップダウンメニューから、Delete を選択します。
  6. Edit User ウィンドウで、必要なパラメーターを編集します。
  7. Delete user ダイアログウィンドウで、Yes, I am sure ボックスをクリックし、Delete User をクリックして設定を保存します。

    図10.5 Ceph オブジェクトゲートウェイユーザーの削除

    Ceph object gateway delete user

関連情報

10.4. Dashboard での Ceph オブジェクトゲートウェイバケットの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway バケットを表示し、管理できます。

10.4.1. 前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • 少なくとも 1 つの Ceph オブジェクトゲートウェイユーザーが作成されている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。

10.4.2. ダッシュボードでの Ceph オブジェクトゲートウェイバケットの作成

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage に Ceph オブジェクトゲートウェイバケットを作成できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されいる、停止されていない。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Buckets をクリックし、Create をクリックします。
  4. Create Bucket ウィンドウで、Name に値を入力し、中断されていないユーザーを選択します。配置ターゲットを選択します。

    図10.6 Ceph オブジェクトゲートウェイバケットの作成

    Ceph object gateway create bucket
    注記

    作成時にバケットの配置ターゲットが選択され、変更することはできません。

  5. オプション: バケットのオブジェクトの Locking を有効にします。ロックは、バケットの作成中にのみ有効にできます。ロックが有効になったら、Compliance または Governance のロックモードと、日または年単位 (両方の選択不可) のロック保持期間を選択します。
  6. Create bucket をクリックします。
  7. バケットが正常に作成されたことを示す通知が表示されます。

10.4.3. ダッシュボードでの Ceph オブジェクトゲートウェイバケットの編集

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage に Ceph オブジェクトゲートウェイバケットを編集できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されいる、停止されていない。
  • Ceph Object Gateway バケットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Buckets をクリックします。
  4. バケットを編集するには、その行をクリックします。
  5. Edit ドロップダウンから Edit を選択します。
  6. Edit bucket ウィンドウで、ドロップダウンからユーザーを選択して Owner を編集します。

    図10.7 Ceph オブジェクトゲートウェイバケットの編集

    Ceph object gateway edit bucket
    1. オプション: 既存バケットのすべてのオブジェクトのバージョン管理状態を有効にするには、 Versioning を有効にします。

      • バージョン管理を有効にするには、バケットの所有者である必要があります。
      • バケットの作成時に Locking が有効化されると、バージョン管理を無効にできません。
      • バケットに追加されたすべてのオブジェクトは、一意のバージョン ID を受信します。
      • バージョン管理状態がバケットに設定されていない場合、バケットにはバージョン管理状態がありません。
    2. オプション: Multi-Factor AuthenticationDelete enabled にチェックを入れます。マルチファクター認証(MFA)により、ユーザーは特定のバケット上のオブジェクトを削除する際に、ワンタイムパスワード(OTP)を使用する必要があります。Token Serial Number および Token PIN の値を入力します。

      注記

      バケットは、S3 API を介して実行できるバージョン管理および MFA を有効にして設定する必要があります。

  7. Edit Bucket をクリックします。
  8. バケットが正常に更新されたことを示す通知が表示されます。

10.4.4. ダッシュボードでの Ceph オブジェクトゲートウェイバケットの削除

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage に Ceph オブジェクトゲートウェイバケットを削除できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • オブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されいる、停止されていない。
  • Ceph Object Gateway バケットが作成されている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Buckets をクリックします。
  4. バケットを削除するには、その行をクリックします。
  5. Edit ドロップダウンから Delete を選択します。
  6. Delete Bucket ダイアログボックスで Yes, I am sure ボックスをクリックして Delete bucket クリックし、設定を保存します。

    図10.8 Ceph オブジェクトゲートウェイバケットの削除

    Ceph object gateway delete bucket

10.5. Ceph Dashboard でのマルチサイトオブジェクトゲートウェイ設定のモニタリング

Red Hat Ceph Storage Dashboard は、マルチサイトオブジェクトゲートウェイ設定で、別のゾーンのユーザーとバケットの監視をサポートします。たとえば、ユーザーとバケットがプライマリーサイトのゾーンに作成した場合に、セカンダリーサイトのセカンダリーゾーンでユーザーとバケットを監視できます。

要件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。

手順

  1. セカンダリーサイトのダッシュボードランディングページの垂直メニューバーで、Object Gateway ドロップダウンリストをクリックします。
  2. Buckets を選択します。
  3. プライマリーサイトでオブジェクトゲートウェイユーザー用に作成された、これらのオブジェクトゲートウェイバケットがセカンダリーランディングページに表示されます。

    図10.9 マルチサイトオブジェクトゲートウェイの監視

    Multisite object gateway monitoring

関連情報

10.6. Ceph Dashboard でのマルチサイトオブジェクト設定のバケットの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で別のゾーンのゾーンバケットを編集できます。ただし、プライマリーサイトで、セカンダリーサイトのバケットを削除できます。他のサイトで、プライマリーサイトのマスターゾーンのバケットは削除できません。たとえば、バケットがセカンダリーサイトのゾーンに作成されている場合に、プライマリーサイトのマスターゾーンでこれらのバケットを編集および削除できます。

10.6.1. 要件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。
  • 最低でも Ceph Dashboard での rgw-manager レベルのアクセス。

10.6.2. Ceph Dashboard でのマルチサイトオブジェクトゲートウェイ構成のバケットの編集

マルチサイトのオブジェクトゲートウェイ設定の場合には、Red Hat Ceph Storage Dashboard の別のゾーンで、あるゾーンのバケットの詳細を編集および更新できます。ダッシュボードの機能で、バケットの所有者、バージョン管理、マルチファクター認証、ロック機能を編集できます。

要件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。
  • 最低でも Ceph Dashboard での rgw-manager レベルのアクセス。

手順

  1. セカンダリーサイトのダッシュボードランディングページの垂直メニューバーで、Object Gateway ドロップダウンリストをクリックします。
  2. Buckets を選択します。
  3. プライマリーサイトでオブジェクトゲートウェイユーザー用に作成された、これらのオブジェクトゲートウェイバケットがセカンダリーランディングページに表示されます。

    図10.10 オブジェクトゲートウェイモニタリング

    Multisite object gateway monitoring
  4. 編集するバケットの行をクリックします。
  5. Edit ドロップダウンメニューで Edit を選択します。
  6. Edit Bucket ウィンドウで、必要なパラメーターを編集し、Edit Bucket をクリックします。

    図10.11 マルチサイトのバケットの編集

    Edit buckets in a multisite

検証

  • バケットが正常に更新されたことを示す通知が表示されます。

関連情報

10.6.3. Ceph Dashboard でのマルチサイトオブジェクトゲートウェイ設定のバケットの削除

マルチサイトのオブジェクトゲートウェイ設定の場合に、Red Hat Ceph Storage Dashboard でプライマリーサイトからセカンダリーサイトのバケットを削除できます。

重要: Red Hat は、セカンダリーサイトからプライマリーサイトのバケットを削除することを推奨していません。

要件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。
  • 最低でも Ceph Dashboard での rgw-manager レベルのアクセス。

手順

  1. プライマリーサイトのダッシュボードランディングページの垂直メニューバーで、Object Gateway ドロップダウンリストをクリックします。
  2. Buckets を選択します。
  3. セカンダリーサイトのこれらのオブジェクトゲートウェイバケットは、ここで確認できます。
  4. 削除するバケットの行をクリックします。
  5. Edit ドロップダウンメニューから、Delete を選択します。
  6. Delete Bucket ダイアログボックスで、Yes, I am sure チェックボックスをオンにして、Delete Bucket をクリックします。

検証

  • 選択したバケットの行が正常に削除されます。

関連情報

第11章 Ceph Dashboard を使用したブロックデバイスの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でブロックデバイスイメージを管理し、監視することができます。この機能は、一般的なイメージ機能、ミラーリング機能、および iSCSI 機能に分けられます。たとえば、新規イメージの作成、クラスター間でミラーリングされたイメージの状態の表示、iSCSI ターゲットの管理または監視、およびイメージでの IOPS 制限の設定を行うことができます。

11.1. Ceph Dashboard でのブロックデバイスイメージの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して、イメージの作成、編集、コピー、パージ、および削除を実行できます。

また、Ceph Dashboard を使用して、イメージのスナップショット作成、複製、コピー、ロールバック、削除が可能です。

11.1.1. Ceph Dashboard でのイメージの作成

Red Hat Ceph Storage Dashboard でブロックデバイスイメージを作成できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. Create をクリックします。
  5. Create RBD ウィンドウで、パラメーターを入力します。
  6. オプション: Advanced をクリックし、パラメーターを設定します。
  7. Create RBD をクリックします。
  8. ブロックデバイスイメージの作成

    図11.1 ブロックデバイスイメージの作成

    Create Block device image
  9. イメージが正常に作成されたことを示す通知が表示されます。

関連情報

11.1.2. Ceph Dashboard での namespace の作成

Red Hat Ceph Storage Dashboard で、ブロックデバイスイメージの namespace を作成できます。

namespace が作成されると、それらの namespace のユーザーにアクセス権を割り当てることができます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • ブロックデバイスイメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. イメージの名前空間を作成するには、Namespaces タブで、Create をクリックします。
  5. Create Namespace ウィンドウでプールを選択し、namespace の名前を入力します。
  6. Create をクリックします。

    図11.2 namespace の作成

    Create namespace
  7. namespace が正常に作成されたという通知が表示されます。

関連情報

11.1.3. Ceph Dashboard でのイメージの編集

Red Hat Ceph Storage Dashboard でブロックデバイスイメージを編集できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. イメージを編集するには、その行をクリックします。
  5. Edit ドロップダウンメニューで、Edit を選択します。
  6. Edit RBD ウィンドウで、必要なパラメーターを編集し、Edit RBD をクリックします。

    図11.3 ブロックデバイスイメージの編集

    Edit Block device image
  7. イメージが正常に更新されたことを示す通知が表示されます。

関連情報

11.1.4. Ceph Dashboard でのイメージのコピー

Red Hat Ceph Storage Dashboard でブロックデバイスイメージをコピーすることができます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. イメージをコピーするには、その行をクリックします。
  5. Edit ドロップダウンメニューで、Copy を選択します。
  6. Copy RBD ウィンドウで、必要なパラメーターを設定し、Copy RBD をクリックします。

    図11.4 ブロックデバイスイメージのコピー

    Copy Block device image
  7. イメージが正常にコピーされたことを示す通知が表示されます。

関連情報

11.1.5. Ceph Dashboard でのイメージのゴミ箱への移動

Red Hat Ceph Storage Dashboard で削除する前に、ブロックデバイスイメージをゴミ箱に移動できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. ドロップダウンメニューから Images を選択します。
  4. イメージをトレイに移動するには、その行をクリックします。
  5. Edit ドロップダウンの Move to Trash を選択します。
  6. Moving an image to trash ウィンドウで、イメージが保護する必要のある日付を編集し、Move Image をクリックします。

    図11.5 イメージのごみ箱への移動

    Moving images to trash
  7. イメージがゴミ箱に移動されたことを示す通知が表示されます。

11.1.6. Ceph Dashboard でのゴミ箱のパージ

Red Hat Ceph Storage Dashboard を使用して、ゴミ箱をパージすることができます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されます。
  • イメージがゴミ箱に捨てられている。

手順

  1. Dashboard にログインします。
  2. ナビゲーションバーで、Block をクリックします。
  3. Images を選択します。
  4. Trash タブで、Purge Trash をクリックします。
  5. Purge Trash ウィンドウでプールを選択し、Purge Trash をクリックします。

    図11.6 ゴミ箱のパージ

    Purge Trash
  6. ごみ箱にあるプールが正常にパージされたことを示す通知が表示されます。

追加リソース

11.1.7. Ceph Dashboard のゴミ箱からのイメージの復元

Red Hat Ceph Storage Dashboard では、ゴミ箱にあるイメージや期限切れのイメージを復元できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されます。
  • イメージがゴミ箱に捨てられている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. ゴミ箱からイメージを復元するには、Trash タブでその行をクリックします。
  5. Restore ドロップダウンメニューで Restore を選択します。
  6. Restore Image ウィンドウで、イメージの名前を入力してから、Restore をクリックします。

    図11.7 ゴミ箱からのイメージの復元

    Restore images from trash
  7. イメージが正常に復元されたことを示す通知が表示されます。

追加リソース

  • RBD プールでのイメージの作成に関する詳細は、『Red Hat Ceph Storage Dashboard ガイド』の 「イメージの作成」セクションを参照してください。

11.1.8. Ceph Dashboard でのイメージの削除

イメージは、ゴミ箱に移動された後にのみ削除できます。クローンしたイメージと、コピーされたイメージは、ゴミ箱に移動せずに直接削除できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成され、ゴミ箱に移動されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. Images を選択します。
  4. イメージを削除するには、Trash タブで、その行をクリックします。
  5. Restore ドロップダウンメニューで Delete を選択します。
  6. オプション: クローンされたイメージとコピーしたイメージを削除するには、Edit ドロップダウンメニューから Delete を選択します。
  7. Delete RBD ダイアログボックスで Yes, I am sure ボックスをクリックして Delete RBD をクリックして設定を保存します。

    図11.8 イメージの削除

    Deleting images
  8. イメージが正常に削除されたことを示す通知が表示されます。

追加リソース

11.1.9. Ceph Dashboard での namespace の削除

Red Hat Ceph Storage Dashboard でイメージの namespace を削除できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成され、ゴミ箱に移動されている。
  • ブロックデバイスイメージおよびその namespace が作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. Images を選択します。
  4. イメージの名前空間を作成するには、Namespaces タブで、その行をクリックします。
  5. Delete をクリックします。
  6. Delete Namespace ダイアログボックスで Yes, I am sure ボックスをクリックして Delete Namespace をクリックして設定を保存します。

    図11.9 namespace の削除

    Deleting namespaces
  7. namespace が正常に削除されたことを示す通知が表示されます。

11.1.10. Ceph Dashboard でのイメージのスナップショット作成

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットを作成できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットを作成するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Create ドロップダウンで Create を選択します。
  6. Delete ダイアログで、名前を入力し、Create RBD Snapshot をクリックします。

    図11.10 イメージのスナップショットの作成

    Creating snapshot of images
  7. スナップショットが正常に作成されたことを示す通知が表示されます。

関連情報

11.1.11. Ceph Dashboard でのイメージのスナップショット名変更

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットの名前を変更できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を変更するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Rename を選択します。
  6. Rename RBD Snapshot ダイアログで、名前を入力し、Rename RBD Snapshot をクリックします。

    図11.11 イメージのスナップショットの名前変更

    Renaming snapshot of images

関連情報

11.1.12. Ceph Dashboard でのイメージのスナップショット保護

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットを保護します。

これは、スナップショットのクローンを作成する必要がある場合に必要です。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンで Protect を選択します。
  6. スナップショットの StateUNPROTECTED から PROTECTED に変わります。

関連情報

11.1.13. Ceph Dashboard でのイメージのスナップショットのクローン作成

Red Hat Ceph Storage Dashboard でイメージのスナップショットのクローンを作成できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成され、保護されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Clone を選択します。
  6. Clone RBD ウィンドウで、パラメーターを編集し、Clone RBD をクリックします。

    図11.12 イメージのスナップショットのクローン作成

    Cloning snapshot of images
  7. スナップショットが正常にクローンされたことを示す通知が表示されます。Images タブでは、クローンされたイメージを検索できます。

関連情報

11.1.14. Ceph Dashboard でのイメージのスナップショットのコピー

Red Hat Ceph Storage Dashboard でイメージのスナップショットをコピーできます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで Copy を選択します。
  6. Copy RBD ウィンドウでパラメーターを入力し、Copy RBD ボタンをクリックします。

    図11.13 イメージのスナップショットのコピー

    Copying snapshot of images
  7. スナップショットが正常にコピーされたことを示す通知が表示されます。コピーしたイメージは、Images タブで検索できます。

関連情報

11.1.15. Ceph Dashboard でのイメージのスナップショットの保護解除

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットの保護を解除できます。

これは、スナップショットを削除する必要がある場合に必要です。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成され、保護されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショット名の保護を解除するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで UnProtect を選択します。
  6. スナップショットの StatePROTECTED から UNPROTECTED に変わります。

関連情報

11.1.16. Ceph Dashboard でのイメージのスナップショットのロールバック

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットをロールバックすることができます。イメージをスナップショットにロールバックすると、イメージの現行バージョンがスナップショットからのデータで上書きされます。ロールバックの実行にかかる時間は、イメージのサイズとともに増加します。イメージをスナップショットにロールバックするよりも、クローンする方が短時間ででき、既存の状態に戻す方法として推奨されます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットをロールバックするには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Rollback を選択します。
  6. RBD snapshot rollback ダイアログボックスで、Rollback をクリックします。

    図11.14 イメージのスナップショットのロールバック

    Rolling back snapshot of images

関連情報

11.1.17. Ceph Dashboard でのイメージのスナップショットの削除

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットを削除できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成され、保護されていない。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットを作成するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Delete を選択します。

    図11.15 イメージのスナップショットの削除

    Deleting snapshot of images
  6. スナップショットが正常に削除されたことを示す通知が表示されます。

関連情報

11.2. Ceph Dashboard でのミラーリング機能の管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でブロックデバイスのミラーリング機能を管理し、監視することができます。

ストレージクラスター間でデータイメージをミラーリングして、別の階層を Ceph ブロックデバイスに追加して冗長化できます。Ceph ブロックデバイスのミラーリングについて理解して使用すると、サイト障害など、データ損失から守ることができます。Ceph ブロックデバイスのミラーリングには、一方向ミラーリングまたは双方向ミラーリングの 2 つの設定があり、プールと個別のイメージにミラーリングを設定できます。

11.2.1. Ceph Dashboard のミラーリングビュー

Red Hat Ceph Storage Dashboard でブロックデバイスのミラーリングを表示できます。

デーモン、サイトの詳細、プール、およびブロックデバイスミラーリング用に設定されたイメージを表示できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • ミラーリングが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。

    図11.16 ブロックデバイスのミラーリングの表示

    View mirroring of Block devices

関連情報

11.2.2. Ceph Dashboard でのプールの編集モード

Red Hat Ceph Storage Dashboard では、プールとイメージを含むミラーリング機能全体のモードを編集できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。
  4. Pools タブで、削除するピアをクリックします。
  5. Edit Mode ドロップダウンで、Edit Mode を選択します。
  6. Edit Pool mirror mode ウィンドウで、ドロップダウンからモードを選択し、Update をクリックします。

    図11.17 ミラーリングのモード編集

    Editing mode in mirroring
  7. プールが正常に更新されたことを示す通知が表示されます。

関連情報

11.2.3. Ceph Dashboard でのミラーリングのピアの追加

'rbd-daemon' ミラーにストレージクラスターピアを追加して、Red Hat Ceph Storage Dashboard でピアストレージクラスターを検出することができます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。
  4. Pools タブで、削除するピアをクリックします。
  5. Edit Mode ドロップダウンメニューで、Add peer を選択します。
  6. Add pool mirror peer ウィンドウでパラメーターを入力し、Submit をクリックします。

    図11.18 ミラーリングでピアの追加

    Adding peer in mirroring
  7. ピアが正常に作成されたことを示す通知が表示されます。

関連情報

11.2.4. Ceph Dashboard でのミラーリングのピアの編集

'rbd-daemon' ミラーにストレージクラスターピアを編集して、Red Hat Ceph Storage Dashboard でピアストレージクラスターを検出することができます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。
  • ピアが追加されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。
  4. Pools タブで、削除するピアをクリックします。
  5. Edit Mode ドロップダウンメニューで、Edit peer を選択します。
  6. Edit pool mirror peer ウィンドウでパラメーターを編集し、Submit をクリックします。

    図11.19 ミラーリングのピアの編集

    Editing peer in mirroring
  7. ピアが正常に更新されたことを示す通知が表示されます。

関連情報

11.2.5. Ceph Dashboard でのミラーリングのピアの削除

'rbd-daemon' ミラーにストレージクラスターピアを編集して、Red Hat Ceph Storage Dashboard でピアストレージクラスターを検出することができます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。
  • ピアが追加されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。
  4. Pools タブで、削除するピアをクリックします。
  5. Edit Mode ドロップダウンメニューで、Delete peer を 選択します。
  6. Delete mirror peer ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete mirror peer クリックし、設定を保存します。

    図11.20 ミラーリングのピアの削除

    Delete peer in mirroring
  7. ピアが正常に削除されたことを示す通知が表示されます。

関連情報

11.3. Ceph Dashboard を使用した iSCSI 機能の管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で iSCSI イメージおよびターゲットを管理および監視できます。ダッシュボードを使用して iSCSI イメージおよびターゲットを管理および監視する前に、ゲートウェイを追加してダッシュボードの iSCSI 機能を有効化する必要があります。

11.3.1. iSCSI ゲートウェイの Ceph Dashboard への手動追加

iSCSI ターゲットは、Ceph iSCSI ゲートウェイの rbd-target-api サービスが提供する REST API を使用して管理できます。ダッシュボードがこれにアクセスする前に、API アドレスをダッシュボードに追加する必要があります。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph iSCSI ノードおよびコンテナーがデプロイされている。
重要

Ceph iSCSI ゲートウェイには、高可用性を提供するためにゲートウェイが 2 つ必要です。

手順

  1. Cephadm シェルにログインします。

    [root@host01 ~]# cephadm shell

  2. iSCSI ゲートウェイの REST API が自己署名証明書を使用して HTTPS モードで設定されている場合は、API へのアクセス時の SSL 証明書の検証を回避するようにダッシュボードを設定する必要があります。以下のコマンドを実行して SSL 検証を無効にします。

    構文

    # ceph dashboard set-iscsi-api-ssl-verification false

    [ceph: root@host01 /]# ceph dashboard set-iscsi-api-ssl-verification false
    Option ISCSI_API_SSL_VERIFICATION updated

  3. ゲートウェイを一覧表示します。

    構文

    ceph dashboard iscsi-gateway-list

    [ceph: root@host01 /]# ceph dashboard iscsi-gateway-list
    {"gateways": {"host01": {"service_url": "http://admin:admin@[2620:52:0:880:225:90ff:fefc:2538]:5000"}, "host03": {"service_url": "http://admin:admin@[2620:52:0:880:225:90ff:fefc:252c]:5000"}}}----

  4. 2 つ以上のゲートウェイの最初のファイルを作成して、service_url を追加します。

    [ceph: root@host01 /]# cat iscsigateway1
    http://admin:admin@[2620:52:0:880:225:90ff:fefc:2538]:5000

  5. ダッシュボードに、少なくとも 2 つあるゲートウェイの最初のものを追加します。

    構文

    ceph dashboard iscsi-gateway-add FILE HOSTNAME

    [ceph: root@host01 /]# ceph dashboard iscsi-gateway-add iscsigateway1 host01
    Success

  6. 2 つ以上あるゲートウェイの内、2 番目のファイルを作成します。

    [ceph: root@host01 /]# cat iscsigateway2
    http://admin:admin@[2620:52:0:880:225:90ff:fefc:252c]:5000

  7. ダッシュボードに、少なくとも 2 つあるゲートウェイの 2 つ目のものを追加します。

    構文

    ceph dashboard iscsi-gateway-add FILE HOSTNAME

    [ceph: root@host01 /]# # ceph dashboard iscsi-gateway-add iscsigateway2 host03
    Success

関連情報

11.3.2. Ceph Dashboard の iSCSI の概要

Red Hat Ceph Storage Dashboard の iSCSI でエクスポートした iSCSI ゲートウェイホストおよびイメージを示す概要が表示されます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイがインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. iSCSI をクリックします。

    図11.21 iSCSI の概要

    iSCSI overview

関連情報

11.3.3. Ceph Dashboard での iSCSI ターゲットの作成

Red Hat Ceph Storage Dashboard で iSCSI ターゲットを作成できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. iSCSI をクリックします。
  4. ターゲット タブをクリックします。
  5. Create ドロップダウンメニューから、Create をクリックします。
  6. Create Target ウィンドウで、次のパラメーターを設定します。

    1. 必要に応じて、ターゲット IQN を変更します。
    2. 必要に応じて、ターゲットの詳細設定を設定します。
    3. +Add portal ボタンをクリックし、2 つ以上のゲートウェイの最初のゲートウェイを選択します。追加のゲートウェイに対してこの手順を繰り返します。
    4. +Add image ボタンをクリックして、ターゲットによってエクスポートされるイメージを選択します。追加のイメージに対してこの手順を繰り返します。
    5. ACL authentication ボックスをクリックします。
    6. Add group ボタンをクリックします。
    7. Create Target をクリックします。

      図11.22 iSCSI ターゲットの作成

      Create iSCSI Target

関連情報

11.3.4. Ceph Dashboard で iSCSI ターゲットの表示

Red Hat Ceph Storage Dashboard で iSCSI ターゲットを表示できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイがインストールされている。
  • iSCSI ターゲットが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. iSCSI をクリックします。
  4. ターゲット タブをクリックします。
  5. ターゲットの詳細を表示するには、その行をクリックします。

    1. イニシエーターがログインしているかどうかを含め、iSCSI トポロジーを確認できます。
    2. オブジェクトをクリックして、その詳細情報を表示します。

      図11.23 iSCSI ターゲットの表示

      View iSCSI targets

関連情報

11.3.5. Ceph Dashboard での iSCSI ターゲットの編集

Red Hat Ceph Storage Dashboard で iSCSI ターゲットを編集できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • RBD アプリケーションが有効になっている複製されたプール。
  • RBD アプリケーションが有効になっているイレイジャーコーディングされたプール。
  • iSCSI ターゲットが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. iSCSI をクリックします。
  4. ターゲット タブをクリックします。
  5. ターゲットの詳細を編集するには、その行をクリックします。
  6. Edit ドロップダウンメニューで、Edit を選択します。
  7. Edit Target ウィンドウでパラメーターを編集し、Edit Target をクリックします。

    図11.24 iSCSI ターゲットの編集

    Edit iSCSI target

関連情報

11.3.6. Ceph Dashboard での iSCSI ターゲットの削除

Red Hat Ceph Storage Dashboard で iSCSI ターゲットを削除できます。

要件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。
  • iSCSI ターゲットが作成されている。
  • すべての iSCSI イニシエーターを切断します。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. iSCSI をクリックします。
  4. ターゲット タブをクリックします。
  5. ターゲットを削除するには、その行をクリックします。
  6. Edit ドロップダウンメニューで、Delete を選択します。
  7. Delete iSCSI target ダイアログボックスで、Yes, I am sure ボックスをクリックし、Delete iSCSI をクリックして設定を保存します。

    図11.25 iSCSI ターゲットの削除

    Delete iSCSI target

関連情報

  • Ceph iSCSI Gateway のインストール方法は、『Red Hat Ceph Storage ブロックデバイスガイド』「iSCSI ゲートウェイのインストール」を参照してください。
  • iSCSI イニシエータを切断する方法は、『Red Hat Ceph ストレージブロックデバイスガイド』の「iSCSI 設定の削除」を参照してください。

11.3.7. Ceph Dashboard での検出認証の設定

ダッシュボードは、CHAP/CHAP_MUTUAL を使用した検出認証を許可します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスター
  • Dashboard がインストールされている。
  • Ceph iSCSI ゲートウェイが、少なくとも 2 つのゲートウェイと共にインストールされている。
  • iSCSI ゲートウェイがダッシュボードに追加されている。
  • ダッシュボードの iSCSI 機能が有効になっている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. iSCSI をクリックします。
  4. ターゲット タブをクリックします。
  5. 検出認証 をクリックします。
  6. 検出認証 ウィンドウで、詳細を入力し、送信 をクリックします。

    図11.26 ディスカバリー認証

    Discovery Authentication