Dashboard ガイド

Red Hat Ceph Storage 5

Ceph Dashboard を使用した Ceph クラスターのモニタリング

Red Hat Ceph Storage Documentation Team

概要

本書では、監視および管理の目的で Red Hat Ceph Storage Dashboard を使用する方法を説明します。
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、弊社の CTO、Chris Wright のメッセージ を参照してください。

第1章 Ceph Dashboard の概要

ストレージ管理者は、Red Hat Ceph Storage Dashboard は管理機能および監視機能を提供します。これにより、クラスターの管理および設定が可能になり、それに関連する情報およびパフォーマンス統計を可視化を可能にします。ダッシュボードは、ceph-mgr デーモンがホストする Web サーバーを使用します。

ダッシュボードは Web ブラウザーからアクセスでき、たとえばマネージャーモジュールの設定や OSD の状態の監視などの有用な管理機能および監視機能が含まれます。

1.1. 前提条件

  • システム管理者レベルの経験

1.2. Ceph Dashboard コンポーネント

ダッシュボードの機能は複数のコンポーネントで提供されます。

  • デプロイメント用の Cephadm アプリケーション。
  • 埋め込みダッシュボードである ceph-mgr モジュール。
  • 埋め込み Prometheus である ceph-mgr モジュール。
  • Prometheus の時系列データベース。
  • ストレージクラスターの各ホストで実行される Prometheus の node-exporter デーモン。
  • 監視ユーザーインターフェイスおよびアラートを提供する Grafana プラットフォーム。

関連情報

1.3. Ceph Dashboard 機能

Ceph Dashboard には、次の機能があります。

  • マルチユーザーとロールの管理: ダッシュボードは、異なる権限とロールが割り当てられた複数のユーザーアカウントをサポートします。ユーザーアカウントとロールは、コマンドラインと Web ユーザーインターフェイスの両方を使用して管理できます。ダッシュボードは、パスワードセキュリティーの強化に向けたさまざまな方法をサポートしています。ユーザーは最初のログイン後または設定可能な期間の後にパスワードを変更する必要があるなど、パスワードの複雑性ルールは設定できます。
  • シングルサインオン (SSO): ダッシュボードは、SAML 2.0 プロトコルを使用した外部 ID プロバイダーとの認証をサポートしています。
  • 監査: ダッシュボードバックエンドは、すべての PUT、POST、および DELETE API 要求を Ceph マネージャーログに記録するように設定できます。

管理機能

  • クラスターの階層の表示: CRUSH マップを表示できます。たとえば、特定の OSD ID が実行されているホストを判別できます。これは、OSD に問題がある場合に便利です。
  • マネージャーモジュールの設定: Ceph マネージャーモジュールのパラメーターを表示および変更できます。
  • 埋め込み Grafana ダッシュボード: Ceph Dashboard の Grafana ダッシュボードは、Prometheus モジュールによって収集された情報とパフォーマンスメトリックを表示するために、外部アプリケーションや Web ページに埋め込まれている場合があります。
  • ログの表示および絞り込み: イベントおよび監査クラスターのログを表示し、優先順位、キーワード、日付、または時間範囲に基づいてフィルタリングできます。
  • ダッシュボードコンポーネントの切り替え: ダッシュボードのコンポーネントを有効および無効にできるため、必要な機能のみが利用可能になります。
  • OSD 設定の管理: ダッシュボードを使用してクラスター全体の OSD フラグを設定できます。また、OSD のアップ、ダウン、またはアウトのマーク付け、OSD のパージと加重付け、スクラブ操作の実行、さまざまなスクラブ関連の設定オプションの変更、プロファイルの選択によるバックフィルアクティビティーのレベル調整なども可能です。OSD のデバイスクラスを設定および変更して、デバイスクラス別に OSD を表示して並べ替えることができます。OSD を新しいドライブおよびホストにデプロイできます。
  • iSCSI 管理: iSCSI ターゲットを作成、変更、および削除します。
  • アラートの表示 アラートページでは、現在のアラートの詳細を表示できます。
  • イメージのサービス品質: IOPS の制限や、BPS バーストレートの読み取りなど、イメージにパフォーマンス制限を設定できます。

監視機能

  • ユーザー名およびパスワード保護: 設定可能なユーザー名とパスワードのみを使用してダッシュボードにアクセスできます。
  • クラスター全体のヘルス: パフォーマンスと容量のメトリックを表示します。クラスター全体のステータス、ストレージ使用率 (オブジェクトの数、Raw 容量、プールごとの使用量など)、プールのリストおよびそれらのステータスと使用状況の統計を表示します。
  • ホスト: 実行中のサービスおよびインストールされた Ceph バージョンと共に、クラスターに関連付けられたホストのリストを提供します。
  • パフォーマンスカウンター: 実行中の各サービスの詳細統計を表示します。
  • モニター: モニター、クォーラムのステータス、およびオープンセッションのリストを表示します。
  • 設定エディター: 使用可能なすべての設定オプション、説明、タイプ、デフォルト、および現在設定されている値を表示します。これらの値は編集可能です。
  • クラスターログ: クラスターのイベントおよび監査ログファイルの最新の更新を、優先度、日付、またはキーワード別に表示およびフィルタリングします。
  • デバイス管理: オーケストレーターが認識しているすべてのホストをリスト表示します。ホストに接続されているすべてのドライブとそのプロパティーをリスト表示します。ドライブのヘルス予測、SMART データ、点滅エンクロージャー LED を表示します。
  • ストレージクラスターの容量の表示: Red Hat Ceph Storage クラスターの Raw ストレージ容量は、Ceph Dashboard の Capacity パネルで確認できます。
  • Pools: すべての Ceph プールとその詳細をリスト表示および管理します。たとえば、アプリケーション、配置グループ、レプリケーションサイズ、EC プロファイル、クォータ、CRUSH ルールセットなどです。
  • OSD: すべての OSD、それらのステータスおよび使用状況の統計に加えて、属性 (OSD マップ)、メタデータ、読み取り/書き込み操作のパフォーマンスカウンターなどの詳細情報をリスト表示および管理します。OSD に関連付けられているすべてのドライブをリスト表示します。
  • iSCSI: tcmu-runner サービスを実行するホストのリストを表示し、読み取り/書き込み操作やトラフィックなど、すべてのイメージとそのパフォーマンスの特性を表示します。また、iSCSI ゲートウェイのステータスおよびアクティブなイニシエーターに関する情報も表示します。
  • イメージ: サイズ、オブジェクト、機能などのすべての RBD イメージと、そのプロパティーを表示します。RBD イメージの作成、コピー、変更、および削除を行います。選択したイメージのスナップショットを作成、削除、およびロールバックし、変更に対してこのスナップショットを保護するか、保護を解除します。スナップショットをコピーまたは複製し、複製されたイメージを平坦化します。

    注記

    特定のイメージの Overall Performance タブの I/O 変更のパフォーマンスグラフには、Cluster > Manager modules > Prometheusrbd_stats_pool パラメーターを設定すると、そのイメージを含むプールを指定した後にのみ値が表示されます。

  • RBD ミラーリング: リモート Ceph サーバーへの RBD ミラーリングを有効化および設定します。同期状態を含む、すべてのアクティブな同期デーモンとそのステータス、プール、および RBD イメージのリストを表示します。
  • Ceph ファイルシステム: アクティブな Ceph ファイルシステム (CephFS) クライアントと関連するプール (使用状況の統計を含む) のリストを表示します。アクティブな CephFS クライアントを退避し、CephFS クォータとスナップショットを管理して、CephFS ディレクトリー構造を参照します。
  • Object Gateway (RGW): アクティブなすべてのObject Gateway とそのパフォーマンスカウンターを表示します。オブジェクトゲートウェイユーザーの表示および管理 (追加、編集、削除) およびその詳細 (クォータなど)、ユーザーのバケットおよびその詳細 (例: 所有者、クォータなど) を表示および管理します。
  • NFS: NFS Ganesha を使用して CephFS および Ceph オブジェクトゲートウェイ S3 バケットの NFS エクスポートを管理します。

セキュリティー機能

  • SSL および TLS のサポート: Web ブラウザーとダッシュボード間の HTTP 通信はすべて SSL 経由で保護されます。自己署名証明書は組み込みコマンドで作成できますが、認証局 (CA) が署名して発行したカスタム証明書をインポートすることもできます。

関連情報

1.4. Red Hat Ceph ストレージダッシュボードアーキテクチャー

Dashboard アーキテクチャーは、Ceph Manager のダッシュボードプラグインおよびその他のコンポーネントによって異なります。以下の図を参照し、どのように連携するかを確認します。

Ceph Dashboard architecture diagram

第2章 Ceph Dashboard のインストールおよびアクセス

システム管理者は、クラスターのブートストラップ時に提示された認証情報を使用してダッシュボードにアクセスできます。

Cephadm はデフォルトでダッシュボードをインストールします。以下は、ダッシュボード URL の例です。

URL: https://host01:8443/
User: admin
Password: zbiql951ar
注記

ダッシュボード URL にアクセスする前に、ブラウザーを更新して Cookie をクリアします。

Ceph Dashboard 設定で使用できる Cephadm ブートストラップオプションを以下に示します。

  • [—initial-dashboard-user INITIAL_DASHBOARD_USER] - 初期ダッシュボードユーザーを設定するには、ブートストラップ中にこのオプションを使用します。
  • [—initial-dashboard-password] - 初期ダッシュボードパスワードを設定するには、ブートストラップ中にこのオプションを使用します。
  • [-SSL-dashboard-port SSL_DASHBOARD_PORT] - このオプションを使用して、ブートストラップ時にデフォルトの 8443 以外のカスタムダッシュボードポートを設定します。
  • [—dashboard-key DASHBOARD_KEY] - SSL のカスタムキーを設定するには、ブートストラップ中にこのオプションを使用します。
  • [—dashboard-crt DASHBOARD_CRT] - SSL のカスタム証明書を設定するには、ブートストラップ中にこのオプションを使用します。
  • [—skip-dashboard] - ダッシュボードなしで Ceph をデプロイするには、ブートストラップ中にこのオプションを使用します。
  • [—dashboard-password-noupdate] - 上記の 2 つのオプションを使用して初回ログイン時にパスワードをリセットしない場合は、ブートストラップ中にこのオプションを使用します。
  • [—allow-Fqdn-hostname] - 完全修飾ホスト名を使用できるようにするには、ブートストラップ中にこのオプションを使用します。
  • [—skip-prepare-host] - ホストの準備をスキップするには、ブートストラップ中にこのオプションを使用します。
注記

ダッシュボード関連の外部 URL の接続の問題を回避するには、ホスト名に完全修飾ドメイン名 (FQDN) を使用します (例:host01.ceph.redhat.com)。

注記

クライアントのインターネットブラウザーで Grafana URL を直接開き、セキュリティー例外を受け入れ、Ceph Dashboard のグラフを確認します。ブラウザーをリロードして、変更を表示します。

例:

[root@host01 ~]# cephadm bootstrap --mon-ip 127.0.0.1 --registry-json cephadm.txt  --initial-dashboard-user  admin --initial-dashboard-password zbiql951ar --dashboard-password-noupdate --allow-fqdn-hostname

注記

cephadm を使用してストレージクラスターをブートストラップするときに、カスタムコンテナーイメージまたはローカルコンテナーイメージに —image オプションを使用できます。

注記

ブートストラップ時に —dashboard-password-noupdate オプションを使用しない場合にのみ、ブートストラップ時に指定した認証情報を使用してダッシュボードへの初回ログイン時にパスワードを変更する必要があります。Ceph Dashboard の認証情報は var/log/ceph/cephadm.log ファイルにあります。Ceph Dashboard is now available at という文字列で検索します。

このセクションでは、次のタスクについて説明します。

2.1. Ceph Dashboard のネットワークポート要件

Ceph Dashboard のコンポーネントは、アクセス可能である必要のある、特定の TCP ネットワークポートを使用します。デフォルトでは、Red Hat Ceph Storage のインストール時に、ネットワークポートは firewalld で自動的に開きます。

表2.1 TCP ポート要件

ポート下記を使用して、発信元ホスト宛先ホスト

8443

ダッシュボードの Web インターフェイス

AlertManager サービスはアラートを報告するために Dashboard への接続も開始できるため、Ceph Dashboard UI および Grafana サーバー配下のホストにアクセスする必要がある IP アドレス。

Ceph Manager ホスト。

3000

Grafana

Grafana Dashboard UI およびすべての Ceph Manager ホストと Grafana サーバーへのアクセスが必要な IP アドレス。

Grafana サーバーを実行しているホスト (1 つまたは複数)。

2049

NFS-Ganesha

NFS にアクセスする必要がある IP アドレス。

NFS サービスを提供する IP アドレス。

9095

基本的な Prometheus グラフ用のデフォルトの Prometheus サーバー

Prometheus UI およびすべての Ceph Manager ホストと Grafana サーバーまたは Prometheus を実行しているホストへのアクセスが必要な IP アドレス。

Prometheus を実行しているホスト。

9093

Prometheus Alertmanager

Alertmanager Web UI およびすべての Ceph Manager ホストと Grafana サーバーまたは Prometheus を実行しているホストへのアクセスが必要な IP アドレス。

すべての Ceph Manager ホストと Grafana サーバー配下のホスト。

9094

複数のインスタンスから作成された可用性の高いクラスターを設定するための Prometheus Alertmanager

すべての Ceph Manager ホストと Grafana サーバー配下のホスト。

Prometheus Alertmanager の高可用性 (ピアデーモン同期)。したがって、srcdst の両方が Prometheus Alertmanager を実行しているホストである必要があります。

9100

Prometheus の node-exporter デーモン

Node Exporter メトリック Web UI を表示する必要がある Prometheus を実行しているホスト、およびすべての Ceph Manager ホストと Grafana サーバー、または Prometheus を実行しているホスト。

MON、OSDS、Grafana サーバーホストを含む、すべてのストレージクラスターホスト。

9283

Ceph Manager Prometheus エクスポーターモジュール

Ceph Exporter メトリック Web UI および Grafana サーバーにアクセスする必要がある Prometheus を実行しているホスト。

すべての Ceph Manager ホスト。

9287

Ceph iSCSI ゲートウェイデータ

すべての Ceph Manager ホストと Grafana サーバー。

すべての Ceph iSCSI ゲートウェイホスト。

関連情報

2.2. Ceph Dashboard へのアクセス

Ceph Dashboard にアクセスして Red Hat Ceph Storage クラスターを管理および監視できます。

前提条件

  • Red Hat Ceph Storage Dashboard の正常なインストール
  • NTP はクロックを適切に同期しています。

手順

  1. Web ブラウザーで、以下の URL を入力します。

    構文

    https://HOST_NAME:PORT

    以下を置き換えます。

    • HOST_NAME は、アクティブなマネージャーホストの完全修飾ドメイン名 (FQDN) に置き換えます。
    • PORT は、ポート 8443 に置き換えます。

      例:

      https://host01:8443

      Cephadm シェルで次のコマンドを実行して、ダッシュボードの URL を取得することもできます。

      例:

      [ceph: root@host01 /]# ceph mgr services

      このコマンドは、現在設定されているすべてのエンドポイントを表示します。ダッシュボード キーを探して、ダッシュボードにアクセスするための URL を取得します。

  2. ログインページで、ブートストラップ時に指定したユーザー名 admin とデフォルトパスワードを入力します。
  3. Red Hat Ceph Storage ダッシュボードに初めてログインするときにパスワードを変更する必要があります。
  4. ログイン後、ダッシュボードのデフォルトランディングページが表示され、Red Hat Ceph Storage クラスターのステータス、パフォーマンス、および容量のメトリックの概要が提供されています。

    図2.1 Ceph Dashboard のランディングページ

    Ceph dashboard landing page
  5. ダッシュボードのランディングページの以下のアイコンをクリックして、垂直メニューのオプションを折りたたむか表示します。

    図2.2 Ceph Dashboard の垂直メニュー

    Vertical menu on Ceph dashboard

2.3. Ceph Dashboard でのログインバナーの設定

多くのユーザーは、セキュリティー、法律、または免責事項の理由から、ログインページのカスタマイズ可能なテキストにおいてサポートを必要としています。

コマンドラインインターフェイス (CLI) を使用して、Ceph Dashboard のログインページでこれらのカスタムテキストを設定できます。

前提条件

  • モニタリングスタックがインストールされた実行中の Red Hat Ceph Storage クラスターがある。
  • cephadm ホストへの root レベルのアクセスがある。
  • dashboard モジュールが有効化されている。

手順

  1. root ユーザーとして login.txt ファイルを作成し、ユーザーにカスタムメッセージを提供します。

    例:

    ****CUSTOM LOGIN MESSAGE****

  2. コンテナー内のディレクトリーの下に login.txt ファイルをマウントします。

    例:

    [root@host01 ~]# cephadm shell --mount login.txt:/var/lib/ceph/login.txt

    注記

    シェルを終了するたびに、デーモンをデプロイする前にファイルをコンテナーにマウントする必要があります。

  3. オプション: dashboard の Ceph Manager モジュールが有効になっているかどうかを確認します。

    例:

    [ceph: root@host01 /]# ceph mgr module ls

  4. ログインバナーテキストを設定します。

    構文

    ceph dashboard set-login-banner -i FILE_PATH

    例:

    [ceph: root@host01 /]# ceph dashboard set-login-banner -i /var/lib/ceph/login.txt
    
    login banner file added

  5. ログインバナーテキストを取得します。

    例:

    [ceph: root@host01 /]# ceph dashboard get-login-banner
    
    ****CUSTOM LOGIN MESSAGE****

  6. オプション: unset コマンドを使用して、ログインバナーを削除できます。

    例:

    [ceph: root@host01 /]# ceph dashboard unset-login-banner
    
    Login banner removed

検証

  • ダッシュボードにログインします。

    https://HOST_NAME:8443
    Login banner

2.4. Ceph Dashboard での今日のメッセージ (MOTD) の設定

Red Hat Ceph Storage に関する最新のニュース、更新、情報について、Ceph Dashboardのユーザーに通知する必要がある場合があります。

ストレージ管理者は、コマンドラインインターフェイス (CLI) を使用して、今日のメッセージ (MOTD) を設定できます。

ユーザーが Ceph Dashboard にログインすると、Telemetry モジュールと同様に、設定済みの MOTD が Ceph Dashboard の上部に表示されます。

MOTD の重要度は、infowarningdanger などの重大度に基づいて設定できます。

重大度が info または warning の MOTD は、ユーザーが閉じることができます。info MOTD は、ローカルストレージの Cookie がクリアされるか、異なる重大度の新しい MOTD が表示されるまで表示されません。重大度が warning の MOTD は、新しいセッションで再び表示されます。

前提条件

  • モニタリングスタックがインストールされた実行中の Red Hat Ceph Storage クラスターがある。
  • cephadm ホストへの root レベルのアクセスがある。
  • dashboard モジュールが有効化されている。

手順

  1. ダッシュボードの MOTD を設定します。

    構文

    ceph dashboard motd set SEVERITY EXPIRES MESSAGE

    例:

    [ceph: root@host01 /]# ceph dashboard motd set danger 2d "Custom login message"
    
    Message of the day has been set.

    置き換え

    • SEVERITY は、infowarningdanger のいずれかです。
    • EXPIRES は、秒 (s)、分 (m)、時間 (h)、日 (d)、週 (w)、または無期限 (0) にできます。
    • MESSAGE は、ユーザーがダッシュボードにログインするとすぐに表示できる任意のカスタムメッセージにできます。
  2. オプション: 無期限の MOTD を設定します。

    例:

    [ceph: root@host01 /]# ceph dashboard motd set danger 0 "Custom login message"
    
    Message of the day has been set.

  3. 設定された MOTD を取得します。

    例:

    [ceph: root@host01 /]# ceph dashboard motd get
    
    Message="Custom login message", severity="danger", expires="2022-09-08T07:38:52.963882Z"

  4. オプション: clear コマンドを使用して設定された MOTD をクリアします。

    例:

    [ceph: root@host01 /]# ceph dashboard motd clear
    
    Message of the day has been cleared.

検証

  • ダッシュボードにログインします。

    https://HOST_NAME:8443
    MOTD

2.5. Ceph Dashboard でのクラスターのデプロイメント

ダッシュボードを使用して、Red Hat Ceph Storage クラスターを拡張し、ホストの追加、OSD の追加、Alertmanager、Cephadm-exporter、CephFS-mirror、Grafana、ingress、iSCSI、MDS、NFS、node-exporter、Prometheus、BD ミラー、Ceph Object Gateway などのサービスの作成を行うことができます。

新しいストレージクラスターをブートストラップすると、Ceph Monitor Daemon と Ceph Manager Daemon が作成され、クラスターは HEALTH_WARN 状態になります。ダッシュボードでクラスターのすべてのサービスを作成すると、クラスターの正常性が HEALTH_WARN から HEALTH_OK ステータスに変わります。

前提条件

手順

  1. ブートストラップされたホストから他のホストに管理キーをコピーします。

    構文

    ssh-copy-id -f -i /etc/ceph/ceph.pub root@HOST_NAME

    例:

    [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host02
    [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host03

  2. ブートストラップ中に提供されたデフォルトの認証情報を使用してダッシュボードにログインします。
  3. パスワードを変更し、新しいパスワードでダッシュボードにログインします。
  4. ランディングページで、Expand Cluster をクリックします。

    図2.3 クラスターのデプロイメント

    Expand cluster
  5. ホストの追加:

    1. Add Hosts ウィンドウで、+Add をクリックします。
    2. ホスト名を指定します。これは、ブートストラップされたホストからキーをコピーするときに提供されたホスト名と同じです。

      注記

      詳細については、Add Hosts ダイアログボックスのツールチップを使用できます。

    3. オプション: ホストのそれぞれの IP アドレスを指定します。
    4. オプション: サービスが作成されるホストのラベルを選択します。
    5. Add Host をクリックします。
    6. ストレージクラスター内のすべてのホストについて、上記の手順に従います。
  6. Add Hosts ウィンドウで、Next をクリックします。
  7. OSD を作成します。

    1. Create OSDsウィンドウのプライマリーデバイスで、+Add をクリックします。
    2. プライマリーデバイス ウィンドウで、デバイスをフィルタリングしてデバイスを選択します。
    3. Add をクリックします。
    4. オプション: Create OSDs ウィンドウで、WAL や DB デバイスなどの共有デバイスがある場合は、デバイスを追加します。
    5. オプション: 機能を暗号化するには、Encryption チェックボックスをクリックします。
    6. Create OSDs ウィンドウで、Next をクリックします。
  8. サービスを作成します。

    1. Create Services ウィンドウで、+Create をクリックします。
    2. Create Service ダイアログボックスで、

      1. ドロップダウンからサービスのタイプを選択します。
      2. サービスの一意の名前であるサービス ID を入力します。
      3. ホストまたはラベルごとに配置を提供します。
      4. ホストを選択します。
      5. デプロイする必要のあるデーモンまたはサービスの数を提供します。
    3. Create Service をクリックします。
  9. Create Service ウィンドウで、Next をクリックします。
  10. Cluster ResourcesHosts by ServicesHost Details を確認します。パラメーターを編集する場合は、Back をクリックして上記の手順に従います。

    図2.4 クラスターのレビュー

    Review cluster
  11. Expand Cluster をクリックします。
  12. クラスターの拡張が成功したという通知が表示されます。
  13. ダッシュボードでクラスターの状態が HEALTH_OK ステータスに変わります。

検証

  1. cephadm シェルにログインします。

    例:

    [root@host01 ~]# cephadm shell

  2. ceph-s コマンドを実行します。

    例:

    [ceph: root@host01 /]# ceph -s

    クラスターの正常性は HEALTH_OK です。

関連情報

2.6. Ceph Dashboard 機能の切り替え

オンデマンドで機能を有効または無効にすることで、Red Hat Ceph Storage ダッシュボードのコンポーネントをカスタマイズできます。デフォルトでは、すべての機能が有効になっています。機能を無効にすると、Web インターフェイス要素は非表示になり、関連付けられた REST API のエンドポイントはその機能に対する追加のリクエストを拒否します。ダッシュボード機能の有効化および無効化は、コマンドラインインターフェイスまたは Web インターフェイスから実行できます。

利用可能な機能:

  • Ceph ブロックデバイス:

    • イメージの管理 (rbd)
    • ミラーリング (mirroring)
    • iSCSI ゲートウェイ (iscsi)
  • Ceph ファイルシステム (cephfs)
  • Ceph オブジェクトゲートウェイ (rgw)
  • NFS Ganesha ゲートウェイ (nfs)
注記

デフォルトでは、Ceph Manager は Ceph Monitor と併置されます。

注記

複数の機能を一度に無効にできます。

重要

機能が無効になったら、Web インターフェイスの変更を反映するのに最大 20 秒かかる場合があります。

前提条件

  • Red Hat Ceph Storage ダッシュボードソフトウェアのインストールおよび設定
  • Ceph Manager ホストまたはダッシュボードの Web インターフェイスへのユーザーアクセス
  • Ceph Manager ホストへの root レベルのアクセス

手順

  • ダッシュボードの Web インターフェイスからダッシュボード機能を切り替えるには、以下を実行します。

    1. ダッシュボードのランディングページで、Cluster ドロップダウンメニューに移動します。
    2. Manager Modules を選択し、Dashboard を選択します。
    3. Edit Manager module ページで、機能名の横にある選択ボックスを選択するか、選択を解除すると、ダッシュボードの機能を有効または無効にできます。

      図2.5 Manager モジュールを編集

      Edit Manager module
    4. 選択が完了したら、下にスクロールして Update をクリックします。
  • コマンドラインインターフェイスからダッシュボード機能を切り替えるには、以下を実行します。

    1. Cephadm シェルにログインします。

      例:

      [root@host01 ~]# cephadm shell

    2. 機能のステータスのリストを表示します。

      例:

      [ceph: root@host01 /]# ceph dashboard feature status

    3. 機能を無効にします。

      [ceph: root@host01 /]# ceph dashboard feature disable iscsi

      以下の例では、Ceph iSCSI ゲートウェイ機能を無効にします。

    4. 機能を有効にします。

      [ceph: root@host01 /]# ceph dashboard feature enable cephfs

      以下の例では、Ceph Filesystem 機能を有効にします。

2.7. Ceph Dashboard のランディングページの理解

ランディングページには、ナビゲーションバーと個別のパネルを使用した Ceph クラスター全体の概要が表示されます。

ナビゲーションバーには、次のオプションがあります。

  • タスクと通知に関するメッセージ。
  • ドキュメント、Ceph Rest API、および Red Hat Ceph Storage Dashboard に関する詳細へのリンク。
  • ユーザー管理とテレメトリー設定へのリンク。
  • パスワードを変更してダッシュボードからサインアウトするためのリンク。

図2.6 ナビゲーションバー

Navigation bar

それとは別に、個々のパネルには、クラスターの状態に関する具体的な情報が表示されます。

Categories

ランディングページでは、パネルが以下の 3 つのカテゴリーに分けられます。

  1. ステータス
  2. 容量
  3. パフォーマンス

図2.7 Ceph Dashboard のランディングページ

Ceph dashboard Landing page

ステータスパネル

ステータスパネルには、クラスターの状態とホストおよびデーモンの状態が表示されます。

クラスターの状態: Ceph ストレージクラスターの現在のヘルスステータスを表示します。

ホスト: Ceph Storage クラスターのホストの合計数を表示します。

監視: Ceph Monitor の数およびクォーラムのステータスを表示します。

OSDs: Ceph Storage クラスターの OSD の合計数と、up および in の数を表示します。

マネージャー: Manager Daemon の数およびステータスを表示します。

Object Gateway : Ceph Storage クラスターのObject Gateway の数を表示します。

メタデータサーバー: Ceph ファイルシステム (CephFS) のメタデータサーバーの数とステータスを表示します。

iSCSI ゲートウェイ: Ceph ストレージクラスター内の iSCSI ゲートウェイの数を表示します。

容量パネル

容量パネルには、ストレージ使用量のメトリックが表示されます。

Raw 容量: クラスターの raw ストレージ容量の使用状況および可用性を表示します。

オブジェクト: プール内のオブジェクトの合計数と、オブジェクトを HealthyMisplacedDegraded、または Unfound の状態に分割するグラフを表示します。

PG ステータス: 配置グループの合計数と、PG を CleanWorkingWarning、または Unknown の状態に分割するグラフを表示します。PG ステータスの Working および Warning の表示を簡素化するために、実際には複数の状態が含まれます。

Working の状態には、以下のいずれかの状態の PG が含まれます。

  • activating
  • backfill_wait
  • backfilling
  • creating
  • deep
  • degraded
  • forced_backfill
  • forced_recovery
  • peering
  • peered
  • recovering
  • recovery_wait
  • repair
  • scrubbing
  • snaptrim
  • snaptrim_wait

Warning の状態には、以下のいずれかの状態の PG が含まれます。

  • backfill_toofull
  • backfill_unfound
  • down
  • incomplete
  • inconsistent
  • recovery_toofull
  • recovery_unfound
  • remapped
  • snaptrim_error
  • stale
  • undersized

プール: Ceph クラスター内のストレージプールの数を表示します。

OSD ごとの PG: OSD ごとの配置グループ数を表示します。

パフォーマンスパネル

パフォーマンスパネルには、データ転送速度に関する情報が表示されます。

クライアントの読み取り/書き込み: 1 秒あたりの入出力操作の合計、読み取り、および書き込みを表示します。

クライアントのスループット: クライアントスループット、読み取りスループット、書き込みスループットを表示します。

リカバリーのスループット: データのリカバリー速度を表示します。

スクラビング: データの整合性を確認するために Ceph がスクラビングしているかどうかを表示します。

関連情報

2.8. Ceph Dashboard を使用したダッシュボードパスワードの変更

デフォルトでは、ダッシュボードにアクセスするためのパスワードは、クラスターのブートストラップ中にシステムでランダムに生成されます。Red Hat Ceph Storage ダッシュボードに初めてログインするときにパスワードを変更する必要があります。ダッシュボードを使用して、admin ユーザーのパスワードを変更できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。

手順

  1. ダッシュボードにログインします。

    https://HOST_NAME:8443
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    図2.8 ユーザー管理

    User management
  3. admin のパスワードを変更するには、その行をクリックします。
  4. Edit ドロップダウンメニューで Edit を選択します。
  5. Edit User ウィンドウで、新しいパスワードを入力し、その他のパラメーターを変更し、Edit User をクリックします。

    図2.9 ユーザー管理の編集

    Edit user management

    ログアウトし、ログイン画面にリダイレクトされます。パスワードの変更を確認する通知が表示されます。

2.9. コマンドラインインターフェイスを使用した Ceph Dashboard のパスワードの変更

Ceph Dashboard のパスワードを忘れた場合は、コマンドラインインターフェイスを使用してパスワードを変更できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • ダッシュボードがインストールされているホストへの root レベルのアクセス。

手順

  1. Cephadm シェルにログインします。

    例:

    [root@host01 ~]# cephadm shell

  2. dashboard_password.yml ファイルを作成します。

    例:

    [ceph: root@host01 /]# touch dashboard_password.yml

  3. ファイルを編集し、新しいダッシュボードパスワードを追加します。

    例:

    [ceph: root@host01 /]# vi dashboard_password.yml

  4. ダッシュボードのパスワードをリセットします。

    構文

    ceph dashboard ac-user-set-password DASHBOARD_USERNAME -i PASSWORD_FILE

    [ceph: root@host01 /]# ceph dashboard ac-user-set-password admin -i dashboard_password.yml
    {"username": "admin", "password": "$2b$12$i5RmvN1PolR61Fay0mPgt.GDpcga1QpYsaHUbJfoqaHd1rfFFx7XS", "roles": ["administrator"], "name": null, "email": null, "lastUpdate": , "enabled": true, "pwdExpirationDate": null, "pwdUpdateRequired": false}

検証

  • 新しいパスワードでダッシュボードにログインします。

2.10. Grafana の admin ユーザーパスワードの設定

デフォルトでは、cephadm は Grafana の管理者ユーザーを作成しません。Ceph Orchestrator を使用すると、管理者ユーザーを作成してパスワードを設定できます。

これらの認証情報を使用すると、管理者ユーザーに指定されたパスワードを使用して、ストレージクラスターの Grafana URL にログインできます。

前提条件

  • モニタリングスタックがインストールされた実行中の Red Hat Ceph Storage クラスターがある。
  • cephadm ホストへの root レベルのアクセスがある。
  • dashboard モジュールが有効化されている。

手順

  1. root ユーザーとして grafana.yml ファイルを作成し、次の詳細を指定します。

    構文

    service_type: grafana
    spec:
      initial_admin_password: PASSWORD

    例:

    service_type: grafana
    spec:
      initial_admin_password: mypassword

  2. grafana.yml ファイルをコンテナーのディレクトリーにマウントします。

    例:

    [root@host01 ~]# cephadm shell --mount grafana.yml:/var/lib/ceph/grafana.yml

    注記

    シェルを終了するたびに、デーモンをデプロイする前にファイルをコンテナーにマウントする必要があります。

  3. オプション: dashboard の Ceph Manager モジュールが有効になっているかどうかを確認します。

    例:

    [ceph: root@host01 /]# ceph mgr module ls

  4. オプション: dashboard の Ceph Manager モジュールを有効にします。

    例:

    [ceph: root@host01 /]# ceph mgr module enable dashboard

  5. orch コマンドを使用して仕様を適用します。

    構文

    ceph orch apply -i FILE_NAME.yml

    例:

    [ceph: root@host01 /]# ceph orch apply -i /var/lib/ceph/grafana.yml

  6. grafana サービスを再デプロイします。

    例:

    [ceph: root@host01 /]# ceph orch redeploy grafana

    これにより、指定されたパスワードで admin という名前の管理者ユーザーが作成され、ユーザーはこれらの認証情報を使用して Grafana URL にログインできます。

検証:

  • 次の認証情報を使用して Grafana にログインします。

    構文

    https://HOST_NAME:PORT

    例:

    https://host01:3000/

2.11. Red Hat Ceph Storage Dashboard を手動で有効にする

ブートストラップ中に --skip-dashboard オプションを使用して Red Hat Ceph Storage クラスターをインストールした場合は、ダッシュボードの URL と認証情報がブートストラップ出力で使用できないことが確認できます。コマンドラインインターフェイスを使用して、ダッシュボードを手動で有効にできます。Prometheus、Grafana、Alertmanager、node-exporter などの監視スタックコンポーネントはデプロイされていますが、これらは無効になっているため、手動で有効にする必要があります。

前提条件

  • ブートストラップ中に --skip-dashboard オプションを指定してインストールされた実行中の Red Hat Ceph Storage クラスター。
  • ダッシュボードを有効にする必要があるホストへの root レベルのアクセス。

手順

  1. Cephadm シェルにログインします。

    例:

    [root@host01 ~]# cephadm shell

  2. Ceph Manager サービスを確認します。

    例:

    [ceph: root@host01 /]# ceph mgr services
    
    {
        "prometheus": "http://10.8.0.101:9283/"
    }

    ダッシュボードの URL が設定されていないことが確認できます。

  3. ダッシュボードモジュールを有効にします。

    例:

    [ceph: root@host01 /]# ceph mgr module enable dashboard

  4. ダッシュボードアクセス用の自己署名証明書を作成します。

    例:

    [ceph: root@host01 /]# ceph dashboard create-self-signed-cert

    注記

    証明書の検証を無効にして、証明書のエラーを回避できます。

  5. Ceph Manager サービスを確認します。

    例:

    [ceph: root@host01 /]# ceph mgr services
    
    {
        "dashboard": "https://10.8.0.101:8443/",
        "prometheus": "http://10.8.0.101:9283/"
    }

  6. Red Hat Ceph Storage ダッシュボードにアクセスするための管理者ユーザーとパスワードを作成します。

    構文

    echo -n "PASSWORD" > PASSWORD_FILE
    ceph dashboard ac-user-create admin -i PASSWORD_FILE administrator

    例:

    [ceph: root@host01 /]# echo -n "p@ssw0rd" > password.txt
    [ceph: root@host01 /]# ceph dashboard ac-user-create admin -i password.txt administrator

  7. 監視スタックを有効にします。詳細は、Red Hat Ceph Storage Dashboard GuideEnabling monitoring stack セクションを参照してください。

関連情報

2.12. Ceph Dashboard にユーザーを同期するための管理者アカウントの作成

ユーザーを Ceph Dashboard に同期するには、管理者アカウントを作成する必要があります。

アカウントを作成したら、Red Hat シングルサインオン (SSO) を使用して、ユーザーを Ceph Dashboard と同期させます。Red Hat Ceph Storage Dashboard ガイドRed Hat シングルサインオンを使用した Ceph Dashboard へのユーザーの同期 セクションを参照してください。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ユーザーをダッシュボードに追加しておく。
  • すべてのホストでの root レベルのアクセス。
  • Red hat Single Sign-On を ZIP ファイルからインストールしておく。詳細は、Zip ファイルからの Red Hat Single Sign-On のインストール を参照してください。

手順

  1. Red Hat Ceph ストレージがインストールされているシステムに Red Hat Single Sign-On 7.4.0 サーバー をダウンロードします。
  2. フォルダーをデプロイメントします。

    [root@host01 ~]# unzip rhsso-7.4.0.zip
  3. standalone/configuration ディレクトリーに移動し、standalone.xml を開いて編集します。

    [root@host01 ~]# cd standalone/configuration
    [root@host01 configuration]# vi standalone.xml
  4. localhost のすべてのインスタンスと 127.0.0.1 の 2 つのインスタンスは、Red Hat SSO がインストールされているマシンの IP アドレスに置き換えます。
  5. オプション: Red Hat Enterprise Linux 8 の場合には、認証局 (CA) の問題が発生する可能性があります。CA からカスタム証明書をインポートして、正確な Java バージョンを使用するキーストアに移動します。

    例:

    [root@host01 ~]# keytool -import -noprompt -trustcacerts -alias ca -file ../ca.cer -keystore /etc/java/java-1.8.0-openjdk/java-1.8.0-openjdk-1.8.0.272.b10-3.el8_3.x86_64/lib/security/cacert

  6. rh-sso-7.4 フォルダーの bin ディレクトリーからサーバーを起動するには、standalone ブートスクリプトを実行します。

    [root@host01 bin]# ./standalone.sh
  7. ユーザー名とパスワードを指定して、https: IP_ADDRESS :8080/auth で管理アカウントを作成します。

    注記

    管理者アカウントを作成する必要があるのは、コンソールに初めてログインするときだけです。

  8. 作成された認証情報を使用して管理コンソールにログインします。

関連情報

  • ダッシュボードでユーザーのロールを追加する方法は、Red Hat Ceph Storage ダッシュボードガイドCeph Dashboard でのロールの作成 セクションを参照してください。
  • ダッシュボードでユーザーを作成する方法は、Red Hat Ceph Storage ダッシュボードガイドCeph Dashboard でのユーザーの作成 セクションを参照してください。

2.13. Red Hat シングルサインオンを使用したユーザーの Ceph Dashboard への同期

Red Hat シングルサインオン (SSO) と Lightweight Directory Access Protocol (LDAP) 統合を使用して、ユーザーを Red Hat Ceph ストレージダッシュボードと同期させることができます。

ユーザーは特定のレルムに追加されます。このレルムでは、パスワードの追加要件なしで SSO を介してダッシュボードにアクセスできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者レベルのアクセス権。
  • ユーザーをダッシュボードに追加しておく。Red Hat Ceph Storage Dashboard ガイドCeph dashboard でのユーザーの作成 セクションを参照してください。
  • すべてのホストでの root レベルのアクセス。
  • ユーザーの同期用に作成された管理者アカウント。Red Hat Ceph Storage Dashboard ガイドCeph Dashboard でユーザーを同期するための管理者アカウントの作成 セクションを参照してください。

手順

  1. レルムを作成するには、Master ドロップダウンメニューをクリックします。このレルムでは、ユーザーおよびアプリケーションにアクセスできます。
  2. Add Realm ウィンドウで、レルム名 (大文字と小文字を区別) を入力し、パラメーターを Enabled に設定し、Create をクリックします。

    Add realm window
  3. Realm Settings タブで、次のパラメーターを設定し、Save をクリックします。

    1. Enabled - ON
    2. User-Managed Access - ON
    3. Client Settings に貼り付ける SAML 2.0 アイデンティティープロバイダーメタデータのリンクアドレスをメモしておきます。

      Add realm settings window
  4. Clients タブで、Create をクリックします。

    Add client
  5. Add Client ウィンドウで、次のパラメーターを設定し、Save をクリックします。

    1. クライアント ID - BASE_URL:8443/auth/saml2/metadata

      例:

      https://example.ceph.redhat.com:8443/auth/saml2/metadata

    2. クライアントプロトコル - saml
  6. Client ウィンドウの Settings タブで、次のパラメーターを設定します。

    表2.2 クライアント設定タブ

    パラメーターの名前構文例:

    Client ID

    BASE_URL:8443/auth/saml2/metadata

    https://example.ceph.redhat.com:8443/auth/saml2/metadata

    有効

    ON

    ON

    クライアントプロトコル

    saml

    saml

    Include AuthnStatement

    ON

    ON

    サインインドキュメント

    ON

    ON

    Signature Algorithm

    RSA_SHA1

    RSA_SHA1

    SAML Signature Key Name

    KEY_ID

    KEY_ID

    有効なリダイレクト URL

    BASE_URL:8443/*

    https://example.ceph.redhat.com:8443/*

    ベース URL

    BASE_URL:8443

    https://example.ceph.redhat.com:8443/

    Master SAML Processing URL

    https://localhost:8080/auth/realms/REALM_NAME/protocol/saml/descriptor

    https://localhost:8080/auth/realms/Ceph_LDAP/protocol/saml/descriptor

    注記

    Realm Settings タブから SAML 2.0 アイデンティティープロバイダーメタデータのリンクを貼り付けます。

    Fine Grain SAML Endpoint Configuration で、次のパラメーターを設定し、Save をクリックします。

    表2.3 詳細にわたる SAML 設定

    パラメーターの名前構文例:

    Assertion Consumer Service POST Binding URL

    BASE_URL:8443/#/dashboard

    https://example.ceph.redhat.com:8443/#/dashboard

    Assertion Consumer Service Redirect Binding URL

    BASE_URL:8443/#/dashboard

    https://example.ceph.redhat.com:8443/#/dashboard

    Logout Service Redirect Binding URL

    BASE_URL:8443/

    https://example.ceph.redhat.com:8443/

  7. Clients ウィンドウの Mappers タブで、次のパラメーターを設定し、Save をクリックします。

    表2.4 クライアントマッパータブ

    パラメーターの名前

    プロトコル

    saml

    名前

    username

    マッパープロパティー

    ユーザープロパティー

    プロパティー

    username

    SAML 属性名

    username

  8. Clients Scope タブで、role_list を選択します。

    1. Mappers タブで、role list を選択し、Single Role Attribute をオンに設定します。
  9. User_Federation タブを選択します。

    1. User Federation ウィンドウで、ドロップダウンメニューから LDAP を選択します。
    2. User_Federation ウィンドウの Settings タブで、次のパラメーターを設定し、Save をクリックします。

      表2.5 ユーザーフェデレーション設定タブ

      パラメーターの名前

      コンソール表示名

      rh-ldap

      ユーザーのインポート

      ON

      Edit_Mode

      READ_ONLY

      ユーザー名 LDAP 属性

      username

      RDN LDAP 属性

      username

      UUID LDAP 属性

      nsuniqueid

      ユーザーオブジェクトクラス

      inetOrgPerson

      organizationalPerson

      rhatPerson

      接続 URL

      例: ldap: //ldap.corp.redhat.com。Test Connection をクリックします。LDAP 接続が成功したという通知が表示されます。

      ユーザー DN

      ou=users、dc=example、dc=com

      バインドタイプ

      simple

      Test authentication をクリックします。LDAP 認証が成功したという通知が表示されます。

    3. Mappers タブで、first name の行を選択して、以下のパラメーターを編集し、Save をクリックします。

      • LDAP 属性 - GivenName
    4. User_Federation タブの Settings タブで、Synchronize all users をクリックします。

      User Federation Synchronize

      ユーザーの同期が正常に終了したという通知が表示されます。

  10. Users タブで、ダッシュボードに追加されたユーザーを検索し、検索アイコンをクリックします。

    User search tab
  11. ユーザーを表示するには、特定の行をクリックします。フェデレーションリンクは、 User Federation で指定した名前で表示されます。

    User details
    重要

    ユーザーは LDAP では同期されないため、手動でユーザーを追加しないでください。手動で追加した場合は、Delete をクリックしてユーザーを削除します。

検証

  • レルムとダッシュボードに追加されたユーザーは、メールアドレスとパスワードを使用して Ceph Dashboard にアクセスできます。

    例:

    https://example.ceph.redhat.com:8443

関連情報

  • ダッシュボードでユーザーのロールを追加する方法は、Red Hat Ceph Storage ダッシュボードガイドCeph Dashboard でのロールの作成 セクションを参照してください。

2.14. Ceph Dashboard のシングルサインオンの有効化

Ceph Dashboard は、Security Assertion Markup Language (SAML) 2.0 プロトコルを使用したユーザーの外部認証をサポートします。Ceph Dashboard にシングルサインオン (SSO) を使用する前に、ダッシュボードのユーザーアカウントを作成して必要なロールを割り当てます。Ceph Dashboard はユーザーの承認を実行し、認証プロセスは既存のアイデンティティープロバイダー (IdP) によって実行されます。SAML プロトコルを使用してシングルサインオンを有効にできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Ceph Dashboard のインストール。
  • Ceph Manager ホストへの root レベルのアクセス。

手順

  1. Ceph Dashboard で SSO を設定するには、以下のコマンドを実行します。

    構文

    podman exec CEPH_MGR_HOST ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

    例:

    [root@host01 ~]# podman exec host01 ceph dashboard sso setup saml2 https://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username https://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    置き換え

    • CEPH_MGR_HOST と Ceph mgr ホスト。(例: host01)
    • CEPH_DASHBOARD_BASE_URL は、Ceph Dashboard がアクセス可能なベース URL に置き換えます。
    • IDP_METADATA は、リモートパスまたはローカルパス、または IdP メタデータ XML の内容への URL に置き換えます。サポートされる URL タイプは http、https、およびファイルです。
    • 任意: IDP_USERNAME_ATTRIBUTE は、認証応答からユーザー名を取得するために使用される属性に置き換えます。デフォルトは uid です。
    • 任意: IDP_ENTITY_ID は、IdP メタデータに複数のエンティティー ID が存在する場合は IdP エンティティー ID に置き換えます。
    • 任意: SP_X_509_CERT は、署名および暗号化に Ceph Dashboard によって使用される証明書のファイルパスに置き換えます。
    • 任意: SP_PRIVATE_KEY は、署名および暗号化に Ceph Dashboard によって使用される秘密鍵のファイルパスに置き換えます。
  2. 現在の SAML 2.0 設定を確認します。

    構文

    podman exec CEPH_MGR_HOST ceph dashboard sso show saml2

    例:

    [root@host01 ~]#  podman exec host01 ceph dashboard sso show saml2

  3. SSO を有効にするには、以下のコマンドを実行します。

    構文

    podman exec CEPH_MGR_HOST ceph dashboard sso enable saml2
    SSO is "enabled" with "SAML2" protocol.

    例:

    [root@host01 ~]#  podman exec host01 ceph dashboard sso enable saml2

  4. ダッシュボードの URL を開きます。

    例:

    https://dashboard_hostname.ceph.redhat.com:8443

  5. SSO ページで、ログインの認証情報を入力します。SSO はダッシュボードの Web インターフェイスにリダイレクトされます。

関連情報

2.15. Ceph Dashboard のシングルサインオンの無効化

SAML 2.0 プロトコルを使用して、Ceph Dashboard のシングルサインオンを無効にすることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Ceph Dashboard のインストール。
  • Ceph Manager ホストへの root レベルのアクセス。
  • Ceph Dashboard で有効になっているシングルサインオン

手順

  1. SSO が有効になっているかどうかを確認します。

    構文

    podman exec CEPH_MGR_HOST ceph dashboard sso status

    例:

    [root@host01 ~]# podman exec host01 ceph dashboard sso status
    
    SSO is "enabled" with "SAML2" protocol.

  2. SSO を無効にします。

    構文

    podman exec CEPH_MGR_HOST ceph dashboard sso disable
    
    SSO is "disabled".

    [root@host01 ~]#  podman exec host01 ceph dashboard sso disable

関連情報

第3章 Ceph Dashboard でのロールの管理

ストレージ管理者は、ダッシュボードでロールを作成、編集、複製、削除できます。

デフォルトでは、8 つのシステムロールがあります。カスタムロールを作成し、それらのロールにアクセス権を付与できます。これらのロールは、要件に基づいてユーザーに割り当てることができます。

本セクションでは、以下の管理タスクを説明します。

3.1. Ceph Dashboard 上のユーザーロールとパーミッション

ユーザーアカウントは、アクセス可能な特定のダッシュボード機能を定義するロールのセットに関連付けられます。

Red Hat Ceph Storage ダッシュボードの機能またはモジュールは、セキュリティースコープ内でグループ化されます。セキュリティースコープは事前に定義され、静的です。Red Hat Ceph Storage ダッシュボードで現在利用可能な セキュリティースコープ は以下のとおりです。

  • cephfs: CephFS 管理に関連するすべての機能が含まれます。
  • config-opt: Ceph 設定オプションの管理に関連するすべての機能が含まれます。
  • dashboard-settings: ダッシュボード設定を編集することができます。
  • Grafana: Grafana プロキシーに関連するすべての機能が含まれます。
  • hosts: Hosts メニューエントリーに関連するすべての機能が含まれます。
  • iscsi: iSCSI 管理に関するすべての機能が含まれます。
  • log: Ceph ログ管理に関するすべての機能が含まれます。
  • manager: Ceph Manager 管理に関連するすべての機能が含まれます。
  • monitor: Ceph monitor 管理に関連するすべての機能が含まれます。
  • nfs-ganesha: NFS-Ganesha 管理に関連するすべての機能が含まれます。
  • osd: OSD 管理に関連するすべての機能が含まれます。
  • pool: プール管理に関連するすべての機能が含まれます。
  • Prometheus: Prometheus アラート管理に関連するすべての機能が含まれます。
  • rbd-image: RBD イメージ管理に関連するすべての機能が含まれます。
  • rbd-mirroring: RBD ミラーリング管理に関連するすべての機能が含まれます。
  • RGW: Ceph オブジェクトゲートウェイ (RGW) 管理に関連するすべての機能が含まれます。

ロールはセキュリティースコープとパーミッションのセット間のマッピングのセットを指定します。パーミッション には 4 つのタイプがあります。

  • 読み取り
  • Create
  • Update
  • Delete
Security scope and permission

システムロール のリストは以下のとおりです。

  • administrator: すべてのセキュリティースコープの完全なパーミッションを許可します。
  • block-manager: RBD-image、RBD-mirroring、および iSCSI スコープのフルパーミッションを許可します。
  • cephfs-manager: Ceph ファイルシステムのスコープのフルパーミッションを許可します。
  • cluster-manager: ホスト、OSD、モニター、マネージャー、および config-opt スコープのフルパーミッションを許可します。
  • Ganesha-manager: NFS-Ganesha スコープのフルパーミッションを許可します。
  • pool-manager: プールスコープのフルパーミッションを許可します。
  • read-only: ダッシュボード設定および config-opt スコープ以外のすべてのセキュリティースコープの読み取りパーミッションを許可します。
  • RGW-manager: Ceph オブジェクトゲートウェイスコープのフルパーミッションを許可します。
System roles

たとえば、すべての Ceph オブジェクトゲートウェイ操作についてユーザーに rgw-manager アクセスを提供する必要があります。

関連情報

3.2. Ceph Dashboard でのロールの作成

ダッシュボードでカスタムロールを作成し、ロールに基づいてこれらのロールをユーザーに割り当てることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Roles タブで、Create をクリックします。
  4. Create Role ウィンドウで、NameDescription を設定し、このロールの Permissions を選択して、Create Role ボタンをクリックします。

    Create role window

    この例では、Ganesha-manager ロールと rgw-manager ロールを付与すると、これらのロールに割り当てられたユーザーは、すべての NFS-GanesHA ゲートウェイおよび Ceph オブジェクトゲートウェイ操作を管理できます。

  5. ロールが正常に作成されたという通知が表示されます。
  6. その行の Expand/Collapse アイコンをクリックして、ロールに付与された詳細と権限を表示します。

関連情報

3.3. Ceph Dashboard でのロールの編集

ダッシュボードでは、ダッシュボードのロールを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードでロールが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Roles タブで、編集するロールをクリックします。
  4. Edit Role ウィンドウで、パラメーターを編集し、Edit Role をクリックします。

    Edit role window
  5. ロールが正常に更新されたという通知が表示されます。

関連情報

3.4. Ceph Dashboard でのロールのクローン作成

既存のロールに追加の権限を割り当てる場合は、システムロールのクローンを作成し、Red Hat Ceph Storage Dashbaord で編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ダッシュボードへの管理者アクセスレベル。
  • ロールがダッシュボードに作成されている。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Roles タブで、クローンを作成するロールをクリックします。
  4. Edit ドロップダウンメニューから Clone を選択します。
  5. Clone Role ダイアログボックスで、ロールの詳細を入力し、Clone Role をクリックします。

    Delete role window
  6. ロールを複製すると、要件に従って権限をカスタマイズできます。

関連情報

3.5. Ceph Dashboard でのロールの削除

Red Hat Ceph Storage Dashboard で作成したカスタムロールは削除できます。

注記

Ceph Dashboard のシステムロールは削除できません。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • カスタムロールがダッシュボードで作成されている。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Roles タブで、削除するロールをクリックします。
  4. Edit ドロップダウンメニューから Delete を選択します。
  5. Delete Role ダイアログボックスで、Yes, I am sure ボックスをクリックし、Delete Role をクリックします。

    Delete role window

関連情報

第4章 Ceph Dashboard でのユーザーの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で特定のロールが割り当てられたユーザーを作成、編集、削除できます。ロールベースのアクセス制御は、各ユーザーのロールと要件に基づいて各ユーザーに付与されます。

本セクションでは、以下の管理タスクを説明します。

4.1. Ceph Dashboard でのユーザーの作成

Red Hat Ceph Storage Dashboard で、ロールに基づいて適切なロールと権限が割り当てられたユーザーを作成できます。たとえば、Ceph オブジェクトゲートウェイ操作を管理させる場合には、ユーザーに rgw-manager ロールを付与できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
注記

Red Hat Ceph Storage Dashboard は、ユーザーパスワードの変更時に電子メールの検証をサポートしません。Dashboard はシングルサインオン (SSO) をサポートし、この機能を SSO プロバイダーに委譲できるため、この動作は意図的です。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Users タブで、Create をクリックします。
  4. Create User ウィンドウで、Username とロールを含むその他のパラメーターを設定し、Create User をクリックします。

    Create user window
  5. ユーザーが正常に作成されたという通知が表示されます。

関連情報

4.2. Ceph Dashboard でのユーザーの編集

Red Hat Ceph Storage Dashboard でユーザーを編集できます。要件に基づいて、ユーザーのパスワードとロールを変更できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードで作成したユーザー。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. ユーザーを編集するには、行をクリックします。
  4. Users タブで、Edit ドロップダウンメニューから Edit を選択します。
  5. Edit User ウィンドウで、パスワードやロールなどのパラメーターを編集し、Edit User をクリックします。

    Edit user window
    注記

    Ceph Dashboard へのユーザーのアクセスを無効にするには、Edit User ウィンドウで Enabled オプションの選択を解除します。

  6. ユーザーが正常に作成されたという通知が表示されます。

関連情報

4.3. Ceph Dashboard でのユーザーの削除

Ceph Dashboard でユーザーを削除できます。一部のユーザーがシステムから削除される可能性があります。このようなユーザーへのアクセスは、Ceph Dashboard から削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Dashboard への管理者アクセスレベル。
  • ダッシュボードで作成したユーザー。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの設定 アイコンをクリックし、User management をクリックします。

    user management
  3. Users タブで、削除するユーザーをクリックします。
  4. Edit ドロップダウンメニューから Delete を選択します。
  5. Delete User ダイアログボックスで、Yes, I am sure ボックスをクリックし、Delete User をクリックして設定を保存します。

    Delete user window

関連情報

第5章 Ceph デーモンの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で Ceph デーモンを管理できます。

5.1. デーモンアクション

Red Hat Ceph Storage Dashboard を使用すると、デーモンを開始、停止、再起動、および再デプロイできます。

注記

これらのアクションは、Monitor Daemon と Manager Daemon を除くすべてのデーモンでサポートされています。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ストレージクラスターに少なくとも 1 つのデーモンが設定されている。

手順

デーモンは 2 つの方法で管理できます。

サービスページから:

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services を選択します。
  3. その行の Expand/Collapse アイコンをクリックして、アクションを実行するデーモンでサービスの詳細を表示します。
  4. Details で、目的のデーモンの横にあるドロップダウンを選択して、開始停止再起動、または 再デプロイ を実行します。

    図5.1 デーモンの管理

    Managing daemons

ホストページから:

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. Hosts List から、アクションを実行するデーモンを含むホストを選択します。
  4. ホストの Daemon タブで、デーモンをクリックします。
  5. 上部のドロップダウンを使用して、StartStopRestart、または Redeploy を実行します。

    図5.2 デーモンの管理

    Managing daemons

第6章 Ceph Dashboard でのクラスターの監視

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して、ホストのタイプ、サービス、データアクセス方法などに基づいて、クラスターの特定の側面を監視できます。

本セクションでは、以下の管理タスクを説明します。

6.1. ダッシュボードでの Ceph クラスターのホストの監視

Red Hat Ceph Storage Dashboard でクラスターのホストを監視できます。

以下で、ホストページの各種タブを紹介します。

  • デバイス - このタブには、デバイス ID、ヘルス状態、デバイス名、ホスト上のデーモンなどの詳細が表示されます。
  • インベントリー: このタブには、選択したホストに接続されているすべてのディスクと、そのタイプ、サイズなどが表示されます。デバイスパス、デバイスのタイプ、可用性、ベンダー、モデル、サイズ、デプロイされた OSD などの詳細があります。
  • デーモン - このタブには、選択したホストにデプロイされたすべてのサービス、実行中のコンテナー、および現在のステータスが表示されます。ホスト名、デーモンタイプ、デーモン ID、コンテナー ID、コンテナーイメージ名、コンテナーイメージ ID、バージョンステータス、最終更新時刻などの詳細があります。
  • パフォーマンスの詳細 - このタブには、デプロイされた OSD、CPU 使用率、RAM 使用率、ネットワーク負荷、ネットワークドロップ率、OSD ディスクのパフォーマンス統計などの詳細が表示されます。
  • デバイスのヘルス - スマート対応デバイスの場合には、OSD がデプロイされたホスト上でのみ個々のヘルスステータスと SMART データを取得できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ホストがストレージクラスターに追加されている。
  • すべてのサービス、モニター、マネージャー、および OSD デーモンがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. 特定のホストの詳細を表示するには、そのホストの行にある Expand/Collapse アイコンをクリックします。
  4. 各タブをクリックすると、デバイスインベントリーデーモンパフォーマンスの詳細デバイスのヘルス などの詳細を表示できます。

    図6.1 Ceph クラスターのホストの監視

    Monitoring hosts of the Ceph cluster

関連情報

6.2. ダッシュボードでの Ceph クラスターの設定の表示と編集

ダッシュボードで Ceph クラスターのさまざまな設定オプションを表示できます。編集できるのは一部の設定オプションのみです。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • すべてのサービスがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Configuration を選択します。
  3. オプション: 検索 ボックスを使用して設定を検索できます。
  4. オプション: 次のフィルターを使用して、特定の設定をフィルタリングできます。

    • レベル - Basic、advanced または dev
    • サービス - Any、mon、mgr、osd、mds、common、mds_client、rgw などのフィルター。
    • ソース - Any、mon などのフィルター
    • 変更済み - Yes または No
  5. 設定の詳細を表示するには、その行の Expand/Collapse アイコンをクリックします。

    図6.2 設定オプション

    Configuration options
  6. 設定を編集するには、その行をクリックし、Edit をクリックします。

    1. 編集ダイアログウィンドウで、必要なパラメーターを編集し、Update をクリックします。
  7. 設定が正常に更新されたという通知が表示されます。

関連情報

6.3. ダッシュボードでの Ceph クラスターのマネージャーモジュールの表示および編集

マネージャーモジュールは、モジュール固有の設定管理すに使用されます。たとえば、クラスターのヘルスに関するアラートを有効にできます。

Red Hat Ceph Storage Dashboard で、クラスターのマネージャーモジュールを表示、有効化、無効化、および編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。

マネージャーモジュールの表示

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Manager Modules を選択します。
  3. 特定のマネージャーモジュールの詳細を表示するには、その行の Expand/Collapse アイコンをクリックします。

    図6.3 マネージャーモジュール

    Manager modules

マネージャーモジュールの有効化

  1. 行を選択します。
  2. Edit ドロップダウンメニューから、Enable を選択します。

マネージャーモジュールの無効化

  1. 行を選択します。
  2. Edit ドロップダウンメニューから、Disable を選択します。

マネージャーモジュールの編集

  1. 行を選択します。

    注記

    すべてのモジュールに設定可能なパラメーターがあるわけではありません。モジュールが設定できない場合、Edit ボタンは無効になります。

  2. 必要なパラメーターを編集し、Update をクリックします。
  3. モジュールが正常に更新されたという通知が表示されます。

6.4. ダッシュボードでの Ceph クラスターのモニター監視

Ceph モニターのパフォーマンスを監視するには、Red Hat Ceph Storage ダッシュボードのランディングページで、モニターのステータス、クォーラム、オープンセッション数、パフォーマンスカウンターなどの詳細を Monitors タブに表示することもできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • モニターはストレージクラスターにデプロイされます。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Monitors を選択します。
  3. Monitors 概要ページには、全体的な監視ステータスに関する情報と、in Quorum および Not in quorum Monitor のテーブルが表示されます。

    Monitoring monitors of the Ceph cluster
  4. 開いているセッションの数を確認するには、青い点線のトレイルにカーソルを合わせます。
  5. 任意のモニターのパフォーマンスカウンターを表示するには、そのホスト名をクリックします。

    • モニターのパフォーマンスカウンターを表示します。

      Monitor performance counters

関連情報

6.5. ダッシュボードでの Ceph クラスターの監視サービス

Red Hat Ceph Storage Dashboard でクラスターのサービスを監視できます。ホスト名、デーモンタイプ、デーモン ID、コンテナー ID、コンテナーイメージ名、コンテナーイメージ ID、バージョンステータス、最終更新時刻の詳細を表示できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ホストがストレージクラスターに追加されている。
  • すべてのサービスがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services を選択します。
  3. 特定のサービスの詳細を表示するには、そのホストの行にある Expand/Collapse アイコンをクリックします。

    図6.4 Ceph クラスターの監視サービス

    Monitoring services of the Ceph cluster

関連情報

6.6. ダッシュボードでの Ceph OSD の監視

Red Hat Ceph Storage Dashboard のランディングページで、Ceph OSD のステータスを監視できます。OSD タブでは、ホスト、ステータス、デバイスクラス、プレイスメントグループ (PG) の数、サイズフラグ、使用状況、読み取りまたは書き込み操作時間などの詳細を表示することもできます。

OSD ページのさまざまなタブを次に示します。

  • デバイス - このタブには、デバイス ID、ヘルス状態、有効期限、デバイス名、ホストのデーモンなどの詳細が表示されます。
  • 属性 (OSD マップ) - このタブには、クラスターアドレス、ハートビートの詳細、OSD の状態、およびその他の OSD 属性が表示されます。
  • メタデータ - このタブには、OSD オブジェクトストア、デバイス、オペレーティングシステム、およびカーネルの詳細が表示されます。
  • デバイスのヘルス - スマート対応デバイスの場合には、個々のヘルスステータスと SMART データを取得できます。
  • パフォーマンスカウンター - このタブには、デバイスに書き込まれたバイトの詳細が表示されます。
  • パフォーマンスの詳細 - このタブには、デプロイされた OSD、CPU 使用率、RAM 使用率、ネットワーク負荷、ネットワークドロップ率、OSD ディスクのパフォーマンス統計などの詳細が表示されます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ホストがストレージクラスターに追加されている。
  • OSD を含むすべてのサービスがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、OSD を選択します。
  3. 特定の OSD の詳細を表示するには、そのホストの行にある Expand/Collapse アイコンをクリックします。

    図6.5 Ceph クラスターの OSD のモニタリング

    Monitoring OSDs of the Ceph cluster

    各タブをクリックすると、デバイス属性 (OSD マップ)メタデータデバイスヘルスパフォーマンスカウンターパフォーマンスの詳細 などの情報を表示できます。

関連情報

6.7. ダッシュボードでの HAProxy の監視

Ceph Object Gateway を使用すると、オブジェクトゲートウェイの多くのインスタンスを 1 つのゾーンに割り当てできるため、負荷の増加に合わせてスケールアウトすることができます。各オブジェクトゲートウェイインスタンスは独自の IP アドレスを持つため、HAProxy を使用して Ceph Object Gateway サーバー全体で負荷を分散できます。

ダッシュボードで次の HAProxy メトリックを監視できます。

  • HTTP コードごとの合計応答数。
  • 要求/応答の合計数。
  • 接続の合計数。
  • 着信/発信バイトの現在の合計数。

ceph dashboard get-grafana-api-url コマンドを実行して、Grafana の詳細を取得することもできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • ストレージダッシュボードでの管理者レベルのアクセスがある。
  • SSL を使用しない既存の Ceph Object Gateway サービスがある。SSL サービスが必要な場合は、Ceph Object Gateway サービスではなく、Ingress サービスで証明書を設定する必要があります。
  • Ceph Orchestrator を使用してデプロイされた Ingress サービスがある。
  • モニタリングスタックコンポーネントがダッシュボード上に作成されている。

手順

  1. Grafana URL にログインし、RGW_Overview パネルを選択します。

    構文

    https://DASHBOARD_URL:3000

    例:

    https://dashboard_url:3000

  2. Grafana URL で HAProxy メトリックを確認します。
  3. Ceph Dashboard を起動し、認証情報でログインします。

    例:

    https://dashboard_url:8443

  4. Cluster ドロップダウンメニューから、Object Gateway を選択します。
  5. Daemons を選択します。
  6. Overall Performance タブを選択します。

検証

  • Ceph Object Gateway HAProxy メトリックを確認します。

    図6.6 HAProxy メトリック

    HAProxy metrics

関連情報

6.8. ダッシュボードでの Ceph クラスターの CRUSH マップの表示

Red Hat Ceph Storage Dashbaoard で、OSD のリストおよび関連情報を含む CRUSH マップを表示できます。CRUSH マップおよび CRUSH アルゴリズムが一緒になって、データの保存方法と場所を決めます。このダッシュボードでは、OSD ホスト、OSD デーモン、ID 番号、デバイスクラスなど、CRUSH マップのさまざまな側面を確認することができます。

CRUSH マップを使用すると、特定の OSD ID が実行しているホストを決定できます。これは、OSD に問題がある場合に便利です。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • OSD デーモンがストレージクラスターにデプロイされている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、CRUSH Map を選択します。
  3. 特定の OSD の詳細を表示するには、その行をクリックします。

    図6.7 CRUSH Map の詳細ビュー

    CRUSH Map detail view

関連情報

  • CRUSH マップの詳細は、Red Hat Ceph Storage Storage 戦略ガイドクラッシュ管理 を参照してください。

6.9. ダッシュボードでの Ceph クラスターのログのフィルタリング

いくつかの条件をもとに、ダッシュボードで Red Hat Ceph Storage クラスターのログを表示およびフィルタリングできます。条件には、優先度キーワード日付、および 時間範囲 が含まれます。

ログをシステムにダウンロードするか、ログをクリップボードにコピーして、さらに分析することができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Monitor が最後に起動されてからログエントリーが生成されている。
注記

Dashboard ロギング機能は最新の高レベルイベントのみを表示します。イベントは Ceph Monitor によってメモリーに格納されます。Monitor を再起動すると、エントリーが消えます。詳細なログまたは古いログを確認する必要がある場合は、ファイルベースのログを参照してください。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Logs を選択します。

    図6.8 クラスターログ

    Cluster logs
    1. 優先度で絞り込むには、Priority ドロップダウンメニューをクリックし、DebugInfoWarningError または All のいずれかを選択します。
    2. キーワードで絞り込むには、Keyword フィールドにテキストを入力します。
    3. 日付で絞り込むには、Date フィールドをクリックし、メニューから日付を選択するか、YYYY-MM-DD の形式で日付を入力します。
    4. 時間で絞り込むには、HH:MM - HH:MM 形式を使用して Time range フィールドに範囲を入力します。時間は、数字 0 から 23 に入力する必要があります。
    5. フィルターを組み合わせるには、2 つ以上のフィルターを設定します。
  3. Download アイコンまたは Copy to Clipboard アイコンをクリックして、ログをダウンロードします。

関連情報

  • 詳細については、Red Hat Ceph Storage トラブルシューティングガイドロギングの設定 の章を参照してください。
  • 詳細については、Red Hat Ceph Storage トラブルシューティングガイドCeph ログについて のセクションを参照してください。

6.10. ダッシュボードでの Ceph クラスターのプールの監視

Red Hat Ceph Storage Dashboard では、クラスター内のプールの詳細、パフォーマンスの詳細、設定、および全体的なパフォーマンスを表示できます。

プールは、Ceph Storage クラスターがデータを分散し、格納する方法において重要なロールを果たします。プールを作成せずにクラスターをデプロイした場合に、Ceph はデフォルトのプールを使用してデータを格納します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Pools を選択します。
  3. データ保護の詳細と、プールが有効化されているアプリケーションが含まれるプールリストを表示します。必要な詳細を表示するには、UsageRead bytes および Write bytes にマウスをかざします。
  4. プールに関する詳細情報を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図6.9 プールの監視

    Monitoring pools

関連情報

  • プールの詳細については、Red Hat Ceph Storage アーキテクチャーガイドCeph プール を参照してください。
  • 詳細は、Red Hat Ceph Storage Dashboard ガイドCeph Dashboard でのプールの作成 セクションを参照してください。

6.11. ダッシュボードでの Ceph ファイルシステムの監視

Red Hat Ceph Storage Dashboard を使用して Ceph File Systems (CephFS) および関連するコンポーネントを監視することができます。ファイルシステム には、次の 4 つの主要なタブがあります。

  • Details: メタデータサーバー (MDS) とそのランクに加えて、スタンバイデーモン、プール、その使用状況、パフォーマンスカウンターを表示します。
  • Clients: ファイルシステムをマウントしたクライアントのリストを表示します。
  • ディレクトリー - ディレクトリーのリストを表示します。
  • パフォーマンス: ファイルシステムのパフォーマンスを表示します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • MDS サービスが少なくとも 1 つのホストにデプロイされている。
  • Ceph File System がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Filesystems をクリックします。
  3. ファイルシステムに関する詳細情報を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図6.10 Ceph ファイルシステムの監視

    Monitoring Ceph File Systems

関連情報

6.12. ダッシュボードでの Ceph オブジェクトゲートウェイデーモンの監視

Red Hat Ceph Storage Dashboard を使用して、Ceph オブジェクトゲートウェイデーモンを監視できます。Ceph オブジェクトゲートウェイデーモンの詳細、パフォーマンスカウンター、およびパフォーマンスの詳細を表示できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ストレージクラスターに少なくとも 1 つの Ceph オブジェクトゲートウェイデーモンが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Ceph オブジェクトゲートウェイデーモンの詳細を表示するには、その行の Expand/Collapse アイコンをクリックします。

    図6.11 Ceph オブジェクトゲートウェイデーモンの監視

    Monitoring Ceph object gateway daemons

    Ceph Object Gateway デーモンを複数設定している場合は、Sync Performance タブをクリックして、マルチサイトのパフォーマンスカウンターを表示します。

関連情報

6.13. Ceph Dashboard でブロックデバイスイメージを監視します。

Red Hat Ceph ストレージダッシュボードを使用して、ブロックデバイスイメージを監視および管理できます。イメージの詳細、スナップショット、設定の詳細、およびパフォーマンスの詳細を表示できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. イメージの詳細を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図6.12 ブロックデバイスイメージの監視

    Monitoring Block device images

関連情報

第7章 Ceph Dashboard でのアラートの管理

ストレージ管理者は、Red Hat Ceph Storage Dashbaoard でアラートの詳細を表示し、アラートのサイレンスを作成できます。これには、次の事前定義されたアラートが含まれます。

  • CephadmDaemonFailed
  • CephadmPaused
  • CephadmUpgradeFailed
  • CephDaemonCrash
  • CephDeviceFailurePredicted
  • CephDeviceFailurePredictionTooHigh
  • CephDeviceFailureRelocationIncomplete
  • CephFilesystemDamaged
  • CephFilesystemDegraded
  • CephFilesystemFailureNoStandby
  • CephFilesystemInsufficientStandby
  • CephFilesystemMDSRanksLow
  • CephFilesystemOffline
  • CephFilesystemReadOnly
  • CephHealthError
  • CephHealthWarning
  • CephMgrModuleCrash
  • CephMgrPrometheusModuleInactive
  • CephMonClockSkew
  • CephMonDiskspaceCritical
  • CephMonDiskspaceLow
  • CephMonDown
  • CephMonDownQuorumAtRisk
  • CephNodeDiskspaceWarning
  • CephNodeInconsistentMTU
  • CephNodeNetworkPacketDrops
  • CephNodeNetworkPacketErrors
  • CephNodeRootFilesystemFull
  • CephObjectMissing
  • CephOSDBackfillFull
  • CephOSDDown
  • CephOSDDownHigh
  • CephOSDFlapping
  • CephOSDFull
  • CephOSDHostDown
  • CephOSDInternalDiskSizeMismatch
  • CephOSDNearFull
  • CephOSDReadErrors
  • CephOSDTimeoutsClusterNetwork
  • CephOSDTimeoutsPublicNetwork
  • CephOSDTooManyRepairs
  • CephPGBackfillAtRisk
  • CephPGImbalance
  • CephPGNotDeepScrubbed
  • CephPGNotScrubbed
  • CephPGRecoveryAtRisk
  • CephPGsDamaged
  • CephPGsHighPerOSD
  • CephPGsInactive
  • CephPGsUnclean
  • CephPGUnavilableBlockingIO
  • CephPoolBackfillFull
  • CephPoolFull
  • CephPoolGrowthWarning
  • CephPoolNearFull
  • CephSlowOps
  • PrometheusJobMissing

図7.1 事前定義されたアラート

Pre-defined alerts

簡易ネットワーク管理プロトコル (SNMP) トラップを使用してアラートを監視することもできます。Red Hat Ceph Storage 操作ガイドSNMP トラップの設定 の章を参照してください。

7.1. 監視スタックの有効化

コマンドラインインターフェイスを使用して、Prometheus、Alertmanager、Grafana などの Red Hat Ceph Storage クラスターのモニタリングスタックを手動で有効にできます。

Prometheus および Alertmanager API を使用して、アラートと無音を管理できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • すべてのホストへの root レベルのアクセス。

手順

  1. cephadm シェルにログインします。

    例:

    [root@host01 ~]# cephadm shell

  2. 監視スタックの API を設定します。

    • Alertmanager サーバーのホストとポートを指定します。

      構文

      ceph dashboard set-alertmanager-api-host 'ALERTMANAGER_API_HOST:PORT'

      例:

      [ceph: root@host01 /]# ceph dashboard set-alertmanager-api-host 'http://10.0.0.101:9093'
      Option ALERTMANAGER_API_HOST updated

    • 設定されたアラートを表示するには、Prometheus API への URL を設定します。この API を使用して、Ceph Dashboard UI は、新しい無音が対応するアラートと一致することを確認します。

      構文

      ceph dashboard set-prometheus-api-host 'PROMETHEUS_API_HOST:PORT'

      例:

      [ceph: root@host01 /]# ceph dashboard set-prometheus-api-host 'http://10.0.0.101:9095'
      Option PROMETHEUS_API_HOST updated

      ホストを設定した後、ブラウザーのダッシュボードウィンドウを更新します。

    • Grafana サーバーのホストとポートを指定します。

      構文

      ceph dashboard set-grafana-api-url 'GRAFANA_API_URL:PORT'

      例:

      [ceph: root@host01 /]# ceph dashboard set-grafana-api-url 'http://10.0.0.101:3000'
      Option GRAFANA_API_URL updated

  3. Prometheus、Alertmanager、および Grafana API ホストの詳細を取得します。

    例:

    [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-host
    http://10.0.0.101:9093
    [ceph: root@host01 /]# ceph dashboard get-prometheus-api-host
    http://10.0.0.101:9095
    [ceph: root@host01 /]# ceph dashboard get-grafana-api-url
    http://10.0.0.101:3000

  4. オプション: Prometheus、Alertmanager、または Grafana のセットアップで自己署名証明書を使用している場合は、ダッシュボードで証明書の検証を無効にします。これにより、不明な認証局 (CA) によって署名された証明書や、ホスト名と一致しない証明書が原因となる接続拒否を回避することができます。

    • Prometheus の場合:

      例:

      [ceph: root@host01 /]# ceph dashboard set-prometheus-api-ssl-verify False

    • Alertmanager の場合:

      例:

      [ceph: root@host01 /]# ceph dashboard set-alertmanager-api-ssl-verify False

    • Grafana の場合:

      例:

      [ceph: root@host01 /]# ceph dashboard set-grafana-api-ssl-verify False

  5. Prometheus、Alertmanager、および Grafana の自己署名証明書検証設定の詳細を取得します。

    例:

    [ceph: root@host01 /]# ceph dashboard get-prometheus-api-ssl-verify
    [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-ssl-verify
    [ceph: root@host01 /]# ceph dashboard get-grafana-api-ssl-verify

  6. オプション: ダッシュボードに変更が反映されていない場合は、ダッシュボードを無効にしてから有効にする必要があります。

    例:

    [ceph: root@host01 /]# ceph mgr module disable dashboard
    [ceph: root@host01 /]# ceph mgr module enable dashboard

関連情報

7.2. Grafana 証明書の設定

cephadm は、ceph キー/値ストアで定義された証明書を使用して Grafana をデプロイします。証明書が指定されていない場合、cephadm は Grafana サービスのデプロイメント中に自己署名証明書を生成します。

ceph config-key set コマンドを使用してカスタム証明書を設定できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。

手順

  1. cephadm シェルにログインします。

    例:

    [root@host01 ~]# cephadm shell

  2. Grafana のカスタム証明書を設定します。

    例:

    [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_key -i $PWD/key.pem
    [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_crt -i $PWD/certificate.pem

  3. Grafana がすでにデプロイされている場合は、reconfig を実行して設定を更新します。

    例:

    [ceph: root@host01 /]# ceph orch reconfig grafana

  4. 新しい証明書を追加するたびに、次の手順に従います。

    1. 新しいディレクトリーを作成する

      例:

      [root@host01 ~]# mkdir /root/internalca
      [root@host01 ~]# cd /root/internalca

    2. キーを生成します。

      例:

      [root@host01 internalca]# openssl ecparam -genkey -name secp384r1 -out $(date +%F).key

    3. キーを表示します。

      例:

      [root@host01 internalca]# openssl ec -text -in $(date +%F).key | less

    4. リクエストを行う:

      例:

      [root@host01 internalca]# umask 077; openssl req -config openssl-san.cnf -new -sha256 -key $(date +%F).key -out $(date +%F).csr

    5. 署名のために送信する前にリクエストを確認してください。

      例:

      [root@host01 internalca]# openssl req -text -in $(date +%F).csr | less

    6. CA サインとして:

      例:

      [root@host01 internalca]# openssl ca -extensions v3_req -in $(date +%F).csr -out $(date +%F).crt -extfile openssl-san.cnf

    7. 署名された証明書を確認します。

      例:

      [root@host01 internalca]# openssl x509 -text -in $(date +%F).crt -noout | less

関連情報

7.3. Alertmanager Webhook の追加

新しい Webhook を既存の Alertmanager 設定に追加して、ストレージクラスターの正常性に関するリアルタイムのアラートを受け取ることができます。サードパーティーアプリケーションへの非同期メッセージを許可するには、着信 Webhook を有効にする必要があります。

たとえば、Red Hat Ceph Storage クラスターで OSD がダウンしている場合、Alertmanager を設定して Google チャットで通知を送信できます。

前提条件

  • モニタリングスタックコンポーネントが有効になっている実行中の Red Hat Ceph Storage クラスター。
  • 受信側のサードパーティーアプリケーションで設定された着信 Webhook。

手順

  1. cephadm シェルにログインします。

    例:

    [root@host01 ~]# cephadm shell

  2. Alertmanager が通知のために Webhook を使用するように設定します。

    構文

    service_type: alertmanager
    spec:
      user_data:
        default_webhook_urls:
        - "_URLS_"

    default_webhook_urls は、デフォルトの受信者の webhook_configs 設定に追加される追加の URL のリストです。

    例:

    service_type: alertmanager
    spec:
      user_data:
        webhook_configs:
        - url: 'http:127.0.0.10:8080'

  3. Alertmanager 設定を更新します。

    例:

    [ceph: root@host01 /]#  ceph orch reconfig alertmanager

検証

  • Alertmanager から Gchat への通知の例:

    例:

    using: https://chat.googleapis.com/v1/spaces/(xx- space identifyer -xx)/messages
    posting: {'status': 'resolved', 'labels': {'alertname': 'PrometheusTargetMissing', 'instance': 'postgres-exporter.host03.chest
    response: 200
    response: {
    "name": "spaces/(xx- space identifyer -xx)/messages/3PYDBOsIofE.3PYDBOsIofE",
    "sender": {
    "name": "users/114022495153014004089",
    "displayName": "monitoring",
    "avatarUrl": "",
    "email": "",
    "domainId": "",
    "type": "BOT",
    "isAnonymous": false,
    "caaEnabled": false
    },
    "text": "Prometheus target missing (instance postgres-exporter.cluster.local:9187)\n\nA Prometheus target has disappeared. An e
    "cards": [],
    "annotations": [],
    "thread": {
    "name": "spaces/(xx- space identifyer -xx)/threads/3PYDBOsIofE"
    },
    "space": {
    "name": "spaces/(xx- space identifyer -xx)",
    "type": "ROOM",
    "singleUserBotDm": false,
    "threaded": false,
    "displayName": "_privmon",
    "legacyGroupChat": false
    },
    "fallbackText": "",
    "argumentText": "Prometheus target missing (instance postgres-exporter.cluster.local:9187)\n\nA Prometheus target has disappea
    "attachment": [],
    "createTime": "2022-06-06T06:17:33.805375Z",
    "lastUpdateTime": "2022-06-06T06:17:33.805375Z"

7.4. Ceph Dashboard でのアラートの表示

アラートが起動したら、Red Hat Ceph Storage Dashboard でアラートを表示できます。マネージャーモジュール の設定を編集して、アラートが発行されたときにメールをトリガーできます。

注記

SSL は、Red Hat Ceph Storage 5 クラスターではサポートされていません。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • 実行中の簡単なメール転送プロトコル (SMTP) が設定されている。
  • アラートが発生している。

手順

  1. ダッシュボードにログインします。
  2. ダッシュボードの alerts モジュールをカスタマイズして、ストレージクラスターの電子メールアラートを取得します。

    1. ナビゲーションメニューで、Cluster をクリックします。
    2. Manager modules を選択します。
    3. アラート モジュールを選択します。
    4. Edit ドロップダウンメニューで、Edit を選択します。
    5. Edit Manager module ウィンドウで、必要なパラメーターを更新し、Update をクリックします。

      図7.2 アラートの Manager モジュールの編集

      Edit Manager module for alerts
  3. ナビゲーションメニューで、Cluster をクリックします。
  4. ドロップダウンメニューから Monitoring を選択します。
  5. アラートの詳細を表示するには、その行にある Expand/Collapse アイコンをクリックします。

    図7.3 アラートの表示

    Viewing alerts
  6. アラートのソースを表示するには、その行をクリックし、Source をクリックします。

関連情報

7.5. Ceph Dashboard でのサイレンスの作成

Red Hat Ceph Storage Dashboard で、アラートを一定期間サイレントに作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. アラートのサイレンスを作成するには、その行を選択します。
  5. +Create Silence をクリックします。
  6. Create Silence ウィンドウで、Duration の詳細を追加し、 Create Silence をクリックします。

    図7.4 サイレンスの作成

    Create Silence
  7. サイレンスが正常に作成されたという通知が表示されます。

7.6. Ceph Dashboard でのサイレンスの再作成

Red Hat Ceph Storage Dashboard で、期限切れのサイレンスをもとにサイレンスを再作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. 期限切れのサイレンスを作成しなおすには、その行をクリックします。
  6. Recreate ボタンをクリックします。
  7. Recreate Silence ウィンドウで、詳細を追加し、Recreate Silence をクリックします。

    図7.5 サイレンスの再作成

    Re-create Silence
  8. サイレンスが正常に再作成されたという通知が表示されます。

7.7. Ceph Dashboard でのサイレンスの編集

アクティブなサイレンスは、Red Hat Ceph Storage Dashboard でアクティブな時間を延長するなど、編集が可能です。サイレンスの有効期限が切れている場合は、サイレンスを再作成するか、アラート用に新しいサイレンスを作成することができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. サイレンスを編集するには、その行をクリックします。
  6. Edit ドロップダウンメニューで、Edit を選択します。
  7. Edit Silence ウィンドウで、詳細を更新し、Edit Silence をクリックします。

    図7.6 サイレンスの編集

    Edit Silence
  8. サイレンスが正常に更新されたという通知が表示されます。

7.8. Ceph Dashboard でのサイレンスの失効

Red Hat Ceph Storage Dashbaoard で一致したアラートが抑制されないように、サイレンスを期限切れにすることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • アラートが発生している。
  • アラートのサイレンスが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Cluster をクリックします。
  3. ドロップダウンメニューから Monitoring を選択します。
  4. Silences タブをクリックします。
  5. サイレンスを失効させるには、その行をクリックします。
  6. Edit ドロップダウンメニューで、Expire を選択します。
  7. Expire Silence ダイアログボックスで、Yes, I am sure を選択し、Expire Silence をクリックします。

    図7.7 サイレンスの期限切れ

    Expire Silence
  8. サイレンスが正常に失効したという通知が届きます。

7.9. 関連情報

第8章 Ceph Dashboard での NFS Ganesha エクスポートの管理

ストレージ管理者は、Red Hat Ceph Storage Dashbaoard で Ceph オブジェクトゲートウェイをバックストアとして使用する NFS Ganesha エクスポートを管理できます。ダッシュボードで NFS ganesha デーモンをデプロイ、設定、編集、削除できます。

ダッシュボードでは、Ceph クラスター上の RADOS オブジェクトに格納されている NFS-Ganesha 設定ファイルを管理します。NFS-Ganesha は、設定の一部を Ceph クラスターに格納する必要があります。

8.1. Ceph Dashboard での NFS Ganesha デーモンの設定

コマンドラインインターフェイスを使用して Ceph オブジェクトゲートウェイを設定し、NFS-Ganesha 専用のプールを有効にしてから、ダッシュボードで NFS Ganesha を設定できます。

注記

Red Hat Ceph Storage 5 は、NFSv4 プロトコルのみをサポートしています。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Ceph Object ゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • 専用のプールが有効で、nfs のカスタムタグが付けられている。
  • 最低でも Ceph Dashboard での Ganesha-manager レベルのアクセス。

手順

  1. Cephadm シェルにログインします。

    例:

    [root@host01 ~]# cephadm shell

  2. RADOS プールと namespace を作成し、rgw を有効にします。

    構文

    ceph osd pool create POOL_NAME _
    ceph osd pool application enable POOL_NAME freeform/rgw/rbd/cephfs/nfs

    [ceph: root@host01 /]# ceph osd pool create nfs-ganesha
    [ceph: root@host01 /]# ceph osd pool application enable nfs-ganesha rgw

  3. コマンドラインインターフェイスで配置仕様を使用して NFS-Ganesha ゲートウェイをデプロイします。

    構文

    ceph orch apply nfs SERVICE_ID --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"

    [ceph: root@host01 /]# ceph orch apply nfs foo --placement="2 host01 host02"

    これにより、host01 および host02 の 1 つのデーモンと、NFS-Ganesha クラスター nfsganesha がデプロイされます。

  4. ganesha-clusters-rados-pool-namespace パラメーターは、namespace と service_ID に更新します。

    構文

    ceph dashboard set-ganesha-clusters-rados-pool-namespace POOL_NAME/SERVICE_ID

    例:

    [ceph: root@host01 /]# ceph dashboard set-ganesha-clusters-rados-pool-namespace nfs-ganesha/foo

  5. ダッシュボードのランディングページで、NFS をクリックします。
  6. Create を選択します。
  7. Create NFS export ウィンドウで、次のパラメーターを設定し、Create NFS export をクリックします。

    1. Cluster - クラスターの名前。
    2. Daemons - すべてのデーモンを選択できます。
    3. Storage Backend - Object Gateway を選択できます。
    4. Object Gateway User - 作成したユーザーを選択します。この例では、test_user です。
    5. Path - 任意のディレクトリー。
    6. NFS Protocol - NFSv4 がデフォルトで選択されています。
    7. Pseudo - ルートパス。
    8. Access Type - サポートされているアクセスタイプは RO、RW、および NONE です。
    9. Squash
    10. Transport Protocol
    11. クライアント

      Create NFS export window
  8. NFS デーモンが設定されていることを確認します。

    例:

    [ceph: root@host01 /]# ceph -s

  9. root ユーザーとして、NFS サービスがアクティブで実行中かどうかを確認します。

    例:

    [root@host01 ~]# systemctl list-units | grep nfs

  10. NFS エクスポートをマウントし、いくつかの I/O 操作を実行します。
  11. NFS サービスが起動して実行されたら、NFS-RGW コンテナーで、etc/ganesha/ganesha.conf ファイルの dir_chunk=0 パラメーターをコメントアウトします。NFS-Ganesha サービスを再起動します。これにより、NFS マウントでの適切なリスト表示が可能になります。

検証

  • NFS デーモンは、Ceph オブジェクトゲートウェイのバケットの下に表示できます。

    NFS bucket

関連情報

8.2. Ceph Dashboard での CephFS を使用した NFS エクスポートの設定

コマンドラインインターフェイスを使用して Ceph File System (CephFS) を設定した後、Ceph Dashboard で NFS エクスポートを作成、編集、および削除できます。NFS プロトコルを介して CephFS 名前空間をエクスポートできます。

すべての NFS Ganesha デーモン、CLUSTER_ID に基づく新しいユーザー、および共通の NFS Ganesha 設定 RADOS オブジェクト用の共通の回復プールを作成する NFS クラスターを作成する必要があります。

注記

Red Hat Ceph Storage 5 は、NFSv4 プロトコルのみをサポートしています。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ブートストラップされたホストへの root レベルのアクセス。
  • 最低でも Ceph Dashboard での Ganesha-manager レベルのアクセス。

手順

  1. cephadm シェルにログインします。

    例:

    [root@host01 ~]# cephadm shell

  2. バックエンドで CephFS ストレージを作成します。

    構文

    ceph fs volume create CEPH_FILE_SYSTEM

    例:

    [ceph: root@host01 /]# ceph fs volume create cephfs

  3. Ceph Manager の NFS モジュールを有効にします。

    例:

    [ceph: root@host01 /]# ceph mgr module enable nfs

  4. NFS Ganesha クラスターを作成します。

    構文

    ceph nfs cluster create NFS_CLUSTER_NAME "HOST_NAME_PLACEMENT_LIST"

    例:

    [ceph: root@host01 /]# ceph nfs cluster create nfs-cephfs host02
    NFS Cluster Created Successfully

  5. ダッシュボードの URL を取得します。

    例:

    [ceph: root@host01 /]# ceph mgr services
    {
        "dashboard": "https://10.00.00.11:8443/",
        "prometheus": "http://10.00.00.11:9283/"
    }

  6. 認証情報を使用して Ceph Dashboard にログインします。
  7. ダッシュボードのランディングページで、NFS をクリックします。
  8. Create をクリックします。
  9. Create NFS export ウィンドウで、次のパラメーターを設定し、Create NFS export をクリックします。

    1. Cluster - クラスターの名前。
    2. Daemons - すべてのデーモンを選択できます。
    3. ストレージバックエンド: CephFS を選択できます。
    4. CephFS ユーザー ID: NFS クラスターが作成されるサービスを選択します。
    5. CephFS 名: ユーザー名を指定します。
    6. CephFs パス: 任意のディレクトリー。
    7. NFS Protocol - NFSv4 がデフォルトで選択されています。
    8. Pseudo - ルートパス。
    9. Access Type - サポートされているアクセスタイプは RO、RW、および NONE です。
    10. Squash: Squash のタイプを選択します。
    11. トランスポートプロトコル: UDP または TCP プロトコルのいずれかを選択します。
    12. Clients

      図8.1 CephFS NFS エクスポートウィンドウ

      Create CephFS NFS export window
  10. クライアントホストで root ユーザーとして、ディレクトリーを作成し、NFS エクスポートをマウントします。

    構文

    mkdir -p /mnt/nfs/
    mount -t nfs -o port=2049 HOSTNAME:EXPORT_NAME _MOUNT_DIRECTORY_

    [root@ client ~]# mkdir -p /mnt/nfs/
    [root@ client ~]# mount -t nfs -o port=2049 host02:/export1 /mnt/nfs/

検証

  • NFS デーモンが設定されていることを確認します。

    例:

    [ceph: root@host01 /]# ceph -s

関連情報

8.3. Ceph Dashboard での NFS Ganesha デーモンの編集

NFS Ganesha デーモンは Red Hat Ceph Storage Dashboard で編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • 最低でも Ceph Dashboard での Ganesha-manager レベルのアクセス。
  • NFS Ganesha デーモンがダッシュボードで設定されている。

手順

  1. ダッシュボードで、NFS をクリックします。
  2. 編集が必要な行をクリックします。
  3. Edit ドロップダウンメニューから、Edit をクリックします。
  4. Edit NFS export ウィンドウで、必要なパラメーターを編集し、Edit NFS export をクリックします。

    Edit NFS export window

検証

  • NFS Ganesha が正常に更新されたことを示す通知が表示されます。

関連情報

8.4. Ceph Dashboard での NFS Ganesha デーモンの削除

Ceph Dashboard では、NFS Ganesha デーモンを削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • 最低でも Ceph Dashboard での Ganesha-manager レベルのアクセス。
  • NFS Ganesha デーモンがダッシュボードで設定されている。

手順

  1. ダッシュボードで、NFS をクリックします。
  2. 削除の必要な行をクリックします。
  3. Edit ドロップダウンメニューから、Delete をクリックします。
  4. Delete NFS export ダイアログボックスで、Yes, I am sure チェックボックスをオンにして、Delete NFS export をクリックします。

    Delete NFS export window

検証

  • 選択した行が正常に削除されます。

関連情報

8.5. Ceph Dashboard での NFS クラスターの NFS-HA へのアップグレード

Ceph Dashboard を使用すると、スタンドアロン NFS クラスターを NFS-HA にアップグレードできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • NFS サービスが実行されている。
  • 最低でも Ceph Dashboard での Ganesha-manager レベルのアクセス。
  • NFS Ganesha デーモンがダッシュボードで設定されている。

手順

  1. ダッシュボードで、Cluster をクリックします。
  2. Cluster ドロップダウンメニューから、Services をクリックします。
  3. + Create をクリックします。
  4. Create Service ウィンドウで、ingress サービスを選択します。
  5. 必要なバックエンドサービスを選択し、必要なパラメーターを編集し、Create Service をクリックして、アップグレードします。

    図8.2 Create Service ウィンドウ

    Upgrade NFS service window

関連情報

第9章 Ceph Dashboard でのプールの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でプールを作成、編集、削除できます。

本セクションでは、以下の管理タスクを説明します。

9.1. Ceph Dashboard でのプールの作成

プールを作成せずにストレージクラスターをデプロイすると、Ceph はデフォルトのプールを使用してデータを格納します。Red Hat Ceph Storage Dashboard で、プールを作成して、ストレージオブジェクトを論理的にパーティション分割できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Pools をクリックします。
  3. Create をクリックします。
  4. Create Pool ウィンドウで、次のパラメーターを設定します。

    図9.1 プールの作成

    Creating pools
    1. プールの名前を設定し、プールタイプを選択します。
    2. レプリケートまたはイレイジャーコード (EC) のいずれかのプールタイプを選択します。
    3. 配置グループ (PG) 番号を設定します。
    4. 必要に応じて、レプリケートされたプールタイプを使用する場合は、レプリケートされたサイズを設定します。
    5. 必要に応じて、EC プールタイプを使用する場合には、以下の追加設定を設定します。
    6. 必要に応じて、現在選択されている EC プロファイルの設定を確認するには、クレスチョンマークをクリックします。
    7. 必要に応じて、プラス記号をクリックして、新しい EC プロファイルを追加します。
    8. 必要に応じて、鉛筆記号をクリックして、プールのアプリケーションを選択します。
    9. オプション: 該当する場合は、CRUSH ルールを設定します。
    10. 必要に応じて、圧縮が必要な場合は、passiveaggressive、または force を選択します。
    11. オプション: クォータを設定します。
    12. オプション: サービス品質 (Quality of Service) 設定を設定します。
  5. Create Pool をクリックします。
  6. プールが正常に作成されたという通知が表示されます。

関連情報

  • 詳細は、Red Hat Ceph Storage アーキテクチャーガイドCeph プール を参照してください。

9.2. Ceph Dashboard でのプールの編集

Red Hat Ceph Storage Dashboard でプールを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Pools をクリックします。
  3. プールを編集するには、その行をクリックします。
  4. Edit ドロップダウンで Edit を選択します。
  5. Edit Pool ウィンドウで、必要なパラメーターを編集し、Edit Pool をクリックします。

    図9.2 プールの編集

    Editing pools
  6. プールが正常に作成されたという通知が表示されます。

関連情報

  • 詳細は、Red Hat Ceph Storage アーキテクチャーガイドCeph プール を参照してください。
  • 圧縮モードの詳細は、Red Hat Ceph Storage ストレージ戦略ガイドプール値 を参照してください。

9.3. Ceph Dashboard でのプールの削除

Red Hat Ceph Storage Dashboard でプールを削除できます。マネージャーモジュールで mon_allow_pool_delete の値が True に設定されていることを確認します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • プールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーの Cluster ドロップダウンメニューで、Configuration をクリックします。
  3. Level ドロップダウンメニューで、Advanced を選択します。
  4. mon_allow_pool_delete を検索し、編集をクリックします。
  5. すべての値を true に設定します。

    図9.3 プールを削除する設定

    Edit Configuration to delete pools
  6. ナビゲーションバーで、Pools をクリックします。
  7. プールを削除するには、行をクリックします。
  8. Edit ドロップダウンメニューから、Delete を選択します。
  9. Delete Pool ウィンドウで、Yes, I am sure ボックスをクリックし、Delete Pool をクリックして設定を保存します。

    図9.4 プールの削除

    Delete pools

関連情報

  • 詳細は、Red Hat Ceph Storage アーキテクチャーガイドCeph プール を参照してください。
  • 圧縮モードの詳細は、Red Hat Ceph Storage ストレージ戦略ガイドプール値 を参照してください。

第10章 Ceph Dashboard でのホストの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でホストのメンテナンスモードを有効または無効にすることができます。メンテナンスモードでは、メンテナンスアクティビティーを実行するためにホストをシャットダウンしても、クラスターに悪影響を与えることはありません。

Red Hat Ceph Storage Dashboard の Start Drain および Remove オプションを使用して、ホストを削除することもできます。

本セクションでは、以下の管理タスクを説明します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ホスト、Ceph Monitor Daemon、および Ceph Manager Daemon がストレージクラスターに追加されている。

10.1. メンテナンスモードの開始

Red Hat Ceph Storage Dashboard でホストをシャットダウンする前に、ホストのメンテナンスモードを開始することができます。メンテナンスモードが正常に有効になると、ホストはエラーなしでオフラインになり、メンテナンスアクティビティーを実行できます。メンテナンスモードが失敗した場合は、失敗の理由と、ホストを停止する前に実行する必要があるアクションが示されます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • 他のすべての前提条件の確認は Ceph によって内部的に実行され、考えられるエラーは Ceph によって内部的に処理されます。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. リストからホストを選択します。
  4. Edit ドロップダウンメニューから、Enter Maintenance をクリックします。

    図10.1 メンテナンスモードの開始

    Entering maintenance mode
    注記

    ホストがメンテナンスモードを開始すると、すべてのデーモンが停止します。ホストの Daemons タブで、デーモンのステータスを確認できます。

検証

  1. ホストが正常にメンテナンスモードに移行したという通知を受け取り、Status 列に maintenance ラベルが表示されます。
注記

メンテナンスモードが失敗した場合は、失敗の理由を示す通知を受け取ります。

10.2. メンテナンスモードの終了

ホストを再起動するには、Red Hat Ceph Storage Dashboard でホストのメンテナンスモードを終了します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • 他のすべての前提条件の確認は Ceph によって内部的に実行され、考えられるエラーは Ceph によって内部的に処理されます。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. Hosts 一覧から、メンテナンス中のホストを選択します。

    注記

    Status 列の maintenance ラベルを確認することで、メンテナンス中のホストを特定できます。

  4. Edit ドロップダウンメニューから、Exit Maintenance をクリックします。

    図10.2 メンテナンスモードの終了

    Exiting maintenance mode

    メンテナンスモードの終了後、default-crash でホスト上に必要なサービスを作成し、node-exporter がデプロイされるようにする必要があります。

検証

  1. ホストのメンテナンスが正常に終了し、Status 列から maintenance ラベルが削除されたという通知が表示されます。

10.3. Ceph Dashboard を使用したホストの削除

Ceph クラスターからホストを削除するには、Red Hat Ceph Storage Dashboard の Start Drain および Remove オプションを使用できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • 他のすべての前提条件の確認は Ceph によって内部的に実行され、考えられるエラーは Ceph によって内部的に処理されます。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Hosts を選択します。
  3. Hosts リストから、削除するホストを選択します。
  4. Edit ドロップダウンメニューから、Start Drain をクリックします。

    図10.3 Start Drain オプションの選択

    Selecting Start Drain option

    このオプションは、ホストからすべてのデーモンをドレインします。

    注記

    _no_schedule ラベルがホストに自動的に適用され、このホストでのデーモンのデプロイメントがブロックされます。

    1. オプション: ホストからのデーモンのドレインを停止するには、Edit ドロップダウンメニューから Stop Drain オプションをクリックします。
  5. すべてのデーモンがホストから削除されているかどうかを確認します。

    1. その行の Expand/Collapse アイコンをクリックします
    2. Daemons を選択します。デーモンは表示されないはずです。

      図10.4 ホストデーモンのステータスの確認

      Checking the status of host daemons
      重要

      すべてのデーモンがホストから削除された後、ホストをクラスターから安全に削除できます。

  6. ホストの削除。

    1. Edit ドロップダウンメニューから、Remove をクリックします。

      図10.5 ホストの削除

      Removing the host
    2. Remove Host ダイアログボックスで、Yes, I am sure. をオンにしてから Remove Host をクリックします。

      Hosts dialog box

検証

  1. Hosts リストからホストが正常に削除されると、通知が表示されます。

第11章 ダッシュボードでの Ceph OSD の管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で OSD を監視および管理できます。

Red Hat Ceph Storage Dashboard の機能には、次のようなものがあります。

  • OSD、OSD のステータス、統計、属性、メタデータ、デバイスの健全性、パフォーマンスカウンター、パフォーマンスの詳細などの情報をリスト表示します。
  • OSD のアップ、ダウン、またはアウトのマーク付け、OSD のパージと再加重付け、スクラブ、ディープスクラブ、プロファイルの選択によるバックフィルアクティビティー調整を行います。
  • OSD に関連付けられているすべてのドライブをリスト表示します。
  • OSD のデバイスクラスを設定および変更します。
  • OSD を新しいドライブとホストにデプロイします。

11.1. 前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Red Hat Ceph Storage Dashboard での cluster-manager のアクセスレベル

11.2. Ceph Dashboard での OSD の管理

Red Hat Ceph Storage Dashboard の Ceph OSD で以下のアクションを実行できます。

  • 新規 OSD を作成します。
  • OSD のデバイスクラスを編集します。
  • フラグを No UpNo DownNo In または No Out とマーク付けします。
  • OSD をスクラブしてディープスクラブします。
  • OSD の加重を変更します。
  • OSD を OutinDownLost にマークします。
  • OSD をパージします。
  • OSD を破棄します。
  • OSD を削除します。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ホスト、Monitor Daemon と Manager Daemon がストレージクラスターに追加されている。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、OSD を選択します。

OSD の作成

  1. OSD を作成するには、Create をクリックします。

    図11.1 OSD 用のデバイスの追加

    Add device for OSDs
    注記

    使用可能なホストといくつかの使用可能なデバイスがあることを確認してください。Cluster ドロップダウンメニューの Physical Disks で使用可能なデバイスを確認できます。

    1. Create OSDs ウィンドウで、Deployment オプションから次のいずれかのオプションを選択します。

      • Cost/Capacity-optimized: クラスターは、使用可能なすべての HDD でデプロイされます。
      • Throughput-optimized: データの保存には低速のデバイスが使用され、ジャーナル/WAL の保存には高速のデバイスが使用されます。
      • IOPS-optimized : 使用可能なすべての NVME が OSD のデプロイに使用されます。
    2. Advanced モードから、+Add をクリックして、プライマリー、WAL、および DB デバイスを追加できます。

      • プライマリーデバイス: プライマリーストレージデバイスには、すべての OSD データが含まれます。
      • WAL デバイス: Write-Ahead-Log デバイスは、BlueStore の内部ジャーナルに使用され、WAL デバイスがプライマリーデバイスよりも高速な場合にのみ使用されます。たとえば、NVME や SSD などです。
      • DB デバイス: DB デバイスは、BlueStore の内部メタデータを格納するために使用され、DB デバイスがプライマリーデバイスよりも高速な場合にのみ使用されます。たとえば、NVMESSD などです。
    3. セキュリティー上の目的でデータを暗号化する場合は、Featuresencryption を選択します。
    4. Preview ボタンをクリックし、OSD Creation Preview ダイアログボックスで Create をクリックします。
    5. OSD Creation Preview ダイアログボックスで、Create をクリックします。
  2. OSD が正常に作成されたという通知が表示されます。
  3. OSD ステータスが、indown から inup に変わります。

OSD の編集

  1. OSD を編集するには、その行を選択します。

    1. Edit ドロップダウンメニューから、Edit を選択します。
    2. デバイスクラスを編集します。
    3. Edit OSD をクリックします。

      図11.2 OSD の編集

      Edit an OSD
    4. OSD が正常に更新されたという通知が表示されます。

OSD のフラグのマーク付け

  1. OSD のフラグをマークするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Flags を選択します。
    2. フラグを No UpNo DownNo In または No Out とマーク付けします。
    3. Update をクリックします。

      図11.3 OSD のフラグのマーク付け

      Marking Flags of an OSD
    4. OSD のフラグが正常に更新されたという通知が表示されます。

OSD のスクラブ

  1. OSD をスクラブするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Scrub を選択します。
    2. OSDs Scrub ダイアログボックスで、Update をクリックします。

      図11.4 OSD のスクラブ

      Scrubbing an OSD
    3. OSD のスクラブが正常に開始されたことを示す通知が表示されます。

OSD のディープスクラブ

  1. OSD をディープスクラブするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Deep scrub を選択します。
    2. OSDs Deep Scrub ダイアログボックスで、Update をクリックします。

      図11.5 OSD のディープスクラブ

      Deep-scrubbing an OSD
    3. OSD のディープスクラブが正常に開始されたことを示す通知が表示されます。

OSD の加重付けの変更

  1. OSD の加重を変更するには、その行を選択します。

    1. Edit ドロップダウンメニューから、Reweight を選択します。
    2. Reweight OSD ダイアログボックスで、0 から 1 の間の値を入力します。
    3. Reweight をクリックします。

      図11.6 OSD の加重の変更

      Reweighting an OSD

OSD を Out とマーク付け

  1. OSD を out とマーク付けするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Mark Out を選択します。
    2. Mark OSD out ダイアログボックスで、Mark Out をクリックします。

      図11.7 OSD を Out とマーク付け

      Marking OSDs out
    3. OSD のステータスは out に変わります。

OSD を in とマーク付け

  1. OSD を in とマーク付けするには、ステータスが out の OSD 行を選択します。

    1. Edit ドロップダウンメニューから、Mark In を選択します。
    2. Mark OSD in ダイアログボックスで、Mark In をクリックします。

      図11.8 OSD を In とマーク付け

      Marking OSDs in
    3. OSD のステータスは in に変わります。

OSD を Down とマーク付け

  1. OSD を down とマーク付けするには、その行を選択します。

    1. Edit ドロップダウンメニューから、Mark Down を選択します。
    2. Mark OSD down ダイアログボックスで、Mark Down をクリックします。

      図11.9 OSD を Down とマーク付け

      Marking OSDs down
    3. OSD のステータスは down に変わります。

OSD を Lost とマーク付け

  1. OSD を Lost とマーク付けするには、ステータスが out および down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Mark Lost を選択します。
    2. Mark OSD Lost ダイアログボックスの Yes, I am sure オプションを選択し、Mark Lost をクリックします。

      図11.10 OSD を Lost とマーク付け

      Marking OSDs lost

OSD のパージ

  1. OSD をパージするには、ステータスが down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Purge を選択します。
    2. Purge OSDs ダイアログボックスで、Yes, I am sure オプションを選択し、Purge OSD をクリックします。

      図11.11 OSD のパージ

      Purging OSDs
    3. すべてのフラグがリセットされ、OSD のステータスが inup に戻ります。

OSD の破棄

  1. OSD を破棄するには、ステータスが down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Destroy を選択します。
    2. Destroy OSDs ダイアログボックスで、Yes, I am sure オプションをクリックし、Destroy OSD をクリックします。

      図11.12 OSD の破棄

      Destroying OSDs
    3. OSD のステータスが destroyed に変わります。

OSD の削除

  1. OSD を削除するには、ステータスが down の OSD を選択します。

    1. Edit ドロップダウンメニューから、Delete を選択します。
    2. Destroy OSDs ダイアログボックスで、Yes, I am sure オプションをクリックし、Delete OSD をクリックします。

      注記

      障害のある OSD を置き換える必要がある場合は、OSD_ID を保持することができます。

      図11.13 OSD の削除

      Deleting OSDs

11.3. Ceph Dashboard で障害が発生した OSD の交換

Red Hat Ceph Storage クラスターで障害のある OSD は、ダッシュボードで cluster-manager レベルのアクセス権限がある場合に、置き換えることができます。ダッシュボードでのこの機能で注目すべき点の 1 つとして、障害のある OSD を置き換える時に OSD ID を保持できることが挙げられます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • 最低でも Ceph Dashboard での cluster-manager レベルのアクセス。
  • 最低でも OSD の 1 つが down している。

手順

  1. ダッシュボードでは、以下の方法で障害のある OSD を特定できます。

    • ダッシュボード AlertManager ポップアップ通知。
    • HEALTH_WARN ステータスを示すダッシュボードのランディングページ。
    • 障害のある OSD を表示するダッシュボードのランディングページ。
    • 障害のある OSD を表示するダッシュボード OSD ページ。

      Health status of OSDs

      この例では、OSD の 1 つが Dashboard のランディングページでダウンしていることが分かります。

      これとは別に、物理ドライブでは、OSD のいずれかがダウンした場合に LED ライトが点滅していることを確認できます。

  2. OSD をクリックします。
  3. out および down の OSD を選択します。

    1. Edit ドロップダウンメニューから Flags を選択し、No Up を選択し、Update をクリックします。
    2. Edit ドロップダウンメニューから、Delete を選択します。
    3. Delete OSD ダイアログボックスで、Preserve OSD ID(s) for replacement チェックボックスと Yes, I am sure チェックボックスを選択します。
    4. Delete OSD をクリックします。
    5. OSD のステータスが out および destroyed に変更されるまで待機します。
  4. オプション: クラスター全体の No Up Flag を変更する場合は、Cluster-wide configuration ドロップダウンメニューで Flags を選択します。

    1. Cluster-wide OSDs Flags ダイアログボックスで、No Up を選択し、更新をクリックします。
  5. オプション: ハードディスク障害が原因で OSD がダウンしている場合は、物理ドライブを置き換えます。

    • ドライブがホットスワップ可能な場合は、故障したドライブを新しいものと交換します。
    • ドライブがホットスワップに対応しておらず、ホストに複数の OSD が含まれる場合は、ホスト全体をシャットダウンして物理ドライブを交換する必要がある場合があります。クラスターのバックフィルを防ぐことを検討してください。詳細は、Red Hat Ceph Storage トラブルシューティングガイドリバランスの停止および開始 の章を参照してください。
    • ドライブが /dev/ ディレクトリー配下に表示されたら、ドライブパスを書き留めます。
    • OSD を手動で追加する必要がある場合には、OSD ドライブを見つけ、ディスクをフォーマットします。
    • 新規ディスクにデータがある場合には、ディスクを消去します。

      構文

      ceph orch device zap HOST_NAME PATH --force

      例:

      ceph orch device zap ceph-adm2 /dev/sdc --force

  6. Create ドロップダウンメニューから、Create を選択します。
  7. Create OSDs ウィンドウで、+Add をクリックします。

    1. Primary devices ダイアログボックスの Hostname ドロップダウンリストから、いずれかのフィルターを選択します。Any ドロップダウンリストから、該当するオプションを選択します。

      注記

      デバイスを追加するには、まずホスト名を選択し、次に少なくとも 1 つのフィルターを選択する必要があります。

      たとえば、Hostname リストから Type を選択し、Any リストから hdd を選択します。Vendor を選択し、Any リストから ATA を選択します。

      Add device for OSDs
    2. Add をクリックします。
    3. Create OSDs window ウィンドウで、Preview ボタンをクリックします。
    4. OSD Creation Preview ダイアログボックスで、Create をクリックします。
    5. OSD が作成されたという通知が表示されます。OSD のステータスが outdown になります。
  8. ステータスが out および down の新規作成された OSD を選択します。

    1. Edit ドロップダウンメニューで、Mark-in を選択します。
    2. Mark OSD in ウィンドウで、Mark in を選択します。
    3. Edit ドロップダウンメニューで、Flags を選択します。
    4. No Up のチェックを外し、Update をクリックします。
  9. オプション: 過去にクラスター全体の設定を No Up のフラグに変更した場合には、Cluster-wide configuration メニューで Flags を選択します。

    1. Cluster-wide OSDs Flags ダイアログボックスで、No Up の選択を解除して、Update をクリックします。

検証

  1. 破棄された OSD がデバイスに作成され、OSD ID が保持されていることを確認します。

    OSD is created

関連情報

  • ダウンしている OSD の詳細は、Red Hat Ceph Storage トラブルシューティングガイドDown OSD セクションを参照してください。
  • その他のサポートについては、Red Hat Ceph Storage トラブルシューティングガイドRed Hat Support for service セクションを参照してください。
  • システムロールの詳細については、Red Hat Ceph Storage Dashboard ガイドCeph Dashboard のユーザーロールとパーミッション セクションを参照してください。

第12章 Dashboard を使用した Ceph オブジェクトゲートウェイの管理

ストレージ管理者は、ダッシュボードのオブジェクトゲートウェイ機能により、Ceph オブジェクトゲートウェイを管理および監視することができます。

Dashboard を使用して、Secure Sockets Layer (SSL) で Ceph オブジェクトゲートウェイサービスを作成することもできます。

たとえば、監視機能を使用すると、ゾーン名や GET および PUT レートのパフォーマンスグラフなどのゲートウェイデーモンの詳細を表示できます。管理機能を使用すると、ユーザーとバケットの両方を表示、作成、編集できます。

Ceph オブジェクトゲートウェイ機能は、ユーザー機能とバケット機能に分けられます。

12.1. Ceph オブジェクトゲートウェイログイン認証情報のダッシュボードへの手動追加

Red Hat Ceph Storage Dashboard は、RADOS Gateway または RGW として知られる Ceph Object Gateway を管理できます。Ceph Object Gateway が cephadm とともにデプロイされると、ダッシュボードで使用される Ceph Object Gateway クレデンシャルが自動的に設定されます。コマンドラインインターフェイスを使用して、Ceph オブジェクトゲートウェイの認証情報を Ceph Dashboard に手動で強制することもできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。

手順

  1. Cephadm シェルにログインします。

    例:

    [root@host01 ~]# cephadm shell

  2. クレデンシャルを手動で設定します。

    例:

    [ceph: root@host01 /]# ceph dashboard set-rgw-credentials

    これにより、システム内の各レルムの UID ダッシュボード を持つ Ceph Object Gateway ユーザーが作成されます。

  3. オプション: Ceph Object Gateway 管理 API でカスタム admin リソースを設定した場合は、管理リソースも設定する必要があります。

    構文

    ceph dashboard set-rgw-api-admin-resource RGW_API_ADMIN_RESOURCE

    例:

    [ceph: root@host01 /]# ceph dashboard set-rgw-api-admin-resource admin
    Option RGW_API_ADMIN_RESOURCE updated

  4. 必要に応じて、自己署名証明書と共に HTTPS を使用している場合は、ダッシュボードで証明書の検証を無効にして、拒否された接続を回避します。

    証明書が不明な認証局によって署名されている場合や、使用するホスト名が証明書のホスト名と一致しない場合は、拒否される接続が発生する可能性があります。

    構文

    ceph dashboard set-rgw-api-ssl-verify false

    例:

    [ceph: root@host01 /]# ceph dashboard set-rgw-api-ssl-verify False
    Option RGW_API_SSL_VERIFY updated

  5. オプション: Object Gateway が要求の処理に時間がかかりすぎて、ダッシュボードでタイムアウトが発生した場合は、タイムアウト値を設定できます。

    構文

    ceph dashboard set-rest-requests-timeout _TIME_IN_SECONDS_

    デフォルト値の 45 秒。

    例:

    [ceph: root@host01 /]# ceph dashboard set-rest-requests-timeout 240

12.2. ダッシュボードを使用した SSL での Ceph オブジェクトゲートウェイサービスの作成

Red Hat Ceph Storage クラスターのインストール後に、2 つの方法を使用して SSL で Ceph オブジェクトゲートウェイサービスを作成することができます。

  • コマンドラインインターフェイスの使用
  • ダッシュボードの使用

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • 認証局 (CA) からの SSL キー
注記

ゲートウェイホストのホスト名に一致する CA から SSL 証明書を取得します。Red Hat は、subject alternate name フィールドがあり、S3-style サブドメインで使用するワイルドカードを持つ CA から証明書を取得することを推奨します。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services を選択します。
  3. +Create をクリックします。
  4. Create Service ウィンドウで、rgw サービスを選択します。
  5. SSL を選択し、Certificate.pem 形式でアップロードします。

    図12.1 Ceph オブジェクトゲートウェイサービスの作成

    Creating Ceph Object Gateway service
  6. Create Service をクリックします。
  7. Ceph オブジェクトゲートウェイサービスが稼働していることを確認します。

関連情報

  • Red Hat Ceph Storage オブジェクトゲートウェイガイドConfiguring SSL for Beast セクションを参照してください。

12.3. ダッシュボードでの Ceph Object Gateway の高可用性の設定

Ingress サービスは、Ceph Object Gateway に可用性の高いエンドポイントを提供します。Ceph Dashboard を使用して、ingress サービスを作成および設定できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • 異なるホストで実行されている 2 つ以上の Ceph Object Gateway デーモン。
  • Dashboard がインストールされている。
  • 実行中の rgw サービス。

手順

  1. ダッシュボードにログインします。
  2. Cluster ドロップダウンメニューから、Services を選択します。
  3. +Create をクリックします。
  4. Create Service ウィンドウで、ingress サービスを選択します。
  5. バックエンドサービスを選択し、必要なパラメーターを編集します。

    図12.2 ingress サービスの作成

    Creating `ingress` service
  6. Create Service をクリックします。
  7. ingress サービスが正常に作成されたという通知を受け取ります。

関連情報

12.4. ダッシュボードでの Ceph オブジェクトゲートウェイユーザーの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway ユーザーの表示および管理を行うことができます。

12.4.1. 前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。

12.4.2. ダッシュボードでの Ceph オブジェクトゲートウェイユーザーの作成

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage で Ceph オブジェクトゲートウェイユーザーを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Create Service をクリックし、Create をクリックします。
  4. Create User ウィンドウで、次のパラメーターを設定します。

    1. ユーザー名、フルネームを設定し、必要に応じてバケットの最大数を編集します。
    2. 必要に応じて、メールアドレスまたは一時停止のステータスを設定します。
    3. 必要に応じて、Auto-generate key の選択を解除して、カスタムアクセスキーおよびシークレットキーを設定します。
    4. 必要に応じて、ユーザークォータを設定します。
    5. User quotaEnabled を選択します。
    6. Unlimited size または Unlimited objects の選択を解除します。
    7. Max. size または Max. objects に必要な値を入力します。
    8. 必要に応じて、バケットクォータを設定します。
    9. Bucket quotaEnabled をオンにします。
    10. Unlimited size または Unlimited objects の選択を解除します。
    11. Max. size または Max. objects に必要な値を入力します。
  5. Create User をクリックします。

    図12.3 Ceph オブジェクトゲートウェイユーザーの作成

    Ceph object gateway create user
  6. ユーザーが正常に作成されたという通知が表示されます。

関連情報

12.4.3. ダッシュボードでの Ceph オブジェクトゲートウェイサブユーザーの作成

サブユーザーは、S3 インターフェイスのユーザーに関連付けられます。Red Hat Ceph Storage Dashboard で、特定の Ceph オブジェクトゲートウェイユーザーのサブユーザーを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • Object Gateway ユーザーが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Users をクリックします。
  4. 行をクリックしてユーザーを選択します。
  5. Edit ドロップダウンメニューから、Edit を選択します。
  6. Edit User ウィンドウで、+Create Subuser をクリックします。
  7. Create Subuser ダイアログボックスで、ユーザー名を入力し、適切な権限を選択します。
  8. Auto-generate secret チェックボックスにチェックを入れ、Create Subuser をクリックします。

    図12.4 Ceph オブジェクトゲートウェイのサブユーザーの作成

    Ceph object gateway create subuser
    注記

    Auto-generate-secret チェックボックスをクリックすると、Object Gateway の秘密鍵が自動的に生成されます。

  9. Edit User ウィンドウで、Edit user ボタンをクリックします。
  10. ユーザーが正常に更新されたことを示す通知が表示されます。

12.4.4. ダッシュボードで Ceph オブジェクトゲートウェイユーザーの編集

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage で Ceph オブジェクトゲートウェイユーザーを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • Ceph オブジェクトゲートウェイユーザーが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Users をクリックします。
  4. ユーザー機能を編集するには、その行をクリックします。
  5. Edit ドロップダウンメニューで Edit を選択します。
  6. Edit User ウィンドウで、必要なパラメーターを編集します。
  7. Edit User をクリックします。

    図12.5 Ceph オブジェクトゲートウェイユーザーの編集

    Ceph object gateway edit user
  8. ユーザーが正常に更新されたことを示す通知が表示されます。

関連情報

12.4.5. Dashboard での Ceph オブジェクトゲートウェイユーザーの削除

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage で Ceph オブジェクトゲートウェイユーザーを削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • Ceph オブジェクトゲートウェイユーザーが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Users をクリックします。
  4. ユーザーを削除するには、その行をクリックします。
  5. Edit ドロップダウンメニューから、Delete を選択します。
  6. Edit User ウィンドウで、必要なパラメーターを編集します。
  7. Delete user ダイアログウィンドウで、Yes, I am sure ボックスをクリックし、Delete User をクリックして設定を保存します。

    図12.6 Ceph オブジェクトゲートウェイユーザーの削除

    Ceph object gateway delete user

関連情報

12.5. Dashboard での Ceph オブジェクトゲートウェイバケットの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して Ceph Object Gateway バケットを表示し、管理できます。

12.5.1. 前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • 少なくとも 1 つの Ceph オブジェクトゲートウェイユーザーが作成されている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。

12.5.2. ダッシュボードでの Ceph オブジェクトゲートウェイバケットの作成

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage に Ceph オブジェクトゲートウェイバケットを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されいる、停止されていない。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Buckets をクリックし、Create をクリックします。
  4. Create Bucket ウィンドウで、Name に値を入力し、中断されていないユーザーを選択します。配置ターゲットを選択します。

    図12.7 Ceph オブジェクトゲートウェイバケットの作成

    Ceph object gateway create bucket
    注記

    バケットの配置ターゲットが作成時に選択され、これは変更できません。

  5. オプション: バケットのオブジェクトの Locking を有効にします。ロックは、バケットの作成中にのみ有効にできます。ロックが有効になったら、Compliance または Governance のロックモードと、日または年単位 (両方の選択不可) のロック保持期間を選択します。
  6. Create bucket をクリックします。
  7. バケットが正常に作成されたことを示す通知が表示されます。

12.5.3. ダッシュボードでの Ceph オブジェクトゲートウェイバケットの編集

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage に Ceph オブジェクトゲートウェイバケットを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されいる、停止されていない。
  • Ceph Object Gateway バケットが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Buckets をクリックします。
  4. バケットを編集するには、その行をクリックします。
  5. Edit ドロップダウンで Edit を選択します。
  6. Edit bucket ウィンドウで、ドロップダウンからユーザーを選択して Owner を編集します。

    図12.8 Ceph オブジェクトゲートウェイバケットの編集

    Ceph object gateway edit bucket
    1. オプション: 既存バケットのすべてのオブジェクトのバージョン管理状態を有効にするには、 Versioning を有効にします。

      • バージョン管理を有効にするには、バケットの所有者である必要があります。
      • バケットの作成時に Locking が有効化されると、バージョン管理を無効にできません。
      • バケットに追加したすべてのオブジェクトは、一意のバージョン ID を受信します。
      • バージョン管理の状態がバケットに設定されていない場合、バケットにはバージョン管理の状態がありません。
    2. オプション: Multi-Factor AuthenticationDelete enabled にチェックを入れます。Multi-Factor Authentication (MFA) により、ユーザーは特定のバケットのオブジェクトの削除時にワンタイムパスワード (OTP) を使用しなければならないようにします。Token Serial Number および Token PIN の値を入力します。

      注記

      バケットは、S3 API を使用してバージョン管理および MFA を有効にして設定する必要があります。

  7. Edit Bucket をクリックします。
  8. バケットが正常に更新されたことを示す通知が表示されます。

12.5.4. ダッシュボードでの Ceph オブジェクトゲートウェイバケットの削除

CLI を使用して認証情報を設定すると、Red Hat Ceph Storage に Ceph オブジェクトゲートウェイバケットを削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • Ceph Object Gateway がインストールされている。
  • Object Gateway のログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーが作成されいる、停止されていない。
  • Ceph Object Gateway バケットが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Object Gateway をクリックします。
  3. Buckets をクリックします。
  4. バケットを削除するには、その行をクリックします。
  5. Edit ドロップダウンから Delete を選択します。
  6. Delete Bucket ダイアログボックスで Yes, I am sure ボックスをクリックして Delete bucket クリックし、設定を保存します。

    図12.9 Ceph オブジェクトゲートウェイバケットの削除

    Ceph object gateway delete bucket

12.6. Ceph Dashboard でのマルチサイトオブジェクトゲートウェイ設定のモニタリング

Red Hat Ceph Storage Dashboard は、マルチサイトオブジェクトゲートウェイ設定で、別のゾーンのユーザーとバケットの監視をサポートします。たとえば、ユーザーとバケットがプライマリーサイトのゾーンに作成した場合に、セカンダリーサイトのセカンダリーゾーンでユーザーとバケットを監視できます。

前提条件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。

手順

  1. セカンダリーサイトのダッシュボードランディングページの垂直メニューバーで、Object Gateway ドロップダウンリストをクリックします。
  2. Buckets を選択します。
  3. プライマリーサイトでオブジェクトゲートウェイユーザー用に作成された、これらのオブジェクトゲートウェイバケットがセカンダリーランディングページに表示されます。

    図12.10 マルチサイトオブジェクトゲートウェイの監視

    Multisite object gateway monitoring

関連情報

12.7. Ceph Dashboard でのマルチサイトオブジェクト設定のバケットの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard で別のゾーンのゾーンバケットを編集できます。ただし、プライマリーサイトで、セカンダリーサイトのバケットを削除できます。他のサイトで、プライマリーサイトのマスターゾーンのバケットは削除できません。たとえば、バケットがセカンダリーサイトのゾーンに作成されている場合に、プライマリーサイトのマスターゾーンでこれらのバケットを編集および削除できます。

12.7.1. 前提条件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。
  • 最低でも Ceph Dashboard での rgw-manager レベルのアクセス。

12.7.2. Ceph Dashboard でのマルチサイトオブジェクトゲートウェイ設定のバケットの編集

マルチサイトのオブジェクトゲートウェイ設定の場合には、Red Hat Ceph Storage Dashboard の別のゾーンで、あるゾーンのバケットの詳細を編集および更新できます。ダッシュボードの機能で、バケットの所有者、バージョン管理、マルチファクター認証、ロック機能を編集できます。

前提条件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。
  • 最低でも Ceph Dashboard での rgw-manager レベルのアクセス。

手順

  1. セカンダリーサイトのダッシュボードランディングページの垂直メニューバーで、Object Gateway ドロップダウンリストをクリックします。
  2. Buckets を選択します。
  3. プライマリーサイトでオブジェクトゲートウェイユーザー用に作成された、これらのオブジェクトゲートウェイバケットがセカンダリーランディングページに表示されます。

    図12.11 オブジェクトゲートウェイモニタリング

    Multisite object gateway monitoring
  4. 編集するバケットの行をクリックします。
  5. Edit ドロップダウンメニューで Edit を選択します。
  6. Edit Bucket ウィンドウで、必要なパラメーターを編集し、Edit Bucket をクリックします。

    図12.12 マルチサイトのバケットの編集

    Edit buckets in a multisite

検証

  • バケットが正常に更新されたことを示す通知が表示されます。

関連情報

12.7.3. Ceph Dashboard でのマルチサイトオブジェクトゲートウェイ設定のバケットの削除

マルチサイトのオブジェクトゲートウェイ設定の場合に、Red Hat Ceph Storage Dashboard でプライマリーサイトからセカンダリーサイトのバケットを削除できます。

重要: Red Hat は、セカンダリーサイトからプライマリーサイトのバケットを削除することを推奨していません。

前提条件

  • 両方のサイトに 1 つ以上の実行中の Red Hat Ceph Storage クラスターがデプロイされている。
  • Dashboard がインストールされている。
  • マルチサイトのオブジェクトゲートウェイがプライマリーサイトおよびセカンダリーサイトで設定されている。
  • プライマリーサイトおよびセカンダリーサイトのオブジェクトゲートウェイのログイン認証情報がダッシュボードに追加されている。
  • オブジェクトゲートウェイユーザーがプライマリーサイトに作成されている。
  • オブジェクトゲートウェイバケットがプライマリーサイトに作成されている。
  • 最低でも Ceph Dashboard での rgw-manager レベルのアクセス。

手順

  1. プライマリーサイトのダッシュボードランディングページの垂直メニューバーで、Object Gateway ドロップダウンリストをクリックします。
  2. Buckets を選択します。
  3. セカンダリーサイトのこれらのオブジェクトゲートウェイバケットは、ここで確認できます。
  4. 削除するバケットの行をクリックします。
  5. Edit ドロップダウンメニューから、Delete を選択します。
  6. Delete Bucket ダイアログボックスで、Yes, I am sure チェックボックスをオンにして、Delete Bucket をクリックします。

検証

  • 選択したバケットの行が正常に削除されます。

関連情報

第13章 Ceph Dashboard を使用したブロックデバイスの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でブロックデバイスイメージを管理し、監視することができます。この機能は、一般的なイメージ機能、ミラーリング機能、および iSCSI 機能に分けられます。たとえば、新規イメージの作成、クラスター間でミラーリングされたイメージの状態の表示、iSCSI ターゲットの管理または監視、およびイメージでの IOPS 制限の設定を行うことができます。

13.1. Ceph Dashboard でのブロックデバイスイメージの管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard を使用して、イメージの作成、編集、コピー、パージ、および削除を実行できます。

また、Ceph Dashboard を使用して、イメージのスナップショット作成、複製、コピー、ロールバック、削除が可能です。

注記

Block Device のイメージテーブルは、Block Device 情報の取得コストを削減するために、10000 以上のイメージストレージクラスターで使用できるようにページ分割されています。

13.1.1. Ceph Dashboard でのイメージの作成

Red Hat Ceph Storage Dashboard でブロックデバイスイメージを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. Create をクリックします。
  5. Create RBD ウィンドウで、パラメーターを入力します。
  6. オプション: Advanced をクリックし、パラメーターを設定します。
  7. Create RBD をクリックします。
  8. ブロックデバイスイメージの作成

    図13.1 ブロックデバイスイメージの作成

    Create Block device image
  9. イメージが正常に作成されたことを示す通知が表示されます。

関連情報

13.1.2. Ceph Dashboard での namespace の作成

Red Hat Ceph Storage Dashboard で、ブロックデバイスイメージの namespace を作成できます。

namespace が作成されると、それらの namespace のユーザーにアクセス権を割り当てることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • ブロックデバイスイメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、ブロック ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. イメージの名前空間を作成するには、Namespaces タブで、Create をクリックします。
  5. Create Namespace ウィンドウでプールを選択し、namespace の名前を入力します。
  6. Create をクリックします。

    図13.2 namespace の作成

    Create namespace
  7. namespace が正常に作成されたという通知が表示されます。

関連情報

13.1.3. Ceph Dashboard でのイメージの編集

Red Hat Ceph Storage Dashboard でブロックデバイスイメージを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. イメージを編集するには、その行をクリックします。
  5. Edit ドロップダウンメニューで、Edit を選択します。
  6. Edit RBD ウィンドウで、必要なパラメーターを編集し、Edit RBD をクリックします。

    図13.3 ブロックデバイスイメージの編集

    Edit Block device image
  7. イメージが正常に更新されたことを示す通知が表示されます。

関連情報

13.1.4. Ceph Dashboard でのイメージのコピー

Red Hat Ceph Storage Dashboard でブロックデバイスイメージをコピーすることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block ドロップダウンメニューをクリックします。
  3. Images を選択します。
  4. イメージをコピーするには、その行をクリックします。
  5. Edit ドロップダウンメニューで、Copy を選択します。
  6. Copy RBD ウィンドウで、必要なパラメーターを設定し、Copy RBD をクリックします。

    図13.4 ブロックデバイスイメージのコピー

    Copy Block device image
  7. イメージが正常にコピーされたことを示す通知が表示されます。

関連情報

13.1.5. Ceph Dashboard でのイメージのゴミ箱への移動

Red Hat Ceph Storage Dashboard で削除する前に、ブロックデバイスイメージをゴミ箱に移動できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. ドロップダウンメニューから Images を選択します。
  4. イメージをトレイに移動するには、その行をクリックします。
  5. Edit ドロップダウンの Move to Trash を選択します。
  6. Moving an image to trash ウィンドウで、イメージが保護する必要のある日付を編集し、Move Image をクリックします。

    図13.5 イメージのごみ箱への移動

    Moving images to trash
  7. イメージがゴミ箱に移動されたことを示す通知が表示されます。

13.1.6. Ceph Dashboard でのゴミ箱のパージ

Red Hat Ceph Storage Dashboard を使用して、ゴミ箱をパージすることができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージがゴミ箱に捨てられている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで、Block をクリックします。
  3. Images を選択します。
  4. Trash タブで、Purge Trash をクリックします。
  5. Purge Trash ウィンドウでプールを選択し、Purge Trash をクリックします。

    図13.6 ゴミ箱のパージ

    Purge Trash
  6. ごみ箱にあるプールが正常にパージされたことを示す通知が表示されます。

関連情報

13.1.7. Ceph Dashboard のゴミ箱からのイメージの復元

Red Hat Ceph Storage Dashboard では、ゴミ箱にあるイメージや期限切れのイメージを復元できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージがゴミ箱に捨てられている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. ゴミ箱からイメージを復元するには、Trash タブでその行をクリックします。
  5. Restore ドロップダウンメニューで Restore を選択します。
  6. Restore Image ウィンドウで、イメージの名前を入力してから、Restore をクリックします。

    図13.7 ゴミ箱からのイメージの復元

    Restore images from trash
  7. イメージが正常に復元されたことを示す通知が表示されます。

関連情報

13.1.8. Ceph Dashboard でのイメージの削除

イメージは、ゴミ箱に移動された後にのみ削除できます。クローンしたイメージと、コピーされたイメージは、ゴミ箱に移動せずに直接削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成され、ゴミ箱に移動されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. Images を選択します。
  4. イメージを削除するには、Trash タブで、その行をクリックします。
  5. Restore ドロップダウンメニューで Delete を選択します。
  6. オプション: クローンされたイメージとコピーしたイメージを削除するには、Edit ドロップダウンメニューから Delete を選択します。
  7. Delete RBD ダイアログボックスで Yes, I am sure ボックスをクリックして Delete RBD をクリックして設定を保存します。

    図13.8 イメージの削除

    Deleting images
  8. イメージが正常に削除されたことを示す通知が表示されます。

関連情報

13.1.9. Ceph Dashboard での namespace の削除

Red Hat Ceph Storage Dashboard でイメージの namespace を削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成され、ゴミ箱に移動されている。
  • ブロックデバイスイメージおよびその namespace が作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションバーで Block をクリックします。
  3. Images を選択します。
  4. イメージの名前空間を作成するには、Namespaces タブで、その行をクリックします。
  5. Delete をクリックします。
  6. Delete Namespace ダイアログボックスで Yes, I am sure ボックスをクリックして Delete Namespace をクリックして設定を保存します。

    図13.9 namespace の削除

    Deleting namespaces
  7. namespace が正常に削除されたことを示す通知が表示されます。

13.1.10. Ceph Dashboard でのイメージのスナップショット作成

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットを作成するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Create ドロップダウンで Create を選択します。
  6. Delete ダイアログで、名前を入力し、Create RBD Snapshot をクリックします。

    図13.10 イメージのスナップショットの作成

    Creating snapshot of images
  7. スナップショットが正常に作成されたことを示す通知が表示されます。

関連情報

13.1.11. Ceph Dashboard でのイメージのスナップショット名変更

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットの名前を変更できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を変更するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Rename を選択します。
  6. Rename RBD Snapshot ダイアログで、名前を入力し、Rename RBD Snapshot をクリックします。

    図13.11 イメージのスナップショットの名前変更

    Renaming snapshot of images

関連情報

13.1.12. Ceph Dashboard でのイメージのスナップショット保護

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットを保護します。

これは、スナップショットのクローンを作成する必要がある場合に必要です。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンで Protect を選択します。
  6. スナップショットの StateUNPROTECTED から PROTECTED に変わります。

関連情報

13.1.13. Ceph Dashboard でのイメージのスナップショットのクローン作成

Red Hat Ceph Storage Dashboard でイメージのスナップショットのクローンを作成できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成され、保護されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Clone を選択します。
  6. Clone RBD ウィンドウで、パラメーターを編集し、Clone RBD をクリックします。

    図13.12 イメージのスナップショットのクローン作成

    Cloning snapshot of images
  7. スナップショットが正常にクローンされたことを示す通知が表示されます。Images タブでは、クローンされたイメージを検索できます。

関連情報

13.1.14. Ceph Dashboard でのイメージのスナップショットのコピー

Red Hat Ceph Storage Dashboard でイメージのスナップショットをコピーできます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットの名前を保護するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで Copy を選択します。
  6. Copy RBD ウィンドウでパラメーターを入力し、Copy RBD ボタンをクリックします。

    図13.13 イメージのスナップショットのコピー

    Copying snapshot of images
  7. スナップショットが正常にコピーされたことを示す通知が表示されます。コピーしたイメージは、Images タブで検索できます。

関連情報

13.1.15. Ceph Dashboard でのイメージのスナップショットの保護解除

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットの保護を解除できます。

これは、スナップショットを削除する必要がある場合に必要です。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成され、保護されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショット名の保護を解除するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで UnProtect を選択します。
  6. スナップショットの StatePROTECTED から UNPROTECTED に変わります。

関連情報

13.1.16. Ceph Dashboard でのイメージのスナップショットのロールバック

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットをロールバックすることができます。イメージをスナップショットにロールバックすると、イメージの現行バージョンがスナップショットからのデータで上書きされます。ロールバックの実行にかかる時間は、イメージのサイズとともに増加します。イメージをスナップショットにロールバックするよりも、クローンする方が短時間ででき、既存の状態に戻す方法として推奨されます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成されます。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットをロールバックするには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Rollback を選択します。
  6. RBD snapshot rollback ダイアログボックスで、Rollback をクリックします。

    図13.14 イメージのスナップショットのロールバック

    Rolling back snapshot of images

関連情報

13.1.17. Ceph Dashboard でのイメージのスナップショットの削除

Red Hat Ceph Storage Dashboard で Ceph ブロックデバイスイメージのスナップショットを削除できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • イメージのスナップショットが作成され、保護されていない。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Images を選択します。
  4. イメージのスナップショットを作成するには、Images タブでその行をクリックし、Snapshots タブをクリックします。
  5. Rename ドロップダウンメニューで、Delete を選択します。

    図13.15 イメージのスナップショットの削除

    Deleting snapshot of images
  6. スナップショットが正常に削除されたことを示す通知が表示されます。

関連情報

13.2. Ceph Dashboard でのミラーリング機能の管理

ストレージ管理者は、Red Hat Ceph Storage Dashboard でブロックデバイスのミラーリング機能を管理し、監視することができます。

ストレージクラスター間でデータイメージをミラーリングして、別の階層を Ceph ブロックデバイスに追加して冗長化できます。Ceph ブロックデバイスのミラーリングについて理解して使用すると、サイト障害など、データ損失から守ることができます。Ceph ブロックデバイスのミラーリングには、一方向ミラーリングまたは双方向ミラーリングの 2 つの設定があり、プールと個別のイメージにミラーリングを設定できます。

13.2.1. Ceph Dashboard のミラーリングビュー

Red Hat Ceph Storage Dashboard でブロックデバイスのミラーリングを表示できます。

デーモン、サイトの詳細、プール、およびブロックデバイスミラーリング用に設定されたイメージを表示できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • ミラーリングが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。

    図13.16 ブロックデバイスのミラーリングの表示

    View mirroring of Block devices

関連情報

13.2.2. Ceph Dashboard でのプールの編集モード

Red Hat Ceph Storage Dashboard では、プールとイメージを含むミラーリング機能全体のモードを編集できます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。
  4. Pools タブで、編集するピアをクリックします。
  5. Edit Mode ドロップダウンで、Edit Mode を選択します。
  6. Edit Pool mirror mode ウィンドウで、ドロップダウンからモードを選択し、Update をクリックします。プールは正常に更新されました

    図13.17 ミラーリングのモード編集

    Editing mode in mirroring

関連情報

13.2.3. Ceph Dashboard でのミラーリングのピアの追加

rbd-daemon ミラーにストレージクラスターピアを追加して、Red Hat Ceph Storage Dashboard でピアストレージクラスターを検出することができます。

前提条件

  • 正常かつ実行中の 2 つの Red Hat Ceph Storage クラスター
  • ダッシュボードは両方のクラスターにインストールされます。
  • 同じ名前で作成されたプール。
  • rbd アプリケーションが両方のクラスターで有効になっています。
注記

イメージが作成されるプールに対してミラーリングが有効になっていることを確認します。

手順

Site A

  1. ダッシュボードにログインします。
  2. Navigation メニューから Block ドロップダウンメニューをクリックし、Mirroring をクリックします。
  3. [ブートストラップトークンの作成] をクリックし、ウィンドウで次のように設定します。

    図13.18 ブートストラップトークンを作成する

    Create bootstrap token
    1. 指定されたサイト名のミラーリング用のプールを選択します。
    2. 選択したプールに対して、生成 をクリックして新しいブートストラップトークンを生成します。
    3. Copy アイコンをクリックして、トークンをクリップボードにコピーします。
    4. Close をクリックします。
  4. プールミラーモードを有効にします。

    1. プールを選択します。
    2. Edit Mode をクリックします。
    3. Edit pool mirror mode ウィンドウで、ドロップダウンから Image を選択します。
    4. Update をクリックします。

Site B

  1. ダッシュボードにログインします。
  2. Navigation メニューから Block ドロップダウンメニューをクリックし、Mirroring をクリックします。
  3. Create Bootstrap token ドロップダウンから、Import Bootstrap Token を選択します。

    注記

    ブートストラップトークンをインポートする特定のプールに対してミラーリングモードが有効になっていることを確認します。

  4. Import Bootstrap Token ウィンドウで方向を選択し、サイト A から先ほどコピーしたトークンを貼り付けます。

    図13.19 ブートストラップトークンをインポートする

    Create bootstrap token
  5. 送信 をクリックします。

    ピアが追加され、イメージがサイト B のクラスターにミラーリングされます。

  6. プールの健全性が OK 状態であることを確認します。

    • Navigation メニューの Block で、Mirroring を選択します。プールの健全性は 良好 です。

Site A

  1. Mirroring を有効にしてイメージを作成します。

    1. Navigation メニューから、Block ドロップダウンメニューをクリックします。
    2. Images をクリックします。
    3. Create をクリックします。
    4. Create RBD ウィンドウで、NameSize を指定し、Mirroring を有効にします。

      注記

      Journal または Snapshot を選択できます。

    5. Create RBD をクリックします。

      図13.20 ミラーリングイメージの作成

      Create mirroring image
  2. イメージが両方のサイトで利用できることを確認します。

    • Navigation メニューの Block で、Images を選択します。サイト A のイメージは primary であり、サイト B のイメージは secondary です。

関連情報

13.2.4. Ceph Dashboard でのミラーリングのピアの編集

'rbd-daemon' ミラーにストレージクラスターピアを編集して、Red Hat Ceph Storage Dashboard でピアストレージクラスターを検出することができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。
  • ピアが追加されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。
  4. Pools タブで、削除するピアをクリックします。
  5. Edit Mode ドロップダウンメニューで、Edit peer を選択します。
  6. Edit pool mirror peer ウィンドウでパラメーターを編集し、Submit をクリックします。

    図13.21 ミラーリングのピアの編集

    Editing peer in mirroring
  7. ピアが正常に更新されたことを示す通知が表示されます。

関連情報

13.2.5. Ceph Dashboard でのミラーリングのピアの削除

'rbd-daemon' ミラーにストレージクラスターピアを編集して、Red Hat Ceph Storage Dashboard でピアストレージクラスターを検出することができます。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • Dashboard がインストールされている。
  • rbd アプリケーションが有効になっているプールが作成されている。
  • イメージが作成されている。
  • ミラーリングが設定されている。
  • ピアが追加されている。

手順

  1. ダッシュボードにログインします。
  2. ナビゲーションメニューで、Block をクリックします。
  3. Mirroring をクリックします。
  4. Pools タブで、削除するピアをクリックします。
  5. Edit Mode ドロップダウンメニューで、Delete peer を 選択します。
  6. Delete mirror peer ダイアログウィンドウで Yes, I am sure ボックスをクリックして Delete mirror peer クリックし、設定を保存します。

    図13.22 ミラーリングのピアの削除

    Delete peer in mirroring
  7. ピアが正常に削除されたことを示す通知が表示されます。

関連情報

第14章 テレメトリーのアクティブ化および非アクティブ化

テレメトリーモジュールをアクティブ化すると、Ceph 開発者は、Ceph がどのように使用され、ユーザーがどのような問題に遭遇し得るかを把握できます。これにより、ダッシュボードのエクスペリエンスを向上できます。テレメトリーモジュールをアクティブ化すると、クラスターに関する匿名データが Ceph 開発者に送信されます。

Ceph 開発者に送信されたテレメトリーデータは、パブリックテレメトリーダッシュボード に表示されます。これにより、レポートしているクラスターの数、当該クラスターの総容量と OSD 数、およびバージョン分布の傾向に関する統計情報の概要を、コミュニティーが簡単に確認できるようになります。

テレメトリーレポートはいくつかのチャネルに分類され、それぞれに異なる種類の情報が含まれます。テレメトリーが有効になっている場合、個々のチャネルをオンまたはオフにすることができます。テレメトリーがオフの場合、チャネルごとの設定は無効です。

Basic
クラスターに関する基本情報を提供します。
Crash
デーモンのクラッシュに関する情報を提供します。
Device
デバイスのメトリクスに関する情報を提供します。
Ident
クラスターに関するユーザー提供の識別情報を提供します。
Perf
クラスターのさまざまなパフォーマンスメトリクスを提供します。

データレポートには、開発者が Ceph の使用方法をより深く理解するのに役立つ情報が含まれています。データには、クラスターのデプロイ方法、Ceph のバージョン、ホストの分布、その他のパラメーターに関するカウンターと統計情報が含まれます。

重要

データレポートには、プール名、オブジェクト名、オブジェクトの内容、ホスト名、デバイスのシリアル番号などの機密データは含まれません。

注記

テレメトリーは API を使用して管理することもできます。詳細は、Red Hat Ceph Storage 開発者ガイドTelemetry の章を参照してください。

手順

  1. 次のいずれかの方法でテレメトリーモジュールをアクティブ化します。

    • Ceph Dashboard 内のバナーから移動します。

      Activating telemetry banner
    • Settings→Telemetry configuration に移動します。
  2. テレメトリーを有効にする必要がある各チャネルを選択します。

    注記

    各チャネルタイプの詳細は、チャネルの横にある More Info をクリックします。

  3. クラスターの Contact Information を入力します。連絡先、Ceph クラスターの説明、および組織を入力します。
  4. オプション: Advanced Settings フィールドのオプションを入力します。

    Interval
    間隔を時間単位で設定します。モジュールは、この時間間隔ごとに新しいレポートをコンパイルして送信します。デフォルトの間隔は 24 時間です。
    Proxy

    設定されたテレメトリーエンドポイントにクラスターが直接接続できない場合は、このオプションを使用して HTTP または HTTPS プロキシーサーバーを設定します。次のいずれかの形式でサーバーを追加します。

    https://10.0.0.1:8080 または https://ceph:telemetry@10.0.01:8080

    デフォルトのエンドポイントは telemetry.ceph.com です。

  5. Next をクリックします。これにより、テレメトリーを有効にする前に Telemetry report preview が表示されます。
  6. Report preview を確認します。

    注記

    レポートはダウンロードしてローカルに保存することも、クリップボードにコピーすることもできます。

  7. I agree to my telemetry data being submitted under the Community Data License Agreement を選択します。
  8. Update をクリックしてテレメトリーモジュールを有効にします。

    テレメトリーのアクティブ化を確認する次のメッセージが表示されます。

    The Telemetry module has been configured and activated successfully

14.1. テレメトリーの非アクティブ化

テレメトリーモジュールを非アクティブ化するには、Settings→Telemetry configuration に移動し、Deactivate をクリックします。

法律上の通知

Copyright © 2024 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.