OpenShift Data Foundation の更新

Red Hat OpenShift Data Foundation 4.10

クラスターおよびストレージ管理者向けに、Open Shift Data Foundation を最新版に更新する方法を説明しています。

Red Hat Storage Documentation Team

概要

本書では、Red Hat OpenShift Data Foundation の以前のバージョン更新する方法について説明します。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、Red Hat CTO である Chris Wright のメッセージ を参照してください。

Red Hat ドキュメントへのフィードバック (英語のみ)

弊社のドキュメントについてのご意見をお聞かせください。ドキュメントの改善点があれば、ぜひお知らせください。

フィードバックを送信するには、Bugzilla チケットを作成します。

  1. Bugzilla の Web サイトに移動します。
  2. Component セクションで、documentation を選択します。
  3. Description フィールドに、ドキュメントの改善に向けたご提案を記入してください。ドキュメントの該当部分へのリンクも追加してください。
  4. Submit Bug をクリックします。

第1章 OpenShift Data Foundation 更新プロセスの概要

本章では、すべての Red Hat OpenShift Data Foundation デプロイメント (Internal、Internal-Attached、および External) のマイナーリリースおよび z-stream リリース間でアップグレードする方法を説明します。アップグレードプロセスは、すべてのデプロイメントで引き続き同じとなります。

OpenShift Data Foundation とそのコンポーネントは、4.9 と 4.10 のようなマイナーリリース間、または 4.10.0 と 4.10.1 のような z-stream 間更新で、自動更新を有効にするか (オペレーターのインストール時に行っていない場合)、手動で更新を行うことでアップグレードできます。z-stream の新規リリースが利用可能になると、更新ストラテジーが Automatic に設定されている場合、アップグレードプロセスが自動的にトリガーされます。

また、内部および外部モードのデプロイメントの両方で、以下の順序で Red Hat OpenShift Data Foundation のさまざまな部分をアップグレードする必要もあります。

  1. OpenShift Container Platform の クラスターの更新 ドキュメントに従って OpenShift Container Platform を更新します
  2. Red Hat OpenShift Data Foundation を更新します。

    1. 更新に非接続環境を準備する には、Operator Lifecycle Manager を制限されたネットワークで使用するための Operator ガイドを参照し、OpenShift Data Foundation およびローカルストレージ Operator を使用している場合はこれらを更新できるようにします。
    2. マイナーリリース間の更新 は、Updating Red Hat OpenShift Data Foundation 4.9 to 4.10 を参照してください。
    3. z-stream リリース間の更新 は、Red Hat OpenShift Data Foundation 4.10.x を 4.10.y に更新 を参照してください。
    4. 外部モードのデプロイメントを更新する場合はRed Hat OpenShift Data Foundation 外部シークレットの更新 のセクションにある手順も実行する必要があります。
    5. ローカルストレージ演算子を使用している場合は、Local Storage オペレーターを更新します。不明な場合は、ローカルストレージ Operator デプロイメントの確認 を参照してください。

更新に関する考慮事項

開始する前に、以下の重要な考慮事項を確認してください。

  • Red Hat Open Shift Container Platform のバージョンは、Red Hat Open Shift Data Foundation と同じです。

    OpenShift Container Platform および Red Hat OpenShift Data Foundation のサポートされる組み合わせについての詳細は、Interoperability Matrix を参照してください。

  • クラスターが内部モードまたは外部モードのどちらでデプロイされたかを確認するには、ODF クラスターに内部モードまたは外部モードのストレージがあるかどうかを判別する方法 に関する ナレッジベースの記事 を参照してください。
  • ローカルストレージ Operator は、ローカルストレージ Operator のバージョンが Red Hat OpenShift Container Platform のバージョンと一致する場合にのみ完全にサポートされます。
  • フレキシブルスケーリング機能は、OpenShift Data Foundation の新しいデプロイメントでのみ利用できます。詳細は、Scaling storage guide を参照してください。

第2章 OpenShift Data Foundation アップグレードチャネルおよびリリース

OpenShift Container Platform 4.1 で、Red Hat はクラスターのアップグレードの適切なリリースバージョンを推奨するためにチャネルという概念を導入しました。アップグレードのペースを制御することで、これらのアップグレードチャネルからアップグレードストラテジーを選択することができます。OpenShift Data Foundation は、OpenShift Container Platform の Operator としてデプロイされるため、同じストラテジーに従って、複数のチャネルに修正を提供し、アップグレードのペースを制御します。アップグレードチャネルは、OpenShift Data Foundation のマイナーバージョンに関連付けられます。

たとえば、OpenShift Data Foundation 4.10 アップグレードチャネルでは、4.10 内のアップグレードが推奨されます。今後のリリースへのアップグレードは推奨されていません。このストラテジーにより、管理者は OpenShift Data Foundation の次のマイナーバージョンへのアップグレードに関して明確な決定を行うことができます。

アップグレードチャネルはリリースの選択のみを制御し、インストールするクラスターのバージョンには影響を与えません。odf-operator は、インストールされる OpenShift Data Foundation のバージョンを決定します。追加設定なしで、OpenShift Container Platform との互換性を維持しながら、最新の OpenShift Data Foundation リリースを常にインストールします。そのため、OpenShift Container Platform 4.10 では、OpenShift Data Foundation 4.10 はインストールできる最新バージョンになります。

OpenShift Data Foundation アップグレードは、互換性と相互運用性が OpenShift Container Platform で維持されるように OpenShift Container Platform のアップグレードと連動します。OpenShift Data Foundation 4.10 では、OpenShift Container Platform 4.10 および 4.11 (GA 後) がサポートされます。OpenShift Container Platform 4.11 は、OpenShift Container Platform との前方互換性を維持するためにサポートされます。OpenShift Data Foundation のバージョンを OpenShift Container Platform と同じにしておくと、そのリリースのすべての機能やエンハンスメントを活用できます。

重要

基本的な Kubernetes の設計により、マイナーバージョン間のすべての OpenShift Container Platform の更新をシリアル化する必要があります。OpenShift Container Platform 4.8 から 4.9 に更新してから、4.10 に更新する必要があります。OpenShift Container Platform 4.8 から 4.10 に直接更新することはできません。詳細は、OpenShift Container Platform ドキュメントの クラスターの更新 ガイドにある EUS から EUS への更新を実行するための準備 を参照してください。

OpenShift Data Foundation 4.10 は以下のアップグレードチャネルを提供します。

  • stable-4.10
  • eus-4.y (4.10 などの偶数番号の 4.y クラスターリリースを実行している場合のみ)

stable-4.10 チャネル

新規バージョンの GA 後、 マイナーバージョンに対応する stable チャネルが、アップグレードに使用できる新しいイメージで更新されます。stable-4.10 チャネルを使用すると OpenShift Data Foundation 4.9 からのアップグレードや 4.10 内のアップグレードが可能です。

EUS-4.y チャネル

stable チャネルに加え、OpenShift Data Foundation のすべての偶数のマイナーバージョンは、延長更新サポート (EUS) を提供します。これらの EUS バージョンでは、標準およびプレミアムサブスクリプションをお持ちのお客様のサポートフェーズを 18 カ月に拡張します。stable-4.y と eus-4.y チャンネルの唯一の違いは、EUS チャネルには次の EUS リリースが利用可能な場合にのみリリースが含まれることです。

第3章 Red Hat OpenShift Data Foundation 4.9 から 4.10 への更新

本章では、すべての Red Hat OpenShift Data Foundation デプロイメント (Internal、Internal-Attached、および External) のマイナーリリース間でアップグレードする方法を説明します。アップグレードプロセスは、すべてのデプロイメントで引き続き同じとなります。唯一の違いは、アップグレードされるものとアップグレードされないものがあることです。

  • Internal および Internal-attached のデプロイメントの場合、OpenShift Data Foundation をアップグレードすると、バックエンド Ceph Storage クラスターを含むすべての OpenShift Data Foundation サービスがアップグレードされます。
  • 外部モードのデプロイメントの場合、OpenShift Data Foundation をアップグレードすると、OpenShift Data Foundation サービスのみがアップグレードされ、バックエンド Ceph ストレージクラスターは変更されないままとなり、個別にアップグレードする必要があります。

    新機能のサポート、セキュリティー修正、およびその他のバグ修正を取得するために、RHCS を OpenShift Data Foundation と共にアップグレードすることが推奨されます。RHCS アップグレードに強く依存していないため、最初に OpenShift Data Foundation Operator をアップグレードしてから、RHCS をアップグレードするか、その逆を行うことができます。Red Hat Ceph Storage リリースの詳細は、solution を参照してください。

重要

4.9 よりも古いバージョンから 4.10 への直接のアップグレードはサポートされていません。

前提条件

  • OpenShift Container Platform クラスターがバージョン 4.10.X の最新の安定したリリースに更新されていることを確認します。Updating Clusters を参照してください。
  • OpenShift Data Foundation クラスターが正常であり、データに回復性があることを確認します。

    • Storage → Data Foundation → Storage Systems タブに移動してから、ストレージシステム名をクリックします。
    • Overview - Block and File タブおよび Object タブのステータスカードの緑色のチェックマークを確認します。緑色のチェックマークは、ストレージクラスターオブジェクトサービス、および データ回復性 がすべて正常であることを示します。
  • Operator Pod を含むすべての OpenShift Data Foundation Pod が openshift-storage namespace で Running 状態にあることを確認します。

    Pod の状態を表示するには、OpenShift Web コンソールで Workloads → Pods をクリックします。Project ドロップダウンリストから openshift-storage を選択します。

    注記

    Show default projects オプションが無効になっている場合は、切り替えボタンを使用して、すべてのデフォルトプロジェクトを一覧表示します。

  • 更新時間はクラスターで実行される OSD の数によって異なるため、OpenShift Data Foundation 更新プロセスを完了するのに十分な時間を確保してください。

手順

  1. OpenShift Web コンソールで、Operators → Installed Operators に移動します。
  2. openshift-storage プロジェクトを選択します。
  3. OpenShift Data Foundation Operator 名をクリックします。
  4. Subscription タブをクリックしてから、Update Channel の下にあるリンクをクリックします。
  5. Stable-4.10 更新チャンネルを選択して、保存 します。
  6. Upgrade statusrequires approval が表示される場合は、requires approval をクリックします。

    1. Install Plan Details ページで、Preview Install Plan をクリックします。
    2. インストール計画を確認し、Approve をクリックします。

      StatusUnknown から Created に変更されるまで待機します。

  7. Operators → Installed Operators に移動します。
  8. openshift-storage プロジェクトを選択します。

    OpenShift Data Foundation Operator の StatusUp to date に変わるのを待ちます。

検証手順

  • OpenShift Data Foundation 名の下にある Version を確認し、演算子の状態を確認します。

    • Operators → Installed Operators に移動し、openshift-storage プロジェクトを選択します。
    • アップグレードが完了すると、バージョンは OpenShift Data Foundation の新規バージョン番号に更新され、ステータスは緑色のチェックマークが付いて Succeeded に変わります。
  • OpenShift Data Foundation クラスターが正常であること、およびデータに回復性があることを確認します。

    • StorageData FoundationStorage Systems タブに移動してから、ストレージシステム名をクリックします。
    • Overview- Block and File および Object タブのステータスカードの緑色のチェックマークを確認します。緑色のチェックマークは、ストレージクラスター、オブジェクトサービス、およびデータの回復性が正常であることを示します。
  • 検証手順が失敗した場合は、Red Hat サポートにお問い合わせください
重要

外部モードのデプロイメントを更新したら、外部シークレットも更新する必要があります。手順については、OpenShift Data Foundation 外部シークレットの更新 を参照してください。

関連情報

OpenShift Data Foundation の更新中に問題が発生した場合は、トラブルシューティングガイドトラブルシューティングに共通して必要になるログ セクションを参照してください。

第4章 Red Hat OpenShift Data Foundation 4.10.x を 4.10.y に更新

本章では、すべての Red Hat OpenShift Data Foundation デプロイメント (Internal、Internal-Attached、および External) の z-stream リリース間でアップグレードする方法を説明します。アップグレードプロセスは、すべてのデプロイメントで引き続き同じとなります。唯一の違いは、アップグレードされるものとアップグレードされないものがあることです。

  • Internal および Internal-attached のデプロイメントの場合、OpenShift Data Foundation をアップグレードすると、バックエンド Ceph Storage クラスターを含むすべての OpenShift Data Foundation サービスがアップグレードされます。
  • 外部モードのデプロイメントの場合、OpenShift Data Foundation をアップグレードすると、OpenShift Data Foundation サービスのみがアップグレードされ、バックエンド Ceph ストレージクラスターは変更されないままとなり、個別にアップグレードする必要があります。

    したがって、新機能のサポート、セキュリティー修正、およびその他のバグ修正を取得するために、RHCS を OpenShift Data Foundation と共にアップグレードすることが推奨されます。RHCS アップグレードに強く依存していないため、最初に OpenShift Data Foundation Operator をアップグレードしてから、RHCS をアップグレードするか、その逆を行うことができます。Red Hat Ceph Storage リリースの詳細は、solution を参照してください。

z-stream の新規リリースが利用可能になると、更新ストラテジーが Automatic に設定されている場合、アップグレードプロセスが自動的にトリガーされます。更新ストラテジーが Manual に設定されている場合には、以下の手順を使用します。

前提条件

  • OpenShift Container Platform クラスターがバージョン 4.10.X の最新の安定したリリースに更新されていることを確認します。Updating Clusters を参照してください。
  • OpenShift Data Foundation クラスターが正常であり、データに回復性があることを確認します。

    • Storage → Data Foundation → Storage Systems タブに移動してから、ストレージシステム名をクリックします。
    • Overview - Block and File および Object タブのステータスカードの緑色のチェックマークを確認します。緑色のチェックマークは、ストレージクラスター、オブジェクトサービス、およびデータの回復性が正常であることを示します。
  • Operator Pod を含むすべての OpenShift Data Foundation Pod が openshift-storage namespace で Running 状態にあることを確認します。

    Pod の状態を表示するには、OpenShift Web コンソールで Workloads → Pods をクリックします。Project ドロップダウンリストから openshift-storage を選択します。

    注記

    Show default projects オプションが無効になっている場合は、切り替えボタンを使用して、すべてのデフォルトプロジェクトを一覧表示します。

  • 更新時間はクラスターで実行される OSD の数によって異なるため、OpenShift Data Foundation 更新プロセスを完了するのに十分な時間を確保してください。

手順

  1. OpenShift Web コンソールで、Operators → Installed Operators に移動します。
  2. openshift-storage プロジェクトを選択します。

    注記

    Show default projects オプションが無効になっている場合は、切り替えボタンを使用して、すべてのデフォルトプロジェクトを一覧表示します。

  3. OpenShift Data Foundation Operator 名をクリックします。
  4. Subscription タブをクリックします。
  5. Upgrade Statusrequire approval が表示される場合は、requires approval リンクをクリックします。
  6. InstallPlan Details ページで、Preview Install Plan をクリックします。
  7. インストール計画を確認し、Approve をクリックします。
  8. Status が Unknown から Created に変更されるまで待機します。

検証手順

  • OpenShift Data Foundation 名の下にある Version を確認し、演算子の状態を確認します。

    • Operators → Installed Operators に移動し、openshift-storage プロジェクトを選択します。
    • アップグレードが完了すると、バージョンは OpenShift Data Foundation の新規バージョン番号に更新され、ステータスは緑色のチェックマークが付いて Succeeded に変わります。
  • OpenShift Data Foundation クラスターが正常であること、およびデータに回復性があることを確認します。

    • Storage → Data Foundation → Storage Systems タブに移動してから、ストレージシステム名をクリックします。
    • Overview - Block and File および Object タブのステータスカードの緑色のチェックマークを確認します。緑色のチェックマークは、ストレージクラスター、オブジェクトサービス、およびデータ回復性が正常であることを示します。
  • 検証手順が失敗した場合は、Red Hat サポートにお問い合わせください

第5章 更新承認ストラテジーの変更

同じチャネルで新しい更新が利用可能になったときにストレージシステムが自動的に更新されるようにするには、更新承認ストラテジーを Automatic のままにしておくことをお勧めします。更新承認ストラテジーを Manual に変更すると、アップグレードごとに手動承認が必要になります。

手順

  1. Operators → Installed Operators に移動します。
  2. Project ドロップダウンリストから openshift-storage を選択します。

    注記

    Show default projects オプションが無効になっている場合は、切り替えボタンを使用して、すべてのデフォルトプロジェクトを一覧表示します。

  3. OpenShift Data Foundation Operator 名をクリックします。
  4. Subscription タブに移動します。
  5. 更新承認 を変更するには、鉛筆 アイコンをクリックします。
  6. 更新承認ストラテジーを選択し、Save をクリックします。

検証手順

  • 更新承認で、その下に新しく選択された承認ストラテジーが表示されていることを確認します。

第6章 OpenShift Data Foundation 外部シークレットの更新

OpenShift Data Foundation の最新バージョンへの更新後に、OpenShift Data Foundation 外部シークレットを更新します。

注記

バッチ更新には、外部シークレットを更新する必要はありません。たとえば、OpenShift Data Foundation 4.10.X から 4.10.Y に更新する場合。

前提条件

  • OpenShift Container Platform クラスターを 4.10.z の最新の安定したリリースに更新している。詳細は、Updating Clusters を参照してください。
  • OpenShift Data Foundation クラスターが正常であること、およびデータに回復性があることを確認します。StorageData FoundationStorage Systems タブに移動してから、ストレージシステム名をクリックします。

    • Overview - Block and File タブで Status カードをチェックして、Storage cluster に正常であることを示す緑色のチェックマークが表示されていることを確認します。
    • Object タブをクリックして、Object Service および Data resiliency に正常であることを示す緑色のチェックマークが表示されていることを確認します。RADOS Object Gateway は、OpenShift Data Foundation を外部モードでデプロイする際に、RADOS Object Gateway エンドポイントの詳細が含まれている場合にのみ表示されます。
  • Red Hat Ceph Storage では、Ceph ダッシュボードがインストールされ、設定されている必要がある。

手順

  1. ceph-external-cluster-details-exporter.py Python スクリプトの OpenShift Data Foundation バージョンをダウンロードします。

    # oc get csv $(oc get csv -n openshift-storage | grep ocs-operator | awk '{print $1}') -n openshift-storage -o jsonpath='{.metadata.annotations.external\.features\.ocs\.openshift\.io/export-script}' | base64 --decode > ceph-external-cluster-details-exporter.py
  2. 更新パーミッションは、外部の Red Hat Ceph Storage クラスターのクライアントノードで ceph-external-cluster-details-exporter.py を実行して、外部の Red Hat Ceph Storage クラスターに制限を課します。これを行うには、Red Hat Ceph Storage の管理者に問い合わせる必要がある場合があります。

    # python3 ceph-external-cluster-details-exporter.py --upgrade

    ユーザーの更新されたパーミッションは以下のように設定されます。

    client.csi-cephfs-node
    key: AQCYz0piYgu/IRAAipji4C8+Lfymu9vOrox3zQ==
    caps: [mds] allow rw
    caps: [mgr] allow rw
    caps: [mon] allow r, allow command 'osd blocklist'
    caps: [osd] allow rw tag cephfs =
    client.csi-cephfs-provisioner
    key: AQCYz0piDUMSIxAARuGUyhLXFO9u4zQeRG65pQ==
    caps: [mgr] allow rw
    caps: [mon] allow r, allow command 'osd blocklist'
    caps: [osd] allow rw tag cephfs metadata=*
    client.csi-rbd-node
    key: AQCYz0pi88IKHhAAvzRN4fD90nkb082ldrTaHA==
    caps: [mon] profile rbd, allow command 'osd blocklist'
    caps: [osd] profile rbd
    client.csi-rbd-provisioner
    key: AQCYz0pi6W8IIBAAgRJfrAW7kZfucNdqJqS9dQ==
    caps: [mgr] allow rw
    caps: [mon] profile rbd, allow command 'osd blocklist'
    caps: [osd] profile rbd
  3. 以前にダウンロードした Python スクリプトを実行し、外部の Red Hat Ceph Storage クラスターから生成された JSON 出力を保存します。

    1. 以前にダウンロードした Python スクリプトを実行します。

      # python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name <rbd block pool name> --monitoring-endpoint <ceph mgr prometheus exporter endpoint> --monitoring-endpoint-port <ceph mgr prometheus exporter port> --rgw-endpoint <rgw endpoint> --run-as-user <ocs_client_name>  [optional arguments]
      --rbd-data-pool-name
      これは、OpenShift Data Foundation でブロックストレージを提供するために使用される必須のパラメーターです。
      --rgw-endpoint
      これは任意になります。OpenShift Data Foundation の Ceph Rados Gateway でオブジェクトストレージをプロビジョニングする場合に、このパラメーターを指定します。<ip_address>:<port> の形式でエンドポイントを指定します。
      --monitoring-endpoint
      これは任意になります。OpenShift Container Platform クラスターから到達可能な、アクティブ mgr およびスタンバイ mgr の IP アドレスのコンマ区切りリストを受け入れます。指定しない場合には、値が自動的に入力されます。
      --monitoring-endpoint-port
      これは任意になります。これは --monitoring-endpoint で指定された ceph-mgr Prometheus エクスポーターに関連付けられるポートです。指定しない場合には、値が自動的に入力されます。
      --run-as-user

      OpenShift Data Foundation クラスターのデプロイメント時に使用されるクライアント名。別のクライアント名が設定されていない場合は、デフォルトのクライアント名 client.healthchecker を使用します。

      注記

      monitoring-endpoint および monitoring-endpoint-port を除くオプション引数を含むすべてのパラメーターが、外部モードでの OpenShift Data Foundation のデプロイメント時に使用したパラメーターと同じであることを確認します。

    2. 前の手順でスクリプトを実行した後に生成された JSON 出力を保存します。

      出力例:

      [{"name": "rook-ceph-mon-endpoints", "kind": "ConfigMap", "data": {"data": "xxx.xxx.xxx.xxx:xxxx", "maxMonId": "0", "mapping": "{}"}}, {"name": "rook-ceph-mon", "kind": "Secret", "data": {"admin-secret": "admin-secret", "fsid": "<fs-id>", "mon-secret": "mon-secret"}}, {"name": "rook-ceph-operator-creds", "kind": "Secret", "data": {"userID": "<user-id>", "userKey": "<user-key>"}}, {"name": "rook-csi-rbd-node", "kind": "Secret", "data": {"userID": "csi-rbd-node", "userKey": "<user-key>"}}, {"name": "ceph-rbd", "kind": "StorageClass", "data": {"pool": "<pool>"}}, {"name": "monitoring-endpoint", "kind": "CephCluster", "data": {"MonitoringEndpoint": "xxx.xxx.xxx.xxxx", "MonitoringPort": "xxxx"}}, {"name": "rook-ceph-dashboard-link", "kind": "Secret", "data": {"userID": "ceph-dashboard-link", "userKey": "<user-key>"}}, {"name": "rook-csi-rbd-provisioner", "kind": "Secret", "data": {"userID": "csi-rbd-provisioner", "userKey": "<user-key>"}}, {"name": "rook-csi-cephfs-provisioner", "kind": "Secret", "data": {"adminID": "csi-cephfs-provisioner", "adminKey": "<admin-key>"}}, {"name": "rook-csi-cephfs-node", "kind": "Secret", "data": {"adminID": "csi-cephfs-node", "adminKey": "<admin-key>"}}, {"name": "cephfs", "kind": "StorageClass", "data": {"fsName": "cephfs", "pool": "cephfs_data"}}, {"name": "ceph-rgw", "kind": "StorageClass", "data": {"endpoint": "xxx.xxx.xxx.xxxx", "poolPrefix": "default"}}, {"name": "rgw-admin-ops-user", "kind": "Secret", "data": {"accessKey": "<access-key>", "secretKey": "<secret-key>"}}]
  4. 生成された JSON ファイルをアップロードします。

    1. OpenShift Web コンソールにログインします。
    2. Workloads → Secrets をクリックします。
    3. プロジェクトを openshift-storage に設定します。
    4. rook-ceph-external-cluster-details をクリックします。
    5. Actions (⋮) → Edit Secret をクリックします。
    6. Browse をクリックして JSON ファイルをアップロードします。
    7. Save をクリックします。

検証手順

  • OpenShift Data Foundation クラスターが正常であり、データに回復性があることを確認するには、StorageData FoundationStorage Systems タブに移動してから、ストレージシステム名をクリックします。

    • OverviewBlock and File タブで、Details カードをチェックして、RHCS ダッシュボードのリンクが利用可能であることを確認し、Status カードをチェックして、Storage Cluster に正常であることを示す緑色のチェックマークが表示されていることも確認します。
    • Object タブをクリックして、Object Service および Data resiliency に正常であることを示す緑色のチェックマークが表示されていることを確認します。RADOS Object Gateway は、OpenShift Data Foundation を外部モードでデプロイする際に、RADOS Object Gateway エンドポイントの詳細が含まれている場合にのみ表示されます。
  • 検証手順が失敗した場合は、Red Hat サポートにお問い合わせください