リリースノート

Red Hat Ceph Storage 5.0

Red Hat Ceph Storage 5.0z1 のリリースノート

概要

本リリースノートでは、Red Hat Ceph Storage 5 製品リリースに実装された主な機能、拡張機能、既知の問題、バグ修正について説明します。これには、現在のリリースまでの Red Hat Ceph Storage 5.0 リリースのリリースノートが含まれています。
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、弊社の CTO、Chris Wright のメッセージを参照してください。

第1章 はじめに

Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。

Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/en/red-hat-ceph-storage/ から入手できます。

第2章 謝辞

Red Hat Ceph Storage バージョン 5.0 には、Red Hat Ceph Storage チームの数多くの貢献が反映されています。さらに、Ceph プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の質と量が驚くほど成長しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、および以下の組織を含むすべての貢献者による貢献に謝意を表します。

  • Intel®
  • Fujitsu ®
  • UnitedStack
  • Yahoo ™
  • Ubuntu Kylin
  • Mellanox ®
  • CERN ™
  • Deutsche Telekom
  • Mirantis ®
  • SanDisk ™
  • SUSE Linux® Enterprise Server (SLES)

第3章 新機能

本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能の一覧を紹介します。

本リリースで追加された主な機能は以下のとおりです。

  • コンテナー化されたクラスター

    Red Hat Ceph Storage 5 は、コンテナー化されたデーモンのみをサポートします。コンテナーされていないストレージクラスターはサポートされません。コンテナー化されていないストレージクラスターを Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 にアップグレードする場合、アップグレードプロセスには、コンテナー化されたデプロイメントへの変換が含まれます。

    詳細は、Red Hat Ceph Storage Installation GuideUpgrading a Red Hat Ceph Storage cluster from RHCS 4 to RHCS 5セクションを参照してください。

  • Cephadm

    Cephadm は、manager デーモンからホストに接続して Red Hat Ceph Storage 5.0 クラスターをデプロイし、管理する新しいコンテナー化されたデプロイメントツールです。cephadm ユーティリティーは、Red Hat Ceph Storage デプロイメントの ceph-ansible に代わるものです。Cephadm の目的は、Red Hat Ceph Storage をための、フル機能を備え、堅牢で、適切にインストールされた管理レイヤーを提供することです。

    cephadm コマンドは、Red Hat Ceph Storage クラスターの完全なライフサイクルを管理します。

    cephadm コマンドは、以下の操作を行うことができます。

  • 新しい Ceph Storage クラスターをブートストラップします。
  • Ceph コマンドラインインターフェース (CLI) と連携するコンテナー化されたシェルを起動します。
  • コンテナー化されたデーモンのデバッグを支援します。

    cephadm コマンドは ssh を使用してストレージクラスターのノードと通信し、Ceph デーモンコンテナーを追加、削除、または更新します。これにより、外部ツールを使用せずに Red Hat Ceph Storage コンテナーを追加、削除、または更新できます。

    cephadm コマンドには、2 つの主要コンポーネントがあります。

  • cephadm シェルは、コンテナー内の bash シェルを起動します。これにより、ストレージクラスターのインストールと設定タスクを実行し、コンテナーで ceph コマンドを実行できます。
  • cephadm オーケストレーターコマンドにより、Ceph デーモンおよびサービスをプロビジョニングし、ストレージクラスターを拡張できます。

    詳細は、『Red Hat Ceph Storage インストールガイド』を参照してください。

  • 管理 API

    管理 API は、Red Hat Ceph Storage 5.0 に適用される管理スクリプトを作成し、バージョンのライフサイクルには変更されない動作を維持します。互換性のないバージョンの API は、メジャーリリースの行ごとにのみ発生します。

    詳細は、『Red Hat Ceph Storage 開発者ガイド』を参照してください。

  • Red Hat Ceph Storage の非接続インストール

    Red Hat Ceph Storage 5.0 は、プライベートネットワークでのストレージクラスターの非接続インストールおよびブートストラップをサポートします。非接続インストールでは、ネットワークからファイルをダウンロードするのではなく、カスタムイメージ、設定ファイル、およびローカルホストが使用されます。

    Red Hat レジストリーにアクセスできるプロキシーホストからダウンロードしたコンテナーイメージをインストールするか、またはローカルレジストリーにコンテナーイメージをコピーします。ブートストラッププロセスでは、名前および IP アドレスで追加されるホストを識別する仕様ファイルが必要です。初回のモニターホストがブートストラップされたら、Ceph Orchestrator コマンドを使用してストレージクラスターを拡張し、設定できます。

    詳細は、『Red Hat Ceph Storage インストールガイド』を参照してください。

  • Ceph File System のジオレプリケーション

    Red Hat Ceph Storage 5 リリース以降、Ceph File Systems (CephFS) は、地理的な場所または異なるサイト間で複製することができます。新しい cephfs-mirror デーモンは、スナップショットのリモートの CephFS への非同期レプリケーションを実行します。

    詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「Ceph File System ミラー」セクションを参照してください。

  • 新しい Ceph File System クライアントパフォーマンスツール

    Red Hat Ceph Storage 5 リリース以降、Ceph ファイルシステム (CephFS) は、Ceph ファイルシステムのメトリックをリアルタイムで表示するための top のようなユーティリティーを提供します。cephfs-top ユーティリティーは、Ceph Manager の stats モジュールを使用してクライアントパフォーマンスメトリックを取得して表示する curses ベースの Python スクリプトです。

    詳細は、『Red Hat Ceph Storage ファイルシステムガイド』cephfs-top ユーティリティーの使用」セクションを参照してください。

  • Red Hat Ceph Storage Dashboard を使用した Ceph オブジェクトゲートウェイのマルチサイトの監視

    Red Hat Ceph Storage ダッシュボードを使用して、Ceph オブジェクトゲートウェイのマルチサイト設定をモニタリングできるようになりました。

    cephadm ユーティリティーを使用してマルチゾーンが設定されたら、あるゾーンのバケットが他のゾーンおよびその他のサイトに表示されます。ダッシュボードでバケットを作成、編集、削除することも可能です。

    詳細は、『Red Hat Ceph Storage Dashboard ガイド』「Ceph ダッシュボードのマルチサイトオブジェクト設定のバケットの管理」の章を参照してください。

  • BlueStore スペースの使用状況を向上

    Ceph Object Gateway および Ceph ファイルシステム (CephFS) は、小規模なオブジェクトおよびファイルを RADOS に個別のオブジェクトとして格納します。このリリースでは、SSD の場合は BlueStore の min_alloc_size のデフォルト値が、4 KB になりました。これにより、パフォーマンスに影響を及ぼさずに領域の使用が改善されます。

    詳細は、『Red Hat Ceph Storage 管理ガイド』「OSD BlueStore」の章を参照してください。

3.1. Cephadm ユーティリティー

Red Hat Ceph Storage が Ceph OSD メモリーターゲットを自動的にチューニングできるようになりました。

このリリースでは、osd_memory_target_autotune オプションが修正され、期待どおりに機能するようになりました。ユーザーは、Red Hat Ceph Storageを有効にして、Ceph OSDのメモリターゲットを明示的に設定しなくても、ストレージクラスター内のCeph OSDのCeph OSDメモリターゲットを自動的に調整してパフォーマンスを向上させることができます。Red Hat Ceph Storage は、利用可能な合計メモリーとノードで実行しているデーモンを評価することで、Ceph OSD メモリーターゲットをノードごとに設定します。

以下のコマンドを実行すると、Ceph OSD のメモリー自動チューニング機能を有効にできます。

ceph config set osd osd_memory_target_autotune true

3.2. Ceph ダッシュボード

Ceph Object Gateway のマルチサイト設定のグラフを表示する新しい Grafana Dashboard

このリリースでは、新しい Grafana ダッシュボードが利用可能になり、Ceph Object Gateway マルチサイト同期パフォーマンスのグラフ (双方向レプリケーションのスループット、ポーリングレイテンシー、レプリケーションの失敗など) が表示されるようになりました。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』「ダッシュボードでの Ceph オブジェクトゲートウェイデーモンの監視」セクションを参照してください。

Prometheus Alertmanager ルールは、Red Hat Ceph Storage Dashboard で異なる MTU 設定に関するアラートをトリガーする

以前は、ネットワークの問題のよく知られた原因である MTU 設定の不一致は、コマンドラインインターフェースを使用して識別および管理する必要がありました。このリリースでは、ノードまたはその少数のノードの MTU 設定が大多数のノードと異なる場合、Red Hat Ceph Storage ダッシュボードでアラートがトリガーされます。ユーザーはアラートをミュートするか、または MTU の不一致の設定を修正できます。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』「Ceph ダッシュボードの警告の管理」セクションを参照してください。

Red Hat Ceph Storage Dashboard でのユーザーおよびロールの管理

このリリースでは、ユーザーとロールの管理が利用できるようになりました。管理者は、ユーザーが Ceph クラスターで OSD を作成し、更新、一覧表示し、削除できるように、細かいロールベースアクセス制御 (RBAC) ポリシーを定義できます。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』「Ceph ダッシュボード上のロールの管理」を参照してください。

Red Hat Ceph Storage Dashboard が RBD v1 イメージに対応

以前のリリースでは、Red Hat Ceph Storage Dashboard には RBD v2 形式のイメージのみが表示され、サポートされていました。

このリリースでは、RBD_FORCE_ALLOW_V11 に設定することにより、ユーザーは v1 RBD イメージを管理し、これを v2 RBD イメージに移行できるようになりました。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』「Ceph Dashboard を使用したブロックデバイスの管理」セクションを参照してください。

ユーザーは、Red Hat Ceph Storage Dashboard で障害のある OSD を置き換え可能

このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard で OSD の OSD_ID を保存して失敗した OSD を特定し、置き換えることができるようになりました。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』「Ceph ダッシュボードでの障害のある OSD の置き換え」を参照してください。

Red Hat Ceph Storage Dashboard で Ceph Object Gateway バケットの作成時に配置ターゲットを指定する

このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard に Ceph Object Gateway バケットを作成する際に、配置ターゲットを指定できるようになりました。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』「ダッシュボードで Cephobject ゲートウェイバケットの作成」セクションを参照してください。

Red Hat Ceph Storage Dashboard でマルチファクター認証の削除機能を有効にする

このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard 上の Ceph クラスターから特定のバケットの MFA 削除 (Multi-Factor Authentication) を有効にできるようになりました。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』「ダッシュボードで Cephobject ゲートウェイバケットの作成」セクションを参照してください。

Red Hat Ceph Storage Dashboard で特定のバケットのバケットバージョン管理機能が有効になっている。

このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard で特定のバケットのバケットバージョン管理を有効にできるようになりました。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』「ダッシュボードで Cephobject ゲートウェイバケットの作成」セクションを参照してください。

Ceph Object Gateway バケットのオブジェクトロッキング機能が Red Hat Ceph Storage Dashboard で有効になっている。

このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard で Ceph Object Gateway バケットのオブジェクトロックを有効にできるようになりました。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』「ダッシュボードで Cephobject ゲートウェイバケットの作成」セクションを参照してください。

Red Hat Ceph Storage Dashboard に垂直ナビゲーションバーを追加

このリリースでは、垂直のナビゲーションバーが利用できるようになりました。Red Hat Ceph Storage Dashboard メニューのハートビートアイコンは、クラスターのステータスに基づいて、緑、黄、赤の色に変わります。たとえば、Cluster>Monitoring and Block>Mirroring の他のメニューには、特定のコンポーネントにおける警告の数を示す色付きアイコンが表示されます。

Red Hat Ceph Storage ダッシュボードの「box」ページに詳細情報を表示

このリリースでは、Red Hat Ceph Storage Dashboard の「box」ページには、Ceph バージョン、ceph-mgr が実行しているホスト名、ユーザー名、ロール、およびブラウザーの詳細が表示されるようになりました。

ブラウザのファビコンに、クラスタの正常性ステータスを変更するためのアイコンが付いた Red Hat ロゴを表示

このリリースでは、ブラウザーのファビコンにRed Hat ロゴが表示され、クラスターの正常性ステータスに基づいて色が緑、黄、または赤に変わるアイコンが表示されるようになりました。

Red Hat Ceph Storage Dashboard のエラーページが期待どおりに機能

このリリースでは、Red Hat Ceph Storage Dashboard のエラーページが修正され、期待どおりに機能するようになりました。

Red Hat Ceph Storage Dashboard で Cephadm ワークフローを表示

このリリースでは、Red Hat Ceph Storage は、コンテナーに関する情報などの Ceph Orchestrator やサービスで定義されるノードなど、インベントリーの詳細情報を表示するようになりました。Red Hat Ceph Storage ダッシュボードでは、ユーザーは Ceph クラスター上のホストを管理することもできます。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』「ダッシュボードの Ceph クラスターのホストの監視」セクションを参照してください。

Red Hat Ceph Storage Dashboard でオブジェクト数およびサイズクォータの変更が可能

このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard の特定のプールのオブジェクト数およびサイズクォータを設定および変更できるようになりました。

詳細は、『Red Hat Ceph Storage Dashboard ガイド』の「Ceph ダッシュボードでのプールの作成」セクションを参照してください。

Red Hat Ceph Storage Dashboard で Ceph ファイルシステムのスナップショットを管理可能

このリリースでは、ユーザーは Ceph File System (CephFS) スナップショットを作成して削除し、Red Hat Ceph Storage Dashboard でディレクトリーごとのクォータを設定および変更できるようになりました。

Red Hat Ceph Storage Dashboard のアカウントおよびパスワードポリシーの強化

このリリースでは、最高のセキュリティー標準に準拠するために、厳格なパスワードおよびアカウントポリシーが実装されています。ユーザーパスワードは、設定可能なルールに準拠する必要があります。ユーザーアカウントは、一定の時間が経過すると期限切れになるように設定したり、ログインに何度も失敗した後にロックアウトしたりすることもできます。

任意のレルム、ゾーングループ、またはゾーンでユーザーおよびバケットを管理可能

このリリースでは、ユーザーはデフォルトゾーンだけでなく、構成した任意のレルム、ゾーングループ、またはゾーンでユーザーおよびバケットを管理できるようになりました。

Red Hat Ceph Storage Dashboard で複数のデーモンを管理するには、『Red Hat Ceph Storage Dashboard ガイド』「Ceph ダッシュボードでマルチサイトオブジェクトゲートウェイ設定のバケットの管理」を参照してください。

Red Hat Ceph Storage Dashboard で直感的にテナント S3 ユーザーを作成可能

以前のバージョンは、テナント化された S3 ユーザーは、それぞれの直感的な個別の入力フィールドの代わりに、「tenant$user」というユーザーフレンドリーな構文を使用して作成できました。

このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard で「tenant$user」を使用せずに、テナント化された S3 ユーザーを直感的に作成できるようになりました。

Red Hat Ceph Storage Dashboard がホスト管理に対応

以前は、コマンドラインインターフェースが Red Hat Ceph Storage クラスターでのホストの管理に使用されていました。

このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard でメンテナンスモード機能を使用してホストを有効または無効にできるようになりました。

Red Hat Ceph Storage Dashboard でネストされたテーブルを拡張または縮小可能

このリリースでは、Red Hat Ceph Storage Dashboard の行をクリックすることで、ネストされたテーブルを含む行を展開または折りたたむことができます。

3.3. Ceph ファイルシステム

CephFS クライアントは、メタデータサーバー (MDS) によってブロックリストに登録された後、再接続できるようになる

以前のリリースでは、ネットワークパーティションやその他の一時的なエラーにより、Ceph File System (CephFS) クライアントは MDS によってブロックリストに登録されていました。

このリリースでは、手動で再マウントする必要がないため、CephFS クライアントは、クライアントごとに適切な構成をオンにしてマウントに再接続できます。

MDS 間でサブツリーを自動配布するための一時的なピニングポリシーを使用可能

このリリースでは、サブツリーを固定するための効率的な戦略を導入することでエクスポートピンが改善され、メタデータサーバー (MDS) 間でサブツリーを自動配布できるようになり、手動で固定するためのユーザーの介入がなくなりました。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「一時ピニングポリシー」セクションを参照してください。

mount.cephrecover_session=clean オプションを追加

このリリースでは、mount.cephrecover_session=clean の追加オプションが追加されました。このオプションを使用すると、クライアントは、メタデータサーバー (MDS) によってブロックリストに登録されていることを検出すると、Red Hat Ceph Storage クラスターに自動的に再接続し、マウントが自動的に回復されます。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「ブロックリストからの Ceph ファイルシステムクライアントの削除」セクションを参照してください。

Ceph File System でのメタデータ操作の非同期作成および削除

このリリースでは、Red Hat Enterprise Linux 8.4 カーネルマウントは、Red Hat Ceph Storage クラスターでファイルの作成および削除を非同期に実行できるようになりました。これにより、整合性に影響を与えずにこれらのシステムコールのラウンドトリップレイテンシーを回避することで、一部のワークロードのパフォーマンスが改善されます。非同期ファイルの作成および削除を有効にするには、新しい -o nowsync マウントオプションを使用します。

Ceph File System (CephFS) が、mds_join_fsという MDS の設定オプションを提供

このリリースでは、メタデータサーバー (MDS) デーモンをフェイルオーバーするときに、クラスターのモニターは、失敗したrank のファイルシステム名と等しい mds_join_fs のスタンバイデーモンを優先します。

mds_join_fs がファイルシステム name と等しいスタンバイが存在しない場合は、最後の手段として、置換用の非修飾スタンバイ、またはその他の使用可能なスタンバイを選択します。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「ファイルシステムのアフィニティー」セクションを参照してください。

Ceph ファイルシステム間のスナップショットの非同期レプリケーション

このリリースでは、manager プラグインであるミラーリングモジュールが、ディレクトリースナップショットミラーリングを管理するインターフェースを提供するようになりました。ミラーリングモジュールは、同期のためにミラーデーモンにディレクトリーを割り当てます。現在、単一ミラーデーモンがサポートされ、cephadm を使用してデプロイできます。

Ceph File System (CephFS) は、cephfs-mirror ツールを使用して、リモートの CephFS へのスナップショットの非同期レプリケーションをサポートします。ミラーデーモンは、Red Hat Ceph Storage クラスターの複数のファイルシステムのスナップショット同期を処理できます。スナップショットは、スナップショットデータをミラーリングした後、同期されるスナップショットと同じ名前でリモートファイルシステム上の特定のディレクトリーにスナップショットを作成することによって同期されます。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「Ceph ファイルシステムのミラー」セクションを参照してください。

cephfs-top ツールに対応

このリリースでは、cephfs-top ツールが導入されました。

Ceph は、さまざまな Ceph File System (CephFS) メトリックをリアルタイムで表示するユーティリティーなどの top(1) を提供します。cephfs-top は、Ceph Manager の stats プラグインを使用してメトリックスを取得し、表示する curses ベースの python スクリプトです。

CephFS クライアントでは、さまざまなメトリックスを Ceph Metadata Server (MDS) に定期的に転送します。これにより、集約のためにこれらのメトリックスを MDS ランクゼロに転送します。これらの集約メトリックスは、消費のために Ceph Manager に転送されします。

メトリックスは、global と per-mds の 2 つのカテゴリーに分類されます。グローバルメトリックスは、たとえば、クライアントの読み取りレイテンシー全体として、ファイルシステムのメトリックスのセットを表します。ただし、mds ごとのメトリックスは、MDS によって処理されるサブツリーの数などの特定の MDS ランク用です。

現時点で、グローバルメトリックスは追跡および表示されます。cephfs-top コマンドは、複数の Ceph File Systems では確実に機能しません。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』cephfs-top ユーティリティーの使用」セクションを参照してください。

MDS デーモンを mds_autoscaler プラグインでデプロイ可能

このリリースでは、Ceph File System (CephFS) の要件に対応してメタデータサーバー (MDS) デーモンをデプロイする新しい ceph-mgr プラグインである mds_autoscaler が利用できるようになりました。有効にすると、mds_autoscalermax_mds の設定にしたがって必要なスタンバイ状態を自動的にデプロイし、アクティブにします。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「MDS autoscaler モジュールの使用」セクションを参照してください。

Ceph File System (CephFS) スクラブが、複数のアクティブな MDS で機能するようになる

以前のリリースでは、ユーザーは max_mds=1 パラメーターを設定し、アクティブなメタデータサーバー (MDS) のみが Ceph File System (CephFS) スクラブ操作を実行するまで待機する必要がありました。

このリリースでは、mds_max の値に関係なく、ユーザーは複数のアクティブな MDS を使用してランク 0 で実行できるようになりました。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「複数のアクティブな Metadata Server デーモンの設定」セクションを参照してください。

snap_schedule プラグインで Ceph File System スナップショットをスケジュール可能

このリリースでは、新しい ceph-mgr プラグイン snap_schedule が、Ceph File System (CephFS) のスナップショットをスケジューリングできるようになりました。スナップショットは作成、保持、および自動ガべージコレクションにすることができます。

3.4. コンテナー

cephfs-mirror パッケージが ceph-container ubi8 イメージに含まれる

このリリースでは、cephfs-mirror パッケージが ceph-container ubi8 イメージに組み込まれ、Ceph File System (CephFS) スナップショットのリモート CephFS へのミラーリングをサポートするようになりました。CephFS-mirror を設定するコマンドが利用できるようになりました。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「Ceph ファイルシステムのミラー」セクションを参照してください。

3.5. Ceph Object Gateway

バケット名または ID は radosgw-admin bucket stats コマンドで対応

このリリースでは、バケット名または ID を radosgw-admin bucket stats コマンドの引数として使用できるようになりました。バケット統計は、Ceph OSD ログである大きな OMAP オブジェクト警告のクラスのデバッグに使用できる非現在のバケットインスタンスを報告します。

Ceph Object Gateway のパフォーマンスカウンターに 6 つの新しいパフォーマンスカウンターを追加

このリリースでは、Ceph Object Gateway で 6 つのパフォーマンスカウンターが利用できるようになりました。これらのカウンターは、オブジェクトの有効期限とライフサイクルの移行アクティビティーについてレポートします。これは、Ceph Object Gateway ライフサイクルシステムのフォアグラウンドおよびバックグラウンド処理を行います。カウンター lc_abort_mpulc_expire_currentlc_expire_noncurrent、および lc_expire_dm は、オブジェクトの有効期限を見積もることができます。lc_transition_current カウンターおよび lc_transition_noncurrent カウンターは、ライフサイクルトランジションに関する情報を提供します。

ユーザーは、オブジェクトロックを使用して S3 オブジェクトストレージに WORM のような機能を実装

S3 オブジェクトロックは、S3 Object Storage の WORM (write-once-read-many) 機能に対応する主要なメカニズムです。このリリースでは、Red Hat Ceph Storage 5 は Amazon Web Services (AWS) の S3 Object lock Data 管理 API をサポートし、ユーザーは保持期間、法的な保持、バケット設定などのオブジェクトロック概念を使用して、データ削除パーミッションを上書きするカスタムワークフローの一部として WORM のような機能を実装することができるようになりました。

3.6. RADOS

Red Hat Ceph Storage においてイレイジャーコーディング (EC) プールで利用可能な OSD の数を減らして回復

以前は、サイズ k+m のイレイジャーコード (EC) プールには、復元が機能するために少なくとも k+1 のコピーが必要でした。k コピーのみが利用可能な場合は、復元が完了しません。

このリリースでは、Red Hat Ceph Storage クラスターは、EC プールで利用可能な k またはそれ以上のコピーで復元するようになりました。

イレーシャーコード化プールの詳細は、『Red Hat Ceph Storage ストレージストラテジーガイド』「イレーシャーコード化プール」の章を参照してください。

列ファミリーを使用した RocksDB データベースのシャーディングに対応

BlueStore 管理ツールの目標は、読み取りと書き込みの増幅を減らし、圧縮中のDB (データベース) の拡張を減らし、IOPS のパフォーマンスを向上させることです。

このリリースでは、BlueStore 管理ツールを使用してデータベースをリシャード化できるようになりました。RocksDB (DB) データベースのデータは複数の Column Families (CF) に分割されます。各 CF には独自のオプションがあり、omap、オブジェクトデータ、遅延されたキャッシュ書き込み、PGlog などのデータのタイプに応じて分割が実行されます。

シャード化の詳細は、『Red Hat Ceph Storage 管理ガイド』「BlueStore 管理ツールを使用して RocksDB データベースのリシャード化」セクションを参照してください。

Ceph モニター用に mon_allow_pool_size_one 設定オプションを有効にすることが可能

このリリースでは、設定オプション mon_allow_pool_size_one を有効にできるようになりました。有効にすると、ユーザーがプールサイズを 1 に設定する場合は、osd pool set size 1 のフラグ --yes-i-really-mean-it を渡す必要があります。

osd_client_message_cap オプションが追加

以前のリリースでは、osd_client_message_cap オプションは削除されました。このリリースでは、osd_client_message_cap オプションが再導入されました。このオプションは、これらのリクエストをスロットリングして、インフライトクライアント要求の最大数を制御するのに役立ちます。これは、クライアントベースのトラフィックが圧倒的に多いために Ceph OSD がフラップする場合に役立ちます。

Ceph messenger プロトコルが msgr v2.1 に更新

このリリースでは、新しいバージョンの Ceph messenger プロトコル msgr v2.1 が実装され、以前のバージョンである msgr v2.0 に存在する複数のセキュリティー、整合性、および潜在的なパフォーマンスの問題に対応するようになりました。すべての Ceph エンティティー(デーモンとクライアントの両方)は、デフォルトでは msgr v2.1 になりました。

新しいデフォルトの osd_client_message_cap 値は 256です。

以前のリリースでは、osd_client_message_cap のデフォルト値は 0 でした。デフォルト値の 0 は、Ceph OSD のフロー制御機能を無効にし、クライアントトラフィックが多いときにCeph OSDがフラッピングするのを妨げないようにします。

このリリースでは、osd_client_message_cap のデフォルト値 256 が、インフライトクライアントリクエストの最大数を制限することで、フロー制御が改善されました。

set_new_tiebreaker コマンドの追加

今回のリリースにより、ストレージ管理者は、ストレッチモードでストレージクラスターで実行する際に、新しい tiebreak Ceph Monitor を設定できるようになりました。このコマンドは、tiebreaker が失敗して復元できない場合に役に立ちます。

3.7. RADOS ブロックデバイス(RBD)

librbd の小規模 I/O パフォーマンスの向上

以前のリリースでは、NVMe ベースの Ceph クラスターでは、内部スレッドアーキテクチャーには制限があるため、1 つの librbd クライアントが 20K 4KiB IOPS を超えるのに苦労していました。

このリリースでは、librbd は新しい ASI Oベースの neorados API に加えて非同期リアクターモデルに切り替えられ、それによって小規模 I/O スループットが潜在的に数倍に増加し、レイテンシーが減少します。

期限切れの RBD イメージをパージするための組み込みスケジュール

以前のバージョンでは、ストレージ管理者は rbd trash purge コマンドに cron のようなジョブを設定することができました。

このリリースでは、期限切れの RBD イメージをパージするための組み込みスケジュールが利用可能になりました。rbd trash purge schedule add および関連コマンドを使用すると、定義されたスケジュールに基づいて期限切れのイメージを自動的にパージする RBD トレイを設定できます。

詳細は、『Red Hat Ceph Storage ブロックデバイスガイド』「自動トレイパージスケジュールの定義」セクションを参照してください。

新規の ceph-immutable-object-cache デーモンで不変なオブジェクトの読み取りサービス

このリリースでは、新しい ceph-immutable-object-cache デーモンをハイパーバイザーノードにデプロイして、親イメージのスナップショットなどの不変オブジェクトの読み取りを処理できます。新しい parent_cache librbd プラグインは、親イメージからすべての読み取りのデーモンと調整し、必要に応じて結果をキャッシュに追加します。これにより、複数の仮想マシンがゴールドイメージを同時に共有するシナリオのレイテンシーが短縮されます。

詳細は、『Red Hat Ceph Storage ブロックデバイスガイド「'ceph-immutable-object-cache' デーモンの管理」の章を参照してください。

librbd ベースのクライアントでの圧縮性または非圧縮性のヒントの送信のサポート

以前のバージョンでは、データが圧縮可能であるかどうかにかかわらず、基礎となる OSD オブジェクトストアバックエンドにヒントを提供する方法はありませんでした。

このリリースでは、rbd_compression_hint 構成オプションを使用して、データが圧縮可能か非圧縮可能かを、基盤となる OSD オブジェクトストアバックエンドにヒントを与えることができます。これは、イメージごとに、プールごとに実行することも、グローバルで実行することができます。

詳細は、『Red Hat Ceph Storage ブロックデバイスガイド』「ブロックデバイスの入力および出力オプション」セクションを参照してください。

librbd クライアントでのレプリカからの読み取りポリシーのオーバーライドに対応

以前のバージョンは、DC/AZ 間ネットワークトラフィックを制限する方法はありませんでした。クラスターがデータセンターにまたがっている場合、プライマリー OSD は、PG 内の他の OSD と比較して待ち時間とコストが高くなる可能性があります。

このリリースでは、rbd_read_from_replica_policy 設定オプションが使用可能になり、CRUSH マップおよび CRUSH 階層内のクライアントの場所で定義されているように、ランダム OSD または PG 内の最も近い OSD に読み取りを送信するために使用できます。これは、イメージごとに、プールごとに実行することも、グローバルで実行することができます。

詳細は、『Red Hat Ceph Storage ブロックデバイスガイド』「ブロックデバイスの入力および出力オプション」セクションを参照してください。

RBD イメージのオンライン再スパーシング

以前のバージョンではゼロに設定されていても、基盤となる OSD オブジェクトストアに完全に割り当てられているイメージエクステントの領域を再利用することは、非常に面倒でエラーが発生しやすい状態でありました。このリリースでは、新しい rbd sparsify コマンドを使用して、ゼロデータのチャンクについてイメージをスキャンし、基盤となる OSD オブジェクトストア内の対応する範囲の割り当てを解除できるようになりました。

ocf:ceph:rbd クラスターリソースエージェントが namespace に対応

以前のバージョンでは、名前空間内に存在するイメージに ocf:ceph:rbd クラスターリソースエージェントを使用することができませんでした。

このリリースでは、新しい pool_namespace リソースエージェントパラメーターを使用して、名前空間内のイメージを処理できます。

RBD イメージは即座にインポート可能

rbd import コマンドを使用すると、新しいイメージは完全に入力された直後に使用できます。

このリリースでは、イメージのライブマイグレーション機能が拡張されて外部データソースをサポートし、rbd import の代わりに使用できるようになりました。新しいイメージは、ローカルファイル、HTTP(S) 経由で提供されるリモートファイル、もしくは rawqcow、または qcow2 形式のリモートAmazon S3 互換バケットにリンクでき、すぐに使用できるようになります。イメージは、有効な使用時に実行可能なバックグラウンド操作として設定されます。

librbd 内の LUKS 暗号化に対応

librbd の上に QEMU LUKS 暗号化または dm-crypt カーネルモジュールを階層化すると、コピーオンライトクローンイメージがその親イメージと同じ暗号化キーを使用する必要があるという大きな制限があります。このリリースでは、LUKS 暗号化のサポートが librbd 内に組み込まれました。新しい「rbd encryption format」コマンドを使用して、イメージを luks1 または luks2 暗号化フォーマットにフォーマットできるようになりました。

3.8. RBD ミラーニング

RBD イメージのスナップショットベースのミラーリング

ジャーナルベースのミラーリングは、実際のイメージを変更する前に、イメージへのすべての更新が最初に関連付けられたジャーナルに記録される二重書き込みペナルティーを犠牲にして、きめ細かいクラッシュ整合性のあるレプリケーションを提供します。

このリリースでは、ジャーナルベースのミラーリングに加えて、スナップショットベースのミラーリングがサポートされるようになりました。手動または定義されたスケジュールで定期的に作成できるミラースナップショットを使用してイメージがミラーリングされる、大まかなクラッシュ整合性のあるレプリケーションを提供します。これはすべてのクライアントでサポートされており、あまり厳しくない RPO (recovery point objective) が必要です。

3.9. iSCSI ゲートウェイ

ceph status 出力の tcmu-runner セクションを改善

以前のバージョンでは、各 iSCSI LUN が個別にリストされていたため、ceph status の出力が乱雑になっていました。

このリリースでは、ceph status コマンドがレポートを要約し、アクティブなポータルの数とホストの数のみを表示します。

3.10. Ceph Ansible ユーティリティー

cephadm-adopt.yml Playbook が冪等である

このリリースでは、cephadm-adopt.yml Playbook が冪等であり、Playbook は複数回実行できるようになりました。最初の試行で Playbook が失敗する場合は、Playbook を再実行し、想定どおりに機能します。

詳細は、『Red Hat Ceph Storage インストールガイド』「`ceph-ansible` を使用した Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 へのアップグレード」セクションを参照してください。

  1. pg_autoscalerおよびbalancerモジュールがアップグレード中に無効になるようになりました。以前のリリースでは、Red Hat Ceph Storageはアップグレードプロセス中のpg_autoscalerおよびbalancerモジュールの無効化をサポートしていませんでした。これにより、pg_autoscaler は配置グループ番号の調整を続行するため、アップグレードプロセス中は配置グループの確認が失敗する場合があります。

今回のリリースにより、ceph-ansible は Ceph OSD ノードをアップグレードする前に pg_autoscaler および balancer モジュールを無効にし、アップグレードの完了後に再度有効化するようになりました。

Ceph Ansible rolling_update.yml Playbook の改善

以前のリリースでは、Ceph Ansible rolling_update.yml Playbook は、アップグレードプロセス時にコンテナーイメージの Ceph バージョン要件を確認していました。これにより、Playbook がアップグレードプロセスの途中で失敗していました。

今回のリリースにより、コンテナーイメージが Ceph バージョン要件を満たさないと、rolling_update.yml Playbook は早期に失敗するようになりました。

第4章 バグ修正

本セクションでは、Red Hat Ceph Storage の本リリースで修正された、ユーザーに影響するバグを説明します。また、セクションでは、以前のバージョンで見つかった修正された既知の問題を説明します。

4.1. Cephadm ユーティリティー

Red Hat Ceph Storage Dashboard にアクセスするために ceph mgr services によって返される IPv6 アドレスが構文的に修正される

以前のリリースでは、IPv6 を使用して Red Hat Ceph Storage クラスターをデプロイする場合、Ceph Dashboard 用に ceph mgr services によって生成された URL は構文に誤りがあり、ユーザーは Red Hat Ceph Storage Dashboard にアクセスするために IPv6 アドレスを角括弧で囲む必要がありました。今回のリリースにより、ceph mgr services は、IPv6 アドレスを角括弧で適切に囲むようになりました。

(BZ#1975338)

ceph-volume コマンドが OSD およびデバイスをブロックせず、期待どおりに実行

以前は、ceph-volume lvm listceph-volume inventory などの ceph-volume コマンドが完了していなかったため、OSD の作成、デバイスの一覧表示、OSD の一覧表示のために他の ceph-volume コマンドを実行できませんでした。

今回の更新により、これらのコマンドのデフォルト出力は Cephadm ログには追加されないため、cephadm バイナリーによって起動されたコンテナーで実行されたすべての ceph-volume コマンドが完了するようになりました。

(BZ#1948717)

Ceph OSD idクレームを検索すると、ホストの完全修飾ドメイン名がホスト名と一致

以前のバージョンでは、失敗した Ceph OSD を置き換える場合、CRUSH マップの名前はホスト名としてのみ表示され、Ceph OSD ID 要求の検索は代わりに完全修飾ドメイン名(FQDN)を使用していました。その結果、Ceph OSD ID 要求が見つかりませんでした。今回のリリースにより、Ceph OSD ID 要求の検索機能は FQDN とホスト名に正確に一致し、Ceph OSD は予想通りに機能するようになりました。

(BZ#1954503)

ceph orch ls コマンドは、特定のサービスで実行するデーモンの数を正しく表示します。

以前のリリースでは、ceph orch ls --service-type SERVICE_TYPE コマンドは、デーモンを実行しているサービスに対して 0 デーモンを誤って報告し、ユーザーが特定のサービスで実行しているデーモンの数を確認できませんでした。今回のリリースにより、ceph orch ls --service-type SERVICE_TYPE コマンドが、そのサービスで実行しているデーモンの数を正確に表示するようになりました。

(BZ#1964951)

cephadm を使用して Ceph Manager サービスを削除できなくなる

以前は、ユーザーが ceph orch rm mgr コマンドを実行すると、cephadm はストレージクラスター内のすべての Ceph Manager デーモンを削除し、ストレージクラスターにアクセスできなくなりました。

今回のリリースにより、ceph orch rm SERVICE_NAME コマンドを使用して Ceph Manager、Ceph Monitor、または Ceph OSD サービスを削除しようとすると、これらのサービスを安全に削除できないことを示す警告メッセージが表示され、アクションは実行されません。

(BZ#1976820)

node-exporter および alert-manager コンテナーのバージョンが更新されました。

以前のバージョンでは、Red Hat Ceph Storage 5.0 node-exporter および alert-manager コンテナーのバージョンは、バージョン 4.6 が利用可能で、Red Hat Ceph Storage 4.2 で使用されていた場合にバージョン 4.5 にデフォルト設定されていました。

このリリースでは、cephadm コマンドを使用して Red Hat Ceph Storage 5.0 から Red Hat Ceph Storage 5.0z1 にアップグレードすると、node-exporter および alert-manager コンテナーのバージョンがバージョン 4.6 に更新されるようになりました。

(BZ#1996090)

4.2. Ceph ダッシュボード

Red Hat Ceph Storage Dashboard にアクセスするためのセキュアなクッキーベースのセッションの有効化

以前のバージョンでは、LocalStorage に情報を保存すると、Red Hat Ceph Storage ダッシュボードがブラウザーで実行しているすべてのセッションにアクセスでき、ダッシュボードが XSS 攻撃に対して脆弱になりました。このリリースでは、LocalStorage はセキュアな Cookie ベースのセッションに置き換えられ、セッションシークレットは現在のブラウザーインスタンスでのみ利用可能です。

(BZ#1889435)

4.3. Ceph ファイルシステム

ストレージクラスターが満杯になると、データの削除が許可される

以前は、ストレージクラスターが満杯になると、設定ファイルの読み取り中に Ceph Manager がプールパーミッションのチェックでハングしていました。Ceph Metadata Server (MDS)では、Ceph OSD が満杯になると書き込み操作の実行が許可されていなかったため ENOSPACE エラーが発生しました。ストレージクラスターがフル比率に達すると、ユーザーは Ceph Manager ボリュームプラグインを使用して領域を解放するためにデータを削除できませんでした。

今回のリリースで、新しい FULL 機能が導入されました。FULL 機能により、Ceph Manager は Ceph OSD のフルチェックをバイパスします。Client_check_pool_permission オプションはデフォルトで無効にされていますが、以前のリリースでは有効でした。Ceph Manager に FULL 機能がある場合、MDS は Ceph Manager の呼び出しをブロックしなくなりました。これにより、ストレージクラスターが満杯になるとサブボリュームおよびスナップショットを削除することにより、Ceph Manager が領域を解放できるようになります。

(BZ#1910272)

Ceph File System クライアントからの認証要求の処理時に Ceph モニターがクラッシュしなくなる

以前のバージョンでは、クライアントにレガシーファイルシステムを表示するパーミッションがない場合、クライアントからの認証要求を処理する際に Ceph モニターがクラッシュしていました。これにより、Ceph モニターが利用できなくなりました。今回のリリースにより、コードを更新すると、レガシーファイルシステム認証要求の処理が修正され、認証要求が想定どおりに機能するようになりました。

(BZ#1976915)

MGR ログのミリ秒ごとに表示される KeyError が修正される

以前のバージョンでは、KeyError は数ミリ秒ごとに Ceph Manager ログに記録されていました。これは、別のキーを持つ client_metadata[in_progress] ディクショナリーから要素を削除しようとすると、KeyErrorが発生するためです。そのため、ログでの他のスタックトレースを見つけることは容易ではありませんでした。今回のリリースでは、Ceph File System パフォーマンスメトリックのコードロジックおよび Ceph Manager ログの KeyError メッセージが修正されました。

(BZ#1979520)

特定のクローンの状態ではサブボリュームクローンの削除が許可されなくなる

以前は、クローンが COMPLETED または CANCELLED 状態ではない場合に、force オプションを使用してサブボリュームのクローンを削除しようとすると、進行中のクローンを追跡するインデックスからクローンが削除されませんでした。これにより、対応する cloner スレッドがクローンを無限に再試行し、最終的に ENOENT エラーが発生していました。デフォルトの cloner スレッドの数が 4 つに設定された状態で、4 つのクローンを削除しようと試みると、4 つのクローンがすべてブロック状態になり、保留中のクローンが完了しません。

今回のリリースでは、クローンが COMPLETED または CANCELLED 状態のいずれかでない限り、削除されなくなりました。クローンの削除や、継続中のクローンを追跡するインデックスのエントリーが削除されたため、クローンスレッドはブロックされなくなりました。その結果、保留中のクローンは引き続き期待どおりに完了します。

(BZ#1980920)

ceph fs snapshot mirror daemon status コマンドでファイルシステム名が必要なくなる

以前のリリースでは、ユーザーは ceph fs snapshot mirror daemon status コマンドに少なくとも 1 つのファイルシステム名を付与する必要がありました。今回のリリースにより、ユーザーはファイルシステム名をコマンド引数として指定しなくても、デーモンのステータスは各ファイルシステムを個別に表示するようになりました。

(BZ#1988338)

cephfs-mirror デーモンを停止すると、クリーンでないシャットダウンが発生する可能性があります。

以前のバージョンでは、cephfs-mirror のシャットダウンプロセス中に競合状態により、cephfs-mirror プロセスが適切に終了していませんでした。今回のリリースにより、競合状態が解決され、cephfs-mirror デーモンが正常にシャットダウンするようになりました。

(BZ#2002140)

Ceph Metadata Server がメタデータの損傷を誤報告しなくなり、失敗に関する警告がなくなりました。

以前のバージョンでは、Ceph Monitor は作成時に standby-replay デーモンにランクを割り当てていました。この動作により、Ceph Metadata Servers (MDS)に誤ったメタデータの損傷を報告し、失敗に関する警告が表示される可能性があります。今回のリリースにより、Ceph Monitor は作成時に standby-replay デーモンにランクを割り当てなくなり、誤ったメタデータの損傷や失敗警告がなくなりました。

(BZ#2002398)

4.4. Ceph Manager プラグイン

pg_autoscaler モジュールが、失敗した op エラーを報告しない

以前のバージョンは、プールに CRUSH ルール step set_chooseleaf_vary_r 1 がある場合、プールステータスを取得しようとすると、pg-autoscalerモジュールが op の KeyError を報告していました。その結果、Ceph クラスターのヘルスでは、Module ’pg_autoscaler’ has failed: op エラーの HEALTH_ERR が表示されていました。このリリースでは、プールステータスの取得中に CRUSH ルールに対してop を使用したステップのみが繰り返され、pg_autoscaler モジュールは失敗した op エラーを報告しなくなりました。

(BZ#1874866)

4.5. Ceph Object Gateway

S3 ライフサイクル有効期限ヘッダー機能がオブジェクトを期待どおりに識別

以前のバージョンでは、ライフサイクルの有効期限がない一部のオブジェクトは、オブジェクト名と保存されているライフサイクルポリシーを比較する際の機能のロジックのエラーが原因で、GET または HEAD 要求でライフサイクルの有効期限があると誤って識別されていました。今回の更新により、S3 のライフサイクルの有効期限ヘッダー機能が期待どおりに機能し、オブジェクトを正しく特定するようになりました。

(BZ#1786226)

radosgw-admin user list コマンドは、Red Hat Ceph Storage クラスター 4 で実行するのに長い時間がかかりなくなる

以前のリリースでは、Red Hat Ceph Storage クラスター 4 では、rgw_gc_max_objs 設定変数の値により、多くの radosgw-admin コマンドのパフォーマンスが影響を受けます。これは、GC シャードの数を大幅に制御していました。これには、GC には関係のない radosgw-admin コマンドが含まれています。このリリースでは、Red Hat Ceph Storage クラスター 3 から Red Hat Ceph Storage クラスター 4 へのアップグレード後に、radosgw-admin user list コマンドの実行に時間がかかりなくなりました。GC が機能するために必要な radosgw-admin コマンドのパフォーマンスのみが、rgw_gc_max_objs の影響を受けます。

(BZ#1927940)

無効な Amazon リソース名要素を持つポリシーにより権限のエスカレーションが発生しなくなる

以前のバージョンでは、バケットポリシーなどの IAM ポリシードキュメントの無効な Amazon リソース名(ARN)要素で誤った処理により、ポリシーの一部ではないユーザーに意図しないパーミッションが付与された可能性がありました。今回の修正により、これにより無効な ARN 要素でポリシーを保存できないか、保存している場合はポリシーを適切に評価できるようになりました。

(BZ#2007451)

4.6. RADOS

bluestore_cache_trim_max_skip_pinned10000 に設定すると、オブジェクトのメタデータのトリミングが可能になる

最も最近使用された (LRU) キャッシュは、オブジェクトのメタデータに使用されます。キャッシュのトリムは、最近アクセスしたオブジェクトから実行します。固定 (ピン止め) されたオブジェクトは削除が免除されます。つまり、これらは Bluestore で引き続き使用されます。

以前のバージョンでは、設定変数 bluestore_cache_trim_max_skip_pinned が、アクセスされた固定オブジェクトの数を制御していました。これにより、スクラブプロセスにより、オブジェクトが長時間固定されていました。LRU メタデータキャッシュの下部に固定されているオブジェクトの数が bluestore_cache_trim_max_skip_pinned よりも大きくなると、キャッシュのトリミングは完了しませんでした。

このリリースでは、bluestore_cache_trim_max_skip_pinned10000 に設定できるようになりました。これはメタデータキャッシュの数よりも大きくなります。これにより、トリミングが有効になり、メタデータのキャッシュサイズが構成設定に準拠します。

(BZ#1931504)

ストレージクラスターを Red Hat Ceph Storage 4 から 5 にアップグレードすると、HEALTH_WARN 状態で完了する

Red Hat Ceph Storage クラスターを以前のサポートされているバージョンから Red Hat Ceph Storage 5 にアップグレードすると、モニターがセキュアでない global_id の再要求を許可していると記載の HEALTH_WARN 状態のままアップグレードが完了します。これは、CVE のパッチ適用が原因で、詳細は CVE-2021-20288 を確認してください。

ヘルスに関する警告をオフにすることを推奨します。

  1. AUTH_INSECURE_GLOBAL_ID_RECLAIM の警告の ceph ヘルス詳細 の出力を確認して、更新されていないクライアントを特定します。
  2. すべてのクライアントを Red Hat Ceph Storage 5.0 リリースにアップグレードします。
  3. すべてのクライアントが即座にアップグレードされない場合は、正常性アラートを一時的にミュートします。

    構文

    ceph health mute AUTH_INSECURE_GLOBAL_ID_RECLAIM 1w  # 1 week
    ceph health mute AUTH_INSECURE_GLOBAL_ID_RECLAIM_ALLOWED 1w  # 1 week

  4. すべてのクライアントが更新され、AUTH_INSECURE_GLOBAL_ID_RECLAIM 警告がクライアントに表示されなくなったことを確認してから、auth_allow_insecure_global_id_reclaimfalse に設定します。

    構文

    ceph config set mon auth_allow_insecure_global_id_reclaim false

  5. AUTH_INSECURE_GLOBAL_ID_RECLAIM の警告が表示されているクライアントがないことを確認してください。

(BZ#1953494)

RocksDB のフラッシュと圧縮のトリガー条件が期待どおりに機能する

BlueStore は、デフォルトで 64K というデータを Blob と呼ばれるチャンクに編成します。書き込みが大きい場合は、64K blob の書き込みシーケンスに分割されます。

以前は、遅延サイズが blob サイズ以上の場合は、すべてのデータが遅延になり、「L」列ファミリーの下に置かれていました。通常、HDD 設定の場合は、値が bluestore_prefer_deferred_size_hdd パラメーターおよび bluestore_max_blob_size_hdd パラメーターの両方で 64K になります。これにより、「L」のコラムがより迅速に消費され、RocksDB フラッシュ数と圧縮が頻繁に行われるようになります。このシナリオのトリガー状態は、data size in blobminimum deferred size でした。

このリリースでは、遅延トリガー条件は、ディスク上のエクステントのサイズをチェックし、Blob はチェックしません。deferred_size よりも小さいエクステントは、遅延メカニズムに送られ、大きいエクステントはすぐにディスクに書き込まれます。トリガー条件は、data size in extent < minimum deferred size に変更されています。

小さな書き込みは「L」列の下に置かれ、この列の成長は遅く、余分な圧縮はありません。

bluestore_prefer_deferred_size パラメーターは、Blob サイズに干渉なしの遅延を制御します。「このサイズよりも小さい書き込み」の説明に従って機能します。

(BZ#1991677)

pg_num および pgp_num が大幅に増加しても、Ceph Managerがクラッシュしなくなる

以前のリリースでは、配置グループを調整するコードは pg_num パラメーターおよび pgp_num パラメーターへの大規模な増加を正しく処理せず、Ceph Manager がクラッシュする可能性のある整数のアンダーフローが発生していました。

今回のリリースにより、配置グループを調整するコードが修正されました。その結果、配置グループを大幅に増やしても、Ceph Managerがクラッシュすることはありません。

(BZ#2001152)

4.7. RADOS ブロックデバイス(RBD)

librbd コードがCEPH_OSD_FLAG_FULL_TRY フラグを受け入れる

以前のリリースでは、rados_set_pool_full_try() API 関数で CEPH_OSD_FLAG_FULL_TRY を設定できました。Red Hat Ceph Storage 5 では、librbd はこのフラグを受け入れなくなりました。これにより、CEPH_OSD_FLAG_FULL_TRY が設定されていても、プールが満杯になったり、クォータの上限に達した場合に、書き込み操作がスペースを保留していました。

このリリースでは、librbdCEPH_OSD_FLAG_FULL_TRY フラグを受け入れ、プールが満杯になったり、クォータに到達すると、ENOSPC メッセージまたは EDQUOT メッセージで書き込み操作が成功または失敗するようになりました。RADOS Block Device (RBD)イメージを full または at-quota プールから削除する機能は復元されます。

(BZ#1969301)

4.8. RBD ミラーニング

rbd mirror pool peer bootstrap import コマンドの改善

以前のバージョンでは、rbd mirror pool peer bootstrap import コマンドを実行すると、キーリングが必要ない場合に、librados が、欠落しているキーリングファイルに関するエラーをログに記録していました。キーリングがないためにコマンドが失敗したように見えるため、サイト管理者を混乱させる可能性があります。今回のリリースにより、librados は、ブートストラップトークンにキーが含まれる場合に、リモートストレージクラスターのキーリングが不要になった場合にエラーをログに記録しなくなりました。

(BZ#1981186)

4.9. iSCSI ゲートウェイ

tcmu-runner プロセスが正常に終了するようになる

以前のバージョンでは、tcmu-runner プロセスが失敗したパスを誤って処理し、初期化されていない g_object メモリーのリリースが生じました。これにより、tcmu-runner プロセスが予期せず終了する可能性があります。ソースコードが変更され、初期化されていない g_object メモリーの解放を省略し、tcmu-runner プロセスが正常に終了するようになりました。

(BZ#2007683)

RADOS Block Device ハンドラーは設定文字列を正しく解析する

以前のバージョンでは、RADOS Block Device (RBD)ハンドラーは、設定文字列の解析中に strtok() 関数を使用していましたが、スレッドセーフではありません。これにより、イメージの作成または再開時のイメージ名の設定文字列が誤って解析されました。これにより、イメージを開くことができませんでした。今回のリリースにより、RBD ハンドラーはスレッドセーフの strtok_r() 関数を使用し、設定文字列を正しく解析できるようになりました。

(BZ#2007687)

4.10. Ceph Ansible ユーティリティー

cephadm-adopt Playbook が、新しい nfs-ganesha プールの作成時にプール上でプールアプリケーションを有効にするようになりました。

以前のバージョンでは、cephadm-adopt Playbook が新しい nfs-ganesha プールを作成すると、プールでプールアプリケーションを有効にしませんでした。これにより、1 つのプールにプールアプリケーションが有効でないという警告が表示されます。今回の更新で、cephadm-adopt Playbook は作成されたプールにプールアプリケーションを設定し、採用がなくなった後に警告が設定されます。

(BZ#1956840)

cephadm-adopt Playbook がマルチサイト設定のデフォルトレルムを作成しない

以前のバージョンでは、cephadm-adopt Playbook には、マルチサイト設定が存在しない場合でも、採用プロセス時にデフォルトのレルムを作成することが必要でした。

このリリースでは、マルチサイト設定をデプロイしていない場合に、cephadm-adopt Playbook はデフォルトのレルムの作成を強制しないようになりました。

(BZ#1988404)

Ceph Ansible cephadm-adopt.yml Playbook は、ホストの完全修飾ドメイン名を使用してノードを追加できます。

以前のバージョンでは、Ceph Ansible cephadm-adopt.yml Playbook を使用して cephadm のノードを追加するタスクは短縮ホスト名を使用し、ノードの現在の完全修飾ドメイン名(FQDN)と一致しませんでした。その結果、FQDN ホスト名に一致するものがないため、採用された Playbook が失敗しました。

今回のリリースにより、Playbook は、ansble_hostname ファクトの代わりに ansible_nodename ファクトを使用し、採用された Playbook が FQDN で設定されたノードを追加できるようになりました。

(BZ#1997083)

Ceph Ansible cephadm-adopt Playbook がコンテナーを正常にプルするようになる

以前のバージョンでは、Ceph Ansible cephadm-adopt Playbook は、採用されているストレージクラスターのコンテナーレジストリーにログインしませんでした。今回のリリースにより、Ceph Ansible cephadm-adopt Playbook のログをコンテナーレジストリーにログインし、コンテナーイメージを予想通りにプルできるようになりました。

(BZ#2000103)

第5章 テクノロジープレビュー

本セクションでは、Red Hat Ceph Storage の本リリースで導入または更新されたテクノロジープレビュー機能の概要を説明します。

重要

テクノロジープレビュー機能は、Red Hat の実稼働環境でのサービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。

Red Hat のテクノロジープレビュー機能のサポートについての詳細は、以下のリンクを参照してください。

  • バケットをより細かなマルチサイトレプリケーション [テクノロジープレビュー]

    以前のバージョンでは、ゾーングループ内のすべてのバケットは、同じデータを含むミラーコピーでした。マルチサイトデータフローは、ゾーン内またはゾーンの間に発生しました。このリリースでは、バケットが細かいマルチサイトレプリケーションを使用して、バケットレベルでデータのフローおよびレプリケーションを制御できるようになりました。ゾーン内のバケットには異なるデータが含まれる可能性があり、他のゾーンの他のバケットからデータをプルすることができます。

  • S3 オブジェクトでデータを取得する際に、コンマ区切りの値 (CSV) ファイルでクエリーでコンテンツをフィルターする方法を文書化 [テクノロジープレビュー]

    S3 Select Object Content API がテクノロジープレビューとして利用可能になりました。この API は、構造化されたクエリー言語 (SQL) で S3 オブジェクトの内容にフィルターを設定します。リクエストでは、S3 オブジェクトのコンマ区切りの値 (CSV) であるデータのシリアライズ形式を指定して、指定のコンテンツを取得する必要があります。AWS CLI Select Object Content は CSV 形式を使用してオブジェクトデータをレコードに解析し、クエリーで指定されたレコードのみを返します。

5.1. Ceph Object Gateway

マルチサイトレプリケーション設定の Ceph オブジェクトゲートウェイが AWS バケットレプリケーション API 機能のサブセットに対応

このリリースでは、Ceph Object Gateway は、{Put, Get, Delete} レプリケーション操作を含む AWS バケットレプリケーション API 機能のサブセットをサポートするようになりました。この機能により、バケットの粒度のレプリケーションが可能になり、さらにエンドユーザーのレプリケーション制御が提供されます。現在、バケットは既存の CephObject Gateway マルチサイトレプリケーションセットアップのゾーン内でレプリケートできます。

KMIP プロトコルキー管理サーバーのテクノロジープレビュー機能のサポート

このリリースでは、IBM SKLM などの KMIP プロトコルキー管理サーバーでテクノロジープレビューサポートを利用できるため、Ceph オブジェクトゲートウェイの管理暗号化機能で使用される一般的なキー管理ソフトウェアの範囲が広がります。

5.2. RADOS ブロックデバイス(RBD)

レイテンシーを低減する librbd PMEM ベースの永続ライトバックキャッシュ

このリリースでは、新しい pwl_cache librbd プラグインが、PMEM デバイスを対象とするログ構造化されたライトバックキャッシュを提供するようになり、レイテンシーが短縮されます。イメージの更新はバッチ処理され、順番にフラッシュされ、実際のイメージはクラッシュの一貫性のある状態に保たれます。PMEM デバイスが失われた場合、イメージは古くなっている場合でもイメージにアクセスできます。

rbd-nbd デバイスのスナップショット静止フックのサポート

このリリースでは、librbd API は、調整されたスナップショットの作成を可能にする静止フックと静止解除フックを提供するようになりました。rbd-nbd デーモンは、必要に応じてマップされたデバイスにマウントされているファイルシステムをフリーズし、ファイルシステムの整合性スナップショットを作成します。この動作は、rbd-nbd_quiesce シェルスクリプトを編集するか、またはカスタム実行可能ファイルに置き換えることでカスタマイズできます。

第6章 既知の問題

本セクションでは、Red Hat Ceph Storage の今回リリースされた既知の問題を説明します。

6.1. Cephadm ユーティリティー

Red Hat Ceph Storage のアップグレード後の NFS-RGW の問題

RGW-NFS を使用しているお客様は、Red Hat Ceph Storage 5.1 までアップグレードを行うことが推奨されます。

(BZ#1842808)

ceph orch host rm コマンドが、Red Hat Ceph Storage クラスターのホストの Ceph デーモンを削除しない

ceph orch host rm コマンドは出力を提供しません。これは、データの損失につながる Ceph デーモンの偶発的な削除を回避するために期待される動作です。

この問題を回避するには、Ceph デーモンを手動で削除する必要があります。Red Hat Ceph Storage クラスターのホストの削除については、『Red Hat Ceph Storage オペレーションガイド』「Ceph Orchestrator を使用したホストの削除」セクションのステップを参照してください。

(BZ#1886120)

Ceph モニターが、Red Hat Ceph Storage クラスターから削除した後でも迷子のデーモンとして報告される

Cephadm は、ストレージクラスターから削除されている場合でも、Ceph モニターが迷子のデーモンとして報告します。

この問題を回避するには、ceph mgr fail コマンドを実行します。これにより、マネージャーが再起動し、エラーをクリアできます。スタンバイマネージャーがない場合は、ceph mgr fail コマンドを実行すると、クラスターが一時的に応答しなくなります。

(BZ#1945272)

モニターが _admin ラベルなしでノードに移動すると、Cephadm シェルへのアクセスが失われる

ブートストラップ後、_admin ラベルがない場合にモニターが他のノードに移動すると、Cephadm シェルへのアクセスが失われます。この問題を回避するには、移行先ホストに _admin ラベルがあることを確認します。

(BZ#1947497)

Cephadm を使用した Red Hat Ceph Storage のアップグレードは、スタンバイ MDS デーモンがない場合に停止する

既存の MDS サービスと共に Red Hat Ceph Storage をアップグレードし、アクティブなスタンバイデーモンがない状態で、プロセスは停止します。

この問題を回避するには、Cephadm 経由でアップグレードする前に少なくとも 1 つのスタンバイ MDS デーモンがあることを確認します。

ceph fs status FILE_SYSTEM_NAME を実行します。

スタンバイデーモンがない場合は、MDS デーモンを追加してからストレージクラスターをアップグレードします。スタンバイデーモンが存在する場合に、アップグレードは期待どおりに機能します。

(BZ#1959354)

ceph orch ls コマンドが、Red Hat Ceph Storage クラスターで作成可能な正しい OSD 数を一覧表示しない

コマンド ceph orch ls は、以下の出力を表示します。

# ceph orch ls

osd.all-available-devices    12/16  4m ago     4h   *

上記の出力によると、4 つの OSD が開始されていませんが、これは正しくありません。

この問題を回避するには、ceph -s コマンドを実行して、すべての OSD が Red Hat Ceph Storage クラスターで稼働しているかどうかを確認します。

(BZ#1959508)

ceph orch osd rm help コマンドでパラメーターの説明に誤りがある

ceph orch osd rm help コマンドは、ceph orch osd rm OSD_ID…​ [--replace] [--force] ではなくceph orch osd rm SVC_ID …​ [--replace] [--force] パラメーターを提供します。これにより、OSD を削除するときに SVC_ID を指定するようにユーザーに求めます。

この問題を回避するには、OSD ID OSD_ID パラメーターを使用して、Red Hat Ceph Storage クラスターの OSD を削除します。

(BZ#1966608)

設定パラメーター osd_memory_target_autotune を有効にすることが可能

このリリースでは、osd_memory_target_autotune がデフォルトで無効になりました。以下のコマンドを実行すると、OSD メモリーの自動チューニングを有効にすることができます。

ceph config set osd osd_memory_target_autotune true

(BZ#1939354)

6.2. Ceph ダッシュボード

Red Hat Ceph Storage Dashboard のストレージクラスターからホストを削除する前に、ホストからサービスを削除する

サービスを削除する前に Red Hat Ceph Storage Dashboard 上のホストを削除すると、ホストが古い、停止状態、またはゴースト状態になります。

この問題を回避するには、ホストで実行しているすべてのサービスを手動で削除してから、Red Hat Ceph Storage Dashboard を使用してストレージクラスターからホストを削除します。サービスを削除せずにホストを削除する場合は、ホストを再度追加するには、コマンドラインインターフェースを使用する必要があります。サービスを削除せずにホストを削除する場合は、コマンドラインインターフェースを使用してホストを再度追加する必要があります。

(BZ#1889976)

ユーザーは、Red Hat Ceph Storage Dashboard でサブボリュームのスナップショットを作成することができない

このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard 上のサブボリュームのスナップショットを作成できなくなりました。ユーザーがダッシュボードでサブボリュームのスナップショットを作成すると、ユーザーはより詳細なエラーメッセージではなく 500 エラーを取得します。

(BZ#1950644)

Red Hat Ceph Storage Dashboard は、デフォルトの CRUSH ルートの子の OSD だけを表示する

Red Hat Ceph Storage Dashboard は、データセンター、ゾーン、ラックなどの他の CRUSH タイプを無視するデフォルトの CRUSH ルートの子を考慮します。その結果、ダッシュボードの CRUSH マップビューアーは、デフォルトの CRUSH ルートの一部ではない OSD を表示しません。

Ceph ダッシュボードのストレージクラスターの OSD のツリービューは、ceph osd tree の出力のようになります。

(BZ#1953903)

ユーザーは、chrome 拡張機能またはプラグインを使用して Red Hat Ceph Storage Dashboard にログインできない

ブラウザーに使用されているプラグインの Chrome 拡張機能がある場合は、Red Hat Ceph Storage Dashboard にログインすることはできません。

この問題を回避するには、使用中の特定のドメイン名の Cookie を消去するか、Incognito モードを使用して Red Hat Ceph Storage Dashboard にアクセスします。

(BZ#1913580)

Red Hat Ceph Storage Dashboard のグラフが表示されない

grafana サーバーの証明書がクライアントマシンで信頼されていないため、Red Hat Ceph Storage Dashboard のグラフは表示されません。

この問題を回避するには、クライアントのインターネットブラウザーで Grafana URL を直接開き、セキュリティー例外を受け入れ、Ceph ダッシュボードのグラフを確認します。

(BZ#1921092)

Red Hat Ceph Storage クラスターで NFS-Ganesha エクスポートを管理するための互換性のないアプローチ

現時点で、Ceph クラスターで NFS-Ganesha エクスポートを管理するには、2 つの異なるアプローチがあります。1 つは Dashboard を使用し、もう 1 つはコマンドラインインターフェースを使用していることです。エクスポートが 1 つの方法で作成される場合、ユーザーは他の方法でエクスポートを管理できない可能性があります。

この問題を回避するには、Red Hat は、NFS のデプロイと管理を行う 1 つの方法に従うことを推奨します。これにより、変更できない NFS エクスポートの重複や管理を回避します。

(BZ#1939480)

ダッシュボード関連の URL および Grafana API URL には短いホスト名でアクセスできない

この問題を回避するには、Red Hat Ceph Storage ダッシュボードの Cluster ドロップダウンメニューで Manager モジュールをクリックします。設定を短縮ホスト名 URL から FQDN URL に変更します。ceph mgr module disable dashboard コマンドを使用してダッシュボードを無効にし、ceph mgr module enable dashboard コマンドを使用して dashboard モジュールを再度有効にします。

ダッシュボードは、Grafana API URL および他のダッシュボード URL にアクセスできるはずです。

(BZ#1964323)

HA-Proxy-RGW サービス管理は Red Hat Ceph Storage Dashboard ではサポートされない

Red Hat Ceph Storage Dashboard は、Ceph Object Gateway の HA プロキシーサービスをサポートしません。

回避策として、HA proxy-RGW サービスは Cephadm CLI を使用して管理できます。Red Hat Ceph Storage ダッシュボードでのみサービスを表示できます。

(BZ#1968397)

Red Hat では、Red Hat Ceph Storage Dashboard 上のバックエンドで Ceph File システムでの NFS エクスポートがサポートされない

Red Hat では、Red Hat Ceph Storage Dashboard 上の Ceph File System (CephFS) での NFS エクスポートの管理はサポートしません。現在、バックエンドの Ceph オブジェクトゲートウェイの NFS エクスポートがサポートされています。

(BZ#1974599)

6.3. Ceph ファイルシステム

バックトレースが CephFS scrub 操作で予想通りに機能するようになる

以前のバージョンでは、バックトレースは安定したストレージに書き込まれていませんでした。スクラブアクティビティーは、バックトレースが新規および同期されていないエントリーのインメモリーコピーに一致しないと失敗を報告していました。バックトレースをディスクに保存する必要がなかったため、永続的にパージされようとしていた迷子のエントリーでも、バックトレースの不一致が発生しました。進行中のメタデータ I/O が原因で、生の統計のアカウンティングが瞬時に行われないため、大量のメタデータ I/O があった場合、生の統計が一致しないことが発生した可能性があります。

この問題を回避するには、システムがアイドル状態の場合に scrub を再実行し、インメモリー状態をディスクにフラッシュするのに十分な時間がありました。その結果、メタデータがディスクにフラッシュされると、これらのエラーは解決されます。ディスク上にバックトレースが見つからず、ファイルが新しく、エントリーが迷子になっていてパージされようとしている場合は、バックトレースの検証が成功します。

詳細は、「Ceph status shows HEALTH_ERR with MDSs report damaged metadata」を参照してください。

(BZ#1794781)

NFS マウントが複数のエクスポートでアクセス可能になる

以前のバージョンでは、複数の CephFS エクスポートが作成されると、エクスポートへの読み取り/書き込みがハングしていました。その結果、NFS マウントはアクセスできませんでした。この問題を回避するために、Ganesha バージョン 3.3-2 以前で単一のエクスポートがサポートされています。今回のリリースでは、Ganesha バージョン 3.3-3 以降が使用されている場合に、複数の CephFS エクスポートがサポートされるようになりました。

(BZ#1909949)

cephfs-top ユーティリティーは誤ったマウントと不足しているメトリックスを表示

cephfs-top ユーティリティーは、現在 Red Hat Enterprise Linux 8 に同梱されるカーネルよりも新しいカーネルを想定しています。cephfs-top ユーティリティーには、パフォーマンス統計パッチセットがすべて必要になります。現在、この既知の問題の回避策はありません。

(BZ#1946516)

6.4. Ceph Object Gateway

バージョン管理されたバケットの LC ポリシーが、リシャード間で失敗する

現在、バージョン管理されたバケットでバージョン管理を一時停止して有効にした後、LC ポリシーが機能せず、その間にリシャードがあります。

(BZ#1962575)

radosgw-admin user stats コマンドは、size_utilized フィールドおよび size_kb_utilized フィールドの誤った値を表示する

Red Hat Ceph Storage クラスターにバケットを追加した後に radosgw-admin user stats コマンドを実行すると、出力には size_utilized フィールドおよび size_kb_utilized フィールドに誤った値が表示されます。これらは常にゼロとして表示されます。

この問題に対する回避策はありません。ユーザーはこれらの値を無視できます。

(BZ#1986160)

6.5. マルチサイト Ceph Object Gateway

🚧 [5.0][rgw-multisite][Scale-testing][LC]: プライマリから1650万個のオブジェクトをLCで削除しても、セカンダリからはそれぞれの数のオブジェクトが削除されない。|

TODO https://bugzilla.redhat.com/show_bug.cgi?id=1976874

🚧 [rgw-multisite][swift-cosbench]: オブジェクトの上書き時にインデックスのサイズが確実に更新されず、プライマリとセカンダリの統計値が曖昧になることがある。|

TODO https://bugzilla.redhat.com/show_bug.cgi?id=1986826

6.6. iSCSI ゲートウェイ

原因: ターゲットごとに最大 LUNS を作成できず、127 番目の LUNS の作成後にコンテナーがクラッシュします。

結果: ターゲットごとに最大 LUNS の作成に進むことができません。

回避策(存在する場合):

結果:

(BZ#1976128)

6.7. Ceph Ansible ユーティリティー

Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 へのアップグレード後に rbd-mirroring が想定どおりに動作しない

Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 へのストレージクラスターの移行後に、cephadm-adopt Playbook で rbd-mirroring を起動しません。

この問題を回避するには、ピアを手動で追加します。

構文

rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME

[ceph: root@host01 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b

詳細は、『Red Hat Ceph Storage ブロックデバイスガイド』の「ストレージクラスターのピアの追加」セクションを参照してください。

(BZ#1967440)

6.8. ドキュメントに関する既知の問題

  • Red Hat Ceph Storage Dashboard で Ceph ファイルシステムのスナップショットを管理するユーザー向けドキュメント

    この機能の詳細は、『Red Hat Ceph Storage Dashboard ガイド』の次のバージョンに含まれています。

  • Red Hat Ceph Storage Dashboard でホストを管理するドキュメント

    この機能の詳細は、『Red Hat Ceph Storage Dashboard ガイド』の次のバージョンに含まれています。

  • ユーザーが RBD イメージを即時にインポートするためのドキュメント

    rbd import コマンドの詳細は、次のバージョンの『Red Hat Ceph Storage ブロックデバイスガイド』に含まれています。

第7章 非推奨の機能

本セクションでは、Red Hat Ceph Storage の本リリースまでのマイナーリリースで非推奨となった機能の概要を説明します。

Ceph 設定ファイルが非推奨に

Ceph 設定ファイル(ceph.conf)は非推奨となり、Ceph Monitor に保存されている新しい集中設定が優先されます。詳細は、Red Hat Ceph Storage Configuration GuideThe Ceph configuration databaseセクションを参照してください。

Ceph File System (CephFS) の min_compat_client パラメーターが非推奨に

Red Hat Ceph Storage 5.0 では min_compat_client パラメーターは非推奨となり、Ceph File Systems (CephFS) の設定用に新規クライアント機能が追加されます。詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「クライアント機能」セクションを参照してください。

Ceph File System サブボリュームグループのスナップショットが非推奨に

Ceph File System (CephFS) サブボリュームグループのスナップショット機能は、Red Hat Ceph Storage 5.0 では非推奨になりました。既存のスナップショットは、必要に応じて一覧表示および削除できます。詳細は、『Red Hat Ceph Storage Ceph ファイルシステムガイド』「ファイルシステムサブボリュームグループのスナップショットの一覧表示」セクションおよび「ファイルシステムサブボリュームグループのスナップショットの削除」セクションを参照してください。

Cockpit Ceph インストーラーが非推奨に

Cockpit Ceph Installer を使用した Red Hat Ceph Storage クラスター 5 のインストールはサポートされていません。Cephadm を使用して Red Hat Ceph Storage クラスターをインストールします。詳細は、『Red Hat Ceph Storage インストールガイド』を参照してください。

第8章 ソース

更新された Red Hat Ceph Storage ソースコードパッケージは、以下の場所から入手できます。