リリースノート
Red Hat Ceph Storage 5.0z4 のリリースノート
概要
多様性を受け入れるオープンソースの強化
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。
Red Hat Ceph Storage ドキュメントへのフィードバック (英語のみ)
Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があればお知らせください。これを行うには、Bugzilla のチケットを作成します。
+ .Bugzilla の Web サイトに移動します。Component ドロップダウンメニューで、Documentation を選択します。Sub-Component ドロップダウンで、適切なサブコンポーネントを選択します。ドキュメントの適切なバージョンを選択します。Summary および Description フィールドに、ドキュメントの改善に関するご意見を記入してください。ドキュメントの該当部分へのリンクも追加してください。オプション: 添付ファイルを追加します (ある場合)。Submit Bug をクリックします。
第1章 概要
Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。
Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/ja-jp/red_hat_ceph_storage/5 から入手できます。
第2章 謝辞
Red Hat Ceph Storage バージョン 5.0 には、Red Hat Ceph Storage チームの数多くの貢献が反映されています。さらに Ceph プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の度合いが質と量の両面で大幅に拡大しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、および以下の組織を含むすべての方々の貢献に謝意を表します。
- Intel®
- Fujitsu ®
- UnitedStack
- Yahoo ™
- Ubuntu Kylin
- Mellanox ®
- CERN ™
- Deutsche Telekom
- Mirantis ®
- SanDisk ™
- SUSE Linux® Enterprise Server (SLES)
第3章 新機能
本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。
本リリースで追加された主な機能は以下のとおりです。
コンテナー化されたクラスター
Red Hat Ceph Storage 5 は、コンテナー化されたデーモンのみをサポートします。コンテナーされていないストレージクラスターはサポートされません。コンテナー化されていないストレージクラスターを Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 にアップグレードする場合、アップグレードプロセスには、コンテナー化されたデプロイメントへの変換が含まれます。
詳細は、Red Hat Ceph Storage Installation Guideの Upgrading a Red Hat Ceph Storage cluster from RHCS 4 to RHCS 5 セクションを参照してください。
Cephadm
Cephadm は、manager デーモンからホストに接続して Red Hat Ceph Storage 5.0 クラスターをデプロイし、管理する新しいコンテナー化されたデプロイメントツールです。
cephadm
ユーティリティーは、Red Hat Ceph Storage デプロイメントのceph-ansible
に代わるものです。Cephadm の目的は、Red Hat Ceph Storage をための、フル機能を備え、堅牢で、適切にインストールされた管理レイヤーを提供することです。cephadm
コマンドは、Red Hat Ceph Storage クラスターの完全なライフサイクルを管理します。Red Hat Ceph Storage 5.0 以降、
ceph-ansible
はサポートされなくなり、製品と互換性がなくなりました。Red Hat Ceph Storage 5.0 に移行したら、cephadm
およびcephadm-ansible
を使用して更新を実行する必要があります。cephadm
コマンドは、以下の操作を行うことができます。- 新しい Ceph Storage クラスターをブートストラップします。
- Ceph コマンドラインインターフェイス (CLI) と連携するコンテナー化されたシェルを起動します。
コンテナー化されたデーモンのデバッグを支援します。
cephadm
コマンドはssh
を使用してストレージクラスターのノードと通信し、Ceph デーモンコンテナーを追加、削除、または更新します。これにより、外部ツールを使用せずに Red Hat Ceph Storage コンテナーを追加、削除、または更新できます。cephadm
コマンドには、2 つの主要コンポーネントがあります。-
cephadm
シェルは、コンテナー内のbash
シェルを起動します。これにより、ストレージクラスターのインストールと設定タスクを実行し、コンテナーでceph
コマンドを実行できます。 cephadm
オーケストレーターコマンドにより、Ceph デーモンおよびサービスをプロビジョニングし、ストレージクラスターを拡張できます。詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
管理 API
管理 API は、Red Hat Ceph Storage 5.0 に適用される管理スクリプトを作成し、バージョンのライフサイクルには変更されない動作を維持します。互換性のないバージョンの API は、メジャーリリースの行ごとにのみ発生します。
詳細は、Red Hat Ceph Storage 開発者ガイド を参照してください。
Red Hat Ceph Storage の非接続インストール
Red Hat Ceph Storage 5.0 は、プライベートネットワークでのストレージクラスターの非接続インストールおよびブートストラップをサポートします。非接続インストールでは、ネットワークからファイルをダウンロードするのではなく、カスタムイメージ、設定ファイル、およびローカルホストが使用されます。
Red Hat レジストリーにアクセスできるプロキシーホストからダウンロードしたコンテナーイメージをインストールするか、ローカルレジストリーにコンテナーイメージをコピーします。ブートストラッププロセスでは、名前および IP アドレスで追加されるホストを識別する仕様ファイルが必要です。初回のモニターホストがブートストラップされたら、Ceph Orchestrator コマンドを使用してストレージクラスターを拡張し、設定できます。
詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
Ceph File System のジオレプリケーション
Red Hat Ceph Storage 5 リリース以降、Ceph File Systems (CephFS) は、地理的な場所または異なるサイト間で複製することができます。新しい
cephfs-mirror
デーモンは、スナップショットのリモートの CephFS への非同期レプリケーションを実行します。詳細は、Red Hat Ceph Storage ファイルシステムガイドの Ceph File System ミラー セクションを参照してください。
新しい Ceph File System クライアントパフォーマンスツール
Red Hat Ceph Storage 5 リリース以降、Ceph ファイルシステム (CephFS) は、Ceph ファイルシステムのメトリックをリアルタイムで表示するための
top
のようなユーティリティーを提供します。cephfs-top
ユーティリティーは、Ceph Manager のstats
モジュールを使用してクライアントパフォーマンスメトリックを取得して表示するcurses
ベースの Python スクリプトです。詳細は、Red Hat Ceph Storage ファイルシステムガイドの
cephfs-top
ユーティリティーの使用 セクションを参照してください。Red Hat Ceph Storage Dashboard を使用した Ceph オブジェクトゲートウェイのマルチサイトの監視
Red Hat Ceph Storage ダッシュボードを使用して、Ceph オブジェクトゲートウェイのマルチサイト設定をモニタリングできるようになりました。
cephadm
ユーティリティーを使用してマルチゾーンが設定されたら、あるゾーンのバケットが他のゾーンおよびその他のサイトに表示されます。ダッシュボードでバケットを作成、編集、削除することも可能です。詳細は、Red Hat Ceph Storage Dashboard ガイドの Ceph ダッシュボードのマルチサイトオブジェクト設定のバケットの管理 の章を参照してください。
BlueStore スペースの使用状況を向上
Ceph Object Gateway および Ceph ファイルシステム (CephFS) は、小規模なオブジェクトおよびファイルを RADOS に個別のオブジェクトとして格納します。このリリースでは、SSD の場合は BlueStore の
min_alloc_size
のデフォルト値が、4 KB になりました。これにより、パフォーマンスに影響を及ぼさずに領域の使用が改善されます。詳細は、Red Hat Ceph Storage 管理ガイドの OSD BlueStore の章を参照してください。
3.1. Cephadm ユーティリティー
Red Hat Ceph Storage が Ceph OSD メモリーターゲットを自動的にチューニングできるようになりました。
このリリースでは、osd_memory_target_autotune
オプションが修正され、期待どおりに機能するようになりました。ユーザーは、Red Hat Ceph Storage を有効にして、Ceph OSD のメモリーターゲットを明示的に設定しなくても、ストレージクラスター内の Ceph OSD の Ceph OSD メモリーターゲットを自動的に調整してパフォーマンスを向上させることができます。Red Hat Ceph Storage は、利用可能な合計メモリーとノードで実行しているデーモンを評価することで、Ceph OSD メモリーターゲットをノードごとに設定します。
以下のコマンドを実行すると、Ceph OSD のメモリー自動チューニング機能を有効にできます。
ceph config set osd osd_memory_target_autotune true
3.2. Ceph Dashboard
Ceph Object Gateway のマルチサイト設定のグラフを表示する新しい Grafana Dashboard
このリリースでは、新しい Grafana ダッシュボードが利用可能になり、Ceph Object Gateway マルチサイト同期パフォーマンスのグラフ (双方向レプリケーションのスループット、ポーリングレイテンシー、レプリケーションの失敗など) が表示されるようになりました。
詳細は、Red Hat Ceph Storage Dashboard ガイドの ダッシュボードでの Ceph オブジェクトゲートウェイデーモンの監視 セクションを参照してください。
Prometheus Alertmanager ルールは、Red Hat Ceph Storage Dashboard で異なる MTU 設定に関するアラートをトリガーする
以前は、ネットワークの問題のよく知られた原因である MTU 設定の不一致は、コマンドラインインターフェイスを使用して識別および管理する必要がありました。このリリースでは、ノードまたはその少数のノードの MTU 設定が大多数のノードと異なる場合、Red Hat Ceph Storage ダッシュボードでアラートがトリガーされます。ユーザーはアラートをミュートするか、MTU の不一致の設定を修正できます。
詳細は、Red Hat Ceph Storage Dashboard ガイドの Ceph ダッシュボードの警告の管理 セクションを参照してください。
Red Hat Ceph Storage Dashboard でのユーザーおよびロールの管理
このリリースでは、ユーザーとロールの管理が利用できるようになりました。管理者は、ユーザーが Ceph クラスターで OSD を作成し、更新、リスト表示し、削除できるように、細かいロールベースアクセス制御 (RBAC) ポリシーを定義できます。
詳細は、Red Hat Ceph Storage Dashboard ガイドの Ceph ダッシュボード上のロールの管理 を参照してください。
Red Hat Ceph Storage Dashboard が RBD v1 イメージに対応
以前のリリースでは、Red Hat Ceph Storage Dashboard には RBD v2 形式のイメージのみが表示され、サポートされていました。
このリリースでは、RBD_FORCE_ALLOW_V1
を 1
に設定することにより、ユーザーは v1 RBD イメージを管理し、これを v2 RBD イメージに移行できるようになりました。
詳細は、Red Hat Ceph Storage Dashboard ガイドの Ceph Dashboard を使用したブロックデバイスの管理 セクションを参照してください。
ユーザーは、Red Hat Ceph Storage Dashboard で障害のある OSD を置き換え可能
このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard で OSD の OSD_ID を保存して失敗した OSD を特定し、置き換えることができるようになりました。
詳細は、Red Hat Ceph Storage Dashboard ガイドの Ceph ダッシュボードでの障害のある OSD の置き換え を参照してください。
Red Hat Ceph Storage Dashboard で Ceph Object Gateway バケットの作成時に配置ターゲットを指定する
このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard に Ceph Object Gateway バケットを作成する際に、配置ターゲットを指定できるようになりました。
詳細は、Red Hat Ceph Storage Dashboard ガイドの ダッシュボードで Cephobject ゲートウェイバケットの作成 セクションを参照してください。
Red Hat Ceph Storage Dashboard でマルチファクター認証の削除機能を有効にする
このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard 上の Ceph クラスターから特定のバケットの MFA 削除 (Multi-Factor Authentication) を有効にできるようになりました。
詳細は、Red Hat Ceph Storage Dashboard ガイドの ダッシュボードで Cephobject ゲートウェイバケットの作成 セクションを参照してください。
Red Hat Ceph Storage Dashboard で特定のバケットのバケットバージョン管理機能が有効になっている。
このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard で特定のバケットのバケットバージョン管理を有効にできるようになりました。
詳細は、Red Hat Ceph Storage Dashboard ガイドの ダッシュボードで Cephobject ゲートウェイバケットの作成 セクションを参照してください。
Ceph Object Gateway バケットのオブジェクトロッキング機能が Red Hat Ceph Storage Dashboard で有効になっている。
このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard で Ceph Object Gateway バケットのオブジェクトロックを有効にできるようになりました。
詳細は、Red Hat Ceph Storage Dashboard ガイドの ダッシュボードで Cephobject ゲートウェイバケットの作成 セクションを参照してください。
Red Hat Ceph Storage Dashboard に垂直ナビゲーションバーを追加
このリリースでは、垂直のナビゲーションバーが利用できるようになりました。Red Hat Ceph Storage Dashboard メニューのハートビートアイコンは、クラスターのステータスに基づいて、緑、黄、赤の色に変わります。たとえば、Cluster>Monitoring and Block>Mirroring の他のメニューには、特定のコンポーネントにおける警告の数を示す色付きアイコンが表示されます。
Red Hat Ceph Storage ダッシュボードの box ページに詳細情報を表示
このリリースでは、Red Hat Ceph Storage Dashboard の box ページには、Ceph バージョン、ceph-mgr
が実行しているホスト名、ユーザー名、ロール、およびブラウザーの詳細が表示されるようになりました。
ブラウザーのファビコンに、クラスターの正常性ステータスを変更するためのアイコンが付いた Red Hat ロゴを表示
このリリースでは、ブラウザーのファビコンに Red Hat ロゴが表示され、クラスターの正常性ステータスに基づいて色が緑、黄、または赤に変わるアイコンが表示されるようになりました。
Red Hat Ceph Storage Dashboard のエラーページが期待どおりに機能
このリリースでは、Red Hat Ceph Storage Dashboard のエラーページが修正され、期待どおりに機能するようになりました。
Red Hat Ceph Storage Dashboard で Cephadm ワークフローを表示
このリリースでは、Red Hat Ceph Storage は、コンテナーに関する情報などの Ceph Orchestrator やサービスで定義されるノードなど、インベントリーの詳細情報を表示するようになりました。Red Hat Ceph Storage ダッシュボードでは、ユーザーは Ceph クラスター上のホストを管理することもできます。
詳細は、Red Hat Ceph Storage Dashboard ガイドの ダッシュボードの Ceph クラスターのホストの監視 セクションを参照してください。
Red Hat Ceph Storage Dashboard でオブジェクト数およびサイズクォータの変更が可能
このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard の特定のプールのオブジェクト数およびサイズクォータを設定および変更できるようになりました。
詳細は、Red Hat Ceph Storage Dashboard ガイドの Ceph ダッシュボードでのプールの作成 セクションを参照してください。
Red Hat Ceph Storage Dashboard で Ceph ファイルシステムのスナップショットを管理可能
このリリースでは、ユーザーは Ceph File System (CephFS) スナップショットを作成して削除し、Red Hat Ceph Storage Dashboard でディレクトリーごとのクォータを設定および変更できるようになりました。
Red Hat Ceph Storage Dashboard のアカウントおよびパスワードポリシーの強化
このリリースでは、最高のセキュリティー標準に準拠するために、厳格なパスワードおよびアカウントポリシーが実装されています。ユーザーパスワードは、設定可能なルールに準拠する必要があります。ユーザーアカウントは、一定の時間が経過すると期限切れになるように設定したり、ログインに何度も失敗した後にロックアウトしたりすることもできます。
任意のレルム、ゾーングループ、またはゾーンでユーザーおよびバケットを管理可能
このリリースでは、ユーザーはデフォルトゾーンだけでなく、設定した任意のレルム、ゾーングループ、またはゾーンでユーザーおよびバケットを管理できるようになりました。
Red Hat Ceph Storage Dashboard で複数のデーモンを管理するには、Red Hat Ceph Storage Dashboard ガイドの Ceph ダッシュボードでマルチサイトオブジェクトゲートウェイ設定のバケットの管理 を参照してください。
Red Hat Ceph Storage Dashboard で直感的にテナント S3 ユーザーを作成可能
以前のバージョンは、テナント化された S3 ユーザーは、それぞれの直感的な個別の入力フィールドの代わりに、tenant$user というユーザーフレンドリーな構文を使用して作成できました。
このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard で tenant$user を使用せずに、テナント化された S3 ユーザーを直感的に作成できるようになりました。
Red Hat Ceph Storage Dashboard がホスト管理に対応
以前は、コマンドラインインターフェイスが Red Hat Ceph Storage クラスターでのホストの管理に使用されていました。
このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard でメンテナンスモード機能を使用してホストを有効または無効にできるようになりました。
Red Hat Ceph Storage Dashboard でネストされたテーブルを拡張または縮小可能
このリリースでは、Red Hat Ceph Storage Dashboard の行をクリックすることで、ネストされたテーブルを含む行をデプロイメントまたは折りたたむことができます。
3.3. Ceph ファイルシステム
CephFS クライアントは、メタデータサーバー (MDS) によってブロックリストに登録された後、再接続できるようになる
以前のリリースでは、ネットワークパーティションやその他の一時的なエラーにより、Ceph File System (CephFS) クライアントは MDS によってブロックリストに登録されていました。
このリリースでは、手動で再マウントする必要がないため、CephFS クライアントは、クライアントごとに適切な設定をオンにしてマウントに再接続できます。
MDS 間でサブツリーを自動配布するための一時的なピニングポリシーを使用可能
このリリースでは、サブツリーを固定するための効率的な戦略を導入することでエクスポートピンが改善され、メタデータサーバー (MDS) 間でサブツリーを自動配布できるようになり、手動で固定するためのユーザーの介入がなくなりました。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの 一時ピニングポリシー セクションを参照してください。
mount.ceph
に recover_session=clean
オプションを追加
このリリースでは、mount.ceph
に recover_session=clean
の追加オプションが追加されました。このオプションを使用すると、クライアントは、メタデータサーバー (MDS) によってブロックリストに登録されていることを検出すると、Red Hat Ceph Storage クラスターに自動的に再接続し、マウントが自動的に回復されます。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの ブロックリストからの Ceph ファイルシステムクライアントの削除 セクションを参照してください。
Ceph File System でのメタデータ操作の非同期作成および削除
このリリースでは、Red Hat Enterprise Linux 8.4 カーネルマウントは、Red Hat Ceph Storage クラスターでファイルの作成および削除を非同期に実行できるようになりました。これにより、整合性に影響を与えずにこれらのシステムコールのラウンドトリップレイテンシーを回避することで、一部のワークロードのパフォーマンスが改善されます。非同期ファイルの作成および削除を有効にするには、新しい -o nowsync
マウントオプションを使用します。
Ceph File System (CephFS) が、mds_join_fs
という MDS の設定オプションを提供
このリリースでは、メタデータサーバー (MDS) デーモンをフェイルオーバーするときに、クラスターのモニターは、失敗した rank
のファイルシステム名と等しい mds_join_fs
のスタンバイデーモンを優先します。
mds_join_fs
がファイルシステム name
と等しいスタンバイが存在しない場合は、最後の手段として、置換用の非修飾スタンバイ、またはその他の使用可能なスタンバイを選択します。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの ファイルシステムのアフィニティー セクションを参照してください。
Ceph ファイルシステム間のスナップショットの非同期レプリケーション
このリリースでは、manager プラグインであるミラーリングモジュールが、ディレクトリースナップショットミラーリングを管理するインターフェイスを提供するようになりました。ミラーリングモジュールは、同期のためにミラーデーモンにディレクトリーを割り当てます。現在、単一ミラーデーモンがサポートされ、cephadm
を使用してデプロイできます。
Ceph File System (CephFS) は、cephfs-mirror
ツールを使用して、リモートの CephFS へのスナップショットの非同期レプリケーションをサポートします。ミラーデーモンは、Red Hat Ceph Storage クラスターの複数のファイルシステムのスナップショット同期を処理できます。スナップショットは、スナップショットデータをミラーリングした後、同期されるスナップショットと同じ名前でリモートファイルシステム上の特定のディレクトリーにスナップショットを作成することによって同期されます。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの Ceph ファイルシステムのミラー セクションを参照してください。
cephfs-top
ツールに対応
このリリースでは、cephfs-top
ツールが導入されました。
Ceph は、さまざまな Ceph File System (CephFS) メトリックをリアルタイムで表示するユーティリティーなどの top(1)
を提供します。cephfs-top
は、Ceph Manager の stats
プラグインを使用してメトリックスを取得し、表示する curses ベースの python スクリプトです。
CephFS クライアントでは、さまざまなメトリックスを Ceph Metadata Server (MDS) に定期的に転送します。これにより、集約のためにこれらのメトリックスを MDS ランクゼロに転送します。これらの集約メトリックスは、消費のために Ceph Manager に転送されします。
メトリックスは、global と per-mds の 2 つのカテゴリーに分類されます。グローバルメトリックスは、たとえば、クライアントの読み取りレイテンシー全体として、ファイルシステムのメトリックスのセットを表します。ただし、mds ごとのメトリックスは、MDS によって処理されるサブツリーの数などの特定の MDS ランク用です。
現時点で、グローバルメトリックスは追跡および表示されます。cephfs-top
コマンドは、複数の Ceph File Systems では確実に機能しません。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの cephfs-top
ユーティリティーの使用 セクションを参照してください。
MDS デーモンを mds_autoscaler
プラグインでデプロイ可能
このリリースでは、Ceph File System (CephFS) の要件に対応してメタデータサーバー (MDS) デーモンをデプロイする新しい ceph-mgr プラグインである mds_autoscaler
が利用できるようになりました。有効にすると、mds_autoscaler
は max_mds
の設定にしたがって必要なスタンバイ状態を自動的にデプロイし、アクティブにします。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの MDS autoscaler モジュールの使用 セクションを参照してください。
Ceph File System (CephFS) スクラブが、複数のアクティブな MDS で機能するようになる
以前のリリースでは、ユーザーは max_mds=1
パラメーターを設定し、アクティブなメタデータサーバー (MDS) のみが Ceph File System (CephFS) スクラブ操作を実行するまで待機する必要がありました。
このリリースでは、mds_max
の値に関係なく、ユーザーは複数のアクティブな MDS を使用してランク 0
で実行できるようになりました。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの 複数のアクティブな Metadata Server デーモンの設定 セクションを参照してください。
snap_schedule
プラグインで Ceph File System スナップショットをスケジュール可能
このリリースでは、新しい ceph-mgr プラグイン snap_schedule
が、Ceph File System (CephFS) のスナップショットをスケジューリングできるようになりました。スナップショットは作成、保持、および自動ガべージコレクションにすることができます。
3.4. コンテナー
cephfs-mirror パッケージが ceph-container ubi8 イメージに含まれる
このリリースでは、cephfs-mirror パッケージが ceph-container ubi8 イメージに組み込まれ、Ceph File System (CephFS) スナップショットのリモート CephFS へのミラーリングをサポートするようになりました。CephFS-mirror を設定するコマンドが利用できるようになりました。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの Ceph ファイルシステムのミラー セクションを参照してください。
3.5. Ceph Object Gateway
バケット名または ID は radosgw-admin bucket stats
コマンドで対応
このリリースでは、バケット名または ID を radosgw-admin bucket stats
コマンドの引数として使用できるようになりました。バケット統計は、Ceph OSD ログである大きな OMAP オブジェクト警告のクラスのデバッグに使用できる非現在のバケットインスタンスを報告します。
Ceph Object Gateway のパフォーマンスカウンターに 6 つの新しいパフォーマンスカウンターを追加
このリリースでは、Ceph Object Gateway で 6 つのパフォーマンスカウンターが利用できるようになりました。これらのカウンターは、オブジェクトの有効期限とライフサイクルの移行アクティビティーについてレポートします。これは、Ceph Object Gateway ライフサイクルシステムのフォアグラウンドおよびバックグラウンド処理を行います。カウンター lc_abort_mpu
、lc_expire_current
、lc_expire_noncurrent
、および lc_expire_dm
は、オブジェクトの有効期限を見積もることができます。lc_transition_current
カウンターおよび lc_transition_noncurrent
カウンターは、ライフサイクルトランジションに関する情報を提供します。
ユーザーは、オブジェクトロックを使用して S3 オブジェクトストレージに WORM のような機能を実装
S3 オブジェクトロックは、S3 Object Storage の WORM (write-once-read-many) 機能に対応する主要なメカニズムです。このリリースでは、Red Hat Ceph Storage 5 は Amazon Web Services (AWS) の S3 Object lock Data 管理 API をサポートし、ユーザーは保持期間、法的な保持、バケット設定などのオブジェクトロック概念を使用して、データ削除パーミッションを上書きするカスタムワークフローの一部として WORM のような機能を実装することができるようになりました。
3.6. RADOS
Red Hat Ceph Storage においてイレイジャーコーディング (EC) プールで利用可能な OSD の数を減らして回復
以前は、サイズ k+m
のイレイジャーコード (EC) プールには、復元が機能するために少なくとも k+1
のコピーが必要でした。k
コピーのみが利用可能な場合は、復元が完了しません。
このリリースでは、Red Hat Ceph Storage クラスターは、EC プールで利用可能な k
またはそれ以上のコピーで復元するようになりました。
イレーシャーコード化プールの詳細は、Red Hat Ceph Storage ストレージストラテジーガイドの イレーシャーコード化プール の章を参照してください。
列ファミリーを使用した RocksDB データベースのシャーディングに対応
BlueStore 管理ツールの目標は、読み取りと書き込みの増幅を減らし、圧縮中の DB (データベース) の拡張を減らし、IOPS のパフォーマンスを向上させることです。
このリリースでは、BlueStore 管理ツールを使用してデータベースをリシャード化できるようになりました。RocksDB (DB) データベースのデータは複数の Column Families (CF) に分割されます。各 CF には独自のオプションがあり、omap、オブジェクトデータ、遅延されたキャッシュ書き込み、PGlog などのデータのタイプに応じて分割が実行されます。
シャード化の詳細は、Red Hat Ceph Storage 管理ガイドの BlueStore 管理ツールを使用して RocksDB データベースのリシャード化 セクションを参照してください。
Ceph モニター用に mon_allow_pool_size_one
設定オプションを有効にすることが可能
このリリースでは、設定オプション mon_allow_pool_size_one
を有効にできるようになりました。有効にすると、ユーザーがプールサイズを 1
に設定する場合は、osd pool set size 1
のフラグ --yes-i-really-mean-it
を渡す必要があります。
osd_client_message_cap
オプションが追加
以前のリリースでは、osd_client_message_cap
オプションは削除されました。このリリースでは、osd_client_message_cap
オプションが再導入されました。このオプションは、これらのリクエストをスロットリングして、インフライトクライアント要求の最大数を制御するのに役立ちます。これは、クライアントベースのトラフィックが圧倒的に多いために Ceph OSD がフラップする場合に役立ちます。
Ceph messenger プロトコルが msgr v2.1 に更新
このリリースでは、新しいバージョンの Ceph messenger プロトコル msgr v2.1 が実装され、以前のバージョンである msgr v2.0 に存在する複数のセキュリティー、整合性、および潜在的なパフォーマンスの問題に対応するようになりました。すべての Ceph エンティティー (デーモンおよびクライアントの両方) で、デフォルトで msgr v2.1 に設定されるようになりました。
新しいデフォルトの osd_client_message_cap
値は 256
です。
以前のリリースでは、osd_client_message_cap
のデフォルト値は 0
でした。デフォルト値の 0
は、Ceph OSD のフロー制御機能を無効にし、クライアントトラフィックが多いときに Ceph OSD がフラッピングするのを妨げないようにします。
このリリースでは、osd_client_message_cap
のデフォルト値 256
が、インフライトクライアントリクエストの最大数を制限することで、フロー制御が改善されました。
set_new_tiebreaker
コマンドの追加
今回のリリースにより、ストレージ管理者は、ストレッチモードでストレージクラスターで実行する際に、新しい tiebreak Ceph Monitor を設定できるようになりました。このコマンドは、tiebreaker が失敗して復元できない場合に役に立ちます。
3.7. RADOS ブロックデバイス (RBD)
librbd の小規模 I/O パフォーマンスの向上
以前のリリースでは、NVMe ベースの Ceph クラスターでは、内部スレッドアーキテクチャーには制限があるため、1 つの librbd クライアントが 20K 4KiB IOPS を超えるのに苦労していました。
このリリースでは、librbd は新しい ASI O ベースの neorados API に加えて非同期リアクターモデルに切り替えられ、それによって小規模 I/O スループットが潜在的に数倍に増加し、レイテンシーが減少します。
期限切れの RBD イメージをパージするための組み込みスケジュール
以前のバージョンでは、ストレージ管理者は rbd trash purge
コマンドに cron のようなジョブを設定することができました。
このリリースでは、期限切れの RBD イメージをパージするための組み込みスケジュールが利用可能になりました。rbd trash purge schedule add
および関連コマンドを使用すると、定義されたスケジュールに基づいて期限切れのイメージを自動的にパージする RBD トレイを設定できます。
詳細は、Red Hat Ceph Storage ブロックデバイスガイドの 自動トレイパージスケジュールの定義 セクションを参照してください。
新規の ceph-immutable-object-cache
デーモンで不変なオブジェクトの読み取りサービス
このリリースでは、新しい ceph-immutable-object-cache
デーモンをハイパーバイザーノードにデプロイして、親イメージのスナップショットなどの不変オブジェクトの読み取りを処理できます。新しい parent_cache
librbd プラグインは、親イメージからすべての読み取りのデーモンと調整し、必要に応じて結果をキャッシュに追加します。これにより、複数の仮想マシンがゴールドイメージを同時に共有するシナリオのレイテンシーが短縮されます。
詳細は、Red Hat Ceph Storage ブロックデバイスガイドの 'ceph-immutable-object-cache' デーモンの管理 の章を参照してください。
librbd ベースのクライアントでの圧縮性または非圧縮性のヒントの送信のサポート
以前のバージョンでは、データが圧縮可能であるかどうかにかかわらず、基礎となる OSD オブジェクトストアバックエンドにヒントを提供する方法はありませんでした。
このリリースでは、rbd_compression_hint
設定オプションを使用して、データが圧縮可能か非圧縮可能かを、基盤となる OSD オブジェクトストアバックエンドにヒントを与えることができます。これは、イメージごとに、プールごとに実行することも、グローバルで実行することができます。
詳細は、Red Hat Ceph Storage ブロックデバイスガイドの ブロックデバイスの入力および出力オプション セクションを参照してください。
librbd クライアントでのレプリカからの読み取りポリシーのオーバーライドに対応
以前のバージョンは、DC/AZ 間ネットワークトラフィックを制限する方法はありませんでした。クラスターがデータセンターにまたがっている場合、プライマリー OSD は、PG 内の他の OSD と比較して待ち時間とコストが高くなる可能性があります。
このリリースでは、rbd_read_from_replica_policy
設定オプションが使用可能になり、CRUSH マップおよび CRUSH 階層内のクライアントの場所で定義されているように、ランダム OSD または PG 内の最も近い OSD に読み取りを送信するために使用できます。これは、イメージごとに、プールごとに実行することも、グローバルで実行することができます。
詳細は、Red Hat Ceph Storage ブロックデバイスガイドの ブロックデバイスの入力および出力オプション セクションを参照してください。
RBD イメージのオンライン再スパーシング
以前のバージョンではゼロに設定されていても、基盤となる OSD オブジェクトストアに完全に割り当てられているイメージエクステントの領域を再利用することは、非常に面倒でエラーが発生しやすい状態でありました。このリリースでは、新しい rbd sparsify
コマンドを使用して、ゼロデータのチャンクについてイメージをスキャンし、基盤となる OSD オブジェクトストア内の対応する範囲の割り当てを解除できるようになりました。
ocf:ceph:rbd クラスターリソースエージェントが namespace に対応
以前のバージョンでは、名前空間内に存在するイメージに ocf:ceph:rbd クラスターリソースエージェントを使用することができませんでした。
このリリースでは、新しい pool_namespace
リソースエージェントパラメーターを使用して、名前空間内のイメージを処理できます。
RBD イメージは即座にインポート可能
rbd import
コマンドを使用すると、新しいイメージは完全に入力された直後に使用できます。
このリリースでは、イメージのライブマイグレーション機能が拡張されて外部データソースをサポートし、rbd import
の代わりに使用できるようになりました。新しいイメージは、ローカルファイル、HTTP(S) 経由で提供されるリモートファイル、もしくは raw
、qcow
、または qcow2
形式のリモート Amazon S3 互換バケットにリンクでき、すぐに使用できるようになります。イメージは、有効な使用時に実行可能なバックグラウンド操作として設定されます。
librbd 内の LUKS 暗号化に対応
librbd の上に QEMU LUKS 暗号化または dm-crypt カーネルモジュールを階層化すると、コピーオンライトクローンイメージがその親イメージと同じ暗号化キーを使用する必要があるという大きな制限があります。このリリースでは、LUKS 暗号化のサポートが librbd 内に組み込まれました。新しい rbd encryption format コマンドを使用して、イメージを luks1
または luks2
暗号化フォーマットにフォーマットできるようになりました。
3.8. RBD ミラーニング
RBD イメージのスナップショットベースのミラーリング
ジャーナルベースのミラーリングは、実際のイメージを変更する前に、イメージへのすべての更新が最初に関連付けられたジャーナルに記録される二重書き込みペナルティーを犠牲にして、きめ細かいクラッシュ整合性のあるレプリケーションを提供します。
このリリースでは、ジャーナルベースのミラーリングに加えて、スナップショットベースのミラーリングがサポートされるようになりました。手動または定義されたスケジュールで定期的に作成できるミラースナップショットを使用してイメージがミラーリングされる、大まかなクラッシュ整合性のあるレプリケーションを提供します。これはすべてのクライアントでサポートされており、あまり厳しくない RPO (recovery point objective) が必要です。
3.9. iSCSI ゲートウェイ
ceph status
出力の tcmu-runner
セクションを改善
以前のバージョンでは、各 iSCSI LUN が個別にリストされていたため、ceph status
の出力が乱雑になっていました。
このリリースでは、ceph status
コマンドがレポートを要約し、アクティブなポータルの数とホストの数のみを表示します。
3.10. Ceph Ansible ユーティリティー
cephadm-adopt.yml
Playbook が冪等である
このリリースでは、cephadm-adopt.yml
Playbook が冪等であり、Playbook は複数回実行できるようになりました。最初の試行で Playbook が失敗する場合は、Playbook を再実行し、想定どおりに機能します。
詳細は、Red Hat Ceph Storage インストールガイドの `ceph-ansible` を使用した Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 へのアップグレード セクションを参照してください。
-
pg_autoscaler
およびbalancer
モジュールがアップグレード中に無効になるようになりました。以前のリリースでは、Red Hat Ceph Storage はアップグレードプロセス中のpg_autoscaler
およびbalancer
モジュールの無効化をサポートしていませんでした。これにより、pg_autoscaler
は配置グループ番号の調整を続行するため、アップグレードプロセス中は配置グループの確認が失敗する場合があります。
今回のリリースにより、ceph-ansible
は Ceph OSD ノードをアップグレードする前に pg_autoscaler
および balancer
モジュールを無効にし、アップグレードの完了後に再度有効化するようになりました。
Ceph Ansible rolling_update.yml
Playbook の改善
以前のリリースでは、Ceph Ansible rolling_update.yml
Playbook は、アップグレードプロセス時にコンテナーイメージの Ceph バージョン要件を確認していました。これにより、Playbook がアップグレードプロセスの途中で失敗していました。
今回のリリースにより、コンテナーイメージが Ceph バージョン要件を満たさないと、rolling_update.yml
Playbook は早期に失敗するようになりました。
第4章 バグ修正
本セクションでは、Red Hat Ceph Storage の本リリースで修正された、ユーザーに影響するバグを説明します。また、セクションでは、以前のバージョンで見つかり修正された既知の問題を説明します。
4.1. Cephadm ユーティリティー
ceph-volume
コマンドが OSD およびデバイスをブロックせず、期待どおりに実行
以前は、ceph-volume lvm list
や ceph-volume inventory
などの ceph-volume
コマンドが完了していなかったため、OSD の作成、デバイスのリスト表示、OSD のリスト表示のために他の ceph-volume
コマンドを実行できませんでした。
今回の更新により、これらのコマンドのデフォルト出力は Cephadm ログには追加されないため、cephadm バイナリーによって起動されたコンテナーで実行されたすべての ceph-volume
コマンドが完了するようになりました。
Ceph OSD id クレームを検索すると、ホストの完全修飾ドメイン名がホスト名と一致
以前のバージョンでは、失敗した Ceph OSD を置き換える場合、CRUSH マップの名前はホスト名としてのみ表示され、Ceph OSD ID 要求の検索は代わりに完全修飾ドメイン名 (FQDN) を使用していました。その結果、Ceph OSD ID 要求が見つかりませんでした。今回のリリースにより、Ceph OSD ID 要求の検索機能は FQDN とホスト名に正確に一致し、Ceph OSD は予想通りに機能するようになりました。
ceph orch ls
コマンドは、特定のサービスで実行するデーモンの数を正しく表示します。
以前のリリースでは、ceph orch ls --service-type SERVICE_TYPE
コマンドは、デーモンを実行しているサービスに対して 0 デーモンを誤って報告し、ユーザーが特定のサービスで実行しているデーモンの数を確認できませんでした。今回のリリースにより、ceph orch ls --service-type SERVICE_TYPE
コマンドが、そのサービスで実行しているデーモンの数を正確に表示するようになりました。
cephadm
を使用して Ceph Manager サービスを削除できなくなる
以前は、ユーザーが ceph orch rm mgr
コマンドを実行すると、cephadm
はストレージクラスター内のすべての Ceph Manager デーモンを削除し、ストレージクラスターにアクセスできなくなりました。
今回のリリースにより、ceph orch rm SERVICE_NAME
コマンドを使用して Ceph Manager、Ceph Monitor、または Ceph OSD サービスを削除しようとすると、これらのサービスを安全に削除できないことを示す警告メッセージが表示され、アクションは実行されません。
node-exporter
および alert-manager
コンテナーのバージョンが更新されました。
以前のバージョンでは、Red Hat Ceph Storage 5.0 node-exporter
および alert-manager
コンテナーのバージョンは、バージョン 4.6 が利用可能で、Red Hat Ceph Storage 4.2 で使用されていた場合にバージョン 4.5 にデフォルト設定されていました。
このリリースでは、cephadm
コマンドを使用して Red Hat Ceph Storage 5.0 から Red Hat Ceph Storage 5.0z1 にアップグレードすると、node-exporter
および alert-manager
コンテナーのバージョンがバージョン 4.6 に更新されるようになりました。
4.2. Ceph Dashboard
Red Hat Ceph Storage Dashboard にアクセスするためのセキュアなクッキーベースのセッションの有効化
以前のバージョンでは、LocalStorage に情報を保存すると、Red Hat Ceph Storage ダッシュボードがブラウザーで実行しているすべてのセッションにアクセスでき、ダッシュボードが XSS 攻撃に対して脆弱になりました。このリリースでは、LocalStorage はセキュアな Cookie ベースのセッションに置き換えられ、セッションシークレットは現在のブラウザーインスタンスでのみ利用可能です。
4.3. Ceph ファイルシステム
サポートされていないメトリックを受信しても、MDS デーモンがクラッシュしなくなりました
以前は、MDS デーモンはカーネルクライアントからの新しいメトリックを処理できず、サポートされていないメトリックを受信すると MDS デーモンがクラッシュしました。
このリリースでは、MDS はサポートされていないメトリックを破棄し、期待どおりに動作します。
ストレージクラスターが満杯になると、データの削除が許可される
以前は、ストレージクラスターが満杯になると、設定ファイルの読み取り中に Ceph Manager がプールパーミッションのチェックでハングしていました。Ceph Metadata Server (MDS) では、Ceph OSD が満杯になると書き込み操作の実行が許可されていなかったため ENOSPACE
エラーが発生しました。ストレージクラスターがフル比率に達すると、ユーザーは CephManager ボリュームプラグインを使用して領域を解放するためのデータを削除することができませんでした。
今回のリリースで、新しい FULL 機能が導入されました。FULL 機能により、Ceph Manager は Ceph OSD のフルチェックをバイパスします。client_check_pool_permission
オプションはデフォルトで無効にされていますが、以前のリリースでは有効でした。Ceph Manager に FULL 機能がある場合、MDS は Ceph Manager の呼び出しをブロックしなくなりました。これにより、ストレージクラスターが満杯になるとサブボリュームおよびスナップショットを削除することにより、Ceph Manager が領域を解放できるようになります。
Ceph File System クライアントからの認証要求の処理時に Ceph モニターがクラッシュしなくなる
以前のバージョンでは、クライアントにレガシーファイルシステムを表示するパーミッションがない場合、クライアントからの認証要求を処理する際に Ceph モニターがクラッシュしていました。これにより、Ceph モニターが利用できなくなりました。今回のリリースにより、コードを更新すると、レガシーファイルシステム認証要求の処理が修正され、認証要求が想定どおりに機能するようになりました。
MGR ログのミリ秒ごとに表示される KeyError が修正される
以前のバージョンでは、KeyError
は数ミリ秒ごとに Ceph Manager ログに記録されていました。これは、別のキーを持つ client_metadata[in_progress]
ディクショナリーから要素を削除しようとすると、KeyError
が発生するためです。そのため、ログでの他のスタックトレースを見つけることは容易ではありませんでした。今回のリリースでは、Ceph File System パフォーマンスメトリックのコードロジックおよび Ceph Manager ログの KeyError
メッセージが修正されました。
特定のクローンの状態ではサブボリュームクローンの削除が許可されなくなる
以前は、クローンが COMPLETED
または CANCELLED
状態ではない場合に、force オプションを使用してサブボリュームのクローンを削除しようとすると、進行中のクローンを追跡するインデックスからクローンが削除されませんでした。これにより、対応する cloner スレッドがクローンを無限に再試行し、最終的に ENOENT
エラーが発生していました。デフォルトの cloner スレッドの数が 4 つに設定された状態で、4 つのクローンを削除しようと試みると、4 つのクローンがすべてブロック状態になり、保留中のクローンが完了しません。
今回のリリースでは、クローンが COMPLETED
または CANCELLED
状態のいずれかでない限り、削除されなくなりました。クローンが削除され、進行中のクローンを追跡するインデックスからのエントリーとともに、クローンスレッドがブロックされなくなりました。その結果、保留中のクローンは引き続き期待どおりに完了します。
ceph fs snapshot mirror daemon status
コマンドでファイルシステム名が必要なくなる
以前のリリースでは、ユーザーは ceph fs snapshot mirror daemon status
コマンドに少なくとも 1 つのファイルシステム名を付与する必要がありました。今回のリリースにより、ユーザーはファイルシステム名をコマンド引数として指定しなくても、デーモンのステータスは各ファイルシステムを個別に表示するようになりました。
cephfs-mirror
デーモンを停止すると、クリーンでないシャットダウンが発生する可能性があります。
以前のバージョンでは、cephfs-mirror
のシャットダウンプロセス中に競合状態により、cephfs-mirror
プロセスが適切に終了していませんでした。今回のリリースにより、競合状態が解決され、cephfs-mirror
デーモンが正常にシャットダウンするようになりました。
Ceph Metadata Server がメタデータの損傷を誤報告しなくなり、失敗に関する警告がなくなりました。
以前のバージョンでは、Ceph Monitor は作成時に standby-replay デーモンにランクを割り当てていました。この動作により、Ceph Metadata Servers (MDS) に誤ったメタデータの損傷を報告し、失敗に関する警告が表示される可能性があります。今回のリリースにより、Ceph Monitor は作成時に standby-replay デーモンにランクを割り当てなくなり、誤ったメタデータの損傷や失敗警告がなくなりました。
4.4. Ceph Manager プラグイン
pg_autoscaler
モジュールが、失敗した op エラーを報告しない
以前のバージョンは、プールに CRUSH ルール step set_chooseleaf_vary_r 1
がある場合、プールステータスを取得しようとすると、pg-autoscaler
モジュールが op
の KeyError を報告していました。その結果、Ceph クラスターのヘルスでは、Module 'pg_autoscaler' has failed: op
エラーの HEALTH_ERR が表示されていました。このリリースでは、プールステータスの取得中に CRUSH ルールに対して op
を使用したステップのみが繰り返され、pg_autoscaler
モジュールは失敗した op
エラーを報告しなくなりました。
4.5. Ceph Object Gateway
S3 ライフサイクル有効期限ヘッダー機能がオブジェクトを期待どおりに識別
以前のバージョンでは、ライフサイクルの有効期限がない一部のオブジェクトは、オブジェクト名と保存されているライフサイクルポリシーを比較する際の機能のロジックのエラーが原因で、GET または HEAD 要求でライフサイクルの有効期限があると誤って識別されていました。今回の更新により、S3 のライフサイクルの有効期限ヘッダー機能が期待どおりに機能し、オブジェクトを正しく特定するようになりました。
radosgw-admin user list
コマンドは、Red Hat Ceph Storage クラスター 4 で実行するのに長い時間がかかりなくなる
以前のリリースでは、Red Hat Ceph Storage クラスター 4 では、rgw_gc_max_objs
設定変数の値により、多くの radosgw-admin
コマンドのパフォーマンスが影響を受けます。これは、GC シャードの数を大幅に制御していました。これには、GC には関係のない radosgw-admin
コマンドが含まれています。このリリースでは、Red Hat Ceph Storage クラスター 3 から Red Hat Ceph Storage クラスター 4 へのアップグレード後に、radosgw-admin user list
コマンドの実行に時間がかかりなくなりました。GC が機能するために必要な radosgw-admin
コマンドのパフォーマンスのみが、rgw_gc_max_objs
の影響を受けます。
無効な Amazon リソース名要素を持つポリシーにより権限のエスカレーションが発生しなくなる
以前のバージョンでは、バケットポリシーなどの IAM ポリシードキュメントの無効な Amazon リソース名 (ARN) 要素で誤った処理により、ポリシーの一部ではないユーザーに意図しないパーミッションが付与された可能性がありました。今回の修正により、これにより無効な ARN 要素でポリシーを保存できないか、保存している場合はポリシーを適切に評価できるようになりました。
4.6. RADOS
bluestore_cache_trim_max_skip_pinned
を 10000
に設定すると、オブジェクトのメタデータのトリミングが可能になる
最も最近使用された (LRU) キャッシュは、オブジェクトのメタデータに使用されます。キャッシュのトリムは、最近アクセスしたオブジェクトから実行します。固定 (ピン止め) されたオブジェクトは削除が免除されます。つまり、これらは Bluestore で引き続き使用されます。
以前のバージョンでは、設定変数 bluestore_cache_trim_max_skip_pinned
が、アクセスされた固定オブジェクトの数を制御していました。これにより、スクラブプロセスにより、オブジェクトが長時間固定されていました。LRU メタデータキャッシュの下部に固定されているオブジェクトの数が bluestore_cache_trim_max_skip_pinned
よりも大きくなると、キャッシュのトリミングは完了しませんでした。
このリリースでは、bluestore_cache_trim_max_skip_pinned
を 10000
に設定できるようになりました。これはメタデータキャッシュの数よりも大きくなります。これにより、トリミングが有効になり、メタデータのキャッシュサイズが設定に準拠します。
ストレージクラスターを Red Hat Ceph Storage 4 から 5 にアップグレードすると、HEALTH_WARN 状態で完了する
Red Hat Ceph Storage クラスターを以前のサポートされているバージョンから Red Hat Ceph Storage 5 にアップグレードすると、モニターがセキュアでない global_id
の再要求を許可していると記載の HEALTH_WARN 状態のままアップグレードが完了します。これは、CVE のパッチ適用が原因で、詳細は CVE-2021-20288 を確認してください。
ヘルスに関する警告をオフにすることを推奨します。
-
AUTH_INSECURE_GLOBAL_ID_RECLAIM
の警告のceph ヘルス詳細
の出力を確認して、更新されていないクライアントを特定します。 - すべてのクライアントを Red Hat Ceph Storage 5.0 リリースにアップグレードします。
すべてのクライアントが即座にアップグレードされない場合は、正常性アラートを一時的にミュートします。
構文
ceph health mute AUTH_INSECURE_GLOBAL_ID_RECLAIM 1w # 1 week ceph health mute AUTH_INSECURE_GLOBAL_ID_RECLAIM_ALLOWED 1w # 1 week
すべてのクライアントが更新され、AUTH_INSECURE_GLOBAL_ID_RECLAIM 警告がクライアントに表示されなくなったことを確認してから、
auth_allow_insecure_global_id_reclaim
をfalse
に設定します。構文
ceph config set mon auth_allow_insecure_global_id_reclaim false
-
AUTH_INSECURE_GLOBAL_ID_RECLAIM
の警告が表示されているクライアントがないことを確認してください。
RocksDB のフラッシュと圧縮のトリガー条件が期待どおりに機能する
BlueStore は、デフォルトで 64K というデータを Blob と呼ばれるチャンクに編成します。書き込みが大きい場合は、64K blob の書き込みシーケンスに分割されます。
以前は、遅延サイズが blob サイズ以上の場合は、すべてのデータが遅延になり、L 列ファミリーの下に置かれていました。通常、HDD 設定の場合は、値が bluestore_prefer_deferred_size_hdd
パラメーターおよび bluestore_max_blob_size_hdd
パラメーターの両方で 64K になります。これにより、L のコラムがより迅速に消費され、RocksDB フラッシュ数と圧縮が頻繁に行われるようになります。このシナリオのトリガー状態は、data size in blob
⇐ minimum deferred size
でした。
このリリースでは、遅延トリガー条件は、ディスク上のエクステントのサイズをチェックし、Blob はチェックしません。deferred_size
よりも小さいエクステントは、遅延メカニズムに送られ、大きいエクステントはすぐにディスクに書き込まれます。トリガー条件は、data size in extent
< minimum deferred size
に変更されています。
小さな書き込みは L 列の下に置かれ、この列の成長は遅く、余分な圧縮はありません。
bluestore_prefer_deferred_size
パラメーターは、Blob サイズに干渉なしの遅延を制御します。このサイズよりも小さい書き込みの説明に従って機能します。
pg_num
および pgp_num
が大幅に増加しても、Ceph Manager がクラッシュしなくなる
以前のリリースでは、配置グループを調整するコードは pg_num
パラメーターおよび pgp_num
パラメーターへの大規模な増加を正しく処理せず、Ceph Manager がクラッシュする可能性のある整数のアンダーフローが発生していました。
今回のリリースにより、配置グループを調整するコードが修正されました。その結果、配置グループを大幅に増やしても、Ceph Manager がクラッシュすることはありません。
4.7. RADOS ブロックデバイス (RBD)
librbd
コードが CEPH_OSD_FLAG_FULL_TRY
フラグを受け入れる
以前のリリースでは、rados_set_pool_full_try()
API 関数で CEPH_OSD_FLAG_FULL_TRY
を設定できました。Red Hat Ceph Storage 5 では、librbd
はこのフラグを受け入れなくなりました。これにより、CEPH_OSD_FLAG_FULL_TRY
が設定されていても、プールが満杯になったり、クォータの上限に達した場合に、書き込み操作がスペースを保留していました。
このリリースでは、librbd
は CEPH_OSD_FLAG_FULL_TRY
フラグを受け入れ、プールが満杯になったり、クォータに到達すると、ENOSPC
メッセージまたは EDQUOT
メッセージで書き込み操作が成功または失敗するようになりました。RADOS Block Device (RBD) イメージを full または at-quota プールから削除する機能は復元されます。
4.8. RBD ミラーニング
rbd mirror pool peer bootstrap import
コマンドの改善
以前のバージョンでは、rbd mirror pool peer bootstrap import
コマンドを実行すると、キーリングが必要ない場合に、librados
が、欠落しているキーリングファイルに関するエラーをログに記録していました。キーリングがないためにコマンドが失敗したように見えるため、サイト管理者を混乱させる可能性があります。今回のリリースにより、librados
は、ブートストラップトークンにキーが含まれる場合に、リモートストレージクラスターのキーリングが不要になった場合にエラーをログに記録しなくなりました。
4.9. iSCSI ゲートウェイ
gwcli
ツールが正しい Erasure Code プールプロファイルを表示するようになりました
以前は、gwcli
ツールが Erasure Code プールの誤った k+m
値を表示していました。
今回のリリースでは、gwcli
ツールが関連するイレイジャーコーディングプロファイルのイレイジャーコーディングプール設定から情報を取得し、Red Hat Ceph Storage クラスターが正しいイレイジャーコーディングプールプロファイルを表示するようになりました。
iSCSI が設定されたストレージクラスターのアップグレードが期待どおりに機能するようになりました
以前は、最新の ceph-iscsi パッケージには廃止された ceph-iscsi-tools パッケージがないため、iSCSI が設定されたストレージクラスターのアップグレードは失敗していました。
今回のリリースでは、ceph-iscsi-tools
パッケージは RPM 仕様ファイルで古いものとしてマークされ、アップグレードは期待どおりに成功します。
tcmu-runner
がブロックリストエントリーの削除に失敗しなくなりました
以前は、tcmu-runner
が誤ったコマンドを実行してブロックリストエントリーを削除し、iSCSI LUN のパフォーマンスが低下していました。
今回のリリースでは、tcmu-runner
が更新され、ブロックリストエントリーを削除するときに正しいコマンドが実行されるようになりました。ブロックリストエントリーは tcmu-runner
によってクリーンアップされ、iSCSI LUN は期待どおりに機能します。
tcmu-runner
プロセスが正常に終了するようになる
以前のバージョンでは、tcmu-runner
プロセスが失敗したパスを誤って処理し、初期化されていない g_object
メモリーのリリースが生じました。これにより、tcmu-runner
プロセスが予期せず終了する可能性があります。ソースコードが変更され、初期化されていない g_object
メモリーの解放を省略し、tcmu-runner
プロセスが正常に終了するようになりました。
RADOS Block Device ハンドラーは設定文字列を正しく解析する
以前のバージョンでは、RADOS Block Device (RBD) ハンドラーは、設定文字列の解析中に strtok()
関数を使用していましたが、スレッドセーフではありません。これにより、イメージの作成または再開時のイメージ名の設定文字列が誤って解析されました。これにより、イメージを開くことができませんでした。今回のリリースにより、RBD ハンドラーはスレッドセーフの strtok_r()
関数を使用し、設定文字列を正しく解析できるようになりました。
4.10. Ceph Ansible ユーティリティー
cephadm-adopt
Playbook が、新しい nfs-ganesha
プールの作成時にプール上でプールアプリケーションを有効にするようになりました。
以前のバージョンでは、cephadm-adopt
Playbook が新しい nfs-ganesha
プールを作成すると、プールでプールアプリケーションを有効にしませんでした。これにより、1 つのプールにプールアプリケーションが有効でないという警告が表示されます。今回の更新で、cephadm-adopt
Playbook は作成されたプールにプールアプリケーションを設定し、採用がなくなった後に警告が設定されます。
cephadm-adopt
Playbook がマルチサイト設定のデフォルトレルムを作成しない
以前のバージョンでは、cephadm-adopt
Playbook には、マルチサイト設定が存在しない場合でも、採用プロセス時にデフォルトのレルムを作成することが必要でした。
このリリースでは、マルチサイト設定をデプロイしていない場合に、cephadm-adopt
Playbook はデフォルトのレルムの作成を強制しないようになりました。
Ceph Ansible cephadm-adopt.yml
Playbook は、ホストの完全修飾ドメイン名を使用してノードを追加できます。
以前のバージョンでは、Ceph Ansible cephadm-adopt.yml
Playbook を使用して cephadm
のノードを追加するタスクは短縮ホスト名を使用し、ノードの現在の完全修飾ドメイン名 (FQDN) と一致しませんでした。その結果、FQDN ホスト名に一致するものがないため、採用された Playbook が失敗しました。
今回のリリースにより、Playbook は、ansble_hostname
ファクトの代わりに ansible_nodename
ファクトを使用し、採用された Playbook が FQDN で設定されたノードを追加できるようになりました。
Ceph Ansible cephadm-adopt
Playbook がコンテナーを正常にプルするようになる
以前のバージョンでは、Ceph Ansible cephadm-adopt
Playbook は、採用されているストレージクラスターのコンテナーレジストリーにログインしませんでした。今回のリリースにより、Ceph Ansible cephadm-adopt
Playbook のログをコンテナーレジストリーにログインし、コンテナーイメージを予想通りにプルできるようになりました。
第5章 テクノロジープレビュー
本セクションでは、Red Hat Ceph Storage の本リリースで導入または更新されたテクノロジープレビュー機能の概要を説明します。
テクノロジープレビュー機能は、実稼働環境での Red Hat サービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。テクノロジープレビューの機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行いフィードバックを提供していただくことを目的としています。
Red Hat のテクノロジープレビュー機能のサポートについての詳細は、以下のリンクを参照してください。
バケットをより細かなマルチサイトレプリケーション [テクノロジープレビュー]
以前のバージョンでは、ゾーングループ内のすべてのバケットは、同じデータを含むミラーコピーでした。マルチサイトデータフローは、ゾーン内またはゾーンの間に発生しました。このリリースでは、バケットが細かいマルチサイトレプリケーションを使用して、バケットレベルでデータのフローおよびレプリケーションを制御できるようになりました。ゾーン内のバケットには異なるデータが含まれる可能性があり、他のゾーンの他のバケットからデータをプルすることができます。
S3 オブジェクトでデータを取得する際に、コンマ区切りの値 (CSV) ファイルでクエリーでコンテンツをフィルターする方法を文書化 [テクノロジープレビュー]
S3 Select Object Content API がテクノロジープレビューとして利用可能になりました。この API は、構造化されたクエリー言語 (SQL) で S3 オブジェクトの内容にフィルターを設定します。リクエストでは、S3 オブジェクトのコンマ区切りの値 (CSV) であるデータのシリアライズ形式を指定して、指定のコンテンツを取得する必要があります。AWS CLI Select Object Content は CSV 形式を使用してオブジェクトデータをレコードに解析し、クエリーで指定されたレコードのみを返します。
5.1. Ceph Object Gateway
マルチサイトレプリケーション設定の Ceph オブジェクトゲートウェイが AWS バケットレプリケーション API 機能のサブセットに対応
このリリースでは、Ceph Object Gateway は、{Put, Get, Delete} レプリケーション操作を含む AWS バケットレプリケーション API 機能のサブセットをサポートするようになりました。この機能により、バケットの粒度のレプリケーションが可能になり、さらにエンドユーザーのレプリケーション制御が提供されます。現在、バケットは既存の CephObject Gateway マルチサイトレプリケーションセットアップのゾーン内でレプリケートできます。
KMIP プロトコルキー管理サーバーのテクノロジープレビュー機能のサポート
このリリースでは、IBM SKLM などの KMIP プロトコルキー管理サーバーでテクノロジープレビューサポートを利用できるため、Ceph オブジェクトゲートウェイの管理暗号化機能で使用される一般的なキー管理ソフトウェアの範囲が広がります。
5.2. RADOS ブロックデバイス (RBD)
レイテンシーを低減する librbd PMEM ベースの永続ライトバックキャッシュ
このリリースでは、新しい pwl_cache
librbd プラグインが、PMEM デバイスを対象とするログ構造化されたライトバックキャッシュを提供するようになり、レイテンシーが短縮されます。イメージの更新はバッチ処理され、順番にフラッシュされ、実際のイメージはクラッシュの一貫性のある状態に保たれます。PMEM デバイスが失われた場合、イメージは古くなっている場合でもイメージにアクセスできます。
rbd-nbd
デバイスのスナップショット静止フックのサポート
このリリースでは、librbd API は、調整されたスナップショットの作成を可能にする静止フックと静止解除フックを提供するようになりました。rbd-nbd
デーモンは、必要に応じてマップされたデバイスにマウントされているファイルシステムをフリーズし、ファイルシステムの整合性スナップショットを作成します。この動作は、rbd-nbd_quiesce
シェルスクリプトを編集するか、カスタム実行可能ファイルに置き換えることでカスタマイズできます。
第6章 既知の問題
本セクションでは、Red Hat Ceph Storage の今回リリースで見つかった既知の問題を説明します。
6.1. Cephadm ユーティリティー
Red Hat Ceph Storage のアップグレード後の NFS-RGW の問題
RGW-NFS を使用しているお客様は、Red Hat Ceph Storage 5.1 までアップグレードを行うことが推奨されます。
ceph orch host rm
コマンドが、Red Hat Ceph Storage クラスターのホストの Ceph デーモンを削除しない
ceph orch host rm
コマンドは出力を提供しません。これは、データの損失につながる Ceph デーモンの偶発的な削除を回避するために期待される動作です。
この問題を回避するには、Ceph デーモンを手動で削除する必要があります。Red Hat Ceph Storage クラスターのホストの削除については、Red Hat Ceph Storage オペレーションガイドの Ceph Orchestrator を使用したホストの削除 セクションのステップを参照してください。
Ceph モニターが、Red Hat Ceph Storage クラスターから削除した後でも迷子のデーモンとして報告される
Cephadm は、ストレージクラスターから削除されている場合でも、Ceph モニターが迷子のデーモンとして報告します。
この問題を回避するには、ceph mgr fail
コマンドを実行します。これにより、マネージャーが再起動し、エラーをクリアできます。スタンバイマネージャーがない場合は、ceph mgr fail
コマンドを実行すると、クラスターが一時的に応答しなくなります。
モニターが _admin
ラベルなしでノードに移動すると、Cephadm シェルへのアクセスが失われる
ブートストラップ後、_admin
ラベルがない場合にモニターが他のノードに移動すると、Cephadm シェルへのアクセスが失われます。この問題を回避するには、移行先ホストに _admin
ラベルがあることを確認します。
Cephadm を使用した Red Hat Ceph Storage のアップグレードは、スタンバイ MDS デーモンがない場合に停止する
既存の MDS サービスと共に Red Hat Ceph Storage をアップグレードし、アクティブなスタンバイデーモンがない状態で、プロセスは停止します。
この問題を回避するには、Cephadm 経由でアップグレードする前に少なくとも 1 つのスタンバイ MDS デーモンがあることを確認します。
ceph fs status FILE_SYSTEM_NAME
を実行します。
スタンバイデーモンがない場合は、MDS デーモンを追加してからストレージクラスターをアップグレードします。スタンバイデーモンが存在する場合に、アップグレードは期待どおりに機能します。
ceph orch ls
コマンドが、Red Hat Ceph Storage クラスターで作成可能な正しい OSD 数をリスト表示しない
コマンド ceph orch ls
は、以下の出力を表示します。
例
# ceph orch ls osd.all-available-devices 12/16 4m ago 4h *
上記の出力によると、4 つの OSD が開始されていませんが、これは正しくありません。
この問題を回避するには、ceph -s
コマンドを実行して、すべての OSD が Red Hat Ceph Storage クラスターで稼働しているかどうかを確認します。
ceph orch osd rm help
コマンドでパラメーターの説明に誤りがある
ceph orch osd rm help
コマンドは、ceph orch osd rm OSD_ID… [--replace] [--force]
ではなく ceph orch osd rm SVC_ID … [--replace] [--force]
パラメーターを提供します。これにより、OSD を削除するときに SVC_ID
を指定するようにユーザーに求めます。
この問題を回避するには、OSD ID OSD_ID
パラメーターを使用して、Red Hat Ceph Storage クラスターの OSD を削除します。
設定パラメーター osd_memory_target_autotune
を有効にすることが可能
このリリースでは、osd_memory_target_autotune
がデフォルトで無効になりました。以下のコマンドを実行すると、OSD メモリーの自動チューニングを有効にすることができます。
ceph config set osd osd_memory_target_autotune true
6.2. Ceph Dashboard
Red Hat Ceph Storage Dashboard のストレージクラスターからホストを削除する前に、ホストからサービスを削除する
サービスを削除する前に Red Hat Ceph Storage Dashboard 上のホストを削除すると、ホストが古い、停止状態、またはゴースト状態になります。
この問題を回避するには、ホストで実行しているすべてのサービスを手動で削除してから、Red Hat Ceph Storage Dashboard を使用してストレージクラスターからホストを削除します。サービスを削除せずにホストを削除する場合は、ホストを再度追加するには、コマンドラインインターフェイスを使用する必要があります。サービスを削除せずにホストを削除する場合は、コマンドラインインターフェイスを使用してホストを再度追加する必要があります。
ユーザーは、Red Hat Ceph Storage Dashboard でサブボリュームのスナップショットを作成することができない
このリリースでは、ユーザーは Red Hat Ceph Storage Dashboard 上のサブボリュームのスナップショットを作成できなくなりました。ユーザーがダッシュボードでサブボリュームのスナップショットを作成すると、ユーザーはより詳細なエラーメッセージではなく 500 エラーを取得します。
Red Hat Ceph Storage Dashboard は、デフォルトの CRUSH ルートの子の OSD だけを表示する
Red Hat Ceph Storage Dashboard は、データセンター、ゾーン、ラックなどの他の CRUSH タイプを無視するデフォルトの CRUSH ルートの子を考慮します。その結果、ダッシュボードの CRUSH マップビューアーは、デフォルトの CRUSH ルートの一部ではない OSD を表示しません。
Ceph ダッシュボードのストレージクラスターの OSD のツリービューは、ceph osd tree
の出力のようになります。
ユーザーは、chrome 拡張機能またはプラグインを使用して Red Hat Ceph Storage Dashboard にログインできない
ブラウザーに使用されているプラグインの Chrome 拡張機能がある場合は、Red Hat Ceph Storage Dashboard にログインすることはできません。
この問題を回避するには、使用中の特定のドメイン名の Cookie を消去するか、Incognito モードを使用して Red Hat Ceph Storage Dashboard にアクセスします。
Red Hat Ceph Storage Dashboard のグラフが表示されない
grafana サーバーの証明書がクライアントマシンで信頼されていないため、Red Hat Ceph Storage Dashboard のグラフは表示されません。
この問題を回避するには、クライアントのインターネットブラウザーで Grafana URL を直接開き、セキュリティー例外を受け入れ、Ceph ダッシュボードのグラフを確認します。
Red Hat Ceph Storage クラスターで NFS-Ganesha エクスポートを管理するための互換性のないアプローチ
現時点で、Ceph クラスターで NFS-Ganesha エクスポートを管理するには、2 つの異なるアプローチがあります。1 つは Dashboard を使用し、もう 1 つはコマンドラインインターフェイスを使用していることです。エクスポートが 1 つの方法で作成される場合、ユーザーは他の方法でエクスポートを管理できない可能性があります。
この問題を回避するには、Red Hat は、NFS のデプロイと管理を行う 1 つの方法に従うことを推奨します。これにより、変更できない NFS エクスポートの重複や管理を回避します。
ダッシュボード関連の URL および Grafana API URL には短いホスト名でアクセスできない
この問題を回避するには、Red Hat Ceph Storage ダッシュボードの Cluster ドロップダウンメニューで Manager モジュールをクリックします。設定を短縮ホスト名 URL から FQDN URL に変更します。ceph mgr module disable dashboard
コマンドを使用してダッシュボードを無効にし、ceph mgr module enable dashboard
コマンドを使用して dashboard モジュールを再度有効にします。
ダッシュボードは、Grafana API URL および他のダッシュボード URL にアクセスできるはずです。
HA-Proxy-RGW サービス管理は Red Hat Ceph Storage Dashboard ではサポートされない
Red Hat Ceph Storage Dashboard は、Ceph Object Gateway の HA プロキシーサービスをサポートしません。
回避策として、HA proxy-RGW サービスは Cephadm CLI を使用して管理できます。Red Hat Ceph Storage ダッシュボードでのみサービスを表示できます。
Red Hat では、Red Hat Ceph Storage Dashboard 上のバックエンドで Ceph File システムでの NFS エクスポートがサポートされない
Red Hat では、Red Hat Ceph Storage Dashboard 上の Ceph File System (CephFS) での NFS エクスポートの管理はサポートしません。現在、バックエンドの Ceph オブジェクトゲートウェイの NFS エクスポートがサポートされています。
6.3. Ceph ファイルシステム
バックトレースが CephFS scrub 操作で予想通りに機能するようになる
以前のバージョンでは、バックトレースは安定したストレージに書き込まれていませんでした。スクラブアクティビティーは、バックトレースが新規および同期されていないエントリーのインメモリーコピーに一致しないと失敗を報告していました。バックトレースをディスクに保存する必要がなかったため、永続的にパージされようとしていた迷子のエントリーでも、バックトレースの不一致が発生しました。進行中のメタデータ I/O が原因で、生の統計のアカウンティングが瞬時に行われないため、大量のメタデータ I/O があった場合、生の統計が一致しないことが発生した可能性があります。
この問題を回避するには、システムがアイドル状態の場合に scrub を再実行し、インメモリー状態をディスクにフラッシュするのに十分な時間がありました。その結果、メタデータがディスクにフラッシュされると、これらのエラーは解決されます。ディスク上にバックトレースが見つからず、ファイルが新しく、エントリーが迷子になっていてパージされようとしている場合は、バックトレースの検証が成功します。
詳細は、Ceph status shows HEALTH_ERR with MDSs report damaged metadata を参照してください。
NFS マウントが複数のエクスポートでアクセス可能になる
以前のバージョンでは、複数の CephFS エクスポートが作成されると、エクスポートへの読み取り/書き込みがハングしていました。その結果、NFS マウントはアクセスできませんでした。この問題を回避するために、Ganesha バージョン 3.3-2 以前で単一のエクスポートがサポートされています。今回のリリースでは、Ganesha バージョン 3.3-3 以降が使用されている場合に、複数の CephFS エクスポートがサポートされるようになりました。
cephfs-top
ユーティリティーは誤ったマウントと不足しているメトリックスを表示
cephfs-top
ユーティリティーは、現在 Red Hat Enterprise Linux 8 に同梱されるカーネルよりも新しいカーネルを想定しています。cephfs-top
ユーティリティーには、パフォーマンス統計パッチセットがすべて必要になります。現在、この既知の問題の回避策はありません。
6.4. Ceph Object Gateway
バージョン管理されたバケットの LC ポリシーが、リシャード間で失敗する
現在、バージョン管理されたバケットでバージョン管理を一時停止して有効にした後、LC ポリシーが機能せず、その間にリシャードがあります。
radosgw-admin user stats
コマンドは、size_utilized
フィールドおよび size_kb_utilized
フィールドの誤った値を表示する
Red Hat Ceph Storage クラスターにバケットを追加した後に radosgw-admin user stats
コマンドを実行すると、出力には size_utilized
フィールドおよび size_kb_utilized
フィールドに誤った値が表示されます。これらは常にゼロとして表示されます。
この問題に対する回避策はありません。ユーザーはこれらの値を無視できます。
6.5. マルチサイトの Ceph Object Gateway
🚧 [5.0][rgw-multisite][Scale-testing][LC]: プライマリーから 1650 万個のオブジェクトを LC で削除しても、セカンダリーからはそれぞれの数のオブジェクトが削除されない。|
🚧 [rgw-multisite][swift-cosbench]: オブジェクトの上書き時にインデックスのサイズが確実に更新されず、プライマリーとセカンダリーの統計値が曖昧になることがある。|
6.6. Ceph Ansible ユーティリティー
Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 へのアップグレード後に rbd-mirroring が想定どおりに動作しない
Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 へのストレージクラスターの移行後に、cephadm-adopt
Playbook で rbd-mirroring を起動しません。
この問題を回避するには、ピアを手動で追加します。
構文
rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME
例
[ceph: root@host01 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b
詳細は、Red Hat Ceph Storage ブロックデバイスガイドの ストレージクラスターのピアの追加 セクションを参照してください。
現在、Grafana ノードでダッシュボードが有効になっていると、cephadm-adopt.yml Playbook
が失敗します。
現在、cephadm-adopt.yml Playbook
は、Ceph モニターのみでデプロイされたノードに /etc/ceph
ディレクトリーを作成しないため、実行に失敗します。
この問題を回避するには、Playbook を実行する前に、Ceph モニターノードに /etc/
ceph ディレクトリーを手動で作成します。ディレクトリーが ceph
ユーザーの UID と GID によって所有されていることを確認します。
6.7. ドキュメントに関する既知の問題
Red Hat Ceph Storage Dashboard で Ceph ファイルシステムのスナップショットを管理するユーザー向けドキュメント
この機能の詳細は、Red Hat Ceph Storage Dashboard ガイドの次のバージョンに含まれています。
Red Hat Ceph Storage Dashboard でホストを管理するドキュメント
この機能の詳細は、Red Hat Ceph Storage Dashboard ガイドの次のバージョンに含まれています。
ユーザーが RBD イメージを即時にインポートするためのドキュメント
rbd import
コマンドの詳細は、次のバージョンのRed Hat Ceph Storage ブロックデバイスガイドに含まれています。
第7章 非推奨になった機能
本セクションでは、Red Hat Ceph Storage の本リリースまでのすべてのマイナーリリースで非推奨となった機能の概要を説明します。
Ceph 設定ファイルが非推奨に
Ceph 設定ファイル (ceph.conf
) が非推奨になり、Ceph Monitor に保管された新たな集中設定が提供されるようになりました。詳細は、Red Hat Ceph Storage Configuration Guideの The Ceph configuration database セクションを参照してください。
Ceph File System (CephFS) の min_compat_client
パラメーターが非推奨に
Red Hat Ceph Storage 5.0 では min_compat_client
パラメーターは非推奨となり、Ceph File Systems (CephFS) の設定用に新規クライアント機能が追加されます。詳細は、Red Hat Ceph Storage ファイルシステムガイドの クライアント機能 セクションを参照してください。
Ceph File System サブボリュームグループのスナップショットが非推奨に
Ceph File System (CephFS) サブボリュームグループのスナップショット機能は、Red Hat Ceph Storage 5.0 では非推奨になりました。既存のスナップショットは、必要に応じてリスト表示および削除できます。詳細は、Red Hat Ceph Storage Ceph ファイルシステムガイドの ファイルシステムサブボリュームグループのスナップショットのリスト表示 セクションおよび ファイルシステムサブボリュームグループのスナップショットの削除 セクションを参照してください。
Cockpit Ceph インストーラーが非推奨に
Cockpit Ceph Installer を使用した Red Hat Ceph Storage クラスター 5 のインストールはサポートされていません。Cephadm を使用して Red Hat Ceph Storage クラスターをインストールします。詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
第8章 ソース
更新された Red Hat Ceph Storage ソースコードパッケージは、以下の場所から入手できます。
- Red Hat Enterprise Linux 8 の場合: http://ftp.redhat.com/redhat/linux/enterprise/8Base/en/RHCEPH/SRPMS/