3.3. Ceph ファイルシステム

CephFS クライアントは、メタデータサーバー (MDS) によってブロックリストに登録された後、再接続できるようになる

以前のリリースでは、ネットワークパーティションやその他の一時的なエラーにより、Ceph File System (CephFS) クライアントは MDS によってブロックリストに登録されていました。

このリリースでは、手動で再マウントする必要がないため、CephFS クライアントは、クライアントごとに適切な構成をオンにしてマウントに再接続できます。

MDS 間でサブツリーを自動配布するための一時的なピニングポリシーを使用可能

このリリースでは、サブツリーを固定するための効率的な戦略を導入することでエクスポートピンが改善され、メタデータサーバー (MDS) 間でサブツリーを自動配布できるようになり、手動で固定するためのユーザーの介入がなくなりました。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「一時ピニングポリシー」セクションを参照してください。

mount.cephrecover_session=clean オプションを追加

このリリースでは、mount.cephrecover_session=clean の追加オプションが追加されました。このオプションを使用すると、クライアントは、メタデータサーバー (MDS) によってブロックリストに登録されていることを検出すると、Red Hat Ceph Storage クラスターに自動的に再接続し、マウントが自動的に回復されます。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「ブロックリストからの Ceph ファイルシステムクライアントの削除」セクションを参照してください。

Ceph File System でのメタデータ操作の非同期作成および削除

このリリースでは、Red Hat Enterprise Linux 8.4 カーネルマウントは、Red Hat Ceph Storage クラスターでファイルの作成および削除を非同期に実行できるようになりました。これにより、整合性に影響を与えずにこれらのシステムコールのラウンドトリップレイテンシーを回避することで、一部のワークロードのパフォーマンスが改善されます。非同期ファイルの作成および削除を有効にするには、新しい -o nowsync マウントオプションを使用します。

Ceph File System (CephFS) が、mds_join_fsという MDS の設定オプションを提供

このリリースでは、メタデータサーバー (MDS) デーモンをフェイルオーバーするときに、クラスターのモニターは、失敗したrank のファイルシステム名と等しい mds_join_fs のスタンバイデーモンを優先します。

mds_join_fs がファイルシステム name と等しいスタンバイが存在しない場合は、最後の手段として、置換用の非修飾スタンバイ、またはその他の使用可能なスタンバイを選択します。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「ファイルシステムのアフィニティー」セクションを参照してください。

Ceph ファイルシステム間のスナップショットの非同期レプリケーション

このリリースでは、manager プラグインであるミラーリングモジュールが、ディレクトリースナップショットミラーリングを管理するインターフェースを提供するようになりました。ミラーリングモジュールは、同期のためにミラーデーモンにディレクトリーを割り当てます。現在、単一ミラーデーモンがサポートされ、cephadm を使用してデプロイできます。

Ceph File System (CephFS) は、cephfs-mirror ツールを使用して、リモートの CephFS へのスナップショットの非同期レプリケーションをサポートします。ミラーデーモンは、Red Hat Ceph Storage クラスターの複数のファイルシステムのスナップショット同期を処理できます。スナップショットは、スナップショットデータをミラーリングした後、同期されるスナップショットと同じ名前でリモートファイルシステム上の特定のディレクトリーにスナップショットを作成することによって同期されます。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「Ceph ファイルシステムのミラー」セクションを参照してください。

cephfs-top ツールに対応

このリリースでは、cephfs-top ツールが導入されました。

Ceph は、さまざまな Ceph File System (CephFS) メトリックをリアルタイムで表示するユーティリティーなどの top(1) を提供します。cephfs-top は、Ceph Manager の stats プラグインを使用してメトリックスを取得し、表示する curses ベースの python スクリプトです。

CephFS クライアントでは、さまざまなメトリックスを Ceph Metadata Server (MDS) に定期的に転送します。これにより、集約のためにこれらのメトリックスを MDS ランクゼロに転送します。これらの集約メトリックスは、消費のために Ceph Manager に転送されします。

メトリックスは、global と per-mds の 2 つのカテゴリーに分類されます。グローバルメトリックスは、たとえば、クライアントの読み取りレイテンシー全体として、ファイルシステムのメトリックスのセットを表します。ただし、mds ごとのメトリックスは、MDS によって処理されるサブツリーの数などの特定の MDS ランク用です。

現時点で、グローバルメトリックスは追跡および表示されます。cephfs-top コマンドは、複数の Ceph File Systems では確実に機能しません。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』cephfs-top ユーティリティーの使用」セクションを参照してください。

MDS デーモンを mds_autoscaler プラグインでデプロイ可能

このリリースでは、Ceph File System (CephFS) の要件に対応してメタデータサーバー (MDS) デーモンをデプロイする新しい ceph-mgr プラグインである mds_autoscaler が利用できるようになりました。有効にすると、mds_autoscalermax_mds の設定にしたがって必要なスタンバイ状態を自動的にデプロイし、アクティブにします。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「MDS autoscaler モジュールの使用」セクションを参照してください。

Ceph File System (CephFS) スクラブが、複数のアクティブな MDS で機能するようになる

以前のリリースでは、ユーザーは max_mds=1 パラメーターを設定し、アクティブなメタデータサーバー (MDS) のみが Ceph File System (CephFS) スクラブ操作を実行するまで待機する必要がありました。

このリリースでは、mds_max の値に関係なく、ユーザーは複数のアクティブな MDS を使用してランク 0 で実行できるようになりました。

詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「複数のアクティブな Metadata Server デーモンの設定」セクションを参照してください。

snap_schedule プラグインで Ceph File System スナップショットをスケジュール可能

このリリースでは、新しい ceph-mgr プラグイン snap_schedule が、Ceph File System (CephFS) のスナップショットをスケジューリングできるようになりました。スナップショットは作成、保持、および自動ガべージコレクションにすることができます。