3.6. RADOS

Red Hat Ceph Storage においてイレイジャーコーディング (EC) プールで利用可能な OSD の数を減らして回復

以前は、サイズ k+m のイレイジャーコード (EC) プールには、復元が機能するために少なくとも k+1 のコピーが必要でした。k コピーのみが利用可能な場合は、復元が完了しません。

このリリースでは、Red Hat Ceph Storage クラスターは、EC プールで利用可能な k またはそれ以上のコピーで復元するようになりました。

イレーシャーコード化プールの詳細は、『Red Hat Ceph Storage ストレージストラテジーガイド』「イレーシャーコード化プール」の章を参照してください。

列ファミリーを使用した RocksDB データベースのシャーディングに対応

BlueStore 管理ツールの目標は、読み取りと書き込みの増幅を減らし、圧縮中のDB (データベース) の拡張を減らし、IOPS のパフォーマンスを向上させることです。

このリリースでは、BlueStore 管理ツールを使用してデータベースをリシャード化できるようになりました。RocksDB (DB) データベースのデータは複数の Column Families (CF) に分割されます。各 CF には独自のオプションがあり、omap、オブジェクトデータ、遅延されたキャッシュ書き込み、PGlog などのデータのタイプに応じて分割が実行されます。

シャード化の詳細は、『Red Hat Ceph Storage 管理ガイド』「BlueStore 管理ツールを使用して RocksDB データベースのリシャード化」セクションを参照してください。

Ceph モニター用に mon_allow_pool_size_one 設定オプションを有効にすることが可能

このリリースでは、設定オプション mon_allow_pool_size_one を有効にできるようになりました。有効にすると、ユーザーがプールサイズを 1 に設定する場合は、osd pool set size 1 のフラグ --yes-i-really-mean-it を渡す必要があります。

osd_client_message_cap オプションが追加

以前のリリースでは、osd_client_message_cap オプションは削除されました。このリリースでは、osd_client_message_cap オプションが再導入されました。このオプションは、これらのリクエストをスロットリングして、インフライトクライアント要求の最大数を制御するのに役立ちます。これは、クライアントベースのトラフィックが圧倒的に多いために Ceph OSD がフラップする場合に役立ちます。

Ceph messenger プロトコルが msgr v2.1 に更新

このリリースでは、新しいバージョンの Ceph messenger プロトコル msgr v2.1 が実装され、以前のバージョンである msgr v2.0 に存在する複数のセキュリティー、整合性、および潜在的なパフォーマンスの問題に対応するようになりました。すべての Ceph エンティティー(デーモンとクライアントの両方)は、デフォルトでは msgr v2.1 になりました。

新しいデフォルトの osd_client_message_cap 値は 256です。

以前のリリースでは、osd_client_message_cap のデフォルト値は 0 でした。デフォルト値の 0 は、Ceph OSD のフロー制御機能を無効にし、クライアントトラフィックが多いときにCeph OSDがフラッピングするのを妨げないようにします。

このリリースでは、osd_client_message_cap のデフォルト値 256 が、インフライトクライアントリクエストの最大数を制限することで、フロー制御が改善されました。

set_new_tiebreaker コマンドの追加

今回のリリースにより、ストレージ管理者は、ストレッチモードでストレージクラスターで実行する際に、新しい tiebreak Ceph Monitor を設定できるようになりました。このコマンドは、tiebreaker が失敗して復元できない場合に役に立ちます。