3.8. RADOS

Ceph on-wire 暗号化

Red Hat Ceph Storage 4 以降、バージョン 2 プロトコルの導入により、ネットワーク経由のすべての Ceph トラフィックの暗号化を有効にできます。詳細は、『Red Hat Ceph Storage 4 の Data Security and Hardening Guide』の「Transmission Guide and Encryption」の「Ceph on-wire encryption 」の章を参照 してください

OSD BlueStore が完全にサポートされるようになりました。

bluestore は、OSD デーモンの新しいバックエンドで、ブロックデバイスに直接オブジェクトを保存できるようにします。BlueStore はファイルシステムインターフェースを必要としないため、Ceph ストレージクラスターのパフォーマンスが向上します。BlueStore OSD バックエンドの詳細は、『Administration Guide for Red Hat Ceph Storage 4』の OSD BlueStore の章を参照してください。

FIPS モードの Red Hat Enterprise Linux

今回のリリースで、FIPS モードが有効になっている Red Hat Enterprise Linux に Red Hat Ceph Storage をインストールできるようになりました。

ceph df の出力と新しい ceph osd df コマンドを変更します。

ceph df コマンドの出力が改善されました。特に、RAW USED および %RAW USED の値は、db パーティションおよび wal BlueStore パーティションの事前割り当て領域を表示するようになりました。ceph osd df コマンドは、書き込まれたデータの量など、OSD の使用率統計を表示します。

非アクティブ化 OSD セットの非同期リカバリー

以前のバージョンでは、Ceph でのリカバリーは、オブジェクトが復元されるまで、オブジェクトへの書き込み操作をブロックすることで同期プロセスでした。本リリースでは、動作していない OSD セットでのみ、オブジェクトへの書き込み操作をブロックしないことで、リカバリープロセスは非同期になりました。この新機能には、非稼働セットに十分な OSD があるように、レプリカの最小数以上にする必要があります。

新しい設定オプション osd_async_recovery_min_cost は、実行する非同期リカバリーの量を制御します。このオプションのデフォルト値は 100 です。値が大きいほど、非同期復元は減りますが、値が小さいほど非同期リカバリーがより大きくなることを意味します。

ceph configを使用して、設定が Monitors に保管されるようになりました。

本リリースでは、Red Hat Ceph Storage は Ceph 設定ファイル(ceph.conf)の代わりに Monitor の設定を集中化します。以前では、手動で ceph.conf を更新し、これを適切なノードに分散して、影響を受けるデーモンをすべて再起動することが含まれていました。今回のリリースより、モニターは ceph.conf と同じセマンティック構造を持つ設定データベースを管理します。データベースは、ceph config コマンドでアクセスできます。設定への変更は、システムのデーモンまたはクライアントに即座に適用され、システムを再起動する必要がなくなりました。利用可能なコマンドセットの詳細は、ceph config -h コマンドを使用します。Monitors ノードを特定するには、Ceph 設定ファイルが依然として必要になることに注意してください。

配置グループを自動スケーリング可能に

Red Hat Ceph Storage 4 では、自動配置グループ(PG)が導入されています。プール内の配置グループ(PG)の数は、クラスターピアがデータの分散、およびリバランス方法において重要な役割を果たします。PG の数の自動スケーリングにより、クラスターの管理が容易になります。新しい pg-autoscaling コマンドは、PG をスケーリングするための推奨事項を提供し、またはクラスターの使用方法に基づいて PG を自動的にスケーリングします。自動スケーリング PG の詳細は、『 Storage Strategies Guide for Red Hat Ceph Storage 4』の「 自動スケーリング配置グループ 」セクションを参照してください。

ディスク予測モジュール 導入

Red Hat Ceph Storage の diskprediction モジュールはメトリクス 収集し、それらのメトリクスが発生する前にディスク障害を予測します。モジュールには、cloud と local の 2 つのモードがあります。今回のリリースで、ローカルモードのみがサポートされるようになりました。ローカルモードでは、データ分析に外部サーバーは必要ありません。これは、ディスク予測サービスの内部予測モジュールを使用してから、ディスクの予測結果を Ceph システムに戻します。

diskprediction モジュール を有効にするには、以下を実行します。

ceph mgr module enable diskprediction_local

予測モードを設定するには、以下を実行します。

ceph config set global device_failure_prediction_mode local

ディスク予測 モジュール を無効にするには、以下を実行します。

ceph config set global device_failure_prediction_mode none

新しい設定可能なオプション: mon_memory_target

Red Hat Ceph Storage 4 では、メモリー使用量を監視するために、新しい設定可能なオプション mon_memory_target が導入されました。関連付けられた Monitor デーモンキャッシュの優先順位キャッシュタナーを使用して、割り当ておよび管理するメモリーの量を指定します。mon_memory_target のデフォルト値は 2 GiB に設定され、ランタイム時に以下を使用して変更できます。

# ceph config set global mon_memory_target size

今回のリリース以前は、クラスターがスケーリングすると、Monitor specific RSS の使用は mon_osd_cache_size オプションを使用して設定した制限を超えていました。これにより問題が発生していました。今回の機能拡張により、モニターキャッシュに割り当てられるメモリーの管理を改善し、使用状況を指定された制限内に保持できるようになりました。