第3章 新機能

本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能の一覧を紹介します。

本リリースで追加された主な機能は以下のとおりです。

  • コンテナー化されたクラスター

    Red Hat Ceph Storage 5 は、コンテナー化されたデーモンのみをサポートします。コンテナーされていないストレージクラスターはサポートされません。コンテナー化されていないストレージクラスターを Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 にアップグレードする場合、アップグレードプロセスには、コンテナー化されたデプロイメントへの変換が含まれます。

    詳細は、Red Hat Ceph Storage Installation GuideUpgrading a Red Hat Ceph Storage cluster from RHCS 4 to RHCS 5セクションを参照してください。

  • Cephadm

    Cephadm は、manager デーモンからホストに接続して Red Hat Ceph Storage 5.0 クラスターをデプロイし、管理する新しいコンテナー化されたデプロイメントツールです。cephadm ユーティリティーは、Red Hat Ceph Storage デプロイメントの ceph-ansible に代わるものです。Cephadm の目的は、Red Hat Ceph Storage をための、フル機能を備え、堅牢で、適切にインストールされた管理レイヤーを提供することです。

    cephadm コマンドは、Red Hat Ceph Storage クラスターの完全なライフサイクルを管理します。

    cephadm コマンドは、以下の操作を行うことができます。

  • 新しい Ceph Storage クラスターをブートストラップします。
  • Ceph コマンドラインインターフェース (CLI) と連携するコンテナー化されたシェルを起動します。
  • コンテナー化されたデーモンのデバッグを支援します。

    cephadm コマンドは ssh を使用してストレージクラスターのノードと通信し、Ceph デーモンコンテナーを追加、削除、または更新します。これにより、外部ツールを使用せずに Red Hat Ceph Storage コンテナーを追加、削除、または更新できます。

    cephadm コマンドには、2 つの主要コンポーネントがあります。

  • cephadm シェルは、コンテナー内の bash シェルを起動します。これにより、ストレージクラスターのインストールと設定タスクを実行し、コンテナーで ceph コマンドを実行できます。
  • cephadm オーケストレーターコマンドにより、Ceph デーモンおよびサービスをプロビジョニングし、ストレージクラスターを拡張できます。

    詳細は、『Red Hat Ceph Storage インストールガイド』を参照してください。

  • 管理 API

    管理 API は、Red Hat Ceph Storage 5.0 に適用される管理スクリプトを作成し、バージョンのライフサイクルには変更されない動作を維持します。互換性のないバージョンの API は、メジャーリリースの行ごとにのみ発生します。

    詳細は、『Red Hat Ceph Storage 開発者ガイド』を参照してください。

  • Red Hat Ceph Storage の非接続インストール

    Red Hat Ceph Storage 5.0 は、プライベートネットワークでのストレージクラスターの非接続インストールおよびブートストラップをサポートします。非接続インストールでは、ネットワークからファイルをダウンロードするのではなく、カスタムイメージ、設定ファイル、およびローカルホストが使用されます。

    Red Hat レジストリーにアクセスできるプロキシーホストからダウンロードしたコンテナーイメージをインストールするか、またはローカルレジストリーにコンテナーイメージをコピーします。ブートストラッププロセスでは、名前および IP アドレスで追加されるホストを識別する仕様ファイルが必要です。初回のモニターホストがブートストラップされたら、Ceph Orchestrator コマンドを使用してストレージクラスターを拡張し、設定できます。

    詳細は、『Red Hat Ceph Storage インストールガイド』を参照してください。

  • Ceph File System のジオレプリケーション

    Red Hat Ceph Storage 5 リリース以降、Ceph File Systems (CephFS) は、地理的な場所または異なるサイト間で複製することができます。新しい cephfs-mirror デーモンは、スナップショットのリモートの CephFS への非同期レプリケーションを実行します。

    詳細は、『Red Hat Ceph Storage ファイルシステムガイド』「Ceph File System ミラー」セクションを参照してください。

  • 新しい Ceph File System クライアントパフォーマンスツール

    Red Hat Ceph Storage 5 リリース以降、Ceph ファイルシステム (CephFS) は、Ceph ファイルシステムのメトリックをリアルタイムで表示するための top のようなユーティリティーを提供します。cephfs-top ユーティリティーは、Ceph Manager の stats モジュールを使用してクライアントパフォーマンスメトリックを取得して表示する curses ベースの Python スクリプトです。

    詳細は、『Red Hat Ceph Storage ファイルシステムガイド』cephfs-top ユーティリティーの使用」セクションを参照してください。

  • Red Hat Ceph Storage Dashboard を使用した Ceph オブジェクトゲートウェイのマルチサイトの監視

    Red Hat Ceph Storage ダッシュボードを使用して、Ceph オブジェクトゲートウェイのマルチサイト設定をモニタリングできるようになりました。

    cephadm ユーティリティーを使用してマルチゾーンが設定されたら、あるゾーンのバケットが他のゾーンおよびその他のサイトに表示されます。ダッシュボードでバケットを作成、編集、削除することも可能です。

    詳細は、『Red Hat Ceph Storage Dashboard ガイド』「Ceph ダッシュボードのマルチサイトオブジェクト設定のバケットの管理」の章を参照してください。

  • BlueStore スペースの使用状況を向上

    Ceph Object Gateway および Ceph ファイルシステム (CephFS) は、小規模なオブジェクトおよびファイルを RADOS に個別のオブジェクトとして格納します。このリリースでは、SSD の場合は BlueStore の min_alloc_size のデフォルト値が、4 KB になりました。これにより、パフォーマンスに影響を及ぼさずに領域の使用が改善されます。

    詳細は、『Red Hat Ceph Storage 管理ガイド』「OSD BlueStore」の章を参照してください。

3.1. Cephadm ユーティリティー

Red Hat Ceph Storage が Ceph OSD メモリーターゲットを自動的にチューニングできるようになりました。

このリリースでは、osd_memory_target_autotune オプションが修正され、期待どおりに機能するようになりました。ユーザーは、Red Hat Ceph Storageを有効にして、Ceph OSDのメモリターゲットを明示的に設定しなくても、ストレージクラスター内のCeph OSDのCeph OSDメモリターゲットを自動的に調整してパフォーマンスを向上させることができます。Red Hat Ceph Storage は、利用可能な合計メモリーとノードで実行しているデーモンを評価することで、Ceph OSD メモリーターゲットをノードごとに設定します。

以下のコマンドを実行すると、Ceph OSD のメモリー自動チューニング機能を有効にできます。

ceph config set osd osd_memory_target_autotune true