リリースノート

Red Hat Ceph Storage 4.3

Red Hat Ceph Storage 4.3 のリリースノート

概要

本リリースノートでは、Red Hat Ceph Storage 4.3 製品リリース向けに実装された主要な機能、機能拡張、既知の問題、バグ修正を説明します。本リリースノートには、現在のリリースより前の Red Hat Ceph Storage 4.2 リリースのリリースノートが含まれます。
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、弊社の CTO、Chris Wright のメッセージ を参照してください。

第1章 はじめに

Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。

Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/en/red-hat-ceph-storage/ から入手できます。

第2章 謝辞

Red Hat Ceph Storage バージョン 4.2 には、Red Hat Ceph Storage チームの数多くの貢献が反映されています。さらに Ceph プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の度合いが質と量の両面で大幅に拡大しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、および以下の組織を含むすべての方々の貢献に謝意を表します。

  • Intel
  • Fujitsu
  • UnitedStack
  • Yahoo
  • Ubuntu Kylin
  • Mellanox
  • CERN
  • Deutsche Telekom
  • Mirantis
  • SanDisk
  • SUSE

第3章 新機能

本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能の一覧を紹介します。

本リリースで追加された主な機能は、以下のとおりです。

  • マルチサイトでのバケットの動的リシャーディングをサポート。

3.1. Ceph Ansible ユーティリティー

ダッシュボードとモニターリングスタックのみをパージできるようになりました。

以前のバージョンでは、Alertmanager、Prometheus、Grafana、node-exporter などの Ceph Manager Dashboard and Monitoring スタックコンポーネントだけを個別にパージすることはできませんでした。

`purge-dashboard.yml ` Playbook を使用すると、ユーザーはダッシュボードとモニタリングスタックコンポーネントのみを削除できます。

osd_auto_discovery: true を使用してストレージクラスターをパージし、Ceph OSD を削除するようになりました。

以前のバージョンでは、osd_auto_discovery: true でデプロイされたストレージクラスターをパージしても、Ceph OSD がパージされませんでした。今回のリリースにより、purge Playbook は予想通りに機能し、osd_auto_discovery: true のシナリオでストレージクラスターがデプロイされると Ceph OSD を削除するようになりました。

Alertmanager 設定はカスタマイズ可能

今回のリリースにより、/group_vars/all.yml ファイルの alertmanager_conf_overrides パラメーターを使用して Alertmanager 設定をカスタマイズできます。

Red Hat Ceph Storage Dashboard デプロイメントは専用のネットワークでサポートされます。

以前のリリースでは、ceph-ansible には、ダッシュボードのデプロイに使用するアドレスが public_network と同じサブネット上にありました。

今回のリリースにより、/group_vars/all.yml ファイルの dashboard_network パラメーターを CIDR サブネットアドレスで設定することで、ダッシュボードのデフォルトの専用サブネットを上書きすることができるようになりました。

設定ファイルでのグローバル NFS オプションを設定することがサポートされます。

以前のリリースでは、ceph-ansible は設定ファイルのパラメーターを上書きすることができませんでした。

今回のリリースで、ganesha.conf ファイルの NFS_CORE_PARAM ブロックセクションのパラメーターを上書きするには、group_vars/all.yml に ganesha_core_param_overrides 変数を設定し、クライアント関連の設定を更新できるようになりました。

ceph-ansible は、アップグレードを開始する前に Ceph Monitor クォーラムを確認する

以前のバージョンでは、Ceph モニターの 1 つがダウンしてストレージクラスターが HEALTH ERR または HEALTH WARN 状態になると、rolling_upgrade.yml Playbook が実行されていました。ただし、アップグレードに失敗し、クォーラム (定足数) が失われ、I/O が停止するか、またはクラスターに失敗していました。

今回のリリースでは、アップグレードを開始する前に ceph-ansible が Ceph Monitor クォーラムをチェックする追加の条件が発生するようになりました。

コンテナー化されたデプロイメントの systemd ターゲットユニットがサポートされるようになりました。

以前のリリースでは、コンテナー化されたデプロイメントにあるノード上のすべての Ceph デーモンを停止する方法はありませんでした。

今回のリリースにより、コンテナー化されたデプロイメントの systemd ターゲットユニットがサポートされ、ベアメタルデプロイメントと同様に、ホストまたは特定の Ceph デーモン上の Ceph デーモンをすべて停止できるようになりました。

ceph-ansible が Playbook を実行する前に、アップグレード中に関連するリリースバージョンをチェックするようになりました。

今回のリリースにより、ストレージクラスターのアップグレード中に、ceph-ansible は最初に関連するリリースバージョンをチェックし、Ceph バージョンが正しくない場合に Playbook が失敗し、エラーメッセージが表示されなくなりました。

3.2. Ceph Management Dashboard

Ceph Object Gateway のマルチサイト設定のグラフを表示する新しい Grafana Dashboard

このリリースでは、新しい Grafana ダッシュボードが利用可能になり、Ceph Object Gateway マルチサイト同期パフォーマンスのグラフ (双方向レプリケーションのスループット、ポーリングレイテンシー、レプリケーションの失敗など) が表示されるようになりました。

詳細は、Red Hat Ceph Storage Dashboard GuideMonitoring Ceph object gateway daemons on the dashboard セクションを参照してください。

3.3. Ceph ファイルシステム

max_concurrent_clones オプションを使用してクローンスレッドの数を設定します。

以前のバージョンでは、同時クローンの数は設定できず、デフォルトは 4 でした。

今回のリリースにより、マネージャー設定オプションを使用して同時クローンの最大数を設定できるようになりました。

構文

ceph config set mgr mgr/volumes/max_concurrent_clones VALUE

同時クローンの最大数を増やすと、ストレージクラスターのパフォーマンスが向上します。

3.4. Ceph オブジェクトゲートウェイ

ロール名とロールセッション情報が S3 操作の ops ログに表示されます。

今回のリリースにより、デバッグおよび監査目的で AssumeRole* 操作によって返される一時的な認証情報を使用するすべての S3 操作についてのロール名やロールセッションなどの情報を取得できるようになりました。

3.5. マルチサイトの Ceph Object Gateway

マルチサイト設定で動的なバケットインデックスのリシャーディングに対応

以前のバージョンでは、マルチサイト設定のバケットの手動によるリシャーディングのみがサポートされるようになりました。

今回のリリースにより、動的バケットのリシャーディングがマルチサイト設定でサポートされるようになりました。ストレージクラスターがアップグレードされたら、resharding 機能を有効にし、ストレージクラスター内の他のゾーンとは別に、radogw-admin bucket reshard コマンドを使用して手動で、または動的リシャーディングを使って自動的にバケットをリシャーディングします。

データ同期ロギングの処理が遅延する

以前のバージョンでは、データ同期ロギングはログエントリーの大規模なバックログを処理する際に遅延する可能性がありました。

今回のリリースにより、データ同期にバケット同期ステータスのキャッシュが含まれるようになりました。キャッシュを追加すると、バックログが存在する場合に重複するデータログエントリーの処理が高速になります。

第4章 テクノロジープレビュー

本セクションでは、Red Hat Ceph Storage の本リリースで導入または更新されたテクノロジープレビュー機能の概要を説明します。

重要

テクノロジープレビュー機能は、Red Hat の実稼働環境でのサービスレベルアグリーメント (SLA) ではサポートされていないため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。

Red Hat のテクノロジープレビュー機能のサポートについての詳細は、https を参照してください。

4.1. ブロックデバイス (RBD)

RBD イメージの NBD イメージへのマッピング

rbd-nbd ユーティリティーは、RADOS Block Device(RBD)イメージを Network Block Devices(NBD)にマップし、Ceph クライアントが Kubernetes 環境内のボリュームおよびイメージにアクセスできるようにします。rbd-nbd を使用するには、rbd-nbd パッケージをインストールします。詳細は、rbd-nbd(7) man ページを参照してください。

4.2. Object Gateway

Object Gateway アーカイブサイト

今回のリリースにより、アーカイブサイトがテクノロジープレビューとしてサポートされるようになりました。アーカイブサイトでは、アーカイブゾーンに関連付けられたゲートウェイからのみ除外できる S3 オブジェクトのバージョンの履歴を指定できます。マルチゾーン設定にアーカイブゾーンを含めると、S3 オブジェクトのレプリカが残りのゾーン内で消費する領域を節約しつつ、1 つのゾーンにのみ S3 オブジェクトの履歴の柔軟性を持たせることができます。

第5章 非推奨の機能

本セクションでは、Red Hat Ceph Storage の本リリースまでのすべてのマイナーリリースで非推奨となった機能の概要を説明します。

Ubuntu がサポート対象外

Ubuntu への Red Hat Ceph Storage 4 クラスターのインストールはサポートされなくなりました。Red Hat Enterprise Linux を基礎となるオペレーティングシステムとして使用します。

ceph-ansible を使用した iSCSI ゲートウェイの設定はサポート対象外

ceph-ansible ユーティリティーを使用した Ceph iSCSI ゲートウェイの設定はサポートされなくなりました。ceph-ansible を使用してゲートウェイをインストールし、続いて gwcli ユーティリティーを使用して Ceph iSCSI ゲートウェイを設定します。詳細は、『Red Hat Ceph Storage ブロックデバイスガイド』「Ceph iSCSI ゲートウェイ」の章を参照してください。

ceph-disk が非推奨に

ceph-disk ユーティリティーはサポートされなくなりました。代わりに ceph-volume ユーティリティーが使用されます。Red Hat Ceph Storage 4 の 『管理ガイド』に含まれるceph-volume が `ceph-disk` に置き換えられた理由」セクションを参照してください。

FileStore は実稼働環境でサポートされなくなる

FileStore OSD バックエンドは、新規 BlueStore バックエンドが実稼働環境で完全にサポートされるため、非推奨になりました。『Red Hat Ceph Storage インストールガイド』「オブジェクトストアを FileStore から BlueStore に移行する方法」セクションを参照してください。

Ceph 設定ファイルが非推奨に

Ceph 設定ファイル (ceph.conf) が非推奨になり、Ceph Monitor に保管された新たな集中設定が提供されるようになりました。詳細は、『Red Hat Ceph Storage 設定ガイド』「Ceph 設定データベース」セクションを参照してください。

第6章 バグ修正

本セクションでは、今回リリースされた Red Hat Ceph Storage で修正されたユーザーに大きな影響を及ぼすバグを説明します。また、セクションでは、以前のバージョンで見つかり修正された既知の問題を説明します。

6.1. Ceph Ansible ユーティリティー

Alertmanager は、自己署名または信頼できない証明書が使用される場合にエラーをログに記録しません。

以前のバージョンでは、信頼できない CA 証明書を使用する場合、Alertmanager はログに多くのエラーを生成していました。

今回のリリースで、ceph-ansible は、自己署名または信頼できない証明書を使用する場合に group_vars/all.yml ファイルに alertmanager_dashboard_api_no_ssl_verify: true を設定して、alertmanager.yml ファイルで insecure_skip_verify パラメーターを true に設定することができ、Alertmanager はこれらのエラーをログに記録せず、予想通りに機能するようになりました。

(BZ#1936299)

マルチサイト設定で HTTPS が有効になっている場合は、完全修飾ドメイン名 (FQDN) を使用します。

以前のリリースでは、マルチサイトの Ceph 設定では、ceph-ansible は HTTP と HTTPS を区別せず、HTTPS が有効な場合にホスト名ではなく IP アドレスでゾーンエンドポイントを設定していました。

今回のリリースで、ceph-ansible は、HTTPS が有効で、ゾーンエンドポイントが FQDN で設定され、TLS 証明書 CN と一致する場合に、IP アドレスではなく完全修飾ドメイン名 (FQDN) を使用するようになりました。

(BZ#1965504)

--pid-limits パラメーターを、podman の場合は -1、systemd ファイルの docker の場合は 0 にして追加し、コンテナーを起動します。

以前のバージョンでは、コンテナー内で実行できるプロセスの数が、podman では 2048、docker では 4096 となっていましたが、これらの制限値よりも多くのプロセスを起動する必要がある一部のコンテナーを起動するには十分ではありませんでした。

今回のリリースで、--pid-limits パラメーターを、podman の場合は -1、systemd ユニットファイルの docker の場合は 0 にして追加することで、開始可能な最大プロセスの上限を削除できるようになりました。その結果、デフォルトの制限よりも多くのプロセスを実行する必要があるかもしれない内部プロセスをカスタマイズしても、コンテナーは起動します。

(BZ#1987041)

ceph-ansible は、プロキシーの背後にある専用のタスクでモニタリングするコンテナーイメージをプルします。

以前のバージョンでは、ceph-ansible は Alertmanager、Prometheus、node-exporter、Grafana などのモニタリングコンテナーイメージを専用のタスクにプルせず、systemd サービスの起動時にイメージをプルしました。

今回のリリースで、ceph-ansible はプロキシーの背後でモニタリングするコンテナーのイメージのプルをサポートするようになりました。

(BZ#1995574)

ceph-ansible Playbook は radosgw システムユーザーを作成し、予想通りに機能します。

以前のリリースでは、ceph-ansible Playbook は radosgw システムユーザーの作成に失敗し、マルチサイトデプロイメントの host_vars または group_vars レベルで rgw_instances が設定されている場合に Dashboard のデプロイに失敗しました。この変数は Ceph Monitor ノードで設定されず、タスクを委譲すると失敗します。

今回のリリースで、ceph-ansible は定義されているすべての Ceph Object Gateway インスタンスを確認し、少なくとも 1 つのインスタンスで rgw_zonemaster が「True」に設定されているかどうかを確認するブール値のファクトを設定できるようになりました。radosgw システムユーザーが作成され、Playbook が期待どおりに機能します。

(BZ#2034595)

6.2. Ceph Management Dashboard

「Client Connection」パネルが Grafana ダッシュボードで「MGRs」に置き換えられます。

以前のバージョンでは、"Client Connection" パネルに Ceph File System 情報が表示され、意味がありませんでした。

今回のリリースにより、「MGRs」が「Client Connection」パネルを置き換え、アクティブな Ceph Manager とスタンバイ Ceph Manager の数を表示するようになりました。

(BZ#1992178)

Red Hat Ceph Storage Dashboard にディスク IOPS の値が表示されます。

以前のリリースでは、Red Hat Ceph Storage Dashboard は Hosts タブで Ceph OSD ディスクのパフォーマンスを表示しませんでした。

今回のリリースにより、Red Hat Ceph Storage Dashboard に Ceph OSD、ホストの詳細、および Grafana グラフに関する予想される情報が表示されるようになりました。

(BZ#1992246)

6.3. Ceph Volume ユーティリティー

新規 OSD の作成時に add-osd.yml Playbook が失敗しなくなりました。

以前のリリースでは、ceph-ansible を使用して新規 OSD が追加されると、Playbook の add-osd.yml が失敗しました。これは、非対話モードで新しい OSD を追加できない ceph-volume lvm batch 制限が原因でした。

今回のリリースにより、--yes および --report オプションはコマンドラインインターフェースに渡されず、新しい OSD の作成時に add-osd.yml Playbook が予想通りに機能するようになりました。

(BZ#1896803)

6.4. Ceph オブジェクトゲートウェイ

rgw_bucket_quota_soft_threshold パラメーターが無効になっている

以前のバージョンでは、キャッシュされた使用率が rgw_bucket_quota_soft_threshold に達した場合に、Ceph Object Gateway はバケットインデックスから使用状況情報を取得し、バケットインデックスで操作が多くなり、要求が遅くなりました。

本リリースでは rgw_bucket_quota_soft_threshold パラメーターが削除され、キャッシュされた統計が使用されるため、クォータ制限がほぼ到達してもパフォーマンスが向上します。

(BZ#1965314)

マーカーのトリミング中に radosgw-admin datalog trim コマンドがクラッシュしない

以前のバージョンでは、radosgw-admin から現世代のマーカーをトリミングする際に、論理エラーにより radosgw-admin datalog trim コマンドがクラッシュしていました。

本リリースでは、radosgw-admin datalog trim コマンドがクラッシュしなくても、ロジックエラーおよびログのトリムが修正されました。

(BZ#1981860)

6.5. Ceph Manager プラグイン

クラスターの正常性変更が永続ストレージにコミットされなくなりました。

以前のバージョンでは、ストレージクラスターの正常性への迅速な変更により、ceph.audit.log への過剰なロギングが生じました。

今回のリリースにより、health_historyceph.audit.log に記録されず、クラスターのヘルス変更が永続ストレージにコミットされなくなりました。

(BZ#2004738)

第7章 既知の問題

本セクションでは、Red Hat Ceph Storage の今回リリースで見つかった既知の問題を説明します。

7.1. Ceph Management Dashboard

ディスク AVG 使用率パネルで、Red Hat Ceph Storage Dashboard に N/A が表示されます。

Red Hat Ceph Storage Dashboard は、Overall host performance AVG disk utilization パネルに N/A という値が表示され、Grafana クエリが正しく表示されませんでした。

第8章 ソース

更新された Red Hat Ceph Storage ソースコードパッケージは、以下の場所から入手できます。