リリースノート

Red Hat Ceph Storage 5.1

Release notes for Red Hat Ceph Storage 5.1z2

概要

本リリースノートでは、Red Hat Ceph Storage 5 製品リリースに実装された主な機能、拡張機能、既知の問題、バ修正について説明します。これには、現在のリリースまでの Red Hat Ceph Storage 5.1 リリースのリリースノートが含まれています。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。

Red Hat Ceph Storage ドキュメントへのフィードバック (英語のみ)

弊社ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点はございませんか。これを行うには、以下を行います。

  • 特定の文章に対して簡単なコメントを追加するには、ドキュメントがマルチページ HTML 形式で表示されていることを確認してください。コメントするテキスト部分をハイライト表示します。そのテキストの下に表示される Add Feedback ポップアップをクリックし、表示される手順に従ってください。
  • より詳細なフィードバックをお寄せいただく場合は、Bugzilla のチケットを作成してください。

    1. Bugzilla の Web サイトに移動します。
    2. Component ドロップダウンメニューで、Documentationを選択します。
    3. ドキュメントの適切なバージョンを選択します。
    4. Summary および Description フィールドに、ドキュメントの改善に関するご意見を記入してください。ドキュメントの該当部分へのリンクも追加してください。
    5. オプション: 添付ファイルを追加します (ある場合)。
    6. Submit Bug をクリックします。

第1章 はじめに

Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。

Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/ja-jp/red_hat_ceph_storage/5 から入手できます。

第2章 謝辞

Red Hat Ceph Storage 5 プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の度合いが質と量の両面で大幅に拡大しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、および以下の組織を含むすべての方々の貢献に謝意を表します。

  • Intel®
  • Fujitsu ®
  • UnitedStack
  • Yahoo ™
  • Ubuntu Kylin
  • Mellanox ®
  • CERN ™
  • Deutsche Telekom
  • Mirantis ®
  • SanDisk ™
  • SUSE

第3章 新機能

本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能の一覧を紹介します。

本リリースで追加された主な機能は以下のとおりです。

  • コンテナー化されたクラスター

    Red Hat Ceph Storage 5 は、コンテナー化されたデーモンのみをサポートします。コンテナーされていないストレージクラスターはサポートされません。コンテナー化されていないストレージクラスターを Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 にアップグレードする場合、アップグレードプロセスには、コンテナー化されたデプロイメントへの変換が含まれます。

    詳細は、Red Hat Ceph Storage Installation GuideUpgrading a Red Hat Ceph Storage cluster from RHCS 4 to RHCS 5 セクションを参照してください。

  • Cephadm

    Cephadm は、manager デーモンからホストに接続して Red Hat Ceph Storage 5 クラスターをデプロイし、管理する新しいコンテナー化されたデプロイメントツールです。cephadm ユーティリティーは、Red Hat Ceph Storage デプロイメントの ceph-ansible に代わるものです。Cephadm の目的は、Red Hat Ceph Storage をための、フル機能を備え、堅牢で、適切にインストールされた管理レイヤーを提供することです。

    cephadm コマンドは、Red Hat Ceph Storage クラスターの完全なライフサイクルを管理します。

    cephadm コマンドは、以下の操作を行うことができます。

  • 新しい Ceph Storage クラスターをブートストラップします。
  • Ceph コマンドラインインターフェイス (CLI) と連携するコンテナー化されたシェルを起動します。
  • コンテナー化されたデーモンのデバッグを支援します。

    cephadm コマンドは ssh を使用してストレージクラスターのノードと通信し、Ceph デーモンコンテナーを追加、削除、または更新します。これにより、外部ツールを使用せずに Red Hat Ceph Storage コンテナーを追加、削除、または更新できます。

    cephadm コマンドには、2 つの主要コンポーネントがあります。

  • cephadm シェルは、コンテナー内の bash シェルを起動します。これにより、ストレージクラスターのインストールと設定タスクを実行し、コンテナーで ceph コマンドを実行できます。
  • cephadm オーケストレーターコマンドにより、Ceph デーモンおよびサービスをプロビジョニングし、ストレージクラスターを拡張できます。

    詳細は、Red Hat Ceph Storage インストールガイド を参照してください。

  • 管理 API

    管理 API は、Red Hat Ceph Storage 5 に適用される管理スクリプトを作成し、バージョンのライフサイクルには変更されない動作を維持します。互換性のないバージョンの API は、メジャーリリースの行ごとにのみ発生します。

    詳細は、Red Hat Ceph Storage 開発者ガイド を参照してください。

  • Red Hat Ceph Storage の非接続インストール

    Red Hat Ceph Storage 5 は、プライベートネットワークでのストレージクラスターの非接続インストールおよびブートストラップをサポートします。非接続インストールでは、ネットワークからファイルをダウンロードするのではなく、カスタムイメージ、設定ファイル、およびローカルホストが使用されます。

    Red Hat レジストリーにアクセスできるプロキシーホストからダウンロードしたコンテナーイメージをインストールするか、またはローカルレジストリーにコンテナーイメージをコピーします。ブートストラッププロセスでは、名前および IP アドレスで追加されるホストを識別する仕様ファイルが必要です。初回のモニターホストがブートストラップされたら、Ceph Orchestrator コマンドを使用してストレージクラスターを拡張し、設定できます。

    詳細は、Red Hat Ceph Storage インストールガイド を参照してください。

  • Ceph File System のジオレプリケーション

    Red Hat Ceph Storage 5 リリース以降、Ceph File Systems (CephFS) は、地理的な場所または異なるサイト間で複製することができます。新しい cephfs-mirror デーモンは、スナップショットのリモートの CephFS への非同期レプリケーションを実行します。

    詳細は、Red Hat Ceph Storage ファイルシステムガイドCeph File System ミラー セクションを参照してください。

  • 新しい Ceph File System クライアントパフォーマンスツール

    Red Hat Ceph Storage 5 リリース以降、Ceph ファイルシステム (CephFS) は、Ceph ファイルシステムのメトリックをリアルタイムで表示するための top のようなユーティリティーを提供します。cephfs-top ユーティリティーは、Ceph Manager の stats モジュールを使用してクライアントパフォーマンスメトリックを取得して表示する curses ベースの Python スクリプトです。

    詳細は、Red Hat Ceph Storage ファイルシステムガイドcephfs-top ユーティリティーの使用 セクションを参照してください。

  • Red Hat Ceph Storage Dashboard を使用した Ceph オブジェクトゲートウェイのマルチサイトの監視

    Red Hat Ceph Storage ダッシュボードを使用して、Ceph オブジェクトゲートウェイのマルチサイト設定をモニターリングできるようになりました。

    cephadm ユーティリティーを使用してマルチゾーンが設定されたら、あるゾーンのバケットが他のゾーンおよびその他のサイトに表示されます。ダッシュボードでバケットを作成、編集、削除することも可能です。

    詳細は、Red Hat Ceph Storage Dashboard ガイドCeph ダッシュボードのマルチサイトオブジェクト設定のバケットの管理 の章を参照してください。

  • BlueStore スペースの使用状況を向上

    Ceph Object Gateway および Ceph ファイルシステム (CephFS) は、小規模なオブジェクトおよびファイルを RADOS に個別のオブジェクトとして格納します。このリリースでは、SSD の場合は BlueStore の min_alloc_size のデフォルト値が、4 KB になりました。これにより、パフォーマンスに影響を及ぼさずに領域の使用が改善されます。

    詳細は、Red Hat Ceph Storage 管理ガイドOSD BlueStore の章を参照してください。

3.1. Cephadm ユーティリティー

cephadm は、同じホスト上で複数のデーモンのコロケーションをサポートします。

今回のリリースで、Ceph Object Gateway や Ceph Metadata Server(MDS) などの複数のデーモンを同じホストにデプロイできるようになり、パフォーマンスがさらに向上します。

service_type: rgw
placement:
  label: rgw
  count-per-host: 2

単一ノードのデプロイメントの場合、cephadm には、アップグレードシナリオで少なくとも実行中の Ceph Manager デーモンが 2 つ必要です。アップグレードシナリオ以外でも強くお勧めしますが、これがない場合でもストレージクラスターは機能します。

Cephadm を使用した NFS-RGW の設定がサポートされるようになる

Red Hat Ceph Storage 5.0 設定では、回避策として NFS-RGW を使用するためにダッシュボードを使用する必要があり、そのようなユーザーには Red Hat Ceph Storage 5.1 までアップグレードを遅らせることが推奨されていました。

このリリースでは、NFS-RGW 設定がサポートされており、この設定を持つユーザーはストレージクラスターをアップグレードでき、期待どおりに機能します。

カスタムモニターリングスタックイメージを使用してストレージクラスターをブートストラップできるように

以前のバージョンでは、クラスターのブートストラップ後に、モニターリングスタックデーモンに使用されるイメージを手動で調整する必要がありました。

今回のリリースにより、以下のようにフォーマットされた設定ファイルを渡して、ブートストラップ時にモニターリングスタックデーモンのカスタムイメージを指定できるようになりました。

構文

[mgr]
mgr/cephadm/container_image_grafana = GRAFANA_IMAGE_NAME
mgr/cephadm/container_image_alertmanager = ALERTMANAGER_IMAGE_NAME
mgr/cephadm/container_image_prometheus = PROMETHEUS_IMAGE_NAME
mgr/cephadm/container_image_node_exporter = NODE_EXPORTER_IMAGE_NAME

コマンドで --config CONFIGURATION_FILE_NAME オプションを使用してブートストラップを実行できます。その他の設定オプションがある場合は、ストレージクラスターをブートストラップする前に、設定ファイルの上記の行を追加するだけです。

cephadmosd_memory_target の自動調整が可能になる。

今回のリリースでは、cephadm を使用するとデフォルトで osd_memory_target 設定パラメーターを自動調整できるようになっています。

サービスごとにデーモンの CPU 制限を指定できるように。

今回のリリースでは、extra_container_args フィールドで CPU 制限をサービス仕様ファイルに追加することで、指定のサービス内のすべてのデーモンの CPU 制限をカスタマイズできるようになりました。

service_type: mon
service_name: mon
placement:
hosts:
  - host01
  - host02
  - host03
extra_container_args:
  - "--cpus=2"

service_type: osd
service_id: osd_example
placement:
  hosts:
    - host01
extra_container_args:
  - "--cpus=2"
spec:
  data_devices:
    paths:
    - /dev/sdb

cephadm が Ceph Object Gateway デプロイメントの IPv6 ネットワークに対応

今回のリリースで、cephadm は Ceph Object Gateway 仕様に IPv6 ネットワークを指定できるようになりました。Ceph Object Gateway をデプロイするサービス設定ファイルの例を以下に示します。

service_type: rgw
service_id: rgw
placement:
  count: 3
networks:
- fd00:fd00:3000::/64

ceph nfs export create rgw コマンドが、Ceph Object Gateway ユーザーのエクスポートに対応するようになりました。

以前のリリースでは、ceph nfs export create rgw コマンドは、バケットレベルで Ceph Object Gateway エクスポートを作成していました。

今回のリリースでは、このコマンドはユーザーとバケットレベルの両方で Ceph Object Gateway エクスポートを作成するようになりました。

構文

ceph nfs export create rgw --cluster-id CLUSTER_ID --pseudo-path PSEUDO_PATH --user-id USER_ID [--readonly] [--client_addr VALUE...] [--squash VALUE]

[ceph: root@host01 /]# ceph nfs export create rgw --cluster-id mynfs --pseudo-path /bucketdata --user-id myuser --client_addr 192.168.10.0/24

3.2. Ceph Dashboard

Red Hat Ceph Storage Dashboard で HAProxy メトリクスを表示できるようになりました。

今回のリリースにより、Red Hat は、Ceph Object Gateway エンドポイントに使用される Ingress サービスの新しい Grafana ダッシュボードを導入します。4 つの HAProxy メトリクスを Ceph Object Gateway Daemons Overall Performance の下に表示できるようになりました。たとえば、HTTP コードによる応答合計数、要求/応答数、接続総数、合計の受信/送信バイト数などです。

Red Hat Ceph Storage Dashboard で mfa_ids を表示可能に

今回のリリースで、Red Hat Ceph Storage Dashboard の User Details セクションで、Ceph Object Gateway ユーザーのマルチファクター認証 (MFA) が設定されたユーザーの mfa_ids を表示できるようになりました。

3.3. Ceph Manager プラグイン

progress モジュールのグローバルリカバリーイベントが最適化されるように

このリリースでは、Python モジュールの代わりに C++コードを使用して、大容量ストレージクラスター内の多数のプレースメントグループのグローバルリカバリーイベントの進行状況の計算が最適化され、CPU 使用率が削減されます。

3.4. Ceph Volume ユーティリティー

lvm コマンドは、コンテナー内で実行されたときにメタデータの破損を引き起こしません

以前は、lvm コマンドをコンテナー内で直接実行すると、LVM メタデータが破損していました。

このリリースでは、ceph-volume はホスト名前空間を使用して lvm コマンドを実行し、メタデータの破損を回避します。

3.5. Ceph オブジェクトゲートウェイ

Ceph Object Gateway リシャードキューからのロック競合メッセージを情報としてマーク

以前のバージョンでは、Ceph Object Gateway がリシャードキューのロックを取得できない場合に、出力ログエントリーがエラーになり、お客様に影響が及ぶ可能性がありました。

今回のリリースでは、出力ログのエントリーが情報提供として表示され、INFO: とタグ付けされるようになりました。

modulus および exponent を使用した OIDC JWT トークン検証のサポート追加

今回のリリースでは、OIDC JSON Web トークン (JWT) 検証が、署名の計算に modulus および exponent の使用をサポートするようになりました。また、OIDC JWT 検証に利用可能なメソッドのサポートも拡張されています。

ロール名およびロールセッションフィールドが一時認証情報の ops ログで利用できるようになりました。

以前のバージョンでは、ロール名およびロールセッションは利用できず、管理者は、どのロールが想定されているか、また使用されている一時的な認証情報に対して、どのセッションがどのセッションがアクティブであったかを把握するのは困難でした。

今回のリリースにより、S3 操作の実行用に、ops ログへのロール名およびロールセッションが、AssumeRole* API によって返される一時的な認証情報に使用できるようになりました。

--bucket 引数を使用してバケットのライフサイクルを処理できるように

今回のリリースにより、radosgw-admin lc process コマンドに --bucket=BUCKET_NAME 引数を指定して、対応するバケットのライフサイクルを処理できるようになりました。これは、特定のバケットに影響を与えるライフサイクルの問題をデバッグしたり、遅れている特定のバケットのライフサイクル処理をバックフィルしたりするのに役立ちます。

3.6. マルチサイトの Ceph Object Gateway

マルチサイト設定で動的なバケットインデックスのリシャーディングに対応

以前のバージョンでは、マルチサイト設定のバケットの手動によるリシャーディングのみがサポートされるようになりました。

今回のリリースにより、動的バケットのリシャーディングがマルチサイト設定でサポートされるようになりました。ストレージクラスターがアップグレードされたら、resharding 機能を有効にし、ストレージクラスター内の他のゾーンとは別に、radogw-admin bucket reshard コマンドを使用して手動で、または動的リシャーディングを使って自動的にバケットをリシャーディングします。

3.7. RADOS

noautoscale フラグを使用した PG Autoscaler の管理

今回のリリースでは、noautoscale フラグを使用して pg_autoscaler をグローバルに on または off できます。このフラグはデフォルトで off に設定されます。このフラグを設定すると、すべてのプールの pg_autoscale_modeoff になります。

詳細は、Red Hat Ceph Storage ストレージストラテジーガイド自動スケーリングプロファイルの手動更新 セクションを参照してください。

--bulk フラグを使用してプールを作成できるように。

今回のリリースでは、--bulk フラグを使用してプールを作成できるようになりました。これは pg_autoscaler のプロファイルを使用し、最初からパフォーマンスを向上して、配置グループ (PG) を完全に補完し、プールの使用量の比率が均等出ない場合にのみスケールダウンします。

プールに --bulk フラグがない場合、プールは最小限の PG で起動します。

一括フラグでプールを作成するには、以下を実行します。

構文

ceph osd pool create POOL_NAME --bulk

既存プールに一括フラグを設定/設定解除するには、以下を実行します。

構文

ceph osd pool set POOL_NAME bulk TRUE/FALSE/1/0
ceph osd pool unset POOL_NAME bulk TRUE/FALSE/1/0

既存のプールの一括フラグを取得するには、以下を実行します。

構文

ceph osd pool get POOL_NAME --bulk

第4章 テクノロジープレビュー

本セクションでは、Red Hat Ceph Storage の本リリースで導入または更新されたテクノロジープレビュー機能の概要を説明します。

重要

テクノロジープレビュー機能は、Red Hat の実稼働環境でのサービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。テクノロジープレビューの機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行いフィードバックを提供していただくことを目的としています。

Red Hat のテクノロジープレビュー機能のサポートについての詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。

cephadm ブートストラッププロセスが Red Hat Enterprise Linux 9 に対応

今回のリリースでは、Red Hat Enterprise Linux 8 ベースのストレージクラスター cephadm ブートストラッププロセスが Red Hat Enterprise Linux 9 をサポートするようになりました。コンテナーは、Red Hat Enterprise Linux 9 サーバーを必要とする Red Hat Enterprise Linux 8 です。

マルチサイトレプリケーション設定の Ceph オブジェクトゲートウェイが AWS バケットレプリケーション API 機能のサブセットをサポートするように。

このリリースでは、Ceph Object Gateway は、{Put, Get, Delete} レプリケーション操作を含む AWS バケットレプリケーション API 機能のサブセットをサポートするようになりました。この機能により、バケットの粒度のレプリケーションが可能になり、さらにエンドユーザーのレプリケーション制御が提供されます。現在、バケットは既存の CephObject Gateway マルチサイトレプリケーションセットアップのゾーン内でレプリケートできます。

RADOS 上の sqlite 仮想ファイルシステム (VFS) が利用できるように。

今回のリリースでは、新しい libcephsqlite RADOS クライアントライブラリーが RADOS に SQLite 仮想ファイルシステム (VFS) を提供するようになりました。データベースとジャーナルは、複数のオブジェクトにまたがる RADOS でストライプ化され、事実上無制限にスケーリングされ、スループットは SQLite クライアントでのみ制限されます。SQLite を使用するアプリケーションは、通常は代わりの VFS を指定するだけで、最小限の変更で Ceph VFS に変更される可能性があります。

NFS Ganesha デーモンをデプロイするための Ingress フラグ

今回のリリースにより、--ingress フラグを使用して 1 つ以上の NFS Ganesha デーモンをデプロイできるようになりました。Ingress サービスは、NFS サーバーに負荷分散と高可用性を提供します。

第5章 非推奨になった機能

本セクションでは、Red Hat Ceph Storage の本リリースまでのすべてのマイナーリリースで非推奨となった機能の概要を説明します。

重要

非推奨の機能は、Red Hat Ceph Storage 5 のサポートが終了するまで引き続きサポートされます。非推奨の機能は、本製品の今後のメジャーリリースではサポートされない可能性が高く、新たに実装することは推奨されません。特定のメジャーリリースにおける非推奨機能の最新情報は、そのメジャーリリースの最新版のリリースノートを参照してください。

CephFS の NFS サポートが非推奨に

CephFS に対する NFS サポートは非推奨となり、OpenShift Data Foundation で NFS の可用性がなくなりました。OpenStack Manila での NFS の Red Hat Ceph Storage サポートには影響はありません。非推奨の機能には、現行リリースの期間中バグ修正だけが適用され、今後のリリースで削除される可能性があります。この技術に関する関連ドキュメントは非推奨機能の提供制限として識別されます。

iSCSI サポートが非推奨に

iSCSI のサポートは非推奨となり、NVMEoF のサポートが追加されました。非推奨の機能には、現行リリースの期間中バグ修正だけが適用され、今後のリリースで削除される可能性があります。この技術に関する関連ドキュメントは非推奨機能の提供制限として識別されます。

Ceph 設定ファイルが非推奨に

Ceph 設定ファイル (ceph.conf) が非推奨になり、Ceph Monitor に保管された新たな集中設定が提供されるようになりました。詳細は、Red Hat Ceph Storage Configuration GuideThe Ceph configuration database セクションを参照してください。

Ceph File System (CephFS) の min_compat_client パラメーターが非推奨に

Red Hat Ceph Storage 5.0 では min_compat_client パラメーターは非推奨となり、Ceph File Systems (CephFS) の設定用に新規クライアント機能が追加されます。詳細は、Red Hat Ceph Storage ファイルシステムガイドクライアント機能 セクションを参照してください。

Ceph File System サブボリュームグループのスナップショットが非推奨に

Ceph File System (CephFS) サブボリュームグループのスナップショット機能は、Red Hat Ceph Storage 5.0 では非推奨になりました。既存のスナップショットは、必要に応じて一覧表示および削除できます。詳細は、Red Hat Ceph Storage Ceph ファイルシステムガイドファイルシステムサブボリュームグループのスナップショットの一覧表示 セクションおよび ファイルシステムサブボリュームグループのスナップショットの削除 セクションを参照してください。

Cockpit Ceph インストーラーが非推奨に

Cockpit Ceph Installer を使用した Red Hat Ceph Storage クラスター 5 のインストールはサポートされていません。Cephadm を使用して Red Hat Ceph Storage クラスターをインストールします。詳細は、Red Hat Ceph Storage インストールガイド を参照してください。

第6章 バグ修正

本セクションでは、Red Hat Ceph Storage の本リリースで修正された、ユーザーに影響するバグを説明します。また、セクションでは、以前のバージョンで見つかり修正された既知の問題を説明します。

6.1. Cephadm ユーティリティー

.rgw.root プールは、Ceph Object Gateway マルチサイトチェック中に自動的に作成されません

以前は、Ceph Object Gateway マルチサイトのチェックが cephadm によって実行され、リリースでのシグナリングリグレッションを支援して、.rgw.root プールが作成され、削除された場合は再作成されたため、ユーザーは .rgw.root プールでスタックしていました。Ceph Object Gateway を使用していません。

この修正により、プールを作成したチェックが削除され、プールは作成されなくなります。システムにすでにプールがあるが、それを望まないユーザーは、レクリエーションの問題なしにプールを削除できるようになりました。このプールを持たないユーザーは、プールが自動的に作成されることはありません。

(BZ#2090395)

6.2. Ceph ファイルシステム

宛先ディレクトリーがいっぱいになっても、漂遊エントリーの再統合は失敗しません

以前は、Ceph メタデータサーバーは、リンクされていないファイルへの参照がある場合、つまり、削除されたファイルにハードリンクがある場合、またはスナップショットの一部である場合に、ファイルを再統合していました。宛先ディレクトリーがいっぱいの場合、本質的に内部の名前変更操作である再統合は失敗しました。その結果、Ceph Metadata Server は漂遊または削除されたエントリーの再統合に失敗しました。

このリリースでは、漂遊エントリーの再統合中のフルスペースチェックは無視され、宛先ディレクトリーがいっぱいになった場合でも、これらの漂遊エントリーは再統合されます。

(BZ#2041572)

新しいクライアントからメトリックを受信するときに MDS デーモンがクラッシュしなくなりました

以前は、特定のシナリオでは、古い CephFS クラスターに新しいクライアントが使用されていました。古い CephFS をアップグレードしている間、cephadm または mgr は新しいクライアントを使用して、古い Ceph クラスターでチェック、テスト、または設定を実行しました。このため、新しいクライアントから不明なメトリックを受信すると、MDS デーモンがクラッシュしました。

この修正により、libceph クライアントは、MDS デーモンでサポートされているメトリックのみをデフォルトとして MDS に送信します。ユーザーが安全だと思ったときにすべてのメトリックを強制的に有効にするオプションも追加されています。

(BZ#2081914)

同時ルックアップおよびリンク解除操作中に Ceph Metadata Server がクラッシュしなくなりました

以前は、Ceph クライアントからの同時ルックアップ操作とリンク解除操作でヒットする、コードに配置されたアサートの誤った仮定により、Ceph Metadata Server がクラッシュしていました。

最新の修正により、アサーションは、同時ルックアップおよびリンク解除操作中の仮定が有効である関連する場所に移動され、Ceph Metadata Server がクラッシュすることなく Ceph Metadata Server 操作を提供し続けることになります。

(BZ#2093064)

6.3. Ceph オブジェクトゲートウェイ

FIPS 環境での暗号化以外の目的で MD5 の使用が可能

以前は、FIPS が有効な環境では、暗号化以外の目的で明示的に除外されていない限り、MD5 ダイジェストの使用はデフォルトで許可されていませんでした。このため、S3 の完全なマルチパートアップロード操作中にセグメンテーション違反が発生しました。

この修正により、S3 の完全なマルチパート PUT 操作のための FIPS 環境での非暗号化目的での MD5 の使用が明示的に許可され、S3 のマルチパート操作を完了することができます。

(BZ#2088601)

6.4. RADOS

ceph-objectstore-tool コマンドを使用すると、蓄積された PG ログ重複エントリーを手動でトリミングできます。

以前は、PG ログ重複エントリーのトリミングは、人間のオペレーターよりもはるかに高い頻度で PG オートスケーラーによって使用される低レベルの PG 分割操作中に防止されていました。重複を取り除くと、PG ログのメモリー増大が大幅に増大し、OSD がメモリーが不足するとクラッシュしていました。OSD を再起動しても、PG ログはディスクに保存され、起動時に RAM に再ロードされるため、問題は解決しませんでした。

今回の修正で、ceph-objectstore-tool コマンドにより、累積された PG ログ dups エントリーを手動でトリミングし、自動トリミングの機械ドロップ解除が可能になりました。将来の調査に役立つように、重複エントリーの数を OSD のログに出力するデバッグの改善が実装されています。

(BZ#2094069)

6.5. RBD ミラーニング

スナップショットベースのミラーリングプロセスがキャンセルされなくなりました

以前は、内部の競合状態の結果として、rbd mirror snapshot schedule add コマンドがキャンセルされていました。他の既存のスケジュールが適用できない場合、影響を受けるイメージのスナップショットベースのミラーリングプロセスは開始されません。

このリリースでは、競合状態が修正され、スナップショットベースのミラーリングプロセスが期待どおりに開始されます。

(BZ#2099799)

イメージがプライマリーにプロモートされると、既存のスケジュールが有効になります

以前は、最適化が適切に考慮されていなかったため、イメージがプライマリーにプロモートされた後、既存のスケジュールが有効にならず、最近プロモートされたイメージに対してスナップショットベースのミラーリングプロセスが開始されませんでした。

このリリースでは、この問題の原因となっている最適化が削除され、イメージがプライマリーにプロモートされ、スナップショットベースのミラーリングプロセスが期待どおりに開始されたときに既存のスケジュールが有効になります。

(BZ#2100519)

rbd-mirror デーモンが排他ロックを取得しなくなりました

以前は、論理エラーが原因で、rbd-mirror デーモンが事実上のプライマリーイメージの排他ロックを取得する可能性がありました。このため、影響を受けるイメージのスナップショットベースのミラーリングプロセスが停止し、failed to unlink local peer from remote image というエラーが報告されます。

このリリースでは、論理エラーが修正され、rbd-mirror デーモンが事実上のプライマリーイメージの排他ロックを取得せず、スナップショットベースのミラーリングプロセスが停止せず、期待どおりに機能しなくなりました。

(BZ#2100520)

rbd-mirror によって使用されるミラースナップショットキューが拡張され、削除されなくなりました

以前は、内部競合状態の結果として、セカンダリークラスターで rbd-mirror デーモンによって使用されていたミラースナップショットが削除され、影響を受けるイメージのスナップショットベースのミラーリングプロセスが停止し、split-brain エラーが報告されていました。

このリリースでは、ミラースナップショットキューの長さが延長され、それに応じてミラースナップショットのクリーンアップ手順が修正され、セカンダリークラスターの rbd-mirror デーモンおよびスナップショットベースでまだ使用されているミラースナップショットの自動削除が修正されました。ミラーリングプロセスは停止しません。

(BZ#2092843)

6.6. Ceph Ansible ユーティリティー

Playbook の導入により、OSD ノードに cephadm をインストールできるようになりました。

以前のバージョンでは、tools リポジトリーが OSD ノードで無効にされているため、cephadm OSD ノードをインストールすることができませんでした。これにより、採用 Playbook が失敗しました。

今回の修正により、tools リポジトリーが OSD ノードで有効にされ、導入 Playbook が OSD ノードに cephadm をインストールできるようになりました。

(BZ#2073480)

レガシーディレクトリーを削除すると、エラーのないクラスターが後継に実行されるようになります。

以前は、cephadm は、/var/lib/ceph/mon などのレガシーディレクトリーが見つかると config inferring で予期しない動作を示していました。この動作により、採用後、クラスターには CEPHADM_REFRESH_FAILED: failed to probe daemon or devices というエラーメッセージが表示されていました。

今回のリリースにより、導入 Playbook により、このディレクトリーが削除され、クラスターが採用後に error 状態のままなくなりました。

(BZ#2075510)

第7章 既知の問題

本セクションでは、Red Hat Ceph Storage の今回リリースで見つかった既知の問題を説明します。

7.1. Ceph オブジェクトゲートウェイ

yes-i-know フラグを使用して、Red Hat Ceph Storage クラスター 5.1 をブートストラップします。

Red Hat Ceph Storage クラスター 5.1 でのマルチサイトの設定に対する警告が出されます。

この問題を回避するには、ブートストラップ時に yes-i-know フラグを渡す必要があります。

構文

sudo --image IMAGE_NAME bootstrap --mon-ip IP_ADDRESS --yes-i-know

Red Hat Ceph Storage 5.1 へのアップグレード中にユーザーに警告が表示される

以前は、Red Hat Ceph Storage 5.0 でリシャーディングされたバケットは、Red Hat Ceph Storage 5.1 Ceph Object Gateway デーモンでは理解できない可能性がありました。そのため、Red Hat Ceph Storage 5.1 にアップグレードするすべてのユーザーが確実に認識できるように、アップグレードの警告またはブロッカーが追加されました。以前に Red Hat Ceph Storage 5.1 を使用していた場合はダウングレードできます。

回避策として、ceph config set mgr mgr/cephadm/yes_i_know true --force コマンドを実行して、警告またはブロッカーを削除し、すべての操作を通常に戻します。ユーザーは、Red Hat Ceph Storage 5.1 にアップグレードする前に、Ceph Object Gateway の問題を認識していることを認める必要があります。

フラグが渡されていない場合は、マルチサイトのリグレッションに関するメッセージと、問題のナレッジベースアーティクルへのリンクが表示されます。

(BZ#2111679)

第8章 ドキュメント

このセクションでは、Red Hat Ceph Storage のこのリリースでのドキュメントの機能強化について説明します。

8.1. アップグレードガイド

  • アップグレード手順は、別のガイドで利用できるようになりました。

    アップグレード手順は、インストールガイド では提供されなくなり、別のガイドとして利用できるようになりました。Red Hat Ceph Storage クラスターをアップグレードする方法の詳細については、Red Hat Ceph Storage Upgrade Guide を参照してください。

第9章 ソース

更新された Red Hat Ceph Storage ソースコードパッケージは、以下の場所から入手できます。