リリースノート

Red Hat Ceph Storage 4.0

Red Hat Ceph Storage 4.0 リリースノート

概要

本リリースノートでは、特定のリリースの Red Hat Ceph Storage に実装された主要な機能および機能拡張を説明します。このドキュメントには、既知の問題およびバグ修正も含まれます。

第1章 はじめに

Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームであり、最も安定したバージョンの Ceph ストレージシステムと Ceph 管理プラットフォーム、デプロイメントユーティリティー、およびサポートサービスを組み合わせたものです。

Red Hat Ceph Storage ドキュメントは、https://access.redhat.com/documentation/en/red-hat-ceph-storage/ から入手できます。

第2章 謝辞

Red Hat Ceph Storage 4.0 には、Red Hat Ceph Storage チームからの貢献が数多く含まれています。さらに、Ceph プロジェクトでは、Ceph コミュニティーの個人や組織からの貢献の質と量に驚くことが増えています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者、ならびに以下のような組織への貢献(ただし、これらに限定されない)に感謝します。

  • Intel
  • Fujitsu
  • UnitedStack
  • Yahoo
  • UbuntuKylin
  • Mellanox
  • CERN
  • Deutsche Telekom
  • Mirantis
  • SanDisk
  • SUSE

第3章 新機能

本セクションでは、Red Hat Ceph Storage の本リリースで導入された主要な更新、機能拡張、新機能の一覧を紹介します。

本リリースで追加された主な機能は以下のとおりです。

3.1. ceph-ansible ユーティリティー

ceph-disk で作成された Ceph OSD は、アップグレード時に ceph-volume に移行されます。

Red Hat Ceph Storage 4 にアップグレードする場合には、本リリースで ceph-disk が非推奨となっているため、ceph-disk ユーティリティーにより以前に作成したすべての Ceph OSD が ceph-volume ユーティリティーに移行されます。

Red Hat Ceph Storage のベアメタルおよびコンテナーデプロイメントの場合、ceph-volume ユーティリティーは単純なスキャンを行い、ceph-disk ユーティリティーによってデプロイされた既存の Ceph OSD を引き継ぎます。また、後続のデプロイメントに、これらの移行されたデバイスを設定で使用しないでください。アップグレードプロセス中に新規の Ceph OSD を作成できない点に注意してください。

アップグレード後に、ceph-disk が作成した Ceph OSD はすべて、ceph-volume により作成される Ceph OSD と同様に起動し、動作します。

すべての Ceph サービスのスケーリング用の Ansible Playbook

以前のリリースでは、ceph-ansible Playbook は Monitor や OSD などのコア Ceph 製品に対してのみスケールアップ/スケールダウン機能が限定されていました。今回の更新により、追加の Ansible Playbook により、全 Ceph サービスのスケーリングが可能になりました。

単一パッケージにマージされた Ceph iSCSI パッケージ

ceph-iscsi-cli パッケージおよび ceph-iscsi-config パッケージは、ceph-iscsi という名前の 1 つのパッケージにマージされました。

nfs-ganesha サービスがスタンドアロンデプロイメントとしてサポートされる

Red Hat Openstack Directory(OSPd)では、ceph-ansible ユーティリティーで nfs-ganesha サービスをデプロイし、外部の非管理対象の Ceph クラスターを参照するように設定する必要があります。Red Hat Ceph Storage 4 の時点で、ceph-ansible では、内部 nfs-ganesha サービスを外部の Ceph クラスターと共にデプロイできます。

Ceph コンテナーはログをそれぞれのデーモンファイルに書き込めるようになりました。

コンテナー化された Ceph 環境の以前のロギングでは、sosreport コレクションを使用してログデータを確認する際に journalctl 出力を制限することができませんでした。今回のリリースで、以下のコマンドを使用して、特定の Ceph デーモンのロギングを有効または無効にできるようになりました。

ceph config set daemon.id log_to_file true

daemon は デーモン のタイプで、id ID です。たとえば、ID が mon0 の Monitor デーモンのロギングを有効にするには、以下を実行します。

ceph config set mon.mon0 log_to_file true

この新機能により、デバッグが容易になります。

TLS 暗号化を使用するように Ceph Object Gateway を設定する機能

Red Hat Ceph Storage の本リリースでは、radosgw_frontend_ssl_certificate 変数を使用して Transmission Control Protocol(TCP)トラフィックを保護することで、TLS 暗号化の SSL 証明書で Ceph Object Gateway リスナーを設定することができます。

OSD を FileStore から BlueStore に移行する Ansible Playbook

OSD を FileStore から BlueStore に移行するための新しい Ansible Playbook が追加されました。オブジェクトストアの移行は、Red Hat Ceph Storage 4 へのアップグレードプロセスの一部として実行されません。アップグレードの完了後に移行を行います。詳細は、『 Red Hat Ceph Storage 管理ガイド』 の「オブジェクトストアを FileStore から BlueStore に移行する方法 」セクションを参照してください。

3.2. Ceph Management Dashboard

プールの使用に関する情報の改善

今回の機能拡張により、有用な情報がプールテーブルに追加されました。使用率、読み取りバイト、書き込みバイト、読み取り操作、書き込み操作など、以下の列が追加されました。また、Placement Groups 列の名前が Pg Status に変更されました。

Red Hat Ceph Storage Dashboard アラート

Red Hat Ceph Storage Dashboard は、Ceph メトリクスおよび設定されたしきい値に基づくアラートをサポートします。Prometheus AlertManager はアラートを設定し、収集し、トリガーします。アラートは、Dashboard に右上隅のポップアップ通知として表示されます。Cluster > Alerts で、最近のアラートの詳細を表示できます。アラートは Prometheus でのみ設定できますが、Cluster > Silences に "Alert Silences" を作成して、Dashboard からアラートを一時的にミュートできます。

Dashboard での Ceph コンポーネントの表示および非表示

Red Hat Ceph Storage Dashboard では、Ceph iSCSI、RBD ミラーリング、Ceph Block Device、Ceph File System、Ceph Object Gateway などの Ceph コンポーネントを表示または非表示にすることができます。この機能により、設定されていないコンポーネントを非表示にすることができます。

Ceph ダッシュボードが Ceph Ansible Playbook に追加されました

今回のリリースにより、Ceph Dashboard のインストールコードが Ceph Ansible Playbook に統合されました。Ceph Ansible は、Red Hat Ceph Storage デプロイメントタイプ、ベアメタル、またはコンテナーに関係なく、Ceph ダッシュボードのコンテナー化されたデプロイメントを行います。この 4 つの新規ロール( ceph-grafanaceph-dashboardceph-prometheus、および ceph-node-exporter )が追加されました。

Red Hat Ceph Storage Dashboard アラート

Red Hat Ceph Storage Dashboard は、Ceph メトリクスおよび設定されたしきい値に基づくアラートをサポートします。Prometheus AlertManager はアラートを設定し、収集し、トリガーします。

ダッシュボードからのクラスター階層の表示

Red Hat Ceph Storage Dashboard は、クラスター階層を表示する機能を提供します。詳細は、Red Hat Ceph Storage 4 『ダッシュボードガイド』 の「CRUSH マップの表示 」セクションを参照してください。

3.3. Ceph ファイルシステム

ceph -w に CephFS スクラブに関する情報が表示されるようになりました。

以前のリリースでは、メタデータサーバー(MDS)ログのチェック以外に、実行中の Ceph File System(CephFS)ステータスを確認することができませんでした。今回の更新により、ceph -w コマンドが、ステータスをよりよく理解するためにアクティブな CephFS スクラブに関する情報を表示するようになりました。

CephFS エクスポートを管理する ceph-mgr ボリュームモジュール

本リリースでは、Ceph File System(CephFS)エクスポートを管理する Ceph Manager(ceph-mgr)ボリュームモジュールが提供されます。volumes モジュールは、以下のファイルシステムのエクスポート抽象化を実装します。

  • FS ボリューム(CephFS ファイルシステムの抽象化)
  • FS サブボリューム(独立した CephFS ディレクトリーツリーの抽象化)
  • FS サブボリュームグループ。ファイルレイアウトなどの有効なポリシーに対して、ボリュームのセット全体で FS サブボリュームよりも大きいディレクトリーの抽象化です。

さらに、これらの新しいコマンドがサポートされるようになりました。

  • サブボリュームを一覧表示する fs サブボリューム ls
  • サブボリュームグループを一覧表示する fs subvolumegroup ls
  • サブボリュームスナップショットを一覧表示するための fs subvolume snapshot ls
  • サブボリュームグループスナップショットを一覧表示するための fs subvolumegroup snapshot ls
  • スナップショットを削除する fs サブボリューム rm

3.4. Ceph Medic

ceph-medic は、コンテナー内で実行中の Ceph の正常性を確認できます。

今回のリリースで、ceph-medic ユーティリティーが、コンテナー内で実行中の Red Hat Ceph Storage クラスターの正常性を確認できるようになりました。

3.5. iSCSI ゲートウェイ

管理者以外のユーザーを ceph-iscsi サービスに使用できるようになりました。

Red Hat Ceph Storage 4 の時点で、すべての iSCSI ゲートウェイに cluster_client_name/etc/ceph/iscsi-gateway.cfg に設定して、Ceph ユーザーが ceph-iscsi サービスに使用できます。これにより、ユーザーに基づいてリソースを制限することができます。

Ceph iSCSI ゲートウェイの実行が削除可能に

Red Hat Ceph Storage 4 の時点で、iSCSI ゲートウェイの実行は、メンテナンスやリソースの再割り当てのために Ceph iSCSI クラスターから削除できるようになりました。ゲートウェイの iSCSI ターゲットとそのポータルが停止し、そのゲートウェイのすべての iSCSI ターゲットオブジェクトがカーネルとゲートウェイ設定から削除されます。ダウンしているゲートウェイの削除はサポートされていません。

3.6. Object Gateway

Beast HTTP フロントエンド

Red Hat Ceph Storage 4 では、Ceph Object Gateway のデフォルトの HTTP フロントエンドは Beast です。Beast フロントエンドは、HTTP 解析に Boost.Beast ライブラリーを使用し、非同期 I/O には Boost.Asio ライブラリーを使用します。詳細は、Red Hat Ceph Storage 4 の『 オブジェクトゲートウェイ設定および管理ガイド』 の「Beast フロントエンドの使用 」を参照してください。

S3 MFA-Delete のサポート

今回のリリースで、Ceph Object Gateway は、ワンタイムパスワードを認証係数として使用して S3 MFA-Delete(Time-Based One-Time Password)を使用する S3 MFA-Delete をサポートするようになりました。この機能により、不適切なデータ削除に対するセキュリティーが追加されます。データを削除する標準 S3 認証に加えて、バケットを TOTP の 1 回限りのトークンを要求するように設定できます。

ユーザーは、REST API を使用して新規の IAM ポリシーおよびロールを作成できるようになりました。

Red Hat Ceph Storage 4 のリリースでは、IAM ロールおよびユーザーポリシーの REST API が S3 API と同じ namespace で利用でき、Ceph Object Gateway の S3 API と同じエンドポイントを使用してアクセスできるようになりました。これにより、エンドユーザーは REST API を使用して新規の IAM ポリシーおよびロールを作成できます。

3.7. パッケージ

Web ベースのインターフェースを使用して Ceph クラスターをインストールする機能

今回のリリースにより、Cockpit Web ベースのインターフェースがサポートされるようになりました。Cockpit を使用すると、Red Hat Ceph Storage 4 クラスターおよびその他のコンポーネント(メタデータサーバー、Ceph クライアント、ベースベアメタルまたはコンテナーの Ceph Object Gateway など)をインストールできます。詳細は、『 Red Hat Ceph Storage 4 インストールガイド』 の「Cockpit Web ユーザーインターフェースを使用した Red Hat Ceph Storage の インストール」の章を参照してください。Red Hat Ceph Storage の最小限の経験が必要であることに注意してください。

3.8. RADOS

Ceph の伝送時暗号化

Red Hat Ceph Storage 4 以降では、messenger バージョン 2 プロトコルの導入により、ネットワーク上の全 Ceph トラフィックの暗号化を有効にすることができます。詳細は、Red Hat Ceph Storage 4 の『 Data Security and Hardening Guide 』の「 Architecture Guide and Encryption in transit 」セクションの「Ceph on-wire 暗号化 」の章を参照してください。

OSD BlueStore が完全にサポートされるようになりました。

BlueStore は、OSD デーモンの新しいバックエンドで、ブロックデバイスにオブジェクトを直接格納できるようにします。BlueStore はファイルシステムインターフェースを必要としないため、Ceph Storage クラスターのパフォーマンスが向上します。BlueStore OSD バックエンドの詳細は、Red Hat Ceph Storage 4 の 『管理ガイド』 の「 OSD BlueStore 」の章を参照してください。

FIPS モードの Red Hat Enterprise Linux

今回のリリースにより、FIPS モードが有効になっている Red Hat Enterprise Linux に Red Hat Ceph Storage をインストールできるようになりました。

ceph df 出力と新しい ceph osd df コマンドの変更

ceph df コマンドの出力が改善しました。特に、RAW USED 値および % RAW USED 値には、BlueStore パーティションおよび wal BlueStore パーティションに事前に割り当てられた領域が表示されるようになりました。ceph osd df コマンドは、書き込みデータの量などの OSD 使用率の統計を表示します。

非アクティブな OSD セットの非同期リカバリー

以前のバージョンでは、Ceph を使用したリカバリーは、それらのオブジェクトが復旧するまでオブジェクトへの書き込み操作をブロックすることで同期プロセスでした。本リリースでは、OSD の非アクティブなセットでのみオブジェクトへの書き込み操作をブロックしないため、リカバリープロセスは非同期になりました。この新機能では、非アクティブなセットで十分な OSD を持つため、レプリカの最小数が必要になります。

新しい設定オプション osd_async_recovery_min_cost は、非同期リカバリーの量を制御します。このオプションのデフォルト値は 100 です。値が大きいほど非同期リカバリーが少なくなりますが、値が低い場合は非同期リカバリーがより多くなります。

ceph configを使用してアクセス可能なモニターに設定が保存されるようになりました。

本リリースでは、Red Hat Ceph Storage は、Ceph 設定ファイル(ceph.conf)を使用する代わりに Monitor の設定を一元化します。以前のリリースでは、ceph.conf を手動で更新し、適切なノードに配布し、影響を受けるデーモンをすべて再起動していました。今回のリリースより、モニターは ceph.conf と同じセマンティック構造を持つ設定データベースを管理します。データベースは、ceph config コマンドでアクセスできます。設定の変更はシステムのデーモンまたはクライアントに即座に適用され、再起動は不要になりました。利用可能なコマンドセットの詳細を確認するには、ceph config -h コマンドを使用します。Monitor ノードを特定するには、Ceph 設定ファイルは依然として必要になります。

配置グループを自動スケーリング可能に

Red Hat Ceph Storage 4 では、配置グループ(PG)の自動スケーリング機能が導入されました。プール内の配置グループ (PG) 数では、クラスターのピアがデータおよびリバランスの分散方法などの重要な役割を果たします。PG 数の自動スケーリングにより、クラスターの管理が容易になります。新しい pg-autoscaling コマンドは、PG のスケーリングの推奨事項を示します。または、クラスターの使用状況に応じて PG を自動的にスケーリングします。PG の自動スケーリングの詳細は、Red Hat Ceph Storage 4 の『ストレージ戦略ガイド』 の「 配置グループの自動スケーリング 」セクションを参照してください。

diskprediction モジュールの概要

Red Hat Ceph Storage の diskprediction モジュールは、ディスク障害の発生前に予測するためのメトリクスを収集します。モジュールには、cloud と local の 2 つのモードがあります。今回のリリースにより、ローカルモードのみがサポートされるようになりました。ローカルモードでは、データ分析に外部サーバーは必要ありません。ディスク予測サービスに内部予測モジュールを使用し、Ceph システムにディスク予測の結果を返します。

diskprediction モジュールを有効にするには、以下を実行します。

ceph mgr module enable diskprediction_local

予測モードを設定するには、以下を実行します。

ceph config set global device_failure_prediction_mode local

diskprediction モジュールを無効にするには、以下を実行します。

ceph config set global device_failure_prediction_mode none

新しい設定可能なオプション: mon_memory_target

Red Hat Ceph Storage 4 では、新たな設定可能なオプション mon_memory_target が追加されました。これは、Monitor のメモリー使用量のターゲット容量を設定するために使用されます。これは、関連付けられた Monitor デーモンキャッシュの優先度の cache tuner を使用して、割り当ておよび管理するメモリー量を指定します。mon_memory_target のデフォルト値は 2 GiB に設定され、ランタイム時に以下を使用して変更できます。

# ceph config set global mon_memory_target size

本リリース以前は、クラスターをスケーリングすると、Monitor 固有の RSS 使用率が mon_osd_cache_size オプションを使用して設定されていたために問題が生じました。今回の機能拡張により、モニターキャッシュに割り当てられるメモリーの管理を改善し、指定された制限内で使用率を維持できるようになりました。

3.9. ブロックデバイス (RBD)

Ceph ブロックデバイスのイレイジャーコーディング

Ceph Block Device(RBD)のイレイジャーコーディングが完全にサポートされるようになりました。この機能により、RBD はイレイジャーコードプールにデータを保存できます。詳細は、Red Hat Ceph Storage 4 の『 ストレージストラテジー』の「 上書きを使用したコーディング 」セクションを参照してください。

RBD パフォーマンス監視およびメトリクス収集ツール

Red Hat Ceph Storage 4 には、IOPS、スループット、およびレイテンシーの集約された RBD イメージメトリクス用に新たな Ceph Block Device パフォーマンス監視ユーティリティーが組み込まれるようになりました。イメージごとの RBD メトリクスは、rbd perf image iostat コマンドまたは rbd perf image iotop コマンドを使用して、Ceph Manager Prometheus モジュール、Ceph Dashboard、rbd CLI を使用して利用できるようになりました。

クローンされたイメージは、プライマリー以外のイメージから作成できます。

ミラーリングされた非プライマリー親イメージからのクローンされた子 RBD イメージの作成がサポートされるようになりました。以前のバージョンでは、ミラーリングされたイメージのクローンはプライマリーイメージでのみサポートされていました。仮想マシンのゴールドイメージのクローンを作成する場合、この制限により、ゴールド以外のイメージから新規のクローンされたイメージが作成されませんでした。今回の更新によりこの制限が削除され、クローンされたイメージを、プライマリー以外のミラーリングされたイメージから作成できるようになりました。

同じプール内の分離された名前空間内で RBD イメージの分離

RBD イメージは、同じプール内の分離された名前空間内で分離できるようになりました。OpenStack または OpenShift Container Storage などの高レベルのシステムなしに Ceph ブロックデバイスを直接使用する場合、特定の RBD イメージへのユーザーアクセスを制限することができませんでした。CephX 機能と組み合わせる場合、ユーザーは特定のプール namespace に制限して RBD イメージへのアクセスを制限することができます。

同じクラスター内の異なるプール間での RBD イメージの移動

Red Hat Ceph Storage のこのバージョンでは、同じクラスター内の異なるプール間で RBD イメージを移動する機能が追加されました。詳細は、Red Hat Ceph Storage 4 の『 ブロックデバイスガイド』 の「 プール間のイメージの移動 」セクションを参照してください。

長時間実行される RBD 操作がバックグラウンドで実行可能

イメージの削除やクローン化されたイメージのフラット化など、長時間実行される RBD 操作は、バックグラウンドで実行するようにスケジュールできるようになりました。イメージのバッキング RADOS オブジェクトごとに反復処理を行う RBD 操作には、イメージのサイズによっては時間がかかる場合があります。CLI を使用してこれらの操作のいずれかを実行する場合、rbd CLI は操作が完了するまでブロックされます。ceph rbd task add コマンドを使用して、これらの操作をバックグラウンドタスクとして Ceph Manager が実行するようにスケジュールできるようになりました。これらのタスクの進捗状況は、CLI を使用して Ceph ダッシュボード上に表示されます。

3.10. RBD ミラーニング

単一ストレージクラスターでの RBD mirror デーモンの複数のアクティブなインスタンスのサポート

Red Hat Ceph Storage 4 は、単一のストレージクラスターに RBD ミラーデーモンの複数のアクティブなインスタンスのデプロイをサポートするようになりました。これにより、複数の RBD ミラーデーモンは、アクティブなミラーリングデーモンの数全体でイメージをチャンクするアルゴリズムを使用して、RBD イメージまたはプールのレプリケーションを実行できます。

第4章 テクノロジープレビュー

本セクションでは、Red Hat Ceph Storage の本リリースで導入または更新されるテクノロジープレビュー機能の概要を説明します。

重要

テクノロジープレビュー機能は、Red Hat の実稼働環境でのサービスレベルアグリーメント (SLA) ではサポートされていないため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。

Red Hat のテクノロジープレビュー機能のサポートについての詳細は、https://access.redhat.com/support/offerings/techpreview/を参照してください。

4.1. Ceph ファイルシステム

CephFS スナップショット

Ceph File System(CephFS)は、テクノロジープレビューとしてスナップショットの作成をサポートします。スナップショットは、作成時点でファイルシステムのイミュータブルなビューを作成します。

4.2. ブロックデバイス (RBD)

RBD イメージの NBD イメージへのマッピング

rbd-nbd ユーティリティーは、RADOS Block Device(RBD)イメージを Network Block Devices(NBD)にマップし、Ceph クライアントが Kubernetes 環境内のボリュームおよびイメージにアクセスできるようにします。rbd-nbd を使用するには、rbd-nbd パッケージをインストールします。詳細は、rbd-nbd(7) man ページを参照してください。

4.3. Object Gateway

Object Gateway アーカイブサイト

今回のリリースにより、アーカイブサイトがテクノロジープレビューとしてサポートされるようになりました。アーカイブサイトでは、アーカイブゾーンに関連付けられたゲートウェイからのみ除外できる S3 オブジェクトのバージョンの履歴を指定できます。マルチゾーン設定にアーカイブゾーンを含めると、S3 オブジェクトのレプリカが残りのゾーン内で消費する領域を節約しつつ、1 つのゾーンにのみ S3 オブジェクトの履歴の柔軟性を持たせることができます。

ディスクタイプによるクラスター内の階層化

今回のリリースでは、プールを配置ターゲットやストレージクラスにマッピングする機能を使用して、ディスクタイプによりクラスター内の階層機能をテクノロジープレビューとして提供できるようになりました。ライフサイクル移行ルールを使用すると、ポリシーに基づいてオブジェクトがストレージプール間で移行される可能性があります。

S3 バケット通知

S3 バケット通知がテクノロジープレビューとして利用可能になりました。S3 バケットで特定のイベントがトリガーされると、通知は Ceph Object Gateway から HTTP、Advanced Message Queuing Protocol(AMQP)9.1、および Kafka エンドポイントに送信されます。さらに、通知は代わりに「PubSub」ゾーンに保存したり、エンドポイントに送信する代わりに保存したりできます。「PubSub」は、受信者が Ceph から通知をプルできるようにするパブリッシュサブスクライブモデルです。

S3 通知を使用するには、librabbitmq および librdkafka パッケージ をインストールします。

第5章 非推奨になった機能

本セクションでは、Red Hat Ceph Storage の本リリースまでのマイナーリリースで非推奨となった機能の概要を説明します。

Ubuntu がサポート対象外

Ubuntu への Red Hat Ceph Storage 4 クラスターのインストールはサポートされなくなりました。Red Hat Enterprise Linux を基礎となるオペレーティングシステムとして使用します。

5.1. ceph-ansible ユーティリティー

ceph-ansible を使用した iSCSI ゲートウェイの設定はサポート対象外

ceph-ansible ユーティリティーを使用した Ceph iSCSI ゲートウェイの設定はサポートされなくなりました。ceph-ansible を使用してゲートウェイをインストールし、Red Hat Ceph Storage Dashboard の gwcli ユーティリティーを使用してゲートウェイを設定します。詳細は、Red Hat Ceph Storage 4 の『 ブロックデバイスガイド』 の「Ceph iSCSI ゲートウェイの使用 」の章を参照してください。

5.2. ceph-disk ユーティリティー

ceph-disk が非推奨に

今回のリリースで、ceph-disk ユーティリティーがサポートされなくなりました。代わりに ceph-volume ユーティリティーが使用されます。Red Hat Ceph Storage 4 の 『管理ガイド』に含まれるceph-volume が `ceph-disk` に置き換えられた理由」セクションを参照してください。

5.3. RADOS

FileStore は実稼働環境でサポートされなくなる

FileStore OSD バックエンドは、新規 BlueStore バックエンドが実稼働環境で完全にサポートされるため、非推奨になりました。詳細は、『Red Hat Ceph Storage 4 インストールガイド』 の「 オブジェクトストアを FileStore から BlueStore に移行する方法 」セクションを参照してください。

Ceph の設定が非推奨になる

Ceph 設定ファイル(ceph.conf)が非推奨になり、モニターに保存される新たな集中設定が追加されました。詳細は、「 ceph config」のリリースノートを使用して、設定がアクセス可能なモニターに保存されるようになりました

第6章 バグ修正

本セクションでは、今回リリースされた Red Hat Ceph Storage で修正されたユーザーに大きな影響を及ぼすバグを説明します。また、セクションでは、以前のバージョンで見つかった修正された既知の問題を説明します。

6.1. ceph-ansible ユーティリティー

Ansible Playbook が fuser コマンドを完了するまでに時間を要しなくなる

以前は、数千ものプロセスを実行しているシステムで、/proc ディレクトリーにあるすべての PID に対して反復されるため、Ansible Playbook で fuser コマンドが完了するのに数分または時間かかることがありました。このため、ハンドラータスクは、Ceph プロセスがすでに実行されているかどうかの確認が完了するまでに長い時間がかかります。今回の更新で、fuser コマンドを使用する代わりに、Ansible Playbook は /proc/net/unix ディレクトリーのソケットファイルをチェックして、Ceph ソケットを確認するハンドラータスクがほぼ即時に完了するようになりました。

(BZ#1717011)

Ansible Playbook purge-docker-cluster.yml が失敗しなくなりました。

以前のバージョンでは、Ansible Playbook の purge-docker-cluster.yml は、バイナリーが存在しないか、Atomic Host のバージョンが古くなっていたために RADOS Block Devices(RBD)のマッピングを試行する際に失敗していました。今回の更新で、Ansible は sysfs メソッドを使用してデバイスをアンマップするようになり、purge-docker-cluster.yml Playbook が失敗しなくなりました。

(BZ#1766064)

6.2. Object Gateway

Expiration, Days S3 Lifecycle パラメーターが 0に設定可能

Ceph Object Gateway は、Expiration には 0 、Days Lifecycle 設定パラメーターの値を受け入れませんでした。そのため、有効期限を 0 に設定すると、オブジェクトのバックグラウンド削除操作をトリガーすることができませんでした。今回の更新により、Expiration は Days を予想通りに 0 に設定できるようになりました。

(BZ#1493476)

アーカイブゾーンは、ソースオブジェクトの現行バージョンを取得します。

オブジェクトは複数のソースゾーンから同期され、ゾーンをアーカイブします。この動作により、アーカイブゾーンで同じオブジェクトの異なるバージョンが発生する可能性があります。今回の更新で、アーカイブゾーンがソースオブジェクトの現行バージョンをフェッチするようにすることで、重複バージョンが作成されなくなりました。

(BZ#1760862)

6.3. RADOS

BlueStore の使用時に expected_num_objects を設定するメッセージが表示されなくなりました。

今回の更新で、BlueStore プールの作成時に expected_num_obejcts パラメーターを設定することが推奨するメッセージが削除されました。これは、BlueStore OSD バックエンドの使用時にこのメッセージが適用されないためです。

(BZ#1650922)

非推奨の JSON フィールドが削除される

今回の更新により、ceph status コマンドの JSON 出力から非推奨のフィールドが削除されました。

(BZ#1739233)

第7章 既知の問題

本セクションでは、Red Hat Ceph Storage の本リリースで見つかった既知の問題を説明します。

7.1. ceph-ansible ユーティリティー

Red Hat OpenStack Platform への Red Hat Ceph Storage のインストールに失敗する

Red Hat OpenStack Platform 16 と共に Red Hat Ceph Storage をインストールしようとすると、ceph-ansible ユーティリティーが応答しなくなり、以下のようなエラーが返されます。

'Error: unable to exec into ceph-mon-dcn1-computehci1-2: no container with name or ID ceph-mon-dcn1-computehci1-2 found: no such container'

この問題を回避するには、ceph-ansible/roles/ceph-handler/tasks/ ディレクトリーにある handler_osds.yml ファイルの以下の部分を更新します。

- name: unset noup flag
  command: "{{ container_exec_cmd | default('') }} ceph --cluster {{ cluster }} osd unset noup"
  delegate_to: "{{ groups[mon_group_name][0] }}"
  changed_when: False

必要に応じて、以下を行ってください。

- name: unset noup flag
  command: "{{ hostvars[groups[mon_group_name][0]]['container_exec_cmd'] | default('') }} ceph --cluster {{ cluster }} osd unset noup"
  delegate_to: "{{ groups[mon_group_name][0] }}"
  changed_when: False

もう一度インストールプロセスを開始します。

(BZ#1792320)

Ansible が、完了後に norebalance フラグの設定を解除しない

Ansible Playbook rolling-update.yml は、完了後に norebalance フラグの設定を解除しません。この問題を回避するには、フラグを手動で設定解除します。

(BZ#1793564)

Dashboard が有効な場合に Ansible がマルチサイト Ceph Object Gateway のアップグレードに失敗する

Red Hat Ceph Storage Dashboard が有効な場合に、Ansible を使用してさらにバージョンの Red Hat Ceph Storage へのアップグレードを試みると、マルチサイト設定でセカンダリー Ceph Object Gateway サイトをアップグレードすると失敗します。このバグは、プライマリーサイトや Dashboard が有効でない場合に発生しません。

(BZ#1794351)

7.2. Ceph Management Dashboard

特定の設定オプションの Dashboard に正しい値が表示されない

共に、Red Hat Ceph Storage Dashboard および基礎となる ceph config show コマンドは、fsid などの特定の設定オプションの現在の値を返しません。これは、クラスターのデプロイ後に追加の変更を目的として意図されていない特定のコアオプションが更新されず、デフォルト値が使用されるためです。その結果、Dashboard には特定の設定オプションの正しい値が表示されなくなりました。

(BZ#1765493, BZ#1772310)

Dashboard の NFS Ganesha

現在、Red Hat Ceph Storage Dashboard は NFS Ganesha の管理をサポートしません。

(BZ#1772316)

ダッシュボードはメール検証をサポートしません。

Red Hat Ceph Storage Dashboard は、ユーザーパスワードの変更時に電子メールの検証をサポートしません。Dashboard はシングルサインオン (SSO) をサポートし、この機能を SSO プロバイダーに委譲できるため、この動作は意図的です。

(BZ#1778608)

読み取りおよび書き込み操作の OSD ヒストグラムグラフは消去されません。

Red Hat Ceph Storage Dashboard は、読み取りおよび書き込み操作について OSD ヒストグラムグラフに番号または説明を表示しないため、グラフは明確ではありません。

(BZ#1779170)

ceph CLI から ceph-mgr モジュールが有効になっていると、Dashboard がエラーを返す

Telemetry などの Ceph Manager(ceph-mgr)モジュールを有効にする際に、ceph CLI から Red Hat Ceph Storage Dashboard に以下のエラーメッセージが表示されます。

0 - Unknown Error

さらに、Dashboard では、Refresh ボタンがクリックされるまで、モジュールが有効とマークされません。

(BZ#1785077)

ダッシュボードでは LUN ID と WWN を変更できます。これにより、データが破損する可能性があります。

Red Hat Ceph Storage Dashboard では、LUN ID および World Wide Name(WWN)を変更できます。これは、LUN の作成後には必要ありません。さらに、このパラメーターを編集すると、この機能はデフォルトで完全にサポートされていない特定のイニシエーターには危険性があります。そのため、作成後にこれらのパラメーターを編集すると、データが破損する可能性があります。これを回避するには、Dashboard で LUN ID および WWN を変更しないでください。

(BZ#1786455)

Dashboard が正しい Ceph iSCSI エラーメッセージを提供しない

ユーザーのログイン中に iSCSI ターゲットを削除しようとする場合に Ceph iSCSI がエラー (HTTP の「400」など) を返すと、Red Hat Ceph Storage Dashboard はポップアップ通知を使用してそのエラーコードおよびメッセージを Dashboard ユーザーに転送しませんが、一般的な「500 Internal Server Error」を表示します。したがって、Dashboard が提供するというメッセージは通知されず、誤解を招く場合もあります。予想される動作 (「users cannot delete a busy resource」) は、運用上の失敗 (「internal server error」)として取り上げられます。この問題を回避するには、Dashboard ログを参照してください。

(BZ#1786457)

ダッシュボードでは、iptables ルールを無効にする必要があります。

Red Hat Ceph Storage Dashboard は、すべての iptables ルールが Ceph iSCSI ノードで手動で無効にしない限り、ゲートウェイの作成などの iSCSI 操作を実行できません。これを実行するには、root または sudo ユーザーで以下のコマンドを使用します。

# iptables -F

再起動後に、ルールが再度有効になることに注意してください。再度無効にするか、永続的に削除します。

(BZ#1792818)

7.3. パッケージ

Grafana の現行バージョンにより、Dashboard に特定のバグが発生します。

Red Hat Ceph Storage 4 は、Grafana バージョン 5.2.4 を使用します。このバージョンにより、Red Hat Ceph Storage Dashboard で以下のバグが生じます。

  • Pools > Overall Performance に移動する際に、Grafana は以下のエラーを返します。

    TypeError: l.c[t.type] is undefined
    true
  • プールのパフォーマンス詳細 (Pools > select a pool from the list > Performance Details) を表示すると、Grafana のバーは他のグラフや値と共に表示されますが、存在しないはずです。

これらのバグは、Red Hat Ceph Storage の今後のリリースで、Grafana の新規バージョンにリベースした後に修正されます。

(BZ#1786107, BZ#1762197, BZ#1765536)

7.4. Red Hat Enterprise Linux

SELinux が Enforcing モードにある場合は Ansible が NFS Ganesha を起動できない

Red Hat Enterprise Linux 8.1 で SELinux を Enforcing モードで使用すると、ceph-ansible ユーティリティーが NFS Ganesha サービスを起動できません。現在、SELinux ポリシーでは NFS Ganesha に必要なディレクトリーを作成することはできないためです。

(BZ#1794027, BZ#1796160)

第8章 ソース

更新された Red Hat Ceph Storage ソースコードパッケージは、http://ftp.redhat.com/redhat/linux/enterprise/7Server/en/RHCEPH/SRPMS/ から入手できます。