リリースノート

Red Hat Ceph Storage 4.0

Red Hat Ceph Storage 4.0 リリースノート

Red Hat Ceph Storage Documentation Team

概要

本リリースノートでは、特定のリリースで Red Hat Ceph Storage に実装された主な機能および機能拡張について説明します。このドキュメントには、既知の問題およびバグ修正も含まれます。

第1章 概要

Red Hat Ceph Storage は、非常にスケーラブルでオープンなソフトウェア定義のストレージプラットフォームで、Ceph ストレージシステムの最も安定したバージョンと Ceph 管理プラットフォーム、デプロイメントユーティリティー、サポートサービスを組み合わせたものです。

Red Hat Ceph Storage のドキュメントは https://access.redhat.com/documentation/en/red-hat-ceph-storage/ から入手でき ます

第2章 謝辞

Red Hat Ceph Storage 4.0 には、Red Hat Ceph Storage チームの多くが参加しています。また、Ceph プロジェクトは、Ceph コミュニティーの個人および組織からの質と量が急増しています。Red Hat Ceph Storage チームの全メンバー、Ceph コミュニティーの個々の貢献者すべてに感謝します。さらに、以下のような組織からの貢献(ただし、以下に限定されません)に謝意を表します。

  • Intel
  • timetsu
  • UnitedStack
  • Yahoo
  • UbuntuKylin
  • Mellanox
  • CERN
  • Deutsche Telekom
  • Mirantis
  • SanDisk
  • SUSE

第3章 新機能

本項では、今回の Red Hat Ceph Storage リリースで導入された主要な更新、機能拡張、および新機能をすべて取り上げます。

このリリースによって追加される主な機能は以下のとおりです。

3.1. ceph-ansible ユーティリティー

ceph-disk で作成された Ceph OSD は、アップグレード時に ceph-volume に移行されます。

Red Hat Ceph Storage 4 にアップグレードする場合、このリリースでは ceph-disk ユーティリティーで作成された実行中の Ceph OSD はすべて ceph-volume ユーティリティーに移行され ます。

Red Hat Ceph Storage のベアメタルおよびコンテナーデプロイメントの場合、ceph-volume ユーティリティーは簡単なスキャンを実行し、ceph-disk ユーティリティーによってデプロイされた既存の Ceph OSD を引き継ぎます。また、後続のデプロイメントでは、これらの移行したデバイスを設定として使用しないでください。アップグレードプロセス中に新しい Ceph OSD を作成することはできない点に注意してください。

アップグレード後、ceph- disk で作成したすべての Ceph OSD が ceph- volume により作成されるすべての Ceph OSD を起動し、操作します。

すべての Ceph サービスをスケーリングするための Ansible Playbook

以前のリリースでは、ceph-ansible Playbook は、モニターや OSD などのコア Ceph 製品にのみ、スケールアップおよびスケールダウンの機能のみを提供していました。今回の更新により、追加の Ansible Playbook により、すべての Ceph サービスのスケーリングが可能になりました。

Ceph iSCSI パッケージが 1 つのパッケージに統合

ceph-iscsi-cli パッケージおよび ceph- iscsi-config パッケージが、ceph-iscsi という名前の 1 つのパッケージに統合されました。

nfs-ganesha サービスがスタンドアロンデプロイメントとしてサポートされるようになりました。

Red Hat Openstack Directory(OSPd)では、ceph-ansible ユーティリティーが nfs-ganesha サービスをデプロイできるようにして、これを外部、アンマネージ、既存の Ceph クラスターを参照するように設定する必要があります。Red Hat Ceph Storage 4 の時点で、ceph-ansible では、外部の Ceph クラスターを使用して内部の nfs-ganesha サービスをデプロイすることができます。

Ceph コンテナーが、それぞれのデーモンファイルにログを作成できるようになりました。

以前の方法でコンテナー化された Ceph 環境へのロギングでは、sosreport コレクションを使用してログデータを確認する際に journalctl の出力を制限することができませんでした。今回のリリースで、以下のコマンドを使用して、特定の Ceph デーモンに対してロギングを有効または無効にできるようになりました。

ceph config set daemon.id log_to_file true

daemon はデーモン のタイプで、id はその ID です。たとえば、ID mon0 の Monitor デーモンのログを有効にするには、次のコマンドを実行します。

ceph config set mon.mon0 log_to_file true

この新機能により、デバッグが容易になります。

TLS 暗号化を使用するように Ceph Object Gateway を設定する機能

Red Hat Ceph Storage の本リリースでは、radosgw_frontend_ssl_certificate 変数を使用して TCP(Transmission Control Protocol)トラフィックのセキュリティーを保護することで、TLS 暗号化の SSL 証明書 で Ceph Object Gateway リスナーを設定する機能が提供されます。

OSD を FileStore から BlueStore に移行する Ansible Playbook

OSD を FileStore から BlueStore に移行するために、新しい Ansible Playbook が追加されました。Red Hat Ceph Storage 4 へのアップグレードプロセスの一環として、オブジェクトストアの移行は行われません。アップグレードの完了後に移行を行います。詳細は、『 Red Hat Ceph Storage Administration Guide』の「 How to migrate the object store from FileStore to BlueStore 」セクションを参照してください

3.2. Ceph Management Dashboard

プールの使用情報の改善

今回の機能強化により、プールテーブルに有用な情報が追加されました。以下の列(usage、read bytes、書き込みバイト、読み取り操作、書き込み操作)が追加されています。また、Placement Groups 列の名前が Pg Status に変更されました。

Red Hat Ceph Storage Dashboard アラート

Red Hat Ceph Storage Dashboard は、Ceph メトリクスに基づくアラートと、設定されたしきい値をサポートします。Prometheus AlertManager はアラートを設定、収集、およびトリガーします。アラートは、ダッシュボードにポップアップ通知として右上隅に表示されます。最近のアラートの詳細は、Cluster > Alerts で確認できます。アラートは Prometheus でのみ設定できますが、Cluster > Silences で「Alert Silences」を作成して Dashboard から一時的にミュートアウトできます。

Dashboard での Ceph コンポーネントの表示および非表示

Red Hat Ceph Storage Dashboard では、Ceph iSCSI、RBD ミラーリング、Ceph Block Devices、Ceph File System、Ceph Object Gateway などの Ceph コンポーネントを表示または非表示にすることができます。この機能により、設定されていないコンポーネントを非表示にすることができます。

Ceph Ansible Playbook に Ceph Dashboard が追加されました。

今回のリリースで、Ceph Dashboard のインストールコードが Ceph Ansible Playbook にマージされました。Ceph Ansible は、Red Hat Ceph Storage デプロイメント種別、ベアメタル、またはコンテナーに関係なく、Ceph Dashboard のコンテナー化されたデプロイメントを行います。これらの 4 つの新しいロール( ceph-grafana、ceph- dashboard、ceph- prometheus、および ceph- node-exporter )が追加されました。

Red Hat Ceph Storage Dashboard アラート

Red Hat Ceph Storage Dashboard は、Ceph メトリクスに基づくアラートと、設定されたしきい値をサポートします。Prometheus AlertManager はアラートを設定、収集、およびトリガーします。

Dashboard からのクラスター階層の表示

Red Hat Ceph Storage Dashboard では、クラスターの階層を確認することができます。詳細は、Red Hat Ceph Storage 4 Dashboard Guide の「CRUSH マップの表示 」セクションを参照してください。

3.3. Ceph File System

ceph -w が CephFS スクラビングについての情報を表示

以前のリリースでは、メタデータサーバー(MDS)ログをチェックする以外に、継続中の Ceph File System(CephFS)のステータスを確認することができませんでした。今回の更新により、ceph -w コマンドが、ステータスをよりよく理解できるように、アクティブな CephFS スクラビングについての情報を表示するようになりました。

CephFS エクスポートを管理するためのceph-mgr ボリュームモジュール

本リリースでは、Ceph File System(CephFS)のエクスポートを管理する Ceph Manager(ceph-mgr)ボリュームモジュールが提供されます。ボリュームモジュールは、以下のファイルシステムのエクスポート抽象化を実装します。

  • fs ボリューム、CephFS ファイルシステムの抽象化
  • fs サブボリューム(独立した CephFS ディレクトリーツリーの抽象化)
  • fs サブボリュームグループ。FS サブボリュームよりも高いディレクトリーの抽象化により、ファイルのレイアウトなどのポリシーがサブボリュームセット全体に影響を与えます。

さらに、これらの新しいコマンドがサポートされるようになりました。

  • サブボリュームを一覧表示する fs サブボリューム
  • サブボリュームグループを一覧表示する fs サブボリュームグループ
  • サブボリュームのスナップショットを一覧表示する fs サブボリュームスナップショットの ls
  • fs サブボリュームグループのスナップショットを一覧 表示するための fs サブボリュームスナップショットのスナップショット
  • スナップショットを削除するための fs サブボリューム

3.4. Ceph Medic

ceph-medic が、コンテナーで実行している Ceph の正常性を確認できる

今回のリリースにより、ceph-medic ユーティリティー が、コンテナー内で実行されている Red Hat Ceph Storage クラスターの健全性を確認できるようになりました。

3.5. iSCSI ゲートウェイ

ceph-iscsi サービスに管理者以外の設定を使用できるようになりました。

Red Hat Ceph Storage 4 以降、すべての iSCSI ゲートウェイの /etc/ ceph/iscsi- gateway.cfg に cluster_client_name を設定して、非管理者の Ceph ユーザーを ceph-iscsi サービスに使用することができます。これにより、ユーザーに基づいてリソースを制限できます。

Ceph iSCSI ゲートウェイの実行が削除されるようになりました。

Red Hat Ceph Storage 4 より、iSCSI ゲートウェイの実行は、メンテナンスやリソースの再割り当てのために Ceph iSCSI クラスターから削除できるようになりました。ゲートウェイの iSCSI ターゲットとそのポータルが停止し、そのゲートウェイのすべての iSCSI ターゲットオブジェクトがカーネルとゲートウェイ設定から削除されます。ダウンしているゲートウェイの削除はサポートされていません。

3.6. Object Gateway

Beast HTTP フロントエンド

Red Hat Ceph Storage 4 では、Ceph Object Gateway のデフォルトの HTTP フロントエンドは Beast です。Beast フロントエンドは、HTTP 解析に Boost.Beast ライブラリーを使用し、非同期 I/O に は Boost. Asio ライブラリーを使用します。詳細は、Red Hat Ceph Storage 4 の『 Object Gateway Configuration and Administration Guide』 の「 Using the Beast front end 」を参照してください。

S3 MFA-Delete のサポート

今回のリリースで、Ceph Object Gateway は、認証係数として Time-Based One-Time Password(TOTP)のワンタイムパスワードを使用して S3 MFA-Delete をサポートするようになりました。この機能により、不適切なデータ削除に対してセキュリティーが追加されます。データを削除するために標準の S3 認証に加えて、TOTP ワンタイムトークンを必要とするようにバケットを設定できます。

ストレージクラスおよびライフサイクルの Ceph Object Gateway への移行の追加

Ceph Object Gateway では、ストレージクラスのサポート、Ceph Object Gateway の基礎となる配置ターゲットの S3 と互換性のある表現、ライフサイクルのトランジション、クラス間でオブジェクトを移行するメカニズムが提供されます。ストレージクラスおよびライフサイクルトランジションは、それを必要とするアプリケーションのデータ配置に対してより高いレベルの制御を提供します。これには、特定のワークロードのパフォーマンスチューニングや、非アクティブなデータからコールドストレージへの自動移行など、多くの潜在的な用途があります。

ユーザーは REST API を使用して新しい IAM ポリシーおよびロールを作成できるようになりました。

Red Hat Ceph Storage 4 のリリースでは、IAM ロールおよびユーザーポリシー用の REST API が S3 API と同じ namespace で利用可能になり、Ceph Object Gateway の S3 API と同じエンドポイントを使用してアクセスできるようになりました。これにより、エンドユーザーは REST API を使用して新しい IAM ポリシーおよびロールを作成できます。

3.7. packages

Web ベースのインターフェースを使用した Ceph クラスターのインストール機能

今回のリリースで、Cockpit Web ベースのインターフェースがサポートされるようになりました。cockpit で、Red Hat Ceph Storage 4 クラスターおよびその他のコンポーネント(メタデータサーバー、Ceph クライアント、ベースメーターまたはコンテナー内の Ceph Object Gateway など)をインストールできます。詳細は、『 Red Hat Ceph Storage 4 インストールガイド』の「Cockpit Web ユーザーインターフェースを使用し た Red Hat Ceph Storage のインストール」の章を参照してください。Red Hat Ceph Storage に関する最小限のエクスペリエンスが必要なことに注意してください。

3.8. RADOS

Ceph on-wire 暗号化

Red Hat Ceph Storage 4 以降、バージョン 2 プロトコルの導入により、ネットワーク経由のすべての Ceph トラフィックの暗号化を有効にできます。詳細は、『Red Hat Ceph Storage 4 の Data Security and Hardening Guide』の「Transmission Guide and Encryption」の「Ceph on-wire encryption 」の章を参照 してください

OSD BlueStore が完全にサポートされるようになりました。

bluestore は、OSD デーモンの新しいバックエンドで、ブロックデバイスに直接オブジェクトを保存できるようにします。BlueStore はファイルシステムインターフェースを必要としないため、Ceph ストレージクラスターのパフォーマンスが向上します。BlueStore OSD バックエンドの詳細は、『Administration Guide for Red Hat Ceph Storage 4』の OSD BlueStore の章を参照してください。

FIPS モードの Red Hat Enterprise Linux

今回のリリースで、FIPS モードが有効になっている Red Hat Enterprise Linux に Red Hat Ceph Storage をインストールできるようになりました。

ceph df の出力と新しい ceph osd df コマンドを変更します。

ceph df コマンドの出力が改善されました。特に、RAW USED および %RAW USED の値は、db パーティションおよび wal BlueStore パーティションの事前割り当て領域を表示するようになりました。ceph osd df コマンドは、書き込まれたデータの量など、OSD の使用率統計を表示します。

非アクティブ化 OSD セットの非同期リカバリー

以前のバージョンでは、Ceph でのリカバリーは、オブジェクトが復元されるまで、オブジェクトへの書き込み操作をブロックすることで同期プロセスでした。本リリースでは、動作していない OSD セットでのみ、オブジェクトへの書き込み操作をブロックしないことで、リカバリープロセスは非同期になりました。この新機能には、非稼働セットに十分な OSD があるように、レプリカの最小数以上にする必要があります。

新しい設定オプション osd_async_recovery_min_cost は、実行する非同期リカバリーの量を制御します。このオプションのデフォルト値は 100 です。値が大きいほど、非同期復元は減りますが、値が小さいほど非同期リカバリーがより大きくなることを意味します。

ceph configを使用して、設定が Monitors に保管されるようになりました。

本リリースでは、Red Hat Ceph Storage は Ceph 設定ファイル(ceph.conf)の代わりに Monitor の設定を集中化します。以前では、手動で ceph.conf を更新し、これを適切なノードに分散して、影響を受けるデーモンをすべて再起動することが含まれていました。今回のリリースより、モニターは ceph.conf と同じセマンティック構造を持つ設定データベースを管理します。データベースは、ceph config コマンドでアクセスできます。設定への変更は、システムのデーモンまたはクライアントに即座に適用され、システムを再起動する必要がなくなりました。利用可能なコマンドセットの詳細は、ceph config -h コマンドを使用します。Monitors ノードを特定するには、Ceph 設定ファイルが依然として必要になることに注意してください。

配置グループを自動スケーリング可能に

Red Hat Ceph Storage 4 では、自動配置グループ(PG)が導入されています。プール内の配置グループ(PG)の数は、クラスターピアがデータの分散、およびリバランス方法において重要な役割を果たします。PG の数の自動スケーリングにより、クラスターの管理が容易になります。新しい pg-autoscaling コマンドは、PG をスケーリングするための推奨事項を提供し、またはクラスターの使用方法に基づいて PG を自動的にスケーリングします。自動スケーリング PG の詳細は、『 Storage Strategies Guide for Red Hat Ceph Storage 4』の「 自動スケーリング配置グループ 」セクションを参照してください。

ディスク予測モジュール 導入

Red Hat Ceph Storage の diskprediction モジュールはメトリクス 収集し、それらのメトリクスが発生する前にディスク障害を予測します。モジュールには、cloud と local の 2 つのモードがあります。今回のリリースで、ローカルモードのみがサポートされるようになりました。ローカルモードでは、データ分析に外部サーバーは必要ありません。これは、ディスク予測サービスの内部予測モジュールを使用してから、ディスクの予測結果を Ceph システムに戻します。

diskprediction モジュール を有効にするには、以下を実行します。

ceph mgr module enable diskprediction_local

予測モードを設定するには、以下を実行します。

ceph config set global device_failure_prediction_mode local

ディスク予測 モジュール を無効にするには、以下を実行します。

ceph config set global device_failure_prediction_mode none

新しい設定可能なオプション: mon_memory_target

Red Hat Ceph Storage 4 では、メモリー使用量を監視するために、新しい設定可能なオプション mon_memory_target が導入されました。関連付けられた Monitor デーモンキャッシュの優先順位キャッシュタナーを使用して、割り当ておよび管理するメモリーの量を指定します。mon_memory_target のデフォルト値は 2 GiB に設定され、ランタイム時に以下を使用して変更できます。

# ceph config set global mon_memory_target size

今回のリリース以前は、クラスターがスケーリングすると、Monitor specific RSS の使用は mon_osd_cache_size オプションを使用して設定した制限を超えていました。これにより問題が発生していました。今回の機能拡張により、モニターキャッシュに割り当てられるメモリーの管理を改善し、使用状況を指定された制限内に保持できるようになりました。

3.9. ブロックデバイス(RBD)

Ceph ブロックデバイスのイレイジャーコーディング

Ceph Block Device(RBD)のイレイジャーコーディングが完全にサポートされるようになりました。この機能により、RBD は、イレイジャーコードされたプールにデータを保存できます。詳細は、『 Storage Strategies for Red Hat Ceph Storage 4』の「 Erasure Coding with Overwrites」セクション を参照してください。

RBD パフォーマンス監視およびメトリクス収集ツール

Red Hat Ceph Storage 4 には、IOPS、スループット、レイテンシーのための集約された RBD イメージメトリクスを提供するための新たな Ceph Block Device パフォーマンス監視ユーティリティーが導入されました。イメージごとの RBD メトリクスは、rbd perf image iostat コマンドまたは rbd perf image iotop コマンドを使用して、Ceph Manager Prometheus モジュール、Ceph Dashboard、および rbd CLI を使用して利用できるようになりました。

クローン作成されたイメージは、プライマリー以外のイメージから作成できます。

ミラーリングされた非プライマリー親イメージからのクローン子 RBD イメージの作成がサポートされるようになりました。以前のバージョンでは、ミラーリングされたイメージのクローン作成は、プライマリーイメージでのみサポートされていました。仮想マシン用にクローンイメージをクローンする際に、この制限により、プライマリー以外のイメージからクローンが新たに作成されたイメージが作成されなくなりました。今回の更新でこの制限が削除され、プライマリー以外のミラーリングされたイメージからクローンされたイメージを作成できます。

同じプール内の分離された名前空間内で RBD イメージを分離

RBD イメージは、同じプール内の分離された名前空間内で分離できるようになりました。OpenStack や OpenShift Container Storage などの高レベルのシステムなしで Ceph ブロックデバイスを直接使用する場合、特定の RBD イメージへのユーザーアクセスを制限することができませんでした。CephX 機能と組み合わせる場合には、ユーザーは特定のプール名前空間に制限して、RBD イメージへのアクセスを制限できます。

同じクラスター内の異なるプール間での RBD イメージの移行

このバージョンの Red Hat Ceph Storage では、RBD イメージを同じクラスター内の異なるプール間で移動する機能が追加されました。詳細は、Red Hat Ceph Storage 4 の『 Block Device Guide』 の「 Moving images between pool」セクション を参照してください。

長期間実行される RBD 操作がバックグラウンドで実行可能

イメージの削除やクローン作成イメージのフラット化などの長期間実行される RBD 操作は、バックグラウンドで実行されるようにスケジュールできるようになりました。イメージのすべてのバッキング RADOS オブジェクトを繰り返し処理する RBD 操作は、イメージのサイズによっては時間がかかる場合があります。CLI を使用してこれらの操作のいずれかを実行する場合、rbd CLI は操作が完了するまでブロックされます。ceph rbd task add コマンドを使用して、これらの操作をバックグラウンドタスクとして Ceph Manager が実行するようにスケジュールできるようになりました。これらのタスクの進捗は、Ceph ダッシュボードと CLI を使用して表示できます。

3.10. RBD ミラーリング

1 つのストレージクラスターでの RBD mirror デーモンの複数のアクティブなインスタンスのサポート

Red Hat Ceph Storage 4 は、1 つのストレージクラスターへの RBD ミラーデーモンの複数のアクティブなインスタンスのデプロイをサポートするようになりました。これにより、複数の RBD ミラーデーモンが、アクティブなミラーリングデーモンの数全体でイメージをチャンクするアルゴリズムを使用して、RBD イメージまたはプールのレプリケーションを実行できるようになります。

第4章 バグ修正

本項では、本リリースの Red Hat Ceph Storage で修正されたユーザーに大きな影響を与えるバグについて説明します。また、このセクションには、以前のバージョンで見つかった修正済みの既知の問題の説明が含まれます。

4.1. ceph-ansible ユーティリティー

Ansible Playbook で fuser コマンドを完了するのに時間がかかりなくなりました。

以前のバージョンでは、プロセスを実行しているシステムで、Ansible Playbook の fuser コマンドは、/proc ディレクトリーに存在するすべての PID を繰り返し処理するため、完了に数分または時間かかる可能性がありました。そのため、ハンドラータスクは Ceph プロセスがすでに実行されているかどうかの確認を完了するのに時間がかかります。今回の更新で、fuser コマンドを使用する代わりに、Ansible Playbook は /proc/net/unix ディレクトリーのソケットファイルをチェックし、Ceph ソケットを確認するハンドラータスクがほぼ即座に完了するようになりました。

(BZ#1717011)

Ansible Playbook の purge-docker-cluster.yml が失敗しなくなりました。

以前のバージョン では、バイナリーがないか、Atomic ホストバージョンが古いため、RADOS Block Devices(RBD)のマッピング解除を試みると、Ansible Playbook は失敗する可能性がありました。今回の更新で、Ansible は sysfs メソッドを使用してデバイスのマッピングを解除し、Playbook の purge-docker-cluster.yml が失敗しなくなりました。

(BZ#1766064)

4.2. Object Gateway

有効期限の Days S3 Lifecycle パラメーターを 0に設定できるようになりました。

Ceph Object Gateway は 、Expiration, Days Lifecycle 設定パラメーターに 0 の値を受け入れませんでした。そのため、有効期限を 0 に設定すると、オブジェクトのバックグラウンド削除操作をトリガーできませんでした。今回の更新で、Expiration、Days が予想通りに 0 に設定できるようになりました。

(BZ#1493476)

アーカイブゾーンは、ソースオブジェクトの現行バージョンを取得します。

複数のソースゾーンからアーカイブゾーンにオブジェクトを同期します。この動作は、アーカイブゾーンの同じオブジェクトの異なるバージョンになる可能性があります。今回の更新で、アーカイブゾーンがソースオブジェクトの現行バージョンを取得するようにすることで、重複バージョンが作成されなくなりました。

(BZ#1760862)

4.3. RADOS

BlueStore の使用時に expected_num_objects を設定するメッセージが表示されない

今回の更新で、BlueStore プールの作成時に expected_num_obejcts パラメーター を設定することが推奨されるメッセージが削除されました。このメッセージは BlueStore OSD バックエンドを使用する場合には適用されないためです。

(BZ#1650922)

非推奨の JSON フィールドが削除される

今回の更新で、ceph status コマンドの出力から非推奨のフィールドが削除されます。

(BZ#1739233)

第5章 テクノロジープレビュー

本項では、本リリースの Red Hat Ceph Storage で導入されたテクノロジープレビュー機能の概要を説明します。

重要

テクノロジープレビューの機能は、Red Hat の本番環境のサービスレベルアグリーメント(SLA)ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat は実稼働環境での使用は推奨しません。この機能により、今後の製品機能への早期アクセスが可能になり、開発プロセス中に機能のテストやフィードバックの提供が可能になります。

Red Hat のテクノロジープレビュー機能のサポートについての詳細は、https://access.redhat.com/support/offerings/techpreview/ を参照してください

5.1. Ceph File System

CephFS スナップショット

Ceph File System(CephFS)は、スナップショットのテクノロジープレビューとしてスナップショットの取得をサポートします。スナップショットは、作成した時点でファイルシステムのイミュータブルなビューを作成します。

5.2. ブロックデバイス(RBD)

RBD イメージの NBD イメージへのマッピング

rbd-nbd ユーティリティーは、RADOS Block Device(RBD)イメージを Network Block Device(NBD)にマッピングし、Ceph クライアントが Kubernetes 環境のボリュームおよびイメージにアクセスできるようにします。rbd-nbd を使用するには、rbd-nbd パッケージをインストールします。詳細は、man ページの rbd-nbd(7) を参照してください。

5.3. Object Gateway

Object Gateway アーカイブサイト

今回のリリースで、アーカイブサイトはテクノロジープレビューとしてサポートされます。アーカイブサイトでは、S3 オブジェクトの履歴を保持できます。S3 オブジェクトの履歴は、アーカイブゾーンに関連付けられたゲートウェイでのみ除外できます。マルチゾーン設定にアーカイブゾーンを含めると、バージョンの S3 オブジェクトのレプリカが残りのゾーンで消費される領域を節約しながら、S3 オブジェクト履歴を 1 つのゾーンに柔軟性を持たせることができます。

ディスクタイプごとのクラスター内での階層化

本リリースでは、プールの配置先やストレージクラスなどを使用して、ディスクタイプ別にクラスター内でテクノロジープレビューとして階層化できる機能が追加されました。ライフサイクルトランジションルールを使用すると、ポリシーに基づいてオブジェクトがストレージプール間で移行される可能性があります。

S3 バケット通知

S3 バケット通知がテクノロジープレビューとしてサポートされるようになりました。S3 バケットで特定のイベントがトリガーされると、通知を Ceph Object Gateway から HTTP、Advanced Message Queuing Protocol(AMQP)9.1、および Kafka エンドポイントに送信できます。さらに、通知をエンドポイントに送信する代わりに「PubSub」ゾーンに保存することもできます。PubSub は、受信側が Ceph から通知をプルできるようにするパブリッシュ/サブスクライブモデルです。

S3 通知を使用するには、librabbitmq パッケージおよび librdkafka パッケージをインストールします。

第6章 既知の問題

本項では、Red Hat Ceph Storage の本リリースに記載されている既知の問題について説明します。

6.1. ceph-ansible ユーティリティー

Red Hat Ceph Storage の Red Hat OpenStack Platform へのインストールに失敗します。

Red Hat OpenStack Platform 16 とともに Red Hat Ceph Storage をインストールしようとすると、ceph-ansible ユーティリティーが応答しなくなり、以下のエラーが返されます。

'Error: unable to exec into ceph-mon-dcn1-computehci1-2: no container with name or ID ceph-mon-dcn1-computehci1-2 found: no such container'

この問題を回避するには、ceph-ansible/roles/ceph- handler/tasks/ ディレクトリーにある handler _osds.yml ファイルの以下の部分を更新します。

- name: unset noup flag
  command: "{{ container_exec_cmd | default('') }} ceph --cluster {{ cluster }} osd unset noup"
  delegate_to: "{{ groups[mon_group_name][0] }}"
  changed_when: False

以下に変更します。

- name: unset noup flag
  command: "{{ hostvars[groups[mon_group_name][0]]['container_exec_cmd'] | default('') }} ceph --cluster {{ cluster }} osd unset noup"
  delegate_to: "{{ groups[mon_group_name][0] }}"
  changed_when: False

続いて、インストールプロセスを再開します。

(BZ#1792320)

Ansible が、完了後に norebalance フラグの設定を解除しない

Ansible Playbook の rolling-update.yml は、完了後に norebalance フラグの設定を解除しません。この問題を回避するには、手動でフラグの設定を解除します。

(BZ#1793564)

Dashboard が有効な場合に Ansible がマルチサイト Ceph Object Gateway のアップグレードに失敗する

Red Hat Ceph Storage Dashboard を有効にすると、マルチサイトセットアップでセカンダリー Ceph Object Gateway サイトをアップグレードしようとすると、Ansible を使用して Red Hat Ceph Storage のさらなるバージョンにアップグレードしようとすると失敗します。このバグは、プライマリーサイトや Dashboard が有効になっていない場合は発生しません。

(BZ#1794351)

6.2. Ceph Management Dashboard

Dashboard には、特定の設定オプションに正しい値が表示されません。

Red Hat Ceph Storage Dashboard と基礎となる ceph config show コマンドの両方が、fsid などの特定の設定オプションの現在の値を返しません。これは、クラスターのデプロイ後に追加の変更を目的としていない特定のコアオプションが更新されず、デフォルト値が使用されるためです。その結果、Dashboard には特定の設定オプションの正しい値は表示されません。

(BZ#1765493, BZ#1772310)

Dashboard の NFS Ganesha

現在、Red Hat Ceph Storage Dashboard は NFS Ganesha の管理をサポートしていません。

(BZ#1772316)

Dashboard が電子メールの検証をサポートしない

Red Hat Ceph Storage Dashboard は、ユーザーパスワードの変更時にメールの検証をサポートしません。Dashboard はシングルサインオン(SSO)をサポートし、この機能を SSO プロバイダーに委譲できるため、この動作は意図的です。

(BZ#1778608)

読み取りおよび書き込み操作の OSD ヒストグラムグラフが明確ではない

Red Hat Ceph Storage Dashboard は、OSD ヒストグラムグラフに読み取りおよび書き込み操作の数字または説明が表示されないため、グラフは明確ではありません。

(BZ#1779170)

ceph CLI から ceph-mgr モジュールが有効になっていると Dashboard がエラーを返す

Ceph CLI から Telemetry などの Ceph Manager(ceph-mgr)モジュールを有効にすると、Red Hat Ceph Storage Dashboard に以下のエラーメッセージが表示されます。

0 - Unknown Error

また、Dashboard は Refresh ボタンをクリックするまで、モジュールを有効とマークしません。

(BZ#1785077)

ダッシュボードは LUN ID および WWN を変更でき、データが破損する可能性があります。

Red Hat Ceph Storage Dashboard では、LUN ID およびその World Wide Name(WWN)を変更することができます。これは、LUN の作成後には必要ありません。さらに、これらのパラメーターを編集すると、デフォルトではこの機能を完全にサポートしていない特定のイニシエーターは危険にさらされる可能性があります。その結果、作成後にこれらのパラメーターを編集すると、データが破損する可能性があります。これを回避するには、Dashboard で LUN ID および WWN を変更しないでください。

(BZ#1786455)

Dashboard には正しい Ceph iSCSI エラーメッセージが表示されない

ユーザーがログインしている間に iSCSI ターゲットを削除しようとすると、Ceph iSCSI がエラーを返すと(たとえば、HTTP "400" コード)、Red Hat Ceph Storage Dashboard は、ポップアップ通知を使用して Dashboard ユーザーにエラーコードとメッセージを転送しませんが、一般的な「500 Internal Server Error」が表示されます。そのため、Dashboard が提供するメッセージは通知されず、さらに誤解を招くことはありません。想定される動作("users cannot cannot delete a busy resource")は、運用上の失敗(internal server error)と見なされます。この問題を回避するには、Dashboard ログを参照してください。

(BZ#1786457)

Dashboard で iptables ルールを無効にする必要があります。

Red Hat Ceph Storage Dashboard は、Ceph iSCSI ノードですべての iptables ルールを手動で無効にしない限り、ゲートウェイの作成などの iSCSI 操作を実行できません。これを行うには、root または sudo ユーザーで次のコマンドを実行します。

# iptables -F

再起動すると、ルールが再度有効になります。再度無効にするか、永続的に削除します。

(BZ#1792818)

6.3. packages

Grafana の現行バージョンにより、Dashboard の特定のバグが発生する

Red Hat Ceph Storage 4 は Grafana バージョン 5.2.4 を使用します。このバージョンにより、Red Hat Ceph Storage Dashboard のバグは以下のようになります。

  • Pools > Overall Performance に移動すると、Grafana は以下のエラーを返します。

    TypeError: l.c[t.type] is undefined
    true
  • プールのパフォーマンス詳細を表示する場合(Pools > select a pool from the list > Performance Details)、Grafana バーは他のグラフおよび値と共に表示されますが、そこには表示されません。

これらのバグは、Red Hat Ceph Storage の今後のリリースで Grafana の新規バージョンにリベースした後に修正されます。

(BZ#1786107, BZ#1762197, BZ#1765536)

6.4. Red Hat Enterprise Linux

Ansible が SELinux が Enforcing モードの場合は NFS Ganesha を起動できない

Red Hat Enterprise Linux 8.1 で SELinux を使用する場合は、現在 NFS Ganesha に必要なディレクトリーを作成できないため、ceph-ansible ユーティリティーは NFS Ganesha サービスの起動に失敗します。

(BZ#1794027, BZ#1796160)

第7章 非推奨の機能

本項では、Red Hat Ceph Storage の今回リリースまでのすべてのマイナーリリースで非推奨となった機能の概要を説明します。

Ubuntu がサポート対象外になりました。

Red Hat Ceph Storage 4 クラスターを Ubuntu にインストールすることはサポートされなくなりました。Red Hat Enterprise Linux を基礎となるオペレーティングシステムとして使用します。

7.1. ceph-ansible ユーティリティー

ceph-ansible を使用した iSCSI ゲートウェイの設定がサポート対象外になりました。

ceph-ansible ユーティリティーを使用して Ceph iSCSI ゲートウェイを設定することはサポートされなくなりました。ceph-ansible を使用してゲートウェイをインストールし、Red Hat Ceph Storage Dashboard の gwcli ユーティリティー を使用してゲートウェイを設定します。詳細は、Red Hat Ceph Storage 4 の『 Block Device Guide』 の「Using the Ceph iSCSI Gateway 」の章を参照してください。

7.2. ceph-disk ユーティリティー

ceph-disk が非推奨に

今回のリリースにより、ceph-disk ユーティリティーはサポートされなくなりました。代わりに ceph-volume ユーティリティーが使用されます。詳細は、『Red Hat Ceph Storage 4 の 管理ガイド』「ceph-disk に代わる Why does ceph- volume replace」セクション を参照してください。

7.3. RADOS

filestore が実稼働環境でサポート対象外になりました。

FileStore OSD バックエンドは実稼働環境で完全にサポートされるようになりました。これは、新しい BlueStore バックエンドが実稼働環境で完全にサポートされるようになりました。詳細は、『Red Hat Ceph Storage 4 Installation Guide』の「 How to migrate the object store from FileStore to BlueStore 」セクションを参照してください

Ceph の設定が非推奨に

Monitor に保存されている新たな集中型設定が推奨されるため、Ceph 設定ファイル(ceph.conf)は非推奨になりました。詳細 は、「ceph config」のリリース注を使用して、Configuration が Monitors に保管されるようになりまし た。

第8章 sources

更新された Red Hat Ceph Storage のソースコードパッケージは http://ftp.redhat.com/redhat/linux/enterprise/7Server/en/RHCEPH/SRPMS/ から入手でき ます