第1章 利用可能なストレージオプションの概要

本章では、Red Hat Enterprise Linux 8 で利用可能なストレージの種類を説明します。Red Hat Enterprise Linux には、ローカルストレージの管理やリモートストレージへの接続に使用するさまざまなオプションがあります。図1.1「Red Hat Enterprise Linux ストレージダイアグラム (概要)」 では、さまざまなストレージオプションを説明します。

図1.1 Red Hat Enterprise Linux ストレージダイアグラム (概要)

RHEL ストレージダイアグラム (概要)

1.1. ローカルストレージオプション

以下は、Red Hat Enterprise Linux 8 で利用可能なローカルストレージオプションです。

基本的なディスク管理:

parted と fdisk を使用して、パーティションの作成、修正、削除、表示を行うことができます。パーティショニングレイアウトの仕様は以下のようになります。

マスターブートレコード (MBR)
BIOS ベースのコンピューターで使用されます。プライマリーパーティション、拡張パーティション、および論理パーティションを作成できます。
GUID パーティションテーブル (GPT)
GUID (Globally Unique identifier) を使用し、一意のディスクおよびパーティション GUID を提供します。

パーティションを暗号化するには、LUKS (Linux Unified Key Setup-on-disk-format) を使用します。パーティションを暗号化する場合は、インストール時にオプションを選択し、パスフレーズを入力させるプロンプトを表示します。このパスフレーズにより、暗号化キーのロックが解除されます。

ストレージ使用オプション
NVDIMM (Non-Volatile Dual In-line Memory Modules) の管理
メモリーとストレージの組み合わせです。システムに接続した NVDIMM デバイスで、さまざまな種類のストレージを有効にして管理できます。
ブロックストレージ管理
各ブロックに固有の識別子を持つブロックの形式でデータを保存します。
ファイルストレージ
データは、ローカルシステムのファイルレベルに保存されます。これらのデータは、XFS (デフォルト) または ext4 を使用してローカルでアクセスしたり、NFS と SMB を使用してネットワーク上でアクセスできます。
論理ボリューム
論理ボリュームマネージャー (LVM)

物理デバイスから論理デバイスを作成します。論理ボリューム (LV) は、物理ボリューム (PV) とボリュームグループ (VG) の組み合わせです。LVM の設定には以下が含まれます。

  • ハードドライブから PV の作成
  • 物理ボリュームからボリュームグループの作成
  • ボリュームグループから論理ボリュームを作成すると、マウントポイントが論理ボリュームに割り当てられます。
VDO (Virtual Data Optimizer)

重複排除、圧縮、およびシンプロビジョニングを使用して、データの削減に使用されます。VDO の下で論理ボリュームを使用すると、次のことができます。

  • VDO ボリュームの拡張
  • 複数のデバイスにまたがる VDO ボリューム
ローカルファイルシステム
XFS
デフォルトの RHEL ファイルシステム。
Ext4
レガシーファイルシステム。
Stratis
テクノロジープレビューとして利用可能になりました。Stratis は、高度なストレージ機能に対応する、ユーザーとカーネルのハイブリッドローカルストレージ管理システムです。

1.2. リモートストレージオプション

Red Hat Enterprise Linux 8 で利用可能なリモートストレージオプションは次のとおりです。

ストレージの接続オプション
iSCSI
RHEL 8 は targetcli ツールを使用して、iSCSI ストレージの相互接続を追加、削除、表示、および監視します。
ファイバーチャンネル (FC)

Red Hat Enterprise Linux 8 は、以下のネイティブファイバーチャネルドライバーを提供します。

  • lpfc
  • qla2xxx
  • Zfcp
NVMe (Non-volatile Memory Express)

ホストソフトウェアユーティリティーがソリッドステートドライブと通信できるようにするインターフェース。次の種類はファブリックトランスポートを使用して、NVMe over fabrics を設定します。

  • RDMA (Remote Direct Memory Access) を使用する NVMe over fabrics
  • ファイバーチャネル (FC) を使用した NVMe over fabrics
Device Mapper Multipath (DM Multipath)
サーバーノードとストレージアレイ間の複数の I/O パスを 1 つのデバイスに設定できます。これらの I/O パスは、個別のケーブル、スイッチ、コントローラーを含むことができる物理的な SAN 接続です。
ネットワークファイルシステム
  • NFS
  • SMB

1.3. GFS2 ファイルシステムのクラスター化ソリューション

Red Hat Global File System 2 (GFS2) ファイルシステムは、64 ビットの対称クラスターファイルシステムで、共有名前空間を提供し、一般的なブロックデバイスを共有する複数のノード間の一貫性を管理します。GFS2 ファイルシステムは、ローカルファイルシステムに可能な限り近い機能セットを提供すると同時に、ノード間でクラスターの完全な整合性を強制することを目的としています。これを実現するため、ノードはファイルシステムリソースにクラスター全体のロックスキームを使用します。このロックスキームは、TCP/IP などの通信プロトコルを使用して、ロック情報を交換します。

場合によっては、Linux ファイルシステム API では、GFS2 のクラスター化された性質を完全に透過的にすることができません。たとえば、GFS2 で POSIX ロックを使用しているプログラムは、GETLK の使用を回避する必要があります。なぜなら、クラスター環境では、プロセス ID が、クラスター内の別のノードに対するものである可能性があるためです。ただし、ほとんどの場合、GFS2 ファイルシステムの機能は、ローカルファイルシステムのものと同じです。

Red Hat Enterprise Linux (RHEL) Resilient Storage Add-On は GFS2 を提供します。GFS2 が必要とするクラスター管理の提供は RHEL High Availability Add-On により提供されます。

gfs2.ko カーネルモジュールは GFS2 ファイルシステムを実装し、GFS2 クラスターノードに読み込まれます。

GFS2 環境を最大限に利用するためにも、基礎となる設計に起因するパフォーマンス事情を考慮することが重要です。GFS2 では、ローカルファイルシステムと同様、ページキャッシュで、頻繁に使用されるデータのローカルキャッシングを行ってパフォーマンスを向上します。クラスターのノード間で一貫性を維持するために、glock ステートマシンでキャッシュ制御が提供されます。

関連情報

1.4. クラスター化ソリューション

このセクションでは、Red Hat Gluster Storage (RHGS) または Red Hat Ceph Storage (RHCS) などの clustered 設定オプションの概要を説明します。

1.4.1. Red Hat Gluster Storage オプション

Red Hat Gluster Storage (RHGS) は、ソフトウェア定義のストレージプラットフォームです。これは、複数のサーバーから単一のグローバル名前空間に、ディスクストレージリソースを統合します。GlusterFS はオープンソースの分散ファイルシステムです。これは、クラウドおよびハイブリッドのソリューションに適しています。

GlusterFS は、GlusterFS のベースとなる異なるタイプのボリュームで構成され、それぞれに異なる要件があります。ボリュームは、ブリックのコレクションで、コレ自体がストレージ領域となります。

GlusterFS ボリュームのタイプは次のとおりです。

  • 分散 GlusterFS ボリューム は、デフォルトのボリュームです。このボリュームタイプの場合には、各ファイルは単一のブリックに格納され、異なるブリック間で共有できません。
  • レプリケートされた GlusterFS ボリューム タイプは、データのレプリカを保持します。このボリュームタイプの場合には、ブリックが失敗しても、ユーザーはデータにアクセスできます。
  • 分散されレプリケートされた GlusterFS ボリューム は、多数のシステムにレプリカを分散するハイブリッドボリュームです。ストレージのスケーリング要件および信頼性の高さが重要な環境には適しています。

関連情報

1.4.2. Red Hat Ceph Storage オプション

Red Hat Ceph Storage (RHCS) はスケーラブルでオープンなソフトウェア定義のストレージプラットフォームで、Ceph ストレージシステムの最も安定したバージョンと、Ceph 管理プラットフォーム、デプロイメントユーティリティー、サポートサービスを組み合わせたものです。

Red Hat Ceph Storage は、クラウドインフラストラクチャーおよび Web スケールオブジェクトストレージ用に設計されています。Red Hat Ceph Storage クラスターは、以下のタイプのノードで構成されます。

Red Hat Ceph Storage Ansible 管理ノード

このタイプのノードは、以前のバージョンの Red Hat Ceph Storage に行われた従来の Ceph 管理ノードとして機能します。このタイプのノードでは、以下の機能が提供されます。

  • ストレージクラスターの一元管理
  • Ceph 設定ファイルおよびキー
  • セキュリティー上の理由からインターネットにアクセスできないノードに Ceph をインストールするためのローカルリポジトリー (任意)
ノードの監視

各モニターノードは、クラスターマップのコピーを維持する monitor デーモン(ceph-mon)を実行します。クラスターマップにはクラスタートポロジーが含まれます。Ceph クラスターに接続するクライアントは、モニターからクラスターマップの現在のコピーを取得します。これにより、クライアントがクラスターへのデータの読み取りおよび書き込みが可能になります。

重要

Ceph はモニター 1 つで実行できますが、実稼働クラスターで高可用性を確保するためには、Red Hat は少なくとも 3 つのモニターノードを持つデプロイメントのみをサポートします。Red Hat は、750 個の OSD を超えるストレージクラスターに合計 5 つの Ceph Monitor をデプロイすることを推奨します。

OSD ノード

各 Object Storage Device (OSD) ノードは Ceph OSD デーモン (ceph-osd) を実行し、ノードに割り当てられている論理ディスクと対話します。Ceph は、この OSD ノードにデータを保存します。

Ceph は、非常に少数の OSD ノード (デフォルトは 3) で実行できますが、実稼働クラスターは、ストレージクラスターで中程度のスケール (たとえば OSD が 50 個) で始まります。理想的には、Ceph クラスターに複数の OSD ノードがあり、CRUSH マップを作成して分離された障害ドメインを許可します。

MDS ノード
各 Metadata Server (MDS) ノードは、MDS デーモン (ceph-mds) を実行して、Ceph ファイルシステム (CephFS) に保存されているファイルに関する管理します。MDS デーモンは、共有クラスターへのアクセスも調整します。
Object Gateway ノード
Ceph Object Gateway ノードは、Ceph RADOS Gateway デーモン (ceph-radosgw) を実行し、librados 上に構築されたオブジェクトストレージインターフェースで、Ceph Storage クラスターに RESTful ゲートウェイを使用するアプリケーションを提供します。Ceph Object Gateway は、以下の 2 つのインターフェースをサポートします。
S3
Amazon S3 RESTful API の大規模なサブセットと互換性のあるインターフェースでオブジェクトストレージ機能を提供します。
Swift
OpenStack Swift API の大規模なサブセットと互換性のあるインターフェースでオブジェクトストレージ機能を提供します。

関連情報


このページには機械翻訳が使用されている場合があります (詳細はこちら)。