Red Hat Training

A Red Hat training course is available for Red Hat Enterprise Linux

Cluster Suite の概要

Red Hat Enterprise Linux 5

Red Hat Enterprise Linux 5 対応の Red Hat Cluster Suite

エディッション 3

Logo

概要

Red Hat Cluster Suite 概要』 は Red Hat Enterprise Linux 5 対応の Red Hat Cluster Suite に関する概要を提供します。

はじめに

このドキュメントでは、Red Hat Enterprise Linux 5 対応の Red Hat Cluster Suite に関する高度な概要を提供しており、 以下のような構成になっています:
このドキュメント内の情報は概要ですが、読者には Red Hat Enterprise Linux の実用知識が要求される内容であるため、 この情報を十分に理解する為にはサーバーコンピューティングの概念を理解する必要があります。
Red Hat Enterprise Linux の使用に関する詳細情報については、以下の資料を参照してください:
  • Red Hat Enterprise Linux インストールガイド』 — Red Hat Enterprise Linux 5 のインストールに関する 情報を提供します。
  • Red Hat Enterprise Linux 』 — Red Hat Enterprise Linux 5 の導入、設定、及び管理についての 情報を提供します。
Red Hat Enterprise Linux 5 対応の Red Hat Cluster Suite に関する詳細については、以下の資料を参照してください:
  • Red Hat Cluster の設定と管理』 — Red Hat Cluster コンポーネントの インストール、設定、及び管理に関する情報を提供します。
  • LVM Administrator's Guide: Configuration and Administration』 — Provides a description of the Logical Volume Manager (LVM), including information on running LVM in a clustered environment.
  • Global File System: 設定と管理』 — Red Hat GFS (Red Hat Global File System) のインストール、設定、及び維持に関する情報を提供します。
  • Global File System 2 : 設定と管理』 — Red Hat GFS2 (Red Hat Global File System 2) のインストール、設定、維持に関する情報を提供します。
  • デバイスマッパーマルチパスの使用法』 — Red Hat Enterprise Linux 5 に於ける デバイスマッパーマルチパス機能の使用についての情報を提供します。
  • Global File System を持つ GNBD の使用法』 — Red Hat GFS を 持つ GNBD (Global Network Block Device)の使用法に関する概要を提供します。
  • Linux 仮想サーバー管理』 — LVS (Linux Virtual Server)での 高度パフォーマンスシステムとサービスの設定に関する情報を提供します。
  • Red Hat Cluster Suite リリースノート』 — Red Hat クラスタセット の 現在のリリースノートに関する情報を提供します。
Red Hat Cluster Suite ドキュメントと Red Hat ドキュメントは、HTML と PDF 形式で、オンラインで http://www.redhat.com/docs/ から入手できます。 また Red Hat Enterprise Linux ドキュメント CD の RPM 形式で取得可能です。

1. フィードバック

誤字や脱字を見つけた場合や、このドキュメントをより良くするためのご提案などがございましたら、弊社までご連絡ください。Bugzilla (http://bugzilla.redhat.com/bugzilla/) より、コンポーネント Documentation-cluster に対してご報告ください。
Be sure to mention the document's identifier:
Cluster_Suite_Overview(EN)-5 (2008-12-11T15:49)
By mentioning this document's identifier, we know exactly which version of the guide you have.
このドキュメントを改善する提案をお持ちの場合は、出来るだけ詳細に説明をお願いします。 誤字/脱字を発見された場合は、弊社で素早くその位置を発見できるようにそのセクション番号や 周囲の文脈も含めて頂くようにお願いします。

第1章 Red Hat Cluster Suite 概要

クラスタ化したシステムは、基幹実稼働サービスへ信頼性、拡張性、可用性を提供します。 Red Hat Cluster Suite を使用することで、パフォーマンス、ハイアベイラビリティ、ロードバランシング、拡張性、 ファイル共有、そして経済性等のニーズに対応するクラスタを構成することができます。 この章では、Red Hat Cluster Suite のコンポーネントと機能の概要を提供し、以下のようなセクションで 構成されています:

1.1. クラスタの基礎

クラスタとは一緒に稼働してタスクを実行する二つ以上のコンピュータ(ノード、 又は メンバー と呼ぶ)です。クラスタには四つの主要タイプがあります:
  • ストレージ
  • ハイアベイラビリティ(高度可用性)
  • ロードバランシング
  • ハイパフォーマンス
ストレージクラスタはクラスタ内のサーバー全機に渡って安定したファイルシステムイメージを 提供し、サーバー群が同時に単独の共有ファイルシステムに対し読み取りと書き込みが出来るように します。ストレージクラスタは、アプリケーションのインストールとパッチングを1つのファイル システムに制限することによりストレージ管理を簡素化します。また、クラスタ全域のファイル システムを持つため、ストレージクラスタはアプリケーションデータの冗長コピーの必要性を解消し、 バックアップと災害時復帰を簡素化します。Red Hat Cluster Suite は Red Hat GFS を通じてストレージクラスタリングを 提供します。
ハイアベイラビリティクラスタは、ネックとなる単一故障箇所を排除し、 操作不能になった場合に1つのクラスタノードから他のノードにフェイルオーバーする ことにより、連続的にサービスの可用性を提供します。標準的にハイアベリラビリティクラスタ内の サービスはデータの読み込みと書き込みをします(read-write マウントのファイルシステム経由)。そのため、 1つのクラスタノードが別のクラスタノードからサービスの制御を引き継ぐ時点では、ハイアベリラビリティクラスタはデータ統合性を維持する必要があります。ハイアベリラビリティクラスタ内のノード故障は クラスタ外部のクライアントからは見えません。(ハイアベリラビリティクラスタは時にはフェイルオーバー クラスタと呼ばれる)Red Hat Cluster Suite は、そのハイアベリラビリティクラスタサービス管理コンポーネントを 通じてハイアベリラビリティクラスタリングを提供します。
ロードバランシングクラスタはネットワークサービス要求を複数のクラスタノードに分配して、 クラスタノード群内の要求負担のバランスを取ります。ロードバランシングは、要求負担に応じて ノード数を調節することが出来るため、コスト効率の良い拡張性を提供します。ロードバランシングクラスタ 内の1つのノードが操作不能になった場合、ロードバランシングソフトウェアが故障を検知して、要求を 他のクラスタノードに転送します。ロードバランシングクラスタ内のノード故障はクラスタ外部の クライアントからは見えません。Red Hat Cluster Suite は LVS (Linux Virtual Server) を通じてロードバランシングを 提供します。
ハイパフォーマンスクラスタはクラスタノード群を使用して、同時演算を実行します。 ハイパフォーマンスクラスタにより、アプリケーションは並行して稼働することが できるようになるため、アプリケーションのパフォーマンスが向上します。(ハイパフォーマンス クラスタは、演算クラスタ、あるいはグリッドコンピューティングとも呼ばれます)

注記

前述の文章で要約されているクラスタタイプは基本的な設定を反映しています。 ユーザーのニーズにはこれらのクラスタタイプの組み合わせが必要かも知れません。

1.2. Red Hat Cluster Suite Introduction

Red Hat Cluster Suite (RHCS) は、ユーザーのニーズに応じてパフォーマンス、ハイアベイラビリティ、ロードバランシング、拡張性 ファイル共有、及び経済性の為のさまざまな設定で導入できるソフトウェアコンポーネントの統合セットです。
RHCS consists of the following major components (refer to 図1.1「Red Hat Cluster Suite Introduction」):
  • クラスタインフラストラクチャ — クラスタとして一緒に動作するように ノード群に基本的な機能:設定ファイル管理、メンバーシップ管理、ロック管理、及び フェンシングを提供します。
  • ハイアベイラビリティサービス管理 — 1つのノードが操作不能になった場合に そのクラスタノードから別のクラスタノードにサービスのフェイルオーバーを提供します。
  • クラスタ管理ツール — Red Hat クラスタのセッティング、設定、及び管理の為の 設定/管理ツールです。このツールは、クラスタインフラストラクチャコンポーネント、ハイアベイラビリティとサービス管理のコンポーネント、及びストレージで使用するための物です。
  • LVS (Linux Virtual Server)— IP ロードバランシングを提供する Routing ソフトウェアです。 LVS は LVS サーバー群の背後にある実サーバー(real server)に対してクライアント要求を均等に分配する 冗長サーバーのペアとして稼働します。
オプションパッケージの一部である(しかし Red Hat Cluster Suite の一部でない) 以下のコンポーネントで、Red Hat Cluster Suite を補足することができます。
  • Red Hat GFS (Global File System) — Red Hat Cluster Suite と共に使用する為のクラスタファイルシステム を提供します。GFS の使用により複数ノードは、ストレージがローカル的に各クラスタノードに 接続しているかのようにブロックレベルでストレージを共有することができるようになります。
  • CLVM (Cluster Logical Volume Manager)— クラスタストレージの ボリューム管理を提供します。

    注記

    When you create or modify a CLVM volume for a clustered environment, you must ensure that you are running the clvmd daemon. For further information, refer to 「クラスタ論理ボリュームマネージャ」.
  • GNBD (Global Network Block Device)— ブロックレベルストレージをイーサネットに エキスポートする GFS の補助コンポーネントです。これはブロックレベルのストレージを Red Hat GFS で使用可能にする経済的な方法です。
For a lower level summary of Red Hat Cluster Suite components and optional software, refer to 2章Red Hat Cluster Suite コンポーネントの要約.
Red Hat Cluster Suite Introduction

図1.1 Red Hat Cluster Suite Introduction

注記

図1.1「Red Hat Cluster Suite Introduction」 includes GFS, CLVM, and GNBD, which are components that are part of an optional package and not part of Red Hat Cluster Suite.

1.3. Cluster Infrastructure

Red Hat Cluster Suite クラスタインフラストラクチャは、コンピュータ(ノード、又はメンバーと呼ぶ)の集合体が クラスタとして一緒に動作するように基本的機能を提供します。クラスタインフラストラクチャを 使用してクラスタが構成されると、ユーザーのクラスタリングニーズに合うように Red Hat Cluster Suite の他の コンポーネントを使用できます。(例えば、GFS ファイルシステム上で共有ファイル用のクラスタをセットしたり、サービス フェイルオーバーを設定したりできます)クラスタインフラストラクチャは、以下のような 機能を発揮します:
  • クラスタ管理
  • ロック管理
  • Fencing
  • クラスタ設定管理

1.3.1. クラスタ管理

Cluster management manages cluster quorum and cluster membership. CMAN (an abbreviation for cluster manager) performs cluster management in Red Hat Cluster Suite for Red Hat Enterprise Linux 5. CMAN is a distributed cluster manager and runs in each cluster node; cluster management is distributed across all nodes in the cluster (refer to 図1.2「CMAN/DLM Overview」).
CMAN keeps track of cluster quorum by monitoring the count of cluster nodes. If more than half the nodes are active, the cluster has quorum. If half the nodes (or fewer) are active, the cluster does not have quorum, and all cluster activity is stopped. Cluster quorum prevents the occurrence of a "split-brain" condition — a condition where two instances of the same cluster are running. A split-brain condition would allow each cluster instance to access cluster resources without knowledge of the other cluster instance, resulting in corrupted cluster integrity.
定員数は、イーサネットを通じてクラスタノード間のメッセージの交信により決定されます。 オプションとして、定員数は、イーサネット経由、及び 定員数ディスクを通じたメッセージの交信の組み合わせによって決定できます。イーサネット 経由の定員数では、定員数はノード投票数の50% プラス1です。定員数ディスク経由の定員数では、 定員数はユーザー指定の条件で構成されます。

注記

デフォルトで、各ノードは定数員投票を1つ持ちます。オプションとして、 ユーザーはノードが1票以上を持つように設定することができます。
CMAN は、他のクラスタノードからのメッセージを監視することによりメンバーシップの 動きを追跡します。クラスタメンバーシップが変化すると、クラスタマネージャは、他の インフラストラクチャコンポーネントに通知を出します。これらのコンポーネントがその後 必要な処置をします。例えば、ノード A がクラスタに参加して、ノード B とノード C が既に マウントしている GFS ファイルシステムをマウントする場合、ノード A が GFS ファイルシステムを 使用するためには、追加のジャーナルとロック管理が必要となります。1つのクラスタノードが 指定時間以内にメッセージを送信しないと、クラスタマネージャはクラスタからそのノードを 削除し、そのノードがもうメンバーでないことを他のクラスタインフラストラクチャコンポーネントに 通達します。その後、他のクラスタインフラストラクチャコンポーネントは、そのノードがクラスタの メンバーでない通知に対して起こす行動を決定します。例えば、フェンシングがメンバーでなくなった ノードを フェンス(遮断)してしまいます。
CMAN/DLM Overview

図1.2 CMAN/DLM Overview

1.3.2. ロック管理

Lock management is a common cluster-infrastructure service that provides a mechanism for other cluster infrastructure components to synchronize their access to shared resources. In a Red Hat cluster, DLM (Distributed Lock Manager) is the lock manager. As implied in its name, DLM is a distributed lock manager and runs in each cluster node; lock management is distributed across all nodes in the cluster (refer to 図1.2「CMAN/DLM Overview」). GFS and CLVM use locks from the lock manager. GFS uses locks from the lock manager to synchronize access to file system metadata (on shared storage). CLVM uses locks from the lock manager to synchronize updates to LVM volumes and volume groups (also on shared storage).

1.3.3. Fencing

Fencing is the disconnection of a node from the cluster's shared storage. Fencing cuts off I/O from shared storage, thus ensuring data integrity. The cluster infrastructure performs fencing through the fence daemon, fenced.
CMAN がノードの1つが故障したと判定すると、CMAN はそのノードが故障したことを 他のクラスタインフラストラクチャコンポーネントに通達します。その故障の通達を受けた fenced はそのノードを フェンス(遮断)します。他のインフラストラクチャ コンポーネントはどんな行動を取るべきか判定します — 即ち、復元に必要となるすべてを実行します。 例えば、DLM と GFS はノード故障の通知を受けると、fenced が故障ノードの フェンスを完了したことを検知するまで活動を休止します。故障ノードが フェンスされたことを確認した時点で DLM と GFS はその復元を実行します。DLM は故障ノードのロックを解除し、GFS は故障ノードの ジャーナルを取り戻します。
フェンシング プログラムは、クラスタ設定ファイルからどの方法を使用すべきかを決定します。 クラスタ設定ファイル内の二つの主要素が フェンシング方法を定義します: フェンシングエージェントと フェンシングデバイスです。フェンシングプログラムはクラスタ設定ファイルに指定されているフェンシングエージェントを 呼び出します。その フェンシングエージェントは、そこで フェンシングデバイス を介してノードの フェンス を します。フェンシング が完了した時点で フェンシングプログラムはクラスタマネージャに通知を出します.
Red Hat Cluster Suite は各種の フェンシング 方法を提供します:
  • パワーフェンシング — 操作不能なノードの電源を切る為にパワーコントローラを使用する フェンシング 方法。
  • ファイバーチャンネルスイッチ フェンシング — 操作不能なノードにストレージを 接続するようなファイバーチャンネルポートを無効にする フェンシング 方法。
  • GNBD fencing — A fencing method that disables an inoperable node's access to a GNBD server.
  • 他のフェンシング — 操作不能なノードの I/O や電源を無効にする他のフェンシング 方法が数種あり、 その中には IBM Bladecenters、PAP、DRAC/MC、HP ILO、 IPMI、IBM RSA II、その他が含まれます。
図1.3「Power Fencing Example」 shows an example of power fencing. In the example, the fencing program in node A causes the power controller to power off node D. 図1.4「Fibre Channel Switch Fencing Example」 shows an example of Fibre Channel switch fencing. In the example, the fencing program in node A causes the Fibre Channel switch to disable the port for node D, disconnecting node D from storage.
Power Fencing Example

図1.3 Power Fencing Example

Fibre Channel Switch Fencing Example

図1.4 Fibre Channel Switch Fencing Example

フェンシング 方法の指定はクラスタ設定ファイルを編集して、クラスタ内の各ノード用に フェンシング方法の名前、フェンシングエージェント、及び フェンシングデバイスを割り当てることで 構成されます。
The way in which a fencing method is specified depends on if a node has either dual power supplies or multiple paths to storage. If a node has dual power supplies, then the fencing method for the node must specify at least two fencing devices — one fencing device for each power supply (refer to 図1.5「Fencing a Node with Dual Power Supplies」). Similarly, if a node has multiple paths to Fibre Channel storage, then the fencing method for the node must specify one fencing device for each path to Fibre Channel storage. For example, if a node has two paths to Fibre Channel storage, the fencing method should specify two fencing devices — one for each path to Fibre Channel storage (refer to 図1.6「Fencing a Node with Dual Fibre Channel Connections」).
Fencing a Node with Dual Power Supplies

図1.5 Fencing a Node with Dual Power Supplies

Fencing a Node with Dual Fibre Channel Connections

図1.6 Fencing a Node with Dual Fibre Channel Connections

ノードは単独フェンシング 法か、又は複数フェンシング 法で設定することができます。 ノードを単独 フェンシング 法で設定する場合は、そのノードを フェンスするには, その フェンシング 法のみが使用できます。ノードを 複数 フェンシング 法で設定すると、 フェンシング 法は、クラスタ設定ファイル内に指定してある フェンシング 法の順に従って 1つの フェンシング 法から次の フェンシング 法へと 順送り(cascaded) と なります。ノードが故障すると、そのノード用にクラスタ設定ファイル内に指定された最初の フェンシング 法でノードをフェンスします。最初の フェンシング 法が機能しない場合、そのノード用に指定してある 次の フェンシング 法が使用されます。全ての フェンシング 法が機能しない状態になると、最初の フェンシング 法に戻りそのノードがフェンスされるまで、クラスタ設定ファイル内に指定された順で フェンシング 法を繰り返します。

1.3.4. クラスタ設定システム

The Cluster Configuration System (CCS) manages the cluster configuration and provides configuration information to other cluster components in a Red Hat cluster. CCS runs in each cluster node and makes sure that the cluster configuration file in each cluster node is up to date. For example, if a cluster system administrator updates the configuration file in Node A, CCS propagates the update from Node A to the other nodes in the cluster (refer to 図1.7「CCS Overview」).
CCS Overview

図1.7 CCS Overview

Other cluster components (for example, CMAN) access configuration information from the configuration file through CCS (refer to 図1.7「CCS Overview」).
Accessing Configuration Information

図1.8 Accessing Configuration Information

クラスタ設定ファイル (/etc/cluster/cluster.conf) は、以下のようなクラスタ特性を説明する XML ファイルです。
  • クラスタ名 — ノードがクラスタに参加した時点、又はクラスタから フェンスされた時点の クラスタ名、クラスタ設定ファイルの改訂レベル、及び基本 フェンスタイミングプロパティを 表示します。
  • クラスタ — クラスタの各ノードを表示して、それぞれのノードのノード名、 ノード ID、定員投票数、及び フェンシング 方法を指定します。
  • フェンスデバイス — クラスタ内のフェンスデバイスを表示します。パラメータは フェンスデバイスのタイプに応じて変化します。例えば、フェンスデバイスで使用されるパワー コントローラ用には、クラスタ設定がパワーコントローラの名前、その IP アドレス、ログイン、 及びパスワードを定義します。
  • 管理されたリソース — クラスタサービスを作成するのに必要なリソースを表示します。 管理されたリソースには、フェイルオーバードメインの定義、リソース(例、IP アドレス)、 及びサービスが含まれています。それと共に、管理されたリソースはクラスタサービスと、 クラスタサービスのフェイルオーバー動作を定義します。

1.4. ハイアベイラビリティサービス管理

ハイアベイラビリティサービス管理は、Red Hat クラスタ内にハイアベイラビリティ クラスタサービス を作成し管理する能力を提供します。Red Hat クラスタ内でハイアベイラビリティサービス管理用の基幹となる コンポーネント、rgmanager は、新規状態の アプリケーションでコールドフェイルオーバーを実装します。Red Hat クラスタ内では、アプリケーションは 他のクラスタリソースと一緒に設定されて、ハイアベイラビリティクラスタサービスを構成します。 ハイアベイラビリティクラスタサービスは、クラスタクライアントに表面的な邪魔をせずに1つのノードから 別のノードにフェイルオーバーをすることが出来ます。クラスタサービスフェイルオーバーは、クラスタ ノードが失敗したり、又はクラスタシステム管理者がサービスを1つのクラスタから別のクラスタに移動 した場合に発動します。(例えば、クラスタノードの計画停止など)
ハイアベイラビリティサービスを作成するには、それをクラスタ設定ファイル内で設定する 必要があります。クラスタサービスは、クラスタ リソースで構成 されています。クラスタリソースとは、クラスタ設定ファイル内で作成し、管理する組み立て土台と なる要素です。 — 例えば、 IP アドレス、アプリケーションの初期化スクリプト、あるいは、 Red Hat GFS 共有パーティションなど。
You can associate a cluster service with a failover domain. A failover domain is a subset of cluster nodes that are eligible to run a particular cluster service (refer to 図1.9「フェイルオーバードメイン」).

注記

フェイルオーバードメインは、運用には必要ありません
クラスタサービスはデータの統合性を維持するために、一度に1つのクラスタノード上だけで実行 できます。フェイルオーバードメイン内ではフェイルオーバーの優先度を指定することができます。 フェイルオーバー優先度の指定は、フェイルオーバードメイン内の各ノードに優先度を割り当てる ことで構成されます。この優先度のレベルがフェイルオーバーの順番 — クラスタがフェイル オーバーをするノードの順 — を決めます。フェイルオーバー優先度を指定しないと、クラスタは フェイルオーバードメイン内のどのノードにでもフェイルオーバーをすることになります。また、 クラスタサービスがその関連したフェイルオーバードメインのノードでのみ実行するように制限を 指定することも出来ます。(無制限のフェイルオーバードメインと関連付けがある場合、クラスタサービスは フェイスオーバードメインのメンバーが利用できない場合に、どのクラスタノード上でも開始できるように なります。)
In 図1.9「フェイルオーバードメイン」, Failover Domain 1 is configured to restrict failover within that domain; therefore, Cluster Service X can only fail over between Node A and Node B. Failover Domain 2 is also configured to restrict failover with its domain; additionally, it is configured for failover priority. Failover Domain 2 priority is configured with Node C as priority 1, Node B as priority 2, and Node D as priority 3. If Node C fails, Cluster Service Y fails over to Node B next. If it cannot fail over to Node B, it tries failing over to Node D. Failover Domain 3 is configured with no priority and no restrictions. If the node that Cluster Service Z is running on fails, Cluster Service Z tries failing over to one of the nodes in Failover Domain 3. However, if none of those nodes is available, Cluster Service Z can fail over to any node in the cluster.
フェイルオーバードメイン

図1.9 フェイルオーバードメイン

図1.10「Web Server Cluster Service Example」 shows an example of a high-availability cluster service that is a web server named "content-webserver". It is running in cluster node B and is in a failover domain that consists of nodes A, B, and D. In addition, the failover domain is configured with a failover priority to fail over to node D before node A and to restrict failover to nodes only in that failover domain. The cluster service comprises these cluster resources:
  • IP アドレスリソース — IP アドレス 10.10.10.201.
  • An application resource named "httpd-content" — a web server application init script /etc/init.d/httpd (specifying httpd).
  • A file system resource — Red Hat GFS named "gfs-content-webserver".
Web Server Cluster Service Example

図1.10 Web Server Cluster Service Example

クライアントは、IP アドレス 10.10.10.201 を通じてクラスタサービスにアクセスし、 ウェブサービスアプリケーションや httpd-content との相互交流を可能にします。 httpd-content アプリケーションは gfs-content-webserver ファイルシステムを使用します。 ノード B が故障状態になれば content-webserver クラスタサービスはノード D に フェイルオーバーすることになります。ノード D が利用できない状態か、あるいはそれが 故障した場合は、サービスはノード A にフェイルオーバーします。フェイルオーバーは、 クラスタクライアントに目に見えた妨害なしに達成されます。クラスタサービスは、フェイルオーバー 以前と同じように、同じ IP アドレスを通じて別のクラスタノードからアクセスすることができます。

1.5. Red Hat GFS

Red Hat GFS はノード群で構成されるクラスタが、そのノード間で共有されるブロックデバイスへの 同時アクセスを可能にするクラスタファイルシステムです。GFS は Linux カーネルファイルシステム インターフェイスの VFS レイヤーと直接的に接触するネイティブなファイルシステムです。GFS は クラスタ内で最適な操作の為に分配型メタデータと複数ジャーナルを使用します。ファイルシステムの 統合性を維持するために、GFS はロックマネージャを使用して I/O をコーディネートします。ノードの 1つが GFS ファイルシステム上でデータを変更すると、その変更はすぐにファイルシステムを使用している 他のクラスタノードに見えるようになります。
Red Hat GFS, を使用すると、以下のような特典により最大限のアプリケーションアップタイムを 達成することができます:
  • データインフラストラクチャの簡素化
    • クラスタ全体の為にアプリケーションのインストールとパッチ。
    • アプリケーションデータの冗長コピー(複製)の必要性の排除
    • 多くのクライアントによるデータへの同時 read/write アクセスの有効化
    • バックアップと災害時復帰の簡素化(1つのファイルシステムのみをバックアップ、又は 復帰)
  • ストレージリソース使用の最大化、ストレージ管理コストの最小化
    • パーティション毎ではなく、全体としてストレージを管理
    • データ複製の必要性解消で総合的ストレージ需要の低減
  • 随時サーバーやストレージを追加して無段階的にクラスタを拡張
    • パーティション設定ストレージに複雑な技術は不要
    • 共通ファイルシステムにマウントすることで随時サーバーをクラスタに追加
Red Hat GFS を実行しているノードは、Red Hat Cluster Suite の設定/管理ツールで、設定され管理されています。 ボリューム管理は CLVM (Cluster Logical Volume Manager) によって管理されています。 Red Hat GFS は Red Hat クラスタ内の GFS ノード間でのデータ共有を提供します。GFS は Red Hat クラスタ内の GFS ノード全域に渡って単独の安定したファイルシステムネームスペースを提供します。 GFS の使用で、アプリケーションは背後にあるストレージ構造の知識なしにインストールと実行が できるようになります。また、GFS は割り当てや、複数ジャーナルやマルチパスサポートなどの エンタープライズ環境で特に要求される機能も提供します。
GFS は使用中のストレージ環境に於けるパフォーマンス、スケーラビリティ、及び経済性の ニーズに応じてネットワーキングストレージに柔軟な方法を提供します。この章では、かなり 基本的な短縮型の情報をユーザーの GFS 理解の骨組みとして提供しています。
You can deploy GFS in a variety of configurations to suit your needs for performance, scalability, and economy. For superior performance and scalability, you can deploy GFS in a cluster that is connected directly to a SAN. For more economical needs, you can deploy GFS in a cluster that is connected to a LAN with servers that use GNBD (Global Network Block Device) or to iSCSI (Internet Small Computer System Interface) devices. (For more information about GNBD, refer to 「グローバルネットワークブロックデバイス」.)
以下のセクションでは、パフォーマンス、スケーラビリティ、及び 経済性の為にユーザーのニーズに適合する GFS を導入する方法の例を提供しています:

注記

この GFS 導入例は、基本設定を反映しています; ユーザーのニーズは、例で示してある設定の 組み合わせを必要とする可能性があります。

1.5.1. より良いパフォーマンスとスケーラビリティ

You can obtain the highest shared-file performance when applications access storage directly. The GFS SAN configuration in 図1.11「GFS with a SAN」 provides superior file performance for shared files and file systems. Linux applications run directly on cluster nodes using GFS. Without file protocols or storage servers to slow data access, performance is similar to individual Linux servers with directly connected storage; yet, each GFS application node has equal access to all data files. GFS supports over 300 GFS nodes.
GFS with a SAN

図1.11 GFS with a SAN

1.5.2. パフォーマンス、スケーラビリティ、経済価格

Multiple Linux client applications on a LAN can share the same SAN-based data as shown in 図1.12「GFS and GNBD with a SAN」. SAN block storage is presented to network clients as block storage devices by GNBD servers. From the perspective of a client application, storage is accessed as if it were directly attached to the server in which the application is running. Stored data is actually on the SAN. Storage devices and data can be equally shared by network client applications. File locking and sharing functions are handled by GFS for each network client.
GFS and GNBD with a SAN

図1.12 GFS and GNBD with a SAN

1.5.3. 経済性とパフォーマンス

図1.13「ストレージに直接接続の GFS と GNBD」 shows how Linux client applications can take advantage of an existing Ethernet topology to gain shared access to all block storage devices. Client data files and file systems can be shared with GFS on each client. Application failover can be fully automated with Red Hat Cluster Suite.
ストレージに直接接続の GFS と GNBD

図1.13 ストレージに直接接続の GFS と GNBD

1.6. クラスタ論理ボリュームマネージャ

CLVM (Cluster Logical Volume Manager)は LVM2 のクラスタ全域版を提供します。CLVM は 単独ノード上では、LVM2 と同じ機能を提供します。しかし、Red Hat クラスタ内で全てのノードに ボリュームを利用できるようにします。CLVM で作成された論理ボリュームはクラスタ内の 全てのノードに論理ボリュームが利用できるようにします。
The key component in CLVM is clvmd. clvmd is a daemon that provides clustering extensions to the standard LVM2 tool set and allows LVM2 commands to manage shared storage. clvmd runs in each cluster node and distributes LVM metadata updates in a cluster, thereby presenting each cluster node with the same view of the logical volumes (refer to 図1.14「CLVM Overview」). Logical volumes created with CLVM on shared storage are visible to all nodes that have access to the shared storage. CLVM allows a user to configure logical volumes on shared storage by locking access to physical storage while a logical volume is being configured. CLVM uses the lock-management service provided by the cluster infrastructure (refer to 「Cluster Infrastructure」).

注記

Red Hat Cluster Suite で共有ストレージを使用するには、クラスタ論理ボリュームマネージャデーモン (clvmd) か高可用論理ボリューム管理エージェント (HA-LVM) が稼働していなければなりません。運用上の理由で clvmd デーモン や HA-LVM を使用できない場合や、適切なエンタイトルメントを持っていない場合は、データ破損の恐れがあるため共有ディスク上で単一インスタンスの LVM を使用しないでください。ご質問やご不明な点などがありましたら、Red Hat のサービス担当者までご連絡ください。

注記

CLVM を使用するには、クラスタ全域のロッキングの為に /etc/lvm/lvm.conf に 少々の変更をする必要があります。
CLVM Overview

図1.14 CLVM Overview

You can configure CLVM using the same commands as LVM2, using the LVM graphical user interface (refer to 図1.15「LVM Graphical User Interface」), or using the storage configuration function of the Conga cluster configuration graphical user interface (refer to 図1.16「Conga LVM Graphical User Interface」) . 図1.17「Creating Logical Volumes」 shows the basic concept of creating logical volumes from Linux partitions and shows the commands used to create logical volumes.
LVM Graphical User Interface

図1.15 LVM Graphical User Interface

Conga LVM Graphical User Interface

図1.16 Conga LVM Graphical User Interface

Creating Logical Volumes

図1.17 Creating Logical Volumes

1.7. グローバルネットワークブロックデバイス

GNBD (Global Network Block Device )は TCP/IP 上で Red Hat GFS へのブロックデバイスアクセスを 提供します。GNBD は概念的には NBD と似ていますが、GNBD は GFS 特有であり GFS との使用専用に チューンされています。GNBD はより強健な技術へのニーズ — ファイバーチャンネル、又は single-initiator SCSI — が必要でなく、コスト制限がある場合に役にたちます。
GNBD consists of two major components: a GNBD client and a GNBD server. A GNBD client runs in a node with GFS and imports a block device exported by a GNBD server. A GNBD server runs in another node and exports block-level storage from its local storage (either directly attached storage or SAN storage). Refer to 図1.18「GNBD 概要」. Multiple GNBD clients can access a device exported by a GNBD server, thus making a GNBD suitable for use by a group of nodes running GFS.
GNBD 概要

図1.18 GNBD 概要

1.8. Linux 仮想サーバー

Linux Virtual Server (LVS) は実サーバーのセット内での IP ロードのバランスを とるための統合ソフトウェアコンポーネントセットです。 LVS は同一設定の二つの コンピュータペア上で稼働します。その1つはアクティブな LVS router として、 もう1つは バックアップの LVS router として機能します。アクティブな LVS router は 以下の二つの役割を持ちます:
  • 実サーバー全部に渡ってロードのバランスを取る
  • それぞれの実サーバー上のサービスの統合性を確認する
バックアップ LVS router はアクティブな LVS router を監視して、アクティブな LVS router が 失敗した場合に入れ替わります。
図1.19「Components of a Running LVS Cluster」 provides an overview of the LVS components and their interrelationship.
Components of a Running LVS Cluster

図1.19 Components of a Running LVS Cluster

pulse デーモンはアクティブとバックアップの両方の LVS router で稼働します。 バックアップ LVS router 上では pulse は、アクティブ router の公共 インターフェイスに ハートビート(heartbeat) を送信し、アクティブ router が 正常に機能していることを確認します。アクティブ LVS router 上では pulselvs デーモンを開始して、バックアップ LVS router からの ハートビート のクエリに反応します。
開始されると、lvs デーモンは ipvsadm ユーティリティを コールしてカーネル内の IPVS (IP Virtual Server) routing 表の設定と管理をします。そしてそれぞれの 実サーバー上で設定済みの各仮想サーバーの為の nanny プロセスを開始します。 それぞれの nanny プロセスは1つの実サーバー上で設定済のサービスの状態を チェックし、lvs デーモンに対し、その実サーバー上のサービスが正常であるかどうかを 伝えます。異常動作が検知された場合、lvs デーモンは、IPVS routing 表から その実サーバーを排除するように ipvsadm に指示します。
バックアップ LVS router がアクティブ LVS router から反応を受理しない場合、バックアップ LVS router は send_arp をコールして、全ての仮想 IP アドレスを、バックアップ LVS router の NIC ハードウェアアドレス(MAC アドレス)に再割り当てをして、コマンドを 公共とプライベートの両方のネットワークインターフェイスを通じてアクティブ LVS router に送信して アクティブ LVS router 上の lvs デーモンをシャットダウンし、更に バックアップ LVS router 上の lvs デーモンを開始して設定済仮想サーバーからの 要求を受理することにより、フェイルオーバーに取り掛かります。
ホスト化されたサービスへアクセスしている外部ユーザー(例えば、ウェブサイトやデータベース アプリケーション)には、LVS は 1つのサーバーと見えます。しかし、ユーザーは実際には、 LVS router の背後にある実サーバー群にアクセスしていることになります。
LVS 内には、実サーバー間でデータを共有するための組み込みコンポーネントがない為、 二つのオプションがあります:
  • 実サーバー全体に渡ってデータの同期を取る。
  • 共有データアクセス用のトポロジーへ第三レイヤーを追加する。
一番目のオプションは、多数のユーザーが実サーバー上でアップロードしたり、データを変更したりする のを許可しないサーバーに適切なものです。実サーバーが多数のユーザーに、e-commerce ウェブサイトなどの データを修正することを許可する場合は、第三レイヤーの追加が望まれます。
実サーバー間でデータを同期化する方法は沢山あります。例えば、シェルスクリプトを使用して 更新したウェブページを実サーバーに同時に送ることができます。また、rsync などの プログラムを使用して、決まった間隔で全てのノードに渡って変更データを複製することもできます。しかし、 ユーザーが頻繁にファイルをアップロードしたりデータベーストランザクションを発行したりする環境では、 スクリプトの使用、又はデータ同期化用の rsync コマンドは効率的に機能しません。 そのため、多くのアップロードやデータベーストランザクションや同様のトラフィックを持つ実サーバーには、 three-tiered トポロジー がデータ同期化に最適となります。

1.8.1. Two-Tier LVS Topology

図1.20「Two-Tier LVS Topology」 shows a simple LVS configuration consisting of two tiers: LVS routers and real servers. The LVS-router tier consists of one active LVS router and one backup LVS router. The real-server tier consists of real servers connected to the private network. Each LVS router has two network interfaces: one connected to a public network (Internet) and one connected to a private network. A network interface connected to each network allows the LVS routers to regulate traffic between clients on the public network and the real servers on the private network. In 図1.20「Two-Tier LVS Topology」, the active LVS router uses Network Address Translation (NAT) to direct traffic from the public network to real servers on the private network, which in turn provide services as requested. The real servers pass all public traffic through the active LVS router. From the perspective of clients on the public network, the LVS router appears as one entity.
Two-Tier LVS Topology

図1.20 Two-Tier LVS Topology

LVS router に到着するサービス要求は virtual IP、いわゆる VIP アドレスへ 届けられます。これは、サイトの管理者が www.example.com などの 完全修飾ドメイン名と関連づける公共的に巡回可能なアドレスで、1つ又は複数の 仮想サーバー[1] に割り当てられます。VIP アドレスは フェイルオーバー中に 1つの LVS router から他の LVS router に移行します。その方法で、浮動 IP アドレス と して知られる VIP アドレスの存在を維持することに注意して下さい。
VIP アドレスは LVS router を公共ネットワークに接続するのと同じデバイスにエイリアス名を付ける ことができます。例えば、eth0 がインターネットに接続されている場合、複数の仮想サーバーが eth0:1 にエイリアス化することができます。別の方法としては、各仮想サーバーは サービス毎に別のデバイスと関連付けすることが出来ます。例えば、HTTP トラフィックは eth0:1 上で、そして FTP トラフィックは eth0:2 上で処理することができます。
一度に1つの LVS router のみがアクティブになることができます。アクティブ LVS router の 役目は、仮想 IP アドレスから実サーバーへサービス要求を転送することです。この転送は八つの ロードバランシングアルゴリズムの1つを基にしています:
  • ラウンドロビンスケジューリング(Round-Robin Scheduling) — 各要求を順番に実サーバー群に 配布していきます。 このアルゴリズムを使用すると、全ての実サーバーが、容量やロードに関係無く同等に 取り扱われることになります。
  • 能力別ラウンドロビンスケジューリング(Weighted Round-Robin Scheduling )— 各要求を順番に実サーバー群に配布して行きますが、より大きな能力を持つサーバーにより 多くの仕事を提出します。この能力は、先ずユーザー割り当ての能力値で表示され、その後 動的なロード情報によって上下に調節されます。これは、サーバー群内に決定的な能力の差が存在する場合に適切な選択となります。しかし、要求のロードが劇的に変化した場合、大能力として 割り当てられたサーバーがその公平な要求分担以上に反応する可能性があります。
  • 最低稼働機接続 (Least-Connection)— より少ないアクティブ接続を持つ実サーバーに、より多くの要求を分配します。これは動的スケジューリングアルゴリズムの一種で、要求ロードに多くの変動がある場合に より良い選択となるものです。各サーバーノードがおよそ同等の能力を持つ実サーバー群に最適です。 実サーバーが別々の能力を持っている場合は、能力別最低稼働機接続スケジューリング(weighted least-connection scheduling)が最適な選択となります。
  • 能力別最低稼働機接続スケジューリング(weighted least-connection scheduling)(デフォルト) — 能力と比較して少ないアクティブ接続を持つサーバーにより多くの要求を分配します。この能力はユーザー設定の分別により表示されており、動的ロード情報によって上下に調節されます。能力分別の追加により、このアルゴリズムは 実サーバー群が異なる能力のハードウェアを含んでいる場合に理想的になります。
  • ローカリティベース最低稼働機接続スケジューリング(Locality-Based Least-Connection Scheduling )— 目的地 IP に対して少ないアクティブ接続を持つサーバーに、より多くの要求を分配します。このアルゴリズムは プロキシキャッシュサーバークラスタ内で使用するためのものです。これは目的地サーバーが能力以上に 稼働していないで、そのロードの半分しか担当していないサーバーがない場合に その IP アドレス用のパケットをそのアドレスのサーバーに回送します。その場合、 IP アドレス は最低稼働の実サーバーに割り当てられます。
  • 複製スケジューリング付きローカリティベース最低稼働機接続スケジューリング (Locality-Based Least-Connection Scheduling with Replication Scheduling )— 目的地 IP に対して少ないアクティブ接続を持つサーバーに、より多くの要求を分配します。この アルゴリズムもプロキシキャッシュサーバークラスタ内で使用するためのものです。ローカリティベース 最低稼働機接続スケジューリングとの相異点は、目的地 IP アドレスを実サーバーノードのサブセットに マッピングすることです。要求は最低数の接続を持つサブセット内のサーバーへ回送されます。この 目的地 IP の全てのノードがそれらの能力以上に稼働している場合、実サーバー群全体から最低接続を持つ 実サーバーをその目的地 IP 用の実サーバーのサブセットへ追加することにより、目的地 IPアドレス用に新規の サーバーを複製します。そして実サーバーのサブセットからは最大ロードを持つノードを排除して過大複製を 防止します。
  • ソースハッシュスケジューリング(Source Hash Scheduling)— 静的ハッシュ表内の ソース IP を観察して実サーバー群に要求を分配します。このアルゴリズムは複数ファイアウォールを 持つ LVS router 用のものです。
また、アクティブ LVS router は、簡単な send/expect スクリプト を通じて 実サーバー上の特定サービスの総合健全性を動的に監視します。HTTPS や SSL などの動的データを 必要とするサービスの健全性チェックを手助けするためには、外部の実行ファイルを呼び出すことも できます。実サーバー上のサービスが異常稼働している場合、アクティブ LVS router はそれが 正常稼働に戻るまでそのサーバーへのジョブ回送を停止します。
バックアップ LVS router はスタンバイシステムの役目を果たします。LVS router は定期的に 主要外部公共インターフェイスを通じて、又はフェイルオーバーの状態ではプライベート インターフェイスを通じてハートビートを交信します。バックアップ LVS router が指定時間内に ハートビートメッセージを受信しなかった場合は、フェイルオーバーを開始してアクティブ LVS router の 役割を受け持ちます。フェイルオーバーの期間中、バックアップ LVS router は、ARP spoofing として知られる技術を使用して故障した router によってサービスされていた VIP アドレスを引き受けます。ARP spoofing では、バックアップ LVS router が 故障ノード宛になっている IP パケット用の目的地であると自己宣言します。故障ノードがアクティブな サービスを回復すると、バックアップ LVS router は再度、バックアップの役割に戻ります。
The simple, two-tier configuration in 図1.20「Two-Tier LVS Topology」 is suited best for clusters serving data that does not change very frequently — such as static web pages — because the individual real servers do not automatically synchronize data among themselves.

1.8.2. Three-Tier LVS Topology

図1.21「Three-Tier LVS Topology」 shows a typical three-tier LVS configuration. In the example, the active LVS router routes the requests from the public network (Internet) to the second tier — real servers. Each real server then accesses a shared data source of a Red Hat cluster in the third tier over the private network.
Three-Tier LVS Topology

図1.21 Three-Tier LVS Topology

このトポロジーは、アクセス可能なデータが中心的なハイアベイラビリティがあるサーバーに保存されて、エキスポートされた NFS ディレクトリか Samba 共有を 経由して各実サーバーによってアクセスされるような多忙の FTP サーバーに よく適しています。このトポロジーはまた、トランザクション用の中心的なハイアベイラビリティデータベースにアクセスする ウェブサイトに推薦されるものです。更には、Red Hat クラスタのあるアクティブ・アクティブ設定を使用して、 それらの両方の役目を同時に果たす為の1つのハイアベイラビリティクラスタを設定することができます。

1.8.3. Routing の方法

NAT (Network Address Translation)routing か、又は LVS のダイレクト routing を 使用することができます。以下のセクションでは、NAT routing と LVS のダイレクト routing に ついて簡単に説明しています

1.8.3.1. NAT Routing

図1.22「LVS Implemented with NAT Routing」, illustrates LVS using NAT routing to move requests between the Internet and a private network.
LVS Implemented with NAT Routing

図1.22 LVS Implemented with NAT Routing

この例の中では、アクティブ LVS router 内に二つの NIC があります。インターネット用の NIC は eth0 に 実 IP アドレス を持ち、浮動 IP アドレスは eth0:1 に エイリアス化されています。プライベートネットワーク用の NIC は eth1 に実 IP アドレスを持ち 浮動 IP アドレスは eth1:1 にエイリアス化されています。フェイルオーバー状態になると インターネットに面している仮想インターフェイスとプライベートネットワークに面している 仮想インターフェイスは、同時にバックアップ LVS router に引き取られます。プライベート ネットワーク上の全ての実サーバーは、アクティブ LVS router と通信するためにデフォルトルート として NAT router 用の浮動 IP を使用します。それによりインターネットからの要求へ反応する 機能が損傷されないようにします。
In the example, the LVS router's public LVS floating IP address and private NAT floating IP address are aliased to two physical NICs. While it is possible to associate each floating IP address to its physical device on the LVS router nodes, having more than two NICs is not a requirement.
このトポロジーを使用すると、アクティブ LVS router は要求を受理してそれを適切なサーバーに 回送します。実サーバーは、それから要求をプロセスしてパケットを LVS router に返します。 LVS router は NAT を使用して、パケット内の実サーバーのアドレスを LVS router 公共 VIP アドレスに入れ替えます。このプロセスは、実サーバーの実 IP アドレスが要求側の クライアントには隠されているため、IP masquerading(変装) を呼ばれます。
NAT routing を使用すると、実サーバーは種々のオペレーティングシステムを実行している どんなコンピュータでもありえます。NAT routing の主な不利事項は、それが発信と来信の 両方の要求をプロセスするため、大規模施設内では LVS router が ボトルネックとなる 可能性があることです。

1.8.3.2. ダイレクト routing

ダイレクト routing は、NAT routing に比べて向上したパフォーマンスの利点を提供します。 ダイレクト routing を使用すると、LVS router を通じた発信パケットをプロセスするのではなく、 実サーバーがパケットをプロセスして直接要求元のユーザーに回送します。ダイレクト routing は LVS router の仕事を来信パケットの処理のみに分業することでネットワークのパフォーマンス問題の 可能性を低減します。
LVS Implemented with Direct Routing

図1.23 LVS Implemented with Direct Routing

標準的なダイレクト routing LVS 設定では、LVS router は来信するサーバー要求を仮想 IP (VIP) を 介して受理し、スケジューリングアルゴリズムを使用して、その要求を実サーバーに回送します。それぞれの 実サーバーは要求を処理しその反応を、LVS router を迂回して直接クライアントに送信します。ダイレクト routing の使用により、実サーバーからクライアントに送信パケットを回送させる為の LVS router に、大きなロード下ではボトルネックとなり得る余計な負担をかけずに、実サーバー内のスケーラビリティ増強が 可能になります。
LVS でダイレクト routing を使用する利点は数多くありますが、それには限度があります。 ダイレクト routing と LVS に関して最も一般的な問題は ARPAddress Resolution Protocol)(アドレス解決プロトコル)です。
In typical situations, a client on the Internet sends a request to an IP address. Network routers typically send requests to their destination by relating IP addresses to a machine's MAC address with ARP. ARP requests are broadcast to all connected machines on a network, and the machine with the correct IP/MAC address combination receives the packet. The IP/MAC associations are stored in an ARP cache, which is cleared periodically (usually every 15 minutes) and refilled with IP/MAC associations.
ダイレクト routing LVS 設定内の ARP 要求での問題は、IP アドレスへのクライアント要求が 要求の処理の為に MAC アドレスに関連付けを必要とする理由で、LVS router の仮想 IP アドレス router も MAC に関連付けが必要となることです。しかし、LVS router と実サーバーの両方共、 同じ VIP を持つため、ARP 要求はこの VIP に関連のある全てのノードにブロードキャストされ ます。これは幾つかの問題の原因となります。VIP が実サーバーの1つに直接関連付けがあり要求を 直接処理してしまうこと、LVS router を完全に迂回することにより LVS 設定の目的を無駄にしてしまう ことなどです。クライアント要求に迅速に対応できる強力な CPU を持つ LVS router の使用でもこの問題を 必ずしも解決はしません。LVS router が多大なロード下にある場合、それは少使用の実サーバーよりも 遅い ARP 要求反応を示す可能性があります。少使用の実サーバーがより早く反応して、要求クライアントの ARP キャッシュ内の VIP に割り当てられます。
この問題を解決する為に、来信する要求は要求を正しく処理し実サーバー群に送信する LVS router のみに、 VIP を関連付けする必要があります。 これは、arptables パケットフィルタリングツールを使用することで 達成できます。

1.8.4. 固執とファイアウォールマーク

ある特定の状況では、クライアントにとっては LVS ロードバランシングアルゴリズムに その要求を利用可能な最善のサーバーに送信させるよりも、同じ実サーバーに何回も再接続することが 望ましいことがあります。そのような状況の例として、複数画面のウェブ形式、クッキー、SSL、FTP 接続などが あります。そのようなケースでは、クライアントは、コンテキストを維持するためにトランザクションが 同じサーバーで処理されない限りは正常に動作しない可能性があります。LVS はこれを取り扱う為に 二種類の異なる機能を提供します: 固執(persistence) ファイアウォールマーク(firewall marks) です。

1.8.4.1. Persistence

有効になっている場合、「固執」はタイマーのような役割をします。クライアントが サービスに接続すると、LVS は 指定された期間の間だけ最後の接続を記憶しています。 その同じクライアント IP アドレスがその期間内に再度接続すると、以前に接続していた 同じサーバーに送られます。— ロードバランシング機構を迂回するわけです。 接続がこの期間以後に発生すると、設置済のスケジュール規則に応じて処理されます。
固執により、より高度な固執を持つアドレスを制御するツールとして、サブネットマスクを指定して、 クライアントの IP アドレステストに適用することで、そのサブネットへの接続をグループ化できるように なります。
異なるポートに指定された接続のグループ化は、FTP などのように通信のために複数のポートを 使用するプロトコルには重要になります。しかし、固執は異なるポートに指定された接続を一緒に グループ化する問題を扱うには最も効率的ではありません。このような状況では ファイアウォールマーク の使用が最適です。

1.8.4.2. ファイアウォールマーク

ファイアウォールマークは、あるプロトコルやプロトコルに関係したグループの為に使用される ポートをグループ化する簡単で効率的な方法です。例えば、LVS が e-commerce サイトを実行するように 導入されている場合、ポート 80 で HTTP 接続を束にして、ポート 443 で セキュアな HTTPS 接続を束に するのにファイアウォールマークを使用できます。それぞれのプロトコル用の仮想サーバーに同じファイア ウォールマークを割り当てることにより、接続が開いた後に LVS router が全ての要求を同じ実サーバーに 転送するため、トランザクションの状態情報は保存されることになります。
この効率と使い勝手の為に、LVS の管理者は、接続のグループ化については可能な限り 固執よりもファイアウォールマークを使用すべきです。しかし、それでもファイアウォール マークと共に仮想サーバーに固執を追加してクライアントが確実に十分な期間だけ同じサーバーに 再接続されるようにすべきです。

1.9. クラスタ管理ツール

Red Hat Cluster Suite は Red Hat クラスタの設定と管理のために各種のツールを提供します。このセクションでは、 Red Hat Cluster Suite で利用できる管理ツールについての概要を提供しています:

1.9.1. Conga

Conga とは、Red Hat クラスタとストレージ用の中央化した 設定と管理を提供するソフトウェアコンポーネントのセットです。Conga は 以下のような主要機能を提供します:
  • クラスタとストレージの管理用単独ウェブインターフェイス
  • クラスタデータとサポートパッケージの自動化した導入
  • 既存のクラスタとの簡単な統合
  • 再認証の不要
  • クラスタステータスとログの統合
  • ユーザー権限に関するきめ細かな制御
Conga 内の主要コンポーネントは、luciricci で、これらは別々にインストール出来ます。luci は 1つのコンピュータ上で稼働して、ricci を介して複数のクラスタとコンピュータと 交信します。ricci はそれぞれのコンピュータ(クラスタのメンバーか、 単独のコンピュータ)上で稼働するエージェントであり、Conga により管理 されます。
luci は、ウェブブラウザを通じてアクセス可能で、以下のような タブを介してアクセスできる三つの機能を提供します:
  • ホームベース — コンピュータの追加と削除、ユーザーの追加と削除、 及び、ユーザー特権の設定の為のツールを提供します。システム管理者のみがこのタブにアクセスを 許可されます。
  • クラスタ — クラスタの作成と設定用のツールを提供します。 luci の各インスタンスが、その luci で セットアップされたクラスタを一覧表示します。システム管理者がこのタブ上のすべてのクラスタを 管理します。他のユーザーは、そのユーザーが管理する権限(管理者が許可)を持つクラスタのみを 管理することができます。
  • ストレージ — ストレージのリモート管理の為のツールを 提供します。このタブ上のツールで、クラスタに所属するかしないかに関係無くいずれかのコンピュータ上の ストレージを管理することができます。
クラスタあるいはストレージを管理するために、管理者はクラスタかコンピュータを luci サーバーに追加(あるいは 登録)します。 クラスタかコンピュータが luci に登録されると、各コンピュータの FQDN ホスト名 又は、 IP アドレスが luci データベース内に保存されます。
1つの luci インスタンスのデータベースは別の luci インスタンスから充填することができます。この機能が luci サーバー インスタンスの複製手段を提供して、パスの効率的なアップグレードとテストを提供します。luci インスタンスのインストールをした場合、そのデータベースは 空のままです。しかし新規の luci サーバーを導入する時に、 既存の luci サーバーから luci データベースの 一部又は全てをインポートすることができます。
luci インスタンスは初期インストール時に1人のユーザー— 「管理者」を持っています。管理者ユーザーのみがシステムを luci サーバーに 追加することができます。また、管理者ユーザーは追加のユーザーアカウントを作成して、どのユーザーが luci データベースに登録されているクラスタとコンピュータにアクセスできるかを 決定できます。クラスタとコンピュータをインポートできるのと同様に、新規の luci サーバー内でユーザーをバッチ操作としてインポートすることが可能です。
コンピュータが、管理対象の luci サーバーに追加される場合、 認証は一度だけなされます。その後は認証は必要ありません。(証明証が CA により剥奪されない限りは) その後は、luci インターフェイスを通じてクラスタとストレージを リモート的に設定と管理ができます。luciricci は互いに XML 経由で交信します。
以下の図では、三つの主要な luci タブである ホームベース タブ、クラスタ タブ、 ストレージ タブを示しています。
Conga に関する詳細情報については Red Hat クラスタの設定と管理 及び、オンラインで閲覧できる luci サーバーを参照してください。
luci ホームベース タブ

図1.24 luci ホームベース タブ

luci クラスタ タブ

図1.25 luci クラスタ タブ

luci ストレージ タブ

図1.26 luci ストレージ タブ

1.9.2. クラスタ管理 GUI

This section provides an overview of the system-config-cluster cluster administration graphical user interface (GUI) available with Red Hat Cluster Suite. The GUI is for use with the cluster infrastructure and the high-availability service management components (refer to 「Cluster Infrastructure」 and 「ハイアベイラビリティサービス管理」). The GUI consists of two major functions: the Cluster Configuration Tool and the Cluster Status Tool. The Cluster Configuration Tool provides the capability to create, edit, and propagate the cluster configuration file (/etc/cluster/cluster.conf). The Cluster Status Tool provides the capability to manage high-availability services. The following sections summarize those functions.

1.9.2.1. Cluster Configuration Tool

You can access the Cluster Configuration Tool (図1.27「Cluster Configuration Tool) through the Cluster Configuration tab in the Cluster Administration GUI.
Cluster Configuration Tool

図1.27 Cluster Configuration Tool

Cluster Configuration Tool は、設定ファイル (/etc/cluster/cluster.conf) 内のクラスタ設定コンポーネントを、左側パネルの階級式グラフィカル表示で 示します。コンポーネント名の左側にある三角のアイコンはこのコンポーネントに割り当てられた単数、又は複数の 従属コンポーネントを持つことを示します。この三角アイコンをクリックすると、そのコンポーネントの ツリー配下の部分が 展開したり、閉じたりします。GUI 内に表示されたコンポーネントは以下のように 要約できます:
  • クラスタノード — クラスタノードを表示します。ノードは、 クラスタノード の下に従属要素として名前別に表示されます。右枠の 下部(プロパティ の下)にある設定ボタンを使用すると、ノードの追加、 ノードの削除、ノードプロパティの編集、そして各ノードの フェンシングメソッドの設定が可能になります。
  • フェンスデバイス — フェンスデバイスを表示します。フェンスデバイスは フェンスデバイス群 の下に従属要素として表示されています。右枠の下部 (プロパティ の下)にある設定ボタンを使用すると、フェンスデバイスの追加、 フェンスデバイスの削除、フェンスデバイスプロパティの編集が可能になります。フェンスデバイスは 各ノード用に フェンシング (このノード用の フェンシング管理 ボタンで)を 設定する前に先に定義付けをする必要があります。
  • 管理されたリソース — フェイルオーバードメイン、リソース、 及びサービスを表示します。
    • フェイルオーバードメイン — ノード故障の事態にハイアベイラビリティサービスを 実行する為に使用されるクラスタノードの単独、又は複数のサブセットを設定する為のものです。 フェイルオーバードメインは フェイルオーバードメイン群 の下に従属要素として 示されています。右枠の下部(プロパティ の下)にある設定ボタンを使用すると、 フェイルオーバードメインの作成(フェイルオーバードメイン が選択された場合)や、 フェイルオーバードメインプロパティの編集(フェイルオーバードメインが選択された場合)が可能になります。
    • リソース — ハイアベイラビリティサービスで使用される共有リソースの設定の ためのものです。共有リソースはファイルシステム、IP アドレス、NFS マウントとエキスポート、そして クラスタ内のどのハイアベイラビリティサービスにも利用できるユーザー作成のスクリプトで構成されます。 リソースは リソース群 の下に従属要素として示してあります。右枠の下部 (プロパティ の下)にある設定ボタンを使用すると、リソースの作成 (リソース が選択された場合)や、リソースプロパティの編集 (リソースが選択された場合)が可能になります。

      注記

      Cluster Configuration Tool はプライベートリソースも設定する能力を 提供します。プライベートリソースとは、1つのサービスでの使用のみに設定されるリソースのことです。 プライベートリソースは GUI で サービス コンポーネント内で設定する ことができます。
    • サービス — ハイアベイラビリティサービスを作成し設定するためのものです。 サービスはリソース(共有かプライベート)の割り当て、フェイルオーバードメインの割り当て、 そしてサービスの復元ポリシーの定義付けにより設定されます。サービスは サービス群 の下に従属要素として示してあります。右枠の下部(プロパティ の下)にある 設定ボタンを使用すると、サービスの作成(サービス が選択された場合)や サービスプロパティの編集(サービスが選択された場合)が可能になります。

1.9.2.2. Cluster Status Tool

You can access the Cluster Status Tool (図1.28「Cluster Status Tool) through the Cluster Management tab in Cluster Administration GUI.
Cluster Status Tool

図1.28 Cluster Status Tool

Cluster Status Tool に表示されているノードとサービスは クラスタ設定ファイル (/etc/cluster/cluster.conf) によって決定されます。 Cluster Status Tool を使用して、ハイアベイラビリティサービスの 有効化、無効化、再開始、又は移動などが実行できます。

1.9.3. コマンドライン管理ツール

In addition to Conga and the system-config-cluster Cluster Administration GUI, command line tools are available for administering the cluster infrastructure and the high-availability service management components. The command line tools are used by the Cluster Administration GUI and init scripts supplied by Red Hat. 表1.1「コマンドラインツール」 summarizes the command line tools.

表1.1 コマンドラインツール

コマンドラインツール 使用物 目的
ccs_tool — クラスタ設定システムツール Cluster Infrastructure ccs_tool はクラスタ設定ファイルへのオンライン更新をする為の プログラムです。クラスタインフラストラクチャコンポーネントの作成と編集(例えば、クラスタの作成、 ノードの追加と削除)の機能を提供します。このツールに関する詳細情報については ccs_tool(8) man ページを 参照してください。
cman_tool — クラスタ管理ツール Cluster Infrastructure cman_tool は CMAN クラスタマネージャを管理するプログラムです。 これはクラスタに参加、クラスタから退出、ノードのキル、又はクラスタ内のノードの予想定数員投票への 変更などの機能を提供します。このツールに関する詳細情報には、cman_tool(8) man ページを参照して 下さい。
fence_tool — フェンス ツール Cluster Infrastructure fence_tool はデフォルトフェンスドメインに参加したり退出したりする為の プログラムです。これは特にフェンスデーモン (fenced) を開始してドメインに参加し、fenced をキルしてドメインから 退出をします。このツールに関する詳細情報には、fence_tool(8) man ページを参照してください。
clustat — クラスタステータスユーティリティ ハイアベイラビリティサービス管理コンポーネント clustat コマンドはクラスタのステータスを表示します。これは メンバーシップ情報、定員数表示、及び全ての設定済ユーザーサービスの状態を示します。 このツールに関する詳細情報については clustat(8) man ページを参照してください。
clusvcadm — クラスタユーザーサービス管理ユーティリティ ハイアベイラビリティサービス管理コンポーネント clusvcadm コマンドの使用で、クラスタ内のハイアベイラビリティサービスの 有効化、無効化、転送、及び再起動ができるようになります。このツールに関する詳細情報については clusvcadm(8) man ページを参照してください。

1.10. Linux 仮想サーバー管理 GUI

このセクションでは、Red Hat Cluster Suite で利用できる LVS 設定ツール — Piranha Configuration Tool の概要を提供しています。Piranha Configuration Tool はウェブブラウザグラフィカルユーザーインターフェイス(GUI) で、LVS 用の設定ファイル — /etc/sysconfig/ha/lvs.cf の作成への形成化したアプローチを提供します。
Piranha Configuration Tool にアクセスするには、アクティブな LVS router 上で 稼働している piranha-gui サービスが必要です。ウェブブラウザを 使用すれば、ローカル、又はリモートで Piranha Configuration Tool にアクセスすることが できます。URL: http://localhost:3636 の使用でローカルでアクセスできます。 ホスト名、又は実 IP アドレスに続く :3636 の使用で、リモートでアクセスできます。 リモートで Piranha Configuration Tool にアクセスしている場合、root ユーザーとしてアクティブ LVS router への ssh 接続が必要になります。
Starting the Piranha Configuration Tool causes the Piranha Configuration Tool welcome page to be displayed (refer to 図1.29「The Welcome Panel」). Logging in to the welcome page provides access to the four main screens or panels: CONTROL/MONITORING, GLOBAL SETTINGS, REDUNDANCY, and VIRTUAL SERVERS. In addition, the VIRTUAL SERVERS panel contains four subsections. The CONTROL/MONITORING panel is the first panel displayed after you log in at the welcome screen.
The Welcome Panel

図1.29 The Welcome Panel

以下のセクションでは、Piranha Configuration Tool 設定ページの 簡単な説明を提供しています。

1.10.1. CONTROL/MONITORING

制御/監視 パネルでは、ランタイムステータスを表示します。 これは、pulse デーモンのステータス、LVS routing 表、 及び、LVS 派生の nanny プロセスを表示します。
The CONTROL/MONITORING Panel

図1.30 The CONTROL/MONITORING Panel

Auto update
秒単位間隔で更新 テキストボックス(デフォルト値は 10秒)内に 設定されたユーザー設定の間隔で自動的に更新されるステータス表示を有効にします。
10秒以下の間隔で自動更新を設定することは推奨できません。そのような設定をすると、 ページが頻繁に更新をし過ぎて、自動更新 間隔を再設定するのが 困難になります。この問題に遭遇した場合は、単にもう一つのパネルをクリックして、 その後に 制御/監視 に戻ります。
Update information now
ステータス情報の手動更新を提供します。
CHANGE PASSWORD
このボタンをクリックすると、Piranha Configuration Tool 用の管理パスワードの 変更に関する情報があるヘルプ画面に移動します。

1.10.2. GLOBAL SETTINGS

The GLOBAL SETTINGS panel is where the LVS administrator defines the networking details for the primary LVS router's public and private network interfaces.
The GLOBAL SETTINGS Panel

図1.31 The GLOBAL SETTINGS Panel

The top half of this panel sets up the primary LVS router's public and private network interfaces.
Primary server public IP
主要 LVS ノード用の公共 rout 可能な 実 IP アドレス。
Primary server private IP
主要 LVS ノード上の代替ネットワークインターフェイスの為の実 IP アドレスです。このアドレスは バックアップ router 用の代替ハートビートチャンネル専用として使用されます。
Use network type
Selects で NAT routing の選択
The next three fields are specifically for the NAT router's virtual network interface connected the private network with the real servers.
NAT Router IP
このテキストフィールド内のプライベート浮動 IPです。この 浮動 IP は実サーバー用の ゲートウェイとして使用されるものです。
NAT Router netmask
If the NAT router's floating IP needs a particular netmask, select it from drop-down list.
NAT Router device
eth1:1 などの浮動 IP アドレス用のネットワークインターフェイスデバイス名を定義します。

1.10.3. REDUNDANCY

冗長 パネルの使用で、バックアップ LVS router ノードの設定と 各種ハートビート監視オプションのセットアップをすることができます。
The REDUNDANCY Panel

図1.32 The REDUNDANCY Panel

Redundant server public IP
バックアップ LVS router 用の公共 実 IP アドレス
Redundant server private IP
The backup router's private real IP address.
パネルの残りの部分はハートビートチャンネルの設定用で、主要ノードの故障を監視するためにバックアップノードにより使用されます。
Heartbeat Interval (seconds)
ハートビートの間隔 — バックアップノードが主要 LVS ノードの機能ステータスをチェックする 間隔 — を秒数で設定します。
Assume dead after (seconds)
主要 LVS ノードが指定秒数後に反応しないと、バックアップ LVS router ノードがフェイルオーバーを 開始します。
Heartbeat runs on port
ハートビートが主要 LVS ノードと交信するためのポートを設定します。ここが空白の場合、デフォルトでは 539 にセットされています。

1.10.4. VIRTUAL SERVERS

仮想サーバー パネルは、現在定義されている仮想サーバーのそれぞれの 情報を提供します。表内の項目には、仮想サーバーのステータス、サーバー名、サーバーに 割り当てられた仮想 IP、仮想 IP のネットマスク、サービスの交信先のポート番号、使用するプロトコル、 及び、仮想デバイスインターフェイスがあります。
The VIRTUAL SERVERS Panel

図1.33 The VIRTUAL SERVERS Panel

仮想サーバー パネル内に表示された各サーバーは、そこから出る 画面、すなわち サブセクション 上で設定することができます。
サービスを追加するには、追加 ボタンをクリックします。 サービスを削除するには、仮想サーバー横のラジオボタンをクリックしてサービスを選択し、 削除 ボタンをクリックします。
表内の仮想サーバーを有効/無効にするには、そのラジオボタンをクリックしてから、 有効/無効にする ボタンをクリックします。
仮想サーバーを追加した後は、左側にあるラジオボタンをクリックすることにより その設定が可能になり、編集 ボタンのクリックで 仮想サーバー サブセクションを表示することができます。

1.10.4.1. 仮想サーバー サブセクション

The VIRTUAL SERVER subsection panel shown in 図1.34「The VIRTUAL SERVERS Subsection」 allows you to configure an individual virtual server. Links to subsections related specifically to this virtual server are located along the top of the page. But before configuring any of the subsections related to this virtual server, complete this page and click on the ACCEPT button.
The VIRTUAL SERVERS Subsection

図1.34 The VIRTUAL SERVERS Subsection

Name
仮想サーバーを識別する為の説明的名前です。この名前はマシンのホスト名ではない ですから、説明的で判り易くします。HTTP などの仮想サーバーによって使用されるプロトコルを参照する名前も 可能です。
Application port
サービスアプリケーションがそれを通じてリッスンするポートの番号。
Protocol
ドロップダウンメニュー内に UDP か TCP の選択を提供します。
Virtual IP Address
The virtual server's floating IP address.
Virtual IP Network Mask
ドロップダウンメニュー内のこの仮想サーバー用のネットマスク。
Firewall Mark
複数ポートプロトコルを束ねる場合、又は別々でも関連したプロトコル用の複数ポート仮想サーバーを 作成する場合に、入力するファイアウォールマーク用の整数です。
Device
仮想 IP アドレス フィールド内に定義された浮動 IP アドレスをバインドするネットワークデバイスの名前です。
公共浮動 IP アドレスは公共ネットワークに接続されたイーサネットインターフェイスに エイリアス化する必要があります。
Re-entry Time
実サーバー故障後にアクティブ LVS router が、実サーバーを使用する試みをするまでの 秒数を定義する整数値です。
Service Timeout
実サーバーが停止してしまって利用不可と判定されるまでの秒数を定義した整数値です。
Quiesce server
Quiesce サーバー ラジオボタンが選択されている時には、最低稼働機接続の表がゼロに再設定されており、新規の実サーバーノードがオンラインに来るとまるで全ての実サーバーが初めてクラスタに追加されるかのように、アクティブ LVS router が 要求を出すことができます。このオプションは新規サーバーが、クラスタに参加する時に多数の接続で負荷超過になることを防止します。
Load monitoring tool
LVS router は、rup 又は ruptime を使用することで 各種実サーバー上のロードを監視することができます。ドロップダウンメニューから rup が選択されると、各実サーバーは rstatd サービスを実行することになります。 ruptime が選択されると、各実サーバーは rwhod サービスを実行することになります。
Scheduling
ドロップダウンメニューからの優先スケジューリングアルゴリズムです。デフォルトでは、 能力別最低稼働機接続(Weighted least-connection) になります。
固執
クライアントのトランザクション中に仮想サーバーへの固執接続が必要な場合に使用されます。 このテキストフィールド内には、接続時間切れまでの許容不活動時間を秒数で指定します。
Persistence Network Mask
固執を特定のサブネットへ限定するために、ドロップダウンメニューから適切な ネットワークマスクを選択します。

1.10.4.2. 実サーバー サブセクション

パネル上部にある 実サーバー(REAL SERVER) サブセクション リンクをクリックすると、実サーバーの編集(EDIT REAL SERVER) サブセクションが表示されます。特定の仮想サービス用の物理サーバーホストのステータスが 表示されます。
The REAL SERVER Subsection

図1.35 The REAL SERVER Subsection

Click the ADD button to add a new server. To delete an existing server, select the radio button beside it and click the DELETE button. Click the EDIT button to load the EDIT REAL SERVER panel, as seen in 図1.36「The REAL SERVER Configuration Panel」.
The REAL SERVER Configuration Panel

図1.36 The REAL SERVER Configuration Panel

このパネルは三つの入力フィールドで構成されています:
Name
実サーバー用の説明的名前

注記

この名前は、マシンのホスト名ではありません。 判り易くて認識し易い名前にしてください。
Address
The real server's IP address. Since the listening port is already specified for the associated virtual server, do not add a port number.
Weight
An integer value indicating this host's capacity relative to that of other hosts in the pool. The value can be arbitrary, but treat it as a ratio in relation to other real servers.

1.10.4.3. EDIT MONITORING SCRIPTS Subsection

ページ上部にある 監視スクリプト(MONITORING SCRIPTS) リンクを クリックします。監視スクリプトの編集(EDIT MONITORING SCRIPTS) サブセクションを使用すると、管理者は send/expect ストリングシーケンスを指定して仮想サーバー用の サービスがそれぞれの実サーバー上で機能していることを確認できるようになります。これは、また管理者が 動的に変化するデータを必要とするサービスをチェックするためのスクリプトをカスタム化することができる 場所でもあります。
The EDIT MONITORING SCRIPTS Subsection

図1.37 The EDIT MONITORING SCRIPTS Subsection

Sending Program
より高度なサービス確認の為に、このフィールドを使用してサービス確認スクリプトへの パスを指定することができます。この機能は、HTTPS や SSL などの動的に変化するデータを 必要とするサービスに特に役に立ちます。
この機能を使用するには、テキスト応答を返すスクリプトを書いて、それを実行ファイルとして 設定して、送信プログラム フィールド内にそこまでのパスを入力 します。

注記

外部プログラムが 送信プログラム フィールドに入った場合は、 送信 フィールドは無視されます。
Send
このフィールド内の各実サーバーに送信する為の nanny デーモン用の ストリングです。デフォルトで「送信」フィールドは HTTP 用に完了しています。ユーザーの ニーズに応じてこの値は変更することが出来ます。このフィールドを空白のまま残すと、 nanny デーモンはポートを開く試みをして、それが成功すると サービスが実行中だと想定します。
このフィールドには、1つの送信シーケンスのみが許可されます。そしてそれは 表示可能な ASCII 文字と以下のようなエスケープ文字のみを含むことが出来ます:
  • 新しい行の為の \n
  • 改行の為の \r
  • タブの為の \t
  • 次に続く文字をエスケープする \
Expect
サーバーが正常に機能している場合に、サーバーが返すテキスト応答です。ユーザーが 送信プログラムを書いた場合は、それが成功した時に送信するように指示している 応答を入力してください。


[1] 仮想サーバーとは、特定の仮想 IP 上でリッスンするように設定された サービスです。

第2章 Red Hat Cluster Suite コンポーネントの要約

この章では、Red Hat Cluster Suite コンポーネントの要約を提供し、以下のようなセクションで構成 されています:

2.1. クラスタコンポーネント

表2.1 Red Hat Cluster Suite ソフトウェアサブシステムコンポーネント

機能 コンポーネント 説明
Conga luci リモート管理システム - 管理ステーション
ricci リモート管理システム - 管理下ステーション
Cluster Configuration Tool system-config-cluster グラフィカル環境でクラスタ設定の管理に使用するコマンド。
CLVM (Cluster Logical Volume Manager) clvmd LVM メタデータを分配するデーモンはクラスタ全域に渡り更新をします。これはクラスタ内の 全てのノードで稼働中である必要があり、クラスタ内ノードの1つでこのデーモンが稼働していない 場合は、エラーが発生します。
lvm LVM2 ツール。LVM2 用のコマンドラインツールを提供します。
system-config-lvm LVM2 用のグラフィカルユーザーインターフェイスを提供します。
lvm.conf LVM 設定ファイル。完全なパスは /etc/lvm/lvm.conf. です。
CCS (Cluster Configuration System) ccs_tool ccs_tool はクラスタ設定システム(CCS) の一部です。 これは、CCS 設定ファイルのオンラインアップデートを実行するのに使用されます。更に、 クラスタ設定ファイルを GFS 6.0 (及びそれ以降) で作成された CCS アーカイブから Red Hat Cluster Suite のこのリリースで使用される XML 形式設定形式にアップグレードするのにも 使用されます。
ccs_test ccsd を介して設定ファイルから情報を取り出すのに使用される 診断とテストのコマンド。
ccsd 全てのクラスタノードで稼働し、クラスタソフトウェアに設定ファイルデータを 提供する CCS デーモン。
cluster.conf これがクラスタ設定ファイルです。完全なパスは /etc/cluster/cluster.conf
CMAN (Cluster Manager) cman.ko CMAN 用のカーネルモジュール
cman_tool これは、CMAN に対する管理用フロントエンドです。CMAN の開始と停止をし、投票(votes)などの内部パラメータの変更をすることができます。
dlm_controld カーネル内の dlm を管理する為の cman init スクリプトで開始されるデーモン; ユーザーによる使用はありません。
gfs_controld カーネル内の gfs を管理する為の cman init スクリプトで開始されるデーモン; ユーザーによる使用はありません。
group_tool フェンシング、 DLM、 GFS 及びデバグ情報取得に関連したグループのリストを得るのに使用 されます; RHEL 4 で cman_tool services 提供したものを 含みます。
groupd openais/cmandlm_controld/gfs_controld/fenced の間にインターフェイスを与える為に cman init スクリプトで開始されるデーモン; ユーザーによる使用はありません。
libcman.so.<version number> cman.ko と交流する必要のあるプログラム用のライブラリ。
rgmanager (Resource Group Manager) clusvcadm 手動で、クラスタ内のユーザーサービスを有効化、無効化、移動、再開始するのに使用されるコマンド。
clustat ノードメンバーシップと実行中のサービスを含むクラスタのステータス表示に使用される コマンド。
clurgmgrd サービスの開始、無効化、移動、再開始を含むユーザーサービス要求の処理に使用されるデーモン。
clurmtabd クラスタ化した NFS マウント表の処理に使用されるデーモン。
Fence fence_apc APC パワースイッチ用の フェンス エージェント
fence_bladecenter Telnet インターフェイスのある IBM Bladecenter 用の フェンス エージェント
fence_bullpap Bull Novascale PAP (Platform Administration Processor)インターフェイス用の フェンス エージェント
fence_drac Dell Remote Access Card 用の フェンシング エージェント
fence_ipmilan LAN 上にある IPMI(Intelligent Platform Management Interface)で制御されるマシン用の フェンス エージェント
fence_wti WTI パワースイッチ用の フェンス エージェント
fence_brocade Brocade ファイバーチャンネルスイッチ用の フェンス エージェント
fence_mcdata McData ファイバーチャンネルスイッチ用の フェンス エージェント
fence_vixel Vixel ファイバーチャンネルスイッチ用の フェンス エージェント
fence_sanbox2 SANBox2 ファイバーチャンネルスイッチ用の フェンス エージェント
fence_ilo HP ILO インターフェイス用の フェンス エージェント(旧名 fence_rib)
fence_rsa IBM RSA II 用の I/O フェンシング エージェント
fence_gnbd GNBD ストレージで使用される フェンス エージェント
fence_scsi SCSI 固執予約用の I/O フェンシング エージェント。
fence_egenera Egenera BladeFrame システムで使用される フェンス エージェント
fence_manual 手動交流の為の フェンス エージェント。注記: このコンポーネントは実稼働環境用にはサポートがありません。
fence_ack_manual fence_manual エージェント用のユーザーインターフェイス。
fence_node 単独ノード上で I/O フェンシング を実行するプログラム。
fence_xvm Xen 仮想マシン用の I/O フェンシング エージェント
fence_xvmd Xen 仮想マシン用の I/O フェンシング エージェントホスト。
fence_tool フェンス ドメインに参加と退出をするプログラム。
fenced I/O フェンシング デーモン
DLM libdlm.so.<version number> DLM (Distributed Lock Manager)サポート用のライブラリ
GFS gfs.ko GFS ファイルシステムを実装するカーネルモジュールであり、GFS クラスタノード上に ロードされます。
gfs_fsck アンマウントされた GFS ファイルシステムを修理するコマンド
gfs_grow マウントされた GFS ファイルシステムを拡張するコマンド
gfs_jadd マウントした GFS ファイルシステムへジャーナルを追加するコマンド
gfs_mkfs ストレージデバイス上に GFS ファイルシステムを作成するコマンド
gfs_quota マウントした GFS ファイルシステム上で割り当てを管理するコマンド
gfs_tool GFS ファイルシステムを設定、又はチューンするコマンド。このコマンドは ファイルシステムについて種々の情報を収集することもできます。
mount.gfs mount(8) と呼ばれるマウントヘルパー; ユーザーによる使用はありません。
GNBD gnbd.ko クライアント上で GNBD デバイスドライバーを実装するカーネルモジュール
gnbd_export GNBD サーバー上で GNBD の作成、エキスポート、及び管理をするコマンド
gnbd_import GNBD クライアント上で GNBD のインポートと管理をするコマンド
gnbd_serv ノードがローカルストレージをネットワーク上にエキスポートできるようにするサーバーデーモン。
LVS pulse This is the controlling process which starts all other daemons related to LVS routers. At boot time, the daemon is started by the /etc/rc.d/init.d/pulse script. It then reads the configuration file /etc/sysconfig/ha/lvs.cf. On the active LVS router, pulse starts the LVS daemon. On the backup router, pulse determines the health of the active router by executing a simple heartbeat at a user-configurable interval. If the active LVS router fails to respond after a user-configurable interval, it initiates failover. During failover, pulse on the backup LVS router instructs the pulse daemon on the active LVS router to shut down all LVS services, starts the send_arp program to reassign the floating IP addresses to the backup LVS router's MAC address, and starts the lvs daemon.
lvsd lvs デーモンは、 pulse によって コールされるとアクティブな LVS router 上で稼働します。このデーモンは設定ファイル /etc/sysconfig/ha/lvs.cf を読み込み、IPVS routing 表の構築と維持の為に ipvsadm ユーティリティをコールし、そして各設定済の LVS サービスの 為に nanny プロセスを割り当てます。nanny が 実サーバーの停止を報告した場合、lvsipvsadm に対して、IPVS routing 表からその実サーバーを取り除くように指示します。
ipvsadm このサービスはカーネル内の IPVS routing 表をアップデートします。 lvs デーモンは、ipvsadm をコールすることにより、 LVS をセットアップして管理し、IPVS routing 表内のエントリの追加、変更、削除をします。
nanny nanny 監視デーモンはアクティブな LVS router 上で稼働します。 このデーモンを通じて、アクティブな LVS router はそれぞれの実サーバーの健全性を決定し、 オプションとして、その担当負荷を監視します。別のプロセスがそれぞれの実サーバー上で定義された 各サービス用に稼働します。
lvs.cf これは、LVS 設定ファイルです。このファイル用の完全パスは /etc/sysconfig/ha/lvs.cf です。直接的に、又は間接的に全てのデーモンは このファイルからその設定情報を取り寄せます。
Piranha Configuration Tool これは、LVS の監視、設定、及び管理用のウェブベースのツールです。これが /etc/sysconfig/ha/lvs.cf LVS 設定ファイルを維持する為の デフォルトのツールとなります。
send_arp このプログラムは、浮動 IP アドレスがフェイルオーバーの間に1つのノードから別の ノードに移動する場合に ARP ブロードキャストを送信します。
Quorum ディスク qdisk CMAN / Linux クラスタ用のディスクベースの定員数(quorum)デーモン。
mkqdisk クラスタ Quorum ディスクユーティリティ。
qdiskd クラスタ Quorum ディスクデーモン。

2.2. Man ページ

このセクションでは、追加の資料として Red Hat Cluster Suite に関連した man ページを一覧表示 します。
  • クラスタインフラストラクチャ
    • ccs_tool (8) - CCS 設定ファイルのオンライン更新をするのに使用されるツール
    • ccs_test (8) - クラスタ設定システムを実行する為の診断ツール
    • ccsd (8) - CCS クラスタ設定ファイルにアクセスするのに使用するデーモン
    • ccs (7) - クラスタ設定システム
    • cman_tool (8) - クラスタ管理ツール
    • cluster.conf [cluster] (5) - クラスタ製品用の設定ファイル
    • qdisk (5) - CMAN / Linux-クラスタ用のディスクベースの定員数(quorum)デーモン
    • mkqdisk (8) -クラスタ Quorum ディスクユーティリティ
    • qdiskd (8) - クラスタ Quorum ディスクデーモン
    • fence_ack_manual (8) - 手動 I/O フェンシング の一部として演算子によって実行されるプログラム
    • fence_apc (8) - APC MasterSwitch 用の I/O フェンシング エージェント
    • fence_bladecenter (8) - IBM Bladecenter 用の I/O フェンシング エージェント
    • fence_brocade (8) - Brocade FC スイッチ用の I/O フェンシング エージェント
    • fence_bullpap (8) - PAP 管理コンソールにより制御されている Bull FAME アーキテクチャ用の I/O フェンシング エージェント
    • fence_drac (8) - Dell リモートアクセスカード用の フェンシング エージェント
    • fence_egenera (8) - Egenera BladeFrame 用の I/O フェンシング エージェント
    • fence_gnbd (8) - GNBD ベースの GFS クラスタ用の I/O フェンシング エージェント
    • fence_ilo (8) - HP Integrated Lights Out カード用の I/O フェンシング エージェント
    • fence_ipmilan (8) - IPMI over LAN で制御されているマシン用の I/O フェンシング エージェント
    • fence_manual (8) - 手動 I/O フェンシング の一部として fenced により実行されるプログラム
    • fence_mcdata (8) - McData FC スイッチ用の I/O フェンシング エージェント
    • fence_node (8) - 単独ノード上で I/O フェンシング を実行するプログラム
    • fence_rib (8) - Compaq Remote Insight Lights Out カード用の I/O フェンシング エージェント
    • fence_rsa (8) - IBM RSA II 用の I/O フェンシング エージェント
    • fence_sanbox2 (8) - QLogic SANBox2 FC スイッチ用の I/O フェンシング エージェント
    • fence_scsi (8) - SCSI 固執予約用の I/O フェンシング エージェント
    • fence_tool (8) - fence ドメインに参加と退出をするプログラム
    • fence_vixel (8) - Vixel FC スイッチ用の I/O フェンシング エージェント
    • fence_wti (8) - WTI ネットワークパワースイッチ用の I/O フェンシング エージェント
    • fence_xvm (8) - Xen 仮想マシン用の I/O フェンシング エージェント
    • fence_xvmd (8) - Xen 仮想マシン用の I/O フェンシング エージェントホスト
    • fenced (8) - I/O フェンシング デーモン
  • ハイアベイラビリティサービス管理
    • clusvcadm (8) - クラスタユーザーサービス管理ユーティリティ
    • clustat (8) - クラスタステータスユーティリティ
    • Clurgmgrd [clurgmgrd] (8) - リソースグループ(クラスタサービス)マネージャデーモン
    • clurmtabd (8) - クラスタ NFS リモートマウント表デーモン
  • GFS
    • gfs_fsck (8) - オフライン GFS ファイルシステムチェッカー
    • gfs_grow (8) - GFS ファイルシステムの拡張
    • gfs_jadd (8) - ジャーナルを GFS ファイルシステムに追加
    • gfs_mount (8) - GFS マウントオプション
    • gfs_quota (8) - GFS ディスク割り当てを処理
    • gfs_tool (8) - gfs ioctl コールへのインターフェイス
  • clvm (Cluster Logical Volume Manager)
    • clvmd (8) - クラスタ LVM デーモン
    • lvm (8) - LVM2 ツール
    • lvm.conf [lvm] (5) - LVM2 用の設定ファイル
    • lvmchange (8) - 論理ボリュームマネージャの属性を変更
    • pvcreate (8) - LVM による使用の為のディスク、又はパーティションの初期化
    • lvs (8) - 論理ボリュームに関するレポート情報
  • GNBD (Global Network Block Device)
    • gnbd_export (8) - GNBD をエキスポートする為のインターフェイス
    • gnbd_import (8) - クライアント上の GNBD ブロックデバイスを処理
    • gnbd_serv (8) - gnbd サーバーデーモン
  • LVS
    • pulse (8) - クラスタノードの健全性を監視するハートビートデーモン
    • lvs.cf [lvs] (5) - lvs 用の設定ファイル
    • lvscan (8) - 論理ボリューム用のスキャン(全ディスク)
    • lvsd (8) - Red Hat クラスタリングサービスを制御するデーモン
    • ipvsadm (8) - Linux 仮想サーバー管理
    • ipvsadm-restore (8) - 標準入力から IPVS 表を復元
    • ipvsadm-save (8) - IPVS 表を標準出力に保存
    • nanny (8) - クラスタ内のサービスステータスを監視するツール
    • send_arp (8) - 新しい IP アドレス / MAC アドレスマッピングのネットワークを通知するツール

2.3. 互換ハードウェア

Red Hat Cluster Suite コンポーネント(例えば、サポートのあるフェンスデバイス、ストレージデバイス、及びファイバー チャンネルスイッチなど)と互換性のあるハードウェアに関する情報には、http://www.redhat.com/cluster_suite/hardware/ で入手できるハードウェア設定ガイドラインをご覧ください。

付録A 改訂履歴

改訂履歴
改訂 3-7.4002013-10-31Rüdiger Landmann
Rebuild with publican 4.0.0
改訂 3-72012-07-18Anthony Towns
Rebuild for Publican 3.0
改訂 1.0-0Tue Jan 20 2008Paul Kennedy
ポイントリリースの集約

索引

C

cluster
displaying status, Cluster Status Tool
cluster administration
displaying cluster and service status, Cluster Status Tool
cluster component compatible hardware, 互換ハードウェア
cluster component man pages, Man ページ
cluster components table, クラスタコンポーネント
Cluster Configuration Tool
accessing, Cluster Configuration Tool
cluster service
displaying status, Cluster Status Tool
command line tools table, コマンドライン管理ツール
compatible hardware
cluster components, 互換ハードウェア
Conga
overview, Conga
Conga overview, Conga

I

introduction, はじめに
other Red Hat Enterprise Linux documents, はじめに

L

LVS
direct routing
requirements, hardware, ダイレクト routing
requirements, network, ダイレクト routing
requirements, software, ダイレクト routing
routing methods
NAT, Routing の方法
three tiered
high-availability cluster, Three-Tier LVS Topology

M

man pages
cluster components, Man ページ

N

NAT
routing methods, LVS, Routing の方法
network address translation (参照 NAT)

O

overview
economy, Red Hat GFS
performance, Red Hat GFS
scalability, Red Hat GFS

P

Piranha Configuration Tool
CONTROL/MONITORING, CONTROL/MONITORING
EDIT MONITORING SCRIPTS Subsection, EDIT MONITORING SCRIPTS Subsection
GLOBAL SETTINGS, GLOBAL SETTINGS
login panel, Linux 仮想サーバー管理 GUI
necessary software, Linux 仮想サーバー管理 GUI
REAL SERVER subsection, 実サーバー サブセクション
REDUNDANCY, REDUNDANCY
VIRTUAL SERVER subsection, VIRTUAL SERVERS
Firewall Mark , 仮想サーバー サブセクション
Persistence , 仮想サーバー サブセクション
Scheduling , 仮想サーバー サブセクション
Virtual IP Address , 仮想サーバー サブセクション
VIRTUAL SERVERS, VIRTUAL SERVERS

R

Red Hat Cluster Suite
components, クラスタコンポーネント

T

table
cluster components, クラスタコンポーネント
command line tools, コマンドライン管理ツール

法律上の通知

Copyright © 2009 Red Hat, Inc.
This document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.

このページには機械翻訳が使用されている場合があります (詳細はこちら)。