Red Hat Training

A Red Hat training course is available for Red Hat Enterprise Linux

ロードバランサーの管理

Red Hat Enterprise Linux 7

Keepalived および HAProxy の設定

Steven Levine

Red Hat Customer Content Services

Stephen Wadeley

Red Hat Customer Content Services

概要

ロードバランサーシステムを構築すると、Keepalived および HAProxy を用いて設定されたルーティングや負荷分散技術に対して特化した Linux Vertual Servers (LVS) を使用し、本番サービスに可用性および拡張性が高いソリューションが提供されます。本書では、Red Hat Enterprise Linux 7 のロードバランサー技術を使用した高パフォーマンスシステムおよびサービスの設定について説明します。

第1章 ロードバランサーの概要

ロードバランサーは、複数の実サーバーの間で IP トラフィックを分散する統合されたソフトウェアコンポーネントです。Keepalived と HAProxy の 2 つの技術を使用してクラスターメンバーとクラスターサービスを監視します。Keepalived は Linux 仮想サーバー (LVS) を使用して負荷分散とフェイルオーバーのタスクをアティブルーターとパッシブルーターで実行します。一方、HAProxy は TCP および HTTP アプリケーションに対して負荷分散および高可用性サービスを実行します。

1.1. keepalived

keepalived デーモンは、アクティブおよびパッシブ LVS ルーターの両方で実行されます。keepalived を実行するすべてのルーターは Virtual Redundancy Routing Protocol (VRRP)を使用します。アクティブルーターは定期的な間隔で VRRP アドバタイズメントを送信します。バックアップルーターが VRRP アドバタイズメントを正常に受信しなかった場合、新しいアクティブルーターが選出されます。
アクティブルーターでは、keepalived は実サーバーの負荷分散タスクも実行できます。
Keepalived は LVS ルーターに関連する制御プロセスです。起動時に、デーモンは systemctl コマンドで起動します。これは、設定ファイル /etc/keepalived/keepalived.conf を読み取ります。アクティブルーターでは、keepalived デーモンは LVS サービスを開始し、設定されたトポロジーに基づいてサービスの正常性を監視します。アクティブルーターは VRRP を使用して周期的なアドバタイズメントをバックアップルーターへ送信します。バックアップルーターでは、VRRP インスタンスがアクティブルーターの稼働状況を判断します。ユーザーが設定した間隔の後にアクティブルーターのアドバタイズメントが失敗すると、Keepalived はフェイルオーバーを開始します。フェイルオーバー中に仮想サーバーがクリアになります。新しいアクティブルーターは 仮想 IP アドレス (VIP) を制御して、ARP メッセージを送信し、IPVS テーブルエントリー (仮想サーバー) を設定します。さらに、ヘルスチェックを開始し、VRRP アドバタイズメントの送信を開始します。
Keepalived は、TCP が接続ベースのデータ送信を実行するレイヤー 4 (トランスポート層) でフェイルオーバーを実行します。実サーバーが単純なタイムアウト TCP 接続に応答しない場合、keepalived はサーバーが失敗したことを検出し、サーバープールから削除します。

1.2. haproxy

HAProxy は、インターネットに接続されたサービスや Web ベースのアプリケーションなどの HTTP および TCP ベースのサービスに負荷分散されたサービスを提供します。選択したロードバランサースケジューリングアルゴリズムに応じて、haproxy は 1 つの仮想サーバーとして動作する複数の実サーバーのプール全体で、複数のイベントを数千の接続で処理できます。スケジューラーは接続の量を判断し、非加重のスケジュールで均等に割り当てするか、加重を認識するアルゴリズムで高容量の処理が可能なサーバーにより多くの接続量を割り当てします。
HAProxy では、ユーザーは複数のプロキシーサービスを定義でき、プロキシーに対してトラフィックの負荷分散サービスを実行します。プロキシーは、1 つのフロントエンドシステムと 1 つ以上のバックエンドシステムで設定されます。フロントエンドシステムは IP アドレス (VIP)、プロキシーがリッスンするポート、および特定のプロキシーに使用するバックエンドシステムを定義します。
バックエンドシステムは実サーバーのプールで、負荷分散アルゴリズムを定義します。
HAProxy はレイヤー 7 (アプリケーション層) で負荷分散管理を実行します。ほとんどの場合で、管理者は HTTP ベースの負荷分散 (ビジネスの継続に高可用性インフラストラクチャーが必要となる本番 Web アプリケーションなど) に HAProxy をデプロイします。

1.3. keepalived および haproxy

管理者は Keepalived と HAProxy を両方使用して堅牢でスケーラブルな高可用性環境を実現できます。Keepalived のフェイルオーバーサービスとともに、HAProxy のスピードとスケーラビリティーを使用して HTTP およびその他の TCP ベースのサービスに負荷分散を実行すると、実サーバー間で負荷を分散して可用性を高めることができ、バックアップルーターへのフェイルオーバーによってルーターが利用できなくなってもサービスが継続されます。

第2章 Keepalived の概要

Keepalived はアクティブ LVS ルーター や 1 つ以上の任意の バックアップ LVS ルーター で実行されます。アクティブ LVS ルーターには 2 つのロールがあります。
  • 複数の実サーバー全体の負荷分散
  • それぞれの実サーバー上にあるサービスの整合性チェック
アクティブ (マスター) ルーターは、Virtual Router Redundancy Protocol (VRRP) を使用してアクティブな状態をバックアップルーターに通知します。マスタールーターは、通常の間隔でアドバタイズメントを送信する必要があります。アクティブルーターがアドバタイズメントの送信を停止すると、新しいマスターが選出されます。
注記
Red Hat は、使用する VRRP バージョンをその設定が変更する keepalived のローリング更新をサポートしていません。すべてのルーターは、keepalived ロードバランサー設定で同じバージョンの VRRP を実行している必要があります。VRRP バージョンの不一致により、次のメッセージが表示されます。
Aug  3 17:07:19 hostname Keepalived_vrrp[123]: receive an invalid ip number count associated with VRID!
Aug  3 17:07:19 hostname Keepalived_vrrp[123]: bogus VRRP packet received on em2 !!!
Aug  3 17:07:19 hostname Keepalived_vrrp[123]: VRRP_Instance(vrrp_ipv6) ignoring received advertisment...
Red Hat は、互換性の問題を回避するために、すべてのシステムで同じ keepalived バージョンを実行し、可能であれば keepalived 設定を同一にする必要があります。

2.1. 基本的な Keepalived ロードバランサーの設定

図2.1「基本的なロードバランサー設定」 は、2 層で設定されるシンプルな Keepalived ロードバランサー設定を示しています。第 1 層には、1 つのアクティブ LVS ルーターと、複数のバックアップ LVS ルーターがあります。各 LVS ルーターには、インターネット上とプライベートネットワーク上にそれぞれ 1 つのネットワークインターフェイスがあり、これらのネットワーク間のトラフィックを調整できるようになっています。この図の例では、アクティブルーターはネットワークアドレス変換 (Netowrk Address Translation、NAT) を使用してインターネットから第 2 層にある実サーバーへトラフィックを移動し、必要なサービスを提供します。そのため、この例の実サーバーは専用のプライベートネットワークセグメントに接続され、アクティブ LVS ルーターを介してすべてのパブリックトラフィックを送受信します。外部では、サーバーは 1 つのエンティティーのように見えます。

図2.1 基本的なロードバランサー設定

基本的なロードバランサー設定
LVS ルーターへ送信されたサービス要求は仮想 IP アドレス (VIP) 宛になります。このアドレスはパブリックにルーティング可能なアドレスで、サイトの管理者が www.example.com などの完全修飾ドメイン名を関連付けし、1 つ以上の仮想サーバーへ割り当てます。仮想サーバーは、特定の仮想 IP でリッスンするよう設定されたサービスです。VIP アドレスはフェイルオーバー中に、ある LVS ルーターから別の LVS ルーターに移行するため、その IP アドレスで存在を維持します。VIP はフローティング IP アドレスとも呼ばれます。
LVS ルーターをインターネットに接続するデバイスに VIP アドレスが割り当てられることがあります。たとえば、eth0 がインターネットに接続されている場合、複数の仮想サーバーを eth0 に割り当てることができます。この代わりに、各仮想サーバーをサービスごとに個別のデバイスへ関連付けることができます。たとえば、HTTP トラフィックは 192.168.1.111 の eth0 で処理できますが、FTP トラフィックは 192.168.1.222 の eth0 で処理できます。
1 つのアクティブなルーターと 1 つのパッシブなルーターが関係するデプロイメントの場合、アクティブサーバーの役目は仮想 IP アドレスから実サーバーへサービス要求をリダイレクトすることです。リダイレクトは、「keepalived スケジューリングの概要」 で詳しく説明している 8 つの負荷分散アルゴリズムのいずれかを基にしています。
アクティブルーターは、シンプルな TCP 接続、HTTP、および HTTPS の 3 つのビルトインヘルスチェックを使用して実サーバーで特定サービスの全体的な健全性を動的に監視します。TCP 接続では、アクティブルーターは特定のポートで実サーバーに接続できることを周期的にチェックします。HTTP および HTTPS では、アクティブルーターは周期的に実サーバーの URL をフェッチし、コンテンツを検証します。
バックアップルーターはスタンバイシステムのロールを担います。ルーターのフェイルオーバーは VRRP によって処理されます。起動時、すべてのルーターはマルチキャストグループに参加します。このマルチキャストグループは、VRRP アドバタイズメントの送受信に使用されます。VRRP は優先度ベースのプロトコルであるため、優先度が最も高いルーターがマスターとして選出されます。ルーターがマスターとして選出されると、定期的な間隔で VRRP アドバタイズメントをマルチキャストグループへ送信します。
一定の期間内 (アドバタイズメントの間隔を基にした) にバックアップルーターがアドバタイズメントを受信しなかった場合、新しいマスターが選出されます。新しいマスターは VIP を引き継ぎ、アドレス解決プロトコル (Address Resolution Protocol、ARP) メッセージを送信します。ルーターがアクティブなサービスを返すと、バックアップまたはマスターになります。この動作はルーターの優先度によって決まります。
図2.1「基本的なロードバランサー設定」 で使われているシンプルな 2 層設定は、静的な Web ページのように頻繁に変更されないデータに適しています。これは、個別の実サーバーは各ノード間で自動的にデータを同期しないためです。

2.2. 3 層の keepalived ロードバランサーの設定

図2.2「3 層のロードバランサーの設定」 は、典型的な 3 層の Keepalived ロードバランサートポロジーを示しています。この例では、アクティブ LVS ルーターは要求をインターネットから実サーバーのプールにルーティングします。その後、実サーバーはネットワーク上で共有データソースにアクセスします。

図2.2 3 層のロードバランサーの設定

3 層のロードバランサーの設定
この設定は、アクセス可能なデータが中央の高可用性サーバーに保存され、エクスポートされた NFS ディレクトリーまたは Samba による共有を用いて各実サーバーによってアクセスされるビジーな FTP サーバーの場合に適しています。このトポロジーは、トランザクションのために中央の高可用性データベースにアクセスする Web サイトにも推奨されます。また、ロードバランサーでアクティブ-アクティブ設定を使用すると、管理者はこれら両方のロールを同時に果たす高可用性クラスターを設定することもできます。
上記の例では、第 3 層でロードバランサーを使う必要はありませんが、高可用性のソリューションを使わないと重大な単一障害点となります。

2.3. keepalived スケジューリングの概要

Keepalived を使用すると、さまざまなスケジューリングアルゴリズムがサポートされるため、実サーバー間でトラフィックを分散する柔軟性が高くなります。階層的な DNS やクライアントマシンのキャッシングによって負荷が不均等になるラウンドロビン DNS などの柔軟性が低い方法よりも、負荷分散に優れています。さらに、ネットワークパケットレベルで負荷分散を行うと計算のオーバーヘッドが最小限になり、スケーラビリティーが向上するため、LVS ルーターが使用する低レベルのフィルターリングは、アプリケーションレベルの要求転送よりも優れています。
割り当てられた加重値を使用すると、各マシンに任意の優先度を提供します。このようなスケジューリングを使用すると、さまざまなハードウェアとソフトウェアの組み合わせを使用して実サーバーのグループを作成でき、アクティブなルーターは負荷を実サーバーへ均等に分散できます。
Keepalived のスケジューリングメカニズムは、IP 仮想サーバー または IPVS モジュールと呼ばれるカーネルパッチの集合によって提供されます。このモジュールは レイヤー 4 (L4) トランスポート層スイッチングを有効にします。これは、単一 IP アドレス上で複数のサーバーとうまく機能するように設計されています。
パケットの追跡や実サーバーへのルーティングを効率的に行うため、IPVS はカーネルに IPVS テーブルを構築します。このテーブルは、アクティブ LVS ルーターによって使用され、要求を仮想サーバーアドレスからプールの実サーバーへリダイレクトしたり、プールの実サーバーから戻したりします。

2.3.1. keepalived スケジューリングアルゴリズム

IPVS テーブルの構造は、管理者が仮想サーバーに対して選択するスケジューリングアルゴリズムによって異なります。クラスター化できるサービスのタイプや、これらのサービスがスケジュールされる方法で柔軟性を最大限にするため、Keepalived は以下のスケジューリングアルゴリズムをサポートします
ラウンドロビンスケジューリング (Round-Robin Scheduling)
要求を順番に実サーバーのプールで分配します。このアルゴリズムを使用すると、容量や負荷に関係なく実サーバーはすべて同等に扱われます。このスケジューリングモデルはラウンドロビン DNS と似ていますが、ホストベースではなくネットワークベースであるため、粒度がより細かくなります。また、ロードバランサーのラウンドロビンスケジューリングでは、キャッシュされた DNS クエリーが原因で負荷が不均等になることはありません。
加重ラウンドロビンスケジューリング (Weighted Round-Robin Scheduling)
各要求を順番に実サーバーのプールで分散しますが、容量の多いサーバーにより多くのジョブを割り当てます。容量は、ユーザーが割り当てる加重係数によって示され、動的な負荷情報によって調整されます。
プール内の実サーバー間で処理能力に大幅な違いがある場合は、重み付きラウンドロビンスケジューリングが適しています。ただし、要求負荷が大きく変化する場合は、重みの大きいサーバーが割り当て以上の要求に応じる可能性があります。
最小接続 (Least-Connection)
実際の接続が少ない実サーバーにより多くの要求を振り分けます。IPVS テーブルで実サーバーへのライブ接続を継続的に追跡するため、Least-Connection は動的なスケジューリングアルゴリズムになります。要求負荷の変化が大きい場合に適しています。このアルゴリズムは各メンバーノードの処理能力がほぼ同じで大差がないような実サーバープールに最適です。サーバーグループの処理能力が異なる場合は weighted least-connection スケジューリングの方が適しています。
加重最小接続 (Weighted Least-Connections)
容量と比較してより少ないアクティブな接続を持つサーバーにより多くの要求を分散します。容量は、ユーザーが割り当てる加重係数によって示され、動的な負荷情報によって調整されます。実際のサーバープールに異なる容量のハードウェアが含まれる場合、加重が追加されるこのアルゴリズムが適しています。
ローカリティーベースの最小接続スケジューリング (Locality-Based Least-Connection Scheduling)
接続先 IP に対して相対的にアクティブな接続が少ないサーバーにより多くの要求を振り分けます。このアルゴリズムは、プロキシーキャッシュサーバーのクラスターで使用するために設計されています。サーバーがキャパシティーを超えておらず、負荷が半分の別のサーバーがない場合、IP アドレスのパケットをそのアドレスのサーバーに送信します。サーバーがキャパシティーを超え、負荷が半分のサーバーがある場合は、IP アドレスを負荷が最も少ない実サーバーに割り当てます。
複製スケジューリングを伴うローカリティベースの最小接続スケジューリング (Locality-Based Least-Connection Scheduling with Replication Scheduling)
接続先 IP に対して相対的にアクティブな接続が少ないサーバーにより多くの要求を振り分けます。このアルゴリズムは、プロキシーキャッシュサーバーのクラスターで使用するために設計されています。ローカリティベースの最小接続スケジューリングとの違いは、ターゲットの IP アドレスが実サーバーノードのサブセットにマッピングされる点です。その後に要求は、このサブセット内で接続が最も少ないサーバーに送信されます。接続先 IP のノードがすべてキャパシティーを上回っている場合、実サーバーのプール全体で接続が一番少ないサーバーをその接続先 IP の実サーバーのサブセットに追加することで、接続先 IP アドレス向けに新たなサーバーを複製します。すると、負荷の最も高いノードが実サーバーのサブセットから外され、過剰な複製が抑制されます。
接続先ハッシュスケジューリング (Destination Hash Scheduling)
静的ハッシュテーブル内の接続先 IP を検索して、実サーバーのプールに要求を振り分けます。このアルゴリズムは、プロキシーキャッシュサーバーのクラスターで使用するために設計されています。
ソースハッシュスケジューリング (Source Hash Scheduling)
静的ハッシュテーブル内のソース IP を検索して、実サーバーのプールに要求を振り分けます。このアルゴリズムは、複数のファイアウォールがある LVS ルーター向けに設計されています。
最短予測遅延 (Shortest Expected Delay)
サーバー上の接続数を割り当てられた加重値で割った値を基して、最も短い遅延が期待されるサーバーへ接続要求を分配します。
キューに置かない (Never Queue)
最初に接続要求を見つけ、アイドル状態または接続がないサーバーへ接続要求を送信する 2 面のスケジューラーです。アイドル状態のサーバーがない場合、スケジューラーはデフォルトで 最短予測遅延 (Shortest Expected Delay) と同様に最も遅延が少ないサーバーを選択します。

2.3.2. サーバーの加重値とスケジューリング

ロードバランサーの管理者は、実際のサーバープールの各ノードに加重値を割り当てできます。この加重値は整数値で、加重値を認識するスケジューリングアルゴリズム (加重最小接続など) で考慮されます。また、LVS ルーターが異なる容量を持つハードウェアで負荷を均等にできるようにします。
加重値は、それぞれに対する相対的な割合として機能します。たとえば、ある実サーバーの加重値が 1 で別のサーバーの加重値が 5 の場合、前者が 1 回接続されるごとに後者が 5 回接続されます。実サーバーの加重値のデフォルト値は 1 です。
実サーバープール内でそれぞれ異なるハードウェア設定のノードに重みを付けるとクラスターでの負荷分散をより効率的に行う場合に役立ちますが、 weighted least-connection スケジューリングで仮想サーバーが設定されている際、任意の実サーバーがその実サーバープールに挿入されると、一時的に不均衡が生じる場合があります。例えば、実サーバープールに 3 台のサーバーがあったとします。サーバー A と B に 1 の重みが付けられ、サーバー C には 2 の重みが付けられていたとします。サーバー C が何らかの理由でダウンした場合、放棄された負荷がサーバー A と B に均等に分散されます。しかし、サーバー C がオンラインに復帰すると、LVS ルーター側でサーバー C の接続がまったくないと判断され、サーバー A および B と同等になるまで着信要求をすべてサーバー C に集中的に振り分けることになります。

2.4. ルーティングメソッド

Red Hat Enterprise Linux はネットワークアドレス変換 (NAT ルーティング) または Keepalived のダイレクトルーティングを使用します。これにより、利用できるハードウェアを活用し、ロードバランサーを既存のネットワークに統合する場合に柔軟性が大変高くなります。

2.4.1. NAT ルーティング

図2.3「NAT ルーティングを実装したロードバランサー」 は、ロードバランサーが NAT ルーティングを使用して、インターネットとプライベートネットワークの間で要求を移動する様子を示しています。

図2.3 NAT ルーティングを実装したロードバランサー

NAT ルーティングを実装したロードバランサー
この例では、アクティブ LVS ルーターに NIC が 2 つあります。インターネットの NIC ではリアル IP アドレスとフローティング IP アドレスが eth0 にあります。プライベートネットワークインターフェイスの NIC はリアル IP アドレスとフローティング IP アドレスが eth1 にあります。フェイルオーバーが発生すると、インターネットに向けられている仮想インターフェイスと仮想インターフェイスに向けられているプライベートネットワークが同時にバックアップ LVS ルーターへ引き継ぎされます。プライベートネットワークにあるすべての実サーバーは、NAT ルーターのフローティング IP をアクティブ LVS ルーターと通信するデフォルトのルートとして使用します。こうすることで、インターフェイスからの要求に応答する能力が維持されます。
この例では、LVS ルーターのパブリックフローティング IP アドレスとプライベート NAT フローティング IP アドレスが物理 NIC に割り当てられます。フローティング IP アドレスを LVS ルーターノード上のそれぞれの物理デバイスに関連付けることは可能ですが、3 つ以上の NIC を使用する必要はありません。
このトポロジーを使うと、アクティブ LVS ルーターは要求を受信して適切なサーバーにルーティングします。実サーバーはその要求を処理してパケットを LVS ルーターに返します。LVS ルーターはネットワークアドレス変換を使ってパケット内の実サーバーのアドレスを LVS ルーターのパブリック VIP アドレスに置き換えます。実サーバーの本当の IP アドレスは要求を行っているクライアントからは見えないよう隠しているため、IP マスカレード と呼ばれます。
NAT ルーティングを使用する場合は、実サーバーにするマシンの種類や稼働させるオペレーティングシステムの種類に制限はありません。ただし、発信要求および着信要求のいずれも LVS ルーターで処理しなければならないため、大規模なクラスター導入の場合には LVS ルーターがボトルネックとなる場合があります。
ipvs モジュールは、iptables および ip6tables NAT とは独立した独自の NAT ルーチンを使用します。これにより、実サーバーが /etc/keepalived/keepalived.conf ファイルの DR ではなく NAT 用に設定されている場合、IPv4 と IPv6 NAT の両方が容易になります。

2.4.2. ダイレクトルーティング

ダイレクトルーティングを使用するロードバランサー設定を構築すると、他のロードバランサーネットワーキングトポロジーよりもパフォーマンス上のメリットが大きくなります。ダイレクトルーティングでは、実サーバーは要求元のユーザーに対して直接パケットを処理およびルーティングでき、すべての送信パケットを LVS ルーター経由で渡しません。ダイレクトルーティングでは、LVS ルーターが受信パケットのみを処理するよう制限し、ネットワークパフォーマンスの問題が発生する可能性を低減します。

図2.4 ダイレクトルーティングで実装されたロードバランサー

ダイレクトルーティングで実装されたロードバランサー
典型的なダイレクトルーティングのロードバランサー設定では、LVS ルーターは仮想 IP (VIP) 経由で受信サーバー要求を受け取り、スケジューリングアルゴリズムを使用して要求を実サーバーへルーティングします。実サーバーは要求を処理し、LVS ルーターを通さずに応答を直接クライアントに送信します。ネットワークの負荷が高い状態で LVS ルーターが送信パッケージを実サーバーからクライアントへルーティングするとボトルネックになりますが、 このルーティング方法では LVS ルーターがこのような処理をしなくても実サーバーを追加できるため、スケーラビリティーが向上します。

2.4.2.1. ダイレクトルーティングと ARP 制限

ロードバランサーでダイレクトルーティングを使用する利点は多くありますが、制限もあります。最も一般的な問題は、アドレス解決プロトコル (ARP) に関する問題です。
インターフェイス上のクライアントは要求を IP アドレスに送信します。ネットワークルーターは ARP を使って IP アドレスをマシンの MAC アドレスに関連付けることで要求を宛先に送信します。ARP 要求がネットワークに接続されているすべてのマシンにブロードキャストされ、IP アドレスと MAC アドレスの正しい組み合わせを持つマシンがパケットを受け取ることになります。IP と MAC の関連性は ARP キャッシュに保存され、定期的に消去と再保存が行われます (通常 15 分ごと)。
ダイレクトルーティングのロードバランサー設定における ARP 要求の問題は、IP アドレスへのクライアント要求が処理されるためにはその要求が MAC アドレスに関連付けされている必要があるため、ロードバランサーシステムの仮想 IP アドレスも MAC に関連付けされている必要があることです。しかし、LVS ルーターと実サーバーは同じ VIP を持っているため、ARP 要求はその VIP に関連付けられているすべてのマシンへブロードキャストされます。これにより、VIP が直接実サーバーの 1 つに関連付けられて直接要求を処理する問題や、完全に LVS ルーターを迂回してロードバランサー設定の目的に反する問題など、複数の問題が発生することがあります。
この問題を解決するには、着信要求が実サーバーの 1 つではなく、常に LVS ルーターに送信されるようにしてください。これには、ARP 要求または IP パケットをフィルターします。ARP のフィルターリングは arptables ユーティリティーを使用して行うことができ、IP パケットは iptables または firewalld を使用してフィルタリングできます。この 2 つの方法の違いは以下のとおりです。
  • ARP のフィルター方法では、実サーバーに到達する要求をブロックします。これにより、ARP が実サーバーで VIP と関連することを防ぎ、アクティブな仮想サーバーが MAC アドレスで応答するようにします。
  • IP パケットのフィルター方法では、他の IP アドレスでパケットを実サーバーにルーティングできます。最初から実サーバーで VIP を設定しないと、ARP の問題を完全に回避できます。

2.5. Keepalived の永続性およびファイアウォールマーク

状況によっては、負荷分散アルゴリズムを使用して利用可能な最良のサーバーへ要求を送信せずに、クライアントが同じ実サーバーに繰り返し再接続する方が望ましいことがあります。このような場合の例には、マルチスクリーン Web フォーム、クッキー、SSL、および FTP 接続などがあります。このようなケースでは、同じサーバーがトランザクションを処理し、コンテキストを保持しないとクライアントが適切に動作しないことがあります。Keepalived は、永続性ファイアウォールマークの 2 つの機能でこれに対応します。

2.5.1. 永続性

永続性が有効になっていると、タイマーのように動作します。クライアントがサービスに接続すると、ロードバランサーは指定期間中は最後の接続を記憶します。同じクライアント IP アドレスが同じ期間内に再接続すると、以前接続したサーバーへ送信され、負荷分散メカニズムが無視されます。接続が指定期間外で発生すると、対応するスケジューリングルールに従って処理されます。
また、永続性を使うと、管理側でサブネットマスクを指定して、どのアドレスがより高い永続性を持つかを管理するツールとして、クライアント IP アドレステストに適用することができます。こうすることで、接続をそのサブネットにグループ化できます。
通信に複数のポートを使用する FTP などのプロトコルの場合、宛先が別々のポートの接続をグループ化することがとても重要な場合があります。ただし、宛先が別々のポートの接続をグループ化する上で発生する問題に対処する場合、永続性は最も効率的な方法とは言えません。このような場合には ファイアウォールマーク を使用するのが最適です。

2.5.2. ファイアウォールマーク

ファイアウォールマークは、プロトコルまたは関連するプロトコルのグループに使用されるポートを簡単かつ効率的にグループ化する方法です。たとえば、EC (E コマース) サイトの稼働が目的でロードバランサーがデプロイされた場合、ファイアウォールマークを使用してポート 80 の HTTP 接続と、ポート 443 のセキュアな HTTPS 接続をバンドル化できます。各プロトコルの仮想サーバーに同じファイアウォールマークを割り当てると、接続が開かれた後に LVS ルーターがすべての要求を同じ実サーバーへ転送するため、トランザクション状態の情報を保持できます。
ファイアマークは効率的で簡単に使用できるため、ロードバランサーの管理者は可能な限り永続性の代わりにファイアウォールマークを使用して接続をグループ化するようにしてください。しかし、クライアントが十分な期間同じサーバーに再接続されるようにするため、ファイアウォールマークとともに永続性を仮想サーバーに追加するようにしてください。

第3章 Keepalived のロードバランサー要件の設定

keepalived を使用するロードバランサーは、LVS ルーターと実サーバーの 2 つの基本的なグループで設定されます。単一障害点を回避するため、各グループに 2 つ以上のメンバーが含まれるようにしてください。
LVS ルーターグループは、Red Hat Enterprise Linux を実行している同一または非常に似ている 2 つのシステムで設定する必要があります。そのうちの 1 つはアクティブ LVS ルーターとして機能し、もう 1 つはホットスタンバイモードで待機するので、この 2 つができるだけ同じ機能を備えている必要があります。
実際のサーバーグループのハードウェアを選択および設定する前に、3 つのロードバランサートポロジーのどれを使用するかを決定します。

3.1. NAT ロードバランサーネットワーク

NAT トポロジーを使用すると、既存のハードウェアを柔軟に活用できますが、プールから送受信されるすべてのパケットはロードバランサールーターを通過するため、大量の負荷を処理する機能が制限されます。
ネットワークレイアウト
NAT ルーティングを使用するロードバランサーのトポロジーは、パブリックネットワークへのアクセスポイントが 1 つのみ必要なため、ネットワークレイアウトの観点から見ると最も設定が簡単です。実サーバーはプライベートネットワーク上にあり、LVS ルーター経由ですべての要求を返します。
ハードウェア
NAT トポロジーでは、実サーバーは LVS ルーターのみに応答するため、実サーバーごとに 1 つの NIC のみが必要になります。一方で LVS ルーターは 2 つのネットワークの間でトラフィックを送信するため、NIC が 2 つずつ必要になります。このトポロジーでは LVS ルーターの部分がネットワークのボトルネックとなるため、ギガビットイーサネット NIC を LVS ルーターで使うことで、LVS ルーターが処理可能な帯域幅を拡げることができます。ギガビットイーサネットを LVS ルーターで使用する場合は、実サーバーを LVS ルーターに接続しているスイッチは、負荷を効率的に処理するために少なくとも 2 つのギガビットイーサネットポートが必要になります。
ソフトウェア
NAT トポロジーでは一部の設定に iptables を使用する必要があるため、Keepalived 外に大量のソフトウェア設定が存在する可能性があります。特に、FTP サービスやファイアウォールマークを使用する場合は、要求を適切にルーティングするために LVS ルーターを追加で手動設定する必要があります。

3.1.1. NAT を使用するロードバランサーのネットワークインターフェイス設定

NAT を使用するロードバランサーを設定するには、最初に LVS ルーターのパブリックネットワークとプライベートネットワークのネットワークインターフェイスを設定する必要があります。この例では、LVS ルーターのパブリックインターフェイス(eth0)は 203.0.113.0/24 ネットワークにあり、実サーバー(eth1)にリンクするプライベートインターフェイスは 10.11.12.0/24 ネットワークにあります。
重要
執筆時点では、NetworkManager サービスはロードバランサーと互換性がありません。IPv6 アドレスが SLAAC に割り当てられた場合、IPv6 VIP は動作しないことが判明しています。このため、この例では設定ファイルと network サービスを使用します。
アクティブまたは プライマリー LVS ルーターノードでは、パブリックインターフェイスのネットワーク設定ファイル /etc/sysconfig/network-scripts/ifcfg-eth0 は以下のようになります。
DEVICE=eth0
BOOTPROTO=static
ONBOOT=yes
IPADDR=203.0.113.9
NETMASK=255.255.255.0
GATEWAY=203.0.113.254
LVS ルーターのプライベート NAT インターフェイス用の設定ファイル /etc/sysconfig/network-scripts/ifcfg-eth1 は以下のようになります。
DEVICE=eth1
BOOTPROTO=static
ONBOOT=yes
IPADDR=10.11.12.9
NETMASK=255.255.255.0
この例では、LVS ルーターのパブリックインターフェイスの VIP は 203.0.113.10 となり、NAT もしくはプライベートインターフェイスの VIP は 10.11.12.10 となります。実サーバーが要求を NAT インターフェイスの VIP に返送することが重要になります。
重要
本項のイーサネットインターフェイス設定の例は、LVS ルーターのリアル IP アドレス向けの例で、フローティング IP アドレス向けの例ではありません
プライマリー LVS ルーターノードのネットワークインターフェイスを設定した後、バックアップ LVS ルーターの実ネットワークインターフェイスを設定します。IP アドレスがネットワーク上の他の IP アドレスと競合しないように注意してください。
重要
バックアップノード上の各インターフェイスが、プライマリーノード上のインターフェイスと同じネットワークに対応するようにしてください。たとえば、 eth0 プライマリーノード上でパブリックネットワークに接続する場合、バックアップノードでもパブリックネットワークに接続するようにする必要があります。

3.1.2. 実サーバー上でのルーティング

NAT トポロジーで実サーバーネットワークインターフェイスを設定する場合に最も重要なのは、LVS ルーターの NAT フローティング IP アドレス用にゲートウェイを設定することです。この例では、ゲートウェイのアドレスは 10.11.12.10 となります。
注記
実サーバー上でのネットワークインターフェイス設定が完了すると、マシンは他の方法でパブリックネットワークに ping したり接続したりすることができなくなります。これは正常なことです。しかし、LVS ルーターのプライベートインターフェイスの実 IP (この場合は 10.11.12.9) に ping することはできます。
実サーバーの設定ファイル /etc/sysconfig/network-scripts/ifcfg-eth0 は、以下のようになります。
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=static
IPADDR=10.11.12.1
NETMASK=255.255.255.0
GATEWAY=10.11.12.10
警告
GATEWAY= 行で実サーバーに複数のネットワークインターフェイスが設定されている場合、最初に起動したネットワークインターフェイスがゲートウェイを取得します。したがって、eth0eth1 の両方が設定され、eth1 がロードバランサーに使用される場合、実サーバーはリクエストを適切にルーティングしないことがあります。
/etc/sysconfig/network-scripts/ ディレクトリー内のネットワーク設定ファイルで ONBOOT=no を設定するか、最初に起動するインターフェイスでゲートウェイが正しく設定されていることを確認することで、余分なネットワークインターフェイスをオフにするのが最適です。

3.1.3. LVS ルーターでの NAT ルーティングの有効化

クラスター化されたサービスが 1 つのポート (例: ポート 80 の HTTP) のみを使用する簡単な NAT ロードバランサー設定の場合、LVS ルーター上でパケット転送のみを有効にすれば実サーバーとその外部との間で適切に要求をルーティングできます。しかし、ユーザーセッション中に同じ実サーバーに移動するため、クラスター化されたサービスが複数のポートを必要とする場合は、他の設定が必要になります。
LVS ルーターで転送が有効になり、実サーバーが設定され、クラスター化されたサービスが実行されたら、keepalived を使用して IP 情報を設定します。
警告
手動でネットワーク設定ファイルを編集するか、ネットワーク設定ツールを使用して、eth0 または eth1 の Floating IP を設定しないでください。代わりに keepalived.conf ファイルで設定してください。
完了したら、keepalived サービスを起動します。サービスの稼働後、アクティブ LVS ルーターは要求を実サーバーのプールへルーティングします。

3.2. ダイレクトルーティングを使用するロードバランサー

ダイレクトルーティングを使用すると、実サーバーは LVS ルーターを介して送信パケットを渡さずに、直接パケットを処理して要求元ユーザーにルーティングできます。ダイレクトルーティングでは、実サーバーが LVS ルーターがあるネットワークセグメントに物理的に接続している必要があり、送信パケットを処理およびルーティングできる必要があります。
ネットワークレイアウト
ダイレクトルーティングのロードバランサー設定では、LVS ルーターが受信要求を受け取り、要求を処理する適切な実サーバーへルーティングする必要があります。その後、実サーバーは応答を直接クライアントへルーティングする必要があります。たとえば、クライアントがインターネット上にあり、LVS ルーター経由でパケットを実サーバーへ送信する場合、実サーバーはインターネット経由で直接クライアントに接続できる必要があります。これを実現するには、実サーバーのゲートウェイを設定し、パケットをインターネットに渡します。サーバープールの各サーバーは独自のゲートウェイを持ちます (各ゲートウェイはインターネットへの独自の接続を持ちます)。そのため、スループットやスケーラビリティーを最大限にします。しかし、一般的なロードバランサーの設定では実サーバーは 1 つのゲートウェイ (よって 1 つのネットワーク接続) を経由して通信できます。
ハードウェア
ダイレクトルーティングを使用するロードバランサーシステムのハードウェア要件は、他のロードバランサートポロジーと似ています。LVS ルーターは Red Hat Enterprise Linux を実行して受信要求を処理し、実サーバーの負荷分散を実行する必要がありますが、実サーバーが適切に機能するには Linux マシンである必要はありません。各 LVS ルーターには 1 つまたは 2 つの NIC が必要です (バックアップルーターがあるかによって異なります)。NIC を 2 つ使用すると設定が容易になり、受信要求は 1 つの NIC によって処理され、別の NIC によってパケットが実サーバーへルーティングされるため、トラフィックを区別できます。
実サーバーは LVS ルーターを迂回して送信パケットを直接クライアントに送信するため、インターネットへのゲートウェイが必要となります。パフォーマンスと可用性を最大化するには、クライアントが接続しているネットワーク (インターネットやイントラネットなど) に専用接続がある独自のゲートウェイに実サーバーを接続します。
ソフトウェア
keepalived 外には、特に管理者が直接ルーティングによってロードバランサーを使用する際に ARP の問題に対処する場合、いくつかの設定を行う必要があります。詳細は 「arptables を使用したダイレクトルーティング」 または 「iptables を使用したダイレクトルーティング」 を参照してください。

3.2.1. arptables を使用したダイレクトルーティング

arptables を使用してダイレクトルーティングを設定するには、実サーバーの仮想 IP アドレスを設定してパケットを直接ルーティングできるようにする必要があります。VIP の ARP 要求は実サーバーによって完全に無視されます。VIP を含む送信される ARP パケットは、VIP ではなく実サーバーの IP が含まれるよう分割されます。
arptables メソッドを使用すると、アプリケーションは実サーバーがサービスしている個々の VIP またはポートにバインドできます。たとえば、arptables メソッドを使用すると、Apache HTTP Server の複数のインスタンスを実行し、システム上の異なる VIP に明示的にバインドできます。
ただし、arptables メソッドを使用すると、標準の Red Hat Enterprise Linux システム設定ツールを使用して起動時に VIP を開始するように設定することはできません。
それぞれの仮想 IP アドレスの ARP 要求を無視するように実サーバーを設定するには、以下の手順を実行します。
  1. 各実サーバーの各仮想 IP アドレスに ARP テーブルエントリーを作成します( real_ip は、director が実サーバーと通信するために使用する IP です。多くの場合、eth0にバインドされた IP です)。
    arptables -A IN -d <virtual_ip> -j DROP
    arptables -A OUT -s <virtual_ip> -j mangle --mangle-ip-s <real_ip>
    
    これにより、仮想 IP アドレス向けのすべての ARP 要求を実サーバーが無視するようになります。また、他の方法では仮想 IP を含むことになる送信 ARP 反応を変更させて、それらがサーバーの実 IP を含むようになります。VIP の ARP 要求に反応する唯一のノードは、現在アクティブな LVS ノードです。
  2. これが実サーバー上で完了したら、実サーバー上で以下のコマンドを入力して ARP テーブルのエントリーを保存します。
    arptables-save > /etc/sysconfig/arptables
    systemctl enable arptables.service
    systemctl enable コマンドを使用すると、ネットワークを起動する前に、システムが起動時に arptables 設定を再読み込みします。
  3. ip addr を使用して IP エイリアスを作成し、すべての実サーバーで仮想 IP アドレスを設定します。以下に例を示します。
    # ip addr add 192.168.76.24 dev eth0
  4. ダイレクトルーティングを Keepalived に設定します。これは、lb_kind DRkeepalived.conf ファイルに追加することで実行できます。詳細は、4章Keepalived を用いたロードバランサーの初期設定 を参照してください。

3.2.2. firewalld を使用したダイレクトルーティング

firewalld を使用してファイアウォールルールを作成することにより、ダイレクトルーティングメソッドを使用した ARP 問題を回避することもできます。firewalld を使用してダイレクトルーティングを設定するには、VIP アドレスがシステム上に存在しなくても VIP アドレスに送信されたパケットを実サーバーが処理するように透過プロキシーを作成するルールを追加する必要があります。
firewalld メソッドは、arptables メソッドよりも設定が簡単です。単一または複数の仮想 IP アドレスがアクティブ LVS ディレクター上にのみ存在するため、このメソッドでは LVS ARP 問題も完全に回避できます。
ただし、すべてのリターンパケットを転送する際にオーバーヘッドが発生するため、firewalld メソッドを使用すると、arptables と比較してパフォーマンスの問題があります。
また、firewalld メソッドを使用してポートを再利用することはできません。たとえば、2 つの別々の Apache HTTP Server サービスをポート 80 にバインドすることはできません。どちらも仮想 IP アドレスではなく INADDR_ANY にバインドする必要があるためです。
firewalld メソッドを使用してダイレクトルーティングを設定するには、すべての実サーバーで以下の手順を実行します。
  1. firewalld が実行されていることを確認します。
    # systemctl start firewalld
    firewalld がシステム起動時に開始するように有効化されていることを確認します。
    # systemctl enable firewalld
  2. 実サーバーに対して処理されるすべての VIP、ポート、プロトコル (TCP または UDP) の組み合わせに以下のコマンドを使用します。このコマンドで、実サーバーは与えられた VIP とポートが宛先となっているパケットを処理します。
    # firewall-cmd --permanent --direct --add-rule ipv4 nat PREROUTING 0 -d vip -p tcp|udp -m tcp|udp --dport port -j REDIRECT
  3. ファイアウォールルールを再読み込みし、状態情報を維持します。
    # firewall-cmd --reload
    現在の永続的な設定は、新しい firewalld ランタイム設定と次回のシステム起動時の設定になります。

3.2.3. iptables を使用したダイレクトルーティング

iptables ファイアウォールルールを作成して、ダイレクトルーティングメソッドを使用した ARP 問題を回避することもできます。iptables を使用してダイレクトルーティングを設定するには、VIP アドレスがシステム上に存在しなくても VIP アドレスに送信されたパケットを実サーバーが処理するように透過プロキシーを作成するルールを追加する必要があります。
iptables メソッドは arptables メソッドよりも設定が簡単です。仮想 IP アドレスがアクティブ LVS ディレクター上にのみ存在するため、このメソッドでは LVS ARP 問題も完全に回避できます。
ただし、iptables メソッドと arptables と比較してパフォーマンスの問題があります。これは、すべてのパケットの転送/マスカレードにオーバーヘッドがあるためです。
また、iptables メソッドを使用してポートを再利用することはできません。たとえば、2 つの別々の Apache HTTP Server サービスをポート 80 にバインドすることはできません。どちらも仮想 IP アドレスではなく INADDR_ANY にバインドする必要があるためです。
iptables メソッドを使用してダイレクトルーティングを設定するには、以下の手順を実行します。
  1. 実サーバー上で、実サーバーに対応する目的の VIP、ポート、およびプロトコル (TCP または UDP) の組み合わせすべてに対して、以下のコマンドを実行します。
    iptables -t nat -A PREROUTING -p <tcp|udp> -d <vip> --dport <port> -j REDIRECT
    このコマンドで、実サーバーは与えられた VIP とポートが宛先となっているパケットを処理します。
  2. 実サーバー上で設定を保存します。
    # iptables-save > /etc/sysconfig/iptables
    # systemctl enable iptables.service
    systemctl enable コマンドを使用すると、ネットワークを起動する前に、システムが起動時に iptables 設定を再読み込みします。

3.2.4. sysctl を用いたダイレクトルーティング

ダイレクトルーティングを使用する際の ARP 制限に対応する別の方法は、sysctl インターフェイスを使用することです。管理者は、2 つの systcl 設定を設定して、実サーバーが ARP 要求で VIP をアナウンスせず、VIP アドレスの ARP 要求に応答しないようにします。この動作を有効にするには、以下のコマンドを実行します。
echo 1 > /proc/sys/net/ipv4/conf/eth0/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/eth0/arp_announce
または、以下の行を /etc/sysctl.d/arp.conf ファイルに追加できます。
net.ipv4.conf.eth0.arp_ignore = 1
net.ipv4.conf.eth0.arp_announce = 2

3.3. 設定の組み合わせ

使用するルーティングメソッドを決定した後、ハードウェアを接続し、設定する必要があります。
重要
LVS ルーター上のネットワークアダプターは、同じネットワークにアクセスするように設定する必要があります。たとえば、eth0 がパブリックネットワークに接続し、eth1 がプライベートネットワークに接続する場合、バックアップ LVS ルーター上の同じデバイスは同じネットワークに接続する必要があります。
また、起動時に最初に出現するインターフェイスにリストされているゲートウェイは、ルーティングテーブルに追加され、他のインターフェイスにリストされているそれ以降のゲート ウェイは無視されます。これは、実サーバーを設定する場合に特に考慮すべき重要点です。
ハードウェアをネットワークに接続したら、プライマリーおよびバックアップ LVS ルーターでネットワークインターフェイスを設定します。これには、ネットワーク設定ファイルを手作業で編集する必要があります。ネットワーク設定ファイルの編集に関する詳細は、Red Hat Enterprise Linux 7 ネットワークガイドを参照してください。

3.3.1. 一般的なロードバランサーネットワーキングのヒント

Keepalived を使用してロードバランサーを設定する前に、LVS ルーターのパブリックおよびプライベートネットワークにリアル IP アドレスを設定します。各トポロジーのセクションには、ネットワークアドレスの例が記載されていますが、実際のネットワークアドレスが必要になります。以下は、ネットワークインターフェイスを起動し、状態をチェックするのに便利なコマンドの一部になります。
実ネットワーキングインターフェイスの起動
実際のネットワークインターフェイスを開くには、root で以下のコマンドを実行します。N は、インターフェイスに対応する番号(eth0 および eth1)に置き換えます。
ifup ethN
警告
ifup スクリプトを使用して、Keepalived を使用して設定できる Floating IP アドレスを開く(eth0:1 または eth1:1)し ない でください。service または systemctl コマンドを使用して keepalived を代わりに起動します。
実ネットワークインターフェイスの停止
実際のネットワークインターフェイスを停止するには、root で以下のコマンドを実行します。N は、インターフェイスに対応する番号(eth0 および eth1)に置き換えます。
ifdown ethN
ネットワークインターフェイスのステータスチェック
ある時点でどのネットワークインターフェイスが起動しているかをチェックするには、以下のコマンドを実行します。
ip link
マシンのルーティングテーブルを表示するには、以下のコマンドを実行します。
ip route

3.3.2. ファイアウォールの要件

( firewalld または iptablesを使用して)ファイアウォールを実行している場合は、VRRP トラフィックが keepalived ノード間を通過できるようにする必要があります。firewalld で VRRP トラフィックを許可するようにファイアウォールを設定するには、以下のコマンドを実行します。
# firewall-cmd --add-rich-rule='rule protocol value="vrrp" accept' --permanent
# firewall-cmd --reload
ゾーンを省略すると、デフォルトのゾーンが使用されます。
ただし、iptables を使用した VRRP トラフィックを許可する必要がある場合は、以下のコマンドを実行します。
# iptables -I INPUT -p vrrp -j ACCEPT
# iptables-save > /etc/sysconfig/iptables
# systemctl restart iptables

3.4. マルチポートサービスとロードバランサー

マルチポートのロードバランサーサービスを作成する場合、LVS ルーターはどのトポロジーでも追加の設定が必要になります。HTTP (ポート 80) および HTTPS (ポート 443) などの異なる関連するプロトコルをバンドル化するファイアウォールマークを使用したり、FTP などの実際のマルチポートプロトコルを用いてロードバランサーを使用したりする場合、マルチポートサービスは人為的に作成されます。どちらの場合でも、LVS ルーターはファイアウォールマークを使用して異なるポートに送信されるパケットを認識しますが、同じファイアマークが付けられているため同様に処理する必要があります。また、ファイアウォールマークを永続性と組み合わせると、永続性パラメーターによって指定された期間内に接続が発生する限り、クライアントマシンからの接続は同じホストへルーティングされます。
実サーバー上で負荷を分散するために使用されるメカニズムである IPVS は、パケットに割り当てられたファイアウォールマークを認識しますが、IPVS 自体はファイアウォールを割り当てできません。ファイアウォールマークを 割り当てる ジョブは、ネットワークパケットフィルターである iptables によって実行する必要があります。Red Hat Enterprise Linux 7 のデフォルトのファイアウォール管理ツールは firewalld で、iptables の設定に使用できます。iptables を直接使用することもできます。Red Hat Enterprise Linux 7 で iptables を使用する方法については、Red Hat Enterprise Linux 7 セキュリティーガイド を参照してください。

3.4.1. firewalld を使用したファイアウォールマークの割り当て

特定のポート宛のパケットにファイアウォールマークを割り当てるには、管理者は firewalldfirewall-cmd ユーティリティーを使用できます。
必要な場合は、firewalld が実行されていることを確認します。
# systemctl status firewalld
firewalld.service - firewalld - dynamic firewall daemon
   Loaded: loaded (/usr/lib/systemd/system/firewalld.service; enabled)
   Active: active (running) since Tue 2016-01-26 05:23:53 EST; 7h ago
firewalld を起動するには、次のコマンドを実行します。
# systemctl start firewalld
firewalld がシステム起動時に起動するようにするには、次のコマンドを実行します。
# systemctl enable firewalld
ここでは、HTTP と HTTPS をバンドルする方法を例を用いて説明しますが、FTP も一般的に使用されるクラスター化されたマルチポートプロトコルです。
ファイアウォールマークを使用する場合の基本ルールとして、Keepalived でファイアウォールマークを使用する各プロトコルには、ファイアウォールマークをネットワークパケットに割り当てるための同等のファイアウォールルールが必要になります。
ネットワークパケットのフィルタールールを作成する前に、すでに他のルールが存在しないか確認します。これを行うには、シェルプロンプトを開き、root でログインして、以下のコマンドを入力します。
# firewall-cmd --list-rich-rules
リッチルールが存在しない場合は、プロンプトがすぐに再表示されます。
firewalld がアクティブでリッチルールが存在する場合は、一連のルールが表示されます。
すでに配置されているルールが重要な場合は、/etc/firewalld/zones/ の内容を確認して、保持できるルールを安全な場所にコピーしてから次に進んでください。
firewall-cmd --zone=zone --remove-rich-rule='rule' --permanent
の形式のコマンドを使用して不要なリッチルールを削除します。--permanent オプションを使用すると、設定が永続化されますが、コマンドは次回のシステム起動時にのみ有効になります。設定をすぐに有効にする必要がある場合は、--permanent オプションを省略したコマンドを繰り返します。
最初に設定するロードバランサーに関連するファイアウォールルールは、Keepalived サービスの VRRP トラフィックを許可します。ターミナルで以下のコマンドを入力します。
# firewall-cmd --add-rich-rule='rule protocol value="vrrp" accept' --permanent
ゾーンを省略すると、デフォルトのゾーンが使用されます。
以下のルールは、ポート 80 および 443 で、Floating IP アドレス n.n.n.n 宛の受信トラフィックに同じファイアウォールマーク 80 を割り当てます。
# firewall-cmd --add-rich-rule='rule family="ipv4" destination address="n.n.n.n/32" port port="80" protocol="tcp" mark set="80"' --permanent
# firewall-cmd --add-rich-rule='rule family="ipv4" destination address="n.n.n.n/32" port port="443" protocol="tcp" mark set="80"' --permanent
# firewall-cmd --reload
success
# firewall-cmd --list-rich-rules
rule protocol value="vrrp" accept
rule family="ipv4" destination address="n.n.n.n/32" port port="80" protocol="tcp" mark set=80
rule family="ipv4" destination address="n.n.n.n/32" port port="443" protocol="tcp" mark set=80
ゾーンを省略すると、デフォルトのゾーンが使用されます。
firewalld のリッチ言語コマンドの使用方法は、Red Hat Enterprise Linux 7 セキュリティーガイド を参照してください。

3.4.2. iptables を使用したファイアウォールマークの割り当て

特定のポート宛のパケットにファイアウォールマークを割り当てるには、管理者は iptables を使用できます。
ここでは、HTTP と HTTPS をバンドルする方法を例を用いて説明しますが、FTP も一般的に使用されるクラスター化されたマルチポートプロトコルです。
ファイアウォールマークを使用する場合の基本ルールとして、Keepalived でファイアウォールマークを使用する各プロトコルには、ファイアウォールマークをネットワークパケットに割り当てるための同等のファイアウォールルールが必要になります。
ネットワークパケットのフィルタールールを作成する前に、すでに他のルールが存在しないか確認します。これを行うには、シェルプロンプトを開き、root でログインして、以下のコマンドを入力します。
/usr/sbin/service iptables status
iptables が実行されていない場合は、即座にプロンプトが再表示されます。
iptables がアクティブな場合は、一連のルールが表示されます。ルールが存在する場合は、以下のコマンドを実行します。
/sbin/service iptables stop
すでにルールを配置することが重要な場合は、/etc/sysconfig/iptables の内容を確認し、保持すべきルールを安全な場所にコピーしてから次に進んでください。
ファイアウォールルールの設定に関連する最初のロードバランサーは、Keepalived サービスの VRRP トラフィックを許可します。
/usr/sbin/iptables -I INPUT -p vrrp -j ACCEPT
以下のルールは、ポート 80 および 443 で、Floating IP アドレス n.n.n.n 宛の受信トラフィックに同じファイアウォールマーク 80 を割り当てます。
/usr/sbin/iptables -t mangle -A PREROUTING -p tcp -d n.n.n.n/32 -m multiport --dports 80,443 -j MARK --set-mark 80
初めてルールを発行する前に、root としてログインして iptables のモジュールをロードする必要があることに注意してください。
上記の iptables コマンドでは、n.n.n.n は HTTP および HTTPS 仮想サーバーの Floating IP に置き換える必要があります。これらのコマンドは、該当するポート上の VIP が送信先となっている全トラフィックをファイアウォールマーク 80 に割り当てることと同様の効果があります。これが IPVS に認識され、適切に転送されます。
警告
上記のコマンドは即座に有効になりますが、システムを再起動すると保持されません。

3.5. FTP の設定

ファイル転送プロトコル (FTP) は旧式の複雑なマルチポートプロトコルで、ロードバランサーを使用する環境では扱いが難しくなります。扱いの難しさを理解するには、初めに FTP の仕組みで重要となる点を理解する必要があります。

3.5.1. FTP の動作

ほとんどのサーバー/クライアント関係では、クライアントマシンが特定のポート上でサーバーへ接続を開いて、サーバーがそのポートのクライアントに応答します。FTP クライアントが FTP サーバーに接続する場合、FTP 制御ポート 21 への接続を開きます。そして、その クライアントが FTP サーバーアクティブ パッシブ のどちらの接続を開くかを指示します。クライアントが選択した接続タイプにより、サーバーの対応方法とトランザクションが発生するポートを決定します。
データ接続は以下の 2 種類です。
アクティブ接続
アクティブ接続が確立されると、サーバーはポート 20 からクライアントマシン上の高い範囲のポートにクライアントへデータ接続を開きます。サーバーからのすべてのデータは、この接続を通じて送信されます。
パッシブ接続
パッシブ接続が確立されると、クライアントは FTP サーバーに対してパッシブ接続ポートを確立するように依頼します。これは、10,000 以上のポートで可能です。するとサーバーは、この特定のセッション用に高い数値のポートをバインドして、このポート番号をクライアントに中継します。クライアントは、データ接続のために新規にバインドされたポートを開きます。クライアントが作成するデータ要求それぞれ、別個のデータ接続となります。最近の FTP クライアントのほとんどは、 サーバーからデータを要求する場合、パッシブ接続を試みます。
注記
接続タイプを決定するのは、サーバーではなく クライアント です。つまり、効果的に FTP をクラスター化するには、アクティブ接続とパッシブ接続の両方を処理するように LVS ルーターを設定する必要があることになります。
HTP のクライアントとサーバーの関係によって、Keepalived が認識しない多くのポートが開かれる可能性があります。

3.5.2. ロードバランサーのルーティングへの影響

IPVS パケット転送は、それをベースにしたクラスターへの接続とそのクラスターからの接続のみを許可し、そのポート番号やファイアウォールマークを認識します。クラスター外のクライアントが IPVS で処理するように設定されていないポートを開こうとした場合、接続は切断されます。同様に、実サーバーが IPVS が認識できないポート上でインターネット接続を開こうとした場合も、接続は切断されます。つまり、インターネット上の FTP クライアントからのすべての接続は、それらに割り当てられているファイアウォールマークと同じである必要があり、FTP サーバーからの全接続は、ネットワークパケットのフィルターリングルールを使用して正常にインターネットに転送される必要があることを意味します。
注記
パッシブ FTP 接続を有効にするには、ip_vs_ftp カーネルモジュールを読み込む必要があります。以下のコマンドを管理者ユーザーとしてシェルで実行し、このモジュールを読み込み、再起動してモジュールが読み込まれることを確認します。
echo "ip_vs_ftp" >> /etc/modules-load.d/ip_vs_ftp.conf
systemctl enable systemd-modules-load
systemctl start systemd-modules-load

3.5.3. ネットワークパケットフィルタールールの作成

FTP サービスに iptables ルールを割り当てる前に、既存のネットワークパケットフィルターリングルールをチェックするためのマルチポートサービスおよびテクニックに関する 「マルチポートサービスとロードバランサー 」 の情報を確認してください。
以下は、同じファイアウォールマーク 21 を FTP トラフィックに割り当てるルールです。

3.5.3.1. アクティブ接続のルール

アクティブな接続のルールは、ポート 20 (FTP データポート)の 内部 Floating IP アドレスへの接続を許可および転送するようにカーネルに指示します。
以下の iptables コマンドを使用すると、LVS ルーターは IPVS が認識しない実サーバーからの送信接続を許可できます。
/usr/sbin/iptables -t nat -A POSTROUTING -p tcp -s n.n.n.0/24 --sport 20 -j MASQUERADE
iptables コマンドの n.n.n は、keepalived.conf ファイルの virtual_server セクションで定義された NAT インターフェイスの内部ネットワークインターフェイスの Floating IP の最初の 3 つの値に置き換える必要があります。

3.5.3.2. パッシブ接続のルール

パッシブ接続のルールは、10,000 から 20,000 までの広い範囲のポートで、インターネットからフローティング IP アドレスへの接続に適切なファイアウォールマークを割り当てます。
警告
パッシブ接続のポート範囲を制限する場合は、FTP サーバー vsftpd を設定して、一致するポート範囲を使用する必要があります。これを行うには、以下の行を /etc/vsftpd.conf に追加します。
pasv_min_port=10000
pasv_max_port=20000
実際の FTP サーバーアドレスを上書きする pasv_address の設定は使用しないでください。LVS により仮想 IP アドレスに更新されるためです。
他の FTP サーバーの設定については、個別のドキュメンテーションを参照してください。
この範囲はほとんどの状況では十分なものです。ただし、以下のコマンドの 10000:20000 を 1024:65535 に変更することで、利用可能なすべての非セキュアなポートを含めるようにこの数を増やすことができ ます
以下の iptables コマンドは、適切なポートで Floating IP 宛てのトラフィックをファイアウォールマーク 21 に割り当てます。これは、IPVS によって認識され、適切に転送されます。
/usr/sbin/iptables -t mangle -A PREROUTING -p tcp -d n.n.n.n/32 --dport 21 -j MARK --set-mark 21
/usr/sbin/iptables -t mangle -A PREROUTING -p tcp -d n.n.n.n/32 --dport 10000:20000 -j MARK --set-mark 21
iptables コマンドの n.n.n.n は、keepalived.conf ファイルの virtual_server サブセクションで定義される FTP 仮想サーバーのフローティング IP に置き換える必要があります。
上記のコマンドは即座に有効になりますが、保存されていないとシステムの再起動後に保持されません。変更を保存するには、以下のコマンドを実行します。
# iptables-save > /etc/sysconfig/iptables
システムの起動時に iptables サービスが開始されるようにするには、以下のコマンドを入力します。
# systemctl enable iptables
再起動時も変更が維持されていることを確認するには、以下のコマンドを実行して変更を確認してください。
# systemctl restart iptables

3.6. ネットワークパケットフィルター設定の保存

ユーザーの状況に応じた適切なネットワークパケットフィルターを設定した後は、 その設定を保存して再起動後に復元するようにします。iptables の場合は、以下のコマンドを入力します。
# iptables-save > /etc/sysconfig/iptables
システムの起動時に iptables サービスが開始されるようにするには、以下のコマンドを入力します。
# systemctl enable iptables
再起動時も変更が維持されていることを確認するには、以下のコマンドを実行して変更を確認してください。
# systemctl restart iptables

3.7. パケット転送および非ローカルバインディングの有効化

Keepalived サービスが適切にネットワークパケットを実サーバーへ転送するには、各ルーターノードのカーネルで IP 転送が有効になっている必要があります。root としてログインし、/etc/sysctl.confnet.ipv4.ip_forward = 0 を読み取る行を以下のように変更します。
net.ipv4.ip_forward = 1
システムを再起動すると変更が反映されます。
HAProxy と Keepalived で同時に負荷分散を行うには、ローカルシステムのデバイスに割り当てられていない非ローカル の IP アドレスへバインドする機能が必要になります。この機能により、フェイルオーバーの発生時に稼働しているロードバランサーインスタンスがローカルでない IP アドレスへバインドできるようになります。
有効にするには、net.ipv4.ip_nonlocal_bind を読み取る /etc/sysctl.conf の行を次のように編集します
net.ipv4.ip_nonlocal_bind = 1
システムを再起動すると変更が反映されます。
IP 転送が有効になっているかどうかを確認するには、root で以下のコマンドを実行します。
/usr/sbin/sysctl net.ipv4.ip_forward
非ローカルバインディングが有効になっているかどうかを確認するには、root で以下のコマンドを実行します。
/usr/sbin/sysctl net.ipv4.ip_nonlocal_bind
上記のコマンドの両方が 1 を返すと、それぞれの設定が有効になります。

3.8. 実サーバーでサービスを設定する

実サーバーが Red Hat Enterprise Linux システムであれば、適切なサーバーデーモンが起動時にアクティベートするように設定します。これらのデーモンには、Web サービスの httpd、FTP サービスまたは Telnet サービス用の xinetd を含めることができます。
また、実サーバーにリモートでアクセスすることが便利な場合もあります。そのため、sshd デーモンもインストールされ、実行されている必要があります。

第4章 Keepalived を用いたロードバランサーの初期設定

Load Balancer パッケージをインストールしたら、基本手順に従って Keepalived で使用する LVS ルーターと実サーバーを設定する必要があります。本章では、最初の手順を説明します。

4.1. 基本的な Keepalived の設定

この基本的な例では、2 つのシステムがロードバランサーとして設定されます。LB1 (Active)および LB2 (バックアップ)は、実際の IP アドレス 192.168.1.20 から 192.168.1.24 までの番号が付けられた httpd を実行する 4 つの Web サーバーのプールに対して要求をルーティングし、仮想 IP アドレス 10.0.0.1 を共有します。各ロードバランサーには 2 つのインターフェイス(eth0 および eth1)があります。1 つは外部インターネットトラフィックを処理するもので、もう 1 つは要求を実サーバーへのルーティング用です。ロードバランシングアルゴリズムにはラウンドロビンアルゴリズムが使用され、ルーティングの方法はネットワークアドレス変換になります。

4.1.1. keapalived.conf ファイルの作成

Keepalived は、ロードバランサーとして設定された各システムの keepalived.conf ファイルで設定されます。「基本的な Keepalived の設定」 の例のようなロードバランサートポロジーを作成するには、テキストエディターを使用して、アクティブなロードバランサーとバックアップロードバランサー、LB1 および LB2 の両方で keepalived.conf を開きます。以下に例を示します。
vi /etc/keepalived/keepalived.conf
「基本的な Keepalived の設定」 で説明されている設定で負荷分散される基本的なシステムには、以下のコードセクションで説明するように keepalived.conf ファイルがあります。この例では、keepalived.conf ファイルはアクティブルーターとバックアップルーターの両方で同じですが、で説明されている VRRP インスタンスを除く。 「VRRP インスタンス」

4.1.1.1. グローバル定義

keepalived.conf ファイルのグローバル定義セクションを使用すると、管理者はロードバランサーの変更時に通知の詳細を指定できます。グローバル定義は任意で、Keepalived の設定には必要ありません。keepalived.conf ファイルのこのセクションは、LB1 と LB2 の両方で同じです。
global_defs {

   notification_email {
       admin@example.com
   }
   notification_email_from noreply@example.com
   smtp_server 127.0.0.1
   smtp_connect_timeout 60
}
notification_email はロードバランサーの管理者であり、notification_email_from はロードバランサーの状態の変化を送信するアドレスです。SMTP 固有の設定で通知の送信元となるメールサーバーを指定します。

4.1.1.2. VRRP インスタンス

以下の例は、マスタールーターおよびバックアップルーターの keeplalived.conf ファイルの vrrp_sync_group スタンザを示しています。statepriority の値は、2 つのシステム間で異なることに注意してください。
以下の例は、マスタールーター LB1 の keepalived.conf ファイルの vrrp_sync_group スタンザを示しています。
vrrp_sync_group VG1 {
   group {
      RH_EXT
      RH_INT
   }
}

vrrp_instance RH_EXT {
    state MASTER
    interface eth0
    virtual_router_id 50
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass passw123
    }
    virtual_ipaddress {
    10.0.0.1
    }
}

vrrp_instance RH_INT {
   state MASTER
   interface eth1
   virtual_router_id 2
   priority 100
   advert_int 1
   authentication {
       auth_type PASS
       auth_pass passw123
   }
   virtual_ipaddress {
       192.168.1.1
   }
}
以下の例は、バックアップルーターの LB2 の keepalived.conf ファイルの vrrp_sync_group スタンザを示しています。
vrrp_sync_group VG1 {
   group {
      RH_EXT
      RH_INT
   }
}

vrrp_instance RH_EXT {
    state BACKUP
    interface eth0
    virtual_router_id 50
    priority 99
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass passw123
    }
    virtual_ipaddress {
    10.0.0.1
    }
}

vrrp_instance RH_INT {
   state BACKUP
   interface eth1
   virtual_router_id 2
   priority 99
   advert_int 1
   authentication {
       auth_type PASS
       auth_pass passw123
   }
   virtual_ipaddress {
       192.168.1.1
   }
}
この例では、vrrp_sync_group スタンザは、状態が変化(フェイルオーバーなど)される VRRP グループを定義します。インターネットと通信を行う外部インターフェイスに対するインスタンス (RH_EXT) の他、内部インターフェイスに対するインスタンス (RH_INT) も定義されています。
vrrp_instance ラインでは、VRRP サービスデーモンの仮想インターフェイス設定が反映され、仮想 IP インスタンスを作成します。この state MASTER は、アクティブなサーバーを指定します。state BACKUP は、バックアップサーバーを指定します。
interface パラメーターは、この仮想 IP インスタンスに物理的なインターフェイス名を割り当てます。
virtual_router_id は Virtual Router インスタンスの数値識別子です。これは、この Virtual Router に加わっているすべての LVS Router システムで同じでなければなりません。これは、同じネットワークインターフェイスで実行されている keepalived の複数のインスタンスを区別するために使用されます。
priority は、割り当てられたインターフェイスがフェイルオーバーの中で引き継ぐ順序を指定します。数字が大きいほど優先度が高くなります。この優先度の値は 0 から 255 の範囲内になければなりません。state MASTER として設定された負荷分散サーバーの優先値は、state BACKUP として設定されたサーバーの優先度の値よりも高い値に設定される必要があります。
authentication ブロックは、フェイルオーバーの同期にサーバーを認証するために使用される認証タイプ (auth_type) と パスワード (auth_pass) を指定します。PASS はパスワード認証を指定します。Keepalived は接続の整合性のために AH または認証ヘッダーもサポートします。
最後に、virtual_ipaddress オプションは、インターフェイスの仮想 IP アドレスを指定します。

4.1.1.3. 仮想サーバーの定義

keepalived.conf ファイルの Virtual Server 定義セクションは、LB1 と LB2 の両方で同じです。
virtual_server 10.0.0.1 80 {
    delay_loop 6
    lb_algo rr
    lb_kind NAT
    protocol TCP

    real_server 192.168.1.20 80 {
        TCP_CHECK {
                connect_timeout 10
        }
    }
    real_server 192.168.1.21 80 {
        TCP_CHECK {
                connect_timeout 10
        }
    }
    real_server 192.168.1.22 80 {
        TCP_CHECK {
                connect_timeout 10
        }
    }
    real_server 192.168.1.23 80 {
        TCP_CHECK {
                connect_timeout 10
        }
    }

}
このブロックでは、virtual_server は IP アドレスで最初に設定されます。次に、delay_loop はヘルスチェックの間隔 (秒単位) を設定します。lb_algo オプションは、可用性に使用するアルゴリズムの種類を指定します (この場合、rr はラウンドロビンを表します。利用できる lb_algo の値の一覧は、表4.1「仮想サーバーの lv_algo の値」 を参照してください)。lb_kind オプションは、ネットワークアドレス変換 (または nat) が使用されるルーティング方法を決定します。
仮想サーバーの詳細の設定後、最初に IP アドレスを指定して real_server オプションが設定されます。TCP_CHECK スタンザは、TCP を使用して実際のサーバーの可用性をチェックします。connect_timeout ではタイムアウトが発生するまでの時間を秒単位で設定します。
注記
ロードバランサーまたは実サーバーのいずれかからの仮想 IP アクセスはサポートされていません。また、実サーバーと同じマシン上でのロードバランサーの設定もサポートされていません。

表4.1 仮想サーバーの lv_algo の値

アルゴリズム名lv_algo value
ラウンドロビン (Round-Robin)
rr
加重ラウンドロビン (Weighted Round-Robin)
wrr
最小接続 (Least-Connection)
lc
加重最小接続 (Weighted Least-Connection)
wlc
ローカリティーベースの最小接続 (Locality-Based Least-Connection)
lblc
複製をともなうローカリティベースの最小接続スケジューリング (Locality-Based Least-Connection Scheduling with Replication)
lblcr
宛先ハッシュ (Destination Hash)
dh
ソースハッシュ (Source Hash)
sh
ソースの予期される遅延 (Source Expected Delay)
sed
キューに置かない (Never Queue)
nq

4.2. Keepalived ダイレクトルーティング設定

Keepalived のダイレクトルーティング設定は NAT での設定と似ています。次の例ではポート 80 で HTTP を実行している実サーバーのグループに負荷分散を提供するよう Keepalived が設定されています。ダイレクトルーティングを設定するには、lb_kind パラメーターを DR に変更します。その他の設定オプションについては、「基本的な Keepalived の設定」 を参照してください。
以下の例は、ダイレクトルーティングを使用する Keepalived 設定のアクティブサーバーの keepalived.conf ファイルを示しています。
global_defs {
   notification_email {
     admin@example.com
   }
   notification_email_from noreply_admin@example.com
   smtp_server 127.0.0.1
   smtp_connect_timeout 60
}

vrrp_instance RH_1 {
    state MASTER 
    interface eth0
    virtual_router_id 50
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass passw123
    }
    virtual_ipaddress {
        172.31.0.1
    }
}

virtual_server 172.31.0.1 80 {
    delay_loop 10
    lb_algo rr
    lb_kind DR
    persistence_timeout 9600
    protocol TCP

    real_server 192.168.0.1 80 {
        weight 1
        TCP_CHECK {
          connect_timeout 10
          connect_port    80
        }
    }
    real_server 192.168.0.2 80 {
        weight 1
        TCP_CHECK {
          connect_timeout 10
          connect_port    80
        }
    }
    real_server 192.168.0.3 80 {
        weight 1
        TCP_CHECK {
          connect_timeout 10
          connect_port    80
        }
    }
}
以下の例は、ダイレクトルーティングを使用するバックアップサーバーの keepalived.conf ファイルを示しています。state および priority の値は、アクティブなサーバーの keepalived.conf ファイルとは異なることに注意してください。
global_defs {
   notification_email {
     admin@example.com
   }
   notification_email_from noreply_admin@example.com
   smtp_server 127.0.0.1
   smtp_connect_timeout 60
}

vrrp_instance RH_1 {
    state BACKUP
    interface eth0
    virtual_router_id 50
    priority 99
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass passw123
    }
    virtual_ipaddress {
        172.31.0.1
    }
}

virtual_server 172.31.0.1 80 {
    delay_loop 10
    lb_algo rr
    lb_kind DR
    persistence_timeout 9600
    protocol TCP

    real_server 192.168.0.1 80 {
        weight 1
        TCP_CHECK {
          connect_timeout 10
          connect_port    80
        }
    }
    real_server 192.168.0.2 80 {
        weight 1
        TCP_CHECK {
          connect_timeout 10
          connect_port    80
        }
    }
    real_server 192.168.0.3 80 {
        weight 1
        TCP_CHECK {
          connect_timeout 10
          connect_port    80
        }
    }
}

4.3. サービスの開始

ロードバランサー設定のサーバー上で以下のコマンドを実行してサービスを起動します。
# systemctl start keepalived.service
再起動後も Keepalived サービスを維持する場合は、ロードバランサーの設定のサーバー上で以下のコマンドを実行します。
# systemctl enable keepalived.service

第5章 HAProxy の設定

本章では、可用性の高い環境に HAProxy を導入する際の一般的な設定オプションに焦点を置きながら基本的なセットアップの設定について説明していきます。
HAProxy は、負荷分散を行うための独自のスケジューリングアルゴリズムのセットを持っています。これらのアルゴリズムについては、「HAProxy のスケジューリングアルゴリズム」 を参照してください。
HAProxy は、/etc/haproxy/haproxy.cfg ファイルを編集して設定します。
HAProxy を使ったロードバランサーの設定は 5 つのセクションで設定されます。

5.1. HAProxy のスケジューリングアルゴリズム

負荷分散用の HAProxy スケジューリングアルゴリズムは、/etc/haproxy/haproxy.cfg 設定ファイルの backend セクションにある balance パラメーターで編集できます。HAProxy は複数のバックエンドを持つ設定をサポートし、各バックエンドにスケジューリングアルゴリズムを設定できます。
ラウンドロビン (ラウンドロビン
要求を順番に実サーバーのプールで分配します。このアルゴリズムを使用すると、容量や負荷に関係なく実サーバーはすべて同等に扱われます。このスケジューリングモデルはラウンドロビン DNS と似ていますが、ホストベースではなくネットワークベースであるため、粒度がより細かくなります。また、ロードバランサーのラウンドロビンスケジューリングでは、キャッシュされた DNS クエリーが原因で負荷が不均等になることはありません。しかし、HAProxy ではこのスケジューラーを使用するとサーバーの加重値をオンザフライで設定できるため、バックエンドごとにアクティブなサーバーの数が 4095 に制限されます。
静的ラウンドロビン (static-rr)
ラウンドロビンと同様に、要求を順番に実サーバーのプールで分配しますが、サーバーの加重値を動的に設定できません。しかし、サーバーの加重値が静的であるため、アクティブなサーバーの数はバックエンドごとに制限されません。
最小接続 (leastconn)
実際の接続が少ない実サーバーにより多くの要求を振り分けます。セッションや接続の長さが異なる動的な環境に適したスケジューラーです。また、このスケジューラーを使用すると管理者は加重値をオンザフライで調整できるため、異なる容量のサーバーが複数ある環境にも適しています。
ソース (ソース)
要求するソース IP アドレスをハッシュ化し、稼働するすべてのサーバーの加重値で割って要求を取得するサーバーを決定し、要求をサーバーに分配します。すべてのサーバーが稼働中である場合、ソース IP 要求は一貫して同じ実サーバーによって処理されます。稼働中のサーバーの数や加重値に変更があった場合、ハッシュまたは加重値の結果が変わるため、セッションが別のサーバーに移動される可能性があります。
URI (uri)
URI 全体 (または URI の設定可能な部分) をハッシュ化し、稼働するすべてのサーバーの加重値で割ってサーバーへ要求を分配します。アクティブなサーバーがすべて稼働中である場合、宛先 IP 要求は一貫して同じ実サーバーによって処理されます。このスケジューラーを追加設定するには、URI のディレクトリー部分の最初にある文字列の長さでハッシュ化の結果を算出し、URI のディレクトリーの深さ (URI のスラッシュによる) でハッシュ化の結果を算出します。
URL パラメーター (url_param)
ソース URL 要求の特定のパラメーター文字列を検索し、ハッシュの計算を稼働中のすべてのサーバーの加重値で割って、サーバーへの要求を分配します。URL にパラメーターがない場合、スケジューラーはラウンドロビンスケジューリングをデフォルトとして使用します。POST パラメーターを基にした修飾子が使用されたり、ハッシュ化の結果を算出する前に管理者が特定パラメーターの重さに割り当てる最大オクテットの数を基にした待機制限が使用されることがあります。
ヘッダー名 (hdr)
各リソース HTTP 要求の特定のヘッダー名をチェックし、ハッシュの計算を稼働中のサーバーすべての加重値で割って、サーバーへ要求を分配します。ヘッダーがない場合は、スケジューラーはデフォルトでラウンドロビンスケジューリングを使用します。
RDP Cookie (rdp-cookie)
各 TCP 要求に対して RDP クッキーを検索し、ハッシュの計算を稼働中のサーバーすべての加重値で割って、サーバーへ要求を分配します。ヘッダーがない場合は、スケジューラーはデフォルトでラウンドロビンスケジューリングを使用します。この方法はセッションの整合性を維持するため、永続化に適しています。

5.2. グローバル設定

グローバル 設定は、HAProxy を実行するすべてのサーバーに適用されるパラメーターを設定します。一般的な global セクションは以下のようになります。

global
    log 127.0.0.1 local2
    maxconn 4000
    user haproxy
    group haproxy
    daemon
上記の設定では、管理者は、すべてのエントリーをローカル syslog サーバーに 記録 するように サービスを設定している。デフォルトでは、これは /var/log/syslog または一部のユーザー指定の場所になります。
maxconn パラメーターは、サービスの同時接続の最大数を指定します。デフォルトの最大数は 2000 です。
user パラメーターおよび group パラメーターは、haproxy プロセスが属するユーザー名およびグループ名を指定します。
最後に、daemon パラメーターは haproxy をバックグラウンドプロセスとして実行するように指定します。

5.3. デフォルトの設定

デフォルト 設定では、設定内のすべてのプロキシーサブセクションに適用されるパラメーター(フロント エンド、バックエンド、および リッスン)を設定します。一般的な default セクションは以下のようになります。
注記
proxy サブセクションで設定されたパラメーター(frontendbackend、または listen)は、デフォルト の パラメーターの値よりも優先されます。

defaults
    mode                    http
    log                     global
    option                  httplog
    option                  dontlognull
    retries                 3
    timeout http-request    10s
    timeout queue           1m
    timeout connect         10s
    timeout client          1m
    timeout server          1m
mode は、HAProxy インスタンスのプロトコルを指定します。http モードを使用すると、HTTP に基づいてソース要求が実サーバーに接続されます。Web サーバーの負荷分散に最適です。他のアプリケーションの場合は tcp モードを使用します。
log は、ログエントリーが書き込まれる syslog ファシリティとログアドレスを指定します。global 値は、HAProxy インスタンスを global セクションの log パラメーターで指定されたものを参照します。
option httplog は、HTTP リクエスト、セッションステータス、接続番号、ソースアドレス、他の値間の接続タイマーなど、HTTP セッションのさまざまな値のロギングを有効にします。
オプション dontlognull は null 接続のロギングを無効にします。つまり、HAProxy はデータが転送されていない接続をログに記録しません。この設定はインターネット経由の web アプリケーションを使用するなどの環境、つまり脆弱性を狙ってポートスキャンを開くなど悪意のある動きを null 接続で検出できるような場合には推奨できません。
retries は、最初の試行で接続に失敗した後に実サーバーが接続要求を再試行する回数を指定します。
さまざまな タイムアウト 値は、特定のリクエスト、接続、または応答の非アクティブ時間の長さを指定します。これらの値は、明示的な指定がある場合を除きミリ秒単位で指定されます。ただし、数値に単位を接頭辞として追加することで、他の単位でも示すことが可能です。サポートされる単位は、us (マイクロ秒)、ms (ミリ秒)、s (秒)、m (分)、h (時間)、および d (日) です。http-request 10s は、クライアントからの完全な HTTP 要求を待つために 10 秒を示します。Queue 1m は、接続がドロップされるまで待機する時間を 1 分に設定し、クライアントは 503 または Service Unavailable エラーを受け取ります。connect 10s は、サーバーへの正常な接続を待機する秒数を指定します。client 1m は、クライアントが非アクティブのままにできる時間(分単位)を指定します(データを受け入れも送信もしません)。Server 1m は、タイムアウトが発生する前にサーバーがデータを許可または送信するように与えられる時間(分単位)を指定します。

5.4. Frontend 設定

frontend 設定は、クライアント接続要求に対してサーバーのリッスンソケットを設定します。frontend の典型的な HAProxy 設定は以下のようになります。

frontend  main
  bind 192.168.0.10:80
  default_backend app
main という フロントエンド は、IP アドレス 192.168.0.10 に設定され、bind パラメーターを使用してポート 80 をリッスンします。接続が完了すると、use backend はすべてのセッションが アプリケーション バックエンドに接続するように指定します。

5.5. バックエンドの設定

バックエンド 設定は、実際のサーバーの IP アドレスとロードバランサースケジューリングアルゴリズムを指定します。以下の例は、典型的な backend セクションを示しています。

backend app
   balance     roundrobin
   server  app1 192.168.1.1:80 check
   server  app2 192.168.1.2:80 check
   server  app3 192.168.1.3:80 check inter 2s rise 4 fall 3
   server  app4 192.168.1.4:80 backup
バックエンドサーバーの名前は app です。balance は、使用するロードバランサースケジューリングアルゴリズムを指定します。この場合はラウンドロビン(ラウンドロビン)ですが、HAProxy でサポートされる任意のスケジューラーにすることができます。HAProxy でのスケジューラーの設定については、「HAProxy のスケジューリングアルゴリズム」 を参照してください。
server 行は、バックエンドで利用可能なサーバーを指定します。app1 から app4 は、各実サーバーに内部で割り当てられる名前です。ログファイルは名前でサーバーメッセージを指定します。アドレスは割り当てられた IP アドレスです。この IP アドレスのコロンの後の値は、接続が特定のサーバーで行われたポート番号に対するものです。check オプションは、定期的なヘルスチェックのためにサーバーにフラグを立て、利用可能で、データを送受信でき、セッションリクエストを実行できることを確認します。サーバー app3 は、ヘルスチェックの間隔を 2 秒(inter 2 秒)に設定し(inter 2s)、app3 のチェックに合格して、サーバーが正常であると判断されている(ブレーズ4)、およびサーバーが失敗とみなされるまでチェックを連続して失敗させる回数(フォールバック 3)も設定します。

5.6. haproxy の開始

HAProxy サービスを開始するには、以下のコマンドを入力します。
# systemctl start haproxy.service
再起動後も HAProxy サービスを維持する場合は次のコマンドを入力します。
# systemctl enable haproxy.service

5.7. rsyslog への HAProxy メッセージのロギング

/dev/log ソケットに書き込むことで、HAProxy メッセージを rsyslog に記録するようにシステムを設定できます。また、TCP ループバックアドレスを対象にすることもできますが、パフォーマンスが遅くなります。
以下の手順では、メッセージを rsyslog に記録するように HAProxy を設定します。
  1. HAProxy 設定ファイルの global セクションで、log ディレクティブを使用して /dev/log ソケットをターゲットにします。
    log /dev/log local0
    
  2. フロント エンド、バックエンド、および listen プロキシーを更新して、HAProxy 設定ファイルの global セクションで設定した rsyslog サービスにメッセージを送信します。これを行うには、以下に示すように、設定ファイルの defaults セクションに log global ディレクティブを追加します。
    defaults
        log global
        option httplog
    
  3. chroot 環境内で HAProxy を実行している場合、または chroot 設定ディレクティブを使用して HAProxy に chroot ディレクトリーを作成する場合は、その chroot ディレクトリー内で利用できるようにする必要があります。これを行うには、rsyslog 設定を変更し、chroot ファイルシステム内に新しいリスニングソケットを作成します。これを行うには、以下の行を rsyslog 設定ファイルに追加します。
    $ModLoad imuxsock
    $AddUnixListenSocket PATH_TO_CHROOT/dev/log
    
  4. HAProxy ログメッセージの表示内容と場所をカスタマイズするには、『システム管理者のガイドの Rsyslog の基本設定 の 説明に従って rsyslog フィルターを使用します。

付録A 設定例: HAProxy および Keepalived を用いた Ceph Object Gateway サーバーの負荷分散

本付録では、Ceph クラスターにおける HAProxy および Keepalived の設定例を説明します。Ceph Object Gateway を使用すると、オブジェクトゲートウェイの多くのインスタンスを 1 つのゾーンに割り当てできるため、負荷の増加に合わせて拡張することができます。各オブジェクトゲートウェイは独自の IP アドレスを持つため、HAProxy および keepalived を使用して Ceph Object Gateway サーバー全体で負荷を分散できます。
この設定では、HAProxy は Ceph Object Gateway サーバー全体で負荷分散を行います。 Keepalived は、Ceph Object Gateway サーバーの仮想 IP アドレスの管理および HAProxy の監視に使用されます。
HAProxy および keepalived では、HAProxy サーバーで HTTPS を終了するユースケースがあります。Red Hat Ceph Storage (RHCS) 1.3.x は Civetweb を使用しますが、RHCS 1.3.x の実装は HTTPS をサポートしません。HAProxy サーバーを使用して HAProxy サーバーで HTTPS を終了でき、HAProxy サーバーと Civetweb ゲートウェイインスタンスの間で HTTP を使用できます。この例には、手順の一部としてこの設定が含まれます。

A.1. 前提条件

Ceph Object Gateway で HAProxy を設定するには、以下が必要になります。
  • 稼働中の Ceph クラスター
  • ポート 80 で実行されるよう設定された同じゾーン内の Ceph Object Gateway サーバー 2 台以上
  • HAProxy および keepalived のサーバー 2 台以上
注記
この手順では、2 台以上の Ceph Object Gateway サーバーが実行され、ポート 80 上でテストスクリプトを実行すると有効な応答が返されることを前提とします。

A.2. HAProxy ノードの準備

以下の設定では、haproxyhaproxy2 という名前の 2 つの HAProxy ノードと、rgw1 および rgw2 という名前の 2 つの Ceph Object Gateway サーバーを想定しています。希望の命名規則を使用できます。以下の手順を 2 つの HAProxy ノードで実行します。
  1. Red Hat Enterprise Linux 7 をインストールします。
  2. ノードを登録します。
    # subscription-manager register
  3. Red Hat Enterprise Linux 7 サーバーリポジトリーを有効にします。
    # subscription-manager repos --enable=rhel-7-server-rpms
  4. サーバーを更新します。
    # yum update -y
  5. 必要に応じて管理ツール( wgetvim など)をインストールします。
  6. ポート 80 を開きます。
    # firewall-cmd --zone=public --add-port 80/tcp --permanent
    # firewall-cmd --reload
  7. HTTPS 用にポート 443 を開きます。
    # firewall-cmd --zone=public --add-port 443/tcp --permanent
    # firewall-cmd --reload

A.3. keepalived のインストールおよび設定

以下の手順を 2 つの HAProxy ノードで実行します。
  1. keepalived をインストールします。
    # yum install -y keepalived
  2. keepalived を設定します。
    # vim /etc/keepalived/keepalived.conf
    以下の設定には、HAProxy のプロセスをチェックするスクリプトがあります。インスタンスはネットワークインターフェイスとして eth0 を使用し、haproxy をマスターサーバーとして使用し、haproxy2 をバックアップサーバーとして設定します。また、インスタンスは仮想 IP アドレス 192.168.0.100 を割り当てます。
    vrrp_script chk_haproxy {
      script "killall -0 haproxy" # check the haproxy process
      interval 2 # every 2 seconds
      weight 2 # add 2 points if OK
    }
    
    vrrp_instance VI_1 {
      interface eth0 # interface to monitor
      state MASTER # MASTER on haproxy, BACKUP on haproxy2
      virtual_router_id 51
      priority 101 # 101 on haproxy, 100 on haproxy2
      virtual_ipaddress {
        192.168.0.100 # virtual ip address
      }
      track_script {
        chk_haproxy
      }
    }
    
  3. keepalived を有効化し、開始します。
    # systemctl enable keepalived
    # systemctl start keepalived

A.4. HAProxy のインストールおよび設定

以下の手順を 2 つの HAProxy ノードで実行します。
  1. haproxy をインストールします。
    # yum install haproxy
  2. SELinux および HTTP の haproxy を設定します。
    # vim /etc/firewalld/services/haproxy-http.xml
    以下の行を追加します。
    <?xml version="1.0" encoding="utf-8"?>
    <service>
    <short>HAProxy-HTTP</short>
    <description>HAProxy load-balancer</description>
    <port protocol="tcp" port="80"/>
    </service>
    
    root として、正しい SELinux コンテキストとファイルパーミッションを haproxy-http.xml ファイルに割り当てます。
    # cd /etc/firewalld/services
    # restorecon haproxy-http.xml
    # chmod 640 haproxy-http.xml
  3. HTTPS を使用する場合は、SELinux および HTTPS に対して haproxy を設定します。
    # vim /etc/firewalld/services/haproxy-https.xml
    以下の行を追加します。
    <?xml version="1.0" encoding="utf-8"?>
    <service>
    <short>HAProxy-HTTPS</short>
    <description>HAProxy load-balancer</description>
    <port protocol="tcp" port="443"/>
    </service>
    
    root として、正しい SELinux コンテキストとファイルパーミッションを haproxy-https.xml ファイルに割り当てます。
    # cd /etc/firewalld/services
    # restorecon haproxy-https.xml
    # chmod 640 haproxy-https.xml
  4. HTTPS を使用する場合は、SSL のキーを生成します。証明書がない場合は、自己署名証明書を使用できます。キーの生成や自己署名証明書に関する詳細は、Red Hat Enterprise Linux の『システム管理者のガイド』を参照してください。
    最後に、証明書と鍵を PEM ファイルに格納します。
    # cat example.com.crt example.com.key > example.com.pem
    # cp example.com.pem /etc/ssl/private/
  5. HAProxy を設定します。
    # vim /etc/haproxy/haproxy.cfg
    haproxy.cfgglobal セクションおよび defaults セクションは変更されません。以下の例のように、defaults セクションの後に frontend セクションおよび backend セクションを設定する必要があります。
    frontend http_web *:80
        mode http
        default_backend rgw
    
    frontend rgw­-https
      bind <insert vip ipv4>:443 ssl crt /etc/ssl/private/example.com.pem
      default_backend rgw
    
    backend rgw
        balance roundrobin
        mode http
        server  rgw1 10.0.0.71:80 check
        server  rgw2 10.0.0.80:80 check
    
  6. haproxyの有効化/起動
    # systemctl enable haproxy
    # systemctl start haproxy

A.5. HAProxy 設定のテスト

HAProxy ノードで、keepalived 設定からの仮想 IP アドレスが表示されることを確認します。
$ ip addr show
calamari ノードで、ロードバランサー設定を使用してゲートウェイノードに接続できるか確認します。以下に例を示します。
$ wget haproxy
上記のコマンドの結果は以下のコマンドと同じになるはずです。
$ wget rgw1
以下の内容を含む index.html ファイルが返されると、設定は適切に機能しています。
<?xml version="1.0" encoding="UTF-8"?>
	<ListAllMyBucketsResult xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
		<Owner>
			<ID>anonymous</ID>
			<DisplayName></DisplayName>
		</Owner>
		<Buckets>
		</Buckets>
	</ListAllMyBucketsResult>

付録B 改訂履歴

改訂履歴
改訂 4.1-1Wed Aug 7 2019Steven Levine
7.7 GA 公開用ドキュメントの準備
改訂 3.1-2Thu Oct 4 2018Steven Levine
7.6 GA 公開用ドキュメントの準備
改訂 2.1-1Thu Mar 15 2018Steven Levine
7.5 GA 公開用ドキュメントの準備
改訂 2.1-0Thu Dec 14 2017Steven Levine
7.5 ベータ版公開用ドキュメントの準備
改訂 0.6-5Wed Nov 22 2017Steven Levine
7.4 のバージョンを更新
改訂 0.6-3Thu Jul 27 2017Steven Levine
7.4 GA 公開用ドキュメントバージョン
改訂 0.6-1Wed May 10 2017Steven Levine
7.4 ベータ版公開用ドキュメントの準備
改訂 0.5-9Mon Dec 5 2016Steven Levine
7.3 のバージョンを更新
改訂 0.5-7Mon Oct 17 2016Steven Levine
7.3 GA 公開用バージョン
改訂 0.5-6Thu Aug 18 2016Steven Levine
7.3 Beta 公開用ドキュメントの準備
改訂 0.3-2Mon Nov 9 2015Steven Levine
7.2 GA 公開用ドキュメントの準備。
改訂 0.3-0Wed Aug 19 2015Steven Levine
7.2 ベータ公開用ドキュメントの準備
改訂 0.2-6Mon Feb 16 2015Steven Levine
7.1 GA リリース向けのバージョン
改訂 0.2-5Thu Dec 11 2014Steven Levine
7.1 ベータリリース向けバージョン
改訂 0.2-4Thu Dec 04 2014Steven Levine
7.1 ベータリリース向けバージョン
改訂 0.1-12Tue Jun 03 2014John Ha
7.0 GA リリース向けバージョン
改訂 0.1-6Mon Jun 13 2013John Ha
Red Hat Enterprise Linux 7 のベータ向けビルド
改訂 0.1-1 Wed Jan 16 2013John Ha
Red Hat Enterprise Linux 6 バージョンのドキュメントからブランチ作成

索引

シンボル

ジョブスケジューリング、Keepalived , keepalived スケジューリングの概要
スケジューリング、ジョブ (Keepalived ), keepalived スケジューリングの概要
ダイレクトルーティング
arptables, arptables を使用したダイレクトルーティング
firewalld, firewalld を使用したダイレクトルーティング
パケット転送, パケット転送および非ローカルバインディングの有効化
(参照 ロードバランサー)
マルチポートサービス, マルチポートサービスとロードバランサー
(参照 ロードバランサー )
ラウンドロビン (参照 ジョブスケジューリング、Keepalived )
リアルタイム
サービスの設定, 実サーバーでサービスを設定する
ルーティング
ロードバランサーの前提条件 , NAT を使用するロードバランサーのネットワークインターフェイス設定
ロードバランサー
3 層, 3 層の keepalived ロードバランサーの設定
HAProxy, haproxy
HAProxy および Keepalived, keepalived および haproxy
keepalived, 基本的な Keepalived の設定, Keepalived ダイレクトルーティング設定
keepalived デーモン, keepalived
NAT ルーティング
要件、ソフトウェア, NAT ロードバランサーネットワーク
要件、ネットワーク, NAT ロードバランサーネットワーク
要件、ハードウェア, NAT ロードバランサーネットワーク
ダイレクトルーティング
arptables, arptables を使用したダイレクトルーティング
firewalld, firewalld を使用したダイレクトルーティング
要件、ソフトウェア, ダイレクトルーティング, ダイレクトルーティングを使用するロードバランサー
要件、ネットワーク, ダイレクトルーティング, ダイレクトルーティングを使用するロードバランサー
要件、ハードウェア, ダイレクトルーティング, ダイレクトルーティングを使用するロードバランサー
パケット転送, パケット転送および非ローカルバインディングの有効化
マルチポートサービス, マルチポートサービスとロードバランサー
FTP, FTP の設定
ルーティングの前提条件, NAT を使用するロードバランサーのネットワークインターフェイス設定
ルーティングメソッド
NAT, ルーティングメソッド
加重ラウンドロビン (Weighted Round-Robin) (参照 ジョブスケジューリング、Keepalived )
加重最小接続 (Weighted Least-Connections) (参照 ジョブスケジューリング、Keepalived )
最小接続 (Least-Connection) (参照 ジョブスケジューリング、Keepalived )

F

firewalld, firewalld を使用したダイレクトルーティング
FTP, FTP の設定
(参照 ロードバランサー )

H

HAProxy, haproxy
HAProxy および Keepalived, keepalived および haproxy

K

keepalived
ジョブのスケジュール, keepalived スケジューリングの概要
スケジューリング、ジョブ, keepalived スケジューリングの概要
初期設定, Keepalived を用いたロードバランサーの初期設定
設定, 基本的な Keepalived の設定
設定ファイル, keapalived.conf ファイルの作成
keepalived の設定
ダイレクトルーティング, Keepalived ダイレクトルーティング設定
keepalived デーモン, keepalived
keepalived.conf, keapalived.conf ファイルの作成
Keepalivedd
LVS ルーター
プライマリーノード, Keepalived を用いたロードバランサーの初期設定

N

NAT
ルーティングメソッド、ロードバランサー , ルーティングメソッド
有効化, LVS ルーターでの NAT ルーティングの有効化
Network Address Translation (参照 NAT)

法律上の通知

Copyright © 2018 Red Hat, Inc.
This document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License.If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original.If the document is modified, all Red Hat trademarks must be removed.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent.Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission.We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.