Red Hat Training

A Red Hat training course is available for Red Hat OpenStack Platform

第4章 アーキテクチャー例

本章では、Red Hat OpenStack Platform デプロイメントのアーキテクチャー例のリファレンスを記載します。

注記

本ガイドに記載のアーキテクチャーの例はすべて、Red Hat Enterprise Linux 7.2 に OpenStack Platform をデプロイして、KVM ハイパーバイザーを使用することを前提としています。

4.1. 概要

通常、デプロイメントはパフォーマンスまたは機能性をベースにします。デプロイメントは、デプロイするインフラストラクチャーをベースにすることもできます。

表4.1 機能性またはパフォーマンスをベースとするデプロイメント

説明

「汎用アーキテクチャー」

特定の技術的または環境の要件が不明な場合に使用する一般的な高可用性クラウド。このアーキテクチャータイプは、柔軟性が高く、単一の OpenStack コンポーネントを重視しているわけではないので、特定の環境に制限されません。

「コンピュートを重視したアーキテクチャー」

コンピューティング集約型のワークロードを特にサポートする、コンピュートを重視したクラウド。コンピューティング集約型のワークロードは、データのコンピューティング、暗号化、暗号化解除などの CPU 集約型のワークロードを意味する場合もあります。また、インメモリーキャッシュ、データベースサーバーなどのメモリー集約型のワークロードや、CPU とメモリーの両方を集中的に使用するワークロードを意味する場合もあります。通常は、ストレージ集約型またはネットワーク集約型ではありません。このアーキテクチャータイプは、ハイパフォーマンスのコンピュトソースが必要な場合に選択することができます。

「データ分析アーキテクチャー」

Hadoop クラスターなどの大量のデータの管理/分析向けに設計された、パフォーマンス重視のストレージシステム 。このアーキテクチャータイプでは、 OpenStack は Hadoop と統合し、Ceph をストレージバックエンドとして使用して Hadoop クラスターを管理します。

「ハイパフォーマンスデータベースアーキテクチャー」

データベースの IO 要件が高いことを想定し、ソリッドステートドライブ (SSD) を使用してデータを処理するハイパフォーマンスストレージシステム。このアーキテクチャータイプは、既存のストレージ環境に使用することができます。

「クラウドのストレージとバックアップのアーキテクチャー」

OpenStack デプロイメントで一般的に使用されているクラウドベースのファイルストレージ/共有サービス。このアーキテクチャータイプは、クラウドトラフィックの受信データが送信データを上回る場合にクラウドバックアップアプリケーションを使用します。

「大規模な Web アプリケーション向けのアーキテクチャー」

大規模な Web アプリケーション向けのハードウェアベースのロードバランシングクラスター。このアーキテクチャータイプは、SSL オフロード機能を提供し、テナントネットワークに接続してアドレスの消費を低減し、Web アプリケーションを水平スケーリングします。

4.2. 汎用アーキテクチャー

具体的な技術/環境のニーズが不明な場合には、汎用の高可用性クラウドをデプロイすることができます。この柔軟なアーキテクチャータイプは、単一の OpenStack コンポーネントを重視していないので、特定の環境には制限されません。

このアーキテクチャータイプは、以下を含む潜在的なユースケースの 80% に対応します。

  • シンプルなデータベース
  • Web アプリケーションランタイム環境
  • 共有アプリケーション開発環境
  • テスト環境
  • スケールアップ型ではなくスケールアウト型の拡張を必要とする環境

このアーキテクチャータイプは、高度なセキュリティーを必要とするクラウドドメインには推奨されません。

注記

インストールおよびデプロイメントに関する説明は、「5章デプロイメントの情報」を参照してください。

4.2.1. ユースケースの例

あるインターネット広告会社では、Apache Tomcat、Nginx、MariaDB を含む Web アプリケーションをプライベートクラウドで実行することを検討しています。ポリシー要件を満たすために、クラウドインフラストラクチャーはその会社のデータセンター内で稼働します。

同社は、予想可能な負荷の要件がありますが、毎晩の需要拡大に対応するためのスケーリングを必要としています。現在の環境には、オープンソースの API 環境を稼働するという同社の目標に対応するための柔軟性がありません。

現在の環境は以下のコンポーネントで構成されています。

  • Nginx および Tomcat をインストールしたシステムが 120 - 140。各システムには 2 つの仮想 CPU と 4 GB のメモリーを搭載。
  • 3 ノードの MariaDB および Galera のクラスター。それぞれ 4 つの仮想 CPU と 8 GB のメモリーを搭載。Galera ノードの管理には Pacemaker を使用。

同社は、ハードウェアロードバランサーと、Web サイトにサービスを提供する複数の Web アプリケーションを実行しています。環境のオーケストレーションには、スクリプトと Puppet を併用しています。Web サイトはアーカイブが必要な大量のログデータを毎日生成します。

4.2.2. 設計について

この例のアーキテクチャーには、3 つのコントローラーノードと、少なくとも 8 つの Compute ノードが含まれます。静的オブジェクトには OpenStack Object Storage を、その他すべてのストレージニーズには OpenStack Block Storage を使用します。

OpenStack インフラストラクチャーの高可用性を確保するために、ノードは Red Hat Enterprise Linux 用の Pacemaker アドオンと HAProxy を併用します。

RHEL OSP arch 347192 1015 JCS Ex Basic Arch

このアーキテクチャーには以下のコンポーネントが含まれます。

  • 一般向けのネットワーク接続用のファイアウォール、スイッチ、ハードウェアロードバランサー
  • Image、Identity、Networking を実行する OpenStack コントローラーサービスにサポートサービスとして MariaDB と RabbitMQ を組み合わせます。これらのサービスは、少なくとも 3 つのコントローラーノード上で高可用性に設定されます。
  • クラウドノードは、Red Hat Enterprise Linux 用の Pacemaker アドオンとともに高可用性に設定されます。
  • Compute ノードは、永続ストレージが必要なインスタンスに OpenStack Block Storage を使用します。
  • OpenStack Object Storage はイメージなどの静的オブジェクトに対応します。

4.2.3. アーキテクチャーコンポーネント

コンポーネント説明

Block Storage

インスタンス用の永続ストレージ

Compute コントローラーサービス

Compute の管理とコントローラー上で実行するサービスのスケジューリング

Dashboard

OpenStack の管理用 Web コンソール

Identity

ユーザーおよびテナントの基本的な認証と承認

Image

インスタンスの起動とスナップショットの管理に使用するイメージを保管します。

MariaDB

全 OpenStack コンポーネント用のデータベース。MariaDB サーバーインスタンスは、NetApp や Solidfire などの共有エンタープライズストレージ上のデータを保管します。MariaDB インスタンスに障害が発生した場合には、ストレージは再度他のインスタンスにアタッチして Galera クラスターに再び参加させる必要があります。

ネットワーク

プラグインと Networking API を使用してハードウェアバランサーを制御します。OpenStack Object Storage を拡張する場合には、ネットワーク帯域幅の要件を考慮する必要があります。OpenStack Object Storage は、ネットワーク接続スピードが 10 GbE 以上で実行することを推奨します。

Object Storage

Web アプリケーションサーバーからのログを処理し、アーカイブします。また、Object Storage を使用して静的な Web コンテンツを OpenStack Object Storage コンテナーから移動したり、または OpenStack Image で管理されているイメージをバックアップすることもできます。

Telemetry

その他の OpenStack サービスのモニタリングとレポーティング

4.2.4. Compute ノードの要件

Compute サービスは、各 Compute ノードにインストールされます。

この汎用アーキテクチャーでは、最大で 140 の Web インスタンスを実行可能で、少数の MariaDB インスタンスに 292 の仮想 CPU と 584 GB のメモリーが必要です。ハイパースレッディング対応で、デュアルソケット、ヘキサコア の Intel CPU を搭載した標準的な 1U サーバーで、2:1 CPU オーバーコミット比を前提とする場合、このアーキテクチャーには 8 Compute ノードが必要です。

Web アプリケーションインスタンスは、各 Compute ノードのローカルストレージから起動します。Web アプリケーションインスタンスはステートレスなので、いずれか 1 つのインスタンスにエラーが発生した場合でも、アプリケーションは実行を継続することができます。

4.2.5. ストレージ要件

ストレージには、サーバーにストレージを直接アタッチする、スケールアウト型ソリューションを使用します。たとえば、グリッドコンピューティングソリューションと同様の方法でコンピュートホストにストレージを追加したり、ブロックストレージのみを提供する専用のホストに追加することが可能です。

コンピュートホストにストレージをデプロイする場合には、ハードウェアがストレージとコンピュートのサービスを処理できることを確認してください。

4.3. コンピュートを重視したアーキテクチャー

注記

セルは、本リリースではテクノロジープレビューとして提供しているため、Red Hat では全面的にはサポートしていません。これは、テスト目的のみでご利用いただく機能で、実稼働環境にデプロイすべきではありません。 テクノロジープレビューについての詳しい情報は Scope of Coverage Details を参照してください。

コンピュートを重視したクラウドは、データのコンピューティング、暗号化、暗号化解除などの CPU 集約型のワークロードと、インメモリーキャッシングやデータベースサーバーなどのメモリー集約型のワークロード、またはそれらの両方をサポートします。このアーキテクチャータイプは、通常はストレージやネットワークを集中的には使用せず、コンピュートリソースの能力を求めている顧客が対象です。

コンピュートを重視したワークロードには、以下のようなユースケースが含まれます。

  • ハイパフォーマンスコンピューティング (HPC)
  • Hadoop または他の分散型データストアを使用したビッグデータの分析
  • 継続的インテグレーションまたは継続的デプロイ (CI/CD)
  • Platform-as-a-Service (PaaS)
  • ネットワーク機能仮想化 (NFV) のシグナル処理

コンピュートを重視した OpenStack クラウドは、ほとんどの場合、永続ブロックストレージを必要とするアプリケーションをホストしないので、通常 RAW ブロックストレージサービスは使用しません。インフラストラクチャーのコンポーネントは共有されないので、ワークロードは利用可能なリソースを必要なだけ多く消費することができます。インフラストラクチャーのコンポーネントには、高可用性も必要です。この設計は、ロードバランサーを使用します。HAProxy を使用することも可能です。

注記

インストールおよびデプロイメントに関する説明は、「5章デプロイメントの情報」を参照してください。

4.3.1. ユースケースの例

ある組織では、研究プロジェクト用に HPC を提供しており、ヨーロッパにある 2 つの既存のコンピュートセンターに加えて、第 3 のコンピュートセンターを追加する必要があります。

以下の表には、各コンピュートセンターが追加すべき要件をまとめています。

データセンターキャパシティーの概算

スイス、ジェノバ

  • 3.5 メガワット
  • 91000 コア
  • 120 PB HDD
  • 100 PB テープ
  • 310 TB メモリー

ハンガリー、ブダペスト

  • 2.5 メガワット
  • 20000 コア
  • 6 PB HDD

4.3.2. 設計について

このアーキテクチャーでは、コンピュートリソースの分離と異なるデータセンター間での透過的なスケーリングにセルを使用します。この決定は、セキュリティーグループとライブマイグレーションのサポートに影響を及ぼす上、フレーバーなどの設定要素をセル間で手動で複製する必要がありますが、セルは単一のパブリック API エンドポイントをユーザーに公開すると同時に、必要なスケーリングを提供します。

クラウドは、元のデータセンター 2 つにそれぞれコンピュートセルを 1 つずつ使用し、新規データセンターが追加されると新なコンピュートセルを作成します。各セルには、コンピュートリソースと、高可用性のためにミラーリングされたキューを使用するクラスタリング用に設定された最小 3 つの RabbitMQ メッセージブローカーをさらに分離するためのアベイラビリティーゾーンが 3 つ含まれます。

HAProxy ロードバランサーの背後に常駐する API セルは、スイスのデータセンターにあります。この API セルは、カスタマイズされた種類のセルスケジューラーを使用して、API コールをコンピュートセルに転送します。カスタマイズにより、セルの使用可能なメモリーに応じて、特定のワークロードを特定のデータセンターまたは全データセンターにルーティングすることが可能となります。

RHEL OSP arch 347192 1015 JCS Ex Compute Arch

フィルターを使用してセル内の配置を処理する Compute のスケジューラーをカスタマイズすることも可能です。たとえば、ImagePropertiesFilter は、ゲストが実行するのオペレーティングシステム (例: Linux、Windows など) に応じて、特別な処理を行います。

中央データベースチームは、 NetApp ストレージバックエンドを使用す active/passive 構成の各セル内の SQL データベースサーバーを管理します。バックアップは 6 時間ごとに実行されます。

4.3.3. アーキテクチャーコンポーネント

コンポーネント説明

Compute

Compute の管理およびスケジューリングサービスは、コントローラー上で実行されます。Compute サービスは、各コンピュートノード上でも実行されます。

Dashboard サービス

OpenStack 管理のための GUI

Identity サービス

基本的な認証と承認

Image サービス

API セル内で実行され、オーケストレーションツールがアプリケーションを配置することができる少数の Linux イメージセットを維持管理します。

ネットワーク

ネットワークサービス。OpenStack Networking についての詳しい情報は、「2章ネットワークに関する詳細」を参照してください。

モニタリング

Telemetry サービスは、シャード化および複製された MongoDB バックエンドでプロジェクトのクォータを調整するための計測を行います。API の負荷を分散するには、openstack-nova-api サービスのインスタンスを子セル内にデプロイして、Telemetry がそれに対してクエリーを実行できるようにします。このデプロイメントには、子セル内で Identity サービスや Image サービスなどの関連サービスの設定も必要です。キャプチャーすべき重要なメトリックには、Image のディスク使用率や Compute API への応答時間などがあります。

Orchestration サービス

新規インスタンスを自動的にデプロイ/テストします。

Telemetry サービス

オーケストレーションの自動スケーリング機能をサポートします。

Object Storage

3 PB の Ceph クラスターでオブジェクトを保管します。

4.3.4. 設計の考慮事項

コンピュート集約型のアーキテクチャーには、「3章設計」に記載した基本的な設計の考慮事項に加えて、「コンピュートリソース」に記載のコンピュートノードの設計の考慮事項も検討すべきです。

ワークロード

短期間のワークロードは、継続的インテグレーション/継続的デプロイ (CI-CD) のジョブを含めることができます。これにより、コンピュート集約型のタスクセットを実行するためのコンピュートインスタンスが多数同時に作成されます。次に環境は、インスタンスを削除する前に、結果とアーティファクトを各インスタンスから長期ストレージにコピーします。

Hadoop クラスターや HPC クラスターなどの長期間のワークロードは、通常大量のデータセットを受信し、それらのデータセットに対してコンピューティング作業を実行して、その結果を長期ストレージにプッシュします。コンピューティング作業が終了すると、インスタンスは別のジョブを受信するまでアイドル状態となります。長期間のワークロード用の環境は、より大きく、複雑な場合が多いですが、ジョブとジョブの間にアクティブな状態を維持するように環境を構築することで、ビルドのコストを相殺することができます。

コンピュートを重視した OpenStack クラウドのワークロードは、ほとんどの場合、永続ブロックストレージを必要としません (ただし、HDFS で Hadoop を使用する一部のクラウドを除く)。共有ファイルシステムまたはオブジェクトストアが初期データセットを維持管理し、コンピューティング結果の保存先としての役割を果たします。入出力 (IO) オーバーヘッドを回避することにより、ワークロードパフォーマンスを大幅に強化することができます。データセットのサイズによっては、オブジェクトストアまたは共有ファイルシステムをスケーリングする必要がある場合があります。

拡張のプランニング

クラウドユーザーは、必要に応じて新規リソースに即時にアクセスできることを期待します。このため、使用状況が標準的な場合と、リソースの需要が急上昇した場合の計画を立てておく必要があります。計画が保守的過ぎると、クラウドが予想外に過剰にサブスクライブされる可能性があります。また、計画がアグレッシブ過ぎると、クラウドが予想外に過小使用の状態となり、不要な運用/保守コストを費すことになる場合があります。

拡張計画の重要な要因は、クラウドの使用状況トレンドの経時的な分析です。平均スピードやクラウドのキャパシティーではなく、サービス提供の一貫性を測定します。このような情報は、キャパシティーパフォーマンスをモデリングして、クラウドの現在および将来のキャパシティーをより正確に判断するのに役立てることができます。

ソフトウェアのモニタリングについての情報は、「追加のソフトウェア」 を参照してください。

CPU とメモリー

現在の標準的なサーバーオファリングは、最大 12 コアの CPU を搭載します。また、一部の Intel CPU はハイパースレッディング・テクノロジー (HTT) をサポートしており、その場合はコアのキャパシティーが倍になります。HTT 対応の複数の CPU をサポートするサーバーの場合は、利用可能なコア数が CPU 数を乗算した値となります。ハイパースレッディングは、インテル専有の同時マルチスレッディングの実装で、インテルの CPU 上での並列化を向上するために使用されます。マルチスレッドアプリケーションのパフォーマンスを向上させるには、HTT を有効化することを検討してください。

CPU での HTT 有効化の決定は、ユースケースによって異なります。たとえば、HTT を無効にすることによって、コンピューティング集約型の環境に役立つ場合があります。HTT を有効にした場合と無効にした場合のローカルワークロードのパフォーマンステストを実行すると、特定の例では、どちらのオプションがより適切かを判断するのに役立てることができます。

キャパシティープランニング

以下のストラテジーを 1 つまたは複数使用して、コンピュート環境にキャパシティーを追加することができます。

  • クラウドにキャパシティーを追加して、水平方向にスケーリングします。追加のノードに同じまたは似た CPU を使用して、ライブマイグレーション機能で問題が発生する可能性を軽減します。 ハイパーバイザーホストのスケールアウトは、ネットワークおよびその他のデータセンターリソースにも影響を及ぼします。ラックの容量が上限に達した場合や、追加のネットワークスイッチが必要な場合には、このようなスケーリングを考慮してください。

    注記

    ノードを適切なアベイラビリティーゾーンおよびホストアグリゲートに配置する追加の作業が必要である点に注意してください。

  • 使用量の増加に対応するために、内部のコンピュートホストコンポーネントのキャパシティーを拡大して、垂直方向にスケーリングします。たとえば、コア数のより高い CPU に交換したり、サーバーのメモリーを増設することができます。
  • 平均のワークロードを査定し、必要な場合にはメモリーのオーバーコミット比を調節してコンピュート環境で実行可能なインスタンス数を増やします。

    重要

    コンピュートを重視した OpenStack の設計アーキテクチャーでは、CPU のオーバーコミット比は増やさないでください。CPU のオーバーコミット比を変更すると、CPU リソースを必要とする他のノードとの競合が発生する場合があります。

コンピュートのハードウェア

コンピュートを重視した OpenStack クラウドは、プロセッサーとメモーリソースに対する需要が極めて高いため、CPU ソケット、CPU コア、メモリーをより多く提供することができる サーバーハードウェアを優先すべきです。

このアーキテクチャーには、ネットワーク接続とストレージ容量はそれほど重要ではありません。ハードウェアは、ユーザーの最小要件を満たすのに十分なネットワーク接続性とストレージキャパシティーを提供する必要がありますが、ストレージとネットワークのコンポーネントは主にデータセットをコンピュート用のクラスターにロードし、一定したパフォーマンスは必要ありません。

ストレージハードウェア

コモディティーハードウェアにオープンソースのソフトウェアを使用して、ストレージアレイをビルドすることができますが、デプロイには、専門知識が必要となります。サーバーで直接アタッチされたストレージを使用するスケールアウトストレージソリューションを使用することもできます。ただし、その場合には、サーバーのハードウェアがストレージソリューションをサポートする必要があります。

ストレージハードウェアの設計時には、以下の要素を考慮してください。

  • 可用性。インスタンスが高可用性またはホスト間で移行可能である必要がある場合は、一時的なインスタンスのデータに共有ストレージファイルシステムを使用して、ノードに障害が発生しても、Compute サービスが中断せずに稼働を続けられるようにします。
  • レイテンシー。ソリッドステートドライブ (SSD) のディスクを使用してインスタンスのストレージのレイテンシーを最小限に抑え、CPU の遅延を低減し、パフォーマンスを向上します。コンピュートホストに RAID コントローラーカードを使用して下層のディスクサブシステムのパフォーマンスを向上させることを検討してください。
  • パフォーマンス。コンピュートを重視したクラウドは、通常ストレージとの間で大量のデータを入出力する必要はありませんが、ストレージのパフォーマンスは考慮すべき重要な要素です。ストレージの I/O 要求のレイテンシーを監視することによって、ストレージハードウェアのパフォーマンスを測定することができます。一部のコンピュート集約型のワークロードでは、ストレージからのデータ取得中に CPU で遅延が発生するのを最小限に抑えることによって、アプリケーションの全体的なパフォーマンスを大幅に向上させるとができます。
  • 拡張可能性。ストレージソリューションの最大容量を決定します。50 PB まで拡張するソリューションは、10 PB までしか拡張できないソリューションよりも拡張性が高いことになります。このメトリックは、スケーラビリティーに関連していますが、異なるメトリックです。スケーラビリティーとは、拡張に伴うソリューションのパフォーマンスの指標です。
  • 接続性。接続性がストレージソリューションの要件を満たす必要があります。一元管理されたストレージアレイを選択する場合には、ハイパーバイザーがストレージアレイにどう接続するかを決定します。接続性は、レイテンシーおよびパフォーマンスに影響する場合があるので、ネットワークの特性がレイテンシーを最小限に抑え、環境の全体的なパフォーマンスを高めるようにしてください。
ネットワークのハードウェア

2章ネットワークに関する詳細」に記載した基本的なネットワークの考慮事項に加えて、以下の要素も考慮してください。

  • 必要なポート数は、ネットワーク設計に必要な物理スペースに影響を及ぼします。たとえば、1U サーバーでポートあたりのキャパシティーが 10 GbE のポートを 48 提供することができるスイッチは、2U サーバーでポートあたりのキャパシティーが 10 GbE のポートを 24 を提供するスイッチよりもはるかにポートの密度が高くなります。ポートの密度を高くすると、コンピューティングやストレージコンポーネント用のラックスペースがより多く残ります。また、障害ドメインと電源の密度についても考慮する必要があります。より高額ですが、機能要件を超えるネットワークを設計すべきではないので、高密度のスイッチを考慮に入れることができます。
  • ネットワークアーキテクチャーは、リーフ/スパイン型のように、容量と帯域幅を追加するのに役立つスケーラブルなネットワークモデルを使用して設計すべきです。このタイプのネットワーク設計では、帯域幅を追加したり、スケールアウトしたりして装置のラックを簡単に追加することができます。
  • 必要なポート数、ポート速度、ポート密度をサポートするとともに、ワークロードの需要増加に伴う将来の拡張が可能なネットワークハードウェアを選択することが重要です。また、ネットワークアーキテクチャーのどこで冗長性を提供すると価値があるかを評価することも重要です。ネットワークの可用性と冗長性を高くするには高額の費用を伴う場合があるので、冗長ネットワークスイッチとホストレベルでボンディングされたインターフェースによってもたらされる利益と追加費用を比較検討すべきです。

4.4. ストレージを重視したアーキテクチャー

「ストレージを重視したアーキテクチャーのタイプ」

「データ分析アーキテクチャー」

「ハイパフォーマンスデータベースアーキテクチャー」

「ストレージを重視したアーキテクチャーの考慮事項」

4.4.1. ストレージを重視したアーキテクチャーのタイプ

クラウドストレージモデルでは、物理ストレージデバイス上の論理プールにデータを保管します。このアーキテクチャーは、統合ストレージクラウドと呼ばれる場合もよくあります。

クラウドストレージは、一般的にはホストされたオブジェクトストレージサービスのことを指しますが、この用語には、サービスとして利用可能なその他のタイプのデータストレージも含まれる場合があります。OpenStack は Block Storage (cinder) と Object Storage (swift) の両方を提供しています。クラウドストレージは通常仮想化インフラストラクチャー上で実行され、インターフェースのアクセス可能性、弾力性、スケーラビリティー、マルチテナンシー、従量制課金リソースなどの面で、より広範なクラウドコンピューティングと似ています。

クラウドストレージサービス、オンプレミスまたはオフプレミスで使用することができます。クラウドストレージは冗長性とデータの分散によって耐障害性が高く、またバージョン付きコピーを使用することで高い持続性を提供し、一貫したデータレプリケーションを実行することが可能です。

クラウドストレージアプリケーションには以下のような例があります。

  • アクティブなアーカイブ、バックアップ、階層型ストレージ管理
  • 一般的なコンテンツストレージと同期 (例: プライベートのドロップボックスサービス)
  • 並列ファイルシステムによるデータ分析
  • サービス向けの非構造データストア (例: ソーシャルメディアのバックエンドストレージ)
  • 永続的なブロックストレージ
  • オペレーティングシステムとアプリケーションイメージストア
  • メディアのストリーミング
  • データベース
  • コンテンツの配信
  • クラウドストレージピアリング

OpenStack ストレージサービスについての詳しい情報は、「OpenStack Object Storage (swift)」および「OpenStack Block Storage (cinder)」の項を参照してください。

4.4.2. データ分析アーキテクチャー

大量のデータセットの分析は、ストレージシステムのパフォーマンスに大きく左右されます。並列ファイルシステムは、ハイパフォーマンスのデータ処理を提供することができるので、パフォーマンスを重視した大規模なシステムに推奨されます。

注記

インストールおよびデプロイメントに関する説明は、「5章デプロイメントの情報」を参照してください。

4.4.2.1. 設計について

OpenStack Data Processing (sahara) は Hadoop と統合してクラウド内の Hadoop クラスターを管理します。以下の図には、ハイパフォーマンス要件の OpenStack ストアを示しています。

RHEL OSP arch 347192 1015 JCS Ex Storage analytics

ハードウェア要件と設定は、「ハイパフォーマンスデータベースアーキテクチャー」に記載のハイパフォーマンスアーキテクチャーと似ています。この例では、アーキテクチャーは、キャッシュプールに接続して利用可能なプールを加速することができる Ceph の Swift 対応 REST インターフェースを使用します。

4.4.2.2. アーキテクチャーコンポーネント

コンポーネント説明

Compute

Compute の管理およびスケジューリングサービスは、コントローラー上で実行されます。Compute サービスは、各コンピュートノード上でも実行されます。

Dashboard

OpenStack の管理用 Web コンソール

Identity

基本的な認証と承認

Image

インスタンスの起動とスナップショットの管理に使用するイメージを保管します。このサービスは、コントローラーを実行して少量のイメージセットを提供します。

ネットワーク

ネットワークサービス。OpenStack Networking についての詳しい情報は、「2章ネットワークに関する詳細」を参照してください。

Telemetry

その他の OpenStack サービスのモニタリングとレポーティング。このサービスは、インスタンスの使用状況のモニタリングとプロジェクトクォータの調整に使用します。

Object Storage

Hadoop バックエンドでデータを保管します。

Block Storage

Hadoop バックエンドでボリュームを保管します。

Orchestration

インスタンスおよびブロックストレージボリューム用のテンプレートを管理します。ストレージを集中的に使用する処理用に追加のインスタンスを起動し、自動的にスケーリングするには、このサービスを Telemetry と共に使用します。

4.4.2.3. クラウドの要件

要件説明

パフォーマンス

パフォーマンスを強化するには、ディスクアクティビティーをキャッシュする特別なソリューションを選択することができます。

セキュリティー

伝送中のデータと保存されているデータの両方を保護する必要があります。

ストレージの近接性

ハイパフォーマンスまたは大容量のストレージスペースを提供するには、各ハイパーバイザーにストレージをアタッチするか、中央ストレージデバイスからサービスを提供する必要がある可能性があります。

4.4.2.4. 設計の考慮事項

3章設計」に記載した基本的な設計の考慮事項に加えて、「ストレージを重視したアーキテクチャーの考慮事項」に記載の考慮事項にも従うべきです。

4.4.3. ハイパフォーマンスデータベースアーキテクチャー

データベースアーキテクチャーは、ハイパフォーマンスのストレージバックエンドのメリットを享受します。エンタープライズストレージは必須ではありませんが、多くの環境には、OpenStack クラウドでバックエンドとして使用可能なストレージが含まれます。

ストレージプールを作成して、OpenStack Block Storage でインスタンスおよびオブジェクトインターフェース用にブロックデバイスを提供することができます。このアーキテクチャーの例では、データベースの入出力要件が高く、高速な SSD プールからのストレージが要求されます。

4.4.3.1. 設計について

このストレージシステムは、従来のストレージアレイで、SSD のセットによりバッキングされた LUN を使用し、OpenStack Block Storage の統合または Ceph などのストレージプラットフォームを採用します。

このシステムは、追加のパフォーマンス機能を提供することが可能です。データベースの例では、以下のデータベース例では、SSD プールの一部がデータベースサーバーに対するブロックデバイスとして機能します。ハイパフォーマンスの分析例では、インライン SSD キャッシュ層が REST インターフェースを加速化します。

RHEL OSP arch 347192 1015 JCS Ex Storage high perf

この例では、Ceph が Swift 対応の REST インターフェースを提供するとともに、分散ストレージクラスターからのブロックレベルストレージも提供します。これは、柔軟性が非常に高い上、自己復旧や自動バランシングなどの機能により、運用コストを削減することができます。イレイジャーコーディング対応プールは、使用可能な容量を最大化するのに推奨されます。

注記

イレイジャーコーディング対応プールには、より高いコンピューティング要件やオブジェクトに許可される操作の制限などを特別に考慮する必要があります。イレイジャーコーディング対応プールは、部分的書き込みはサポートしません。

4.4.3.2. アーキテクチャーコンポーネント

コンポーネント説明

Compute

Compute の管理およびスケジューリングサービスは、コントローラー上で実行されます。Compute サービスは、各コンピュートノード上でも実行されます。

Dashboard

OpenStack の管理用 Web コンソール

Identity

基本的な認証と承認

Image

インスタンスの起動とスナップショットの管理に使用するイメージを保管します。このサービスは、コントローラーを実行して少量のイメージセットを提供します。

ネットワーク

ネットワークサービス。OpenStack Networking についての詳しい情報は、「2章ネットワークに関する詳細」を参照してください。

Telemetry

その他の OpenStack サービスのモニタリングとレポーティング。このサービスは、インスタンスの使用状況のモニタリングとプロジェクトクォータの調整に使用します。

モニタリング

Telemetry サービスプロジェクトクォータを調整する目的の計測を実行します。

Object Storage

Ceph バックエンドでデータを保管します。

Block Storage

Ceph バックエンドでボリュームを保管します。

Orchestration

インスタンスおよびブロックストレージボリューム用のテンプレートを管理します。ストレージを集中的に使用する処理用に追加のインスタンスを起動し、自動的にスケーリングするには、このサービスを Telemetry と共に使用します。

4.4.3.3. ハードウェア要件

SSD キャッシュ層を使用して、ブロックデバイスを直接ハイパーバイザーやインスタンスにリンクすることができます。REST インターフェースもインラインキャッシュとして SSD キャッシュシステムを使用することが可能です。

コンポーネント要件ネットワーク

10 GbE の水平スケーリングが可能なリーフ/スパイン型バックエンドストレージおよびフロントエンドネットワーク

ストレージハードウェア

* 24x1 TB SSD を搭載したストレージサーバー (キャッシュ層用) 5 台

* 1 台あたり 12x4 TB のディスクを搭載したストレージサーバー 10 台。合計の容量は 480 TB に相当。レプリカを 3 回作成後の使用可能な空き容量は約 160 TB。

4.4.3.4. 設計の考慮事項

3章設計」に記載した基本的な設計の考慮事項に加えて、「ストレージを重視したアーキテクチャーの考慮事項」に記載の考慮事項にも従うべきです。

4.4.4. ストレージを重視したアーキテクチャーの考慮事項

ストレージ集約型のアーキテクチャーには、基本的な設計の考慮事項 (「3章設計」) とストレージノードの設計 (「ストレージのリソース」) に加えて、以下の項目を検討すべきです。

接続性
接続性がストレージソリューションの要件に対応していることを確認します。一元管理されたストレージアレイを選択する場合には、ハイパーバイザーがアレイにどう接続するかを決定します。接続性は、レイテンシーおよびパフォーマンスに影響する場合があるので、ネットワークの特性がレイテンシーを最小限に抑え、設計の全体的なパフォーマンスを高めるようにします。
密度
  • インスタンスの密度。ストレージを重視したアーキテクチャーでは、インスタンスの密度と、CPU/メモリーのオーバーサブスクリプション比は低くなります。設計にデュアルソケットハードウェアを使用している場合には特に、予想されるスケールをサポートするホストがより多く必要になります。
  • ホストの密度。クワッドソケットプラットフォームを使用することにより、ホスト数が多い構成に対応できます。このプラットフォームでは、ホストの密度を低くなり、ラック数が増えます。この構成は、電源接続数に加えて、ネットワークや冷却の要件にも影響を及ぼします。
  • 電源と冷却。2U、3U、4U サーバーの電源および冷却の密度の要件は、ブレード、スレッド、1U サーバー設計よりも低い可能性があります。この構成は、より古いインフラストラクチャーを使用するデータセンターに推奨されます。
柔軟性
組織は、オフプレミスとオンプレミスのクラウドストレージオプションのいずれかを選択する柔軟性を必要とします。たとえば、運用の継続性、障害復旧、セキュリティー、記録の保管に関する法律、規制、ポリシーなどは、ストレージプロバイダーの費用対効果に影響を及ぼす場合があります。
レイテンシー
ソリッドステートドライブ (SSD) は、インスタンスのストレージのレイテンシーを最小限に抑え、ストレージのレイテンシーによって生じる場合のある CPU の遅延を低減することができます。下層のディスクシステムのパフォーマンスを向上させるためにコンピュートホストで RAID コントローラーカードを使用することによるメリットを評価します。
監視と警告

監視と警告のサービスは、ストレージリソースに対する需要の高いクラウド環境では極めて重要です。これらのサービスは、ストレージシステムの正常性とパフォーマンスのリアルタイムのビューを提供します。統合管理コンソール、または SNMP データを視覚化するその他のダッシュボードは、ストレージクラスター内で発生した問題の発見と解決に役立ちます。

ストレージを重視したクラウド設計には以下の要素が含まれるべきです。

  • 物理ハードウェアと環境リソース 監視 (例: 温度、湿度)
  • 使用可能なストレージ、メモリー、CPU などのストレージリソースの監視
  • ストレージシステムが想定通りのパフォーマンスを達成していることを確認するための詳細なストレージパフォーマンスデータの監視
  • ストレージへのアクセスに影響するサービス停止をチェックするためのネットワークリソースの監視
  • 一元化されたログ収集とログ分析の機能
  • 問題追跡のためのチケットシステムまたはチケットシステムとの統合
  • 担当チームへの警告と通知、またはストレージに伴う問題が発生した際に解決することができる自動システム
  • スタッフを配置し、問題解決に常時対応可能なネットワーク運用センター (NOC)
スケーリング
ストレージを重視した OpenStack アーキテクチャーは、スケールアウトではなく、スケールアップにフォーカスすべきです。コスト、電源、冷却、物理ラック、床面積、サポート/保証、管理容易性などの要素に基づいて、少数の大型ホストの構成にするか、多数の小型ホストの構成にするかを決定する必要があります。

4.5. ネットワークを重視したアーキテクチャー

「ネットワークを重視したアーキテクチャーのタイプ」

「クラウドのストレージとバックアップのアーキテクチャー」

「大規模な Web アプリケーション向けのアーキテクチャー」

「ネットワークを重視したアーキテクチャーの考慮事項」

4.5.1. ネットワークを重視したアーキテクチャーのタイプ

OpenStack デプロイメントすべて、サービスをベースとしているので、適切に機能するには、ネットワーク通信に依存します。ただし、場合によっては、ネットワーク設定はよりクリティカルで設計における追加の考慮事項が必要です。

以下の表では、ネットワークを重視した一般的なアーキテクチャーについての説明をまとめています。このようなアーキテクチャーは、ユーザーとアプリケーションの要件を満たす、信頼できるネットワークインフラストラクチャーとサービスに依存します。

アーキテクチャー説明

ビッグデータ

ビッグデータの管理/収集に使用されるクラウドは、ネットワークリソースに対して多大な需要をもたらします。ビッグデータは、多くの場合、データの部分的なレプリカを使用して、大型の分散型クラウドの整合性を維持します。大量のネットワークリソースを必要とするビッグデータアプリケーションには Hadoop、Cassandra、NuoDB、Riak、その他の SQL 以外の分散データベースがあります。

コンテンツ配信ネットワーク (CDN)

CDN は、多数のエンドユーザーによるビデオのストリーミングや、写真の閲覧、Web コンファレンスのホスティング、分散されたクラウドベースのデータリポジトリーへのアクセスに使用することができます。ネットワーク設定は、レイテンシー、帯域幅、インスタンスの分散に影響を及ぼします。コンテンツの配信とパフォーマンスに影響するその他の要素には、バックエンドシステムのネットワークスループット、リソースの場所、WAN アーキテクチャー、キャッシュの方法などがあります。

高可用性 (HA)

高可用性の環境は、サイト間のデータレプリケーションを維持するネットワークのサイズに左右されます。1 つのサイトが利用不可になった場合に、そのサイトのサービスが復旧するまで、他のサイトが増えた分の負荷に対応することができます。追加の負荷を処理できるネットワーク容量にサイズを設定することが重要です。

ハイパフォーマンスコンピューティング (HPC)

HPC 環境には、クラウドクラスターのニーズに対応するためのトラフィックフローと使用パターンをさらに考慮する必要があります。HPC は、ネットワーク内の分散コンピューティングのための水平方向 (east-west) のトラフィックパターンが高いですが、アプリケーションによっては、ネットワークに出入りする垂直方向 (north-south) のトラフィックも相当な量となる場合があります。

高スピードまたは高容量のトランザクションシステム

このようなタイプのアプリケーションは、ネットワークジッターとレイテンシーの影響を受けます。環境の例としては、財務システム、クレジットカード取引用アプリケーション、商取引用のシステムなどがあります。これらのアーキテクチャーは、高ボリュームの水平方向と垂直方向のトラフィックのバランスを取って、データ配信の効率性を最大限に高める必要があります。このようなシステムの多くは、大型でハイパフォーマンスのデータベースバックエンドにアクセスしなければなりません。

ネットワーク管理機能

DNS、NTP、SNMP などのバックエンドネットワークサービスの配信をサポートする環境。これらのサービスは、内部ネットワークの管理に使用することができます。

ネットワークサービスオファリング

サービスをサポートするための顧客向けネットワークツールを実行する環境。VPN、MPLS プライベートネットワーク、GRE トンネルなどがその例です。

仮想デスクトップインフラストラクチャー (VDI)

VDI は、ネットワークの輻輳、レイテンシー、ジッターの影響を受けます。VDI にはアップストリームとダウンストリームの両方のトラフィックが必要で、キャッシュに依存してアプリケーションをエンドユーザーに提供することはできません。

Voice over IP (VoIP)

VoIP システムは、ネットワークの輻輳、レイテンシー、ジッターの影響を受けます。VoIP システムには、対称的なトラフィックパターンがあり、最適なパフォーマンスを提供するにはネットワーク QoS が必要です。また、アクティブなキュー管理を実装して、音声およびマルチメディアのコンテンツを配信することができます。ユーザーは、レイテンシーとジッターの変動の影響を受け、非常に低いレベルでそれらを検知することができます。

ビデオまたは Web コンファレンス

コンファレンスシステムは、ネットワークの輻輳、レイテンシー、ジッターの影響を受けます。ビデオコンファレンスシステムには、対称的なトラフィックパターンがありますが、ネットワークが MPLS プライベートネットワークでホストされていない場合には、システムはネットワーク QoS を使用してパフォーマンスを向上させることはできません。VoIP と同様に、このシステムのユーザーは低いレベルでもネットワークパフォーマンス問題を検知します。

Web ポータル/サービス

Web サーバーは、クラウドサービスにおける共通のアプリケーションなので、そのネットワーク要件を理解する必要があります。ネットワークは、ユーザーの需要を満たし、最小の待ち時間で Web ページを配信するためのスケールアウトが必要です。アーキテクチャーを計画する際には、ポータルのアーキテクチャー詳細に応じて、内部の水平/垂直方向のネットワーク帯域幅を検討すべきです。

4.5.2. クラウドのストレージとバックアップのアーキテクチャー

このアーキテクチャーは、ファイルストレージおよびファイル共有を提供するクラウドが対象です。これはストレージを重視したユースケースと見なされる場合がありますが、ネットワーク側の要件によりネットワークを重視したユースケースとなります。

注記

インストールおよびデプロイメントに関する説明は、「5章デプロイメントの情報」を参照してください。

4.5.2.1. 設計について

以下のクラウドバックアップアプリケーションのワークロードには、ネットワークに影響を及ぼす 2 つの特定の動作があります。

RHEL OSP arch 347192 1015 JCS Ex Network Cloud Storage

このワークロードには、外部向けのサービスと内部でレプリケーションを行うアプリケーションが含まれ、どちらも垂直/水平方向のトラフィックを考慮する必要があります。

垂直方向のトラフィック

垂直方向のトラフィックは、クラウドに出入りするデータで構成されます。ユーザーがコンテンツをアップロードして保管すると、そのコンテンツは OpenStack 環境の中に入ります (下向き)。ユーザーがコンテンツをダウンロードすると、そのコンテンツは OpenStack 環境の外に移動します (上向き)。

このサービスは、主にバックアップサービスとして稼働するので、トラフィックの大半は環境の内部に移動します。このような状況では、OpenStack 環境の入ってくるトラフィックが環境から出て行くトラフィックよりも大きくなるため、ネットワークを非対称的なダウンストリームに設定すべきです。

水平方向のトラフィック
水平方向のトラフィックは、環境内を移動するデータで構成されます。レプリケーションは任意のノードで開始し、アルゴリズムによって複数の他のノードをターゲットとする場合があるので、このようなトラフィックは、完全に対称的となる傾向があります。ただし、このトラフィックは、垂直方向のトラフィックに干渉する場合があります。

4.5.2.2. アーキテクチャーコンポーネント

コンポーネント説明

Compute

Compute の管理およびスケジューリングサービスは、コントローラー上で実行されます。Compute サービスは、各コンピュートノード上でも実行されます。

Dashboard

OpenStack の管理用 Web コンソール

Identity

基本的な認証と承認

Image

インスタンスの起動とスナップショットの管理に使用するイメージを保管します。このサービスは、コントローラーを実行して少量のイメージセットを提供します。

ネットワーク

ネットワークサービス。OpenStack Networking についての詳しい情報は、「2章ネットワークに関する詳細」を参照してください。

Object Storage

バックアップコンテンツの保管

Telemetry

その他の OpenStack サービスのモニタリングとレポーティング

4.5.2.3. 設計の考慮事項

3章設計」に記載した基本的な設計の考慮事項に加えて、「ネットワークを重視したアーキテクチャーの考慮事項」に記載の考慮事項にも従うべきです。

4.5.3. 大規模な Web アプリケーション向けのアーキテクチャー

このアーキテクチャーは、需要の急激な増加に対応するように水平方向にスケーリングして、インスタンス数を高くする大規模な Web アプリケーション向けです。このアプリケーションは、します。アプリケーションは、SSL 接続でデータを保護する必要があり、各サーバーが接続を失ってはなりません。

注記

インストールおよびデプロイメントに関する説明は、「5章デプロイメントの情報」を参照してください。

4.5.3.1. 設計について

以下の図は、このワークロード向けの設計例を示しています。

RHEL OSP arch 347192 1015 JCS Ex Network Web Workload

この設計には、以下のコンポーネントとワークフローが含まれます。

  • ハードウェアロードバランサーは、SSL オフロード機能を提供し、アドレスの使用を削減するためにテナントネットワークに接続します。
  • ロードバランサーは、アプリケーションの仮想 IP (VIP) にサービスを提供する際にルーティングアーキテクチャーにリンクします。
  • ルーターとロードバランサーは、アプリケーションのテナントネットワークの GRE トンネル ID と、テナントサブネット内でアドレスプール外の IP アドレスを使用しますが、この設定により、パブリックの IP アドレスを使用せずにロードバランサーがアプリケーションの HTTP サーバーと通信することができます。

4.5.3.2. アーキテクチャーコンポーネント

Web サービスアーキテクチャーは、数多くのオプションとオプションコンポーネントで構成される場合があります。そのため、このアーキテクチャーは、複数の OpenStack 設計で使用することができます。ただし、大半の Web スケールワークロードを処理するには、いくつかの主要コンポーネントをデプロイする必要があります。

コンポーネント説明

Compute

Compute の管理およびスケジューリングサービスは、コントローラー上で実行されます。Compute サービスは、各コンピュートノード上でも実行されます。

Dashboard

OpenStack の管理用 Web コンソール

Identity

基本的な認証と承認

Image

インスタンスの起動とスナップショットの管理に使用するイメージを保管します。このサービスは、コントローラーを実行して少量のイメージセットを提供します。

ネットワーク

ネットワークサービス。分離したネットワークの構成は、プライベートテナントネットワーク上にあるデータベースと互換性があります。そのようなデータベースは、大量のブロードキャストトラフィックを生成せず、コンテンツ用のデータベースと相互接続する必要がある場合があるためです。

Orchestration

スケールアウト時およびトラフィックバースト中に使用するインスタンスのテンプレートを管理します。

Telemetry

その他の OpenStack サービス用のモニタリングとレポーティング。このサービスは、インスタンスの使用状況のモニタリングと Orchestration サービスからのインスタンステンプレートの呼び出しに使用します。

Object Storage

バックアップコンテンツの保管

4.5.3.3. 設計の考慮事項

3章設計」に記載した基本的な設計の考慮事項に加えて、「ネットワークを重視したアーキテクチャーの考慮事項」に記載の考慮事項にも従うべきです。

4.5.4. ネットワークを重視したアーキテクチャーの考慮事項

ネットワーク集約型のアーキテクチャーには、基本的な設計の考慮事項 (「3章設計」) とネットワークノードの設計 (2章ネットワークに関する詳細) に加えて、以下の点を検討すべきです。

外部の依存関係

以下のような外部ネットワークコンポーネントの使用を検討してください。

  • ワークロードの分散または特定の機能の負荷を軽減するハードウェアロードバランサー
  • 動的ルーティングを実装するための永続デバイス

OpenStack Networking は、トンネリング機能を提供しますが、ネットワーク管理されたリージョンのみに制限されています。OpenStack リージョンを超えて、他のリージョンまたは外部システムにトンネルを拡張するには、OpenStack の外部にトンネルを実装するか、トンネル管理システムを使用して、外部トンネルへのトンネルまたはオーバーレイをマッピングします。

最大転送単位 (MTU)

一部のワークロードは、大型のデータブロックを転送するために大きな MTU が必要です。ビデオストリーミングやストレージのレプリケーションなどのアプリケーション用のネットワークサービスを提供する場合には、OpenStack ハードウェアノードと、可能な場合にはジャンボフレーム用の補助ネットワーク機器を設定します。この構成は、利用可能な帯域幅の使用率を最大化します。

パケットが通過する全パスにわたってジャンボフレームを設定します。1 つのネットワークコンポーネントがジャンボフレームに対応できない場合には、全パスがデフォルトの MTU に戻ります。

NAT の使用

固定のパブリック IP ではなく、Floating IP が必要な場合は、NAT を使用する必要があります。たとえば、DHCP サーバーの IP にマッピングされている DHCP リレーを使用します。この場合には、各新規インスタンスにレガシーや外部のシステムを再設定する代わりに、インフラストラクチャーがターゲットの IP アドレスを新規インスタンスに適用するように自動化した方が簡単です。

OpenStack Networking によって管理される Floating IP 用の NAT は、ハイパーバイザー内に常駐しますが、その他のバージョンの NAT は他の場所で実行される場合があります。IPv4 アドレスが不足している場合には、以下の方法を用いて OpenStack 外の IPv4 アドレス不足を軽減することができます。

  • ロードバランサーを OpenStack 内でインスタンスとして実行するか、外部でサービスとして実行します。OpenStack の Load-Balancer-as-a-Service (LBaaS) は、ロードバランシングソフトウェア (例: HAproxy) を内部で管理することができます。このサービスが仮想 IP (VIP) アドレスを管理する一方、HAproxy インスタンスからのデュアルホームコネクションが全コンテンツサーバーをホストするテナントプライベートネットワークにパブリックネットワークを接続します。
  • ロードバランサーを使用して仮想 IP にサービスを提供するとともに、外部の方法やプライベートアドレスを使用してテナントオーバーレイネットワークに接続します。

場合によっては、インスタンスで IPv6 アドレスのみを使用し、NAT ベースの移行テクノロジー (例: NAT64、DNS64) を提供するインスタンスまたは外部サービスを稼働することもできます。この設定は、グローバルでルーティング可能な IPv6 アドレスを提供し、IPv4 アドレスは必要のある場合にしか使用しません。

サービス品質 (QoS)

QoS は、ネットワークパフォーマンスの低下により優先順位が高くなったパケットに対して即時にサービスを提供するので、ネットワーク集約型のワークロードに多大な影響を及ぼします。Voice over IP (VoIP) のようなアプリケーションでは、継続的な運用には、通常、差別化されたサービスコードポイントが必要です。

複数の混在するワークロードで QoS を使用して、優先順位が低く帯域幅の大きいアプリケーション (例: バックアップサービス、ビデオコンファレンス、ファイル共有など) が他のワークロードの継続的な運用に必要な帯域幅をブロックしてしまわないようにすることもできます。

ファイルとストレージ間のトラフィックに低いクラスのトラフィック (例: ベストエフォート、スカベンジャーなど) のタグを付けて、優先度の高いトラフィックがネットワークを通過できるようにすることが可能です。クラウド内のリージョンが地理的に分散されている場合、WAN 最適化を使用してレイテンシーやパケット損失を軽減することができます。

ワークロード

ルーティングとスイッチングのアーキテクチャーは、ネットワークレベルの冗長性を必要とするワークロードに対応すべきです。この構成は、選択したネットワークハードウェア、選択したハードウェアのパフォーマンス、ネットワークモデルによって異なります。例としては、リンクアグリゲーション (LAG)、ホットスタンバイルータープロトコル (HSRP) があります。

ワークロードは、オーバーレイネットワークの有効性に影響します。アプリケーションネットワークの接続が少量、短期間、またはバースト性の場合には、動的なオーバーレイを実行すると、ネットワークが伝送するパケットの分だけの帯域幅を生成することができます。オーバーレイは、ハイパーバイザーで問題が発生する原因となるのに十分な長さのレイテンシーを起し、パケット毎秒や接続数毎秒などでパフォーマンス低下をもたらす場合もあります。

デフォルトでは、オーバーレイには第 2 のフルメッシュオプションがあり、ワークロードによって異なります。たとえば、大半の Web サービスアプリケーションは、フルメッシュのオーバーレイネットワークで大きな問題はありませんが、一部のネットワーク監視ツールやストレージレプリケーションワークロードでは、スループットでパフォーマンスの問題が発生したり、ブロードキャストトラフィックが過剰となります。