Red Hat Training

A Red Hat training course is available for Red Hat Virtualization

5.2. クラスターのタスク

注記

一部のクラスターオプションは Gluster クラスターには適用されません。Red Hat Virtualization での Red Hat Gluster Storage 使用の詳細については、『Configuring Red Hat Virtualization with Red Hat Gluster Storage』を参照してください。

5.2.1. 新規クラスターの作成

データセンターには複数のクラスターが属することができます。また、クラスターには複数のホストが属することが可能です。クラスター内のホストは同じ CPU タイプ (Intel あるいは AMD) である必要があります。CPU タイプを確実に最適化するには、クラスターを作成する前にホストを作成しておくことをお勧めします。ただしホストの設定は、Guide Me ボタンを使用して後で行うことができます。

新規クラスターの作成

  1. コンピュートクラスター をクリックします。
  2. 新規作成 をクリックします。
  3. ドロップダウンリストからクラスターが属する データセンター を選択します。
  4. クラスターの 名前説明 を入力します。
  5. 管理ネットワーク ドロップダウンリストでネットワークを選択して、管理ネットワークのロールを割り当てます。
  6. ドロップダウンリストから CPU アーキテクチャーCPU タイプ を選択します。CPU のプロセッサーファミリーが、クラスターにアタッチするホストの最小限必要な CPU タイプに適合していることが重要です。この条件が満たされない場合には、ホストは稼働しません。

    注記

    Intel および AMD のいずれの CPU タイプでも、CPU モデルは最も古いものから最も新しいものに論理的な順序でリストされます。クラスターに異なる複数の CPU モデルが含まれている場合には、最も古い CPU モデルを選択してください。各 CPU モデルについての詳しい情報は、「Which CPU family should a RHEV3 or RHV4 cluster be set to?」を参照してください。

  7. ドロップダウンリストからクラスターの 互換バージョン を選択します。
  8. ドロップダウンリストから スイッチのタイプ を選択します。
  9. クラスター内のホストの ファイアウォールタイプ として、iptables または firewalld のいずれかを選択します。
  10. クラスターに仮想マシンホストまたは Gluster 対応ノードを事前設定するかどうかに応じて、Virt サービスを有効にする または Gluster サービスを有効にする のいずれかのチェックボックスを選択します。
  11. オプションで、仮想マシンのメンテナンスを行う理由の設定を有効にする のチェックボックスを選択して、Manager から仮想マシンをシャットダウンする際の理由フィールド (オプション) を有効にして、管理者がメンテナンスの説明を提示できるようにします。
  12. オプションで、ホストのメンテナンスを行う理由の設定を有効にする のチェックボックスを選択して、Manager からホストをメンテナンスモードに切り替える際の理由フィールド (オプション) を有効にして、管理者がメンテナンスの説明を提示できるようにします。
  13. オプションとして、/dev/hwrng ソース (外部のハードウェアデバイス) のチェックボックスを選択すると、クラスター内の全ホストが使用する乱数ジェネレーターデバイスを指定することができます。/dev/urandom ソース (Linux で提供されるデバイス) はデフォルトで有効化されます。
  14. 最適化 タブをクリックし、クラスターのメモリーページ共有の閾値を選択します。またオプションで、クラスターのホストで CPU スレッド処理とメモリーバルーニングを有効化します。
  15. クラスターに対して仮想マシンの移行ポリシーを定義するには 移行ポリシー タブをクリックします。
  16. スケジューリングポリシー タブをクリックして、そのクラスター内のホストのスケジューリングポリシーの設定、スケジューラーの最適化の設定、信頼済みサービスの有効化、HA 予約の有効化、カスタムのシリアル番号ポリシーの指定などをオプションで設定します。
  17. オプションとして、グローバルの SPICE プロキシー (該当する場合) を上書きするには、コンソール タブをクリックして、そのクラスター内のホストの SPICE プロキシーのアドレスを指定します。
  18. フェンシングポリシー タブをクリックして、クラスター内のフェンシングを有効化/無効化して、フェンシングオプションを選択します。
  19. クラスターのデフォルトのプール以外の MAC アドレスプールを指定するには、MAC アドレスプール タブをクリックします。MAC アドレスプールの作成、編集、削除のオプションに関する詳しい情報は、「MAC アドレスプール」を参照してください。
  20. OK をクリックしてクラスターを作成すると、クラスター - ガイド ウィンドウが開きます。
  21. クラスター - ガイド ウィンドウでは、クラスターに設定する必要のあるエンティティーが表示されます。これらのエンティティーを設定するか、後で設定 ボタンを押して後ほど設定を行います。設定を再開するにはクラスターを選択し、その他の操作Guide Me をクリックしてください。

5.2.2. クラスターの全般の設定

以下の表には、新規クラスター および クラスターの編集 ウィンドウの 全般 タブの設定についての説明をまとめています。OK をクリックすると、無効な値が入力されている箇所はオレンジ色の枠で囲まれ、そのままでは変更が確定されないようになっています。また、フィールドプロンプトには、期待値または期待値の範囲が表示されます。

表5.1 クラスターの全般の設定

フィールド説明/アクション

データセンター

クラスターが所属するデータセンター。このデータセンターは、クラスターを追加する前に作成しておく必要があります。

名前

クラスターの名前。このテキストフィールドは最長で 40 文字に制限されており、アルファベットの大文字/小文字、数字、ハイフン、アンダースコアを任意に組み合わせた一意名にする必要があります。

説明/コメント

クラスターの説明または補注。これらのフィールドへの入力は推奨されますが、必須ではありません。

管理ネットワーク

管理ネットワークロールが割り当てられる論理ネットワーク。デフォルトでは ovirtmgmt です。移行ネットワークが移行元または移行先ホストに適切にアタッチされていない場合には、このネットワークは仮想マシンの移行にも使用されます。

既存のクラスターの管理ネットワークは、詳細ビューの 論理ネットワーク タブの ネットワークを管理 ボタンを使用して変更するのが唯一の方法です。

CPU アーキテクチャー

クラスターの CPU アーキテクチャー。選択する CPU アーキテクチャーによって、異なる CPU タイプが利用できます。

  • 未定義: すべての CPU タイプを利用できます。
  • x86_64: すべての Intel および AMD CPU タイプを利用できます。
  • ppc64: IBM POWER 8 のみを利用できます。

CPU タイプ

クラスターの CPU タイプ。サポートされる CPU タイプの一覧については、『プランニングおよび前提条件ガイド』「CPU の要件」を参照してください。クラスター内の全ホストが Intel、AMD、IBM POWER 8 のいずれかの CPU タイプを実行する必要があります。作成後に変更すると大幅なサービスの中断を招きます。CPU タイプは、クラスター内で最も古い CPU モデルに設定すべきです。全モデルで実装されている機能のみが使用可能です。Intel および AMD のいずれの CPU タイプでも、CPU モデルは最も古いものから最も新しいものに論理的な順序でリストされます。

互換バージョン

Red Hat Virtualization のバージョン。データセンターに指定されているバージョンよりも前のバージョンは選択できません。

スイッチのタイプ

クラスターで使用されるスイッチのタイプ。Linux Bridge が Red Hat Virtualization の標準スイッチです。OVS は Open vSwitch ネットワーク機能に対応します。

ファイアウォールタイプ

クラスター内のホストのファイアウォールタイプを、iptables または firewalld のどちらかに指定します。既存クラスターのファイアウォールタイプを変更した場合には、そのクラスター内の ホストをすべて再インストールして 変更を適用する必要があります。

デフォルトのネットワークプロバイダー

クラスターで使用されるデフォルトの外部ネットワークプロバイダーを指定します。Open Virtual Network (OVN) を選択すると、クラスターに追加されたホストは、OVN プロバイダーと通信するように自動的に設定されます。

デフォルトのネットワークプロバイダーを変更した場合には、そのクラスター内の ホストをすべて再インストールして 変更を適用する必要があります。

Virt サービスを有効にする

このラジオボタンを選択した場合、そのクラスター内のホストは仮想マシンの実行に使用されます。

Gluster サービスを有効にする

このラジオボタンを選択した場合、そのクラスター内のホストは Red Hat Gluster Storage Server のノードとして使用され、仮想マシンは実行しません。

既存の Gluster 設定をインポート

このチェックボックスは、Gluster サービスを有効にする のラジオボタンが選択されている場合にのみ表示されます。このオプションにより、既存の Gluster 対応クラスターおよびそのクラスターにアタッチされた全ホストを Red Hat Virtualization Manager にインポートすることができます。

次のオプションは、インポートするクラスター内の各ホストに必要となります。

  • ホスト名: Gluster ホストサーバーの IP アドレスまたは完全修飾ドメイン名を入力します。
  • SSH フィンガープリント: Red Hat Virtualization Manager がホストのフィンガープリントを取得し、正しいホストに接続していることを確認します。
  • パスワード: ホストとの通信に必要な root パスワードを入力します。

仮想マシンのメンテナンスを行う理由の設定を有効にする

このチェックボックスを選択した場合には、Manager を使用してクラスター内の仮想マシンをシャットダウンする際に、オプションの理由のフィールドが表示され、メンテナンスの理由を入力することができます。この理由は、ログに表示され、また仮想マシンの電源が再度オンになると表示されます。

ホストのメンテナンスを行う理由の設定を有効にする

このチェックボックスを選択した場合には、Manager を使用してクラスター内のホストをメンテナンスモードに切り替える際に、オプションの理由のフィールドが表示され、メンテナンスの理由を入力することができます。この理由は、ログに表示され、またホストが再度アクティブ化されると表示されます。

追加の乱数ジェネレーターのソース

このチェックボックスを選択した場合には、クラスター内の全ホストで追加の乱数ジェネレーターデバイスを利用できます。この設定により、乱数ジェネレーターデバイスからエントロピーを仮想マシンに渡すことができるようになります。

5.2.3. 最適化の設定

メモリーページ共有により、仮想マシンは他の仮想マシンで未使用のメモリーを活用することで、割り当てられたメモリーを最大 200% 利用することができます。このプロセスは、Red Hat Virtualization 環境にある仮想マシンが同時にフル稼働しておらず、未使用のメモリーを特定の仮想マシンに一時的に割り当てることができるという前提に基づいています。

CPU スレッド処理により、ホストは、そのホストのコア数を上回るプロセッサーコア合計数で仮想マシンを実行することができます。この機能は、CPU を集中的に使用しないワークロードに有用で、より多くの仮想マシンを実行可能にすることにより、ハードウェア要件を軽減できます。またこれにより、特にゲストのコア数がホストのコアよりも多く、ホストのスレッド数よりも少ない場合に、この機能がなければ不可能な CPU トポロジーで仮想マシンを実行できます。

以下の表には、新規クラスター および クラスターの編集 ウィンドウの 最適化 タブの設定についての説明をまとめています。

表5.2 最適化の設定

フィールド説明/アクション

メモリーの最適化

  • なし - メモリーのオーバーコミットを無効にする: メモリーページの共有が無効になります。
  • サーバーの負荷 - 物理メモリーの 150% のスケジューリングを許可する: メモリーページ共有の閾値を各ホストのシステムメモリーの 150% に設定します。
  • デスクトップの負荷 - 物理メモリーの 200% のスケジューリングを許可する: メモリーページ共有の閾値を各ホストのシステムメモリーの 200% に設定します。

CPU スレッド

スレッドをコアとしてカウントする のチェックボックスを選択すると、ホストのコア数を上回るプロセッサーコア合計数の仮想マシンを実行することができます。

公開されたホストのスレッドは、コアとして扱われ、仮想マシンに活用することができます。たとえば、1 コアあたり 2 スレッドの 24 コアシステム (合計 48 スレッド) は、それぞれ最大 48 コアの仮想マシンを実行することができ、ホスト CPU の負荷を算出するアルゴリズムは、2 倍の利用可能コアに対して負荷を比較します。

メモリーバルーン

メモリーバルーンの最適化を有効にする のチェックボックスを選択すると、このクラスター内のホストで実行されている仮想マシンのメモリーのオーバーコミットが有効になります。このオプションが設定されると、Memory Overcommit Manager (MOM) が可能な箇所で可能な場合にバルーニングを開始します。各仮想マシンに確保されているメモリーのサイズが上限となります。

バルーンを稼働させるには、バルーンデバイスと適切なドライバーが必要です。バルーンデバイスは、特に削除していない限り、各仮想マシンに含まれます。このクラスター内の各ホストは、ステータスが Up に切り替わった時点でバルーンポリシーの更新を受信します。必要な場合には、ホスト上でステータスを変更せずにバルーンポリシーを手動で更新することができます。「クラスター内のホスト上での MOM ポリシーの更新」を参照してください。

シナリオによっては、バルーニングが KSM と競合する可能性があることを認識しておくことが重要です。そのような場合には、MOM がバルーンサイズの調整を試みて、競合を最小限に抑えます。また、一部のシナリオでは、バルーニングによって、仮想マシンでパフォーマンスが十分最適化されない可能性があります。バルーニングの最適化は、慎重に使用することを推奨します。

KSM コントロール

KSM を有効にする のチェックボックスを選択すると、MOM が有効になり、必要な場合に、CPU を犠牲にしてもメモリーを節約することでより高いメリットが得られる場合に Kernel Same-page Merging (KSM) を実行します。

5.2.4. 移行ポリシーの設定

移行ポリシーは、ホストに問題が発生した場合に、仮想マシンをライブマイグレーションする条件を定義します。これらの条件には、移行中の仮想マシンのダウンタイム、ネットワーク帯域幅、仮想マシンの優先順位付けなどが含まれます。

表5.3 移行ポリシー

ポリシー説明

Legacy

バージョン 3.6 のレガシーの動作。デフォルトの動作に優先する vdsm.conf への設定変更が、そのまま適用されます。ゲストエージェントのフックメカニズムは無効になります。

Minimal downtime

一般的な状況での仮想マシンの移行が可能です。仮想マシンのダウンタイムは長時間にならないはずです。仮想マシンが長時間経過した後に収束されない場合は移行が中断されます (最大 500 ミリ秒の QEMU の繰り返し回数により異なります)。ゲストエージェントのフックメカニズムは有効になります。

Post-copy migration

このポリシーは、テクノロジープレビュー機能です。最小ダウンタイムのポリシーと同様に、仮想マシンで大幅なダウンタイムが発生してはなりません。長時間経過しても仮想マシンの移行が収束しない場合には、マイグレーションはポストコピーに切り替わります。このポリシーの欠点は、ポストコピー段階に、メモリーの不足している部分がホスト間で転送されるために、仮想マシンの動作の速度が大幅に低減する可能性があることです。ポストコピー段階に、ホスト間のネットワーク障害などの何らかの問題が発生した場合には、実行中の仮想マシンインスタンスは損失します。そのため、ポストコピー段階には、マイグレーションを中止することはできません。ゲストエージェントのフックメカニズムは有効になります。

Suspend workload if needed

仮想マシンが高負荷のワークロードを実行している場合など、多くの状況で仮想マシンを移行できます。仮想マシンのダウンタイムはさらに長時間にわたる可能性があります。ワークロードが過剰な場合には、移行が中断されてしまう可能性があります。ゲストエージェントのフックメカニズムは有効になります。

帯域幅の設定では、ホスト毎の移行 (移行される場合も移行する場合も両方) の際の最大帯域幅を定義します。

表5.4 帯域幅

ポリシー説明

自動

帯域幅は、データセンターの ホストネットワーク QoS速度の上限 [Mbps] 設定からコピーされます。速度の上限が定義されていない場合には、ネットワークインターフェースの送受信の最低リンクスピードとして算出されます。速度の上限が定義されておらず、リンクスピードが取得できない場合には、送信ホストのローカル VDSM の設定により決まります。

ハイパーバイザーのデフォルト

帯域幅は、送信元のホストのローカル VDSM 設定で制御されます。

カスタム

ユーザーが定義します (Mbps 単位)。この値が同時に発生する移行の数 (デフォルト値は 2 で、出と入の移行に対応します) で割られます。したがって、同時に発生するすべての移行に対応するために、ユーザー定義の帯域幅を十分に大きくする必要があります。

たとえば、カスタム 帯域幅を 600 Mbps と定義した場合、仮想マシン移行の最大帯域幅は、実際には 300 Mbps になります。

耐障害性ポリシーは、移行時に仮想マシンをどのように優先順位付けするかを定義します。

表5.5 耐障害性ポリシー

フィールド説明/アクション

仮想マシンを移行する

定義した優先度の順に、すべての仮想マシンを移行します。

高可用性の仮想マシンのみを移行する

高可用性の仮想マシンのみ移行し、他のホストが過負荷状態になるのを防ぎます。

仮想マシンを移行しない

仮想マシンが移行されないようにします。

追加のプロパティー は、Legacy の移行ポリシーにのみ適用されます。

表5.6 追加のプロパティー

プロパティー説明

移行の自動収束

仮想マシンのライブマイグレーション中に自動収束を使用するかどうかを設定することができます。ワークロードが大きくサイズの大きい仮想マシンは、ライブマイグレーション中に到達する転送速度よりも早くメモリーをダーティーな状態にして、移行を収束できないようにする可能性があります。QEMU の自動収束機能は、仮想マシンの移行を強制的に収束することができます。収束されていない場合には、QEMU が自動的に検出して、仮想マシン上の vCPU の使用率を制限します。デフォルトでは、自動収束はグローバルレベルで無効化されています。

  • グローバルレベルで設定されている自動収束の設定を使用するには、グローバル設定から継承する を選択します。このオプションはデフォルトで選択されます。
  • グローバル設定を無効にして仮想マシンの自動収束を可能にするには、自動収束 を選択します。
  • グローバル設定を無効にして仮想マシンの自動収束を避けるには、自動収束しない を選択します。

移行時の圧縮の有効化

仮想マシンのライブマイグレーション中に移行の圧縮を使用するかどうかを設定することができます。この機能は、Xor Binary Zero Run-Length-Encoding を使用して、仮想マシンのダウンタイム、およびメモリーの書き込みの多いワークロードを実行する仮想マシンやメモリー更新パターンがスパースなアプリケーションの合計ライブマイグレーション時間を減らします。デフォルトでは、移行の圧縮はグローバルレベルで無効化されています。

  • グローバルレベルで設定されている圧縮の設定を使用するには、グローバル設定から継承する を選択します。このオプションはデフォルトで選択されます。
  • グローバル設定を無効にして仮想マシンの圧縮を可能にするには、圧縮 を選択します。
  • グローバル設定を無効にして仮想マシンの圧縮を避けるには、圧縮しない を選択します。

5.2.5. スケジューリングポリシーの設定

スケジューリングポリシーにより、利用可能なホスト間で仮想マシンの使用率や配分を指定することができます。クラスター内のホスト間で、自動的に負荷を分散できるようにするには、スケジューリングポリシーを定義します。スケジューリングポリシーの設定にかかわらず、CPU が過負荷の状態にあるホストでは仮想マシンは起動しません。デフォルトでは、80% 以上の負荷が 5 分間続いた場合に、ホストの CPU が過負荷状態にあるとみなされます。ただし、これらの値はスケジューリングポリシーを使用して変更することができます。スケジューリングポリシーの詳細については、「スケジューリングポリシー」を参照してください。

表5.7 スケジューリングポリシータブのプロパティー

フィールド説明/アクション

ポリシーを選択

ドロップダウンリストからポリシーを選択します。

  • none: すでに実行中の仮想マシンに関して、ホスト間で負荷の分散または電源の共有を行わない場合には、ポリシー値を none に設定します。これは、デフォルトのモードです。仮想マシンの起動時には、クラスター内のホスト間でメモリーと CPU 処理の負荷が均等に分散されます。ホストが定義された CpuOverCommitDurationMinutesHighUtilization、または MaxFreeMemoryForOverUtilized に達している場合には、仮想マシンをそのホストに追加でアタッチしてもその仮想マシンは起動しません。
  • evenly_distributed: クラスター内の全ホストでメモリーおよび CPU 処理の負荷が均等に分散されます。ホストが定義された CpuOverCommitDurationMinutesHighUtilization、または MaxFreeMemoryForOverUtilized に達している場合には、仮想マシンをそのホストに追加でアタッチしてもその仮想マシンは起動しません。
  • cluster_maintenance: メンテナンス作業を実施中のクラスター内のアクティビティーが制限され、高可用性の仮想マシンを除き新たな仮想マシンは起動しません。ホストで障害が発生すると、高可用性の仮想マシンは適切に再起動し、その他の仮想マシンも移行することができます。
  • power_saving: 使用可能なホストのサブセットでメモリーおよび CPU 処理の負荷を分散し、十分に活用されていないホストの電力消費を低減します。ホストの CPU 負荷が使用率の下限値以下の状態で所定の時間が経過すると、仮想マシンはすべて別のホストに移行され、電源をオフにできるようになります。ホストが定義された使用率の上限値に達している場合には、仮想マシンをそのホストに追加でアタッチしてもその仮想マシンは起動しません。
  • vm_evenly_distributed: 仮想マシンの数に基づいて仮想マシンがホスト間で均等に分散されます。HighVmCount を超える数の仮想マシンを実行しているホストがあり、かつ仮想マシンの数が MigrationThreshold から外れているホストが少なくとも 1 台ある場合に、そのクラスターはバランスが取れていない状態とみなされます。

プロパティー

以下のプロパティーは、選択したポリシーに応じて表示され、必要に応じて編集することができます。

  • HighVmCount: 負荷分散を可能にするために、1 台のホストで最低限実行しなければならない仮想マシンの数を設定します。デフォルト値は 10 です。HighVmCount で定義した数以上の仮想マシンを実行中のホストがクラスター内に最低でも 1 台なければ、負荷分散は有効になりません。
  • MigrationThreshold: 仮想マシンがホストから移行されない許容値を定義します。これは、稼働率の最も高いホストと最も低いホストの間での仮想マシン数の差異の最大値 (この値を含む) です。クラスター内の全ホストで仮想マシン数がこの移行閾値内に収まる場合は、そのクラスターはバランスが取れた状態ということになります。デフォルト値は 5 です。
  • SpmVmGrace: SPM ホスト上で仮想マシン用に確保されるスロット数に関する定義を行います。SPM ホストの負荷が他のホストよりも低くなるように、この変数で SPM ホストが他のホストよりもどれだけ少ない数の仮想マシンを実行するかを定義します。デフォルト値は 5 です。
  • CpuOverCommitDurationMinutes: スケジューリングポリシーが対応するまでに、ホストが所定の使用率外で CPU 負荷を実行できる時間 (分単位) を設定します。この時間を定義することにより、CPU 負荷の一時的な急上昇によりスケジューリングポリシーがアクティブ化されて仮想マシンの移行が不必要に行われるのを防ぐことができます。最大 2 桁までとします。デフォルト値は 2 です。
  • HighUtilization: パーセンテージで指定します。ホストの CPU 使用率が上限値を超えた状態で規定の時間が経過すると、Red Hat Virtualization Manager は、ホストの CPU 負荷が上限閾値を下回るまで、仮想マシンをクラスター内の別のホストに移行します。デフォルト値は 80 です。
  • LowUtilization: パーセンテージで指定します。ホストの CPU 使用率が下限値を下回る状態で規定の時間が経過すると、Red Hat Virtualization Manager は仮想マシンをクラスター内の別のホストに移行します。Manager は元のホストマシンの電源を遮断し、負荷分散で必要となった場合やクラスター内で使用可能なホストが十分にない場合にそのホストを再起動します。デフォルト値は 20 です。
  • ScaleDown: 指定した値でホストのスコアを除することにより、HA 予約 の加重関数による影響を軽減します。これは、none を含む任意のポリシーに追加することができるオプションのプロパティーです。
  • HostsInReserve: 実行中の仮想マシンがなくても稼働を続けるホストの数を指定します。これは、power_saving ポリシーに追加することができるオプションのプロパティーです。
  • EnableAutomaticHostPowerManagement: クラスター内の全ホストの自動電源管理を有効にします。これは、power_saving ポリシーに追加することができるオプションのプロパティーです。デフォルト値は true です。
  • MaxFreeMemoryForOverUtilized: 最低限のサービスレベルに必要な空きメモリー容量の最小値を MB 単位で設定します。ホストの空きメモリー容量がこの値以下になると、Red Hat Virtualization Manager は、ホストの空きメモリーが最小のサービス閾値を下回っている間は、仮想マシンをクラスター内の別のホストに移行します。MaxFreeMemoryForOverUtilizedMinFreeMemoryForUnderUtilized の両方を 0 MB に設定すると、メモリーベースの負荷分散は無効になります。MaxFreeMemoryForOverUtilized を設定する場合は、予期せぬ挙動を避けるために MinFreeMemoryForUnderUtilized も設定する必要があります。これは、power_saving および evenly_distributed のポリシーに追加することができるオプションのプロパティーです。
  • MinFreeMemoryForUnderUtilized: ホストを稼働するのに必要な空きメモリー容量の最大値を MB 単位で設定します。ホストの空きメモリー容量がこの値を超えると、ホストは使用率が低いとみなされます。その場合、Red Hat Virtualization Manager は仮想マシンをクラスター内の別のホストに移行します。Manager は元のホストマシンの電源を自動的に切断し、負荷分散で必要となった場合やクラスター内で使用可能なホストが十分にない場合にそのホストを再起動します。MaxFreeMemoryForOverUtilizedMinFreeMemoryForUnderUtilized の両方を 0 MB に設定すると、メモリーベースの負荷分散は無効になります。MinFreeMemoryForUnderUtilized を設定する場合は、予期せぬ挙動を避けるために MaxFreeMemoryForOverUtilized も設定する必要があります。これは、power_saving および evenly_distributed のポリシーに追加することができるオプションのプロパティーです。
  • HeSparesCount: Manager 用仮想マシンが移行またはシャットダウンした際にその仮想マシンを起動するのに十分な空きメモリーを確保するための、追加セルフホストエンジンノードの数を設定します。セルフホストエンジンノードで他の仮想マシンを起動すると Manager 用仮想マシン用に十分な空きメモリーを確保できない場合には、ノード上で他の仮想マシンを起動することができなくなります。これは、power_savingvm_evenly_distributed、および evenly_distributed のポリシーに追加することができるオプションのプロパティーです。デフォルト値は 0 です。

スケジューラーの最適化

ホストの加重/順序のスケジューリングを最適化します。

  • 使用率で最適化: スケジューリングに加重モジュールが含まれ、最適な選択が可能となります。
  • スピードで最適化: 保留中の要求が 10 件以上ある場合には、ホストの重み付けをスキップします。

信頼済みサービスを有効にする

OpenAttestation サーバーとの統合を有効にします。この設定を有効にする前に、engine-config ツールを使用して OpenAttestation サーバーの詳細を入力します。詳しくは、「信頼済みコンピュートプール」を参照してください。

HA 予約を有効にする

Manager による高可用性仮想マシン用のクラスターキャパシティーのモニタリングを有効にします。Manager は、既存のホストで予期しないエラーが発生した場合に、高可用性に指定されている仮想マシンを移行するための適切なキャパシティーをクラスター内で確保します。

カスタムのシリアル番号ポリシーを指定する

このチェックボックスを選択すると、クラスター内の仮想マシンのシリアル番号ポリシーを指定することができます。以下のいずれかのオプションを選択してください。

  • ホストの ID: 仮想マシンのシリアル番号に、ホストの UUID を設定します。
  • 仮想マシンの ID: 仮想マシンのシリアル番号に、仮想マシンの UUID を設定します。
  • カスタムのシリアル番号: カスタムのシリアル番号を指定することができます。

ホストの空きメモリーが 20% 未満に下がると、mom.Controllers.Balloon - INFO Ballooning guest:half1 from 1096400 to 1991580 のようなバルーニングコマンドが /var/log/vdsm/mom.log にログ記録されます。/var/log/vdsm/mom.log は、Memory Overcommit Manager のログファイルです。

5.2.6. クラスターのコンソールの設定

以下の表には、新規クラスター および クラスターの編集 ウィンドウの コンソール タブの設定についての説明をまとめています。

表5.8 コンソールの設定

フィールド説明/アクション

クラスターの SPICE プロキシーを定義する

グローバル設定で定義されている SPICE プロキシーの上書きを有効にするには、このチェックボックスを選択します。この機能は、ハイパーバイザーが属するネットワークの外部からユーザーが接続する場合 (例: VM ユーザーポータルからの接続) に有用です。

SPICE プロキシーアドレスの上書き

SPICE クライアントが仮想マシンに接続するのに使用するプロキシー。このアドレスは、以下の形式で指定する必要があります。

protocol://[host]:[port]

5.2.7. フェンシングポリシーの設定

以下の表には、新規クラスター および クラスターの編集 ウィンドウの フェンシングポリシー タブの設定についての説明をまとめています。

表5.9 フェンシングポリシーの設定

フィールド説明/アクション

フェンシングを有効にする

クラスターでフェンシングを有効にします。フェンシングはデフォルトで有効化されていますが、必要に応じて無効にすることができます。たとえば、一時的なネットワークの問題が発生している場合、または発生することが予想される場合に、診断またはメンテナンスの作業が完了するまでの間、管理者はフェンシングを無効にすることができます。フェンシングが無効になると、応答なしの状態のホストで実行されている高可用性の仮想マシンは、別のホストでは再起動されなくなる点に注意してください。

ホストがストレージの有効なリースを持っている場合はフェンシングをスキップ

このチェックボックスを選択した場合には、ステータスが Non Responsive で、かつストレージにまだ接続されているクラスター内のホストはフェンシングされません。

クラスターの接続性に問題がある場合はフェンシングをスキップ

このチェックボックスを選択すると、クラスター内で接続の問題が発生しているホストの割合が定義済みの 閾値 以上となった場合にフェンシングが一時的に無効となります。閾値 の値はドロップダウンリストから選択します。設定可能な値は、255075100 です。

Gluster ブリックが UP の場合はフェンシングをスキップ

このオプションは、Red Hat Gluster Storage の機能が有効な場合にのみ利用することができます。このチェックボックスを選択すると、ブリックが稼働中で他のピアから到達可能な場合には、フェンシングが一時的に無効となります。詳細については、『Maintaining Red Hat Hyperconverged Infrastructure』「Configure High Availability using Fencing Policies」および「Appendix A. Fencing Policies for Red Hat Gluster Storage」を参照してください。

Gluster クォーラムが満たされない場合にはフェンシングをスキップ

このオプションは、Red Hat Gluster Storage の機能が有効な場合にのみ利用することができます。このチェックボックスを選択すると、ブリックが稼働中でそのホストをシャットダウンするとクォーラムが失われる場合には、フェンシングが一時的に無効となります。詳細については、『Maintaining Red Hat Hyperconverged Infrastructure』「Configure High Availability using Fencing Policies」および「Appendix A. Fencing Policies for Red Hat Gluster Storage」を参照してください。

5.2.8. クラスター内のホストへの負荷および電源管理ポリシーの設定

evenly_distributed および power_saving のスケジューリングポリシーでは、許容可能なメモリーおよび CPU 使用率の値と、どの時点で仮想マシンがホスト間で移行される必要があるかを指定することができます。vm_evenly_distributed スケジューリングポリシーは、仮想マシンの数に基づいて、ホスト間で仮想マシンを均等に配分します。クラスター内のホスト間における自動負荷分散を有効にするスケジューリングポリシーを定義します。各スケジューリングポリシーに関する詳しい説明は、「スケジューリングポリシーの設定」を参照してください。

ホストへの負荷および電源管理ポリシーの設定

  1. コンピュートクラスター をクリックし、クラスターを選択します。
  2. 編集 をクリックします。
  3. スケジューリングポリシー タブをクリックします。
  4. 以下のポリシーのいずれかを選択します。

    • none
    • vm_evenly_distributed

      1. HighVmCount フィールドには、負荷分散を可能にするために、少なくとも 1 台のホストで最低限実行しなければならない仮想マシンの数を設定します。
      2. MigrationThreshold フィールドには、稼働率が最も高いホスト上の仮想マシン数と最も低いホスト上の仮想マシン数の差の最大許容値を定義します。
      3. SpmVmGrace フィールドで定義するスロット数により、SPM ホスト上で仮想マシン用に確保されるスロット数が他のホストよりもどれだけ少なくなるかを指定します。
      4. オプションとして、HeSparesCount フィールドに、Manager 用仮想マシンが移行またはシャットダウンした際にその仮想マシンを起動するのに十分な空きメモリーを確保するための、追加セルフホストエンジンノードの数を入力します。詳細については、『セルフホストエンジンガイド』「追加ホスト上にセルフホストエンジン用として確保するメモリースロットの設定」を参照してください。
    • evenly_distributed

      1. CpuOverCommitDurationMinutes フィールドには、スケジューリングポリシーが対応するまでに、ホストが所定の使用率外で CPU 負荷を実行できる時間 (分単位) を設定します。
      2. HighUtilization フィールドには、他のホストへの仮想マシン移行を開始する CPU 使用率を入力します。
      3. MinFreeMemoryForUnderUtilized には、ホストを稼働するのに必要な空きメモリー容量の最大値を MB 単位で入力します。この値を超えると、他のホストへの仮想マシン移行が開始されます。
      4. MaxFreeMemoryForOverUtilized には、必要な空きメモリー容量の最小値を MB 単位で入力します。この値を下回ると、他のホストへの仮想マシン移行が開始されます。
      5. オプションとして、HeSparesCount フィールドに、Manager 用仮想マシンが移行またはシャットダウンした際にその仮想マシンを起動するのに十分な空きメモリーを確保するための、追加セルフホストエンジンノードの数を入力します。詳細については、『セルフホストエンジンガイド』「追加ホスト上にセルフホストエンジン用として確保するメモリースロットの設定」を参照してください。
    • power_saving

      1. CpuOverCommitDurationMinutes フィールドには、スケジューリングポリシーが対応するまでに、ホストが所定の使用率外で CPU 負荷を実行できる時間 (分単位) を設定します。
      2. LowUtilization フィールドには、ホストが十分に活用されていないとみなされる CPU 使用率の下限を入力します。
      3. HighUtilization フィールドには、他のホストへの仮想マシン移行を開始する CPU 使用率を入力します。
      4. MinFreeMemoryForUnderUtilized には、ホストを稼働するのに必要な空きメモリー容量の最大値を MB 単位で入力します。この値を超えると、他のホストへの仮想マシン移行が開始されます。
      5. MaxFreeMemoryForOverUtilized には、必要な空きメモリー容量の最小値を MB 単位で入力します。この値を下回ると、他のホストへの仮想マシン移行が開始されます。
      6. オプションとして、HeSparesCount フィールドに、Manager 用仮想マシンが移行またはシャットダウンした際にその仮想マシンを起動するのに十分な空きメモリーを確保するための、追加セルフホストエンジンノードの数を入力します。詳細については、『セルフホストエンジンガイド』「追加ホスト上にセルフホストエンジン用として確保するメモリースロットの設定」を参照してください。
  5. クラスターの スケジューラーの最適化 には、以下のいずれかを選択します。

    • 使用率で最適化 を選択すると、スケジューリングに加重モジュールが含まれ、最適な選択が可能となります。
    • スピードで最適化 を選択すると、保留中の要求が 10 件以上ある場合には、ホストの重み付けをスキップします。
  6. engine-config ツールを使用してサーバーの詳細を設定済みで、OpenAttestation サーバーを使用してホストを検証する場合は、信頼済みサービスを有効にする のチェックボックスを選択します。
  7. オプションとして、Manager による高可用性仮想マシン用のクラスターキャパシティーのモニタリングを有効にするには、HA 予約を有効にする のチェックボックスにチェックを入れます。
  8. オプションとして、クラスター内の仮想マシンのシリアル番号ポリシーを指定するには、カスタムのシリアル番号ポリシーを指定する チェックボックスにチェックを入れて、以下のオプションのいずれかを選択します。

    • ホストの UUID を仮想マシンのシリアル番号として設定するには、ホストの ID を選択します。
    • 仮想マシンの UUID を仮想マシンのシリアル番号として設定するには、仮想マシンの ID を選択します。
    • カスタムのシリアル番号を指定するには、カスタムのシリアル番号 を選択します。
  9. OK をクリックします。

5.2.9. クラスター内のホスト上での MOM ポリシーの更新

Memory Overcommit Manager は、ホストでメモリーバルーンと KSM の機能を処理します。これらの機能をクラスターレベルで変更した場合には、その設定がホストに渡されるのは、ホストの再起動後か、ホストがメンテナンスモードから Up のステータスに切り替わった後のみです。ただし、必要な場合には、ホストが Up の状態の時に MOM ポリシーを同期することによって、重要な変更をホストに即時に適用することができます。以下の手順は、各ホストで個別に実行する必要があります。

ホスト上での MOM ポリシーの同期

  1. コンピュートクラスター をクリックします。
  2. クラスター名をクリックして、詳細ビューを表示します。
  3. ホスト タブをクリックして、MOM ポリシーを更新する必要のあるホストを選択します。
  4. MOM ポリシーを同期 をクリックします。

この操作を実行すると、ホストをメンテナンスモードに切り替えてから Up のステータスに戻す必要なく、ホスト上の MOM ポリシーが更新されます。

5.2.10. CPU プロファイルの作成

CPU プロファイルは、クラスター内の仮想マシンが、その仮想マシンを実行するホストで利用できる最大処理能力を定義します。この値は、そのホストで利用可能な総処理能力に対するパーセンテージで指定します。CPU プロファイルは、データセンター下で定義されている CPU プロファイルに基づいて作成されますが、クラスター内の全仮想マシンには自動的に適用されないので、有効にするには個別の仮想マシンに手動で割り当てる必要があります。

以下の手順は、クラスターの属するデータセンター下で CPU QoS エントリーが 1 つ以上定義済みであることを前提としています。

CPU プロファイルの作成

  1. コンピュートクラスター をクリックします。
  2. クラスター名をクリックして、詳細ビューを表示します。
  3. CPU プロファイル タブをクリックします。
  4. 新規作成 をクリックします。
  5. CPU プロファイルの 名前説明 を入力します。
  6. QoS 一覧から CPU プロファイルに適用する QoS を選択します。
  7. OK をクリックします。

5.2.11. CPU プロファイルの削除

Red Hat Virtualization 環境から既存の CPU プロファイルを削除します。

CPU プロファイルの削除

  1. コンピュートクラスター をクリックします。
  2. クラスター名をクリックして、詳細ビューを表示します。
  3. CPU プロファイル タブをクリックし、削除する CPU プロファイルを選択します。
  4. 削除 をクリックします。
  5. OK をクリックします。

CPU プロファイルが仮想マシンに割り当てられていた場合は、その仮想マシンには default CPU プロファイルが自動的に割り当てられます。

5.2.12. 既存の Red Hat Gluster Storage クラスターのインポート

Red Hat Gluster Storage クラスターおよびそのクラスターに属する全ホストを Red Hat Virtualization Manager にインポートすることができます。

クラスター内のホストの IP アドレスやホスト名、パスワードなどの情報を提供する際には、SSH 経由で、そのホスト上で gluster peer status コマンドを実行すると、そのクラスターに属するホストの一覧が表示されます。各ホストのフィンガープリントは手動で確認して、パスワードを提供する必要があります。クラスター内のいずれかのホストが停止しているか、または到達不可な時には、クラスターをインポートすることはできません。新たにインポートされたホストには、VDSM はインストールされていないので、インポートした後には、ブートストラップスクリプトにより必要な VDSM パッケージがすべてホストにインストールされ、ホストが再起動されます。

Red Hat Virtualization Manager への既存の Red Hat Gluster Storage クラスターのインポート

  1. コンピュートクラスター をクリックします。
  2. 新規作成 をクリックします。
  3. クラスターが属する データセンター を選択します。
  4. クラスターの 名前説明 を入力します。
  5. Gluster サービスを有効にする のチェックボックスと 既存の Gluster 設定をインポート のチェックボックスを選択します。

    既存の Gluster 設定をインポート のフィールドは、Gluster サービスを有効にする を選択した場合にのみ表示されます。

  6. ホスト名 フィールドに、クラスター内の任意のサーバーのホスト名または IP アドレスを入力します。

    ホストの SSH フィンガープリント が表示され、正しいホストに接続していることを確認します。ホストが到達不可の場合、またはネットワークエラーが発生している場合には、SSH フィンガープリント フィールドに「フィンガープリントの取得でエラーが発生しました」というエラーメッセージが表示されます。

  7. サーバーの パスワード を入力し、OK をクリックします。
  8. ホストの追加 ウィンドウが開き、クラスターに属するホストの一覧が表示されます。
  9. 各ホストの 名前root パスワード を入力します。
  10. 全ホストで同じパスワードを使用する場合は、共通のパスワードを使用 のチェックボックスを選択し、表示されているテキストフィールドにパスワードを入力します。

    適用 をクリックし、入力したパスワードを全ホストに設定します。

    フィンガープリントが有効であることを確認した上で OK をクリックし、変更を送信します。

ホストをインポートした後に、ブートストラップスクリプトにより必要な VDSM パッケージがすべてホストにインストールされ、その後ホストが再起動されます。既存の Red Hat Gluster Storage クラスターが Red Hat Virtualization Manager に正常にインポートされました。

5.2.13. ホストの追加ウィンドウの設定

ホストの追加 ウィンドウでは、Gluster 対応クラスターの一部としてインポートするホストの詳細を指定することができます。このウィンドウは、新規クラスター ウィンドウの Gluster サービスを有効にする のチェックボックスを選択して、必要なホストの詳細を指定した後に表示されます。

表5.10 Gluster ホスト追加の設定

フィールド説明

共通のパスワードを使用

クラスター内の全ホストに同じパスワードを使用するには、このチェックボックスにチェックを入れます。パスワード フィールドにパスワードを入力して、適用 ボタンをクリックすると、そのパスワードが全ホストに設定されます。

名前

ホスト名を入力します。

ホスト名/IP アドレス

このフィールドには、新規クラスター ウィンドウで指定したホストの完全修飾ドメイン名または IP アドレスが自動的に入力されます。

root パスワード

ホストごとに異なる root パスワードを使用する場合には、このフィールドにパスワードを入力します。このフィールドにより、クラスター内の全ホストに対して指定した共通パスワードが上書きされます。

フィンガープリント

ホストのフィンガープリントが表示され、正しいホストに接続することを確認します。このフィールドには、新規クラスター ウィンドウで指定したホストのフィンガープリントが自動的に入力されます。

5.2.14. クラスターの削除

削除前にクラスターからすべてのホストを移動します。

注記

Default クラスターには Blank テンプレートが含まれているため削除することはできません。ただし、Default クラスターの名前を変更し、新規データセンターに追加することはできます。

クラスターの削除

  1. コンピュートクラスター をクリックし、クラスターを選択します。
  2. クラスター内にホストがないことを確認します。
  3. 削除 をクリックします。
  4. OK をクリックします。

5.2.15. クラスターの互換バージョンの変更

Red Hat Virtualization のクラスターには互換バージョンがあります。クラスターの互換バージョンは、そのクラスター内の全ホストがサポートする Red Hat Virtualization の機能を示します。クラスターの互換バージョンは、そのクラスター内で最も機能性の低いホストのバージョンに応じて設定されます。

重要

クラスターの互換バージョンを変更するには、まず、クラスター内の全ホストを更新して、必要な互換性レベルをサポートするレベルにする必要があります。更新が利用可能であることを示すアイコンがホストの横にあるかどうかを確認します。ホストの更新に関する詳しい情報は、『アップグレードガイド』「ホストの更新」を参照してください。

手順

  1. コンピュートクラスター をクリックし、変更するクラスターを選択します。
  2. 編集 をクリックします。
  3. 互換バージョン を必要な値に変更します。
  4. OK をクリックして、クラスターの互換バージョンを変更 の確認ウィンドウを開きます。
  5. OK をクリックして確定します。
重要

一部の仮想マシンおよびテンプレートが不適切に設定されていることを警告するエラーメッセージが表示される場合があります。このエラーを修正するには、それぞれの仮想マシンを手動で編集します。仮想マシンの編集 ウィンドウには、修正すべき項目を確認することのできる新たな検証および警告が表示されます。問題が自動的に修正され、仮想マシンの設定を再度保存するだけで十分な場合もあります。それぞれの仮想マシンを編集したら、クラスターの互換バージョンを変更することができます。

クラスターの互換バージョンを変更したら、実行中またはサスペンド中のすべての仮想マシンについてクラスターの互換バージョンを変更する必要があります。そのためには、ゲストオペレーティングシステム内ではなく、Manager 内から、または REST API を使用して仮想マシンを再起動します。再起動するまで、仮想マシンは以前のクラスターの互換性レベルで動作を続けます。再起動が必要な仮想マシンには、変更が保留されていることを示すアイコン ( pendingchanges ) が付きます。プレビュー状態にある仮想マシンスナップショットについては、クラスター互換バージョンを変更することができません。まずコミットするか、プレビューを取り消す必要があります。

セルフホストエンジンの仮想マシンを再起動する必要はありません。

データセンター内の全クラスターの互換バージョンの更新が完了したら、次にデータセンター自体の互換バージョンも変更することができます。