Menu Close
Settings Close

Language and Page Formatting Options

管理ガイド

Red Hat Virtualization 4.3

Red Hat Virtualization の管理タスク

概要

本書では、Red Hat Virtualization の管理者に関連する情報および手順について説明します。

パート I. Red Hat Virtualization 環境の管理と保守

Red Hat Virtualization 環境の稼働を維持するには管理者が必要です。管理者のタスクには以下が含まれます。

  • ホストや仮想マシンなどの物理リソースおよび仮想リソースの管理。これには、ホストのアップグレードおよび追加、ドメインのインポート、外部ハイパーバイザーで作成された仮想マシンの変換、および仮想マシンプールの管理が含まれます。
  • ホストのいずれかに対する極端な負荷、メモリーやディスク容量不足、必要なアクション(仮想マシンをシャットダウンして仮想マシンの別ホストへの移行して負荷を軽減したりリソースを解放するなど)などの潜在的な問題について、全体的なシステムリソースのモニタリングを行います。
  • 仮想マシンの新しい要件に対応します(たとえば、オペレーティングシステムのアップグレードまたはより多くのメモリーの割り当てなど)。
  • タグを使用したカスタムオブジェクトプロパティーの管理。
  • パブリックブックマーク として保存された検索の管理。
  • ユーザー設定の管理とパーミッションレベルの設定。
  • システム機能全体の特定ユーザーまたは仮想マシンのトラブルシューティング。
  • 一般および特定レポートの生成。

第1章 グローバル設定

AdministrationConfigure をクリックしてアクセスします。Configure ウィンドウでは、ユーザー、ロール、システムパーミッション、スケジューリングポリシー、インスタンスタイプ、MAC アドレスプールなどの Red Hat Virtualization 環境のグローバルリソースを複数設定できます。このウィンドウでは、ユーザーが環境のリソースと対話する方法をカスタマイズし、複数のクラスターに適用できるオプションを設定する一元的な場所を提供します。

1.1. ロール

ロールは、Red Hat Virtualization Manager から設定できる事前定義された権限のセットです。ロールは、データセンター内の異なるレベルのリソースや、特定の物理リソースおよび仮想リソースに対するアクセスおよび管理のパーミッションを提供します。

マルチレベル管理では、コンテナーオブジェクトに適用されるパーミッションは、そのコンテナー内のすべての個別オブジェクトにも適用されます。たとえば、特定のホスト上のユーザーにホスト管理者ロールが割り当てられた場合、そのユーザーは利用可能なホスト操作のいずれかを実行する権限を得ますが、割り当てられたホスト上でのみ実行できます。ただし、ホスト管理者ロールがデータセンターのユーザーに割り当てられている場合、ユーザーはデータセンターのクラスター内の全ホストでホスト操作を実行するパーミッションを取得します。

1.1.1. 新しいロールの作成

必要なロールが Red Hat Virtualization のデフォルトロールリストにない場合は、新しいロールを作成して、目的に合わせてカスタマイズできます。

新しいロールの作成

  1. AdministrationConfigure をクリックして Configure ウィンドウを開きます。Roles タブはデフォルトで選択され、デフォルトのユーザーおよび管理者ロールおよびカスタムロールのリストが表示されます。
  2. New をクリックします。
  3. 新規ロールの Name および Description を入力します。
  4. Account Type に Admin または User のいずれかを選択します
  5. Expand All または Collapse All ボタンを使用して、Check Boxes to Allow Action リストに記載されているオブジェクトのパーミッションの表示を拡大または縮小します。また、各オブジェクトのオプションを展開したり、折りたたんだりすることもできます。
  6. それぞれのオブジェクトについて、設定しているロールを許可または拒否するアクションを選択または消去します。
  7. OK をクリックして変更を適用します。ロールの一覧に新しいロールが表示されます。

1.1.2. ロールの編集またはコピー

作成したロールの設定を変更できますが、デフォルトのロールを変更することはできません。デフォルトのロールを変更するには、そのロールのクローンを作成して、要件に合わせて変更します。

ロールの編集またはコピー

  1. AdministrationConfigure をクリックして Configure ウィンドウを開きます。ウィンドウには、デフォルトの User and Administrator ロールのリストとカスタムロールが表示されます。
  2. 変更するロールを選択します。Edit をクリックして Edit Role ウィンドウを開くか、Copy をクリックして Copy Role ウィンドウを開きます。
  3. 必要に応じて、ロールの Name および Description を編集します。
  4. Expand All または Collapse All ボタンを使用して、リストされているオブジェクトのパーミッションの表示を拡大または縮小します。また、各オブジェクトのオプションを展開したり、折りたたんだりすることもできます。
  5. それぞれのオブジェクトについて、編集するロールを許可または拒否するアクションを選択または消去します。
  6. OK をクリックして、加えた変更を適用します。

1.1.3. ユーザーロールと承認の例

以下の例は、本章で説明する承認システムの異なる機能を使用して、さまざまなシナリオに対して承認制御を適用する方法を示しています。

例1.1 クラスターパーミッション

Sarah は、ある企業の経理部門のシステム管理者です。彼女の部署のすべての仮想リソースは、Accounts という名前の Red Hat Virtualization クラスターの下に編成されています。彼女には Accounts クラスターの ClusterAdmin ロールが割り当てられています。これにより、仮想マシンはクラスターの子オブジェクトであるため、彼女はクラスター内のすべての仮想マシンを管理できます。仮想マシンの管理には、ディスクなどの仮想リソースの編集、追加、削除、およびスナップショットの作成などが含まれます。このクラスターの外部にあるリソースを管理することはできません。ClusterAdmin は管理者ロールであるため、管理ポータルまたは VM ポータルを使用してこれらのリソースを管理できます。

例1.2 VM PowerUser パーミッション

John は、経理部のソフトウェア開発者です。彼は仮想マシンを使用してソフトウェアを構築し、テストします。Sarah は、John に johndesktop という仮想デスクトップを作成しました。John は、johndesktop 仮想マシンで UserVmManager ロールが割り当てられています。これにより、VM ポータルを使用してこの単一仮想マシンにアクセスすることができます。彼は UserVmManager のパーミッションを持っているため、仮想マシンを変更できます。UserVmManager はユーザーロールであるため、管理ポータルを使用できません。

例1.3 データセンターパワーユーザーロールパーミッション

Penelope はオフィスマネージャーです。自分の仕事に加えて、面接の日程調整やリファレンスチェックのフォローアップなど、人事マネージャーの採用業務を手伝うこともあります。会社の方針により、Penelope は採用業務に特定のアプリケーションを使用する必要があります。

Penelope はオフィス管理用に自分のマシンを持っていますが、採用アプリケーションを実行するために別の仮想マシンを作成したいと考えています。彼女には、新しい仮想マシンが設置されるデータセンターの PowerUserRole パーミッションが割り当てられています。これは、新しい仮想マシンを作成することにより、ストレージドメインでの仮想ディスクの作成など、データセンター内の複数のコンポーネントに変更を加える必要があるためです。

これは、Penelope に DataCenterAdmin 権限を割り当てることとは違うことに注意してください。データセンターの PowerUser として、Penelope は VM ポータルにログインして、データセンター内の仮想マシン固有のアクションを実行できます。彼女は、ホストまたはストレージをデータセンターに割り当てるなど、データセンターレベルの操作を実行できません。

例1.4 ネットワーク管理者のパーミッション

Chris は、IT 部門のネットワーク管理者です。彼女の日常的な仕事は、部内の Red Hat Virtulization 環境におけるネットワークの作成、操作、削除などです。彼女には、リソースおよび各リソースのネットワークにおける管理者権限が必要です。たとえば、Chris が IT 部門のデータセンターのNetworkAdmin 権限を持っている場合、データセンター内のネットワークを追加および削除したり、データセンターに属するすべての仮想マシンのネットワークをアタッチおよびデタッチすることができます。

例1.5 カスタムロールパーミッション

レイチェルは IT 部門に所属し、Red Hat Virtualization のユーザーアカウント管理を担当しています。彼女には、ユーザーアカウントを追加し、適切なロールおよびパーミッションを割り当てる権限が必要です。彼女自身は仮想マシンを使用せず、ホスト、仮想マシン、クラスター、データセンターの管理にアクセスしてはいけません。彼女にこのような特定のパーミッションを与える組み込みのロールはありません。レイチェルの役職に適したパーミッションセットを定義するために、カスタムロールを作成する必要があります。

図1.1 UserManager カスタムロール

UserManagerRole

上記の UserManager のカスタムロールは、ユーザー、パーミッション、およびロールの操作を可能にします。これらのアクションは、図1.3「Red Hat Virtualization オブジェクトの階層」 に示す階層の上位オブジェクトである System の下に整理されています。これは、システム内のすべてのオブジェクトに適用されることを意味します。ロールの Account TypeAdmin に設定されます。つまり、このロールが割り当てられると、Rachel は Administration Portal と VM Portal の両方を使用できるようになります。

1.2. システムパーミッション

パーミッションにより、ユーザーはオブジェクトに対してアクションを実行できます。オブジェクトは個別のオブジェクトまたはコンテナーオブジェクトのいずれかになります。コンテナーオブジェクトに適用されるパーミッションは、そのコンテナーのすべてのメンバーにも適用されます。

図1.2 パーミッションおよびロール

496

図1.3 Red Hat Virtualization オブジェクトの階層

492

1.2.1. ユーザープロパティー

ロールおよびパーミッションはユーザーのプロパティーです。ロールとは、異なるレベルの物理および仮想リソースへのアクセスを許可する、事前定義された一連の権限のことです。マルチレベル管理では、パーミッションを細かく階層化できます。たとえば、データセンター管理者はデータセンター内の全オブジェクトを管理するパーミッションを持ち、ホスト管理者は 1 つの物理ホストのシステム管理者パーミッションを持ちます。あるユーザーは、単一の仮想マシンを使用するパーミッションを持っていても、仮想マシンの設定を変更できません。一方、別のユーザーは、仮想マシンのシステムパーミッションを割り当てることができます。

1.2.2. ユーザーおよび管理者ロール

Red Hat Virtualization は、システム全体のパーミッションを持つ管理者から、1 台の仮想マシンにアクセスできるエンドユーザーまで、事前設定されたさまざまなロールを提供します。デフォルトのロールを変更または削除することはできませんが、そのロールのクローンを作成してカスタマイズしたり、要件に合わせて新しいロールを作成したりできます。以下の 2 つのタイプがあります。

  • 管理者ロール: 物理リソースおよび仮想リソースを管理するための 管理ポータル へのアクセスを許可します。管理者ロールは、VM ポータルで実行するアクションのパーミッションを付与しますが、ユーザーが VM ポータルで見ることができる内容には影響しません。
  • ユーザーロール: VM ポータル にアクセスして、仮想マシンおよびテンプレートを管理し、アクセスできるようにします。ユーザーロールは、ユーザーが VM ポータルで表示できる内容を決定します。管理者ロールを持つユーザーに付与されるパーミッションは、そのユーザーが VM ポータルで利用できるアクションに反映されます。

1.2.3. ユーザーロールの概要

以下の表は、VM ポータルで仮想マシンにアクセスし、設定するパーミッションを付与する基本的なユーザーロールを説明しています。

表1.1 Red Hat Virtualization ユーザーロール: 基本

ロール権限備考

UserRole

仮想マシンおよびプールにアクセスし、使用できる。

VMポータルへのログイン、割り当てられた仮想マシンやプールの使用、仮想マシンの状態や詳細の表示が可能。

PowerUserRole

仮想マシンおよびテンプレートを作成および管理できる。

このロールを Configure ウィンドウで環境全体のユーザーまたは特定のデータセンターやクラスターのユーザーに適用します。たとえば、PowerUserRole がデータセンターレベルに適用されると、PowerUser はデータセンターで仮想マシンおよびテンプレートを作成できます。

UserVmManager

仮想マシンのシステム管理者。

仮想マシンの管理、スナップショットの作成と使用が可能。VM ポータルで仮想マシンを作成したユーザーには、そのマシンの UserVmManager ロールが自動的に割り当てられます。

以下の表は、VM ポータルのリソースに対するパーミッションの細かな調整を可能にする高度なユーザーロールについて説明しています。

表1.2 Red Hat Virtualization のユーザーロール - 高度

ロール権限備考

UserTemplateBasedVm

テンプレートのみを使用できる限定的な権限。

テンプレートを使用して仮想マシンを作成できます。

DiskOperator

仮想ディスクユーザー。

仮想ディスクの使用、表示、編集が可能です。仮想ディスクが接続されている仮想マシンを使用するパーミッションを継承します。

VmCreator

VM ポータルで仮想マシンを作成できる。

このロールは特定の仮想マシンには適用されません。Configure ウィンドウで環境全体のユーザーにこのロールを適用します。または、特定のデータセンターまたはクラスターにこのロールを適用することもできます。このロールをクラスターに適用する場合、データセンター全体または特定のストレージドメインに DiskCreator ロールを適用する必要もあります。

TemplateCreator

割り当てられたリソース内で仮想マシンテンプレートを作成、編集、管理、および削除できる。

このロールは特定のテンプレートには適用されません。Configure ウィンドウで環境全体のユーザーにこのロールを適用します。また、特定のデータセンター、クラスター、またはストレージドメインにこのロールを適用することもできます。

DiskCreator

割り当てられたクラスターまたはデータセンター内の仮想ディスクを作成、編集、管理、および削除できる。

このロールは特定の仮想ディスクには適用されません。Configure ウィンドウで環境全体のユーザーにこのロールを適用します。また、特定のデータセンターまたはストレージドメインにこのロールを適用することもできます。

TemplateOwner

テンプレートの編集および削除、テンプレートのユーザーパーミッションの割り当ておよび管理が可能。

このロールは、テンプレートを作成したユーザーに自動的に割り当てられます。テンプレートに TemplateOwner パーミッションを持たない他のユーザーは、そのテンプレートを表示または使用することができません。

VnicProfileUser

仮想マシンおよびテンプレートの論理ネットワークおよびネットワークインターフェースユーザー。

特定の論理ネットワークからネットワークインターフェースを接続または切断できます。

1.2.4. 管理者ロールの概要

以下の表は、管理ポータルのリソースにアクセスおよび設定するパーミッションを付与する基本的な管理者ロールについて説明しています。

表1.3 Red Hat Virtualization システム管理者ロール - 基本

ロール権限備考

SuperUser

Red Hat Virtualization 環境のシステム管理者

すべてのオブジェクトおよびレベルでの完全なパーミッションを持ち、全データセンターで全オブジェクトを管理できます。

ClusterAdmin

クラスター管理者。

特定のクラスター下にある全オブジェクトの管理パーミッションを持ちます。

DataCenterAdmin

データセンター管理者。

特定のデータセンターの下にある、ストレージを除くすべてのオブジェクトの管理権限を保有しています。

重要

ディレクトリーサーバーの管理ユーザーを、Red Hat Virtualization の管理ユーザーとして使用しないでください。Red Hat Virtualization の管理ユーザーとして使用するように、ディレクトリーサーバーにユーザーを作成します。

以下の表は、管理者ポータルのリソースに対するパーミッションの細かな調整を可能にする高度な管理者ロールについて説明しています。

表1.4 Red Hat Virtualization システム管理者ロール - 高度

ロール権限備考

TemplateAdmin

仮想マシンテンプレートの管理者。

テンプレートのストレージドメインやネットワークの詳細を作成、削除、設定したり、ドメイン間でテンプレートを移動できます。

StorageAdmin

ストレージ管理者。

割り当てられたストレージドメインを作成、削除、設定、および管理できます。

HostAdmin

ホスト管理者。

特定のホストをアタッチ、削除、設定、および管理できます。

NetworkAdmin

ネットワーク管理者。

特定のデータセンターまたはクラスターのネットワークを設定および管理できます。データセンターまたはクラスターのネットワーク管理者は、クラスター内の仮想プールのネットワークパーミッションを継承します。

VmPoolAdmin

仮想プールのシステム管理者。

仮想プールを作成、削除、および設定できます。仮想プールユーザーを割り当ておよび削除し、プールの仮想マシンに基本操作を実行できます。

GlusterAdmin

Gluster Storage 管理者。

Gluster ストレージボリュームを作成、削除、設定、および管理できます。

VmImporterExporter

仮想マシンの管理者をインポートおよびエクスポートします。

仮想マシンをインポートおよびエクスポートできます。他のユーザーがエクスポートした仮想マシンおよびテンプレートをすべて表示できます。

1.2.5. 管理者またはユーザーロールのリソースへの割り当て

管理者またはユーザーロールをリソースに割り当て、ユーザーがそのリソースにアクセスしたり、管理したりできるようにします。

リソースへのロールの割り当て

  1. リソースの名前を見つけ、クリックして詳細ビューを開きます。
  2. Permissions タブをクリックして、割り当てられたユーザー、ユーザーのロール、および選択したリソースの継承されたパーミッションを一覧表示します。
  3. Add をクリックします。
  4. Search テキストボックスに既存のユーザーの名前またはユーザー名を入力し、Go をクリックします。表示された候補の中からユーザーを選択します。
  5. Role to Assign ドロップダウンリストからロールを選択します。
  6. OK をクリックします。

ユーザーは、そのリソースに対して有効になっているロールの継承されたパーミッションを持つようになります。

1.2.6. リソースからの管理者またはユーザーロールの削除

管理者またはユーザーのロールをリソースから削除すると、ユーザーはそのリソースのロールに関連付けられ継承されたパーミッションを失います。

リソースからのロールの削除

  1. リソースの名前を見つけ、クリックして詳細ビューを開きます。
  2. Permissions タブをクリックして、割り当てられたユーザー、ユーザーのロール、および選択したリソースの継承されたパーミッションを一覧表示します。
  3. リソースから削除するユーザーを選択します。
  4. 削除 をクリックします。
  5. OK をクリックします。

1.2.7. データセンターのシステムパーミッションの管理

システム管理者は SuperUser として、管理ポータルのすべての側面を管理します。他のユーザーに特定の管理ロールを割り当てることができます。このような制限された管理者ロールは、特定のリソースに制限される管理者権限をユーザーに付与する際に役立ちます。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのストレージを除いて、そのデータセンターのみの管理者権限を持ち、ClusterAdmin は割り当てられたクラスターのみの管理者権限を持ちます。

データセンターの管理者は、特定のデータセンターのみのシステム管理ロールです。これは、各データセンターが管理者を必要とする複数のデータセンターを持つ仮想化環境で有用です。DataCenterAdmin ロールは階層モデルです。あるデータセンターのデータセンター管理者ロールを割り当てられたユーザーは、そのデータセンターのストレージを除くすべてのオブジェクトを管理することができます。ヘッダーバーの Configure ボタンを使用して、環境内のすべてのデータセンターにデータセンター管理者を割り当てます。

データセンターの管理者ロールでは、以下のアクションが許可されます。

  • データセンターに関連付けられたクラスターの作成と削除。
  • データセンターに関連付けられたホスト、仮想マシン、およびプールを追加および削除。
  • データセンターに関連付けられた仮想マシンのユーザーパーミッションの編集。
注記

ロールやパーミッションは、既存のユーザーにのみ割り当てることができます。

既存のシステム管理者を削除し、新しいシステム管理者を追加すると、データセンターのシステム管理者を変更できます。

1.2.8. データセンター管理者ロールの概要

データセンターのパーミッションロール

以下の表は、データセンターの管理に適用される管理者ロールおよび権限を示しています。

表1.5 Red Hat Virtualization システム管理者ロール

ロール権限備考

DataCenterAdmin

データセンター管理者

クラスター、ホスト、テンプレート、仮想マシンなど、特定のデータセンター内の物理リソースおよび仮想リソースすべての作成、削除、管理が可能です。

NetworkAdmin

ネットワーク管理者

特定のデータセンターのネットワークを設定および管理できます。データセンターのネットワーク管理者は、データセンター内の仮想マシンのネットワークパーミッションも継承します。

1.2.9. クラスターのシステムパーミッションの管理

システム管理者は SuperUser として、管理ポータルのすべての側面を管理します。他のユーザーに特定の管理ロールを割り当てることができます。このような制限された管理者ロールは、特定のリソースに制限される管理者権限をユーザーに付与する際に役立ちます。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのストレージを除いて、そのデータセンターのみの管理者権限を持ち、ClusterAdmin は割り当てられたクラスターのみの管理者権限を持ちます。

クラスターの管理者は、特定のクラスターのみのシステム管理ロールです。これは、複数のクラスターを持つデータセンターで、各クラスターにシステム管理者が必要な場合に有効です。ClusterAdmin ロールは階層モデルです。あるクラスターのクラスター管理者ロールを割り当てられたユーザーは、クラスターのすべてのオブジェクトを管理できます。ヘッダーバーの Configure ボタンを使用して、環境のすべてのクラスターにクラスター管理者を割り当てます。

クラスター管理者ロールは以下のアクションを許可します。

  • 関連付けられたクラスターの作成および削除。
  • クラスターに関連付けられたホスト、仮想マシン、およびプールの追加および削除。
  • クラスターに関連付けられた仮想マシンのユーザーパーミッションを編集します。
注記

ロールやパーミッションは、既存のユーザーにのみ割り当てることができます。

また、既存のシステム管理者を削除し、新しいシステム管理者を追加すると、クラスターのシステム管理者を変更できます。

1.2.10. クラスター管理者ロールの概要

クラスターパーミッションロール

以下の表は、クラスターの管理に適用される管理者ロールおよび権限について説明しています。

表1.6 Red Hat Virtualization システム管理者ロール

ロール権限備考

ClusterAdmin

クラスター管理者

ホスト、テンプレート、および仮想マシンなど、特定のクラスター内の物理リソースおよび仮想リソースをすべて使用、作成、削除、管理することができます。ディスプレイネットワークの指定や、ネットワークを必須とマークするなど、クラスター内でネットワークプロパティーを設定できます。

ただし、ClusterAdmin には、ネットワークをクラスターにアタッチまたはデタッチするパーミッションがないため、NetworkAdmin パーミッションが必要です。

NetworkAdmin

ネットワーク管理者

特定のクラスターのネットワークを設定および管理できます。クラスターのネットワーク管理者は、データセンター内のクラスターネットワークパーミッションも継承します。

1.2.11. ネットワークのシステムパーミッションの管理

システム管理者は SuperUser として、管理ポータルのすべての側面を管理します。他のユーザーに特定の管理ロールを割り当てることができます。このような制限された管理者ロールは、特定のリソースに制限される管理者権限をユーザーに付与する際に役立ちます。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのストレージを除いて、そのデータセンターのみの管理者権限を持ち、ClusterAdmin は割り当てられたクラスターのみの管理者権限を持ちます。

ネットワーク管理者は、特定のネットワークまたはデータセンター、クラスター、ホスト、仮想マシン、またはテンプレートにあるすべてのネットワークに適用できるシステム管理ロールです。ネットワークユーザーは、特定の仮想マシンまたはテンプレート上のネットワークの表示やアタッチなど、制限された管理ロールを実行できます。ヘッダーバーの Configure ボタンを使用して、環境内の全ネットワークにネットワーク管理者を割り当てできます。

ネットワーク管理者ロールは以下のアクションを許可します。

  • ネットワークの作成、編集、および削除。
  • ポートミラーリングの設定など、ネットワークの設定を編集。
  • クラスターや仮想マシンを含むリソースからのネットワークをアタッチおよびデタッチ。

ネットワークを作成するユーザーには、作成されたネットワークに NetworkAdmin パーミッションが自動的に割り当てられます。また、既存の管理者を削除し、新しい管理者を追加すると、ネットワークの管理者を変更できます。

1.2.12. ネットワーク管理者およびユーザーロールの概要

ネットワークパーミッションロール

以下の表は、ネットワークの管理に適用される管理者およびユーザーロールと権限について説明しています。

表1.7 Red Hat Virtualization ネットワーク管理者およびユーザーロール

ロール権限備考

NetworkAdmin

データセンター、クラスター、ホスト、仮想マシン、またはテンプレートのネットワーク管理者。ネットワークを作成するユーザーには、作成されたネットワークに NetworkAdmin パーミッションが自動的に割り当てられます。

特定のデータセンター、クラスター、ホスト、仮想マシン、またはテンプレートのネットワークを設定および管理できます。データセンターまたはクラスターのネットワーク管理者は、クラスター内の仮想プールのネットワークパーミッションを継承します。仮想マシンのネットワークにポートミラーリングを設定するには、ネットワークに NetworkAdmin ロールを、仮想マシンに UserVmManager ロールを適用します。

VnicProfileUser

仮想マシンおよびテンプレートの論理ネットワークおよびネットワークインターフェースユーザー。

特定の論理ネットワークからネットワークインターフェースを接続または切断できます。

1.2.13. ホストのシステムパーミッションの管理

システム管理者は SuperUser として、管理ポータルのすべての側面を管理します。他のユーザーに特定の管理ロールを割り当てることができます。このような制限された管理者ロールは、特定のリソースに制限される管理者権限をユーザーに付与する際に役立ちます。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのストレージを除いて、そのデータセンターのみの管理者権限を持ち、ClusterAdmin は割り当てられたクラスターのみの管理者権限を持ちます。

ホスト管理者は、特定のホストのみのシステム管理ロールです。これは、複数のホストを持つクラスターで、各ホストにシステム管理者が必要な場合に有効です。ヘッダーバーの Configure ボタンを使用して、環境内の全ホストにホスト管理者を割り当てできます。

ホスト管理者ロールは以下のアクションを許可します。

  • ホストの設定編集。
  • 論理ネットワークの設定。
  • ホストを削除。

また、既存のシステム管理者を削除し、新しいシステム管理者を追加すると、ホストのシステム管理者を変更できます。

1.2.14. ホスト管理者ロールの概要

ホストパーミッションロール

以下の表は、ホスト管理に適用される管理者ロールおよび権限について説明しています。

表1.8 Red Hat Virtualization システム管理者ロール

ロール権限備考

HostAdmin

ホスト管理者

特定のホストを設定、管理、および削除できます。特定のホストでネットワーク関連の操作も実行できます。

1.2.15. ストレージドメインのシステムパーミッションの管理

システム管理者は SuperUser として、管理ポータルのすべての側面を管理します。他のユーザーに特定の管理ロールを割り当てることができます。このような制限された管理者ロールは、特定のリソースに制限される管理者権限をユーザーに付与する際に役立ちます。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのストレージを除いて、そのデータセンターのみの管理者権限を持ち、ClusterAdmin は割り当てられたクラスターのみの管理者権限を持ちます。

ストレージ管理者は、特定のストレージドメインのみのシステム管理ロールです。これは、複数のストレージドメインを持つデータセンターで、各ストレージドメインにシステム管理者が必要な場合に有効です。ヘッダーバーの Configure ボタンを使用して、環境内のすべてのストレージドメインにストレージ管理者を割り当てます。

ストレージドメイン管理者ロールは、以下のアクションを許可します。

  • ストレージドメインの設定の編集。
  • ストレージドメインのメンテナンスモードへの切り替え。
  • ストレージドメインの削除。
注記

ロールやパーミッションは、既存のユーザーにのみ割り当てることができます。

また、既存のシステム管理者を削除し、新しいシステム管理者を追加すると、ストレージドメインのシステム管理者を変更できます。

1.2.16. ストレージ管理者ロールの概要

ストレージドメインパーミッションロール

以下の表は、ストレージドメインの管理に適用される管理者ロールおよび権限について説明しています。

表1.9 Red Hat Virtualization システム管理者ロール

ロール権限備考

StorageAdmin

ストレージ管理者

特定のストレージドメインを作成、削除、設定、および管理できます。

GlusterAdmin

Gluster Storage 管理者

Gluster ストレージボリュームを作成、削除、設定、および管理できます。

1.2.17. 仮想マシンプールのシステムパーミッションの管理

システム管理者は SuperUser として、管理ポータルのすべての側面を管理します。他のユーザーに特定の管理ロールを割り当てることができます。このような制限された管理者ロールは、特定のリソースに制限される管理者権限をユーザーに付与する際に役立ちます。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのストレージを除いて、そのデータセンターのみの管理者権限を持ち、ClusterAdmin は割り当てられたクラスターのみの管理者権限を持ちます。

仮想マシンプールの管理者は、データセンター内の仮想マシンプールのシステム管理ロールです。このロールは、特定の仮想マシンプール、データセンター、または仮想化環境全体に適用できます。これは、異なるユーザーが特定の仮想マシンプールリソースを管理できるようにするのに役立ちます。

仮想マシンプールの管理者ロールは、以下のアクションを許可します。

  • プールの作成、編集、および削除。
  • プールからの仮想マシンを追加およびデタッチ。
注記

ロールやパーミッションは、既存のユーザーにのみ割り当てることができます。

1.2.18. 仮想マシンプール管理者ロールの概要

プールパーミッションロール

以下の表は、プール管理に適用される管理者ロールおよび権限について説明しています。

表1.10 Red Hat Virtualization システム管理者ロール

ロール権限備考

VmPoolAdmin

仮想プールのシステム管理者ロール。

仮想プールを作成、削除、および設定できます。仮想プールユーザーを割り当ておよび削除し、仮想マシンに基本操作を実行できます。

ClusterAdmin

クラスター管理者

特定のクラスター内のすべての仮想マシンプールを使用、作成、削除、および管理できます。

1.2.19. 仮想ディスクのシステムパーミッションの管理

システム管理者は SuperUser として、管理ポータルのすべての側面を管理します。他のユーザーに特定の管理ロールを割り当てることができます。このような制限された管理者ロールは、特定のリソースに制限される管理者権限をユーザーに付与する際に役立ちます。たとえば、DataCenterAdmin ロールは、割り当てられたデータセンターのストレージを除いて、そのデータセンターのみの管理者権限を持ち、ClusterAdmin は割り当てられたクラスターのみの管理者権限を持ちます。

Red Hat Virtualization Manager では、デフォルトの仮想ディスクユーザーロールが 2 つ提供されますが、デフォルトの仮想ディスク管理者ロールはありません。ユーザーロールの 1 つである DiskCreator ロールは、VM ポータルから仮想ディスクの管理を可能にします。このロールは、特定の仮想マシン、データセンター、特定のストレージドメイン、または仮想化環境全体に適用することができます。これは、異なるユーザーが異なる仮想リソースを管理できるようにするのに役立ちます。

仮想ディスク作成者ロールは、以下のアクションを許可します。

  • 仮想マシンまたは他のリソースに関連付けられた仮想ディスクの作成、編集、および削除。
  • 仮想ディスクのユーザーパーミッションを編集します。
注記

ロールやパーミッションは、既存のユーザーにのみ割り当てできます。

1.2.20. 仮想ディスクユーザーロールの概要

仮想ディスクユーザーパーミッションロール

以下の表は、VM ポータルでの仮想ディスクの使用および管理に適用されるユーザーロールおよび権限について説明しています。

表1.11 Red Hat Virtualization システム管理者ロール

ロール権限備考

DiskOperator

仮想ディスクユーザー。

仮想ディスクの使用、表示、編集が可能です。仮想ディスクが接続されている仮想マシンを使用するパーミッションを継承します。

DiskCreator

割り当てられたクラスターまたはデータセンター内の仮想ディスクを作成、編集、管理、および削除できる。

このロールは特定の仮想ディスクには適用されません。Configure ウィンドウで環境全体のユーザーにこのロールを適用します。また、特定のデータセンター、クラスター、またはストレージドメインにこのロールを適用することもできます。

1.2.21. レガシー SPICE 暗号の設定

SPICEコンソールでは、デフォルトで FIPS 準拠の暗号化を行い、暗号文字列を使用します。デフォルトの SPICE 暗号文字列は kECDHE+FIPS:kDHE+FIPS:kRSA+FIPS:!eNULL:!aNULL です。

通常、この文字列で十分です。ただし、古いオペレーティングシステムまたは SPICE クライアントの仮想マシンがあり、そのうちのいずれかが FIPS 準拠の暗号化に対応していない場合は、弱い暗号文字列を使用する必要があります。そうしないと、新規クラスターまたは新規ホストを既存のクラスターにインストールし、その仮想マシンへの接続を試みると、接続のセキュリティーエラーが発生します。

Ansible Playbook を使用して暗号文字列を変更できます。

暗号文字列の変更

  1. Manager マシンで、/usr/share/ovirt-engine/playbooks ディレクトリーにファイルを作成します。以下に例を示します。

    # vim /usr/share/ovirt-engine/playbooks/change-spice-cipher.yml
  2. ファイルに以下を入力し、保存します。

    name: oVirt - setup weaker SPICE encryption for old clients
    hosts: hostname
    vars:
      host_deploy_spice_cipher_string: 'DEFAULT:-RC4:-3DES:-DES'
    roles:
      - ovirt-host-deploy-spice-encryption
  3. 作成したファイルを実行します。

    # ansible-playbook -l hostname /usr/share/ovirt-engine/playbooks/change-spice-cipher.yml

または、以下のように変数 host_deploy_spice_cipher_string を指定して --extra-vars オプションを使用して、Ansible Playbook ovirt-host-deploy でホストを再設定できます。

# ansible-playbook -l hostname \
  --extra-vars host_deploy_spice_cipher_string=”DEFAULT:-RC4:-3DES:-DES” \
  /usr/share/ovirt-engine/playbooks/ovirt-host-deploy.yml

1.3. スケジューリングポリシー

スケジューリングポリシーは、スケジューリングポリシーが適用されるクラスター内のホスト間で仮想マシンが分散されるロジックを定義するルールのセットです。スケジューリングポリシーは、フィルター、重み付け、および負荷分散ポリシーの組み合わせにより、このロジックを決定します。フィルターモジュールはハード強制を適用し、そのフィルターで指定された条件を満たさないホストを除外します。加重モジュールはソフト強制を適用し、仮想マシンが実行できるクラスター内のホストを決定する際に考慮される要因の相対優先度を制御するために使用されます。

Red Hat Virtualization Manager には 5 つのデフォルトスケジューリングポリシー Evenly_DistributedCluster_MaintenanceNonePower_Saving、および VM_Evenly_Distributed があります。また、新しいスケジューリングポリシーを定義することで、仮想マシンの配布をきめ細かく制御することができます。スケジューリングポリシーに関わらず、CPU が過負荷状態のホストでは仮想マシンが起動しません。デフォルトでは、ホストの CPU が 5 分間 80% 以上の負荷がかかった場合に過負荷と判断されますが、この値はスケジューリングポリシーを使って変更できます。各スケジューリングポリシーのプロパティーに関する詳細は、「スケジューリングポリシー設定に関する説明」 を参照してください。

図1.4 Evenly Distributed スケジューリングポリシー

RHV SchedulingPolicies 444396 0417 ECE EvenlyDistributed

Evenly_Distributed スケジューリングポリシーは、クラスター内のすべてのノードでメモリーおよび CPU 処理の負荷を均等に分散します。ホストが定義された CpuOverCommitDurationMinutesHighUtilization、または MaxFreeMemoryForOverUtilized に達した場合、ホストにアタッチされた追加の仮想マシンは起動しません。

VM_Evenly_Distributed スケジューリングポリシー仮想マシンは、仮想マシンの数に基づいてホスト間で均等に分散されます。HighVmCount よりも多くの仮想マシンを実行しているホストがあり、仮想マシン数が MigrationThreshold の範囲外であるホストが少なくとも 1 つ存在する場合、クラスターはアンバランスであると判断されます。

図1.5 Power Saving スケジューリングポリシー

RHV SchedulingPolicies 444396 0417 ECE PowerSaving

Power_Saving スケジューリングポリシーは、利用可能なホストのサブセットにメモリーおよび CPU 処理の負荷を分散し、使用率の低いホストの消費電力を減らします。CPU 負荷が低稼働率の値を下回っている状態が定義された時間以上続いたホストは、すべての仮想マシンを他のホストに移行させ、電源を切れるようにします。ホストにアタッチされた追加の仮想マシンは、そのホストが定義された高使用率値に達した場合には起動しません。

仮想マシンの実行でホスト間で負荷やパワーを共有しないように、None ポリシーを設定します。これがデフォルトのモードです。仮想マシンが起動すると、メモリーと CPU 処理の負荷がクラスター内の全ホストに均等に分散されます。ホストが定義された CpuOverCommitDurationMinutesHighUtilization、または MaxFreeMemoryForOverUtilized に達した場合、ホストにアタッチされた追加の仮想マシンは起動しません。

Cluster_Maintenance スケジューリングポリシーは、メンテナンスタスク時にクラスター内のアクティビティーを制限します。Cluster_Maintenance ポリシーが設定されている場合、高可用性仮想マシンを除き、新しい仮想マシンを起動できません。ホストの障害が発生した場合、高可用性仮想マシンが正しく再起動し、どの仮想マシンも移行できます。

1.3.1. スケジューリングポリシーの作成

新規のスケジューリングポリシーを作成して、仮想マシンを Red Hat Virtualization 環境の特定のクラスターに分散するロジックを制御できます。

スケジューリングポリシーの作成

  1. AdministrationConfigure をクリックします。
  2. Scheduling Policies タブをクリックします。
  3. New をクリックします。
  4. スケジュールポリシーの NameDescription を入力します。
  5. フィルターモジュールを設定します。

    1. Filter Modules セクションで、Disabled Filters セクションから Enabled Filters セクションに、優先するフィルターモジュールをドラッグアンドドロップしてスケジューリングポリシーに適用します。
    2. また、特定のフィルターモジュールを First として設定して優先度を最も高くしたり、Last として設定して優先度を最も低くすることもできます。優先度を設定するには、フィルターモジュールを右クリックし、Position にカーソルを合わせ、First または Last を選択します。
  6. 加重モジュールを設定します。

    1. Weights Modules セクションで、Disabled Weights セクションから Enabled Weights セクションに、優先する加重モジュールをドラッグアンドドロップしてスケジューリングポリシーに適用します。
    2. 有効な加重モジュールの左側にある + および - ボタンを使用して、これらのモジュールの重みを増減します。
  7. ロードバランシングポリシーを指定します。

    1. Load Balancer セクションのドロップダウンメニューから、スケジューリングポリシーに適用する負荷分散ポリシーを選択します。
    2. Properties セクションのドロップダウンメニューから、スケジューリングポリシーに適用する負荷分散プロパティーを選択し、そのプロパティーの右側にある text フィールドを使用して値を指定します。
    3. + ボタンおよび - ボタンを使用して、プロパティーを追加または削除します。
  8. OK をクリックします。

1.3.2. New Scheduling Policy および Edit Scheduling Policy ウィンドウの設定の説明

以下の表は、New Scheduling Policy および Edit Scheduling Policy ウィンドウで利用可能なオプションの詳細を示しています。

表1.12 New Scheduling Policy および Edit Scheduling Policy の設定

フィールド名説明

Name

スケジューリングポリシーの名前。これは、Red Hat Virtualization Manager のスケジューリングポリシーを参照するために使用される名前です。

説明

スケジューリングポリシーの説明。このフィールドは推奨されますが、必須ではありません。

Filter Modules

クラスター内の仮想マシンが実行できるホストを制御するフィルターセット。フィルターを有効にすると、以下のように、フィルターで指定された条件を満たさないホストが除外されます。

  • CpuPinning: CPU ピニングの定義を満たさないホスト。
  • Migration: 同じホストへの移行を防ぎます。
  • PinToHost: 仮想マシンが固定されているホスト以外のホスト。
  • CPU-Level: 仮想マシンの CPU トポロジーを満たさないホスト。
  • CPU: 仮想マシンに割り当てられた数よりも少ない CPU を持つホスト。
  • Memory: 仮想マシンを実行するために十分なメモリーを持たないホスト。
  • VmAffinityGroups: アフィニティーグループのメンバーである仮想マシンに指定した条件を満たさないホスト。たとえば、アフィニティーグループの仮想マシンは、同じホストまたは別のホストで実行される必要があることなど。
  • VmToHostsAffinityGroups: アフィニティーグループのメンバーである仮想マシンに指定した条件を満たさないホストのグループ。たとえば、アフィニティーグループの仮想マシンは、グループ内のいずれかのホスト上で動作するか、グループから除外された別のホスト上で動作する必要があることなど。
  • InClusterUpgrade: 仮想マシンが現在実行しているホストよりも以前のオペレーティングシステムを実行しているホスト。
  • hostdevice: 仮想マシンに必要なホストデバイスに対応していないホスト。
  • HA: セルフホスト型エンジン環境内の Manager 用仮想マシンを強制し、正の高可用性スコアのあるホストでのみ実行するようにします。
  • Emulated-Machine: 適切なエミュレートされたマシンをサポートしていないホスト。
  • Network: 仮想マシンのネットワークインターフェースコントローラーで必要なネットワークがインストールされていないホスト、またはクラスターのディスプレイネットワークがインストールされていないホスト。
  • HostedEnginesSpares: 指定した数のセルフホストエンジンノードに Manager 仮想マシンの領域を確保します。
  • Label: 必要なアフィニティーラベルを持たないホスト。
  • Compatibility-Version: 正しい互換性バージョンがサポートされているホスト上でのみ仮想マシンを実行します。
  • CPUOverloaded: CPU がオーバーロードされたホスト。

Weights Modules

仮想マシンを実行できるクラスター内のホストを決定する際に考慮される要因の相対優先度を制御する重みのセット。

  • InClusterUpgrade: オペレーティングシステムのバージョンに応じてホストを重み付けします。この重みは、仮想マシンが現在実行されているホストと同じオペレーティングシステムを持つホストよりも、以前のオペレーティングシステムを持つホストにペナルティーを与えます。これにより、より新しいホストが常に優先されるようになります。
  • OptimalForHaReservation: 高可用性スコアに従ってホストを重み付けします。
  • None: 均等割り付けモジュールに基づいてホストの重み付けを行います。
  • OptimalForEvenGuestDistribution: ホスト上で稼働している仮想マシンの数に応じて、ホストを重み付けします。
  • VmAffinityGroups: 仮想マシンに定義されたアフィニティーグループに応じて、ホストを重み付けします。この加重モジュールは、あるアフィニティーグループの仮想マシンが、そのアフィニティーグループのパラメーターに応じて、同じホスト上で実行される可能性や、別々のホスト上で実行される可能性を決定します。
  • VmToHostsAffinityGroups: 仮想マシンに定義されたアフィニティーグループに応じて、ホストを重み付けします。この重みモジュールは、アフィニティーグループの仮想マシンが、グループ内のホストの 1 つ、またはグループから除外された別のホスト上で実行される可能性を決定します。
  • OptimalForCPUPowerSaving: CPU 使用率に従ってホストを重み付けし、CPU 使用率が高いホストを優先します。
  • OptimalForEvenCpuDistribution : CPU 使用率に従ってホストを重み付けし、CPU 使用率が低いホストを優先します。
  • HA: 高可用性スコアに応じてホストを重み付けします。
  • PreferredHosts: 仮想マシンのセットアップ時に優先的に使用するホストを指定します。
  • OptimalForMemoryPowerSaving: メモリーの使用量に応じてホストを重み付けし、利用可能なメモリーが少ないホストを優先します。
  • OptimalForMemoryEvenDistribution : メモリーの使用量に応じてホストを重み付けし、利用可能なメモリーが多いホストを優先します。

ロードバランサー

このドロップダウンメニューでは、適用する負荷分散モジュールを選択できます。負荷分散モジュールは、使用率が高いホストから、使用率が低いホストに仮想マシンを移行するために使用されるロジックを決定します。

プロパティー

このドロップダウンメニューでは、負荷分散モジュールのプロパティーを追加または削除でき、スケジューリングポリシーに負荷分散モジュールを選択している場合にのみ利用できます。デフォルトではプロパティーは定義されておらず、利用可能なプロパティーは、選択された負荷分散モジュールに固有です。+ および - ボタンを使用して、負荷分散モジュールにプロパティーを追加または削除します。

1.4. インスタンスタイプ

インスタンスタイプを使用して、仮想マシンのハードウェア設定を定義できます。仮想マシンの作成時または編集時にインスタンスタイプを選択すると、ハードウェア設定フィールドが自動的に入力されます。これにより、すべてのフィールドを手動で入力しなくても、同じハードウェア設定で複数の仮想マシンを作成できます。

以下の表で説明されているように、事前定義されたインスタンスタイプのセットはデフォルトで利用できます。

表1.13 事前定義されたインスタンスタイプ

NameメモリーvCPU

Tiny

512 MB

1

Small

2 GB

1

4 GB

2

Large

8 GB

2

XLarge

16 GB

4

管理者は Configure ウィンドウの Instance Types タブから、インスタンスタイプを作成、編集、および削除できます。

インスタンスタイプにバインドされる New Virtual Machine および Edit Virtual Machine ウィンドウのフィールドの横にチェーンリンクイメージ ( 6121 ) があります。これらのフィールドの値の 1 つが変更されると、仮想マシンはインスタンスタイプから切り離され、Custom に変更され、チェーンが切れたよう見えます ( 6122 )。しかし、値が元に戻されると、チェーンは再度リンクし、インスタンスタイプは選択されたものに戻ります。

1.4.1. インスタンスタイプの作成

管理者は、仮想マシンの作成時または編集時にユーザーが選択する新しいインスタンスタイプを作成できます。

インスタンスタイプの作成

  1. AdministrationConfigure をクリックします。
  2. Instance Types タブをクリックします。
  3. New をクリックします。
  4. インスタンスタイプの Name および Description を入力します。
  5. Show Advanced Options をクリックし、必要に応じてインスタンスタイプを設定します。New Instance Type ウィンドウに表示される設定は、New Virtual Machine ウィンドウの設定と同じですが、関連するフィールドのみが表示されます。『 Virtual Machine Management Guide 』 の 「 Explanation of Settings in the New Virtual Machine and Edit Virtual Machine Windows 」 を参照してください。
  6. OK をクリックします。

新規インスタンスタイプは Configure ウィンドウの Instance Types タブに表示され、仮想マシンの作成時または編集時に Instance Type ドロップダウンリストから選択できます。

1.4.2. インスタンスタイプの編集

管理者は、Congifure ウインドウから既存のインスタンスタイプを編集できます。

インスタンスタイププロパティーの編集

  1. AdministrationConfigure をクリックします。
  2. Instance Types タブをクリックします。
  3. 編集するインスタンスタイプを選択します。
  4. 編集 をクリックします。
  5. 必要に応じて設定を変更します。
  6. OK をクリックします。

インスタンスタイプの設定が更新されます。このインスタンスタイプに基づく新しい仮想マシンが作成されるか、このインスタンスタイプに基づく既存の仮想マシンが更新されると、新しい設定が適用されます。

このインスタンスタイプに基づく既存の仮想マシンには、更新されるチェーンアイコンが付いたフィールドが表示されます。インスタンスタイプの変更時に既存の仮想マシンが稼働していた場合は、その横にオレンジ色のPending Changes アイコンが表示され、次回の再起動時にチェーンのアイコンが付いたフィールドが更新されます。

1.4.3. インスタンスタイプの削除

インスタンスタイプの削除

  1. AdministrationConfigure をクリックします。
  2. Instance Types タブをクリックします。
  3. 削除するインスタンスタイプを選択します。
  4. 削除 をクリックします。
  5. 削除するインスタンスタイプに基づいた仮想マシンがある場合は、アタッチされた仮想マシンをリストする警告ウィンドウが表示されます。インスタンスタイプの削除を続行するには、Approve Operation チェックボックスを選択します。それ以外の場合は、Cancel をクリックします。
  6. OK をクリックします。

インスタンスタイプが Instance Types リストから削除され、新規仮想マシンの作成時に使用できなくなります。削除されたインスタンスタイプにアタッチされた仮想マシンは Custom (インスタンスタイプなし) にアタッチされるようになります。

1.5. MAC アドレスプール

MAC アドレスプールは、各クラスターに割り当てられる MAC アドレスの範囲を定義します。各クラスターに MAC アドレスプールが指定されます。MAC アドレスプールを使用すると、Red Hat Virtualization は MAC アドレスを自動的に新しい仮想ネットワークデバイスに生成して割り当てることができます。これは、MAC アドレスの重複を防ぐのに役立ちます。MAC アドレスプールは、クラスターに関連するすべての MAC アドレスが、割り当てられた MAC アドレスプールの範囲内にあると、メモリー効率が高くなります。

同じ MAC アドレスプールを複数のクラスターで共有できますが、各クラスターには MAC アドレスプールが 1 つ割り当てられます。デフォルトの MAC アドレスプールは Red Hat Virtualization によって作成され、別の MAC アドレスプールが割り当てられない場合に使用されます。MAC アドレスプールをクラスターに割り当てる方法は、「新規クラスターの作成」 を参照してください。

注記

複数の Red Hat Virtualization クラスターがネットワークを共有する場合は、デフォルトの MAC アドレスプールのみに依存しないでください。これは、各クラスターの仮想マシンが同じ範囲の MAC アドレスを使用しようとするため、競合が発生するためです。MAC アドレスの競合を回避するには、MAC アドレスプールの範囲をチェックして、各クラスターに一意の MAC アドレス範囲が割り当てられていることを確認します。

MACアドレスプールでは、最後にプールに戻されたアドレスの次に利用可能な MAC アドレスが割り当てられます。範囲内に残されたアドレスがない場合には、範囲の先頭から検索を再開します。1 つのMACアドレスプールに、利用可能な MAC アドレスがある複数の MAC アドレスの範囲が定義されている場合、利用可能な MAC アドレスが選択されるのと同じように、範囲が順番に受信リクエストに対応します。

1.5.1. MAC アドレスプールの作成

新しい MAC アドレスプールを作成できます。

MAC アドレスプールの作成

  1. AdministrationConfigure をクリックします。
  2. MAC Address Pool タブをクリックします。
  3. Add をクリックします。
  4. 新しい MAC アドレスプールの Name および Description を入力します。
  5. Allow Duplicates チェックボックスを選択し、MAC アドレスをプールで複数回使用できるようにします。MACアドレスプールでは、重複した MAC アドレスを自動的に使用することはありませんが、duplicates オプションを有効にすると、ユーザーが重複した MAC アドレスを手動で使用できます。

    注記

    ある MAC アドレスプールで重複を無効にし、別の MAC アドレスプールで重複を有効にした場合、重複を無効にしたプールでは各 MAC アドレスは 1 回しか使用できませんが、重複を有効にしたプールでは複数回使用できます。

  6. 必要な MAC Address Ranges を入力します。複数の範囲を入力するには、From フィールドおよび To フィールドの横にあるプラスボタンをクリックします。
  7. OK をクリックします。

1.5.2. MAC アドレスプールの編集

MAC アドレスプールを編集して、プールで利用可能な MAC アドレスの範囲や重複が許可されるかどうかなどの詳細を変更できます。

MAC アドレスプールプロパティーの編集

  1. AdministrationConfigure をクリックします。
  2. MAC Address Pool タブをクリックします。
  3. 編集する MAC アドレスプールを選択します。
  4. 編集 をクリックします。
  5. 必要に応じて NameDescriptionAllow Duplicates、および MAC Address Ranges フィールドを変更します。

    注記

    MAC アドレス範囲を更新すると、既存の NIC の MAC アドレスは再割り当てされません。すでに割り当てられている MAC アドレスで、新しい MAC アドレスの範囲外のものは、ユーザー指定の MAC アドレスとして追加され、その MAC アドレスプールで追跡されます。

  6. OK をクリックします。

1.5.3. MAC アドレスプールのパーミッションの編集

MAC アドレスプールの作成後に、そのユーザー権限を編集できます。ユーザーパーミッションにより、どのデータセンターが MAC アドレスプールを使用できるかが制御されます。新規ユーザーパーミッションの追加に関する詳細は、「ロール」 を参照してください。

MAC アドレスプールのパーミッションの編集

  1. AdministrationConfigure をクリックします。
  2. MAC Address Pool タブをクリックします。
  3. 必要な MAC アドレスプールを選択します。
  4. MAC アドレスプールのユーザーパーミッションを編集します。

    • ユーザーパーミッションを MAC アドレスプールに追加するには、以下を実行します。

      1. Configure ウィンドウの下にあるユーザー権限ペインで Add をクリックします。
      2. 必要なユーザーを検索して選択します。
      3. Role to Assign ドロップダウンリストから必要なロールを選択します。
      4. OK をクリックしてユーザーパーミッションを追加します。
    • ユーザーパーミッションを MAC アドレスプールから削除するには、以下を実行します。

      1. Configure ウィンドウの下にあるユーザー権限ペインで、削除するユーザー権限を選択します。
      2. ユーザーの権限を削除するには、Remove をクリックします。

1.5.4. MAC アドレスプールの削除

作成した MAC アドレスプールがクラスタに関連付けられていない場合は削除できますが、デフォルトの MAC アドレスプールは削除できません。

MAC アドレスプールの削除

  1. AdministrationConfigure をクリックします。
  2. MAC Address Pool タブをクリックします。
  3. 削除する MAC アドレスプールを選択します。
  4. Remove をクリックします。
  5. OK をクリックします。

第2章 ダッシュボード

ダッシュボードは、Red Hat Virtualization のリソースと使用率の概要を表示することで、Red Hat Virtualization のシステム状態の概要を提供します。この概要により、問題を警告することができ、問題領域を分析できます。

ダッシュボードの情報は、Data Warehouse からはデフォルトで 15 分ごと、Manager API からはデフォルトで 15秒 ごと、またはダッシュボードが更新されるたびに更新されます。ダッシュボードは、ユーザーが他のページから戻ったときや、手動でリフレッシュしたときに更新されます。ダッシュボードは自動的に更新されません。インベントリーカードの情報は Manager API から提供され、利用状況の情報は Data Warehouse から提供されます。ダッシュボードは、UI プラグインコンポーネントとして実装されており、Manager と一緒に自動的にインストールおよびアップグレードされます。

図2.1 ダッシュボード

RHVdashboard

2.1. 前提条件

ダッシュボードを使用するには、Data Warehouseがインストールされ、設定されている必要があります。『 Data Warehouse Guide 』 の 「 Installing and Configuring Data Warehouse 」 を参照してください。

2.2. グローバルインベントリー

ダッシュボードの上部には、Red Hat Virtualization リソースのグローバルインベントリーが表示され、データセンター、クラスター、ホスト、ストレージドメイン、仮想マシン、イベントなどの項目が含まれます。アイコンは各リソースの状態、数字はその状態にある各リソースの数量を表しています。

図2.2 グローバルインベントリー

ダッシュボードインベントリー

タイトルにはリソースの種類別の数が表示され、その下にはステータスが表示されます。リソースのタイトルをクリックすると、Red Hat Virtualization Manager の関連ページに移動します。Clusters のステータスは常に N/A と表示されます。

表2.1 リソースの状況

アイコン状態

Dashboard No Items

Red Hat Virtualization にはそのようなリソースは一切追加されていません。

Dashboard Warning

警告ステータスを持つリソースの番号を表示します。アイコンをクリックすると、該当ページに移動し、検索対象は警告状態のリソースに限定されます。検索の制限は、リソースごとに異なります。

  • Data Centers: 検索対象は、稼働していないデータセンターまたは応答していないデータセンターに限られます。
  • Gluster Volumes: 検索対象は、開始中、一時停止中、移行中、待機中、中断中、または停止中の Gluster ボリュームに限定されます。
  • Hosts: 検索対象は、未割り当て、メンテナンスモード、インストール中、再起動中、メンテナンスの準備中、承認待ち、または 接続中のホストに限定されます。
  • Storage Domains: 検索対象となるのは、初期化されていない、アタッチされていない、非クティブでない、メンテナンスモード、メンテナンスの準備中、デタッチ中、またはアクティベート中のストレージドメインに限られます。
  • Virtual Machines:: 検索対象は、開始中、一時停止中、移行中、待機中、中断中、または停止中の仮想マシンに限定されます。
  • Events: 重大度が警告のイベントに限定して検索を行います。

Dashboard Up

up ステータスを持つリソースの番号を表示します。アイコンをクリックすると、該当ページに移動し、検索対象は up 状態のリソースに限定されます。

Dashboard Down

down 状態のリソースの番号を表示します。アイコンをクリックすると、該当ページに移動し、検索対象は down 状態のリソースに限定されます。検索の制限は、リソースごとに異なります。

  • Data Centers: 検索対象は、初期化されていない、メンテナンスモード、または down ステータスのデータセンターに限られます。
  • Gluster Volumes: 検索対象は、デタッチされているまたは非アクティブな Gluster ボリュームに限られます。
  • Hosts: 検索対象は、反応しない、エラーが発生している、インストールエラーが発生している、動作していない、初期化中、または down 状態のホストに限られます。
  • Storage Domains: 検索対象は、デタッチされているまたは非アクティブなストレージドメインに限られます。
  • Virtual Machines: 検索対象は、Down 状態、応答していない、または再起動中の仮想マシンに限られます。

Dashboard Alert

アラートステータスを持つイベントの数を表示します。アイコンをクリックすると Events に移動しますが、検索対象は深刻度が警告のイベントに限定されます。

Dashboard Error

エラーステータスを持つイベントの数を表示します。アイコンをクリックすると Events に移動しますが、検索対象は深刻度がエラーのイベントに限定されます。

2.3. グローバルでの活用

Global Utilization セクションでは、CPU、Memory、Storage のシステム使用状態が表示されます。

図2.3 グローバルでの活用

ダッシュボードグローバルな利用状況
  • 上段には、利用可能な CPU、メモリ、ストレージ、およびオーバーコミット率の割合が表示されます。たとえば、CPU のオーバーコミット率は、Data Warehouse の最新データに基づいて、仮想コアの数を実行中の仮想マシンで利用可能な物理コアの数で割って算出します。
  • ドーナツは、CPU、メモリ、またはストレージの使用率をパーセンテージで表示し、過去 5 分間の平均使用率に基づいて、すべてのホストの平均使用率を表示します。ドーナツの断面にカーソルを合わせると、選択したセクションの値が表示されます。
  • 下部の折れ線グラフは、過去 24 時間の傾向を表示しています。各データポイントは、特定の時間の平均使用量を示しています。グラフ上のポイントにカーソルを合わせると、CPU のグラフでは時間と使用率が、メモリーとストレージのグラフでは使用量が表示されます。

2.3.1. 最も使用されているリソース

図2.4 最も使用されているリソース (メモリー)

ダッシュボードポップアップ

ダッシュボードのグローバル使用率の項目にあるドーナツをクリックすると、CPU、メモリー、ストレージのうち、使用率の高いリソースのリストが表示されます。CPU とメモリーについては、最も使用率の高い 10 台のホストと仮想マシンのリストがポップアップで表示されます。ストレージについては、利用されているストレージドメインと仮想マシンのトップ 10 のリストがポップアップで表示されます。使用量バーの右にある矢印は、そのリソースの直近 1 分間の使用量の傾向を示しています。

2.4. クラスターの活用

Cluster Utilization セクションは、CPU とメモリーのクラスター使用率をヒートマップで表示します。

図2.5 クラスターの活用

ダッシュボードクラスターの利用状況

2.4.1. CPU

過去 24 時間の CPU の平均使用率を示す特定クラスターの CPU 使用率のヒートマップ。ヒートマップにカーソルを合わせると、クラスター名が表示されます。ヒートマップをクリックすると、ComputeHosts に移動し、特定のクラスターの検索を CPU 使用率でソートした結果が表示されます。クラスターによる CPU の使用率を計算するために使用される式は、クラスターのホスト CPU 使用率の平均です。これは、クラスターによる CPU の合計平均使用率を出すために、過去 24 時間の各ホストの CPU 使用率の平均値を用いて算出されます。

2.4.2. メモリー

過去 24 時間のメモリーの平均使用率を示す特定クラスターのメモリー使用率のヒートマップ。ヒートマップにカーソルを合わせると、クラスター名が表示されます。ヒートマップをクリックすると、ComputeHosts に移動し、特定のクラスターの検索をメモリー使用率でソートした結果が表示されます。クラスターによるメモリー使用率を計算するために使用される式は、クラスターのメモリー使用率の合計 (GB 単位) です。これは、クラスターによるメモリー合計平均使用率を出すために、過去 24 時間の各ホストの平均メモリー使用率を用いて算出されます。

2.5. ストレージの活用

Storage Utilization セクションは、ヒートマップでストレージ使用率を表示します。

図2.6 ストレージの活用

ダッシュボードストレージ使用状況

ヒートマップは、過去 24 時間のストレージの平均利用率を表します。クラスターによるストレージ使用率を計算するために使用される式は、クラスターのストレージ使用率の合計です。これは、クラスターによる ストレージ の合計平均使用率を出すために、過去 24 時間の各ホストの平均ストレージ使用率を用いて算出されます。ヒートマップにカーソルを合わせると、ストレージドメイン名が表示されます。ヒートマップをクリックすると StorageDomains に移動し、ストレージドメインが使用率でソートされます。

第3章 検索

3.1. Red Hat Virtualizationでの検索

管理ポータルでは、仮想マシン、ホスト、ユーザーなど、何千ものリソースを管理することができます。検索を行うには、各リソースのメインページにある検索バーに、検索クエリ (フリーテキストまたは構文ベース) を入力します。検索条件をブックマークとして保存しておけば、検索結果を必要とするたびに検索条件を再入力する必要はありません。検索では大文字小文字の区別はありません。

3.2. 検索構文と例

Red Hat Virtualization リソースの検索クエリーの構文は以下のとおりです。

result type: {criteria} [sortby sort_spec]

構文の例

以下の例は、検索クエリーの使用方法と、Red Hat Virtualization が検索クエリーの構築を支援する方法を理解するのに役立ちます。

表3.1 検索クエリーの例

結果

Hosts: Vms.status = up page 2

稼働中の仮想マシンを実行しているすべてのホストのリストの 2 ページ目を表示します。

Vms: domain = qa.company.com

指定されたドメインで稼働しているすべての仮想マシンの一覧を表示します。

Vms: users.name = Mary

ユーザー名が Mary のユーザーに属する全仮想マシンの一覧を表示します。

Events: severity > normal sortby time

重大度が Normal よりも高いすべての Events の一覧を表示します。

3.3. 自動完了の検索

管理ポータルは、有効で強力な検索クエリーの作成に役立つ自動補完を提供します。検索クエリーの各部分を入力すると、検索の次の部分を選択するドロップダウンリストが、Search Bar の下に開きます。一覧から選択して、検索の次の部分の入力/選択を続けたり、オプションを無視したりして、手動でクエリーを入力を続けたりできます。

以下の表は、管理ポータルの自動補完がクエリーの構築を助けるする方法の例を示しています。

Hosts: Vms.status = down

表3.2 自動補完を使用した検索クエリーの例

入力表示されているリスト項目アクション

h

Hosts (1 つのオプションのみ)

Hosts を選択または Hosts を入力

Hosts:

すべてのホストプロパティー

v を入力

Hosts: v

vで始まるホストプロパティー

Vmsを選択または Vms を入力

Hosts: Vms

すべての仮想マシンプロパティー

s を入力

Hosts: Vms.s

s で始まるすべての仮想マシンプロパティー

status を選択または status を入力

Hosts: Vms.status

=

!=

= を選択または入力

Hosts: Vms.status =

すべてのステータス値

down を選択または入力

3.4. 検索結果タイプオプション

結果のタイプを使用すると、以下のタイプのリソースを検索できます。

  • Vms、仮想マシンのリスト。
  • Host、ホストのリスト。
  • Pools、プールのリスト。
  • Template、テンプレートのリスト。
  • Events、イベントのリスト。
  • Users、ユーザーのリスト。
  • Cluster、クラスターのリスト。
  • DataCenter、データセンターのリスト。
  • Storage、ストレージドメインのリスト。

各タイプのリソースには、一意のプロパティーセットと、関連付けられたその他のリソースタイプのセットがあるため、各検索タイプには、有効な構文の組み合わせがあります。自動補完機能を使用して、有効なクエリーも簡単に作成できます。

3.5. 検索基準

クエリーのコロンの後に検索条件を指定できます。{criteria} の構文は以下のようになります。

<prop><operator><value>

または

<obj-type><prop><operator><value>

以下の表は、構文の部分を示しています。

表3.3 検索基準の例

部分説明備考

prop

検索対象リソースのプロパティー。リソースタイプのプロパティー (obj-type を参照) または tag (カスタムタグ) にすることもできます。

検索対象を特定のプロパティーを持つオブジェクトに制限します。たとえば、status プロパティーでオブジェクトを検索します。

状態

該当なし

obj-type

検索対象のリソースに関連付けることができるリソースタイプ。

これは、データセンターや仮想マシンなどのシステムオブジェクトです。

ユーザー

該当なし

operator

比較演算子。

=

!= (等しくない)

>

<

>=

<=

該当なし

値オプションはプロパティーによって異なります。

その式が何と比較されるか。

文字列

整数

ランキング

日付 (Regional Settings に応じた書式設定)

Jones

256

normal

  • ワイルドカードは文字列内で使用できます。
  • "" (間にスペースが入っていない 2 つの引用符のセット) は、初期化されていない (空の) 文字列を表すために使用できます。
  • スペースが含まれる文字列または日付を二重引用符で囲む必要があります

3.6. 検索: 複数の基準およびワイルドカード

ワイルドカードは文字列の構文の <value> 部分で使用できます。たとえば、m で始まる全ユーザーを検索するには、m* を入力します。

ブール演算子の AND および OR を使用して、2 つの基準を持つ検索を実行できます。以下に例を示します。

Vms: users.name = m* AND status = Up

このクエリーは、名前が「m」で始まるユーザーに対して実行中の仮想マシンをすべて返します。

Vms: users.name = m* AND tag = "paris-loc"

このクエリーは、名前が「m」で始まるユーザーに対して「paris-loc」でタグ付けされたすべての仮想マシンを返します。

AND または OR を使用せずに 2 つの基準を指定した場合、AND が暗黙的に指定されます。ANDOR よりも優先され、OR は暗黙の AND よりも優先されます。

3.7. 検索: 検索順序の決定

返される情報の並び替え順序は、sortby を使用して決定できます。並べ替え方向 (昇順は asc、降順は desc) を含めることができます。

以下に例を示します。

events: severity > normal sortby time desc

このクエリーは、重大度が Normal よりも大きいすべての Events を時刻でソートして返します (降順)。

3.8. データセンターの検索

以下の表は、データセンターのすべての検索オプションを示しています。

表3.4 データセンターの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Clusters.clusters-prop

プロパティータイプによります。

データセンターに関連付けられたクラスターのプロパティー。

name

文字列

データセンターの名前。

description

文字列

データセンターの説明

type

文字列

データセンターのタイプ。

status

リスト

データセンターの可用性

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

datacenter: type = nfs and status != up

この例では、ストレージタイプが NFS で up 以外状態のデータセンターの一覧を返します。

3.9. クラスターの検索

以下の表は、クラスターのすべての検索オプションについて説明しています。

表3.5 クラスターの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Datacenter.datacenter-prop

プロパティータイプによります。

クラスターに関連付けられたデータセンターのプロパティー。

Datacenter

文字列

クラスターが属するデータセンター。

name

文字列

ネットワーク上のクラスターを識別する一意の名前。

description

文字列

クラスターの説明。

initialized

文字列

クラスターのステータスを示す true または False。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

Clusters: initialized = true or name = Default

この例では、初期化されたクラスターまたは Default という名前のクラスターの一覧を返します。

3.10. ホストの検索

以下の表は、ホストの全検索オプションを示しています。

表3.6 ホストの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Vms.Vms-prop

プロパティータイプによります。

ホストに関連付けられた仮想マシンのプロパティー。

Templates.templates-prop

プロパティータイプによります。

ホストに関連付けられたテンプレートのプロパティー。

Events.events-prop

プロパティータイプによります。

ホストに関連付けられたイベントのプロパティー。

Users.users-prop

プロパティータイプによります。

ホストに関連付けられたユーザーのプロパティー。

name

文字列

ホストの名前。

status

リスト

ホストの可用性。

external_status

文字列

外部システムおよびプラグインによって報告されるホストのヘルスステータス。

cluster

文字列

ホストが属するクラスター。

address

文字列

ネットワーク上のホストを識別する一意の名前。

cpu_usage

整数

使用される処理能力の割合。

mem_usage

整数

使用されるメモリーの割合。

network_usage

整数

ネットワーク使用率の割合。

load

整数

特定のタイムスライスで、プロセッサーごとに run-queue で実行されるのを待っているジョブ。

version

整数

オペレーティングシステムのバージョン番号。

cpus

整数

ホスト上の CPU 数。

memory

整数

使用可能なメモリーの量。

cpu_speed

整数

CPU の処理速度。

cpu_model

文字列

CPU のタイプ。

active_vms

整数

現在実行中の仮想マシンの数。

migrating_vms

整数

現在移行中の仮想マシンの数。

committed_mem

整数

コミットされたメモリーの割合

tag

文字列

ホストに割り当てられたタグ。

type

文字列

ホストのタイプ。

datacenter

文字列

ホストが属するデータセンター。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

Hosts: cluster = Default and Vms.os = rhel6

この例では、Default クラスターの一部であるホストの一覧と、Red Hat Enterprise Linux 6 オペレーティングシステムを実行するホスト仮想マシンを返します。

3.11. ネットワークの検索

以下の表は、ネットワークの全検索オプションを説明しています。

表3.7 ネットワークの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Cluster_network.clusternetwork-prop

プロパティータイプによります。

ネットワークに関連付けられたクラスターのプロパティー。

Host_Network.hostnetwork-prop

プロパティータイプによります。

ネットワークに関連付けられたホストのプロパティー。

name

文字列

ネットワークを識別するための人が判読可能な名前。

description

文字列

ネットワークを記述するキーワードまたはテキスト。オプションでネットワークの作成時に使用されます。

vlanid

整数

ネットワークの VLAN ID。

stp

文字列

Spanning Tree Protocol (STP) がネットワークで有効または無効になっているかどうか。

mtu

整数

論理ネットワークの最大伝送単位。

vmnetwork

文字列

ネットワークが仮想マシントラフィックのみに使用されているかどうか。

datacenter

文字列

ネットワークが接続されているデータセンター。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

Network: mtu > 1500 and vmnetwork = true

この例では、最大転送単位が 1500 バイトを超え、仮想マシンのみが使用するように設定されているネットワークの一覧を返します。

3.12. ストレージの検索

以下の表は、ストレージのすべての検索オプションについて説明しています。

表3.8 ストレージの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Hosts.hosts-prop

プロパティータイプによります。

ストレージに関連付けられたホストのプロパティー。

Clusters.clusters-prop

プロパティータイプによります。

ストレージに関連付けられたクラスターのプロパティー。

name

文字列

ネットワーク上のストレージを識別する一意の名前。

status

文字列

ストレージドメインのステータス。

external_status

文字列

外部システムおよびプラグインによって報告されるストレージドメインのヘルスステータス。

datacenter

文字列

ストレージが属するデータセンター。

type

文字列

ストレージのタイプ。

size

整数

ストレージのサイズ。

used

整数

使用されるストレージの量。

committed

整数

コミットされるストレージの量。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

storage: size > 200 or used < 50

以下の例では、合計ストレージ容量が 200 GB 以上のストレージ、または使用済みストレージ容量が 50 GB 未満のストレージ一覧を返します。

3.13. ディスクの検索

以下の表は、ディスクの全検索オプションを示しています。

注記

Disk Type および Content Type フィルターオプションを使用して、表示される仮想ディスクの数を減らすことができます。

表3.9 ディスクの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Datacenters.datacenters-prop

プロパティータイプによります。

ディスクに関連付けられたデータセンターのプロパティー。

Storages.storages-prop

プロパティータイプによります。

ディスクに関連付けられたストレージのプロパティー。

alias

文字列

ネットワーク上のストレージを識別する人が判読可能な名前。

description

文字列

ディスクを記述するキーワードまたはテキスト。オプションでディスクの作成時に使用されます。

provisioned_size

整数

ディスクの仮想サイズ

size

整数

ディスクのサイズ。

actual_size

整数

ディスクに割り当てられる実際のサイズ。

creation_date

整数

ディスクが作成された日付。

bootable

文字列

ディスクを起動できるかどうか。有効な値は 01yesno のいずれかです。

shareable

文字列

ディスクを一度に複数の仮想マシンにアタッチできるかどうか。有効な値は 01yesno のいずれかです。

format

文字列

ディスクの形式。unusedunassignedcowraw のいずれかです。

status

文字列

ディスクのステータスunassignedoklockedinvalidillegal のいずれかです。

disk_type

文字列

ディスクのタイプ。image または lun のいずれか。

number_of_vms

整数

ディスクがアタッチされている仮想マシンの数。

vm_names

文字列

ディスクがアタッチされている仮想マシンの名前。

quota

文字列

仮想ディスクで強制されるクォータの名前。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

Disks: format = cow and provisioned_size > 8

以下の例では、QCOW 形式の仮想ディスクの一覧と、8 GB を超える割り当て済みのディスクサイズを返します。

3.14. ボリュームの検索

以下の表は、ボリュームのすべての検索オプションについて説明しています。

表3.10 ボリュームの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Cluster

文字列

ボリュームに関連付けられたクラスターの名前。

Cluster.cluster-prop

プロパティータイプ (例: name、description、comment、architecture) による

ボリュームに関連付けられたクラスターのプロパティー。

name

文字列

ボリュームを識別する、人が判読可能な名前。

type

文字列

distribute、replicate、distributed_replicate、stripe、または distributed_stripe のいずれか。

transport_type

整数

TCP または RDMA のいずれか。

replica_count

整数

レプリカの数。

stripe_count

整数

ストライプの数。

status

文字列

ボリュームのステータスUp または Down のいずれかです。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

Volume: transport_type = rdma and stripe_count >= 2

この例では、トランスポートタイプが RDMA に設定され、ストライプが 2 つ以上あるボリュームのリストを返します。

3.15. 仮想マシンの検索

以下の表は、仮想マシンのすべての検索オプションについて説明しています。

注記

現時点で、Network LabelCustom Emulated Machine、および Custom CPU Type プロパティーはサポートされていない検索プロパティーです。

表3.11 仮想マシンの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Hosts.hosts-prop

プロパティータイプによります。

仮想マシンに関連付けられたホストのプロパティー。

Templates.templates-prop

プロパティータイプによります。

仮想マシンに関連付けられたテンプレートのプロパティー。

Events.events-prop

プロパティータイプによります。

仮想マシンに関連付けられたイベントのプロパティー。

Users.users-prop

プロパティータイプによります。

仮想マシンに関連付けられたユーザーのプロパティー。

Storage.storage-prop

プロパティータイプによります。

仮想マシンに関連付けられたストレージデバイスのプロパティー。

Vnic.vnic-prop

プロパティータイプによります。

仮想マシンに関連付けられた VNIC のプロパティー。

name

文字列

仮想マシンの名前。

status

リスト

仮想マシンの可用性

ip

整数

仮想マシンの IP アドレス。

uptime

整数

仮想マシンが実行されている期間 (分単位)。

domain

文字列

これらのマシンをグループ化するドメイン (通常は Active Directory ドメイン)。

os

文字列

仮想マシンの作成時に選択されたオペレーティングシステム。

creationdate

Date

仮想マシンが作成された日付。

address

文字列

ネットワーク上の仮想マシンを識別する一意の名前。

cpu_usage

整数

使用される処理能力の割合。

mem_usage

整数

使用されるメモリーの割合。

network_usage

整数

使用されるネットワークの割合。

memory

整数

定義された最大メモリー。

apps

文字列

仮想マシンに現在インストールされているアプリケーション。

cluster

リスト

仮想マシンが属するクラスター。

pool

リスト

仮想マシンが属する仮想マシンプール。

loggedinuser

文字列

仮想マシンに現在ログインしているユーザーの名前。

tag

リスト

仮想マシンが属するタグ。

datacenter

文字列

仮想マシンが属するデータセンター。

type

リスト

仮想マシンタイプ(サーバーまたはデスクトップ)。

quota

文字列

仮想マシンに関連付けられたクォータの名前。

description

文字列

仮想マシンを記述するキーワードまたはテキスト。オプションとして、仮想マシンの作成時に使用されます。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

next_run_configuration_exists

ブール値

仮想マシンに保留中の設定変更があります。

Vms: template.name = Win* and user.name = ""

この例では、ベーステンプレート名が Win で始まり、任意のユーザーに割り当てられている仮想マシンの一覧を返します。

Vms: cluster = Default and os = windows7

この例では、Default クラスターに属し、Windows 7 を実行している仮想マシンの一覧を返します。

3.16. プールの検索

以下の表は、プールの全検索オプションを示しています。

表3.12 プールの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

name

文字列

プールの名前。

description

文字列

プールの説明。

type

リスト

プールのタイプ。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

Pools: type = automatic

この例では、タイプが automatic のプールの一覧を返します。

3.17. テンプレートの検索

以下の表は、テンプレートの全検索オプションを示しています。

表3.13 テンプレートの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Vms.Vms-prop

文字列

テンプレートに関連付けられた仮想マシンのプロパティー。

Hosts.hosts-prop

文字列

テンプレートに関連付けられたホストのプロパティー。

Events.events-prop

文字列

テンプレートに関連付けられたイベントのプロパティー。

Users.users-prop

文字列

テンプレートに関連付けられたユーザーのプロパティー。

name

文字列

テンプレートの名前。

domain

文字列

テンプレートのドメイン。

os

文字列

オペレーティングシステムのタイプ。

creationdate

整数

テンプレートが作成された日付。

日付の形式は mm/dd/yy です。

childcount

整数

テンプレートから作成された仮想マシンの数。

mem

整数

定義されたメモリー。

description

文字列

テンプレートの説明。

status

文字列

テンプレートのステータス

cluster

文字列

テンプレートに関連付けられたクラスター。

datacenter

文字列

テンプレートに関連付けられたデータセンター。

quota

文字列

テンプレートに関連付けられたクォータ。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

Template: Events.severity >= normal and Vms.uptime > 0

この例では、テンプレートから派生した仮想マシンで重大度が Normal 以上のイベントが発生し、仮想マシンがまだ実行されているテンプレートの一覧が返されます。

3.18. ユーザーの検索

以下の表は、ユーザーの全検索オプションについて説明しています。

表3.14 ユーザーの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Vms.Vms-prop

プロパティータイプによります。

ユーザーに関連付けられた仮想マシンのプロパティー。

Hosts.hosts-prop

プロパティータイプによります。

ユーザーに関連付けられたホストのプロパティー。

Templates.templates-prop

プロパティータイプによります。

ユーザーに関連付けられたテンプレートのプロパティー。

Events.events-prop

プロパティータイプによります。

ユーザーに関連するイベントのプロパティー。

name

文字列

ユーザーの名前。

lastname

文字列

ユーザーの名字を。

usrname

文字列

ユーザーの一意の名前。

department

文字列

ユーザーが属する部。

group

文字列

ユーザーが属するグループ。

title

文字列

ユーザーのタイトル。

status

文字列

ユーザーの状態。

role

文字列

ユーザーのロール。

tag

文字列

ユーザーが属するタグ。

pool

文字列

ユーザーが属するプール。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

Users: Events.severity > normal and Vms.status = up or Vms.status = pause

この例では、仮想マシンで重大度が Normal よりも高いイベントが発生し、かつ仮想マシンがまだ稼働している場合や、ユーザーの仮想マシンが一時停止している場合のユーザーの一覧を返します。

3.19. イベントの検索

以下の表は、イベントの検索に使用できるすべての検索オプションについて説明しています。自動補完は、必要に応じて多くのオプションに対して提供されます。

表3.15 イベントの検索

プロパティー (リソースまたはリソースタイプの)Type説明 (参照)

Vms.Vms-prop

プロパティータイプによります。

イベントに関連付けられた仮想マシンのプロパティー。

Hosts.hosts-prop

プロパティータイプによります。

イベントに関連付けられたホストのプロパティー。

Templates.templates-prop

プロパティータイプによります。

イベントに関連付けられたテンプレートのプロパティー。

Users.users-prop

プロパティータイプによります。

イベントに関連付けられたユーザーのプロパティー。

Clusters.clusters-prop

プロパティータイプによります。

イベントに関連付けられたクラスターのプロパティー。

Volumes.Volumes-prop

プロパティータイプによります。

イベントに関連付けられたボリュームのプロパティー。

type

リスト

イベントのタイプ。

severity

リスト

イベントの重大度: Warning/Error/Normal

message

文字列

イベントタイプの説明。

time

リスト

イベントが発生した日。

usrname

文字列

イベントに関連付けられたユーザー名。

event_host

文字列

イベントに関連付けられたホスト。

event_vm

文字列

イベントに関連付けられた仮想マシン。

event_template

文字列

イベントに関連付けられたテンプレート。

event_storage

文字列

イベントに関連付けられたストレージ。

event_datacenter

文字列

イベントに関連付けられたデータセンター。

event_volume

文字列

イベントに関連付けられたボリューム。

correlation_id

整数

イベントの識別番号。

sortby

リスト

返された結果をリソースプロパティーの 1 つで並べ替えます。

page

整数

表示する結果のページ番号。

Events: Vms.name = testdesktop and Hosts.name = gonzo.example.com

この例では、ホスト gonzo.example.com での実行中に testdesktop という名前の仮想マシンで発生したイベントの一覧を返します。

第4章 ブックマーク

4.1. クエリー文字列をブックマークとして保存

ブックマークは、検索クエリーを記憶し、他のユーザーとの共有するために使用できます。

クエリー文字列をブックマークとして保存

  1. 検索バーに希望の検索クエリーを入力し、検索を実行します。
  2. 検索バーの右側にある星の ブックマーク ボタンをクリックして、New Bookmark ウィンドウを開きます。
  3. ブックマークの Name を入力します。
  4. 必要に応じて Search string フィールドを編集します。
  5. OK をクリックします。

ヘッダーバーの Bookmarks アイコン ( Bookmark ) をクリックして、ブックマークを見つけて選択します。

4.2. ブックマークの編集

ブックマークの名前および検索文字列を変更できます。

ブックマークの編集

  1. ヘッダーバーの Bookmarks アイコン ( Bookmark ) をクリックします。
  2. ブックマークを選択し、Edit をクリックします。
  3. 必要に応じて Name および Search string フィールドを変更します。
  4. OK をクリックします。

4.3. ブックマークの削除

ブックマークが必要なくなったら、その設定を削除します。

ブックマークの削除

  1. ヘッダーバーの Bookmarks アイコン ( Bookmark ) をクリックします。
  2. ブックマークを選択し、Remove をクリックします。
  3. OK をクリックします。

第5章 タグ

5.1. タグを使用して Red Hat Virtualization とのやり取りをカスタマイズ

Red Hat Virtualization プラットフォームをセットアップし、要件に合わせて設定したら、タグを使用して作業方法をカスタマイズできます。タグを使用すると、システムリソースをグループまたはカテゴリーに分類できます。これは、仮想化環境に多くのオブジェクトが存在し、管理者が特定のオブジェクトセットに集中したい場合に便利です。

このセクションでは、タグの作成と編集、ホストまたは仮想マシンへの割り当て、タグを基準として使用した検索などの方法について説明します。タグは、企業のニーズに合わせて、構造に一致する階層に配置できます。

管理ポータルのタグを作成、変更、および削除するには、ヘッダーバーの Tags アイコン( Tag )をクリックします。

5.2. タグの作成

タグを作成して、タグを使用して検索結果を絞り込みできるようにします。

タグの作成

  1. ヘッダーバーの Tags アイコン ( Tag ) をクリックします。
  2. Add をクリックして新規タグを作成するか、タグを選択して New をクリックし、子孫タグを作成します。
  3. 新規タグの Name および Description を入力します。
  4. OK をクリックします。

5.3. タグの変更

タグの名前と説明を編集できます。

タグの変更

  1. ヘッダーバーの Tags アイコン ( Tag ) をクリックします。
  2. 変更するタグを選択し、Edit をクリックします。
  3. 必要に応じて Name および Description フィールドを変更します。
  4. OK をクリックします。

5.4. タグの削除

タグが不要になったら、それを削除します。

タグの削除

  1. ヘッダーバーの Tags アイコン ( Tag ) をクリックします。
  2. 削除するタグを選択し、Remove をクリックします。タグを削除すると、そのタグのすべての子孫も削除されることを警告するメッセージが表示されます。
  3. OK をクリックします。

タグとその子孫をすべて削除しました。タグは、アタッチされたすべてのオブジェクトからも削除されます。

5.5. オブジェクトに対するタグの追加および削除

ホスト、仮想マシン、およびユーザーにタグを割り当てたり、削除したりできます。

オブジェクトに対するタグの追加および削除

  1. タグ付けまたはタグ付け解除するオブジェクトを選択します。
  2. More Actions ( moreactions ) をクリックしてから Assign Tags をクリックします。
  3. チェックボックスを選択してタグをオブジェクトに割り当てるか、選択を解除してオブジェクトからタグの割り当てを解除します。
  4. OK をクリックします。

指定したタグが、選択したオブジェクトのカスタムプロパティーとして追加または削除されます。

5.6. タグを使用したオブジェクトの検索

tag プロパティーとしてタグを使用し、検索条件として目的の値または値のセットを使用して、検索クエリーを入力します。

指定された基準でタグ付けされたオブジェクトは結果リストに表示されます。

注記

tag をプロパティーとして使用し、不等式演算子 (!=、たとえば、Host: Vms.tag!=server1) を使用してオブジェクトを検索する場合、結果リストにはタグなしオブジェクトは含まれません。

5.7. タグを使用したホストのカスタマイズ

タグを使用してホストに関する情報を保存できます。その後、タグに基づいてホストを検索できます。検索の詳細は、3章検索 を参照してください。

タグを使用したホストのカスタマイズ

  1. ComputeHosts をクリックし、ホストを選択します。
  2. More Actions ( moreactions ) をクリックしてから Assign Tags をクリックします。
  3. 該当するタグのチェックボックスを選択します。
  4. OK をクリックします。

ホストに関する検索可能な追加情報がタグとして追加されます。

パート II. リソースの管理

第6章 QoS (Quality of Service)

Red Hat Virtualization では、環境のリソースがアクセスできる入出力、処理、およびネットワーク機能のレベルを詳細に制御する QoS エントリーを定義できます。QoS (Quality of Service) エントリーはデータセンターレベルで定義され、クラスターおよびストレージドメイン下で作成されるプロファイルに割り当てられます。これらのプロファイルは、プロファイルが作成されたクラスターおよびストレージドメインの個々のリソースに割り当てられます。

6.1. ストレージ QoS

ストレージ QoS はスループットの最大レベルと、ストレージドメインの仮想ディスクの入出力操作の最大レベルを定義します。ストレージ QoS を仮想ディスクに割り当てると、ストレージドメインのパフォーマンスを細かく調整でき、1 つの仮想ディスクに関連付けられたストレージ操作が、同じストレージドメインでホストされる他の仮想ディスクで利用できるストレージ機能に影響しないようにすることができます。

6.1.1. ストレージ QoS エントリーの作成

ストレージ QoS エントリーの作成

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. QoS タブをクリックします。
  4. Storage で、New をクリックします。
  5. QoS Name と QoS エントリーの Description を入力します。
  6. 次のいずれかのラジオボタンをクリックして、Throughput Quality of Service を指定します。

    • None
    • Total - MB/s フィールドに最大許容合計スループットを入力します。
    • Read/Write: 左のMB/s フィールドに読み取り操作の最大許容スループットを入力し、右の MB/s フィールドに書き込み操作の最大許容スループットを入力します。
  7. 次のいずれかのラジオボタンをクリックして、入出力 (IOps) の QoS を指定します。

    • None
    • Total - IOps フィールドに 1 秒あたりの入出力操作の最大許容数を入力します。
    • Read/Write - 左の IOps フィールドに 1 秒あたりの入力操作の最大許容数を入力し、右の IOps フィールドに 1 秒あたりの出力操作の最大許容数を入力します。
  8. OK をクリックします。

ストレージ QoS エントリーが作成され、データセンターに属するデータストレージドメインのそのエントリーに基づいてディスクプロファイルを作成できます。

6.1.2. ストレージ Quality of Service エントリーの削除

既存のストレージ QoS(Quality of Service) エントリーを削除します。

ストレージ Quality of Service エントリーの削除

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. QoS タブをクリックします。
  4. Storage でストレージの QoS エントリーを選択し、Remove をクリックします。
  5. OK をクリックします。

そのエントリーに基づくディスクプロファイルが存在する場合、それらのプロファイルのストレージ QOS エントリーは自動的に [unlimited] に設定されます。

6.2. 仮想マシンのネットワーク QoS

仮想マシンネットワーク QoS は、個々の仮想ネットワークインターフェースコントローラーの受信および送信トラフィックの両方を制限するためのプロファイルを作成できる機能です。この機能により、複数のレイヤーで帯域幅を制限し、ネットワークリソースの使用を制御できます。

6.2.1. 仮想マシンのネットワーク QoS エントリーの作成

仮想マシンネットワーク QoS エントリーを作成し、仮想ネットワークインターフェースコントローラー (vNIC) プロファイル(仮想マシンネットワークインターフェースプロファイル)に適用される際にネットワークトラフィックを規制します。

仮想マシンのネットワーク QoS エントリーの作成

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. QoS タブをクリックします。
  4. VM Network で、New をクリックします。
  5. 仮想マシンネットワーク QoS(Quality of Service) エントリーの Name を入力します。
  6. Inbound および Outbound ネットワークトラフィックの制限を入力します。
  7. OK をクリックします。

仮想ネットワークインターフェースコントローラーで使用可能な仮想マシンネットワーク QoS エントリーが作成されました。

6.2.2. New Virtual Machine Network QoS および Edit Virtual Machine Network QoS ウインドウの設定の説明

仮想マシンのネットワーク QoS 設定により、3 つの異なるレベルで送受信トラフィックの両方に帯域幅の制限を設定できます。

表6.1 仮想マシンネットワーク QoS 設定

フィールド名説明

Data Center

仮想マシンのネットワーク QoS ポリシーを追加するデータセンター。このフィールドは、選択したデータセンターに応じて自動的に設定されます。

Name

Manager 内の仮想マシンネットワーク QoS ポリシーを表す名前。

Inbound

受信トラフィックに適用される設定。Inbound チェックボックスを選択または選択解除して、これらの設定を有効または無効にします。

  • Average: 受信トラフィックの平均速度。
  • Peak: ピーク時の受信トラフィックの速度。
  • Burst: バースト中の受信トラフィックの速度。

Outbound

送信トラフィックに適用される設定。Outbound チェックボックスを選択または選択解除して、これらの設定を有効または無効にします。

  • Average: 送信トラフィックの平均速度。
  • Peak: ピーク時の送信トラフィックの速度。
  • Burst: バースト中の送信トラフィックの速度。

AveragePeak、または Burst フィールドによって許可される最大値を変更するには、engine-config コマンドを使用して MaxAverageNetworkQoSValueMaxPeakNetworkQoSValue、または MaxBurstNetworkQoSValue の設定キーの値を変更します。変更を反映するには、ovirt-engine サービスを再起動する必要があります。以下に例を示します。

# engine-config -s MaxAverageNetworkQoSValue=2048
# systemctl restart ovirt-engine

6.2.3. 仮想マシンのネットワーク QoS(Quality of Service) エントリーの削除

既存の仮想マシンネットワーク QoS(Quality of Service) エントリーを削除します。

仮想マシンのネットワーク QoS(Quality of Service) エントリーの削除

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. QoS タブをクリックします。
  4. VM Network で、仮想マシンネットワーク QoS (Quality of Service) エントリーを選択して Remove をクリックします。
  5. OK をクリックします。

6.3. ホストネットワーク QoS

ホストネットワーク QoS は、ホスト上のネットワークを設定し、物理インターフェース経由のネットワークトラフィックの制御を可能にします。ホストネットワーク QoS により、同じ物理ネットワークインターフェースコントローラー上のネットワークリソースの使用を制御することで、ネットワークのパフォーマンスをより細かく調整できます。これにより、1 つのネットワークが原因で、同じ物理ネットワークインターフェースコントローラーにアタッチされている他のネットワークがトラフィックの輻輳により機能しなくなる状況を防ぐことができます。ホストネットワーク QoS 設定により、これらのネットワークは、輻輳問題なしに同じ物理ネットワークインターフェースコントローラー上で機能できるようになります。

6.3.1. ホストネットワーク QoS エントリーの作成

ホストネットワーク QoS(Quality of Service) エントリーを作成します。

ホストネットワーク QoS エントリーの作成

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. QoS タブをクリックします。
  4. Host Network で、New をクリックします。
  5. QoS Name と QoS エントリーの説明を入力します。
  6. Weighted ShareRate Limit [Mbps]、および Committed Rate [Mbps] に必要な値を入力します。
  7. OK をクリックします。

6.3.2. New Host Network Quality of Service および Edit Host Network Quality of Service ウィンドウの設定の説明

ホストネットワーク QoS 設定により、送信トラフィックの帯域幅制限を設定できます。

表6.2 ホストネットワーク QoS 設定

フィールド名説明

Data Center

ホストネットワーク QoS ポリシーを追加するデータセンター。このフィールドは、選択したデータセンターに応じて自動的に設定されます。

QoS Name

Manager 内のホストネットワーク QoS ポリシーを表す名前。

説明

ホストネットワーク QoS ポリシーの説明

Outbound

送信トラフィックに適用される設定。

  • Weight Share: 同じ論理リンクリンクにアタッチされた他のネットワークと比較して、特定のネットワークに割り当てる必要がある論理リンクの容量を指定します。正確な共有は、そのリンクの全ネットワークの共有の合計によって異なります。デフォルトでは、この値は 1-100 の範囲の数字になります。
  • Rate Limit [Mbps]: ネットワークによって使用される最大帯域幅。
  • Committed Rate [Mbps]: ネットワークに必要な最小帯域幅。要求される Committed Rate は保証されず、ネットワークインフラストラクチャーおよび同じ論理リンクの他のネットワークによって要求される Commmitted Rate によって異なります。

Rate Limit [Mbps] または Committed Rate [Mbps] フィールドで許可される最大値を変更するには、engine-config コマンドを使用して MaxAverageNetworkQoSValue 設定キーの値を変更します。変更を反映するには、ovirt-engine サービスを再起動する必要があります。以下に例を示します。

# engine-config -s MaxAverageNetworkQoSValue=2048
# systemctl restart ovirt-engine

6.3.3. ホストネットワーク QoS エントリーの削除

既存のネットワーク QoS(Quality of Service) エントリーを削除します。

ホストネットワーク QoS エントリーの削除

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. QoS タブをクリックします。
  4. Host Network で、ホストネットワーク QoS (Quality of Service) エントリーを選択して Remove をクリックします。
  5. プロンプトが表示されたら OK をクリックします。

6.4. CPU QoS (Quality of Service)

CPU QoS は、仮想マシンが実行されているホスト上で仮想マシンがアクセスできる処理能力の最大量を定義します。これは、そのホストで使用可能な処理能力の合計に対する割合で表されます。CPU QoS を仮想マシンに割り当てると、クラスター内の 1 つの仮想マシンのワークロードが、そのクラスターの他の仮想マシンで利用できる処理リソースに影響を与えないようにすることができます。

6.4.1. CPU QoS エントリーの作成

CPU QoS (Quality of Service) エントリーを作成します。

CPU QoS エントリーの作成

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. QoS タブをクリックします。
  4. CPUNew をクリックします。
  5. QoS Name と QoS エントリーの Description を入力します。
  6. QoS (Quality of Service) エントリーで許可される最大処理能力を Limit (%) フィールドに入力します。% 記号は含めないでください。
  7. OK をクリックします。

CPU QoS エントリーが作成され、データセンターに属するクラスターのそのエントリーに基づいて CPU プロファイルを作成できます。

6.4.2. CPU QoS エントリーの削除

既存の CPU QoS(Quality of Service) エントリーを削除します。

CPU QoS エントリーの削除

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. QoS タブをクリックします。
  4. CPU で CPU QoS エントリーを選択し、Remove をクリックします。
  5. OK をクリックします。

そのエントリーに基づく CPU プロファイルが存在する場合、それらのプロファイルの CPU QOS エントリーは自動的に [unlimited] に設定されます。

第7章 データセンター

7.1. データセンターの概要

データセンターとは、特定の環境で使用するリソースのセットを定義する論理エンティティーです。データセンターは、コンテナーリソース (クラスターとホストの形式の論理リソースで構成)、ネットワークリソース (論理ネットワークと物理 NIC の形式)、およびストレージリソース (ストレージドメインの形式) と見なされます。

データセンターには、複数のホストを含む複数のクラスターを含めることができます。複数のストレージドメインが関連付けられており、各ホスト上の複数の仮想マシンをサポートすることができます。Red Hat Virtualization 環境には複数のデータセンターを含めることができます。データセンターインフラストラクチャーを使用すると、これらのセンターを分離した状態にすることができます。

すべてのデータセンターは、1 つの管理ポータルから管理されます。

図7.1 データセンター

523

Red Hat Virtualization は、インストール時にデフォルトのデータセンターを作成します。デフォルトのデータセンターを設定するか、または適切に名前が付けられたデータセンターを設定できます。

7.2. ストレージプールマネージャー

Storage Pool Manager(SPM)は、データセンター内のホストのいずれかに渡すロールで、データセンターのストレージドメインを管理できるようにします。SPM エンティティーはデータセンター内の任意のホストで実行できます。Red Hat Virtualization Manager はいずれかのホストにロールを付与します。SPM は標準の操作からホストを事前に設定しません。SPM として実行されているホストは依然として仮想リソースをホストできます。

SPM エンティティーは、ストレージドメイン全体でメタデータを調整することにより、ストレージへのアクセスを制御します。これには、仮想ディスク(イメージ)、スナップショット、およびテンプレートの作成、削除、およびテンプレート、およびスパースブロックデバイス(SAN 上)のストレージの割り当てが含まれます。これは唯一の責任です。メタデータの整合性を確保するために、データセンターの SPM となるホスト 1 つのみです。

Red Hat Virtualization Manager は、SPM が常に利用できることを確認します。SPM ホストがストレージへのアクセスに問題がある場合は、Manager は SPM ロールを別のホストに移動します。SPM が起動すると、これがロールが付与された唯一のホストであることを確認します。したがって、ストレージ中心のリースを取得します。このプロセスには時間がかかる場合があります。

7.3. SPM の優先度

SPM ロールは、ホストの利用可能なリソースの一部を使用します。ホストの SPM 優先度の設定により、ホストが SPM ロールが割り当てられる可能性があります。SPM 優先度が高いホストには、SPM の優先度が低いホストの前に SPM ロールが割り当てられます。SPM 優先度が低いホストの重要な仮想マシンは、ホストリソースの SPM 操作と連動させる必要はありません。

Edit Host ウィンドウのSPM タブでホストの SPM タブの優先度を変更できます。

7.4. データセンタータスク

7.4.1. 新規データセンターの作成

以下の手順では、お使いの仮想化環境にデータセンターを作成します。データセンターが機能するには、機能しているクラスター、ホスト、およびストレージドメインが必要です。

注記

互換バージョンが設定さ れると、後で低くすることはできません。バージョンのリグレッションは許可されません。

データセンターに MAC プール範囲を指定するオプションが無効になり、クラスターレベルで実行されるようになりました。

新規データセンターの作成

  1. ComputeData Centers をクリックします。
  2. New をクリックします。
  3. データセンターの Name および Description を入力します。
  4. ドロップダウンメニューから、データセンターの Storage TypeCompatibility VersionQuota Mode を選択します。
  5. OK をクリックしてデータセンターを作成し、データ センター - Guide Me ウィンドウを開きます。
  6. Guide Me ウィンドウには、データセンター用に設定する必要のあるエンティティーが一覧表示されます。これらのエンティティーを設定するか、Configure Later ボタンをクリックして設定を延期します。設定を再開するには、データセンターを選択し、More Actions ( moreactions ) をクリックしてから Guide Me をクリックします。

新しいデータセンターは、クラスター、ホスト、およびストレージドメインが設定されるまで Uninitialized になります。Guide Me を使用してこれらのエンティティーを設定します。

7.4.2. New Data Center および Edit Data Center Windows の設定についての説明

以下の表は、New Data Center および Edit Data Center ウィンドウに表示されるデータセンターの設定について説明しています。OK をクリックすると、無効なエントリーがオレンジで示され、変更が許可されません。さらに、フィールドプロンプトは予想される値または値の範囲を示します。

表7.1 データセンターのプロパティー

フィールド説明/アクション

Name

データセンターの名前。このテキストフィールドには 40 文字の制限があり、大文字、小文字、数字、ハイフン、およびアンダースコアの組み合わせが含まれる一意の名前である必要があります。

説明

データセンターの説明このフィールドは推奨されますが、必須ではありません。

Storage Type

Shared または Local ストレージタイプを選択します。

異なるタイプのストレージドメイン(iSCSI、NFS、FC、POSIX、および Gluster)を同じデータセンターに追加できます。ただし、ローカルドメインおよび共有ドメインは混在させることはできません。

データセンターの初期化後にストレージタイプを変更できます。「データセンターストレージタイプの変更」 を参照してください。

互換バージョン

Red Hat Virtualization のバージョン。

Red Hat Virtualization Manager をアップグレードした後には、ホスト、クラスター、およびデータセンターが以前のバージョンにある可能性があります。データセンターの互換性レベルをアップグレードする前に、すべてのホストをアップグレードし、クラスターをアップグレードしていることを確認します。

クォータモード

クォータは、Red Hat Virtualization で提供されるリソース制限ツールです。以下のいずれかを選択します。

  • Disabled: クォータを実装しない場合に選択します。
  • Audit: クォータ設定を編集する場合に選択します。
  • Enforced: クォータを実装する場合に選択します。

Comment

オプションで、データセンターに関するプレーンテキストコメントを追加します。

7.4.3. データセンターの再初期化: リカバリー手順

この復旧手順は、データセンターのマスターデータドメインを新しいマスターデータドメインに置き換えます。データが破損している場合は、マスターデータドメインを再初期化する必要があります。データセンターを再初期化すると、クラスター、ホスト、および問題以外のストレージドメインなど、データセンターに関連付けられた他のリソースをすべて復元できます。

バックアップまたはエクスポートした仮想マシンまたはテンプレートを新しいマスターデータドメインにインポートできます。

データセンターの再初期化

  1. ComputeData Centers をクリックし、データセンターを選択します。
  2. データセンターに接続されたストレージドメインがメンテナンスモードにあることを確認します。
  3. More Actions ( moreactions ) をクリックしてから、Re-Initialize Data Center をクリックします。
  4. Data Center Re-Initialize ウィンドウには、利用可能なすべての(割り当て解除あり、メンテナンスモードの場合)ストレージドメインが一覧表示されます。データセンターに追加するストレージドメインのラジオボタンをクリックします。
  5. Approve operation チェックボックスを選択します。
  6. OK をクリックします。

ストレージドメインは、マスターデータドメインとしてデータセンターにアタッチされ、アクティベートされます。バックアップまたはエクスポートした仮想マシンまたはテンプレートを新しいマスターデータドメインにインポートできるようになりました。

7.4.4. データセンターの削除

データセンターを削除するには、アクティブなホストが必要です。データセンターを削除しても、関連付けられたリソースは削除されません。

データセンターの削除

  1. データセンターに接続されたストレージドメインがメンテナンスモードにあることを確認します。
  2. ComputeData Centers をクリックし、削除するデータセンターを選択します。
  3. 削除 をクリックします。
  4. OK をクリックします。

7.4.5. データセンターの強制削除

アタッチされたストレージドメインが破損したり、ホストが Non Responsive になった場合、データセンターが Non Responsive になります。いずれの状況においても、データセンターを 削除 できません。

Force Remove では、アクティブなホストは必要ありません。また、アタッチされているストレージドメインも完全に削除します。

データセンターを Force Remove する前に、破損したストレージドメインを 破棄 する必要がある場合があります。

データセンターの強制削除

  1. ComputeData Centers をクリックし、削除するデータセンターを選択します。
  2. More Actions ( moreactions ) をクリックしてから、Force Remove をクリックします。
  3. Approve operation チェックボックスを選択します。
  4. OKをクリックします。

データセンターおよび割り当てられたストレージドメインは、Red Hat Virtualization 環境から完全に削除されます。

7.4.6. データセンターストレージタイプの変更

データセンターの初期化後に、データセンターのストレージタイプを変更できます。これは、仮想マシンまたはテンプレートの移動に使用されるデータドメインに役立ちます。

制限

  • ローカルデータセンターの共有 - 複数のホストおよび複数のクラスターを含まないデータセンターの場合は、ローカルデータセンターがこれをサポートしないためです。
  • Local to Shared: ローカルストレージドメインを含まないデータセンターの場合。

データセンターストレージタイプの変更

  1. ComputeData Centers をクリックし、変更するデータセンターを選択します。
  2. 編集 をクリックします。
  3. Storage Type を必要な値に変更します。
  4. OK をクリックします。

7.4.7. データセンターの互換バージョンの変更

Red Hat Virtualization データセンターには、互換バージョンがあります。互換バージョンとは、データセンターが互換性を持つ Red Hat Virtualization のバージョンを指します。データセンター内のクラスターは、すべて指定の互換性レベルをサポートする必要があります。

重要

データセンターの互換バージョンを変更するには、事前にデータセンター内のクラスターおよび仮想マシンの互換バージョンがすべて更新されている必要があります。

手順

  1. 管理ポータルで コンピュートデータセンター をクリックします。
  2. 変更を行うデータセンターを選択し、編集 をクリックします。
  3. 互換バージョン を必要な値に変更します。
  4. OK をクリックします。データセンターの互換バージョンを変更 の確認ダイアログが開きます。
  5. OK をクリックして確定します。

7.5. データセンターおよびストレージドメイン

7.5.1. 既存のデータドメインをデータセンターにアタッチ

アタッチされていない データドメインは、データセンターにアタッチすることができます。複数のタイプ(iSCSI、NFS、FC、POSIX、および Gluster)の共有ストレージドメインを同じデータセンターに追加できます。

既存のデータドメインをデータセンターにアタッチ

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. Storage タブをクリックして、データセンターにすでにアタッチされているストレージドメインを一覧表示します。
  4. Attach Data をクリックします。
  5. データセンターにアタッチするデータドメインのチェックボックスを選択します。複数のデータドメインを割り当てる場合は、複数のチェックボックスを選択できます。
  6. OK をクリックします。

データドメインはデータセンターにアタッチされ、自動的にアクティブになります。

7.5.2. 既存の ISO ドメインをデータセンターにアタッチ

Unattached の ISO ドメインは、データセンターにアタッチすることができます。ISO ドメインは、データセンターと同じ Storage Type である必要があります。

データセンターに 1 つの ISO ドメインのみをアタッチできます。

既存の ISO ドメインをデータセンターにアタッチ

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. Storage タブをクリックして、データセンターにすでにアタッチされているストレージドメインを一覧表示します。
  4. Attach ISO をクリックします。
  5. 適切な ISO ドメインのラジオボタンをクリックします。
  6. OK をクリックします。

ISO ドメインはデータセンターにアタッチされ、自動的にアクティブになります。

7.5.3. 既存のエクスポートドメインをデータセンターにアタッチ

注記

エクスポートストレージドメインは非推奨になりました。ストレージデータドメインはデータセンターから接続を解除し、同じ環境または別の環境にある別のデータセンターにインポートすることができます。仮想マシン、フローティング仮想ディスク、およびテンプレートは、インポートされたストレージドメインからアタッチされたデータセンターにアップロードできます。ストレージドメインのインポートに関する詳細は、「既存のストレージドメインのインポート」 を参照してください。

Unattached のドメインは、データセンターにアタッチ することができます。データセンターには、エクスポートドメインを 1 つだけアタッチできます。

既存のエクスポートドメインをデータセンターにアタッチ

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. Storage タブをクリックして、データセンターにすでにアタッチされているストレージドメインを一覧表示します。
  4. Attach Export をクリックします。
  5. 適切なエクスポートドメインのラジオボタンをクリックします。
  6. OK をクリックします。

エクスポートドメインはデータセンターにアタッチされ、自動的にアクティブになります。

7.5.4. データセンターからストレージドメインをデタッチ

データセンターからストレージドメインをデタッチすると、データセンターがそのストレージドメインとの関連付けをできなくなります。ストレージドメインは Red Hat Virtualization 環境から削除されず、別のデータセンターにアタッチすることができます。

仮想マシンやテンプレートなどのデータは、引き続きストレージドメインにアタッチされます。

注記

マスターストレージ(これが最後の利用可能なストレージドメインである場合)は削除できません。

データセンターからストレージドメインをデタッチ

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. Storage タブをクリックして、データセンターにアタッチされているストレージドメインを一覧表示します。
  4. デタッチするストレージドメインを選択します。ストレージドメインが Active の場合は、Maintenance をクリックします。
  5. OK をクリックして、メンテナンスモードを開始します。
  6. デタッチ をクリックします。
  7. OK をクリックします。

ストレージドメインが詳細ビューから消えるまでに数分かかる場合があります。

第8章 クラスター

8.1. クラスターの概要

クラスターは、同じストレージドメインを共有し、同じタイプの CPU(Intel または AMD)を持つホストの論理グループです。ホストに異なる CPU モデルの生成がある場合は、すべてのモデルに存在する機能のみを使用します。

システム内の各クラスターはデータセンターに属し、システム内の各ホストはクラスターに属している必要があります。仮想マシンはクラスター内の任意のホストに動的に割り当てられ、仮想マシン上のクラスターおよび設定に合わせて、それらのホスト間で移行することができます。クラスターは、電源および負荷分散ポリシーを定義できる最上位です。

クラスターに属するホストおよび仮想マシンの数は、Host Count および VM Count のそれぞれ結果一覧にそれぞれ表示されます。

クラスターは仮想マシンまたは Red Hat Gluster Storage サーバーを実行します。これら 2 つの目的は相互排他的です。単一クラスターでは仮想化とストレージホストをまとめてサポートできません。

Red Hat Virtualization は、インストール時にデフォルトのデータセンターにデフォルトのクラスターを作成します。

図8.1 Cluster

223

8.2. クラスタータスク

注記

一部のクラスターオプションは Gluster クラスターには適用されません。Red Hat Virtualization で Red Hat Gluster Storage を使用する方法の詳細は、Configuring Red Hat Virtualization with Red Hat Gluster Storage を参照してください。

8.2.1. 新規クラスターの作成

データセンターには複数のクラスターを含めることができ、クラスターには複数のホストを含めることができます。クラスター内のすべてのホストは、同じ CPU タイプ(Intel または AMD)である必要があります。CPU タイプの最適化を確保するには、クラスターを作成する前にホストを作成することが推奨されます。ただし、ガイド Me ボタンを使用して後でホストを設定できます。

新規クラスターの作成

  1. ComputeClusters をクリックします。
  2. New をクリックします。
  3. ドロップダウンリストからクラスターが所属するData Center を選択します。
  4. クラスターの Name および Description を入力します。
  5. Management Network のドロップダウンリストからネットワークを選択して、管理ネットワークロールを割り当てます。
  6. ドロップダウンリストから CPU アーキテクチャー および CPU タイプ を選択します。クラスターに接続するホストの最小 CPU プロセッサータイプで CPU プロセッサーファミリーと一致させることが重要です。そうでないと、ホストが機能しなくなります。

    注記

    Intel タイプおよび AMD CPU タイプの両方の場合、リストされた CPU モデルは、最も古いものから最新の順に論理的に使用されます。クラスターに異なる CPU モデルを持つホストが含まれる場合は、最も古い CPU モデルを選択します。各 CPU モデルの詳細は、https://access.redhat.com/solutions/634853 を参照してください。

  7. ドロップダウンリストから、クラスターの互換バージョンを選択します。
  8. ドロップダウンリストから Switch Type を選択します。
  9. クラスターのホストに Firewall Type を選択します( iptables または firewalld のいずれか)。

    注記

    iptables は非推奨になりました。

  10. Enable Virt Service または Enable Gluster Service チェックボックスを選択して、クラスターが仮想マシンホストまたは Gluster 対応ノードと共に設定されるかどうかを定義します。
  11. 仮想マシンを Manager からシャットダウンする際に任意の reason フィールドを有効にするようにEnable to set VM maintenance reason のチェックボックスを選択し、管理者がメンテナンスの説明を提供できるようにします。
  12. ホストを Manager からメンテナンスモードにする時に任意の reason フィールドを有効にするようにEnable to set Host maintenance reason のチェックボックスを選択し、管理者がメンテナンスの説明を提供できるようにします。
  13. オプションで /dev/hwrng ソース(外部ハードウェアデバイス)のチェックボックスを選択し、クラスター内のすべてのホストが使用する乱数ジェネレーターデバイスを指定します。/dev/urandom ソース(Linux が提供するデバイス)はデフォルトで有効です。
  14. Optimizationタブをクリックしてクラスターのメモリーページ共有のしきい値を選択し、必要に応じてクラスター内のホストで CPU スレッド処理とメモリーバルーンを有効にします。
  15. Migration Policy タブをクリックして、クラスターの仮想マシン移行ポリシーを定義します。
  16. スケジューリングポリシー タブをクリックして、オプションでスケジューリングポリシーを設定し、スケジューラーの最適化設定を設定し、クラスター内のホストに対して信頼済みサービスを有効にし、HA 予約を有効にし、カスタムのシリアル番号ポリシーを追加します。
  17. Console タブをクリックしてオプションでグローバル SPICE プロキシーを上書きし(ある場合)、クラスター内のホストの SPICE プロキシーのアドレスを指定します。
  18. Fencing policy タブをクリックして、クラスターでフェンシングを有効または無効にします。また、フェンスオプションを選択します。
  19. MAC Address Poolタブをクリックして、クラスターのデフォルトのプール以外の MAC アドレスプールを指定します。MAC アドレスプールの作成、編集、または削除に関する詳細は、「MAC アドレスプール」 を参照してください。
  20. OK をクリックしてクラスターを作成し、Cluster - Guide Me ウィンドウを開きます。
  21. Guide Me ウィンドウには、クラスターに設定する必要のあるエンティティーが一覧表示されます。これらのエンティティーを設定するか、Configure Later ボタンをクリックして設定を延期します。設定を再開するには、クラスターを選択し、More Actions ( moreactions ) をクリックしてから、Guide Me をクリックします。

8.2.2. 一般的なクラスター設定に関する説明

以下の表は、New Cluster および Edit Cluster ウィンドウの General タブの設定について説明しています。OK をクリックすると、無効なエントリーがオレンジで示され、変更が許可されません。さらに、フィールドプロンプトは予想される値または値の範囲を示します。

表8.1 一般的なクラスター設定

フィールド説明/アクション

Data Center

クラスターが含まれるデータセンター。クラスターを追加する前にデータセンターを作成する必要があります。

Name

クラスターの名前。このテキストフィールドには 40 文字の制限があり、大文字、小文字、数字、ハイフン、およびアンダースコアの組み合わせが含まれる一意の名前である必要があります。

Description / Comment

クラスターまたは追加のメモの説明。これらのフィールドは推奨されますが、必須ではありません。

Management Network

管理ネットワークロールを割り当てる論理ネットワーク。デフォルトは ovirtmgmt です。移行ネットワークが移行元または移行先ホストに正しくアタッチされていない場合は、このネットワークは仮想マシンの移行にも使用されます。

既存のクラスターでは、詳細ビューの Logical Networks タブにある Manage Networks ボタンを使用すると管理ネットワークを変更できます。

CPU アーキテクチャー

クラスターの CPU アーキテクチャー。選択した CPU アーキテクチャーに応じて、さまざまな CPU タイプを利用できます。

  • undefined: すべての CPU タイプが利用できます。
  • x86_64: Intel および AMD CPU の全タイプが利用できる。
  • ppc64: IBM POWER 8 のみが利用できます。

CPU Type

クラスターの CPU タイプ。サポートされる CPU タイプの一覧は、『 Planning and Prerequisites Guide 』の「 CPU Requirements 」を参照してください。クラスター内のすべてのホストは、Intel、AMD、または IBM POWER 8 の CPU タイプのいずれかを実行している必要があります。作成後には、大きな中断なしで変更することはできません。CPU タイプは、クラスター内の最も古い CPU モデルに設定する必要があります。すべてのモデルに存在する機能のみを使用できます。Intel タイプおよび AMD CPU タイプの両方の場合、リストされた CPU モデルは、最も古いものから最新の順に論理的に使用されます。

互換バージョン

Red Hat Virtualization のバージョン。データセンターに指定したバージョンよりも、以前のバージョンを選択することはできません。

Switch Type

クラスターが使用するスイッチのタイプ。Linux Bridge は、標準の Red Hat Virtualization スイッチです。OVS は Open vSwitch のネットワーク機能をサポートします。

Firewall Type

クラスター内のホストのファイアウォールタイプを指定します( iptables または firewalld のいずれか)。

iptables 非推奨になりました。

既存のクラスターのファイアウォールタイプを変更する場合は、クラスターですべてのホストを再インストールして、変更を適用する必要があります。

Default Network Provider

クラスターが使用するデフォルトの外部ネットワークプロバイダーを指定します。Open Virtual Network (OVN) を選択する場合、クラスターに追加されたホストは OVN プロバイダーと通信するように自動的に設定されます。

デフォルトのネットワークプロバイダーを変更する場合には、クラスターのすべてのホストを再インストールして、変更を適用する必要があります。

ログメモリーの最大しきい値

最大メモリー消費のロギングしきい値をパーセンテージまたは絶対値(MB 単位)で指定します。ホストのメモリー使用量がパーセンテージ値を超えている場合や、ホストで利用可能なメモリーが絶対値(MB 単位)を下回る場合にログに記録されます。デフォルトは 95% です。

Enable Virt Service

このラジオボタンを選択すると、このクラスター内のホストは仮想マシンを実行するために使用されます。

Enable Gluster Service

このラジオボタンが選択される場合、このクラスターのホストは Red Hat Gluster Storage Server ノードとして使用されるため、仮想マシンの実行には使用されません。

Import existing gluster configuration

このチェックボックスは、Enable Gluster Service ラジオボタンが選択されている場合にのみ利用できます。このオプションを使用すると、既存の Gluster 対応クラスターおよびその割り当てられたすべてのホストを Red Hat Virtualization Manager にインポートできます。

以下のオプションは、インポートされているクラスター内のホストごとに必要になります。

  • Address: Gluster ホストサーバーの IP または完全修飾ドメイン名を入力します。
  • フィンガープリント: Red Hat Virtualization Manager はホストのフィンガープリントを取得して、正しいホストに接続します。
  • Root Password: ホストとの通信に必要な root パスワードを入力します。

Enable to set VM maintenance reason

このチェックボックスを選択すると、クラスターの仮想マシンが Manager からシャットダウンすると、オプションの reason フィールドが表示されます。これにより、ログに表示されるメンテナンスの説明と、仮想マシンの電源が再びオンになります。

ホストのメンテナンス理由の設定の有効化

このチェックボックスを選択すると、クラスターのホストが Manager からメンテナンスモードに移動すると、オプションの reason フィールドが表示されます。これにより、ログに表示されるメンテナンスの説明と、ホストが再度アクティベートされたタイミングを指定できます。

追加の乱数ジェネレーターソース

このチェックボックスを選択した場合には、クラスター内の全ホストには、追加の乱数ジェネレーターデバイスが利用可能になります。これにより、乱数ジェネレーターデバイスから仮想マシンへのエントロピーのパススルーが可能になります。

8.2.3. 最適化設定の説明

メモリーに関する考慮事項

メモリーページの共有により、仮想マシンは、他の仮想マシンで未使用のメモリーを利用することで、割り当てられたメモリーの最大 200% を使用できます。このプロセスは、Red Hat Virtualization 環境内の仮想マシンが同時に実行されるという前提であり、未使用のメモリーを特定の仮想マシンに一時的に割り当てられるようにします。

CPU の考慮事項

  • CPU 集約型ではないワークロードの場合、ホスト内のコア数よりも大きいプロセッサーコアの合計数を持つ仮想マシンを実行できます。これを実行することで、以下が可能になります。

    • より多くの仮想マシンを実行することができます。これにより、ハードウェアの要件が減少します。
    • 仮想コアの数がホストコア数とホストスレッドの数の間にある場合など、それ以外の CPU トポロジーで仮想マシンを設定できます。
  • 最適なパフォーマンス、特に CPU 集約型のワークロードの場合、ホストと同じトポロジーを使用する必要があります。ホストと仮想マシンは同じキャッシュの使用を期待します。ホストのハイパースレッディングが有効な場合、QEMU がホストのハイパースレッドをコアとして扱うため、仮想マシンは複数のスレッドを持つ単一のコアで実行されていることを認識しません。ホストコアのハイパースレッドに実際に対応する仮想コアは、仮想マシンのパフォーマンスに影響する可能性があります。これは、同じホストコアのハイパースレッドと単一のキャッシュを共有する可能性がありますが、仮想マシンは別のコアとして扱います。

以下の表は、New Cluster および Edit Cluster ウィンドウの Optimization タブの設定について説明しています。

表8.2 最適化の設定

フィールド説明/アクション

メモリーの最適化

  • None - Disable memory overcommit: メモリーページ共有を無効にします。
  • Server Load - Allow scheduling of 150% of physical memory: 各ホストのシステムメモリーのメモリーページ共有のしきい値を 150% に設定します。
  • For Desktop Load - Allow scheduling of 200% of physical memory: 各ホストのシステムメモリーの200% にメモリーページ共有のしきい値を設定します。

CPU スレッド

Count Threads As Cores チェックボックスを選択すると、ホストは、ホストのコア数よりも大きいプロセッサーコアの合計数で仮想マシンを実行することができます。

このチェックボックスを選択すると、公開されるホストスレッドは仮想マシンが使用できるコアとして扱われます。たとえば、コアごとに 2 つのスレッドがある 24 コアのシステム (全部で 48 スレッド) では、それぞれ最大 48 コアを持つ仮想マシンを実行できます。そして、ホストの CPU 負荷を計算するアルゴリズムは、使用量の多くのコアを 2 回比較します。

メモリーバルーン

Enable Memory Balloon Optimization のチェックボックスを選択し、このクラスターのホストで実行している仮想マシンでメモリーのオーバーコミットを有効にします。このチェックボックスを選択すると、Memory Overcommit Manager(MoM)は、可能な限りバルーニングを開始し、可能な場合はすべての仮想マシンのメモリーサイズが保証されます。

バルーンが実行しているには、仮想マシンに適切なドライバーを持つバルーンデバイスが必要です。各仮想マシンには、特別に削除しない限り、バルーンデバイスが含まれます。このクラスター内の各ホストは、ステータスが Up に変わったときにバルーンポリシーの更新を受け取ります。必要に応じて、ステータスを変更せずに、ホストのバルーンポリシーを手動で更新できます。「クラスター内のホストでの MoM ポリシーの更新」 を参照してください。

シナリオのバルーンでは、KSM と一致している可能性がある点を理解することが重要です。このような場合は、MoM は競合の可能性を最小限に抑えるためにバルーンサイズの調整を試みます。さらに、シナリオのバルーンによっては、仮想マシンに対して最大のパフォーマンスが最適化される可能性があります。管理者は、バルーンの最適化を注意して使用することが推奨されます。

KSM コントロール

Enable KSM チェックボックスを選択すると、MoM が必要に応じて Kernel Same-page Merging(KSM)を実行できるため、メモリーの保存で CPU コストの重み付けがメリットを得ることができます。

8.2.4. 移行ポリシー設定の説明

移行ポリシーは、ホストに障害が発生した場合に仮想マシンのライブマイグレーションの条件を定義します。これらの状態には、移行中の仮想マシンのダウンタイム、ネットワーク帯域幅、および仮想マシンの優先順位が含まれます。

表8.3 移行ポリシーの説明

ポリシー説明

Legacy

3.6 バージョンのレガシー動作vdsm.conf のオーバーライドは引き続き適用されます。ゲストエージェントフックメカニズムが無効になっている。

最小ダウンタイム

仮想マシンを一般的な状況で移行できるようにするポリシー。仮想マシンは、ダウンタイムを大幅に発生しません。移行は、長時間(QEMU の反復により最大 500 ミリ秒)後に仮想マシンの移行が収束されない場合に中止されます。ゲストエージェントフックメカニズムが有効になっている。

コピー後の移行

仮想マシンは、ダウンタイムを最小限に抑えるポリシーと同様の、大きなダウンタイムは発生しません。コピー後のポリシーは、最初に事前コピーして、コンバージェンスが発生したかどうかを検証します。仮想マシンの移行が長時間後に収束されない場合、移行は post-copy に切り替わります。このポリシーの欠点は、コピー後のフェーズでは、メモリーの不足している部分がホスト間で転送されるため、仮想マシンが大幅に遅くなる可能性があります。

ホスト間の移行ネットワークのネットワーク障害など、コピー後のフェーズで異常が発生した場合は、移行プロセスで仮想マシンが一貫性がなく、一時停止されて結果が失われます。そのため、コピー後のフェーズで移行を中止することはできません。

Warning

コピー後のプロセスの完了前にネットワーク接続が破損すると、Manager は一時停止し、実行中の仮想マシンを強制終了します。仮想マシンの可用性が重要である場合や、移行ネットワークが不安定な場合は、コピー後の移行を使用しないでください。

必要に応じてワークロードを一時停止

負荷が大きい仮想マシンを含む、ほとんどの状況で仮想マシンが移行できるようにするポリシー。このため、仮想マシンでは、他の設定よりも大きなダウンタイムが生じる場合があります。移行は、極端なワークロードに対して中止される場合があります。ゲストエージェントフックメカニズムが有効になっている。

帯域幅設定は、ホストごとの送信移行と受信両方の最大帯域幅を定義します。

表8.4 帯域幅の説明

ポリシー説明

Auto

帯域幅は、データセンターの Host Network QoSRate Limit [Mbps] 設定からコピーされます。レート制限が定義されていない場合は、ネットワークインターフェース送受信の最小リンク速度として計算されます。レート制限が設定されていない場合や、リンク速度が利用できない場合には、ホスト送信時にローカルの VDSM 設定により決定されます。

ハイパーバイザーのデフォルト

帯域幅は、ホスト送信時にローカルの VDSM 設定によって制御されます。

カスタム

ユーザーで定義されます(Mbps 単位)。この値は、同時移行の数(デフォルトは 2 で、継続的な移行および送信移行のために考慮するには 2)で分割されます。したがって、ユーザー定義の帯域幅は、すべての同時移行に対応できるように十分な大きさである必要があります。

たとえば、Custom 帯域幅が 600 Mbps として定義されている場合、仮想マシンの移行の最大帯域幅は実際には 300 Mbps になります。

耐障害性ポリシーは、移行での仮想マシンの優先順位を定義します。

表8.5 耐障害性ポリシーの設定

フィールド説明/アクション

仮想マシンの移行

定義された優先順位で、すべての仮想マシンを移行します。

高可用性仮想マシンのみの移行

他のホストのオーバーロードを防ぐために、高可用性の仮想マシンのみを移行します。

Do not migrate Virtual Machines(仮想マシンを移行しない)

仮想マシンを移行しないようにします。

Additional Properties は、Legacy 移行ポリシーにのみ適用されます。

表8.6 その他のプロパティーの説明

プロパティー説明

自動コンバージション

仮想マシンのライブマイグレーション中に自動コンバージェンスが使用されるかどうかを設定できます。負荷が大きいが大きい仮想マシンでは、ライブマイグレーション中に行われる転送速度よりも速くメモリーがダーティーなり、移行が収束できなくなります。QEMU の自動調整機能を使用すると、仮想マシン移行の収束を強制的に実行できます。QEMU は、コンバージェンスの欠如を自動的に検出し、仮想マシン上の vCPU のスロットルダウンをトリガーします。オートコンバージェンスはデフォルトで無効になっています。

  • グローバルレベルで設定される auto-convergence 設定を使用するには、Inherit from global setting を選択します。このオプションはデフォルトで選択されます。
  • Auto Converge を選択してグローバル設定を上書きし、仮想マシンの自動調整を許可します。
  • Don't Auto Converge を選択してグローバル設定を上書きし、仮想マシンの自動調整を防ぎます。

移行圧縮の有効化

仮想マシンのライブマイグレーション中に移行圧縮を使用するかどうかを設定できます。この機能は、Xor Binary Zero Run-Length-Encoding を使用して、メモリー書き込みを必要とするワークロードまたはスパースメモリー更新パターンを使用するアプリケーションに対して、仮想マシンのダウンタイムと合計移行時間を短縮します。移行圧縮は、デフォルトでは無効になっています。

  • グローバルレベルで設定する圧縮設定を使用するには、Inherit from global setting を選択します。このオプションはデフォルトで選択されます。
  • Compress を選択してグローバル設定を上書きし、仮想マシンの圧縮を許可します。
  • Don't compress を選択してグローバル設定を上書きし、仮想マシンの圧縮を防ぎます。

8.2.5. スケジューリングポリシー設定に関する説明

スケジューリングポリシーにより、利用可能なホスト間での仮想マシンの使用状況および分散を指定することができます。スケジューリングポリシーを定義して、クラスター内のホスト全体で自動負荷分散を有効にします。スケジューリングポリシーに関わらず、CPU が過負荷状態のホストでは仮想マシンが起動しません。デフォルトでは、ホストの CPU が 5 分間 80% 以上の負荷がかかった場合に過負荷と判断されますが、この値はスケジューリングポリシーを使って変更できます。スケジューリングポリシーについての詳しい情報は、「スケジューリングポリシー」 を参照してください。

表8.7 スケジューリングポリシータブプロパティー

フィールド説明/アクション

ポリシーの選択

ドロップダウンリストからポリシーを選択します。

  • None: すでに実行中の仮想マシンのホスト間で負荷分散または電源割り当てを持たないように、ポリシーの値を none に設定します。これはデフォルトモードです。仮想マシンを起動すると、メモリーと CPU 処理の負荷はクラスター内のすべてのホストに均等に分散されます。ホストが定義された CpuOverCommitDurationMinutesHighUtilization、または MaxFreeMemoryForOverUtilized に達した場合、ホストにアタッチされた追加の仮想マシンは起動しません。
  • evenly_distributed: メモリーおよび CPU 処理をクラスター内のすべてのホストで均等に分散します。ホストが定義された CpuOverCommitDurationMinutesHighUtilization、または MaxFreeMemoryForOverUtilized に達した場合、ホストにアタッチされた追加の仮想マシンは起動しません。
  • cluster_maintenance: メンテナンスタスク中のクラスターでのアクティビティーの制限。高可用性の仮想マシンを除き、新規の仮想マシンを起動することはできません。ホストの障害が発生した場合、高可用性仮想マシンが正しく再起動し、どの仮想マシンも移行できます。
  • power_saving: 使用率の低いホストの電力消費を減らすために、利用可能なホストのサブセットにメモリーおよび CPU 処理負荷を分散します。CPU 負荷が低稼働率の値を下回っている状態が定義された時間以上続いたホストは、すべての仮想マシンを他のホストに移行させ、電源を切れるようにします。ホストにアタッチされた追加の仮想マシンは、そのホストが定義された高使用率値に達した場合には起動しません。
  • vm_evenly_distributed: 仮想マシンの数に基づいて、仮想マシンをホスト間で均等に分散します。HighVmCount よりも多くの仮想マシンを実行しているホストがあり、仮想マシン数が MigrationThreshold の範囲外であるホストが少なくとも 1 つ存在する場合、クラスターはアンバランスであると判断されます。

プロパティー

以下のプロパティーは選択したポリシーに応じて表示され、必要に応じて編集できます。

  • HighVmCount: 負荷分散を有効にするためにホストごとに実行する必要のある仮想マシンの最小数を設定します。デフォルト値は、1 台のホストで仮想マシンを実行する 10 です。負荷分散は、仮想マシンを実行するクラスターに少なくとも 1 つのホストがある場合にのみ有効になります。
  • MigrationThreshold: 仮想マシンがホストから移行される前にバッファーを定義します。これは、最も高使用率の低いホストと最も使用率の低いホスト間の仮想マシン数の包含的な差異です。クラスターのすべてのホストが移行しきい値内に留まる仮想マシン数がある場合、クラスターが分散されます。デフォルト値は 5 です。
  • SpmVmGrace: SPM ホストで予約される仮想マシンのスロット数を定義します。SPM ホストは他のホストよりも負荷が低くなるため、この変数は SPM ホストが他のホストと比較できる少ない仮想マシン数を定義します。デフォルト値は 5 です。
  • CpuOverCommitDurationMinutes: スケジューリングポリシーの実行前に、定義された使用率値以外の CPU 負荷をホストで実行できる時間(分単位)を設定します。定義した時間間隔は、CPU 負荷のスケジューリングポリシーで一時的な急増から保護し、不要な仮想マシンの移行を軽減します。最大 2 文字デフォルト値は 2 です。
  • HighUtilization: パーセンテージで表されます。定義された時間間隔で CPU 使用率以上の CPU 使用率を指定してホストを実行する場合、Red Hat Virtualization Manager はホストの CPU 負荷が最大サービスしきい値を下回るまで、仮想マシンをクラスター内の他のホストに移行します。デフォルト値は 80 です。
  • LowUtilization: パーセンテージとして示されています。定義された時間間隔で、ホストが使用率の低い値を下回る場合に、Red Hat Virtualization Manager は仮想マシンをクラスター内の他のホストに移行します。Manager は元のホストマシンの電源をオフにし、負荷分散が必要か、またはクラスターに空きホストが十分にない場合に再び再起動します。デフォルト値は 20 です。
  • ScaleDown: ホストのスコアを指定した量で除算して、HA Reservation 機能の影響を減らします。これは、none を含む、任意のポリシーに追加できる任意のプロパティーです。
  • HostsInReserve: 実行中の仮想マシンがない場合でも、実行し続ける多数のホストを指定します。これは、power_saving ポリシーに追加できる任意のプロパティーです。
  • EnableAutomaticHostPowerManagement: クラスター内のすべてのホストの自動電源管理を有効にします。これは、power_saving ポリシーに追加できる任意のプロパティーです。デフォルト値は true です。
  • MaxFreeMemoryForOverUtilized: 最小サービスレベルに必要な最小空きメモリーを設定します(MB 単位)。ホストの使用可能なメモリーがこの値を下回るか、またはこの値を下回ると、Red Hat Virtualization Manager はホストで利用可能なメモリーが最小限のサービスしきい値を超えている間に仮想マシンをクラスター内の他のホストに移行します。MaxFreeMemoryForOverUtilized および MinFreeMemoryForUnderUtilized の両方を 0 MB に設定すると、メモリーベースのバランシングが無効になります。MaxFreeMemoryForOverUtilized が設定されている場合は、予期しない動作を回避するために MinFreeMemoryForUnderUtilized も設定する必要があります。これは、power_saving ポリシーおよび evenly_distributed ポリシーに追加できる任意のプロパティーです。
  • MinFreeMemoryForUnderUtilized: ホストの使用率が低くなると見なされる前に、MB に必要な最小空きメモリーを設定します。ホストの利用可能なメモリーがこの値を上回る場合、Red Hat Virtualization Manager は仮想マシンをクラスター内の他のホストに移行し、ホストマシンの電源を切って、負荷分散の要件が十分であるか、またはクラスターに十分な空きホストがない場合には再度再起動します。MaxFreeMemoryForOverUtilized および MinFreeMemoryForUnderUtilized を 0MB に設定すると、メモリーベースのバランシングが無効になります。MinFreeMemoryForUnderUtilized が設定されている場合は、予期しない動作を回避するために MaxFreeMemoryForOverUtilized も設定する必要があります。これは、power_saving ポリシーおよび evenly_distributed ポリシーに追加できる任意のプロパティーです。
  • HeSparesCount: 移行するまたはシャットダウンした場合に Manager 用仮想マシンを起動するのに十分な空きメモリーを予約する必要があるセルフホスト型エンジンノードの数を設定します。セルフホスト型エンジンノードでその他の仮想マシンは起動できなくなります。そうでないと、Manager 用仮想マシンには十分な空きメモリーが残ってしまいます。これは、power_savingvm_evenly_distributedevenly_distributed ポリシーに追加できる任意のプロパティーです。デフォルト値は 0 です。

スケジューラーの最適化

ホストの重み付け/順序のスケジューリングを最適化します。

  • Optimize for Utilization: スケジューリングに重みモジュールを追加し、最適な選択を可能にします。
  • Optimize for Speed: 保留中のリクエストの数が 10 個ある場合に、ホストの重みをスキップします。

信頼できるサービスの有効化

OpenAttestation サーバーとのインテグレーションを有効にします。これを有効にする前に、engine-config ツールを使用して OpenAttestation サーバーの詳細を入力します。詳細は、「信頼済みコンピュートプール」 を参照してください。

HA 予約の有効化

Manager が高可用性仮想マシンのクラスター容量を監視できるようにします。Manager は、既存のホストが予期せずに失敗した場合に移行するために、高可用性として指定された仮想マシンのクラスター内に適切な容量が存在することを確認します。

Provide custom serial number policy

このチェックボックスを選択すると、クラスター内の仮想マシンのシリアル番号ポリシーを指定できます。以下のオプションのいずれかを選択します。

  • Host ID: ホストの UUID を仮想マシンのシリアル番号として設定します。
  • VM ID: 仮想マシンの UUID をそのシリアル番号として設定します。
  • Custom serial number: カスタムのシリアル番号を指定できます。

ホストの空きメモリーが 20% 未満になると、mom.Controllers.Balloon - INFO Ballooning guest:half1 from 1096400 to 1991580/var/log/vdsm/mom.log に記録されます。/var/log/vdsm/mom.log は、Memory Overcommit Manager のログファイルです。

8.2.6. クラスターコンソール設定の説明

以下の表は、New Cluster および Edit Cluster ウィンドウの Console タブの設定について説明しています。

表8.8 コンソールの設定

フィールド説明/アクション

クラスターの SPICE プロキシーの定義

このチェックボックスを選択し、グローバル設定で定義された SPICE プロキシーの上書きを有効にします。この機能は、ユーザー(たとえば、仮想マシンポータル経由で接続する)がハイパーバイザーが存在するネットワーク外にある場合に役に立ちます。

SPICE プロキシーアドレスのオーバーライド

SPICE クライアントが仮想マシンに接続するプロキシーアドレスは以下の形式でなければなりません。

protocol://[host]:[port]

8.2.7. フェンシングポリシー設定の説明

以下の表は、New Cluster および Edit Cluster ウィンドウの Fencing Policy タブの設定について説明しています。

表8.9 フェンシングポリシーの設定

フィールド説明/アクション

フェンシングの有効化

クラスターのフェンシングを有効にします。フェンシングはデフォルトで有効になっていますが、必要に応じて無効にできます。たとえば、一時的なネットワークの問題が発生したり、予想される場合に、管理者は診断またはメンテナンスアクティビティーが完了するまでフェンシングを無効にできます。フェンシングが無効になっている場合は、応答しないホストで実行している高可用性仮想マシンは、別の場所で再起動されないことに注意してください。

ホストのストレージにライブリースがある場合はフェンシングをスキップ

このチェックボックスを選択しないと、Non Responsive のクラスター内のホストは、ストレージに接続されたホストはフェンスされません。

クラスター接続の問題のフェンシングをスキップ

このチェックボックスを選択すると、接続の問題が発生するクラスター内のホストのパーセンテージが、定義された Threshold 以上になると、フェンシングが一時的に無効になります。Threshold 値はドロップダウンリストから選択されます。利用可能な値は 255075、および 100 です。

gluster ブリックが起動している場合は、フェンシングをスキップ

このオプションは、Red Hat Gluster Storage 機能が有効にされている場合にのみ利用できます。このチェックボックスを選択すると、ブリックが実行中で、他のピアから到達できる場合にフェンシングはスキップされます。「Chapter 2」を参照してください。フェンシングポリシー を使用して高可用性を設定します。詳細は、Maintaining Red Hat Hyperconverged InfrastructureAppendix A. Fencing Policies for Red Hat Gluster Storage を参照してください。

Gluster クォーラムが満たされない場合は、フェンシングをスキップします。

このオプションは、Red Hat Gluster Storage 機能が有効にされている場合にのみ利用できます。このチェックボックスを選択している場合、ブリックが実行されているとフェンシングがスキップされ、ホストをシャットダウンするとクォーラムが失われます。「Chapter 2」を参照してください。フェンシングポリシー を使用して高可用性を設定します。詳細は、Maintaining Red Hat Hyperconverged InfrastructureAppendix A. Fencing Policies for Red Hat Gluster Storage を参照してください。

8.2.8. クラスター内のホストの負荷および電源管理ポリシーの設定

evenly_distributed および power_saving スケジューリングポリシーを使用すると、許容可能なメモリーおよび CPU 使用率の値と、仮想マシンをホストへ/から移行する必要のあるポイントを指定することができます。vm_evenly_distributed スケジューリングポリシーは、仮想マシンの数に基づいて、ホスト間で仮想マシンを均等に配布します。スケジューリングポリシーを定義して、クラスター内のホスト全体で自動負荷分散を有効にします。各スケジューリングポリシーの詳細は、「スケジューリングポリシー設定に関する説明」 を参照してください。

ホストの負荷および電源管理ポリシーの設定

  1. ComputeClusters をクリックし、クラスターを選択します。
  2. 編集 をクリックします。
  3. Scheduling Policy タブをクリックします。
  4. 以下のポリシーのいずれかを選択します。

    • none
    • vm_evenly_distributed

      1. HighVmCount フィールドで負荷分散を有効にするために、少なくとも 1 台のホストで実行されている必要がある仮想マシンの最小数を設定します。
      2. 最も高使用率の低いホスト上の仮想マシン数と、MigrationThreshold フィールドの最も使用率の低いホストにある仮想マシン数との間の許容可能な最大差を定義します。
      3. SpmVmGrace フィールドの SPM ホストで予約される仮想マシンのスロット数を定義します。
      4. 任意で、HeSparesCount フィールドに、移行またはシャットダウンした場合に Manager 用仮想マシンを起動するのに十分な空きメモリーを確保する、追加のセルフホストエンジンノードの数を入力します。詳細は、「追加ホストでセルフホスト型エンジン用に予約されたメモリースロットの設定」 を参照してください。
    • evenly_distributed

      1. スケジューリングポリシーで CpuOverCommitDurationMinutes フィールドでアクションが実行される前に、定義された使用率値以外の CPU 負荷をホストで実行できる時間(分単位)を設定します。
      2. HighUtilization フィールドの他のホストへの移行を開始する CPU 使用率のパーセンテージを入力します。
      3. MinFreeMemoryForUnderUtilized で、この仮想マシンが必要な最小空きメモリー(MB 単位)を入力します。
      4. MaxFreeMemoryForOverUtilized で、この仮想マシンが必要な最大空きメモリーを MB 単位で入力します。
      5. 任意で、HeSparesCount フィールドに、移行またはシャットダウンした場合に Manager 用仮想マシンを起動するのに十分な空きメモリーを確保する、追加のセルフホスト型エンジンノードの数を入力します。詳細は、「追加ホストでセルフホスト型エンジン用に予約されたメモリースロットの設定」 を参照してください。
    • power_saving

      1. スケジューリングポリシーで CpuOverCommitDurationMinutes フィールドでアクションが実行される前に、定義された使用率値以外の CPU 負荷をホストで実行できる時間(分単位)を設定します。
      2. 以下の CPU 使用率の割合を入力します。このパーセンテージは、LowUtilization フィールドでホストの使用率が低く 考慮されます。
      3. HighUtilization フィールドの他のホストへの移行を開始する CPU 使用率のパーセンテージを入力します。
      4. MinFreeMemoryForUnderUtilized で、この仮想マシンが必要な最小空きメモリー(MB 単位)を入力します。
      5. MaxFreeMemoryForOverUtilized で、この仮想マシンが必要な最大空きメモリーを MB 単位で入力します。
      6. 任意で、HeSparesCount フィールドに、移行またはシャットダウンした場合に Manager 用仮想マシンを起動するのに十分な空きメモリーを確保する、追加のセルフホスト型エンジンノードの数を入力します。詳細は、「追加ホストでセルフホスト型エンジン用に予約されたメモリースロットの設定」 を参照してください。
  5. クラスターの Scheduler Optimization として、以下のいずれかを選択します。

    • Optimize for Utilization を選択して、スケジューリングに重みモジュールを組み込むため、最適な選択を可能にします。
    • Optimize for Speed を選択して、保留中のリクエストが 10 個以上ある場合にホストの重みをスキップします。
  6. OpenAttestation サーバーを使用してホストを確認し、engine-config ツールを使用してサーバーの詳細を設定している場合は、Enable Trusted Service チェックボックスを選択します。
  7. 必要に応じて、Enable HA Reservation チェックボックスを選択し、Manager が高可用性仮想マシンのクラスター容量を監視できるようにします。
  8. オプションで Provide custom serial number policy チェックボックスを選択し、クラスター内の仮想マシンのシリアル番号ポリシーを指定し、以下のオプションのいずれかを選択します。

    • ホスト ID を選択して、ホストの UUID を仮想マシンのシリアル番号として設定します。
    • Vm ID を選択して、仮想マシンの UUID をシリアル番号として設定します。
    • Custom serial number を選択し、テキストフィールドにカスタムのシリアル番号を指定します。
  9. OK をクリックします。

8.2.9. クラスター内のホストでの MoM ポリシーの更新

Memory Overcommit Manager は、ホストのメモリーバルーンと KSM 機能を処理します。クラスターレベルでこれらの機能への変更は、次回ホストが再起動またはメンテナンスモードの Up 状態に切り替わるときにのみホストに渡されます。ただし、必要な場合は、ホストが Up 時に MoM ポリシーを同期することにより、重要な変更をホストをすぐに適用することができます。以下の手順は、各ホストで個別に実行する必要があります。

ホストでの MoM ポリシーの同期

  1. ComputeClusters をクリックします。
  2. クラスターの名前をクリックして、詳細ビューを開きます。
  3. ホスト タブをクリックして、更新された MoM ポリシーが必要なホストを選択します。
  4. Sync MoM Policy をクリックします。

ホストの MoM ポリシーは、ホストをメンテナンスモードに移行し、バックアップを行わずに更新されます。

8.2.10. CPU プロファイルの作成

CPU プロファイルは、クラスター内の仮想マシンが、実行しているホストでアクセスできる最大処理機能を定義します。これは、そのホストで利用可能な合計処理機能のパーセントで表現されます。CPU プロファイルは、データセンターで定義された CPU プロファイルに基づいて作成され、クラスター内のすべての仮想マシンに自動的に適用されません。これらのプロファイルは、プロファイルを有効にするために個々の仮想マシンに手動で割り当てる必要があります。

この手順では、クラスターが属するデータセンター配下に 1 つ以上の CPU 品質のサービスエントリーがすでに定義されていることを前提としています。

CPU プロファイルの作成

  1. ComputeClusters をクリックします。
  2. クラスターの名前をクリックして、詳細ビューを開きます。
  3. CPU Profiles タブをクリックします。
  4. New をクリックします。
  5. CPU プロファイルの Name および Description を入力します。
  6. QoS 一覧から CPU プロファイルに適用するサービスの品質を選択します。
  7. OK をクリックします。

8.2.11. CPU プロファイルの削除

Red Hat Virtualization 環境から既存の CPU プロファイルを削除します。

CPU プロファイルの削除

  1. ComputeClusters をクリックします。
  2. クラスターの名前をクリックして、詳細ビューを開きます。
  3. CPU Profiles タブをクリックし、削除する CPU プロファイルを選択します。
  4. 削除 をクリックします。
  5. OK をクリックします。

CPU プロファイルが仮想マシンに割り当てられている場合、それらの仮想マシンには default CPU プロファイルが自動的に割り当てられます。

8.2.12. 既存の Red Hat Gluster Storage クラスターのインポート

Red Hat Gluster Storage クラスターおよびクラスターに属するすべてのホストを Red Hat Virtualization Manager にインポートできます。

クラスター内の任意のホストの IP アドレスまたはホスト名やパスワードなどの詳細を指定すると、SSH を介してそのホストで gluster peer status コマンドを実行すると、クラスターの一部であるホストの一覧が表示されます。各ホストのフィンガープリントを手動で検証し、パスワードを提供する必要があります。クラスター内のいずれかのホストが停止または到達できない場合、クラスターをインポートすることはできません。新規インポートされたホストに VDSM がインストールされていないため、ブートストラップスクリプトは、インポート後にホストに必要な VDSM パッケージをすべてインストールして再起動します。

既存の Red Hat Gluster Storage クラスターの Red Hat Virtualization Manager へのインポート

  1. ComputeClusters をクリックします。
  2. New をクリックします。
  3. クラスターが属する データセンター を選択します。
  4. クラスターの Name および Description を入力します。
  5. Enable Gluster Service チェックボックスを選択し、Import existing gluster configuration チェックボックスを選択します。

    Import existing gluster configuration フィールドは、Enable Gluster Service が選択されている場合にのみ表示されます。

  6. Hostname フィールドには、クラスター内のサーバーのホスト名または IP アドレスを入力します。

    ホストの SSH フィンガープリント が表示され、正しいホストに接続していることを確認します。ホストが到達不能な場合や、ネットワークエラーが発生した場合には、Error in fetching fingerprint のエラーが Fingerprint フィールドに表示されます。

  7. サーバーの パスワード を入力し、OK をクリックします。
  8. ホストの追加 画面が開き、クラスターの一部であるホストの一覧が表示されます。
  9. 各ホストに 名前root パスワードを入力します。
  10. すべてのホストに同じパスワードを使用する場合は、Use a Common Password チェックボックスを選択して、指定したテキストフィールドにパスワードを入力します。

    Apply をクリックして、入力したパスワードをすべて設定します。

    フィンガープリントが有効であることを確認し、OK をクリックして変更を送信します。

ブートストラップスクリプトは、インポート後にホストに必要な VDSM パッケージをすべてインストールして再起動します。既存の Red Hat Gluster Storage クラスターを Red Hat Virtualization Manager に正常にインポートできるようになりました。

8.2.13. ホストウィンドウの追加設定の説明

Add Hosts ウィンドウで、Gluster 対応クラスターの一部としてインポートされたホストの詳細を指定できます。このウィンドウは、New Cluster ウィンドウで Enable Gluster Service チェックボックスを選択し、必要なホストの詳細を提供した後に表示されます。

表8.10 Gluster ホスト設定の追加

フィールド説明

一般的なパスワードを使用します。

このチェックボックスにチェックマークを入れ、クラスターに属する全ホストに同じパスワードを使用します。パスワード フィールドにパスワードを入力し、適用 ボタンをクリックして全ホストにパスワードを設定します。

Name

ホストの名前を入力します。

ホスト名/IP

このフィールドには、新規クラスターウィンドウで指定したホストの完全修飾ドメイン名または IP が自動的に設定されます。

root パスワード

各ホストに異なる root パスワードを使用するには、このフィールドにパスワードを入力します。このフィールドは、クラスター内のすべてのホストに提供される共通のパスワードを上書きします。

Fingerprint

ホストのフィンガープリントが表示され、正しいホストに接続していることを確認します。このフィールドには、新規クラスターウィンドウで指定したホストのフィンガープリントが自動的に入力されます。

8.2.14. クラスターの削除

クラスターを削除する前に、すべてのホストをクラスターから移動します。

注記

デフォルト クラスターは Blank テンプレートを保持するため、削除できません。ただし、Default クラスターの名前を変更し、新しいデータセンターに追加することは可能です。

クラスターの削除

  1. ComputeClusters をクリックし、クラスターを選択します。
  2. クラスターにホストがないことを確認します。
  3. 削除 をクリックします。
  4. OKをクリックします。

8.2.15. メモリーの最適化

ホストの仮想マシン数を増やすには、仮想マシンに割り当てる メモリーのオーバーコミット を使用できます。メモリーは RAM を超え、swap 領域に依存します。

ただし、メモリーのオーバーコミットには潜在的な問題があります。

  • スワップパフォーマンス - スワップ領域が遅くなり、仮想マシンのパフォーマンスに影響する RAM よりも多くの CPU リソースを消費します。スワップを過剰にすると、CPU のスラッシングにつながる可能性があります。
  • OOM (Out-of-memory) killer: ホストがスワップ領域が不足すると、新規プロセスを開始できず、カーネルの OOM killer デーモンは仮想マシンゲストなどのアクティブなプロセスのシャットダウンを開始します。

これらの欠点に対処するために、以下を実行できます。

  • Memory Optimization 設定および Memory Overcommit Manager (MoM) を使用してメモリーのオーバーコミットを制限します。
  • 仮想メモリーの潜在的な要求に対応できるサイズに大きな swap 領域を作成し、安全マージンを残します。
  • memory ballooning および Kernel Same-page Merging (KSM) を有効にして、仮想メモリー サイズを縮小します。

8.2.15.1. メモリーの最適化とメモリーオーバーコミット

Memory Optimization 設定(None (0%)、150%、または 200% のいずれかを選択して、メモリーのオーバーコミット量を制限できます。

各設定は、メモリーの割合を表します。たとえば、RAM が 64 GB のホストの場合、150% を選択すると、仮想メモリーの合計 96 GB について、メモリーを追加の 32 GB でオーバーコミットできます。ホストの合計が 4 GB を使用する場合には、残りの 92 GB が利用可能になります。仮想マシンにはほとんど(System タブの Memory Size)を割り当てることができますが、その一部を安全マージンとして割り当てることを検討してください。

仮想メモリーの要求で急増すると、MoM、メモリーバルーン、および KSM が仮想メモリーを再最適化するまでのパフォーマンスに影響する可能性があります。この影響を減らすには、実行するアプリケーションおよびワークロードの種類に適した制限を選択します。

  • メモリーに対する増分増加をデマンドするワークロードの場合は、200% または 150% などの高いパーセンテージを選択します。
  • より重大なアプリケーションまたはワークロードでメモリーの需要が増加する場合には 、150%None (0%)などの低いパーセンテージを選択します。None を選択するとメモリーのオーバーコミットを防ぐことができますが、MoM、メモリーバルーンデバイス、および KSM は仮想メモリーの最適化を継続できます。
重要

設定を実稼働環境にデプロイする前に、さまざまな条件下で メモリー最適化 の設定を必ずテストしてください。

Memory Optimization 設定を構成するには、New Cluster または Edit Cluster ウィンドウの Optimization タブをクリックします。「最適化設定の説明」 を参照してください。

その他のコメント:

  • ホストの 統計ビュー は、オーバーコミットの比率をサイジングするのに役に立つ履歴情報を表示します。
  • KSM とメモリーバルーンの変更が達成するメモリーの最適化のサイズは継続的に行われるため、実際に利用可能なメモリーをリアルタイムで決定することはできません。
  • 仮想マシンが仮想メモリー制限に達すると、新しいアプリを開始できません。
  • ホストで実行する仮想マシンの数を計画する際には、最大仮想メモリー(物理メモリーサイズおよびメモリー Memory Optimization 設定)を開始点として使用します。メモリーバルーンや KSM などのメモリーの最適化により実現される、より小さい仮想メモリーに考慮しないでください。

8.2.15.2. swap 要領とメモリーオーバーコミットメント

Red Hat は、スワップ領域を設定するためにこの推奨事項 を提供しています。

これらの推奨事項を適用する場合は、最も悪いシナリオにおいて、スワップ領域のサイズを「最後の作業メモリー」とするガイダンスに従ってください。物理メモリーのサイズと Memory Optimization 設定を、仮想メモリーサイズの合計見積もるベースとして使用します。MoM、メモリーバルーン、および KSM による仮想メモリーサイズの削減を除外してください。

重要

OOM 条件を防ぐのに役立つため、最も悪いケースのシナリオを処理するのに十分な swap 領域を確保し、安全マージンを引き続き利用可能にします。実稼働環境にデプロイする前に、さまざまな条件で設定を常にテストしてください。

8.2.15.3. Memory Overcommit Manager(MoM)

Memory Overcommit Manager(MoM) は、以下の 2 つを行います。

  • これは、前述のセクションで説明されているように、クラスターのホストにメモリー Memory Optimization 設定を適用してメモリーのオーバーコミットを制限します。
  • 以下のセクションで説明されているように、memory ballooningKSM を管理することで、メモリーを最適化します。

MoM を有効または無効にする必要はありません。

ホストの空きメモリーが 20% 未満になると、mom.Controllers.Balloon - INFO Ballooning guest:half1 from 1096400 to 1991580 が Memory Overcommit Manager ログファイル/var/log/vdsm/mom.log に記録されます。

8.2.15.4. メモリーバルーニング

仮想マシンは、割り当てられた仮想メモリーの量で起動します。仮想メモリー使用量が RAM を超えると、ホストはスワップ領域に依存します。有効にすると、仮想マシンが memory ballooning の未使用の部分を上回ります。解放されたメモリーは、ホスト上の他のプロセスおよび仮想マシンで再利用できます。メモリーフットプリントが削減されると、スワップの可能性が低くなり、パフォーマンスが向上します。

読み込み可能なカーネルモジュール(LKM)として同梱されるメモリーバルーンデバイスとドライバーを提供する virtio-balloon パッケージ。デフォルトでは、自動的に読み込まれるように設定されています。モジュールをブラックリストに登録したり、バルーンスを無効にします。

メモリーバルーンデバイスは、相互に直接調整しません。各仮想マシンのニーズを継続的に監視するには、MoM(ホストの Memory Overcommit Manager)プロセスに依存して、各仮想マシンのニーズを継続的に監視し、仮想メモリーの増減を指示します。

パフォーマンスに関する考慮事項:

  • Red Hat は、パフォーマンスが高く、低レイテンシーを必要とするワークロードにはメモリーバルーンおよびオーバーコミットを推奨しません。「 Configuring High-Performance Virtual Machines, Templates, and Pools 」を参照してください。
  • Red Hat は、仮想マシンの密度を増やす際にメモリーバルーンを推奨しています(economy)はパフォーマンスよりも重要となります。
  • メモリーバルーニングは CPU 使用率に大きな影響を及ぼしません。(KSM は一部の CPU リソースを消費しますが、消費は不足の下に保たれます。)

メモリーバルーンを有効にするには、New Cluster またはEdit Cluster ウィンドウの Optimization タブをクリックします。次に、Enable Memory Balloon Optimization チェックボックスを選択します。この設定により、このクラスターのホストで実行されている仮想マシンでメモリーのオーバーコミットが有効になります。このチェックボックスを選択すると、MoM はバルーニングを開始し、可能な場合はすべての仮想マシンのメモリーサイズが保証されます。「最適化設定の説明」 を参照してください。

このクラスター内の各ホストは、ステータスが Up に変わったときにバルーンポリシーの更新を受け取ります。必要に応じて、ステータスを変更せずに、ホストのバルーンポリシーを手動で更新できます。「クラスター内のホストでの MoM ポリシーの更新」 を参照してください。

8.2.15.5. Kernel Same-page Merging (KSM)

仮想マシンの実行時には、一般的なライブラリーや使用頻度の高いデータといったアイテム向けに、重複したメモリーページが作成されることがあります。さらに、同じようなゲスト OS やアプリケーションを実行している仮想マシンでは、仮想メモリー内のメモリーページが重複してしまいます。

KSM (Kernel Sam-page Merging) を有効にすると、ホスト上の仮想メモリーを調査し、重複するメモリーページを排除して、残りのメモリーページを複数のアプリケーションや仮想マシンで共有できます。これらの共有メモリーページにはコピーオンライトのマークがついており、仮想マシンでページに変更を書き込む必要がある場合には、先にコピーを作成してからそのコピーに変更を書き込みます。

KSM が有効な間は、MoM が KSM を管理します。KSM を手動で設定制御する必要はありません。

KSM は、2 つの方法で仮想メモリーのパフォーマンスを向上させます。共有メモリーのページは使用頻度が高いため、ホストはそのページをキャッシュやメインメモリーに格納する可能性が高くなり、メモリーアクセス速度が向上します。さらに、メモリーオーバーコミットを使用することで、KSM は仮想メモリーのフットプリントを減らし、スワッピング発生の可能性を軽減してパフォーマンスを向上させます。

KSM はメモリーバルーニングよりも多くの CPU リソースを消費します。KSM のCPU 消費量は、負荷をかけても変わりません。同一の仮想マシンやアプリケーションをホスト上で実行すると、KSM は異種の仮想マシンを実行するよりもメモリーページをマージする機会が多くなります。異なる仮想マシンやアプリケーションを多く実行している場合には、KSM を使用するための CPU コストがその利点を打ち消してしまう可能性があります。

パフォーマンスに関する考慮事項:

  • KSM デーモンが大量のメモリーをマージした後に、カーネルのメモリーが計算した統計値が最終的に矛盾することがあります。システムに大量の空きメモリーがある場合には、KSM を無効にするとパフォーマンスが向上することがあります。
  • Red Hat は、パフォーマンスが高く、低レイテンシーを必要とするワークロードには KSM およびオーバーコミットを推奨しません。「 Configuring High-Performance Virtual Machines, Templates, and Pools 」を参照してください。
  • Red Hat は、仮想マシンの密度を増やす際に KSM を推奨しています(economy)は、パフォーマンスよりも重要となります。

KSM を有効にするには、New Cluster またはEdit Cluster ウィンドウの Optimization タブをクリックします。次に、Enable KSMのチェックボックスを選択します。この設定をし用すると、MoMは必要なときにKSMを実行でき、CPU コストを上回るメモリ節約のメリットが得られます。「最適化設定の説明」 を参照してください。

8.2.16. クラスターの互換バージョンの変更

Red Hat Virtualization のクラスターには互換バージョンがあります。クラスターの互換バージョンは、そのクラスター内の全ホストがサポートする Red Hat Virtualization の機能を示します。クラスターの互換バージョンは、そのクラスター内で最も機能性の低いホストオペレーティングシステムのバージョンに応じて設定されます。

重要

クラスターの互換バージョンを変更するには、まず、クラスター内の全ホストを更新して、必要な互換性レベルをサポートするレベルにする必要があります。更新が利用可能であることを示すアイコンがホストの横にあるかどうかを確認します。

手順

  1. 管理ポータルで、コンピュートクラスター をクリックします。
  2. 変更を行うクラスターを選択し、編集 をクリックします。
  3. 全般 タブで 互換バージョン を必要な値に変更します。
  4. OK をクリックします。クラスターの互換バージョンを変更 の確認ダイアログが開きます。
  5. OK をクリックして確定します。
重要

一部の仮想マシンおよびテンプレートが不適切に設定されていることを警告するエラーメッセージが表示される場合があります。このエラーを修正するには、それぞれの仮想マシンを手動で編集します。仮想マシンの編集 ウィンドウには、修正すべき項目を確認することのできる新たな検証および警告が表示されます。問題が自動的に修正され、仮想マシンの設定を再度保存するだけで十分な場合もあります。それぞれの仮想マシンを編集したら、クラスターの互換バージョンを変更することができます。

クラスターの互換バージョンを更新したら、実行中またはサスペンド中のすべての仮想マシンについてクラスターの互換バージョンを更新する必要があります。そのためには、ゲストオペレーティングシステム内からではなく、管理ポータルから、または REST API を使用して仮想マシンを再起動します。再起動が必要な仮想マシンには、変更が保留されていることを示すアイコン ( pendingchanges ) が付きます。プレビュー状態にある仮想マシンスナップショットについては、クラスターの互換バージョンを変更することができません。まずコミットするか、プレビューを取り消す必要があります。

セルフホスト型エンジン環境では、Manager 仮想マシンを再起動する必要はありません。

別途適切な時期に仮想マシンを再起動することもできますが、仮想マシンで最新の設定が使用されるように、直ちに再起動することを強く推奨します。更新されていない仮想マシンは古い設定で実行され、再起動前に仮想マシンに他の変更を加えた場合には新しい設定が上書きされてしまう可能性があります。

データセンター内のすべてのクラスターと仮想マシンの互換性バージョンを更新したら、データセンター自体の互換性バージョンを変更できます。

第9章 論理ネットワーク

9.1. 論理ネットワークタスク

9.1.1. ネットワークタスクの実行

NetworkNetworks は、ユーザーが論理ネットワーク関連の操作を実行し、各ネットワークのプロパティーや他のリソースとの関連付けに基づいて論理ネットワークを検索するための中心的な場所を提供します。NewEditRemoveボタンで、データセンター内の論理ネットワークの作成、プロパティーの変更、削除ができます。

各ネットワーク名をクリックし、詳細ビューのタブを使用して、以下のような機能を実行します。

  • クラスターやホストにネットワークを割り当てまたは割り当て解除する
  • 仮想マシンやテンプレートからネットワークインターフェイスを削除する
  • ネットワークへのアクセスや管理を行うユーザーの権限を追加、削除する

これらの機能は、それぞれのリソースからもアクセス可能です。

警告

データセンターやクラスターでは、ホストが動作している場合にはネットワークを変更しないでください。ホストに到達できなくなる危険性があります。

重要

Red Hat Virtualization ノードを使用してサービスを提供する予定の場合には、Red Hat Virtualization 環境が動作を停止すると、そのサービスが停止することに注意してください。

これはすべてのサービスに当てはまりますが、特に Red Hat Virtualization 上で以下を実行した場合の危険性に注意する必要があります。

  • ディレクトリーサービス
  • DNS
  • ストレージ

9.1.2. データセンターまたはクラスターでの新しい論理ネットワークの作成

論理ネットワークを作成し、データセンターやデータセンター内のクラスターでの使用を定義します。

データセンターまたはクラスターでの新しい論理ネットワークの作成

  1. ComputeData Centers または ComputeClusters をクリックします。
  2. データセンターまたはクラスター名をクリックして、詳細ビューを開きます。
  3. Logical Networks タブをクリックします。
  4. New Logical Network ウィンドウを開きます。

    • データセンターの詳細表示から、Newをクリックします。
    • クラスターの詳細表示で、Add Networkをクリックします。
  5. 論理ネットワークの NameDescription、および Comment を入力します。
  6. 必要に応じて、VLAN タグ付けの有効化 を有効 にします。
  7. 必要に応じて、VM ネットワーク を無効にし ます。
  8. オプションで、Create on external provider チェックボックスを選択します。これにより、ネットワークラベルVM ネットワーク、および MTU オプションが無効になります。詳細は、14章外部プロバイダー を参照してください。
  9. External Providerを選択します。外部 プロバイダーの 一覧には、読み取り専用 モードの外部プロバイダーは含まれません。

    外部プロバイダー 一覧で ovirt-provider-ovn を選択し、物理ネットワークへの接続を未選択のままに することで、内部分離ネットワーク を作成できます。

  10. Network Label テキストフィールドに、論理ネットワークの新しいラベルを入力するか、既存のラベルを選択します。
  11. MTU 値を Default(1500) または Custom に設定します。
  12. 外部プロバイダードロップダウンリストからovirt-provider-ovnを選択した場合は、ネットワークにセキュリティーグループを実装するかどうかを定義します。詳細は、「論理ネットワーク一般設定の説明」 を参照してください。
  13. クラスタータブから、ネットワークを割り当てるクラスターを選択します。また、論理ネットワークを必須ネットワークにするかどうかも指定できます。
  14. Create on external provider を選択すると、Subnet タブが表示されます。SubnetタブからCreate subnetを選択し、NameCIDRGatewayアドレスを入力し、論理ネットワークが割り当てるサブネットのIP Versionを選択します。また、必要に応じて DNS サーバーを追加することもできます。
  15. v NIC Profilesタブで、必要に応じて vNIC プロファイルを論理ネットワークに追加します。
  16. OK をクリックします。

論理ネットワークにラベルを入力した場合は、そのラベルが割り当てられたすべてのホストネットワークインターフェイスに自動的に追加されます。

注記

新しい論理ネットワークを作成したり、ディスプレイネットワークとして使用されている既存の論理ネットワークに変更を加えたりする場合には、そのネットワークを使用する、稼働中の仮想マシンは、ネットワークが使用可能になる前、または変更が適用される前に、再起動する必要があります。

9.1.3. 論理ネットワークの編集

重要

ホスト上のネットワーク構成と同期していない場合には、論理ネットワークの編集や他のインターフェイスへの移動はできません。ネットワークの同期方法については、「ホストのネットワークインターフェイスの編集とホストへの論理ネットワークの割り当て」 を参照してください。

論理ネットワークの編集

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. Logical Networksタブをクリックして、論理ネットワークを選択します。
  4. 編集 をクリックします。
  5. 必要な設定を編集します。

    注記

    デフォルトのネットワーク除き、新規または既存のネットワークの名前は、仮想マシンを停止することなく編集することができます。

  6. OK をクリックします。
注記

マルチホストネットワーク構成では、更新されたネットワーク設定を、ネットワークが割り当てられたデータセンター内のすべてのホストに自動適用します。変更は、ネットワークを使用する仮想マシンが停止しているときにのみ適用されます。すでにホストに設定されている論理ネットワークの名前は変更できません。VM ネットワークのオプションは、ネットワークを使用している仮想マシンやテンプレートを実行している間は無効にできません。

9.1.4. 論理ネットワークの削除

NetworkNetworks または ComputeData Centers から論理ネットワークを削除できます。以下の手順では、データセンターに関連付けられた論理ネットワークを削除する方法を説明します。Red Hat Virtualization の環境では、少なくとも 1 つの論理ネットワークをovirtmgmt管理ネットワークとして使用する必要があります。

論理ネットワークの削除

  1. ComputeData Centers をクリックします。
  2. データセンターの名前をクリックして、詳細ビューを開きます。
  3. Logical Networksタブをクリックすると、データセンター内の論理ネットワークがリストアップされます。
  4. 論理ネットワークを選択し、削除をクリックします。
  5. オプションで、Remove external network (s) from the provider (s) as wellチェックボックスを選択すると、ネットワークが外部のプロバイダーによって提供されている場合、Manager と外部のプロバイダーの両方から論理ネットワークを削除してください。外部プロバイダーが読み取り専用モードの場合、チェックボックスはグレーアウトされます。
  6. OK をクリックします。

論理ネットワークが Manager から削除され、利用できなくなります。

9.1.5. 非管理者用論理ネットワークのデフォルトルートとしての設定

クラスター内のホストが使用するデフォルトのルートは、管理ネットワーク(ovirtmgmt)を経由します。以下の手順では、非管理者用の論理ネットワークをデフォルトルートとして設定する手順を説明します。

前提条件:

  • default_routeカスタムプロパティーを使用している場合は、接続しているすべてのホストからカスタムプロパティーの設定を解除してから、この手順を実行する必要があります。

デフォルトルートロールの設定

  1. NetworkNetworks をクリックします。
  2. デフォルトルートとして設定する非管理用論理ネットワークの名前をクリックすると、その詳細が表示されます。
  3. Clusters タブをクリックします。
  4. ネットワークの管理 をクリックして、ネットワークの 管理 画面を 開きます。
  5. 該当するクラスターのDefault Routeチェックボックスを選択します。
  6. OK をクリックします。

ホストにネットワークが接続されている場合には、ホストのデフォルトルートは選択したネットワークに設定されます。クラスターにホストを追加する前に、デフォルトルートの役割を設定することをお勧めします。クラスターにすでにホストが含まれている場合には、変更内容をホストに同期するまで、ホストが同期しなくなる可能性があります。

IPv6 の重要な制限事項

  • IPv6 については、Red Hat Virtualization でサポートされるのは静的なアドレスだけです。
  • 両方のネットワークが単一のゲートウェイを共有している(同じサブネット上にある)場合には、デフォルトルートの役割を管理ネットワーク(ovirtmgmt)から別の論理ネットワークに移動できます。
  • ホストと Manager が同じサブネットにない場合には、IPv6 ゲートウェイが削除されているため、Manager はホストとの接続を失います。
  • デフォルトルートの役割を非管理ネットワークに移動すると、ネットワークインターフェイスから IPv6 ゲートウェイが削除され、「On clusterclusternamethe 'Default Route Role' network is no longer network ovirtmgmt」という警告が表示されます。IPv6 ゲートウェイはこのネットワークから削除されています。

9.1.6. 論理ネットワークのゲートウェイの表示と編集

論理ネットワークのゲートウェイ、IP アドレス、サブネットマスクを定義できます。これは、ホスト上に複数のネットワークが存在し、トラフィックがデフォルトゲートウェイではなく、指定したネットワークを経由しなければならない場合に必要です。

ホストに複数のネットワークが存在し、ゲートウェイが定義されていない場合には、リターントラフィックはデフォルトゲートウェイを経由することになり、意図した宛先に到達しない可能性があります。これにより、ユーザーがホストに対して ping を実行できなくなります。

Red Hat Virtualization は、インターフェイスがアップダウンするたびに、複数のゲートウェイを自動的に処理します。

論理ネットワークのゲートウェイの表示と編集

  1. ComputeHosts をクリックします。
  2. ホストの名前をクリックして、詳細ビューを開きます。
  3. ネットワークインターフェイスタブをクリックすると、ホストに接続されているネットワークインターフェイスとその設定内容が一覧表示されます。
  4. Setup Host Networks をクリックします。
  5. 割り当てられた論理ネットワークにカーソルを合わせ、鉛筆アイコンをクリックして Edit Management Network ウィンドウを開きます。

Edit Management Network ウィンドウには、ネットワーク名、ブートプロトコル、IP、サブネットマスク、ゲートウェイの各アドレスが表示されます。アドレス情報は、静的 ブートプロトコルを選択して手動で編集できます。

9.1.7. 論理ネットワーク一般設定の説明

以下の表では、New Logical NetworkおよびEdit Logical NetworkウィンドウのGeneralタブの設定について説明しています。

表9.1 新しい論理ネットワーク および 論理ネットワークの編集の設定

フィールド名説明

Name

論理ネットワークの名前。このテキストフィールドには、大文字、小文字、数字、ハイフン、およびアンダースコアの組み合わせが含まれる一意の名前である必要があります。

論理ネットワークの名前は 16 文字以上、ASCII 以外の文字を含めることができますが、ホスト上の識別子(vdsm_name)は定義した名前とは異なりますのでご注意ください。これらの名前のマッピングを表示する手順については、Mapping VDSM Names to Logical Network Names を参照してください。

説明

論理ネットワークの説明。このテキストフィールドには 40 文字の制限があります。

Comment

論理ネットワークに関するプレーンテキストの人間が読めるコメントを追加するためのフィールド。

外部プロバイダーでの作成

外部プロバイダーとして Manager に追加された OpenStack Networking インスタンスへの論理ネットワークを作成できます。

External Provider- 論理ネットワークを作成するための外部プロバイダーを選択できます。

VLAN タグの有効化

VLAN タグは、論理ネットワークで伝送されるすべてのネットワークトラフィックに特別な特性を与えるセキュリティー機能です。VLAN タグ付きのトラフィックは、その特性のないインターフェイスでは読み取れません。また、論理ネットワークに VLAN を使用すると、1 つのネットワークインターフェイスに、VLAN タグが異なる論理ネットワークを複数、関連付けることができます。VLAN タグ付けが有効な場合は、テキストエントリーフィールドに数値を入力します。

VM ネットワーク

仮想マシンのみがこのネットワークを使用する場合は、このオプションを選択します。ストレージの通信など、仮想マシンを介さないトラフィックにネットワークを使用する場合は、このチェックボックスを選択しないでください。

MTU

最大伝送単位(MTU)を括弧()で指定された値に設定するデフォルト、または論理ネットワークのカスタムMTUを設定するカスタムのいずれかを選択します。これを利用して、新しい論理ネットワークがサポートする MTU を、そのネットワークがインターフェイスするハードウェアがサポートする MTU に合わせることができます。カスタムを選択した場合は、テキスト入力フィールドに数値を入力します。

ネットワークラベル

ネットワークの新しいラベルを指定したり、ホストネットワークインターフェイスに既に取り付けられている既存のラベルを選択したりすることができます。既存のラベルを選択した場合には、そのラベルが指定されたすべてのホストネットワークインターフェイスに論理ネットワークが自動的に割り当てられます。

セキュリティーグループ

この論理ネットワーク上のポートにセキュリティーグループを割り当てることができます。Disabled は、セキュリティーグループの機能を無効にします。Enabled は、この機能を有効にします。ポートを作成してこのネットワークに接続すると、ポートセキュリティーが有効な状態で定義されます。つまり、仮想マシンに対するアクセスには、現在プロビジョニングされているセキュリティーグループが適用されることになります。Inherit from Configurationでは、すべてのネットワークで定義されている設定ファイルの動作をポートに継承させます。デフォルトでは、このファイルはセキュリティーグループを無効にします。詳細は、「論理ネットワークとポートへのセキュリティーグループの割り当て」 を参照してください。

9.1.8. 論理ネットワーククラスターの設定の説明

以下の表は、New Logical Network ウィンドウの Cluster タブの設定について説明しています。

表9.2 新しい論理ネットワーク 設定

フィールド名説明

クラスターへのネットワークの接続/クラスタからのネットワークの切断

論理ネットワークをデータセンター内のクラスターにアタッチまたはデタッチでき、論理ネットワークを個々のクラスターに必要なネットワークとするかどうかを指定することができます。

Name- 設定が適用されるクラスターの名前。この値は編集できません

Attach All- データセンター内のすべてのクラスターとの間で、論理ネットワークをアタッチまたはデタッチできます。また、各クラスターの名前の横にあるAttachチェックボックスを選択または選択解除して、論理ネットワークを特定のクラスターに接続したり、クラスターから分離したりすることもできます。

Required All- 論理ネットワークがすべてのクラスターで必須のネットワークであるかどうかを指定できます。また、各クラスターの名前の横にあるRequiredチェックボックスを選択または選択解除して、論理ネットワークが特定のクラスターに必要なネットワークであるかどうかを指定することもできます。

9.1.9. 論理ネットワークの vNIC プロファイル設定の説明

以下の表は、New Logical Network ウィンドウの vNIC Profiles タブの設定について説明しています。

表9.3 新しい論理ネットワーク 設定

フィールド名説明

vNIC Profiles

論理ネットワークの 1 つまたは複数の vNIC プロファイルを指定できます。vNIC プロファイルの横にあるプラスボタンまたはマイナスボタンをクリックして、vNIC プロファイルを論理ネットワークに追加したり、論理ネットワークから削除したりすることができます。最初のフィールドでは、vNIC プロファイルの名前を入力します。

Public- プロファイルをすべてのユーザーが利用できるようにするかどうかを指定できます。

QoS- vNIC プロファイルにネットワークの QoS(Quality of Service) プロファイルを指定できます。

9.1.10. ネットワークの管理ウィンドウでの論理ネットワークに対する特定のトラフィックタイプの指定

ネットワークのトラフィックフローを最適化するために、論理ネットワークのトラフィックタイプを指定します。

論理ネットワークのトラフィックタイプの指定

  1. ComputeClusters をクリックします。
  2. クラスターの名前をクリックして、詳細ビューを開きます。
  3. Logical Networks タブをクリックします。
  4. Manage Networksをクリックします。
  5. 適切なチェックボックスやラジオボタンを選択してください。
  6. OK をクリックします。
注記

外部のプロバイダーが提供する論理ネットワークは、仮想マシンのネットワークとして使用する必要があり、表示や移行などの特別なクラスターのロールを割り当てることはできません。

9.1.11. ネットワーク管理画面での設定内容の説明

以下の表では、Manage Networksウィンドウの設定について説明しています。

表9.4 ネットワーク設定の管理

フィールド説明/アクション

Assign

クラスター内の全ホストへの論理ネットワークの割り当てます。

必須。

Required (必須) と表示されたネットワークは、そのネットワークに関連するホストを正しく機能させるには、常に稼働している必要があります。必要なネットワークが機能しなくなると、そのネットワークに関連するホストはすべて動作しなくなります。

VM ネットワーク

VM ネットワークとマークされている論理ネットワークは、仮想マシンのネットワークに関連するネットワークトラフィックを伝送します。

ディスプレイネットワーク

ディスプレイネットワークとマークされた論理ネットワークは、SPICE と仮想ネットワークコントローラーに関連するネットワークトラフィックを伝送します。

移行ネットワーク

Migration Network とマークされた論理ネットワークは、仮想マシンとストレージの移行トラフィックを伝送します。このネットワークに障害が発生した場合には、代わりに管理ネットワークovirtmgmt (デフォルト) が使用されます。

9.1.12. NIC での Virtual Function 設定の編集

注記

これは、Red Hat Virtualization で SR-IOV を準備および設定する方法を示す一連のトピックの 1 つです。詳細は、Setting Up and Configuring SR-IOV を参照してください。

Single Root I/O Virtualization(SR-IOV)により、単一の PCIe エンドポイントを複数の個別デバイスとして使用できるようになります。これは、Physical Function(PF)と Virtual Function(VF)の 2 つの PCIe 機能の導入により実現されます。PCIe カードは 1 から 8 つの PF の間で指定できますが、各 PF は(デバイスにより異なる)多数の VF をサポートできます。

Red Hat Virtualization Manager で SR-IOV 対応ネットワークインターフェースコントローラー(NIC)の設定を編集できます。これには、各 NIC 上の VF の数や VF へのアクセスが許可される仮想ネットワークの指定が含まれます。

VF が作成されると、それぞれをスタンドアロンの NIC として扱うことができます。これには、1 つ以上の論理ネットワークが割り当てられ、そのネットワークを使用してボンディングインターフェースを作成し、ダイレクトデバイスパススルーのために vNIC を直接それらに割り当てることが含まれます。

VF に直接接続するには、vNIC プロパティーを有効にする必要があります。「vNIC プロファイルでのパススルーの有効化」 を参照してください。

NIC での Virtual Function 設定の編集

  1. ComputeHosts をクリックします。
  2. SR-IOV 対応ホストの名前をクリックし、詳細ビューを開きます。
  3. ネットワークインターフェース タブをクリックします。
  4. Setup Host Networks をクリックします。
  5. SR-IOV 対応の NIC ( SR IOV icon マーク) を選択し、鉛筆アイコンをクリックします。
  6. Virtual Function の数を編集するには、Number of VFs setting ドロップダウンボタンをクリックして、Number of VFs テキストフィールドを編集します。

    重要

    VF の数を変更すると、新しい VF を作成する前に、ネットワークインターフェース上の以前の VF がすべて削除されます。これには、仮想マシンが直接接続されている VF が含まれます。

  7. ネットワーク すべて チェックボックス がデフォルトで選択され、全ネットワークが Virtual Function にアクセスできるようにします。仮想機能へのアクセスが許可される仮想ネットワークを指定するには、特定のネットワークラジオボタンを 選択してすべてのネットワークを一覧表示します。次に、任意のネットワークのチェックボックスを選択するか、Labels テキストフィールドを使用して 1 つ以上のネットワークラベルに基づいてネットワークを自動的に選択できます。
  8. OK をクリックします。
  9. ホストネットワークの セットアップウィンドウでOK をクリックします。

9.2. 仮想ネットワークインターフェイスカード

9.2.1. vNIC プロファイルの概要

バーチャルネットワークインターフェイスカード(vNIC)のプロファイルは、Manager 内の個々のバーチャルネットワークインターフェイスカードに適用できる設定の集まりです。vNIC プロファイルでは、ネットワーク QoS プロファイルの vNIC への適用、ポートミラーリングの有効化/無効化、カスタムプロパティーの追加/削除が可能です。また、vNIC プロファイルは、特定のユーザーに使用(消費)のパーミッションを与えることができるという点で、管理上の柔軟性において、追加の切り口が提供されています。このようにして、異なるユーザーが特定のネットワークから受けるサービスの質を制御できます。

9.2.2. vNIC プロファイルの作成と編集

Virtual Network Interface Controller (vNIC)のプロファイルを作成または編集して、ユーザーやグループのネットワーク帯域幅を調整できます。

注記

ポートミラーリングを有効または無効にする場合には、編集する前に、関連するプロファイルを使用しているすべての仮想マシンがダウン状態になっている必要があります。

vNIC プロファイルの作成と編集

  1. NetworkNetworks をクリックします。
  2. 論理ネットワーク名をクリックして、詳細ビューを開きます。
  3. vNIC Profiles タブをクリックします。
  4. 新規作成または編集をクリックします。
  5. プロファイルの Name および Description を入力します。
  6. QoSリストから該当する Quality of Service ポリシーを選択します。
  7. ドロップダウンリストからネットワークフィルターを選択して、仮想マシンとの間のネットワークパケットのトラフィックを管理します。ネットワークフィルターの詳細は、Red Hat Enterprise Linux Virtualization Deployment and Administration GuideApplying network filtering を参照してください。
  8. vNIC のパススルーを有効にして、仮想機能のデバイスを直接割り当てるようにするには、パススルーびチェックボックスを選択します。パススルーのプロパティーを有効にすると、QoS、ネットワークフィルターリング、ポートミラーリングに互換性がないため、これらが無効になります。パススルーの詳細は、「vNIC プロファイルでのパススルーの有効化」 を参照してください。
  9. Passthroughを選択した場合には、オプションでMigratableチェックボックスの選択を解除すると、このプロファイルを使用する vNIC の移行が無効になります。このチェックボックスを選択した場合には、『 Virtual Machine Management Guide』 の 「Adding Prerequisites for Virtual Machines with SR-IOV-Enabled vNICs 」 を参照してください。
  10. Port MirroringAllow all users to use this Profileのチェックボックスを使って、これらのオプションを切り替えます。
  11. カスタムプロパティーリストからカスタムプロパティーを選択すると、デフォルトでPlease select a key...と表示されます。+ および - ボタンを使用して、カスタムプロパティーを追加または削除します。
  12. OK をクリックします。

このプロファイルをユーザーやグループに適用して、ネットワークの帯域幅を調整します。vNIC プロファイルを編集した場合は、仮想マシンを再起動するか、ゲスト OS が vNIC のホットプラグとホットアンプラグをサポートしている場合は、ホットアンプラグしてから vNIC をホットプラグする必要があります。

9.2.3. VM インターフェイスプロファイルウィンドウの設定内容の説明

表9.5 VM インターフェイスプロファイルウィンドウ

フィールド名説明

ネットワーク

vNIC プロファイルの適用先の利用可能なネットワークのドロップダウンリストです。

Name

vNIC プロファイルの名前。これは、1 から 50 文字までの大文字と小文字、数字、ハイフン、およびアンダースコアの組み合わせが含まれる一意の名前である必要があります。

説明

vNIC プロファイルの説明。このフィールドは推奨されますが、必須ではありません。

QoS

vNIC プロファイルに適用する、利用可能な Network Quality of Service ポリシーのドロップダウンリストです。QoS ポリシーは、vNIC のインバウンドおよびアウトバウンドのネットワークトラフィックを規制します。

ネットワークフィルター

vNIC プロファイルに適用するネットワークフィルターのドロップダウンリストです。ネットワークフィルターは、仮想マシンとの間で送信可能なパケットの種類をフィルターリングして、ネットワークセキュリティーを向上させます。デフォルトのフィルターは、vdsm-no-mac-spoofingno-mac-spoofingno-arp-mac-spoofingを組み合わせたものです。libvirt が提供するネットワークフィルターの詳細は、Red Hat Enterprise Linux Virtualization Deployment and Administration GuidePre-existing network filters セクションを参照してください。

仮想マシンの VLAN やボンドには、&lt;ネットワークフィルターなし&gt;を使用してください。信頼できる仮想マシンでネットワークフィルターを使用しない場合には、パフォーマンスが向上します。

注記

Red Hat では、engine-configツールを使用して Enable MACAnti Spoofing Filter Rulesパラメーターをfalseに設定してフィルターを無効にするサポートはなくなりました。代わりに&lt;No Network Filter&gt;オプションを使用してください。

passthrough

パススルーのプロパティーを切り替えるためのチェックボックス。パススルーでは、vNIC がホスト NIC の仮想機能に直接接続できるようになります。vNIC プロファイルが仮想マシンにアタッチされている場合には、パススルーのプロパティーは編集できません。

パススルーを有効にすると、vNIC プロファイルで QoS、ネットワークフィルター、ポートミラーリングが無効になります。

Migratable

このプロファイルを使用する vNIC を移行可能化どうかを切り替えるチェックボックスです。移行は、通常の vNIC プロファイルではデフォルトで有効になっています。その場合にはチェックボックスが選択されており、変更できません。Passthroughチェックボックスが選択されていると、Migratable が有効になり、必要に応じて選択を解除して、パススルー vNIC の移行を無効にできます。

ポートミラーリング

ポートミラーリングを切り替えるためのチェックボックスです。ポートミラーリングは、論理ネットワーク上のレイヤー 3 のネットワークトラフィックを、仮想マシン上の仮想インターフェイスにコピーします。デフォルトでは選択されていません。詳細は、『 Technical Reference 』の「 Port Mirroring 」を参照してください。

Device Custom Properties

vNIC プロファイルに適用する利用可能なカスタムプロパティーを選択するためのドロップダウンメニューです。+- ボタンを使用してプロパティーをそれぞれ追加、削除します。

Allow all users to use this Profile

環境内の全ユーザーがプロファイルを利用できるかどうかを切り替えるためのチェックボックスです。これはデフォルトで選択されます。

9.2.4. vNIC プロファイルでのパススルーの有効化

注記

これは、Red Hat Virtualization で SR-IOV を準備および設定する方法を示す一連のトピックの 1 つです。詳細は、Setting Up and Configuring SR-IOV を参照してください。

vNIC プロファイルのパススルーのプロパティーを使用すると、SR-IOV 対応 NIC の仮想機能(VF)に vNIC を直接接続できるようになります。次に、vNIC はソフトウェアによるネットワーク仮想化をバイパスして、VF に直接接続してデバイスを割り当てます。

vNIC プロファイルがすでに vNIC にアタッチされている場合、パススループロパティーは有効にできません。この手順では、これを避けるために新しいプロファイルを作成します。vNIC プロファイルでパススルーが有効になっている場合、QoS、ネットワークフィルター、およびポートミラーリングを同じプロファイルで有効にすることはできません。

SR-IOV、直接デバイス割り当て、および Red Hat Virtualization でこれらを実装する際のハードウェアの考慮事項に関する詳細は、「 SR-IOV を実装するためのハードウェアに関する考慮事項 」を参照してください。

パススルーの有効化

  1. NetworkNetworks をクリックします。
  2. 論理ネットワーク名をクリックして、詳細ビューを開きます。
  3. vNIC Profilesタブをクリックすると、その論理ネットワークのすべての v NIC プロファイルが一覧表示されます。
  4. New をクリックします。
  5. プロファイルの Name および Description を入力します。
  6. Passthroughチェックボックスを選択します。
  7. このプロファイルを使用する vNIC の移行を無効にするには、オプションでMigratableチェックボックスの選択を解除します。このチェックボックスを選択した場合には、『 Virtual Machine Management Guide』 の 「Adding Prerequisites for Virtual Machines with SR-IOV-Enabled vNICs 」 を参照してください。
  8. 必要に応じて、Please select a key...とデフォルトで表示されるカスタムプロパティーリストからカスタムプロパティーを選択します。+ および - ボタンを使用して、カスタムプロパティーを追加または削除します。
  9. OK をクリックします。

vNIC プロファイルがパススルーに対応するようになりました。このプロファイルを使用して仮想マシンを NIC または PCI VF に直接アタッチするには、論理ネットワークを NIC にアタッチして、パススルー vNIC プロファイルを使用目的の仮想マシン上に新しいPCI パススルー vNIC を作成します。この手順のそれぞれに関する詳細は、「ホストのネットワークインターフェイスの編集とホストへの論理ネットワークの割り当て」 および『 仮想マシン管理ガイド』 の「新規ネットワークインターフェースの追加 」を参照してください。

9.2.5. vNIC プロファイルの削除

vNIC プロファイルを削除すると、仮想化環境から削除されます。

vNIC プロファイルの削除

  1. NetworkNetworks をクリックします。
  2. 論理ネットワーク名をクリックして、詳細ビューを開きます。
  3. vNIC Profilesタブをクリックすると、利用可能な vNIC プロファイルが表示されます。
  4. 1 つまたは複数のプロファイルを選択し、削除をクリックします。
  5. OK をクリックします。

9.2.6. vNIC プロファイルへのセキュリティーグループの割り当て

注記

この機能は、OpenStack Networking(neutron)が外部ネットワークプロバイダーとして追加される場合にのみ利用できます。セキュリティーグループは Red Hat Virtualization Manager で作成できません。OpenStack を使用してセキュリティーグループを作成する必要があります。詳細は、『 Red Hat OpenStack Platform ユーザーおよびアイデンティティー 管理ガイド』の「プロジェクトのセキュリティー 管理」を参照 してください。

OpenStack Networking インスタンスからインポートされ、Open vSwitch プラグインを使用するネットワークの vNIC プロファイルに、セキュリティー グループを割り当てることができます。セキュリティーグループとは、厳密に適用されるルールの集合体であり、ネットワークインターフェイス上のインバウンドおよびアウトバウンドのトラフィックをフィルターリングできます。以下の手順では、vNIC プロファイルにセキュリティーグループをアタッチする方法について説明します。

注記

セキュリティーグループは、OpenStack Networking インスタンスに登録されているそのセキュリティーグループの ID を使用して識別されます。特定のテナントのセキュリティーグループ ID を特定するには、OpenStack Networking がインストールされているシステムで以下のコマンドを実行します。

# neutron security-group-list

vNIC プロファイルへのセキュリティーグループの割り当て

  1. NetworkNetworks をクリックします。
  2. 論理ネットワーク名をクリックして、詳細ビューを開きます。
  3. vNIC Profiles タブをクリックします。
  4. 新規作成をクリックするか、既存の vNIC プロファイルを選択して編集をクリックします。
  5. カスタムプロパティーのドロップダウンリストから、Security Groupsを選択します。カスタムプロパティーのドロップダウンを空白のままにすると、デフォルトのセキュリティー設定が適用され、すべてのアウトバウンドトラフィックとの相互通信が許可されますが、デフォルトのセキュリティーグループ外からのインバウンドトラフィックはすべて拒否されます。なお、後でSecurity Groupsプロパティーを削除しても、適用されたセキュリティーグループには影響しません。
  6. テキストフィールドに、vNIC プロファイルにアタッチするセキュリティーグループの ID を入力します。
  7. OK をクリックします。

vNIC プロファイルにセキュリティーグループをアタッチしました。そのプロファイルが接続されている論理ネットワークを経由するすべてのトラフィックは、そのセキュリティーグループに定義されているルールに従ってフィルタリングされます。

9.2.7. vNIC プロファイルのユーザー権限

ユーザー権限を設定して、特定の vNIC プロファイルにユーザーを割り当てます。Vnic Profile Userロールをユーザーに割り当ててプロファイルの使用を可能にします。特定のプロファイルに対する権限を削除して、ユーザーを制限できます。

vNIC プロファイルのユーザー権限

  1. NetworkvNIC Profile をクリックします。
  2. vNIC プロファイルの名前をクリックし、詳細ビューを開きます。
  3. Permissionsタブをクリックすると、そのプロファイルの現在のユーザー権限が表示されます。
  4. 追加または削除をクリックして、vNIC プロファイルのユーザー権限を変更します。
  5. Add Permissions to UserウィンドウでMy Groupsをクリックすると、ユーザーグループが表示されます。このオプションを使用して、グループ内の他のユーザーに権限を付与できます。

vNIC プロファイルのユーザー権限を構成しました。

9.2.8. UCS 統合用の vNIC プロファイルの設定

Cisco の Unified Computing System(UCS)は、コンピューティング、ネットワーク、ストレージリソースなどのデータセンターの要素を管理するために使用されます。

vdsm-hook-vmfex-dev フックを使用すると、vNIC プロファイルを設定して、仮想マシンは Cisco の UCS 定義のポートプロファイルに接続できます。UCS 定義のポートプロファイルには、UCS で仮想インターフェースを設定するために使用されるプロパティーおよび設定が含まれます。vdsm-hook-vmfex-dev フックは、VDSM でデフォルトでインストールされます。詳細は、付録A VDSM およびフック を参照してください。

vNIC プロファイルを使用する仮想マシンが作成されると、Cisco vNIC が使用されます。

UCS 統合用の vNIC プロファイルを設定する手順では、最初にカスタムデバイスプロパティーを設定する必要があります。カスタムデバイスプロパティーの設定時に、それに含まれる既存の値はすべて上書きされます。新しいプロパティーと既存のカスタムプロパティーを組み合わせる場合は、キーの値を設定するために使用されるコマンドにすべてのカスタムプロパティーを含めます。複数のカスタムプロパティーはセミコロンで区切られます。

注記

vNIC プロファイルを設定する前に、UCS ポートプロファイルを Cisco UCS で設定する必要があります。

カスタムデバイスプロパティーの設定

  1. Red Hat Virtualization Manager で、vmfex カスタムプロパティーを設定し、--cver を使用してクラスターの互換性レベルを設定します。

    # engine-config -s CustomDeviceProperties='{type=interface;prop={vmfex=^[a-zA-Z0-9_.-]{2,32}$}}' --cver=3.6
  2. vmfex カスタムデバイスプロパティーが追加されていることを確認します。

    # engine-config -g CustomDeviceProperties
  3. ovirt-engine サービスを再起動します。

    # systemctl restart ovirt-engine.service

設定する vNIC プロファイルは、新規または既存の論理ネットワークに属することができます。新しい論理ネットワークを設定する手順は、「データセンターまたはクラスターでの新しい論理ネットワークの作成」 を参照してください。

UCS 統合用の vNIC プロファイルの設定

  1. NetworkNetworks をクリックします。
  2. 論理ネットワーク名をクリックして、詳細ビューを開きます。
  3. vNIC Profiles タブをクリックします。
  4. New をクリックするか、vNIC プロファイルを選択し、Edit をクリックします。
  5. プロファイルの Name および Description を入力します。
  6. カスタムプロパティー リストから vmfex カスタムプロパティーを選択し、UCS ポートプロファイル名を入力します。
  7. OK をクリックします。

9.3. 外部プロバイダーネットワーク

9.3.1. 外部プロバイダーからのネットワークのインポート

外部ネットワークプロバイダー(OpenStack Networking または OpenStack Neutron REST API を実装するサードパーティープロバイダー)からのネットワークを使用するには、そのプロバイダーを Manager に登録します。詳細は、「ネットワーク プロビジョニング用の OpenStack Network サービス Neutron の 追加」または「外部ネットワークプロバイダー の追加」を参照してください。その後、以下の手順でプロバイダが提供するネットワークを Manager にインポートし、仮想マシンがネットワークを使用できるようにします。

外部プロバイダーからのネットワークのインポート

  1. NetworkNetworks
  2. Import をクリックします。
  3. Network Providerドロップダウンリストから、外部のプロバイダーを選択します。そのプロバイダーが提供しているネットワークが自動的に検出され、プロバイダーネットワークリストに表示されます。
  4. チェックボックスを使って、Provider Networksリストでインポートするネットワークを選択し、下矢印をクリックしてそのネットワークをNetworks to Importリストに移動させます。
  5. インポートするネットワークの名前をカスタマイズすることができます。名前をカスタマイズするには、名前列でネットワークの名前をクリックして、テキストを変更します。
  6. Data Centerドロップダウンリストから、ネットワークをインポートするデータセンターを選択します。
  7. オプション: 対象のネットワークをすべてのユーザーが利用できるようにするには、Allow Allチェックボックスをオフにします。
  8. Import をクリックします。

選択されたネットワークはターゲットデータセンターにインポートされ、仮想マシンにアタッチできるようになります。詳細は、『 Virtual Machine Management Guide 』 の 「 Adding a New Network Interface 」 を参照してください。

9.3.2. 外部プロバイダーネットワークの使用に関するの制限

外部プロバイダーからインポートした論理ネットワークを Red Hat Virtualization 環境で使用する場合には、以下の制限があります。

  • 外部プロバイダーが提供する論理ネットワークは、仮想マシンのネットワークとして使用する必要があり、ディスプレイネットワークとして使用できません。
  • 同一の論理ネットワークを複数回インポートできますが、インポートできるのは異なるデータセンターのみです。
  • 外部プロバイダーが提供する論理ネットワークを Manager で編集できません。外部のプロバイダーが提供する論理ネットワークの詳細を編集するには、対象の論理ネットワークを提供している外部のプロバイダーから直接編集する必要があります。
  • 外部のプロバイダーが提供する論理ネットワークに接続された仮想ネットワークインターフェイスカードでは、ポートミラーリングは利用できません。
  • 仮想マシンが外部のプロバイダーが提供する論理ネットワークを使用している場合には、その論理ネットワークが仮想マシンで使用されている間は、そのプロバイダーを Manager から削除できません。
  • 外部のプロバイダーが提供するネットワークは必須ではありません。そのため、ホスト選択時には、このような論理ネットワークのインポート先のクラスターのスケジューリングでこれらの論理ネットワークは考慮されません。さらに、このような論理ネットワークのインポート先のクラスターで、ユーザーが責任を持ってホストで論理ネットワークを利用できるようにしてください。

9.3.3. 外部プロバイダーの論理ネットワークのサブネット設定

外部のプロバイダーが提供する論理ネットワークでは、その論理ネットワーク上に 1 つ以上のサブネットが定義されている場合にのみ、仮想マシンに IP アドレスを割り当てることができます。サブネットが定義されていない場合には、仮想マシンには IP アドレスが割り当てられません。サブネットが 1 つの場合には、仮想マシンにそのサブネットから IP アドレスが割り当てられ、複数のサブネットがある場合には、仮想マシンに利用可能なサブネットのいずれかから IP アドレスが割り当てられます。論理ネットワークのホスト先の外部ネットワークプロバイダーが提供する DHCP サービスが、これらの IP アドレスを割り当てます。

Red Hat Virtualization Manager は、インポートされた論理ネットワーク上で定義済みのサブネットを自動的に検出しますが、Manager 内で論理ネットワークにサブネットを追加したり、論理ネットワークからサブネットを削除したりすることもできます。

外部ネットワークプロバイダーとして Open Virtual Network (OVN)(ovirt-provider-ovn)を追加した場合には、複数のサブネットをルーターで接続できます。これらのルーターを管理するには、OpenStack Networking API v2.0を使用できます。ただし、ovirt-provider-ovn には制限がありますのでご注意ください。ソース NAT(OpenStack API の enable_snat)は実装されていません。

9.3.4. 外部プロバイダー論理ネットワークへのサブネットの追加

外部のプロバイダーが提供する論理ネットワーク上にサブネットを作成します。

外部プロバイダー論理ネットワークへのサブネットの追加

  1. NetworkNetworks
  2. 論理ネットワーク名をクリックして、詳細ビューを開きます。
  3. Subnets タブをクリックします。
  4. New をクリックします。
  5. 新しいサブネットの名前CIDRを入力します。
  6. IP Version "ドロップダウンリストから、IPv4またはIPv6のいずれかを選択します。
  7. OK をクリックします。
注記

IPv6 については、Red Hat Virtualization でサポートされるのは静的なアドレスだけです。

9.3.5. 外部プロバイダー論理ネットワークからのサブネットの削除

外部プロバイダーが提供する論理ネットワークからサブネットを削除します。

外部プロバイダー論理ネットワークからのサブネットの削除

  1. NetworkNetworks
  2. 論理ネットワーク名をクリックして、詳細ビューを開きます。
  3. Subnets タブをクリックします。
  4. サブネットを選択し、削除をクリックします。
  5. OK をクリックします。

9.3.6. 論理ネットワークとポートへのセキュリティーグループの割り当て

注記

この機能は、Open Virtual Network (OVN)を外部ネットワークプロバイダーとして(ovirt-provider-ovn として)追加した場合にのみ使用できます。セキュリティーグループは Red Hat Virtualization Manager で作成できません。セキュリティーグループの作成は、OpenStack Networking API v2.0 または Ansible で行う必要があります。

セキュリティーグループとは、厳密に適用されるルールの集合体であり、ネットワーク上のインバウンドおよびアウトバウンドのトラフィックをフィルターリングすることができます。また、セキュリティーグループを使って、ポートレベルでトラフィックをフィルターリングすることもできます。

Red Hat Virtualization 4.2.7 では、セキュリティーグループはデフォルトで無効になっています。

論理ネットワークへのセキュリティーグループの割り当て

  1. ComputeClusters をクリックします。
  2. クラスター名をクリックして詳細ビューを開きます。
  3. Logical Networks タブをクリックします。
  4. ネットワークの追加をクリックしてプロパティーを定義し、外部プロバイダードロップダウンリストからovirt-provider-ovnが選択されていることを確認します。詳細は、「データセンターまたはクラスターでの新しい論理ネットワークの作成」 を参照してください。
  5. Security GroupドロップダウンリストからEnabledを選択します。詳細は、「論理ネットワーク一般設定の説明」 を参照してください。
  6. OK をクリックします。
  7. OpenStack Networking API v2.0またはAnsibleを使用して、セキュリティーグループを作成します。
  8. OpenStack Networking API v2.0またはAnsibleを使用して、セキュリティーグループのルールを作成します。
  9. OpenStack Networking API v2.0またはAnsibleを使用して定義したセキュリティーグループでポートを更新します。
  10. オプション。セキュリティー機能をポートレベルで有効にするかどうかを定義します。現在のところ、これはOpenStack Networking APIでのみ可能です。port_security_enabled属性が設定されていない場合は、所属するネットワークで指定された値がデフォルトとなります。

9.4. ホストとネットワーキング

9.4.1. ホスト機能のリフレッシュ

ネットワークインターフェイスカードをホストに追加した場合、そのネットワークインターフェイスカードを Manager に表示するには、ホストの機能を更新する必要があります。

ホスト機能のリフレッシュ

  1. ComputeHosts をクリックし、ホストを選択します。
  2. ManagementRefresh Capabilities をクリックします。

選択したホストの Network Interfaces タブにあるネットワークインターフェイスカードの一覧が更新されます。新しいネットワークインターフェイスカードが、Manager で使用できるようになりました。

9.4.2. ホストのネットワークインターフェイスの編集とホストへの論理ネットワークの割り当て

物理ホストネットワークインターフェイスの設定を変更したり、管理ネットワークを別の物理ホストネットワークインターフェイスに移動したり、物理ホストネットワークインターフェイスに論理ネットワークを割り当てたりすることができます。また、ブリッジや ethtool のカスタムプロパティーにも対応しています。

警告

Red Hat Virtualization でホストの IP アドレスを変更する唯一の方法は、そのホストを削除してから再度追加することです。

ホストの VLAN 設定を変更するには、「ホストの VLAN 設定の編集」 を参照してください。

重要

外部のプロバイダーが提供する論理ネットワークは、物理ホストのネットワークインターフェイスに割り当てることはできません。このような論理ネットワークは、仮想マシンが必要なときに動的にホストに割り当てられます。

注記

スイッチが LLDP(Link Layer Discovery Protocol)情報を提供するように設定されている場合には、物理ネットワークインターフェイスにカーソルを合わせると、そのスイッチポートの現在の設定が表示されます。これにより、誤った設定を防ぐことができます。Red Hat は、論理ネットワークを割り当てる前に、以下の情報を確認することを推奨します。

  • Port Description (TLV タイプ 4)System Name (TLV タイプ 5)は、ホストのどのポート、そしてどのスイッチにパッチが当てられているかを検出するのに役立ちます。
  • Port VLAN IDは、タグなしイーサーネットフレーム用にスイッチポートに設定されたネイティブ VLAN ID を表示します。スイッチポートに設定されているすべての VLAN が、VLAN NameVLAN IDの組み合わせで表示されます。

ホストのネットワークインターフェイスの編集とホストへの論理ネットワークの割り当て

  1. ComputeHosts をクリックします。
  2. ホストの名前をクリックして、詳細ビューを開きます。
  3. ネットワークインターフェース タブをクリックします。
  4. Setup Host Networks をクリックします。
  5. 必要に応じて、ホストネットワークインターフェースにカーソルを合わせ、スイッチが提供する設定情報を表示します。
  6. 論理ネットワークを選択して、物理ホストネットワークインターフェイスの横にあるAssigned Logical Networksエリアにドラッグして、論理ネットワークを物理ホストネットワークインターフェイスにアタッチします。

    注記

    1 つの NIC が複数の論理ネットワークに接続されている場合には、そのうちの 1 つのネットワークのみを VLAN 以外にすることができます。他のすべての論理ネットワークは、一意の VLAN でなければなりません。

  7. 論理ネットワークの設定

    1. 割り当てられた論理ネットワークにカーソルを合わせ、鉛筆アイコンをクリックして Edit Management Network ウィンドウを開きます。
    2. IPv4 タブのBoot ProtocolNoneDHCP または Staticを選択します。Staticを選択した場合は、IPNetmask/Routing PrefixGatewayを入力します。

      注記

      IPv6 は、静的 IPv6 アドレスのみ対応しています。論理ネットワークを設定するには、IPv6タブを選択し、次のように入力します。

      • Boot ProtocolStaticに設定します。
      • Routing Prefixには、スラッシュと小数点を使って、プレフィックスの長さを入力します。例: /48
      • IP:ホストのネットワークインターフェイスの完全な IPv6 アドレスです。例: 2001:db8::1:0:0:6
      • ゲートウェイ。送信元ルーターの IPv6 アドレス。例: 2001:db8::1:0:0:1
      注記

      ホストの管理ネットワークの IP アドレスを変更した場合には、新しい IP アドレスの設定に、ホストを再インストールする必要があります。

      各論理ネットワークには、管理ネットワークのゲートウェイとは別にゲートウェイを定義できます。これにより、論理ネットワークに到達したトラフィックは、管理ネットワークで使用されているデフォルトゲートウェイではなく、論理ネットワークのゲートウェイを使用して転送されます。

      重要

      クラスター内のすべて のホストが、管理ネットワークに同じ IP スタック(IPv4 または IPv6 のみ)を使用するように設定します。デュアルスタックには対応していません。

    3. QoSタブでは、デフォルトのホストネットワークのサービス品質を上書きします。Override QoS を選択し、以下のフィールドに必要な値を入力します。

      • Weight Share: 同じ論理リンクリンクにアタッチされた他のネットワークと比較して、特定のネットワークに割り当てる必要がある論理リンクの容量を指定します。正確な共有は、そのリンクの全ネットワークの共有の合計によって異なります。デフォルトでは、この値は 1-100 の範囲の数字になります。
      • Rate Limit [Mbps]: ネットワークによって使用される最大帯域幅。
      • Committed Rate [Mbps]: ネットワークに必要な最小帯域幅。要求される Committed Rate は保証されず、ネットワークインフラストラクチャーおよび同じ論理リンクの他のネットワークによって要求される Commmitted Rate によって異なります。
    4. ネットワークブリッジを設定するには、Custom Propertiesタブをクリックし、ドロップダウンリストからbridge_optsを選択します。有効なキーと値を次の構文で入力してください:key=value複数の項目を空白文字で区切ります。以下のキーが有効で、値は例として示されています。これらのパラメーターに関する詳しい情報は、「bridge_opts パラメーターの説明」 を参照してください。

      forward_delay=1500
      gc_timer=3765
      group_addr=1:80:c2:0:0:0
      group_fwd_mask=0x0
      hash_elasticity=4
      hash_max=512
      hello_time=200
      hello_timer=70
      max_age=2000
      multicast_last_member_count=2
      multicast_last_member_interval=100
      multicast_membership_interval=26000
      multicast_querier=0
      multicast_querier_interval=25500
      multicast_query_interval=13000
      multicast_query_response_interval=1000
      multicast_query_use_ifaddr=0
      multicast_router=1
      multicast_snooping=1
      multicast_startup_query_count=2
      multicast_startup_query_interval=3125
    5. イーサネットのプロパティーを設定するには、Custom Propertiesタブをクリックし、ドロップダウンリストからethtool_optsを選択します。ethtool のコマンドライン引数の形式で、有効な値を入力してください。以下に例を示します。

      --coalesce em1 rx-usecs 14 sample-interval 3 --offload em2 rx on lro on tso off --change em1 speed 1000 duplex half

      このフィールドは、ワイルドカードを使用できます。たとえば、このネットワークのすべてのインターフェイスに同じオプションを適用するには以下を使用します。

      --coalesce * rx-usecs 14 sample-interval 3

      ethtool_optsオプションはデフォルトでは使用できないので、エンジン設定ツールで追加する必要があります。詳細は、「Red Hat Virtualization Manager を使用するように Red Hat Virtualization Manager を設定する方法」 を参照してください。ethtool プロパティーの詳細は、コマンドラインで man ethtool と入力し、man ページを参照してください。

    6. Fibre Channel over Ethernet (FCoE)を設定するには、Custom Propertiesタブをクリックし、ドロップダウンリストからfcoeを選択します。有効なキーと値を次の構文で入力してください:key=value最低でもenable=yesが必要です。また、 dcb=auto_vlan=[yes|no]を追加することもできます。複数の項目を空白文字で区切ります。fcoeオプションはデフォルトでは利用できないので、エンジン設定ツールを使って追加する必要があります。詳細は、「FCoE を使用するように Red Hat Virtualization Manager を設定する方法」 を参照してください。

      注記

      FCoE を使用する場合は、別途、専用の論理ネットワークを用意することをお勧めします。

    7. ホストが使用するデフォルトネットワークを管理ネットワーク(ovirtmgmt)から非管理ネットワークに変更するには、非管理ネットワークのデフォルトルートを設定します。詳細は、「非管理者用論理ネットワークのデフォルトルートとしての設定」 を参照してください。
    8. 論理ネットワークの定義がホストのネットワーク構成と同期していない場合は、ネットワークの同期チェックボックスを選択します。同期されていないホストとその同期方法の詳細は、「ホストネットワークの同期」 を参照してください。
  8. Verify connectivity between Host and Engine チェックボックスを選択し、ネットワークの接続性を確認します。このアクションは、ホストがメンテナンスモードの場合にのみ機能します。
  9. OK をクリックします。
注記

ホストのすべてのネットワークインターフェイスカードが表示されていない場合は ManagementRefresh Capabilities をクリックして、そのホストで利用可能なネットワークインターフェイスカードのリストを更新します。

9.4.3. ホストネットワークの同期

ホスト上のインターフェイスの定義が、Manager が記憶している定義と異なる場合には、Manager はネットワークインターフェイスを非同期と定義します。同期がとれていないネットワークは、ホストの Network Interfaces タブに非同期アイコン ( out of sync ) を付けて、Setup Host Networks ウィンドウには out of sync setup アイコンをつけて表示されます。

ホストのネットワークが同期していない場合に、Setup Host Networksウィンドウで同期していないネットワークに実行できるアクティビティは、論理ネットワークをネットワークインターフェイスから切り離すか、ネットワークを同期させるかのいずれかのみです。

ホストが同期しなくなる仕組みを理解する

次のような場合には、ホストの同期が取れなくなります。

  • 論理ネットワークの編集ウィンドウなどを使わずに、ホスト上で構成を変更する。

    • 物理ホスト上の VLAN 識別子を変更する。
    • 物理ホストのカスタム MTUを変更する。
  • ネットワーク名は同じだが、値やパラメーターが異なる別のデータセンターにホストを移動させる。
  • ホストから手動でブリッジを削除してネットワークのVM Networkプロパティーを変更する。

ホストが非同期になるのを回避

以下のベストプラクティスに従うと、ホストの非同期化を回避できます。

  1. ホストのローカルで変更するのではなく、管理ポータルで変更します。
  2. 「ホストの VLAN 設定の編集」の説明に従って、VLAN の設定を編集します。

ホストの同期

ホストのネットワークインターフェイスの定義を同期させるには、Manager からの定義を使用してホストに適用します。これらの定義が必要でない場合は、同期後に管理ポータルからホストの定義を更新してください。ホストのネットワークを 3 つのレベルで同期させることができます。

  • 論理ネットワーク別
  • 1 ホスト別
  • クラスター別

ホストネットワークを論理ネットワークレベルで同期させます。

  1. ComputeHosts をクリックします。
  2. ホストの名前をクリックして、詳細ビューを開きます。
  3. ネットワークインターフェース タブをクリックします。
  4. Setup Host Networks をクリックします。
  5. 同期されていないネットワークにカーソルを合わせ、鉛筆アイコンをクリックして Edit Network ウィンドウを開きます。
  6. Sync networkのチェックボックスを選択します。
  7. OK をクリックして、ネットワーク変更を保存します。
  8. OK をクリックして、ホストネットワーク の設定 画面を 閉じます。

ホストレベルでのホストのネットワークの同期

  • ホストのNetwork InterfacesタブにあるSync All Networksボタンをクリックすると、ホストで同期していないネットワークインターフェイスがすべて同期されます。

クラスターレベルでのホストのネットワークの同期

  • クラスターの Logical Networks タブの Sync All Networks ボタンをクリックして、クラスター全体の同期されていない論理ネットワーク定義をすべて同期します。
注記

REST API 経由でホストのネットワークを同期することもできます。『 REST API Guide 』 の「 syncallnetworks 」を参照してください。

9.4.4. ホストの VLAN 設定の編集

ホストの VLAN 設定を変更するには、一旦 Manager からホストを削除し、再設定した後、再度 Manager に追加する必要があります。

ネットワークを同期させるためには、以下を実行します。

  1. ホストをメンテナンスモードにします。
  2. 管理ネットワークを手動でホストから外します。これにより、ホストは新しい VLAN 上で到達可能になります。
  3. ホストをクラスターに追加します。管理ネットワークに直接接続されていない仮想マシンは、ホスト間で安全に移行できます。

管理ネットワークの VLAN ID を変更すると、次のような警告メッセージが表示されます。

Changing certain properties (e.g. VLAN, MTU) of the management network could lead to loss of connectivity to hosts in the data center, if its underlying network infrastructure isn't configured to accommodate the changes. Are you sure you want to proceed?

続行すると、データセンター内のすべてのホストが Manager への接続を失い、新しい管理ネットワークへのホストの移行が失敗してしまいます。管理ネットワークは、「非同期」と報告されます。

重要

管理ネットワークの VLAN ID を変更した場合は、ホストを再インストールして新しい VLAN ID を適用する必要があります。

9.4.5. 論理ネットワークを使用した単一のネットワークインターフェイスへの複数の VLAN の追加

1 つのネットワークインターフェイスに複数の VLAN を追加し、1 つのホストのトラフィックを分離できます。

重要

複数の論理ネットワークを作成した場合には、全論理ネットワークでNew Logical Network または Edit Logical Network ウィンドウで VLAN タグを有効にするチェックボックスをチェックしておく必要があります。

論理ネットワークを使用したネットワークインターフェイスへの複数の VLAN の追加

  1. ComputeHosts をクリックします。
  2. ホストの名前をクリックして、詳細ビューを開きます。
  3. ネットワークインターフェース タブをクリックします。
  4. Setup Host Networks をクリックします。
  5. VLAN タグ付きの論理ネットワークを、物理ネットワークインターフェイスの横にあるAssigned Logical Networksエリアにドラッグします。物理ネットワークインターフェイスには、VLAN タグがあるので複数の論理ネットワークを割り当てることができます。
  6. 論理ネットワークを設定します。

    1. 割り当てられた論理ネットワークにカーソルを合わせ、鉛筆アイコンをクリックします。
    2. 論理ネットワークの定義がホストのネットワーク構成と同期していない場合は、ネットワークの同期チェックボックスを選択します。
    3. ブートプロトコルを選択します。

      • None
      • DHCP
      • 静的
    4. IPサブネットマスクを入力してください。
    5. OK をクリックします。
  7. Verify connectivity between Host and Engine チェックボックスを選択すると、ネットワークチェックが実行されますが、これはホストがメンテナンスモードの場合にのみ機能します。
  8. OK をクリックします。

クラスター内の各ホストの NIC を編集して、論理ネットワークをクラスター内の各ホストに追加します。この後、ネットワークの運用が開始されます。

この作業を複数回繰り返し、それぞれのホストで同じネットワークインターフェイスを選択、編集して、異なる VLAN タグを割り当てた論理ネットワークを1 つのネットワークインターフェイスに追加できます。

9.4.6. ホストネットワークへの追加の IPv4 アドレスの割り当て

ovirtmgmt 管理ネットワークなどのホストネットワークは、最初にセットアップされたときに 1 つの IP アドレスのみで作成されます。つまり、NIC の設定ファイル(例: /etc/sysconfig/network-scripts/ifcfg-eth01)が複数の IP アドレスで設定されている場合、最初に一覧表示された IP アドレスのみがホストネットワークに割り当てられます。ストレージに接続する場合や、同じ NIC を使って別のプライベートサブネット上のサーバーに接続する場合は、追加の IP アドレスが必要になることがあります。

vdsm-hook-extra-ipv4-addrs フックでは、ホストネットワークに追加の IPv4 アドレスを設定することができます。フックに関する詳細は、付録A VDSM およびフック を参照してください。

以下の手順では、追加の IP アドレスを設定する各ホストで、ホスト固有のタスクを実行する必要があります。

ホストネットワークへの追加の IPv4 アドレスの割り当て

  1. 追加の IPv4 アドレスを設定したいホストに、VDSM のフックパッケージをインストールします。Red Hat Virtualization Host ではこのパッケージがデフォルトで利用可能ですが、Red Hat Enterprise Linux ホストにインストールする必要があります。

    # yum install vdsm-hook-extra-ipv4-addrs
  2. Manager で以下のコマンドを実行してキーを追加します。

    # engine-config -s 'UserDefinedNetworkCustomProperties=ipv4_addrs=.*'
  3. ovirt-engine サービスを再起動します。

    # systemctl restart ovirt-engine.service
  4. 管理ポータルで コンピュートホスト をクリックします。
  5. ホストの名前をクリックして、詳細ビューを開きます。
  6. Network Interfaces タブをクリックし、Setup Host Networks をクリックします。
  7. 割り当てられた論理ネットワークの上にカーソルを置き、鉛筆のアイコンをクリックして、ホストネットワークインターフェイスを編集します。
  8. Custom Properties のドロップダウンリストから ipv4_addr を選択し、IP アドレスとプレフィックスを追加します (5.5.5.5/24 など)。複数の IP アドレスはコンマで区切る必要があります。
  9. OK をクリックして、ネットワークの 編集 ウィンドウを 閉じます。
  10. OK をクリックして、ホストネットワーク の設定 画面を 閉じます。

追加された IP アドレスは Manager には表示されませんが、ホスト上で ip addr show コマンドを実行することで、追加されたことを確認できます。

9.4.7. ホストネットワークインターフェースへのネットワークラベルの追加

ネットワークラベルを使用すると、ホストネットワークインターフェースへの論理ネットワークの割り当てに関連する管理ワークロードを大幅に簡素化できます。ロールネットワーク (たとえば、移行ネットワークやディスプレイネットワーク) にラベルを設定すると、そのネットワークがすべてのホストに大量に展開されます。このようなネットワークの大量追加は、DHCP を使って実現しています。多くの静的 IP アドレスを入力するタスクのスケーラブルでない性質のため、この大量展開の方法は、静的アドレスを入力する方法よりも選択されました。

ホストネットワークインターフェイスにラベルを追加するには 2 つの方法があります。

  • 管理ポータルで手動で実行する
  • LLDP Labeler サービスで自動で実行する

管理ポータルでのネットワークラベルの追加

  1. ComputeHosts をクリックします。
  2. ホストの名前をクリックして、詳細ビューを開きます。
  3. ネットワークインターフェース タブをクリックします。
  4. Setup Host Networks をクリックします。
  5. ラベルをクリックし、新規ラベルを右クリックします。ラベルを貼る物理ネットワークインターフェイスを選択します。
  6. ラベルテキストフィールドにネットワークラベルの名前を入力します。
  7. OK をクリックします。

LLDP ラベルサービスを使用したネットワークラベルの追加

LLDP Labeler サービスを使用すると、設定済みのクラスターリスト内のホストネットワークインターフェースにラベルを割り当てるプロセスを自動化できます。

デフォルトでは、LLDP Labeler は 1 時間ごとのサービスとして動作します。このオプションは、ハードウェアを変更する場合 (NIC、スイッチ、ケーブルなど)、またはスイッチ設定を変更する場合に役立ちます。

前提条件

  • インターフェイスは、ジュニパー製スイッチに接続されている必要があります。
  • ジュニパーのスイッチは、LLDP を使って Port VLAN を提供するように設定する必要があります。

手順

  1. /etc/ovirt-lldp-labeler/conf.d/ovirt-lldp-credentials.confusername および password を設定します。

    • username: Manager 管理者のユーザー名。デフォルトは admin@internal です。
    • password: Manager 管理者のパスワード。デフォルトは 123456 です。
  2. etc/ovirt-lldp-labeler/conf.d/ovirt-lldp-credentials.conf で以下の値を更新して、LLDP Labeler サービスを設定します。

    • clusters: サービスが実行されるクラスターのコンマ区切りリスト。ワイルドカードはサポートされます。たとえば、Cluster* は、Cluster という単語から始まるすべてのクラスターで実行する LLDP ラクターを定義します。データセンター内のすべてのクラスターでサービスを実行するには、* と入力します。デフォルトは Def* です。
    • api_url: Manager の API の完全な URL。デフォルトは https://Manager_FQDN/ovirt-engine/api です。
    • ca_file: カスタム CA 証明書ファイルへのパス。カスタム証明書を使用しない場合は、この値を空欄のままにします。デフォルトは空です。
    • auto_bonding: LLDP ラベラーのボンディング機能を有効にします。デフォルトは true です。
    • auto_labeling: LLDP ラベラーのラベリング機能を有効にします。デフォルトは true です。
  3. 必要に応じて、etc/ovirt-lldp-labeler/conf.d/ovirt-lldp-labeler.timerOnUnitActiveSec の値を変更することで、別の時間間隔でサービスを実行するように設定できます。デフォルトは 1h です。
  4. 以下のコマンドを入力して、現在およびシステムの起動時にサービスが開始するように設定します。

    # systemctl enable --now ovirt-lldp-labeler

    手動でサービスを呼び出すには、以下のコマンドを入力します。

    # /usr/bin/python /usr/share/ovirt-lldp-labeler/ovirt_lldp_labeler_cli.py

ホストのネットワークインターフェースにネットワークラベルを追加しました。同じラベルで新しく作成された論理ネットワークは、そのラベルを持つすべてのホストネットワークインターフェースに自動的に割り当てられます。論理ネットワークからラベルを削除すると、そのラベルを持つすべてのホストネットワークインターフェースからその論理ネットワークが自動的に削除されます。

9.4.8. ホストの FQDN の変更

以下の手順で、ホストの完全修飾ドメイン名を変更します。

ホストの FQDN の更新

  1. ホストをメンテナンスモードにして、仮想マシンが別のホストにライブマイグレーションされるようにします。詳細は、「ホストのメンテナンスモードへの切り替え」 を参照してください。あるいは、すべての仮想マシンを手動でシャットダウンするか、別のホストに移行してください。詳細は、『 Virtual Machine Management Guide 』 の 「 Manually Migrating Virtual Machines 」 を参照してください。
  2. 削除 をクリックして、OK をクリックして管理ポータルからホストを削除します。
  3. hostnamectl ツールを使用して、ホスト名を更新します。その他のオプションについては、Red Hat Enterprise Linux 7 Networking Guide Configure Host Names を参照してください。

    # hostnamectl set-hostname NEW_FQDN
  4. ホストを再起動します。
  5. ホストをマネージャーに再登録する。詳細は、「Red Hat Virtualization Manager への通常のホストの追加」 を参照してください。

9.4.9. IPv6 ネットワーキングサポート

Red Hat Virtualization はほとんどのコンテキストで静的 IPv6 ネットワーキングをサポートします。

注記

Red Hat Virtualization では、Manager を実行しているコンピューターまたは仮想マシン (または Manager マシン)で、引き続き IPv6 を有効にする必要があります。お使いのシステムが IPv6 を使用しない場合でも、Manager マシンで IPv6 を無効にしないでください

IPv6 の制限事項

  • スタティックな IPv6 アドレッシングのみ対応しています。DHCPStateless Address Autoconfiguration による動的な IPv6 アドレスの設定はサポートしていません。
  • デュアルスタックアドレッシング、IPv4 および IPv6 はサポートされていません。
  • OVN のネットワークは、IPv4 または IPv6 のみで使用できます。
  • クラスターの IPv4 から IPv6 への切り替えはサポートされていません。
  • IPv6 では、ホストごとに 1 つのゲートウェイしか設定できません。
  • 両方のネットワークが単一のゲートウェイを共有している(同じサブネット上にある)場合には、デフォルトルートの役割を管理ネットワーク(ovirtmgmt)から別の論理ネットワークに移動できます。ホストと Manager は同じ IPv6 ゲートウェイを持つ必要があります。ホストと Manager が同じサブネット上にない場合、IPv6 ゲートウェイが削除されたために Manager がホストとの接続を失う可能性があります。
  • IPv6 アドレスの gluster サーバーで glusterfs ストレージドメインを使用することはサポートされていません。

9.4.10. SR-IOV の設定および構成

このトピックでは、SR-IOV のセットアップと設定の手順をまとめ、各手順の詳細を説明するトピックへのリンクを掲載しています。

9.4.10.1. 前提条件

SR-IOV 実装に関するハードウェアの考慮事項に従ってハードウェアを設定

9.4.10.2. SR-IOV のセットアップおよび設定

SR-IOV をセットアップして設定するには、以下のタスクを実行します。

備考

  • パススルーの vNIC の数は、ホスト上で利用可能な仮想機能(VF)の数によって異なります。たとえば、3 つの SR-IOV カード (vNIC) で仮想マシン (VM) を実行するには、ホストで 3 つ以上の VF が有効になっている必要があります。
  • ホットプラグとアンプラグに対応しています。
  • ライブマイグレーションは RHV バージョン 4.1 以降でサポートされます。
  • VM を移行するためには、移行先のホストにも VM を受け入れるのに十分な空き VF が必要です。マイグレーションの際、VM はソースホスト上のいくつかの VF を解放し、デスティネーションホスト上で同じ数の VF を占有します。
  • ホストには、他のインターフェースと同様に、デバイス、リンク、または ifcae が表示されます。そのデバイスは、VM に装着すると消え、離すと再び現れます。
  • SR-IOV 機能では、ホストデバイスを VM に直接接続することは避けてください。
  • 複数の VLAN を持つトランクポートとして VF を使用し、ゲスト内で VLAN を設定するには、Cannot configure VLAN on SR-IOV VF interfaces inside the Virtual Machine を参照してください。

ここでは、インターフェイスの libvirt XML がどのように見えるかの例を示します。

  ----
  <interface type='hostdev'>
     <mac address='00:1a:yy:xx:vv:xx'/>
     <driver name='vfio'/>
     <source>
       <address type='pci' domain='0x0000' bus='0x05' slot='0x10' function='0x0'/>
     </source>
     <alias name='ua-18400536-5688-4477-8471-be720e9efc68'/>
     <address type='pci' domain='0x0000' bus='0x00' slot='0x08' function='0x0'/>
   </interface>
   ----

トラブルシューティング

以下の例は、インターフェースにアタッチされている VF に関する診断情報を取得する方法を示しています。

# ip -s link show dev enp5s0f0

1: enp5s0f0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9000 qdisc mq state UP mode DEFAULT qlen 1000
    link/ether 86:e2:ba:c2:50:f0 brd ff:ff:ff:ff:ff:ff
    RX: bytes  packets  errors  dropped overrun mcast
    30931671   218401   0       0       0       19165434
    TX: bytes  packets  errors  dropped carrier collsns
    997136     13661    0       0       0       0
    vf 0 MAC 02:00:00:00:00:01, spoof checking on, link-state auto, trust off, query_rss off
    vf 1 MAC 00:1a:4b:16:01:5e, spoof checking on, link-state auto, trust off, query_rss off
    vf 2 MAC 02:00:00:00:00:01, spoof checking on, link-state auto, trust off, query_rss off

9.4.10.3. 関連情報

9.5. ネットワークボンディング

ネットワークボンディングは、複数の NIC を 1 つのボンドデバイスにまとめるもので、以下のようなメリットがあります。

  • ボンディングされた NIC の伝送速度は、シングル NIC の伝送速度よりも高速です。
  • ネットワークボンディングは、ボンドデバイスのすべての NIC が故障しない限り、ボンドデバイスは故障しないため、フォールトトレランスを提供します。

同じメーカー、同じモデルの NIC を使用することで、同じボンディングオプションやモードをサポートすることができます。

重要

Red Hat Virtualization のデフォルトのボンディングモードである (Mode 4) Dynamic Link Aggregation には、802.3ad をサポートするスイッチが必要です。

ボンディングの論理的なネットワークには互換性がなければなりません。ボンディングは、1 つの VLAN 以外の論理ネットワークのみをサポートします。残りの論理ネットワークには、固有の VLAN ID を設定する必要があります。

スイッチのポートでボンディングを有効にする必要があります。具体的な方法は、スイッチのベンダーが提供するマニュアルを参照してください。

ネットワークボンドデバイスは、以下のいずれかの方法で作成することができます。

  • 管理ポータルで、特定のホストに対して手動で
  • クラスターやデータセンター内の全ホストのアンボンド NIC に対して、LLDP Labeler を用いて自動的に

ご使用の環境で iSCSI ストレージを使用していて、冗長性を実装する場合は、iSCSI マルチパスを設定するための手順に従ってください。

9.5.1. 管理ポータルでのボンドデバイスの作成

管理ポータルで特定のホストにボンドデバイスを作成することができます。ボンドデバイスは、VLAN タグ付きのトラフィックとタグなしのトラフィックの両方を伝送することができます。

手順

  1. ComputeHosts をクリックします。
  2. ホストの名前をクリックして、詳細ビューを開きます。
  3. Network Interfaces タブをクリックすると、ホストに接続されている物理的なネットワークインターフェースが一覧表示されます。
  4. Setup Host Networks をクリックします。
  5. スイッチの設定を確認してください。スイッチが LLDP (Link Layer Discovery Protocol) 情報を提供するように設定されている場合は、物理的な NIC の上にカーソルを置くと、スイッチポートのアグリゲーション構成が表示されます。
  6. NIC を他の NIC やボンドにドラッグ&ドロップします。

    注記

    2 枚の NIC が新しい結合を形成します。NIC とボンドは、既存のボンドに NIC を追加します。

    論理ネットワークに互換性がない場合、ボンディング操作はブロックされます。

  7. ドロップダウンメニューから Bond Name および Bonding Mode を選択します。詳細は、「ボンディングモード」 を参照してください。

    カスタム ボンディングモードを選択した場合、次の例のように、テキストフィールドにボンディングオプションを入力できます。

    • ご使用の環境で ethtool を使用してリンク状態が報告されない場合は、mode=1arp_interval=1arp_ip_target=192.168.0.2 と入力して ARP モニターリングを設定できます。
    • mode=1 primary=eth0 と入力すると、スループットの高い NIC をプライマリーインターフェイスとして指定できます。

      ボンディングオプションとその説明の包括的なリストについては、Kernel.org の Linux Ethernet Bonding Driver HOWTO を参照してください。

  8. OK をクリックします。
  9. 新しいボンドに論理ネットワークを付けて設定します。手順については、「ホストのネットワークインターフェイスの編集とホストへの論理ネットワークの割り当て」 を参照してください。

    注記

    論理ネットワークをボンド内の個々の NIC に直接アタッチすることはできません。

  10. オプションで、ホストがメンテナンスモードの場合は、ホストとエンジン間の接続の確認 を選択できます。
  11. OK をクリックします。

9.5.2. LLDP Labeler Service によるボンドデバイスの作成

LLDP Labeler サービスを利用すると、1 つ以上のクラスターまたはデータセンター全体のすべてのホストに対して、すべてのアンボンド NIC で自動的にボンドデバイスを作成することができます。ボンディングモードは (モード 4) 動的リンクアグリゲーション (802.3ad) です。

互換性のない論理ネットワークを持つ NIC は結合できません。

デフォルトでは、LLDP Labeler は 1 時間ごとのサービスとして動作します。このオプションは、ハードウェアを変更する場合 (NIC、スイッチ、ケーブルなど)、またはスイッチ設定を変更する場合に役立ちます。

前提条件

  • インターフェイスは、ジュニパー製スイッチに接続されている必要があります。
  • ジュニパースイッチは、LLDP を使用してリンクアグリゲーション制御プロトコル (LACP) 用に設定する必要があります。

手順

  1. /etc/ovirt-lldp-labeler/conf.d/ovirt-lldp-credentials.confusername および password を設定します。

    • username: Manager 管理者のユーザー名。デフォルトは admin@internal です。
    • password: Manager 管理者のパスワード。デフォルトは 123456 です。
  2. etc/ovirt-lldp-labeler/conf.d/ovirt-lldp-credentials.conf で以下の値を更新して、LLDP Labeler サービスを設定します。

    • clusters: サービスが実行されるクラスターのコンマ区切りリスト。ワイルドカードはサポートされます。たとえば、Cluster* は、Cluster という単語から始まるすべてのクラスターで実行する LLDP ラクターを定義します。データセンター内のすべてのクラスターでサービスを実行するには、* と入力します。デフォルトは Def* です。
    • api_url: Manager の API の完全な URL。デフォルトは https://Manager_FQDN/ovirt-engine/api です。
    • ca_file: カスタム CA 証明書ファイルへのパス。カスタム証明書を使用しない場合は、この値を空欄のままにします。デフォルトは空です。
    • auto_bonding: LLDP ラベラーのボンディング機能を有効にします。デフォルトは true です。
    • auto_labeling: LLDP ラベラーのラベリング機能を有効にします。デフォルトは true です。
  3. 必要に応じて、etc/ovirt-lldp-labeler/conf.d/ovirt-lldp-labeler.timerOnUnitActiveSec の値を変更することで、別の時間間隔でサービスを実行するように設定できます。デフォルトは 1h です。
  4. 以下のコマンドを入力して、現在およびシステムの起動時にサービスが開始するように設定します。

    # systemctl enable --now ovirt-lldp-labeler

    手動でサービスを呼び出すには、以下のコマンドを入力します。

    # /usr/bin/python /usr/share/ovirt-lldp-labeler/ovirt_lldp_labeler_cli.py
  5. 新しいボンドに論理ネットワークを付けて設定します。手順については、「ホストのネットワークインターフェイスの編集とホストへの論理ネットワークの割り当て」 を参照してください。

    注記

    論理ネットワークをボンド内の個々の NIC に直接アタッチすることはできません。

9.5.3. ボンディングモード

パケット分散アルゴリズムは、ボンディングモードによって決定されます。(詳細は Linux Ethernet Bonding Driver HOWTO を参照してください)。Red Hat Virtualization のデフォルトのボンディングモードは (Mode 4)Dynamic Link Aggregation(802.3ad) です。

Red Hat Virtualization は、仮想マシン (ブリッジド) ネットワークで使用できるため、以下のボンディングモードをサポートしています。

(Mode 1) Active-Backup
1 枚の NIC がアクティブです。アクティブな NIC が故障した場合、バックアップ NIC の 1 つがボンド内の唯一のアクティブな NIC としてその NIC を置き換えます。このボンドの MAC アドレスは、ネットワークアダプターのポートにのみ表示されます。これにより、ボンドの MAC アドレスが変更されても、新しいアクティブな NIC の MAC アドレスが反映されるため、MAC アドレスの混乱を防ぐことができます。
(Mode 2) Load Balance (balance-xor)
パケットを送信する NIC は、送信元 MAC アドレスと宛先 MAC アドレスに対して XOR 演算を実行し、NIC の総数のmodulo を掛けて選択されます。このアルゴリズムでは、各宛先 MAC アドレスに対して同じ NIC が選択されるようになっています。
(Mode 3) Broadcast
パケットはすべての NIC に送信されます。
(Mode 4) Dynamic Link Aggregation(802.3ad) (デフォルト)

NIC は、同じ速度とデュプレックスの設定を共有するグループに集約されます。アクティブなアグリゲーショングループのすべての NIC が使用されます。

注記

(Mode 4) Dynamic Link Aggregation(802.3ad) は 802.3ad 対応のスイッチが必要です。

ボンディングされた NIC は、同じアグリゲーター ID を持つ必要があります。それ以外の場合、マネージャーは ネットワークインターフェイス タブのボンドに警告感嘆符アイコンを表示し、ボンドの ad_partner_mac 値は00:00:00:00:00:00 として報告されます。以下のコマンドを入力することで、アグリゲーター ID を確認できます。

# cat /proc/net/bonding/bond0

https://access.redhat.com/solutions/67546 を参照してください。

Red Hat Virtualization はブリッジネットワークで使用できないため、仮想マシンの論理ネットワークと互換性がないため、以下のボンディングモードはサポートされません。

(Mode 0) Round-Robin
NIC は、パケットを順番に送信します。パケットは、ボンド内の利用可能な最初の NIC から始まり、ボンド内の利用可能な最後の NIC で終わるループで送信されます。後続のループは、最初に利用可能な NIC から始まります。
(Mode 5) Balance-TLB (Transmit Load-Balance)
発信するトラフィックは、負荷に応じて、ボンド内のすべての NIC に分散されます。受信トラフィックは、アクティブな NIC で受信されます。受信する NIC が故障した場合、別の NIC が割り当てられます。
(Mode 6) Balance-ALB (Adaptive Load-Balance とも呼ばれる)
(Mode 5) Balance-TLBは、IPv4 トラフィックの受信負荷分散と組み合わせます。ARP ネゴシエーションは、受信負荷のバランスをとるために使用されます。

9.6. ネットワーク接続性の分析と監視

9.6.1. Skydive の導入

Skydive を使用すると、外部ネットワークプロバイダーとして定義された Open Virtual Networks(OVN)を含む論理ネットワークを監視できます。Skydive は、ネットワークトポロジー、依存関係、フローのライブビューを提供し、レポートを生成し、設定監査を実行します。

Skydive が提示するデータを使用して、以下を行うことができます。

  • パケットロスの検出
  • ブリッジやインターフェースを含むクラスターのネットワークトポロジーをキャプチャーして、デプロイメントが正常に機能していることを確認します。
  • 予想される MTU 設定が正しく適用されたかどうかを確認します。
  • 仮想マシン間、または仮想マシンとホスト間のネットワークトラフィックのキャプチャー

Skydive の機能セットの詳細は、http://skydive.network を参照してください。

注記

Skydive はテクノロジープレビュー機能です。テクノロジープレビュー機能は、Red Hat の実稼働環境でのサービスレベルアグリーメント (SLA) ではサポートされていないため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、開発プロセスの中でお客様に機能性のテストとフィードバックをしていただくことを目的としています。

Red Hat のテクノロジープレビュー機能のサポートについての詳細は、https://access.redhat.com/support/offerings/techpreview/を参照してください。

9.6.2. Skydive のインストール

手順

  1. Manager マシンに skydive-ansible をインストールします。

    # yum --disablerepo="*" --enablerepo="rhel-7-server-rpms,rhel-7-server-extras-rpms,rhel-7-server-rh-common-rpms,rhel-7-server-openstack-14-rpms" install skydive-ansible
  2. /usr/share/ovirt-engine/playbooks/install-skydive.inventory.sample を現在のディレクトリーにコピーし、これを インベントリー に変更します。
  3. 以下のように inventory/01_hosts ファイルを変更します(完全なコンテンツについては、以下を参照してください)。

    1. skydive_os_auth_url を Manager の FQDN で更新します。これは、Manager と同じ FQDN を使用する OVN により使用されます。
    2. ovn_provider_username を OVN プロバイダーに使用されるユーザー名で更新します。デフォルトは /etc/ovirt-provider-ovn/ovirt-provider-ovn.conf で定義されます。
    3. ovn_provider_password を更新します。
    4. [agents:children] <host_group> で、Skydive エージェントをインストールするホスト、クラスター、またはデータセンターを定義します。

      以下を実行して有効なグループの一覧を表示できます。

       /usr/share/ovirt-engine-metrics/bin/ovirt-engine-hosts-ansible-inventory | python -m json.tool
      注記

      各ホストを明示的に一覧表示する必要はありません。クラスターのすべてのホストにエージェントをインストールするには、ovirt_cluster_Default を追加します。または、データセンターのすべてのホストにエージェントをインストールするには、ovirt_datacenter_Default を追加します。

      インベントリーファイルのサンプル

      [agents]
      [analyzers]
      [skydive:children]
       analyzers
       agents
      
      [skydive:vars]
      skydive_listen_ip=0.0.0.0
      skydive_deployment_mode=package
      skydive_extra_config={'agent.topology.probes': ['ovsdb', 'neutron'], 'agent.topology.neutron.ssl_insecure': true}
      
       skydive_fabric_default_interface=ovirtmgmt
      
       skydive_os_auth_url=https://MANAGERS_FQDN:35357/v2.0
       skydive_os_service_username=ovn_provider_username
       skydive_os_service_password=ovn_provider_password
       skydive_os_service_tenant_name=service
       skydive_os_service_domain_name=Default
       skydive_os_service_region_name=RegionOne
      
      [agents:vars]
      ansible_ssh_private_key_file=/etc/pki/ovirt-engine/keys/engine_id_rsa
      
      [agents:children]
      host_group
      
      [analyzers]
      localhost ansible_connection=local
  4. Playbook を実行します。

    # ansible-playbook -i inventory /usr/share/ovirt-engine/playbooks/install-skydive.yml /usr/share/skydive-ansible/playbook.yml.sample
  5. Skydive が http://MANAGERS_FQDN:8082 に移動し、仮想マシンを選択して Capture タブの Metadata セクションの以下のフィールドをチェックして、仮想マシンのポートを認識していることを確認します。

    • manager: Neutron
    • networkName: network_name
    • ipV4: IP_address (サブネットが使用される場合)

Skydive を使用してネットワークのアクティビティーをキャプチャーする方法の例を確認するには、「Skydive を使用したネットワーク接続のテスト」 を参照してください。

9.6.3. Skydive を使用したネットワーク接続のテスト

以下の例では、IPv4 アドレスを持つ NIC を持つ 2 つのホスト間の接続をテストします。NIC は VLAN 4 としてタグ付けされる論理ネットワークに接続されます。IP アドレスを論理ネットワークに割り当てる方法は、「ホストのネットワークインターフェイスの編集とホストへの論理ネットワークの割り当て」 を参照してください。

手順

  1. Skydive をインストールします。
  2. http://MANAGERS_FQDN:8082 から Skydive を開きます。
  3. ネットワークマップの rhv-host1network_4 を選択します。
  4. Capture タブで Create をクリックし、Start をクリックします。
  5. rhv-host0network_4 の以前の手順を繰り返します。
  6. Generate タブをクリックします。
  7. rhv-host0eth0Source として、rhv-host1eth0Destination -host1 に、それぞれ選択します。
  8. タイプ ドロップダウンリストから ICMPv4/Echo Request を選択します。
  9. Inject をクリックしてパケットを挿入します。
  10. Flows タブを開きます。ping の結果がテーブルに表示されます。ping に成功すると、ICMPv4 が含まれる行と、送信元および宛先 IP アドレスが表示されます。その行でカーソルを移動すると、network_4 はネットワークマップの黄色の円で強調表示されます。

Skydive の使用に関する詳細は、Skydive ドキュメント を参照してください。

インストールは :Testing! です。

第10章 ホスト

10.1. ホストのHQL の概要

ホスト (ハイパーバイザーとも呼ばれる) は、仮想マシンが動作する物理サーバーです。Kernel-based Virtual Machine (KVM) と呼ばれるローダブル Linux カーネルモジュールを使用することで、完全な仮想化が提供されます。

KVM は、Windows または Linux いずれかのオペレーティングシステムを実行する複数の仮想マシンを、同時にホストすることができます。仮想マシンはホストマシン上で個々の Linux プロセスやスレッドとして実行され、Red Hat Virtualization Manager によってリモートで管理されます。Red Hat Virtualization の環境には、それに接続された 1 つ以上のホストがあります。

Red Hat Virtualization は、ホストをインストールする 2 つの方法をサポートしています。Red Hat Virtualization Host (RHVH) のインストールメディアを使用するか、標準の Red Hat Enterprise Linux インストールにハイパーバイザーパッケージをインストールすることができます。

注記

Red Hat Virtualization Manager で個別のホストのホストタイプを特定するには、ホスト名を選択して詳細ビューを開き、SoftwareOS Description を確認してください。

ホストは、仮想化の最適化を提供する tuned プロファイルを使用します。tuned に関する詳細は、Red Hat Enterprise Linux 7 Performance Tuning Guide を参照してください。

Red Hat Virtualization Host は、セキュリティー機能が有効になっています。SELinux (Security Enhanced Linux) とファイアウォールは完全に設定されており、デフォルトでオンになっています。選択したホストの SELinux の状態は、詳細表示の General タブの SELinux mode で報告されます。Manager は、Red Hat Enterprise Linux ホストを環境に追加する際に、必要なポートを開くことができます。

ホストとは、Red Hat Enterprise Linux 7 AMD64/Intel 64 版が動作する Intel VT または AMD-V 拡張機能を持つ物理的な 64 ビットサーバーのことです。

Red Hat Virtualization プラットフォーム上の物理的なホストのこと。

  • システム内の 1 つのクラスターにのみ属すること。
  • AMD-V または Intel VT ハードウェア仮想化拡張をサポートする CPU を搭載していること。
  • クラスター作成時に選択された仮想 CPU タイプで提供されるすべての機能をサポートする CPU が必要です。
  • 最小 2 GB の メモリー。
  • システム権限を持つシステム管理者を割り当てることができる。

管理者は Red Hat Virtualization のウォッチリストから最新のセキュリティー勧告を受け取ることができます。Red Hat Virtualization ウォッチリストに登録すると、Red Hat Virtualization 製品の新しいセキュリティー勧告を電子メールで受け取ることができます。このフォームに必要事項を入力してください。

https://www.redhat.com/mailman/listinfo/rhsa-announce

10.2. Red Hat Virtualization Host

Red Hat Virtualization Host (RHVH) は、仮想マシンをホストするのに必要なパッケージのみを搭載した Red Hat Enterprise Linux の特別なビルドを使用してインストールされます。Red Hat Enterprise Linux ホストで使用されているものをベースにしたAnacondaインストールインターフェイスを使用しており、Red Hat Virtualization Manager またはyumを通じて更新することができます。追加のパッケージをインストールして、アップグレード後もそれを維持するには、yumコマンドを使うのが唯一の方法です。

RHVH には、ホストのリソースを監視したり、管理作業を行うためのコックピット Web インターフェイスがあります。SSH またはコンソールを使用した RHVH への直接アクセスはサポートされていません。そのため、Cockpit Web インターフェースは、ネットワークの設定やセルフホストエンジンのデプロイなど、Red Hat Virtualization Manager にホストを追加する前に実行するタスク用のグラフィカルユーザーインターフェースを提供します。また、ターミナルのタブを使用してターミナルコマンドを実行することもできます。

Web ブラウザーで https://Host FQDNor IP:9090、コックピットのウェブインターフェイスにアクセスします。Cockpit for RHVH には、ホストのヘルスステータス、SSH ホストキー、セルフホスト型エンジンのステータス、仮想マシン、および仮想マシンの統計情報を表示するカスタム仮想化ダッシュボードが含まれています。

RHVH では、アプリケーションのクラッシュに関する意味のあるデバッグ情報を収集するために、ABRT (Automatic Bug Reporting Tool) を使用しています。詳細は『Red Hat Enterprise Linux System Administrator’s Guide を参照してください。

注記

カスタムブートカーネル引数は、grubby ツールを使用して Red Hat Virtualization Host に追加することができます。grubby ツールは、grub.cfg ファイルに永続的な変更を加えます。ホストの Cockpit ウェブインターフェイスの Terminal サブタブに移動し、grubby コマンドを使用します。詳細は、『 Red Hat Enterprise Linux システム管理者のガイド』 を参照してください。

警告

Red Hat は、ローカルセキュリティーの脆弱性が悪用される可能性があるため、RHVH で信頼できないユーザーを作成しないことを強くお勧めします。

10.3. Red Hat Enterprise Linux ホスト

可能なハードウェアにインストールされた Red Hat Enterprise Linux 7 をホストとして使用することができます。Red Hat Virtualization は、Red Hat Enterprise Linux 7 Server AMD64/Intel 64 版の Intel VT または AMD-V 拡張を実行するホストをサポートします。Red Hat Enterprise Linux マシンをホストとして使用するには、Red Hat Enterprise Linux Server および Red Hat Virtualization のサブスクリプションもアタッチする必要があります。

ホストを追加するには、仮想化のチェック、パッケージのインストール、およびブリッジの作成の各ステップをプラットフォームで完了する必要があるため、多少時間がかかります。詳細ビューを使用して、ホストと管理システムが接続を確立する際のプロセスを監視します。

オプションで、ホストのリソースの監視および管理タスクの実施のために、Cockpit をインストールできます。Cockpit Web インターフェースは、Red Hat Virtualization Manager にホストを追加する前に実行するタスク用のグラフィカルユーザーインターフェースを提供します。たとえば、セルフホストエンジンの設定やセルフホストエンジンのデプロイなど、ターミナルコマンドを実行することもできます。

重要

サードパーティーのウォッチドッグは、VDSM が提供するウォッチドッグデーモンに干渉する可能性があるため、Red Hat Enterprise Linux ホストにはインストールしないでください。

10.4. サテライトホストプロバイダーホスト

Satellite ホストプロバイダーによって提供されたホストは、Red Hat Virtualization Manager によって仮想化ホストとして使用することもできます。Satellite ホストプロバイダが外部プロバイダとして Manager に追加されると、そのプロバイダが提供するホストは Red Hat Virtualization Hosts (RHVH) や Red Hat Enterprise Linux ホストと同じ方法で Red Hat Virtualization に追加して使用することができます。

10.5. ホストのタスク

10.5.1. Red Hat Virtualization Manager への通常のホストの追加

Red Hat Virtualization 環境にホストを追加するには、仮想化のチェック、パッケージのインストール、およびブリッジの作成の各ステップをプラットフォームで完了する必要があるため、多少時間がかかります。

重要

静的 IPv6 アドレスを使用する管理ブリッジを作成する場合は、ホストを追加する前に、インターフェイス設定 (ifcfg) ファイルでネットワークマネージャーコントロールを無効にしてください。詳細は、https://access.redhat.com/solutions/3981311 を参照してください。

手順

  1. 管理ポータルから コンピュートホスト をクリックします。
  2. 新規作成 をクリックします。
  3. ドロップダウンリストを使用して、新規ホスト用の データセンター および ホストクラスター を選択します。
  4. 新規ホストの 名前アドレス を入力します。SSH ポート フィールドには、標準の SSH ポートであるポート 22 が自動入力されます。
  5. Manager がホストにアクセスするために使用する認証メソッドを選択します。

    • パスワード認証を使用するには、root ユーザーのパスワードを入力します。
    • または、SSH 公開鍵 フィールドに表示される鍵をホスト上の /root/.ssh/authorized_keys にコピーして、公開鍵認証を使用します。
  6. オプションとして、詳細パラメーター ボタンをクリックして、以下に示すホストの詳細設定を変更します。

    • ファイアウォールの自動設定を無効にする。
    • ホストの SSH フィンガープリントを追加し、セキュリティーを強化する。手動での追加または自動取得が可能です。
  7. ホストにサポート対象の電源管理カードが搭載されている場合には、オプションとして電源管理を設定することができます。電源管理の設定に関する詳細は、Administration GuideHost Power Management Settings Explained を参照してください。
  8. OK をクリックします。

新規ホストが Installing のステータスでホスト一覧に表示され、通知トレイ ( EventsIcon ) の イベント セクションでインストールの進捗状況を確認できます。しばらくすると、ホストのステータスが Up に変わります。

10.5.2. サテライトホストプロバイダホストの追加

Satellite ホストプロバイダのホストを追加するプロセスは、マネージャーでホストを識別する方法を除いて、Red Hat Enterprise Linux ホストを追加するプロセスとほぼ同じです。以下の手順では、サテライトホストプロバイダーが提供するホストを追加する方法について説明します。

サテライトホストプロバイダホストの追加

  1. ComputeHosts をクリックします。
  2. New をクリックします。
  3. ドロップダウンメニューを使って、新しいホストのホストクラスターを選択します。
  4. Foreman/Satellite チェックボックスを選択すると、Satellite ホストプロバイダのホストを追加するためのオプションが表示され、ホストを追加するプロバイダを選択することができます。
  5. Discovered Hosts または Provisioned Hosts のいずれかを選択します。

    • Discovered Hosts (デフォルトオプション) を選択します。ドロップダウンリストから、ホスト、ホストグループ、コンピュートリソースを選択します。
    • Provisioned Hosts (プロビジョニングされたホスト)。Providers Hosts ドロップダウンリストからホストを選択します。

      外部プロバイダーから取得できるホストに関する詳細は自動的に設定され、必要に応じて編集できます。

  6. 新しいホストの 名前SSH Port (Provisioned Hosts のみ)を入力します。
  7. ホストで使用する認証方法を選択します。

    • パスワード認証を使用するには、root ユーザーのパスワードを入力します。
    • SSH 公開鍵 フィールドに表示される鍵をホスト上の /root/.ssh/authorized_keys にコピーして、公開鍵認証を使用します (プロビジョニングされたホストのみ)。
  8. これで、Red Hat Enterprise Linux ホストを追加するための必須手順が完了しました。Advanced Parameters ドロップダウンボタンをクリックすると、ホストの詳細設定が表示されます。

    1. オプションでファイアウォールの自動設定を無効にします
    2. 必要の応じてホストの SSH フィンガープリントを追加し、セキュリティーを強化する。手動での追加または自動取得が可能です。
  9. Power ManagementSPMConsoleNetwork Provider は、現在該当するタブを使用して設定することができますが、これらは Red Hat Enterprise Linux ホストを追加する上で基本的ではないため、この手順では説明しません。
  10. OK をクリックしてホストを追加し、ウィンドウを閉じます。

新規ホストが Installing のステータスでホスト一覧に表示され、詳細ビューでインストールの進捗を表示できます。インストールが完了すると、ステータスが Reboot に更新されます。ステータスが Up に変わるには、ホストが起動している必要があります。

10.5.3. ホストの Satellite エラータ管理の設定

Red Hat Virtualization は、Red Hat Satellite からエラータを表示するように設定できます。これにより、ホスト管理者は、ホスト設定の管理に使用するのと同じダッシュボードで利用可能なエラータに関する更新を受け取ることができます。Red Hat Satellite の詳細は、Red Hat Satellite ドキュメント を参照して ください

Red Hat Virtualization 4.3 では、Red Hat Satellite 6.5 でのエラータ管理がサポートされます。

重要

ホストは FQDN で Satellite サーバーで識別されます。IP アドレスを使用して追加したホストは、エラータを報告できません。これにより、Red Hat Virtualization で外部コンテンツホスト ID を維持する必要がなくなります。

ホストの管理に使用する Satellite アカウントには、管理者パーミッションとデフォルトの組織セットが必要です。

ホストの Satellite エラータ管理の設定

  1. 外部プロバイダーとして Satellite Server を追加します。詳細は、「ホストのプロビジョニング用の Red Hat Satellite インスタンスの追加」 を参照してください。
  2. 必要なホストを Satellite サーバーに関連付けます。

    注記

    ホストは Satellite サーバーに登録し、katello-agent パッケージがインストールされている必要があります。

    ホストの登録の設定方法、およびホストを登録し、katello-agent パッケージをインストールする方法は、Red Hat Satellite ドキュメント『Managing Hosts』の「Registering Hosts」を参照してください。

    1. コンピュートホスト をクリックし、ホストを選択します。
    2. 編集 をクリックします。
    3. Use Foreman/Satelliteのチェックボックスを選択します。
    4. ドロップダウンリストから、必要な Satellite サーバーを選択します。
    5. OK をクリックします。

ホストが、ホスト設定の管理に使用されるのと同じダッシュボードで利用可能なエラータと重要性を示すように設定されました。

10.5.4. 新規ホスト、ホスト編集ウィンドウの設定とコントロールの説明

10.5.5. ホストの一般設定の説明

これらの設定は、ホストの詳細を編集するとき、または新しい Red Hat Enterprise Linux ホストと Satellite ホストプロバイダーホストを追加するときに適用されます。

General 設定の表には、New Host または Edit Host ウィンドウの General タブで必要な情報が含まれています。

表10.1 一般設定

フィールド名説明

Host Cluster

ホストが属するクラスターとデータセンター。

Use Foreman/Satellite

このチェックボックスを選択またはクリアすると、サテライトホストプロバイダーが提供するホストを追加するためのオプションが表示または非表示になります。以下のオプションを利用できます。

検出されたホスト

  • Discovered Hosts (発見されたホスト): エンジンによって発見されたサテライトホストの名前が入力されたドロップダウンリストです。
  • Host Groups: 利用可能なホストグループのドロップダウンリストです。
  • Compute Resources: コンピュートリソースを提供するハイパーバイザのドロップダウンリストです。

プロビジョニングされたホスト

  • Providers Hosts: 選択された外部プロバイダーが提供するホストの名前が入力されるドロップダウンリストです。このリストのエントリーは、プロバイダ検索フィルター に入力された検索クエリに応じてフィルターリングされます。
  • Provider search filter: 選択された外部プロバイダーが提供するホストを検索するためのテキストフィールドです。このオプションはプロバイダー固有です。特定のプロバイダーの検索クエリーの作成の詳細については、プロバイダーのドキュメントを参照してください。利用可能なすべてのホストを表示するには、このフィールドを空白にします。

Name

ホストの名前。このテキストフィールドには 40 文字の制限があり、大文字、小文字、数字、ハイフン、およびアンダースコアの組み合わせが含まれる一意の名前である必要があります。

Comment

ホストに関するプレーンテキストで人間が読めるコメントを追加するためのフィールドです。

Hostname

ホストの IP アドレスまたは解決可能なホスト名。解決可能なホスト名を使用する場合には、ホストの管理ネットワークが使用する IP アドレス(IPv4 および IPv6)に一致するようにホスト名を解決するように、全アドレス(IPv4 および IPv6)について確認する必要があります。

パスワード

ホストのルートユーザーのパスワードです。これは、ホストの追加時にのみ付与でき、後で編集することはできません。

SSH Public Key

テキストボックス内の内容をホスト上の /root/.ssh/authorized_hosts ファイルにコピーすることで、ホストとの認証にパスワードの代わりに Manager の SSH キーを使用することができます。

ホストのファイアウォールを自動的に設定

新しいホストを追加する際、マネージャーはホストのファイアウォールで必要なポートを開くことができます。これはデフォルトで有効になっています。これは Advanced Parameter です。

SSH Fingerprint

ホストの SSH フィンガープリントを取得し、ホストが返すと予想されるフィンガープリントと比較して、両者が一致することを確認することができます。これは Advanced Parameter です。

10.5.6. ホストパワーマネージメント設定の説明

Power Management 設定の表には、新規ホストまたはホストの編集ウィンドウのPower Management タブで必要な情報が含まれています。ホストにサポート対象の電源管理カードが搭載されている場合には、電源管理を設定することができます。

表10.2 Power Management 設定

フィールド名説明

電源管理の有効化

ホストの電源管理を有効にする。このチェックボックスを選択すると、Power Management タブの残りのフィールドが有効になります。

Kdump 統合

カーネルのクラッシュダンプの実行中にホストがフェンシングするのを防ぎ、クラッシュダンプが中断されないようにします。Red Hat Enterprise Linux 7.1 以降では、デフォルトで kdump が利用できます。kdump がホスト上で利用可能であっても、その設定が有効でない (kdump サービスが開始できない) 場合、Kdump の統合を有効にすると、ホストの (再) インストールが失敗します。この場合は、「fence_kdump の高度な設定」 を参照してください。

電源管理のポリシー制御を無効にする

電源管理は、ホストのクラスタースケジューリングポリシーによって制御されます。パワーマネージメントが有効で、定義された低使用率の値に達した場合、マネージャーはホストマシンをパワーダウンさせ、ロードバランシングが必要な場合や、クラスター内に十分な空きホストがない場合には、再びホストマシンを再起動させます。ポリシーコントロールを無効にする場合は、このチェックボックスを選択します。

順番待ちのエージェント

ホストのフェンスエージェントを一覧表示します。フェンスエージェントには、シーケンシャル、コンカレント、またはその両方の組み合わせがあります。

  • フェンスエージェントが順次使用される場合、ホストの停止または起動にはまずプライマリーエージェントが使用され、それが失敗した場合にはセカンダリエージェントが使用されます。
  • フェンスエージェントを同時に使用する場合、両方のフェンスエージェントが Stop コマンドに反応しなければホストは停止しませんが、一方のエージェントが Start コマンドに反応すればホストは立ち上がります。

フェンスエージェントはデフォルトではシーケンシャルです。上下のボタンでフェンス剤の使用順序を変更できます。

2 つのフェンスエージェントを同時進行させるには、一方のフェンスエージェントをもう一方のフェンスエージェントの隣にある Concurrent with ドロップダウンリストから選択します。追加のフェンスエージェントの横にある Concurrent with ドロップダウンリストからグループを選択することで、同時進行のフェンスエージェントのグループに追加することができます。

フェンスエージェントの追加

+ ボタンをクリックして、新しい接続を追加します。フェンスエージェントの編集 ウィンドウが開きます。このウィンドウのフィールドの詳細は、以下の表を参照してください。

電源管理プロキシープリファレンス

デフォルトでは、Manager がホストと同じクラスター 内のフェンシングプロキシーを検索し、フェンシングプロキシーが見つからない場合は、同じ DC (データセンター) 内を検索するよう指定します。上下のボタンで、これらのリソースの使用順序を変更することができます。このフィールドは、Advanced Parameters で利用できます。

次の表は、Edit fence agent ウィンドウで必要な情報です。

表10.3 フェンスエージェントの編集 の設定

フィールド名説明

Address

ホストの電源管理デバイスにアクセスするためのアドレス。解決可能なホスト名または IP アドレスのいずれか。

User Name

電源管理デバイスにアクセスするユーザーアカウント。デバイスにユーザーを設定するか、デフォルトのユーザーを使用します。

パスワード

電源管理デバイスにアクセスするユーザーのパスワード。

Type

ホストの電源管理デバイスのタイプ。以下のいずれかを選択します。

  • apc:APC MasterSwitch ネットワーク電源スイッチ。APC 5.x 電源スイッチデバイスとは使用しないでください。
  • apc_snmp - APC 5.x 電源スイッチデバイスとは使用しないでください。
  • bladecenter: IBM Bladecenter リモートスーパバイザアダプター。
  • cisco_ucs: Cisco United Computing System
  • drac5: Dell コンピューター用の Dell Remote Access Controller です。
  • drac7: Dell コンピューター用の Dell Remote Access Controller です。
  • eps: ePower Switch 8M+ ネットワークパワースイッチ。
  • hpblade - HP BladeSystem.
  • ILOILO2ILO3ILO4: HP Integrated Lights-Out。
  • ipmilan: Intelligent Platform Management Interface と Sun Integrated Lights Out Management デバイス。
  • rsa: IBM リモートスーパーバイザーアダプター。
  • rsb: 富士通シーメンスの RSB 管理インターフェイスです。
  • wti: WTI ネットワークパワースイッチ。

電源管理デバイスの詳細は、『 Technical Reference 』の「 Power Management 」を参照してください。

ポート

電源管理デバイスがホストとの通信に使用するポート番号。

Slot

電源管理デバイスのブレードを識別するための番号。

Service Profile

電源管理デバイスのブレードを識別するために使用されるサービスプロファイル名です。デバイスタイプが cisco_ucs の場合、Slot の代わりにこのフィールドが表示されます。

オプション

電源管理デバイス固有のオプション。これらを key=value として入力します。利用可能なオプションは、お使いのホストの電源管理デバイスのドキュメントを参照してください。

Red Hat Enterprise Linux 7 ホストで、電源管理デバイスとして cisco_ucs を使用している場合は、Options フィールドに ssl_insecure=1 を追加する必要があります。

Secure

電源管理デバイスがホストに安全に接続できるようにするには、このチェックボックスを選択します。これは、電源管理エージェントに応じて、ssh、ssl、または他の認証プロトコルを介して行うことができます。

10.5.7. SPM のプライオリティー設定の説明

SPM 設定の表には、New Host または Edit Host ウィンドウの SPM タブに必要な情報の詳細が記載されています。

表10.4 SPM の設定

フィールド名説明

SPM の優先度

ホストにストレージプールマネージャー (SPM) の役割が与えられる可能性を定義します。オプションは、LowNormalHighの 3 つです。優先度が低いとは、ホストに SPM の役割が割り当てられる可能性が低いことを意味し、優先度が高いとは、その可能性が高いことを意味しています。デフォルト設定は Normal です。

10.5.8. ホストクラスター設定の説明

Console 設定の表には、New Host または Edit Host ウィンドウの Console タブに必要な情報の詳細が記載されています。

表10.5 コンソール の設定

フィールド名説明

表示アドレスの上書き

ホストの表示アドレスを上書きする場合は、このチェックボックスを選択します。この機能は、ホストが内部 IP で定義されており、NAT ファイアウォールの内側にある場合に有効です。ユーザーが内部ネットワークの外から仮想マシンに接続した場合、仮想マシンが動作しているホストのプライベートアドレスを返すのではなく、パブリック IP または FQDN(外部ネットワークではパブリック IP に解決される)を返します。

表示アドレス

ここで指定した表示アドレスは、このホスト上で動作するすべての仮想マシンに使用されます。アドレスは、完全修飾ドメイン名または IP の形式でなければなりません。

10.5.9. ネットワークプロバイダー設定の説明

ネットワークプロバイダー の設定の表には、New Host または Edit Host ウィンドウのNetwork Provider タブで必要な情報の詳細が記載されています。

表10.6 Network Provider 設定

フィールド名説明

外部ネットワークプロバイダー

外部ネットワークプロバイダーを追加し、ホストのネットワークを外部ネットワークプロバイダーによってプロビジョニングする場合は、リストから選択します。

10.5.10. カーネル設定の説明

Kernel 設定の表には、New Host または Edit Host ウィンドウの Kernel タブに必要な情報の詳細が記載されています。一般的なカーネルブートパラメーターのオプションはチェックボックスで表示されるので、簡単に選択することができます。

より複雑な変更を行う場合は、Kernel command line の横にあるフリーテキスト入力フィールドを使用して、必要な追加パラメーターを追加します。カーネルのコマンドラインパラメーターを変更した場合は、ホストを再インストールする必要があります。

重要

ホストが Manager に接続されている場合、変更する前にホストをメンテナンスモードにする必要があります。変更後に、ホストを再インストールして 変更を適用します。

表10.7 カーネル 設定

フィールド名説明

Hostdev パススルーおよび SR-IOV

デバイスが仮想マシン自体に直接割り当てられるデバイスであるかのように、カーネルの IOMMU フラグが仮想マシンによる使用を可能にします。また、ホストのハードウェアとファームウェアも IOMMU に対応している必要があります。ハードウェア上で仮想化拡張機能と IOMMU 拡張機能が有効になっている必要があります。「Configuring a Host for PCI Passthrough」を参照してください。IBM POWER8 では、デフォルトで IOMMU が有効になっています。

Nested Virtualization

vmx フラグまたは svm フラグを有効にして、仮想マシン内で仮想マシンを実行できるようにします。このオプションは評価目的のみで、実稼働での使用はサポートされません。vdsm-hook-nestedvt フックはホストにインストールされている。

安全でない割り込み

IOMMU が有効になっているが、ハードウェアが割り込みの再マッピングをサポートしていないためにパススルーが失敗する場合は、このオプションを有効にすることを検討できます。このオプションは、ホスト上の仮想マシンが信頼できる場合にのみ有効にしてください。このオプションを有効にすると、仮想マシンからの MSI 攻撃を受ける可能性があります。このオプションは、評価目的で認定されていないハードウェアを使用する場合のみ、回避策として使用することを目的としています。

PCI 再割り当て

メモリーの問題で SR-IOV NIC が仮想機能を割り当てられない場合は、このオプションを有効にすることを検討してください。また、ホストのハードウェアとファームウェアが PCI の再配置をサポートしている必要があります。このオプションは、評価目的で認定されていないハードウェアを使用する場合のみ、回避策として使用することを目的としています。

カーネルコマンドライン

このフィールドでは、デフォルトのパラメーターにさらにカーネルパラメーターを追加することができます。

注記

カーネルブートパラメーターがグレーアウトしている場合は、resetボタンをクリックすると、オプションが利用可能になります。

10.5.11. ホストエンジン設定の説明

Hosted Engine settings 表は、New Host または Edit Host ウィンドウの Hosted Engine タブで必要な情報の詳細を示します。

表10.8 Hosted Engine 設定

フィールド名説明

ホストされたエンジンの展開方法を選択

利用可能な 3 つのオプションは以下のとおりです。

  • None: 必要なアクションはありません。
  • Deploy: ホストをセルフホスト型のエンジンノードとしてデプロイする場合は、このオプションを選択します。
  • Undeploy: セルフホスト型エンジンノードの場合、このオプションを選択すると、ホストがアンデプロイされ、セルフホスト型エンジン関連の設定が削除されます。

10.5.12. ホストパワーマネージメントの設定

管理ポータルからホストのライフサイクル操作 (停止、開始、再起動) を行うために、ホストパワーマネージメントデバイスの設定を行います。

ホストの高可用性や仮想マシンの高可用性を利用するためには、ホストのパワーマネジメントを設定する必要があります。電源管理デバイスの詳細は、『 Technical Reference 』の「 Power Management 」を参照してください。

電源管理状態の設定

  1. ComputeHosts をクリックし、ホストを選択します。
  2. 管理メンテナンス をクリックし、OK をクリックして確定します。
  3. ホストがメンテナンスモードになったら、Remove をクリックします。
  4. Power Management タブをクリックします。
  5. パワーマネジメントを有効にするチェックボックスを選択し、フィールドを有効にします。
  6. Kdump integration チェックボックスを選択すると、カーネルクラッシュダンプの実行中にホストがフェンシングするのを防ぐことができます。

    重要

    既存のホストでKdump の統合 を有効または無効にした場合、kdump を設定するには ホストを再インストール する必要があります。

  7. オプションとして、ホストの電源管理をホストのクラスタースケジューリングポリシーで制御したくない場合は、Disable policy control of power management チェックボックスを選択します。
  8. プラス + ボタンをクリックして、新しいパワーマネージメントデバイスを追加します。フェンスエージェントの編集ウィンドウが開きます。
  9. パワーマネージメントデバイスのユーザー名パスワードを適切なフィールドに入力します。
  10. ドロップダウンリストからパワーマネージメントデバイスの種類を選択します。
  11. アドレスフィールドに IP アドレスを入力します。
  12. 電源管理装置がホストとの通信に使用する SSH ポート 番号を入力します。
  13. パワーマネージメントデバイスのブレードを識別するための Slot 番号を入力してください。
  14. パワーマネージメントデバイスのオプションを入力します。key=value ペアのコンマ区切りリストを使用します。

    • IPv4 と IPv6 の両方の IP アドレスを使用できる場合 (デフォルト) は、Options フィールドを空白にします。
    • IPv4 の IP アドレスのみを使用する場合は、inet4_only=1 を入力してください。
    • IPv6 の IP アドレスのみを使用する場合は、inet6_only=1 を入力してください。
  15. パワーマネージメントデバイスがホストに安全に接続できるようにするには、Secure チェックボックスを選択します。
  16. テスト をクリックして、設定が正しいことを確認します。検証に成功すると Test Succeeded、Host Status is: on と表示されます。
  17. OK をクリックして、フェンスエージェントの編集 ウィンドウを閉じます。
  18. 電源管理 タブで、オプションで 詳細パラメーター を展開し、上下のボタンを使用して、マネージャーがホストの クラスターDC (データセンター) でフェンシングプロキシーを検索する順序を指定します。
  19. OK をクリックします。
注記
  • IPv6 については、Red Hat Virtualization でサポートされるのは静的なアドレスだけです。
  • IPv4 と IPv6のデュアルスタックアドレッシングはサポートされていません。

ManagementPower Management ドロップダウン メニューは、管理者ポータルで有効化されています。

10.5.13. ホストストレージプールマネージャーの設定

ストレージプールマネージャー (SPM) は、データセンター内のホストの 1 つに与えられた管理者の役割で、ストレージドメインへのアクセス制御を維持します。SPM は常に利用可能でなければならず、SPM ホストが利用できなくなった場合、SPM ロールは別のホストに割り当てられます。SPM ロールはホストの利用可能なリソースの一部を使用するため、リソースに余裕のあるホストを優先的に使用することが重要です。

ホストの SPM (Storage Pool Manager) 優先度の設定により、ホストが SPM ロールが割り当てられる可能性があります。SPM 優先度が高いホストには、SPM の優先度が低いホストの前に SPM ロールが割り当てられます。

SPM 設定の構成

  1. ComputeHosts をクリックします。
  2. 編集 をクリックします。
  3. SPM タブをクリックします。
  4. ラジオボタンで、ホストに適した SPM の優先順位を選択します。
  5. OK をクリックします。

10.5.14. PCI パススルーを有効にするためのホストの設定

注記

これは、Red Hat Virtualization で SR-IOV を準備および設定する方法を示す一連のトピックの 1 つです。詳細は、Setting Up and Configuring SR-IOV を参照してください。

PCI パススルーを有効化すると、デバイスが仮想マシンに直接アタッチされているかのように、ホストのデバイスを仮想マシンで使用することができます。PCI パススルー機能を有効化するには、仮想化拡張機能および IOMMU 機能を有効化する必要があります。以下の手順では、ホストを再起動する必要があります。すでにホストが Manager にアタッチされている場合には、最初にホストがメンテナンスモードに設定されていることを確認してください。

前提条件

  • ホストハードウェアが PCI デバイスパススルーおよび割り当ての要件を満たしていることを確認してください。詳細は、PCI Device Requirements を参照してください。

PCI パススルーを有効にするためのホストの設定

  1. BIOS の仮想化拡張機能および IOMMU 拡張機能を有効化してください。詳細は、『Red Hat Enterprise Linux 仮想化の導入および管理ガイド』「BIOS での INTEL VT-X と AMD-V の仮想化ハードウェア拡張の有効化」 を参照してください。
  2. ホストを Manager に追加する際に ホストデバイスパススルー & SR-IOV のチェックボックスを選択するか、手動で grub 設定ファイルを編集して、カーネルの IOMMU フラグを有効化します。

  3. GPU パススルーを有効にするには、ホストとゲストシステムの両方で追加の設定手順を実行する必要があります。詳細は、Setting up an NVIDIA GPU for a vir