Red Hat Training
A Red Hat training course is available for Red Hat Virtualization
テクニカルリファレンス
Red Hat Virtualization 環境のテクニカルアーキテクチャー
概要
第1章 はじめに
1.1. Red Hat Virtualization Manager
図1.1 Red Hat Virtualization Manager のアーキテクチャー

1.2. Red Hat Virtualization Host
図1.2 ホストアーキテクチャー

- カーネルベースの仮想マシン(KVM)
- カーネルベースの仮想マシン (KVM) は、Intel VT または AMD-V ハードウェア拡張機能を使用して完全仮想化を提供するロード可能なカーネルモジュールです。KVM 自体はカーネルスペースで実行されますが、KVM で実行されるゲストはユーザースペースで個別の QEMU プロセスとして実行されます。KVM を使用すると、ホストはその物理ハードウェアを仮想マシンで使用できるようになります。
- QEMU
- QEMU は、完全なシステムエミュレーションを提供するために使用されるマルチプラットフォームエミュレーターです。QEMU は、1 つ以上のプロセッサーと周辺機器を含む PC などの完全なシステムをエミュレートします。QEMU を使用して、さまざまなオペレーティングシステムを起動したり、システムコードをデバッグしたりできます。QEMU は、KVM および適切な仮想化拡張機能を備えたプロセッサーと連携して動作し、完全なハードウェア支援による仮想化を提供します。
- Red Hat Virtualization Manager ホストエージェント (VDSM)
- Red Hat Virtualization では、
VDSM
は仮想マシンおよびストレージでアクションを開始します。また、ホスト間の通信も容易になります。VDSM は、メモリー、ストレージ、ネットワークなどのホストリソースを監視します。さらに、VDSM は、仮想マシンの作成、統計の蓄積、ログの収集などのタスクを管理します。VDSM インスタンスは各ホストで実行し、設定可能なポート54321
を使用して Red Hat Virtualization Manager から管理コマンドを受け取ります。VDSM-REG
VDSM
はVDSM-REG
を使用して各ホストを Red Hat Virtualization Manager に登録します。VDSM-REG
は、ポート80
またはポート443
を使用して、ホストとそのホストに関する情報を提供します。 libvirt
- Libvirt は、仮想マシンとそれに関連する仮想デバイスの管理を容易にします。Red Hat Virtualization Manager が仮想マシンのライフサイクルコマンド (開始、停止、再起動) を開始すると、VDSM は関連するホストマシンで libvirt を呼び出してそれらを実行します。
- Storage Pool Manager (SPM)
- Storage Pool Manager (SPM) は、データセンター内の 1 つのホストに割り当てられたロールです。SPM ホストは、データセンターのすべてのストレージドメイン構造メタデータを変更する唯一の権限を持っています。これには、仮想ディスクイメージ、スナップショット、およびテンプレートの作成、削除、および操作が含まれます。また、SAN ( Storage Area Network)上のスパースブロックデバイス用のストレージの割り当ても含まれます。SPM のロールは、データセンター内の任意のホストに移行できます。その結果、データセンター内のすべてのホストは、データセンターで定義されているすべてのストレージドメインにアクセスできる必要があります。Red Hat Virtualization Manager は、SPM が常に利用できることを確認します。ストレージ接続エラーが発生すると、Manager は SPM のロールを別のホストに再割り当てします。
- ゲストのオペレーティングシステム
- ゲストオペレーティングシステムは、Red Hat Virtualization 環境の仮想マシンに変更せずにインストールできます。ゲストオペレーティングシステム、およびゲスト上のアプリケーションは、仮想化環境を認識せず、正常に実行されます。Red Hat は、仮想化デバイスへのより高速で効率的なアクセスを可能にする拡張デバイスドライバーを提供します。Red Hat Virtualization Guest Agent をゲストにインストールすることもできます。これにより、管理コンソールに拡張ゲスト情報が提供されます。
1.3. Manager にアクセスするためのインターフェイス
- ユーザーポータル
- デスクトップ仮想化は、個人コンピューターのデスクトップ環境に類似したデスクトップ環境をユーザーに提供します。ユーザーポータルは、Virtual Desktop Infrastructure をユーザーに配信します。ユーザーは、Web ブラウザーからユーザーポータルにアクセスして、割り当てられた仮想デスクトップを表示し、アクセスします。ユーザーポータルでユーザーが使用できるアクションは、システム管理者が設定します。標準ユーザーは、システム管理者によって割り当てられたデスクトップを起動、停止、および使用できます。パワーユーザーは、いくつかの管理アクションを実行できます。どちらのタイプのユーザーは同じ URL からユーザーポータルにアクセスし、ログイン時にパーミッションレベルに適したオプションと共に表示されます。
標準のユーザーアクセス
標準ユーザーは、仮想デスクトップの電源をオンまたはオフにし、ユーザーポータルを介して接続できます。仮想マシンへの直接接続は、Simple Protocol for Independent Computing Environments (SPICE) または Virtual Network Computing (VNC) クライアントにより容易になります。どちらのプロトコルも、ローカルにインストールされたデスクトップ環境と同様の環境をユーザーに提供します。管理者は、仮想マシンの作成時に仮想マシンへの接続に使用するプロトコルを指定します。
ユーザーポータルおよびサポートされるブラウザーおよびクライアントの詳細は、ユーザー ポータルの概要 を参照し てください。Power User Access
Red Hat Virtualization User Portal は、仮想リソースの作成、使用、監視を行うグラフィカルユーザーインターフェイスをパワーユーザーに提供します。システム管理者は、ユーザーにパワーユーザーアクセスを付与することで、一部の管理タスクを委譲できます。標準ユーザーが実行できるタスクに加えて、パワーユーザーは次のことができます。
- 仮想マシンの作成、編集、および削除
- 仮想ディスクおよびネットワークインターフェイスを管理します。
- 仮想マシンにユーザーパーミッションを割り当てます。
- テンプレートを作成して使用し、仮想マシンを迅速にデプロイします。
- リソースの使用状況と重大度の高いイベントを監視します。
- スナップショットを作成して使用し、仮想マシンを以前の状態に復元します。
パワーユーザーは、委譲する仮想マシン管理タスクを実行できます。データセンターおよびクラスターレベルの管理タスクは、環境管理者用に保存されます。
- Administration Portal
- 管理ポータルは、Red Hat Virtualization Manager サーバーのグラフィカル管理インターフェイスです。管理者は、Web ブラウザーから を使用して、仮想化環境のすべての要素を監視、作成、および維持できます。管理ポータルから実行できるタスクには、以下が含まれます。
- 仮想インフラストラクチャー(ネットワーク、ストレージドメイン)の作成および管理。
- ホストのインストールおよび管理。
- 論理エンティティー(データセンター、クラスター)の作成および管理。
- 仮想マシンの作成および管理。
- Red Hat Virtualization のユーザーおよびパーミッション管理。
管理ポータルは JavaScript を使用して表示されます。管理ポータルの機能については、Red Hat Virtualization Administration Guide で詳しく説明しています。管理ポータルがサポートするブラウザーおよびプラットフォームに関する情報は、Red Hat Virtualization Installation Guide を参照してください。 - Representational State Transfer (REST) API
- Red Hat Virtualization REST API は、Red Hat Virtualization 環境の交換および制御のためのソフトウェアインターフェイスを提供します。REST API は、HTTP アクションをサポートする任意のプログラミング言語で使用することができます。REST API 開発者および管理者は以下を行うことができます。
- エンタープライズ IT システムとの統合
- サードパーティーの仮想化ソフトウェアとの統合
- 自動メンテナーンスおよびエラーチェックタスクを実行します。
- スクリプトを使用して、Red Hat Virtualization 環境で反復タスクを自動化します。
API 仕様と使用例については、Red Hat Virtualization REST API Guide を参照してください。
1.4. Manager をサポートするコンポーネント
- Red Hat JBoss Enterprise Application Platform
- Red Hat JBoss Enterprise Application Platform は Java アプリケーションサーバーです。クロスプラットフォームの Java アプリケーションの効率的な開発と配信をサポートするフレームワークを提供します。Red Hat Virtualization Manager は、Red Hat JBoss Enterprise Application Platform を使用して提供されます。重要Red Hat Virtualization Manager にバンドルされている Red Hat JBoss Enterprise Application Platform のバージョンは、他のアプリケーションを提供するために使用され ません。これは、Red Hat Virtualization Manager にサービスを提供するという特定の目的のためにカスタマイズされています。Manager に含まれている Red Hat JBoss Enterprise Application Platform を追加の目的で使用すると、Red Hat Virtualization 環境にサービスを提供する機能に悪影響を及ぼします。
- レポートおよび履歴データの収集
- Red Hat Virtualization Manager には、ホスト、仮想マシン、およびストレージに関するモニターリングデータを収集する Data Warehouse が含まれています。多数の事前定義されたレポートが利用可能です。お客様は、SQL をサポートするクエリーツールを使用して、環境を分析し、レポートを作成できます。Red Hat Virtualization Manager のインストールプロセスにより、2 つのデータベースが作成されます。これらのデータベースは、インストール時に選択された Postgres インスタンスで作成されます。
- engine データベースは、Red Hat Virtualization Manager が使用するメインのデータストアです。仮想化環境に関する情報 (状態、設定、およびパフォーマンスなど) が、このデータベースに保管されます。
- ovirt_engine_history データベースには、engine 運用データベースから時間の経過とともに照合される設定情報および統計メトリクスが含まれます。engine データベースの設定データは 1 分ごとに検査され、変更は ovirt_engine_history データベースに複製されます。データベースへの変更を追跡することで、データベース内のオブジェクトに関する情報が提供されます。これにより、Red Hat Virtualization 環境のパフォーマンスを分析して向上させ、問題を解決することができます。ovirt_engine_history データベースに基づいてレポートを生成する方法は、『Red Hat Virtualization Data Warehouse Guide』 の History Database を参照してください。
重要ovirt_engine_history データベースのデータレプリケーションは、RHEVM History Service (ovirt-engine-dwhd)によって実行されます。 - ディレクトリーサービス
- ディレクトリーサービスは、ユーザーおよび組織の情報をネットワークベースのストレージで一元的に保存します。保存される情報の種類には、アプリケーション設定、ユーザープロファイル、グループデータ、ポリシー、およびアクセス制御が含まれます。Red Hat Virtualization Manager は、Active Directory、Identity Management (IdM)、OpenLDAP、および Red Hat Directory Server 9 をサポートします。管理目的のみのローカル内部ドメインもあります。この内部ドメインには、admin ユーザーという 1 人のユーザーしかいません。
1.5. ストレージ
- データストレージドメイン
- データドメインは、環境で実行しているすべての仮想マシンの仮想ハードディスクイメージを保持します。仮想マシンのテンプレートやスナップショットもデータドメインに保存されます。データセンター間でデータドメインを共有することはできません。
- ストレージドメインのエクスポート
- エクスポートドメインは、データセンターと Red Hat Virtualization 環境間でイメージをコピーして移動するために使用される一時ストレージリポジトリーです。エクスポートドメインを使用して、仮想マシンとテンプレートをバックアップできます。エクスポートドメインはデータセンター間で移動できますが、同時に 1 つのデータセンターでしか有効にできません。
- ISO ストレージドメイン
- ISO ドメインは、仮想マシンのオペレーティングシステムおよびアプリケーションをインストールするために使用される論理 CD-ROM である ISO ファイルを保存します。物理 CD-ROM または DVD のライブラリーを置き換える論理エンティティーとして、ISO ドメインはデータセンターの物理メディアの必要性を削除します。ISO ドメインは、異なるデータセンターで共有することができます。
1.6. ネットワーク
図1.3 ネットワークアーキテクチャー

- ネットワークインフラストラクチャー層
- Red Hat Virtualization ネットワークアーキテクチャーは、いくつかの一般的なハードウェアおよびソフトウェアデバイスに依存しています。
- ネットワークインターフェイスコントローラー (NIC)は、ホストをネットワークに接続する物理ネットワークインターフェイスデバイスです。
- 仮想 NIC (VNIC)は、ホストの物理 NIC を使用して動作する論理 NIC です。これらは、仮想マシンへのネットワーク接続を提供します。
- ボンドは、複数の NIC を単一のインターフェイスにバインドします。
- ブリッジ は、パケット交換ネットワークのパケット転送技術です。これらは、仮想マシンの論理ネットワーク のベースを形成します。
- 論理ネットワーク
- 論理ネットワークでは、環境要件に基づいてネットワークトラフィックを分離できます。論理ネットワークの種類は次のとおりです。
- 仮想マシンネットワークトラフィックを伝送する論理ネットワーク、
- 仮想マシンネットワークトラフィックを伝送しない論理ネットワーク、
- オプションの論理ネットワーク
- 必要なネットワーク。
すべての論理ネットワークは、必須または任意のいずれかです。仮想マシンネットワークトラフィックを伝送する論理ネットワークは、ソフトウェアブリッジデバイスとしてホストレベルで実装されます。デフォルトでは、Red Hat Virtualization Manager のインストール中に 1 つの論理ネットワーク(ovirtmgmt
管理ネットワーク)が定義されます。管理者が追加できるその他の論理ネットワークは、専用のストレージ論理ネットワークと専用のディスプレイ論理ネットワークです。仮想マシントラフィックを伝送しない論理ネットワークには、ホスト上に関連付けられたブリッジデバイスがありません。これらは、ホストネットワークインターフェイスに直接関連付けられています。Red Hat Virtualization は、管理関連のネットワークトラフィックを移行関連のネットワークトラフィックから分離します。これにより、ライブマイグレーションに専用ネットワーク (ルーティングなし) を使用できるようになり、移行中に管理ネットワーク (ovirtmgmt) がハイパーバイザーへの接続を失うことがなくなります。 - 異なる層の論理ネットワークの説明
- 論理ネットワークは、仮想化環境の各レイヤーに異なる影響を及ぼします。
データセンター層
論理ネットワークはデータセンターレベルで定義されます。各データセンターには、デフォルトで
ovirtmgmt
管理ネットワークがあります。それ以上の論理ネットワークはオプションですが、推奨されます。仮想マシンネットワーク およびカスタム MTU の指定はデータセンターレベルで設定できます。データセンター用に定義された論理ネットワークも、論理ネットワークを使用するクラスターに追加する必要があります。クラスター層
論理ネットワークはデータセンターから利用可能になり、それらを使用するクラスターに追加する必要があります。デフォルトでは、各クラスターは管理ネットワークに接続されています。オプションで、クラスターの親データセンター用に定義されたクラスター論理ネットワークに追加できます。必要な論理ネットワークがクラスターに追加されたら、クラスター内のホストごとに実装する必要があります。任意の論理ネットワークは、必要に応じてホストに追加できます。
ホスト層
仮想マシンの論理ネットワークは、特定のネットワークインターフェイスに関連付けられたソフトウェアブリッジデバイスとして、クラスター内のホストごとに実装されます。非仮想マシンの論理ネットワークにはブリッジが関連付けられておらず、ホストネットワークインターフェイスに直接関連付けられています。各ホストには、Red Hat Virtualization 環境に含まれている結果として、そのネットワークデバイスの 1 つを使用するブリッジとして実装された管理ネットワークがあります。クラスターに追加されたさらに必要な論理ネットワークは、クラスターで動作可能になるために、各ホストのネットワークインターフェイスに関連付けられている必要があります。
仮想マシン層
論理ネットワークは、ネットワークを物理マシンで利用できるようにするのと同じ方法で、仮想マシンで利用できるようにすることができます。仮想マシンは、その仮想 NIC を、それを実行するホストに実装されている任意の仮想マシン論理ネットワークに接続できます。次に、仮想マシンは、接続されている論理ネットワーク上で使用可能な他のデバイスまたは宛先への接続を取得します。
例1.1 Management Network
ovirtmgmt
という名前の管理論理ネットワークは、Red Hat Virtualization Manager のインストール時に自動的に作成されます。ovirtmgmt
ネットワークは、Red Hat Virtualization Manager とホスト間のトラフィックの管理専用です。特に目的のブリッジが設定されていない場合、ovirtmgmt
はすべてのトラフィックのデフォルトのブリッジになります。
1.7. データセンター
- ストレージコンテナー は、ストレージドメインの接続情報など、ストレージタイプおよびストレージドメインに関する情報を保持します。ストレージはデータセンター用に定義されており、データセンター内のすべてのクラスターで使用できます。データセンター内のすべてのホストクラスターは、同じストレージドメインにアクセスできます。
- network コンテナー は、データセンターの論理ネットワークに関する情報を保持します。これには、ネットワークアドレス、VLAN タグ、STP サポートなどの詳細が含まれます。論理ネットワークはデータセンターに対して定義され、オプションでクラスターレベルで実装されます。
- クラスター コンテナーはクラスター を保持します。クラスターは、AMD または Intel プロセッサーのいずれかの互換性のあるプロセッサーコアを備えたホストのグループです。クラスターは移行ドメインです。仮想マシンは、他のクラスターではなく、クラスター内の任意のホストにライブマイグレーションできます。1 つのデータセンターに複数のクラスターを保持でき、各クラスターに複数のホストを含めることができます。
第2章 ストレージ
2.1. ストレージドメインの概要
2.2. ストレージバッキングストレージドメインの種類
- ファイルベースのストレージ
- Red Hat Virtualization でサポートされているファイルベースのストレージタイプは、NFS、GlusterFS、その他の POSIX 準拠のファイルシステム、およびホストにローカルなストレージです。ファイルベースのストレージは、Red Hat Virtualization 環境の外部で管理されます。NFS ストレージは、Red Hat Enterprise Linux NFS サーバーまたはその他のサードパーティーのネットワーク接続ストレージサーバーによって管理されます。ホストは、独自のローカルストレージファイルシステムを管理できます。
- ブロックベースのストレージ
- ブロックストレージは、フォーマットされていないブロックデバイスを使用します。ブロックデバイスは、論理 ボリュームマネージャー(LVM)によってボリュームグループ に集約されます。LVM のインスタンスは、他のホストで実行されているインスタンスを認識せずに、すべてのホストで実行されます。VDSM は、ボリュームグループの変更をスキャンすることにより、LVM の上にクラスターリングロジックを追加します。変更が検出されると、VDSM は、ボリュームグループ情報を更新するように指示することにより、個々のホストを更新します。ホストはボリュームグループを論理ボリュームに分割し、論理ボリュームのメタデータをディスクに書き込みます。既存のストレージドメインにさらにストレージ容量が追加されると、Red Hat Virtualization Manager により、各ホストの VDSM がボリュームグループ情報を更新します。論理ユニット番号 (LUN) は、個々のブロックデバイスです。サポートされているブロックストレージプロトコルの 1 つである iSCSI、FCoE、または SAS は、LUN への接続に使用されます。Red Hat Virtualization Manager は、LUN へのソフトウェア iSCSI 接続を管理します。他のすべてのブロックストレージ接続は、Red Hat Virtualization 環境の外部で管理されます。論理ボリュームの作成、論理ボリュームの拡張または削除、新しい LUN の追加など、ブロックベースのストレージ環境での変更は、Storage Pool Manager と呼ばれる特別に選択されたホスト上の LVM によって処理されます。次に、変更は VDSM によって同期され、ストレージメタデータはクラスター内のすべてのホスト間で更新されます。
2.3. ストレージドメインタイプ
- Data Storage Domain は、Red Hat Virtualization 環境内のすべての仮想マシンのハードディスクイメージを保存します。ディスクイメージには、インストールされているオペレーティングシステム、または仮想マシンによって保存または生成されたデータが含まれている場合があります。データストレージドメインは、NFS、iSCSI、FCP、GlusterFS、および POSIX 準拠のストレージをサポートします。データドメインを複数のデータセンター間で共有することはできません。
- Export Storage Domain は、ハードディスクイメージと、データセンター間で転送される仮想マシンテンプレートの一時的なストレージを提供します。さらに、エクスポートストレージドメインは、バックアップされた仮想マシンのコピーを保存します。エクスポートストレージドメインは NFS ストレージをサポートします。複数のデータセンターが単一のエクスポートストレージドメインにアクセスできますが、一度に使用できるのは 1 つのデータセンターのみです。
- ISO ストレージドメイン は、イメージとも呼ばれる ISO ファイルを保存します。ISO ファイルは、物理 CD または DVD を表したものです。Red Hat Virtualization 環境では、一般的なタイプの ISO ファイルは、オペレーティングシステムのインストールディスク、アプリケーションのインストールディスク、およびゲストエージェントのインストールディスクです。これらのイメージは、物理ディスクをディスクドライブに挿入して起動するのと同じ方法で、仮想マシンに接続して起動できます。ISO ストレージドメインにより、データセンター内のすべてのホストが ISO を共有できるようになり、物理的な光メディアが不要になります。
2.4. 仮想ディスクイメージのストレージ形式
- QCOW2 形式の仮想マシンストレージ
- QCOW2 は、仮想ディスクイメージのストレージ形式です。QCOW は、書き込み時の QEMU コピーを 表します。QCOW2 形式は、論理ブロックと物理ブロックの間にマッピングを追加することにより、物理ストレージ層を仮想層から切り離します。各論理ブロックは物理オフセットにマッピングされ、ストレージのオーバーコミットメントと仮想マシンのスナップショットを有効にします。各 QCOW ボリュームは、基礎となるディスクイメージに加えられた変更のみを表します。初期マッピングは、すべての論理ブロックをバッキングファイルまたはボリュームのオフセットにポイントします。スナップショットの後に仮想マシンが QCOW2 ボリュームにデータを書き込むと、関連するブロックがバッキングボリュームから読み取られ、新しい情報で変更されて、新しいスナップショット QCOW2 ボリュームに書き込まれます。次に、新しい場所を指すように地図が更新されます。
- RAW
- RAW ストレージ形式には、RAW 形式で保存された仮想ディスクイメージにフォーマットが適用されないことにおいて、QCOW2 よりもパフォーマンス上の利点があります。RAW 形式で保存されたディスクイメージでの仮想マシンのデータ操作では、ホストへの追加作業は必要ありません。仮想マシンが仮想ディスクの特定のオフセットにデータを書き込む場合、I/O はバッキングファイルまたは論理ボリュームの同じオフセットに書き込まれます。Raw 形式では、ストレージアレイから外部で管理されているシンプロビジョニングされた LUN を使用しない限り、定義されたイメージのスペース全体を事前に割り当てる必要があります。
2.5. 仮想ディスクイメージストレージ割り当てポリシー
- 事前に割り当てられたストレージ
- 仮想ディスクイメージに必要なすべてのストレージは、仮想マシンの作成前に割り当てられます。仮想マシン用に 20GB のディスクイメージが作成される場合、ディスクイメージは 20GB のストレージドメイン容量を使用します。事前に割り当てられたディスクイメージは拡大できません。ストレージの事前割り当ては、実行時にストレージの割り当てが行われないため、書き込み時間が短縮されることを意味しますが、柔軟性が犠牲になります。この方法でストレージを割り振ると、ストレージをオーバーコミットする Red Hat Virtualization Manager の容量が減少します。ストレージの遅延に対する許容度が低い、高強度の I/O タスクに使用される仮想マシンには、事前に割り当てられたストレージをお勧めします。一般に、サーバー仮想マシンはこの説明に適合します。注記ストレージバックエンドによって提供されるシンプロビジョニング機能を使用している場合でも、仮想マシンのストレージをプロビジョニングするときに、管理ポータルから事前に割り当てられたストレージを選択する必要があります。
- 部分的に割り当てられたストレージ
- 仮想ディスクイメージのサイズの上限は、仮想マシンの作成時に設定されます。最初は、ディスクイメージはストレージドメインの容量を使用していません。上限に達するまで、仮想マシンがデータをディスクに書き込むにつれて、使用量は増加します。ディスクイメージ内のデータが削除されても、容量はストレージドメインに戻されません。わずかに割り当てられたストレージは、ストレージの遅延にある程度の許容度がある低または中強度の I/O タスクを持つ仮想マシンに適しています。一般に、デスクトップ仮想マシンはこの説明に適合します。注記シンプロビジョニング機能がストレージバックエンドによって提供される場合は、シンプロビジョニングの推奨される実装として使用する必要があります。ストレージは、事前に割り当てられたグラフィカルユーザーインターフェイスからプロビジョニングし、シンプロビジョニングをバックエンドソリューションに任せる必要があります。
2.6. Red Hat Virtualization のストレージメタデータバージョン
- V1 メタデータ (Red Hat Virtualization 2.x シリーズ)各ストレージドメインには、独自の構造を記述するメタデータと、仮想ディスクイメージのバックアップに使用されるすべての物理ボリュームの名前が含まれています。マスタードメインには、ストレージプール内のすべてのドメインと物理ボリューム名のメタデータが追加で含まれています。このメタデータの合計サイズは 2 KB に制限されており、プールに含めることができるストレージドメインの数が制限されます。テンプレートと仮想マシンのベースイメージは読み取り専用です。V1 メタデータは、NFS、iSCSI、および FC ストレージドメインに適用できます。
- V2 メタデータ (Red Hat Enterprise Virtualization 3.0)すべてのストレージドメインとプールのメタデータは、論理ボリュームに書き込まれるのではなく、論理ボリュームタグとして保存されます。仮想ディスクボリュームに関するメタデータは、引き続きドメインの論理ボリュームに保存されます。物理ボリューム名はメタデータに含まれなくなりました。テンプレートと仮想マシンのベースイメージは読み取り専用です。V2 メタデータは、iSCSI および FC ストレージドメインに適用できます。
- V3 metadata (Red Hat Enterprise Virtualization 3.1+)すべてのストレージドメインとプールのメタデータは、論理ボリュームに書き込まれるのではなく、論理ボリュームタグとして保存されます。仮想ディスクボリュームに関するメタデータは、引き続きドメインの論理ボリュームに保存されます。仮想マシンとテンプレートのベースイメージは読み取り専用ではなくなりました。この変更により、ライブスナップショット、ライブストレージの移行、およびスナップショットからのクローン作成が可能になります。英語以外のボリューム名に対して、Unicode メタデータのサポートが追加されました。V3 メタデータは、NFS、GlusterFS、POSIX、iSCSI、および FC ストレージドメインに適用できます。
2.7. Red Hat Virtualization でのストレージドメインの自動リカバリー
2.8. Storage Pool Manager
leases
と呼ばれるマスターストレージドメイン内の特別な論理ボリュームに書き込まれます。データドメインの構造に関するメタデータは、メタ
データ と呼ばれる特別な論理ボリュームに書き込まれます。メタデータ
論理ボリュームへの変更は、leases
論理ボリュームによって保護されます。
spmStart
コマンドを実行し、そのホスト上の VDSM がストレージ中心リースを想定しようとします。ホストが成功すると、ホストは SPM になり、Red Hat Virtualization Manager が新しいホストに SPM のロールを引き受けるように要求するまで、ストレージ中心のリースを保持します。
- SPM ホストはすべてのストレージドメインにアクセスできるわけではありませんが、マスターストレージドメインにアクセスできます。
- ストレージ接続が失われたか、リースボリュームがいっぱいで、書き込み操作を実行できないため、SPM ホストはリースを更新できません。
- SPM ホストがクラッシュしました。
図2.1 Storage Pool Manager は、構造メタデータを排他的に書き込みます。

2.9. Storage Pool Manager の選択プロセス
- "getSPMstatus" コマンド: マネージャーは VDSM を使用して、最後に SPM ステータスがあったホストを確認し、"SPM"、"Contending"、または "Free" のいずれかを受け取ります。
- ストレージドメインのメタデータボリュームには、SPM ステータスの最後のホストが含まれています。
- ストレージドメインのメタデータボリュームには、SPM ステータスの最後のホストのバージョンが含まれています。
2.10. Red Hat Virtualization における排他的リソースと Sanlock
2.11. シンプロビジョニングとストレージのオーバーコミットメント
2.12. 論理ボリューム拡張
第3章 ネットワーク
3.1. ネットワークアーキテクチャー
3.2. 概要:基本的なネットワーク用語
- ネットワークインターフェイスコントローラー(NIC)
- A Bridge
- ボンド
- 仮想 NIC
- 仮想 LAN (VLAN)
3.3. ネットワークインターフェイスコントローラー
3.4. ブリッジ
3.5. ボンド
ボンディングモード
Mode 0 (round-robin policy)
- ネットワークインターフェイスカードを介してパケットを順番に送信します。パケットは、ボンディングで最初に利用可能なネットワークインターフェイスカードで始まり、ボンドで最後に使用可能なネットワークインターフェイスカードで終わるループで送信されます。その後のすべてのループは、最初に使用可能なネットワークインターフェイスカードから始まります。モード 0 はフォールトトレランスを提供し、ボンド内のすべてのネットワークインターフェイスカード間で負荷を分散します。ただし、モード 0 はブリッジと組み合わせて使用できないため、仮想マシンの論理ネットワークとの互換性はありません。
モード 1 (active-backup ポリシー)
- 1 枚のネットワークインターフェイスカードがアクティブなまま、すべてのネットワークインターフェイスカードをバックアップ状態に設定します。アクティブなネットワークインターフェイスカードに障害が発生した場合、バックアップネットワークインターフェイスカードの 1 つが、ボンド内の唯一のアクティブなネットワークインターフェイスカードとしてそのネットワークインターフェイスカードに置き換わります。モード 1 のボンディングの MAC アドレスは、1 つのポートにのみ表示され、ボンディングの MAC アドレスがアクティブなネットワークインターフェイスカードを反映するように変更された場合に混乱を防ぐことができます。モード 1 はフォールトトレランスを提供し、Red Hat Virtualization でサポートされています。
Mode 2 (XOR policy)
- ネットワークインターフェイスカードのスレーブ数をモジュロとして、送信元および宛先 MAC アドレスでの XOR 操作の結果に基づいて、パケットの送信に使用するネットワークインターフェイスカードを選択します。この計算により、使用される宛先 MAC アドレスごとに同じネットワークインターフェイスカードが確実に選択されます。モード 2 は、フォールトトレランスと負荷分散を提供し、Red Hat Virtualization でサポートされています。
Mode 3 (broadcast policy)
- すべてのパケットをすべてのネットワークインターフェイスカードに送信します。モード 3 はフォールトトレランスを提供し、Red Hat Virtualization でサポートされています。
Mode 4 (IEEE 802.3ad policy)
- インターフェイスが同じ速度とデュプレックス設定を共有するアグリゲーショングループを作成します。モード 4 は、IEEE 802.3ad 仕様に従って、アクティブなアグリゲーショングループ内のすべてのネットワークインターフェイスカードを使用し、Red Hat Virtualization でサポートされます。
Mode 5 (adaptive send load balancing policy)
- 送信トラフィックの分散がボンド内の各ネットワークインターフェイスカードの負荷を考慮し、現在のネットワークインターフェイスカードがすべての受信トラフィックを受信するようにします。トラフィックの受信に割り当てられたネットワークインターフェイスカードに障害が発生した場合、別のネットワークインターフェイスカードが着信トラフィックの受信のロールに割り当てられます。モード 5 はブリッジと組み合わせて使用できないため、仮想マシンの論理ネットワークとは互換性がありません。
Mode 6 (adaptive load balancing policy)
- 特別なスイッチ要件なしで、モード 5 (適応型送信負荷分散ポリシー) と IPv4 トラフィックの受信負荷分散を組み合わせます。ARP ネゴシエーションは、受信負荷のバランスを取るために使用されます。モード 6 はブリッジと組み合わせて使用できないため、仮想マシンの論理ネットワークとは互換性がありません。
3.6. ボンディング用のスイッチ設定
3.7. 仮想ネットワークインターフェイスカード
libvirt
は仮想ネットワークインターフェイスカードを PCI アドレスに割り当てます。次に、MAC アドレスおよび PCI アドレスを使用して、仮想マシンの仮想ネットワークインターフェイスカードの名前( eth0
など)を取得します。
[root@rhev-host-01 ~]# ip addr show 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 00:21:86:a2:85:cd brd ff:ff:ff:ff:ff:ff inet6 fe80::221:86ff:fea2:85cd/64 scope link valid_lft forever preferred_lft forever 3: wlan0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN qlen 1000 link/ether 00:21:6b:cc:14:6c brd ff:ff:ff:ff:ff:ff 5: ;vdsmdummy;: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN link/ether 4a:d5:52:c2:7f:4b brd ff:ff:ff:ff:ff:ff 6: bond0: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff 7: bond4: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff 8: bond1: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff 9: bond2: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff 10: bond3: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff 11: ovirtmgmt: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN link/ether 00:21:86:a2:85:cd brd ff:ff:ff:ff:ff:ff inet 10.64.32.134/23 brd 10.64.33.255 scope global ovirtmgmt inet6 fe80::221:86ff:fea2:85cd/64 scope link valid_lft forever preferred_lft forever
lo
)、1 つのイーサネットデバイス(wlan0
)、1 つの VDSM ダミーデバイス(;vdsmdummy;
)、5 つのボンドデバイス(bond0
、bond4
、bond1
、bond2
、bond3
)、および 1 つのネットワークブリッジ(ovirtmgmt
)。
[root@rhev-host-01 ~]# brctl show bridge name bridge id STP enabled interfaces ovirtmgmt 8000.e41f13b7fdd4 no vnet002 vnet001 vnet000 eth0
ovirtmgmt
ブリッジのメンバーであることを示しています。仮想ネットワークインターフェイスカードが関連付けられているすべての仮想マシンが ovirtmgmt 論理ネットワークに接続されている。eth0
ネットワークインターフェイスカードも ovirtmgmt
ブリッジのメンバーです。eth0
デバイスはスイッチに接続され、ホスト以外の接続を提供します。
3.8. 仮想 LAN (VLAN)
3.9. ネットワークラベル
ネットワークラベルの関連付け
- 論理ネットワークにラベルを付けると、その論理ネットワークは、指定されたラベルを持つ物理ホストネットワークインターフェイスに自動的に関連付けられます。
- 物理ホストネットワークインターフェイスにラベルを付けると、指定されたラベルの論理ネットワークはすべて、その物理ホストネットワークインターフェイスに自動的に関連付けられます。
- 論理ネットワークまたは物理ホストネットワークインターフェイスに接続されているラベルを変更すると、ラベルを削除して新しいラベルを追加するのと同じように機能します。関連する論理ネットワークまたは物理ホストネットワークインターフェイス間の関連付けが更新されます。
ネットワークラベルとクラスター
- ラベル付きの論理ネットワークがクラスターに追加され、そのクラスター内に同じラベルの物理ホストネットワークインターフェイスがある場合、論理ネットワークはその物理ホストネットワークインターフェイスに自動的に追加されます。
- ラベル付き論理ネットワークがクラスターから切り離され、そのクラスター内に同じラベルの物理ホストネットワークインターフェイスがある場合、論理ネットワークはその物理ホストネットワークインターフェイスから自動的に切り離されます。
ネットワークラベルとロールを持つ論理ネットワーク
- ラベル付き論理ネットワークがディスプレイネットワークまたは移行ネットワークとして機能するように割り当てられると、その論理ネットワークは DHCP を使用して物理ホストネットワークインターフェイス上に設定され、論理ネットワークに IP アドレスを割り当てることができます。ロールネットワーク (たとえば、移行ネットワークやディスプレイネットワーク) にラベルを設定すると、そのネットワークがすべてのホストに大量に展開されます。このようなネットワークの大量追加は、DHCP を使って実現しています。多くの静的 IP アドレスを入力するタスクのスケーラブルでない性質のため、この大量展開の方法は、静的アドレスを入力する方法よりも選択されました。
3.10. クラスターネットワーク
- クラスター
- 論理ネットワーク
図3.1 クラスター内のネットワーキング

3.11. 論理ネットワーク
ovirtmgmt
ネットワークは、Manager とホスト間の管理通信に使用される Red Hat Virtualization のインストール時にデフォルトで作成されます。論理ネットワークの一般的な使用法は、同様の要件と使用法を持つネットワークトラフィックをグループ化することです。多くの場合、ストレージネットワークとディスプレイネットワークは、最適化とトラブルシューティングのためにそれぞれのタイプのトラフィックを分離するために管理者によって作成されます。
- 仮想マシンネットワークトラフィックを伝送する論理ネットワーク、
- 仮想マシンネットワークトラフィックを伝送しない論理ネットワーク、
- オプションの論理ネットワーク
- 必要なネットワーク。
図3.2 ovirtmgmt 論理ネットワーク。

例3.1 論理ネットワークの使用例。
ovirtmgmt
を使用しています。Pink を担当するシステム管理者は、Web サーバーと一部のクライアント仮想マシンを別の論理ネットワークに配置することで、Web サーバーのネットワークテストを分離することを決定します。新しい論理 ネットワーク _testing
を呼び出すことを決定します。
network_testing
ネットワークに追加して、対応するブリッジをクラスター内のすべてのノードで設定する必要があるためです。次に、White をアクティブにし、実行中の仮想マシンをすべて移行して、Red のプロセスを繰り返します。
network_testing
論理ネットワークが物理ネットワークインターフェイスにブリッジされている場合は、network_testing
論理ネットワークが 操作 になり、仮想マシンが使用できるようになります。
3.12. 必須ネットワーク、任意のネットワーク、および仮想マシンネットワーク
3.13. 仮想マシンの接続性
ovirtmgmt
論理ネットワークにある場合、その VNIC は仮想マシンを実行するホストの ovirtmgmt
ブリッジのメンバーとして追加されます。
3.14. Port Mirroring
- ポートミラーリングが有効になっているプロファイルの vNIC のホットプラグはサポートされていません。
- vNIC プロファイルが仮想マシンに接続されている場合は、ポートミラーリングを変更することができません。
3.15. ホストネットワーク設定
- ブリッジと NIC の設定
- ブリッジ、VLAN、および NIC の設定
- ブリッジ、ボンド、および VLAN の設定
- 複数のブリッジ、複数の VLAN、および NIC の設定
3.16. Bridge Configuration
図3.3 ブリッジおよび NIC の設定

ovirtmgmt
の自動作成です。インストール時に、Red Hat Virtualization Manager はホストに VDSM
をインストールします。VDSM
インストールプロセスでは、ブリッジ ovirtmgmt
を作成します。次に、ovirtmgmt
ブリッジはホストの IP
アドレスを取得して、ホストの管理通信を有効にします。
3.17. VLAN 設定
図3.4 ブリッジ、VLAN、および NIC の設定

3.18. ブリッジおよびボンディングの設定
図3.5 ブリッジ、ボンド、および NIC の設定

3.19. 複数のブリッジ、複数 VLAN、および NIC の設定
図3.6 複数のブリッジ、複数 VLAN、および NIC の設定

3.20. 複数のブリッジ、複数の VLAN、およびボンディングの設定
図3.7 ボンディング接続のある複数のブリッジ、複数 VLAN、および複数の NIC

第4章 電源管理
4.1. 電力管理とフェンシングの概要
4.2. Red Hat Virtualization の Proxy による電源管理
- フェンシングが必要なホストと同じクラスター内の任意のホスト。
- フェンシングが必要なホストと同じデータセンターにあるすべてのホスト。
4.3. 電源管理
- American Power Conversion (apc)
- ありました。
- Cisco Unified Computing System (cisco_ucs)
- Dell Remote Access Card 5 (drac5)
- Dell Remote Access Card 7 (drac7)
- 電子電源スイッチ (eps)
- HPAppender System (hpblade)
- Integrated Lights Out (ilo,ilo2,ilo3,ilo4)。
- Intelligent Platform Management Interface (ipmilan)
- Remote Supervisor Adapter (rsa)
- rsb.
- Western Telematic, Inc (wti)
- ステータス: ホストのステータスを確認します。
- 起動: ホストの電源をオンにします。
- 停止: ホストの電源を切ります。
- restart: ホストを再起動します。 実際には、停止、待機、ステータス、開始、待機、ステータスとして実装されます。
4.4. フェンシング
4.5. ソフトフェンシングホスト
- 最初のネットワーク障害では、ホストの状態が接続中に変わります。
- その後、マネージャーは VDSM にステータスの問い合わせを 3 回試みるか、ホストの負荷に応じた間隔で待機します。間隔の長さを決定する式は、設定値 TimeoutToResetVdsInSeconds (デフォルトは 60 秒) + [DelayResetPerVmInSeconds (デフォルトは 0.5 秒)]*(ホスト上で実行している仮想マシンの数)+ [DelayResetForSpmInSeconds (デフォルトは 20 秒です)] * 1 (ホストが SPM として実行している場合) または 0 (ホストが SPM として実行されていない場合)。VDSM に応答する最大時間を与えるために、Manager は上記の 2 つのオプションのうち長い方を選択します (VDSM のステータスまたは上記の式で決定された間隔を取得するための 3 回の試行)。
- 間隔が経過したときにホストが応答しない場合は、vdsm restart を SSH 経由で実行します。
- vdsm restart がホストと Manager 間の接続を再確立しない場合、ホストのステータスは
Non Responsive
に変更され、電源管理が設定されている場合、フェンシングは外部フェンシングエージェントに渡されます。
4.6. 複数の電力管理フェンシングエージェントの使用
- 同時: プライマリーエージェントとセカンダリーエージェントの両方が、ホストを停止するために Stop コマンドに応答する必要があります。1 つのエージェントが開始コマンドに応答すると、ホストが起動します。
- シーケンシャル: ホストの停止または起動には、プライマリーエージェントが最初に使用され、失敗した場合はセカンダリーエージェントが使用されます。
第5章 負荷分散、スケジューリング、および移行
5.1. 負荷分散、スケジューリング、および移行
- 仮想マシンの起動 - リソースがチェックされ、仮想マシンが起動するホストが決定されます。
- 仮想マシンの移行 - 適切なターゲットホストを決定するために、リソースがチェックされます。
- 時間の経過 - リソースは定期的にチェックされ、個々のホストの負荷がクラスターの負荷分散ポリシーに準拠しているかどうかが判断されます。
5.2. 負荷分散ポリシー
5.3. 負荷分散ポリシー: VM_Evenly_Distributed
5.4. 負荷分散ポリシー: Evenly_Distributed
図5.1 Evenly Distributed スケジューリングポリシー

5.5. 負荷分散ポリシー: Power_Saving
図5.2 Power Saving スケジューリングポリシー

5.6. 負荷分散ポリシー: なし
5.7. 負荷分散ポリシー:InClusterUpgrade
5.8. 高可用性仮想マシンの予約
5.9. スケジューリング
5.10. マイグレーション
- 各仮想マシンの移行には、52 MiBps (メガバイト/秒)の帯域幅制限が課せられます。
- 移行は、仮想マシンメモリーの GB あたり 64 秒後にタイムアウトになります。
- 進行が 240 秒間停止すると、移行は中止されます。
- 同時送信移行は、ホストごとの CPU コアごとに 1 つ、または 2 つのうち小さい方に制限されます。
第6章 ディレクトリーサービス
6.1. ディレクトリーサービス
- ポータルログイン (ユーザー、パワーユーザー、管理者、REST API)。
- ユーザー情報を表示するためのクエリー。
- Manager をドメインに追加します。
6.2. ローカル認証: 内部ドメイン
admin@internal
ユーザーという 1 人のユーザーしかないため、内部ドメインも外部ドメインとは異なります。このアプローチを初期認証に採用することで、完全で機能的なディレクトリーサーバーを必要とせずに Red Hat Virtualization を評価でき、外部ディレクトリーサービスの問題をトラブルシューティングするための管理者アカウントを利用できるようになります。
6.3. GSSAPI を使用したリモート認証
engine-manage-domains
ツールを使用して管理者が RHDS、AD、または IdM ドメインの一部として設定する必要があります。これには、システムをドメインに参加させるのに十分な特権を持つ、ドメインの RHDS、AD、または IdM ディレクトリーサーバーからのアカウントの認証情報をマネージャーに提供する必要があります。ドメインが追加された後、ドメインユーザーは、パスワードを使用してディレクトリーサーバーに対して Red Hat Virtualization Manager によって認証されます。Manager は Simple Authentication and Security Layer (SASL)と呼ばれるフレームワークを使用し、次に Generic Security Services Application Program Interface (GSSAPI)を使用してユーザーの ID を安全に検証し、ユーザーが使用できる承認レベルを確認します。
図6.1 GSSAPI 認証

第7章 テンプレートおよびプール
7.1. テンプレートおよびプール
7.2. テンプレート
7.3. Pools
例7.1 プールの使用例
第8章 仮想マシンのスナップショット
8.1. スナップショット
- 作成。仮想マシン用に作成された最初のスナップショットが含まれます。
- プレビュー。スナップショットをプレビューして、スナップショットが作成された時点にシステムデータを復元するかどうかを決定します。
- 削除。これには、不要になった復元ポイントの削除が含まれます。
8.2. Red Hat Virtualization のライブスナップショット
qemu-guest-agent
をインストールして、スナップショットの前に休止を有効にできます。
8.3. スナップショットの作成
図8.1 最初のスナップショットの作成

図8.2 追加のスナップショットの作成

8.4. スナップショットプレビュー
図8.3 スナップショットのプレビュー

8.5. スナップショットの削除
Delete_snapshot
は 200 GB で、後続のスナップショット Next_snapshot
は 100 GB です。Delete_snapshot
が削除され、一時的に Snapshot_merge
という名前の新しい論理ボリュームが作成され、サイズが 200 GB になります。Snapshot_merge
は最終的に 300 GB にサイズ変更され、Delete_snapshot
と Next_snapshot
の両方のマージされたコンテンツの合計に対応します。Next_snapshot
の名前が Delete_me_too_snapshot
に変更され、snapshot_ merge の名前が Next_
snapshot
に変更できるようにします。最後に、Delete_snapshot
および Delete_me_too_snapshot
が削除されます。
図8.4 スナップショットの削除

第9章 ハードウェアドライバーとデバイス
9.1. 仮想化されたハードウェア
- エミュレートされたデバイス
- エミュレートされたデバイス( 仮想デバイス と呼ばれることもあります)は、完全にソフトウェアに存在します。エミュレートされたデバイスドライバー は、ホストで実行しているオペレーティングシステム(ソースデバイスを管理する)とゲストで実行しているオペレーティングシステムとの間の変換層です。エミュレートされたデバイスとの間でやり取りされるデバイスレベルの命令は、ハイパーバイザーによってインターセプトおよび変換されます。Linux カーネルによってエミュレートおよび認識されるのと同じタイプのデバイスは、エミュレートされたドライバーのバッキングソースデバイスとして使用できます。
- 準仮想化デバイス
- 準仮想化デバイスでは、ゲストオペレーティングシステムにデバイスドライバーをインストールして、ホストマシンのハイパーバイザーと通信するためのインターフェイスを提供する必要があります。このインターフェイスは、仮想化環境の外部でディスク I/O などの従来の集中的なタスクを実行できるようにするために使用されます。この方法で仮想化に固有のオーバーヘッドを削減することは、ゲストオペレーティングシステムのパフォーマンスを、物理ハードウェアで直接実行する場合に期待されるパフォーマンスに近づけることを目的としています。
- 物理的に共有されているデバイス
- 特定のハードウェアプラットフォームでは、仮想化されたゲストがさまざまなハードウェアデバイスやコンポーネントに直接アクセスできます。仮想化におけるこのプロセスは、パススルー または デバイス割り当て と呼ばれます。パススルーを使用すると、デバイスがゲストオペレーティングシステムに物理的に接続されているかのように表示および動作できます。
9.2. Red Hat Virtualization における安定したデバイスアドレス
9.3. 中央処理装置 (CPU)
9.4. システムデバイス
- ホストブリッジ
- ISA ブリッジと USB ブリッジ( USB ブリッジと ISA ブリッジは同じデバイス)
- グラフィックカード(Cirrus ドライバーまたは qxl ドライバーのいずれかを使用)
- メモリーバルーンデバイス。
9.5. ネットワークデバイス
e1000
ネットワークインターフェイスコントローラーは、仮想化 Intel PRO/1000 (e1000)をゲストに公開します。virtio
ネットワークインターフェイスコントローラーは、準仮想化ネットワークデバイスをゲストに公開します。rtl8139
ネットワークインターフェイスコントローラーは、仮想化されたRealtek Semiconductor Corp RTL8139
をゲストに公開します。
9.6. グラフィックデバイス
- ac97 は、
Cirrus CLGD 5446 PCI VGA
カードをエミュレートします。 - vga は 、BochsVESA 拡張(すべての非標準モードを含むハードウェアレベル)を使用してダミー VGA カードをエミュレートします。
9.7. ストレージデバイス
IDE
ドライバーは、エミュレートされたブロックデバイスをゲストに公開します。エミュレートされたIDE
ドライバーは、最大 4 つの仮想化IDE
ハードディスクまたは仮想化IDE
CD-ROM ドライブの組み合わせを各仮想化ゲストに割り当てるために使用できます。エミュレートされたIDE
ドライバーは、仮想化 DVD-ROM ドライブを提供するためにも使用されます。- VirtIO ドライバーは、準仮想化ブロックデバイスをゲストに公開します。準仮想化ブロックドライバーは、仮想化ゲストに接続されたハイパーバイザーによってサポートされるすべてのストレージデバイス用のドライバーです (エミュレートする必要があるフロッピーディスクドライブを除く)。
9.8. サウンドデバイス
- ac97 は、
Intel 82801AA AC97 Audio
と互換性のあるサウンドカードをエミュレートします。 - es1370 は、
ENSONIQ AudioPCI ES1370
サウンドカードをエミュレートします。
9.9. シリアルドライバー
virtio-serial
)は、バイト指向の文字ストリームドライバーです。準仮想化シリアルドライバーは、ネットワークが利用できない、または使用できない場合に、ホストのユーザー空間とゲストのユーザー空間との間の単純な通信インターフェイスを提供します。
9.10. バルーンドライバー
第10章 最小要件および技術制限
10.1. 最小要件およびサポートされる制限
10.2. リソースの制限
表10.1 リソースの制限
項目 | 制限事項 |
---|---|
ストレージドメイン | データセンターごとに少なくとも 2 つのストレージドメインが推奨されます。
|
ホスト | Red Hat は、Red Hat Virtualization Manager ごとに最大 200 のホストをサポートします。 |
10.3. クラスターの制限
- すべての管理対象ハイパーバイザーがクラスター内にある必要があります。
- クラスター内のすべての管理対象ハイパーバイザーは、同じ CPU タイプを持つ必要があります。Intel と AMD CPU は同じクラスター内で共存できません。
10.4. ストレージドメインの制限
表10.2 ストレージドメインの制限
項目 | 制限事項 |
---|---|
ストレージタイプ |
サポート対象のストレージタイプは以下のとおりです。
Red Hat Virtualization 4.0 の新しい ISO およびエクスポートストレージドメインは、任意のファイルベースのストレージ(NFS、Posix、または GlusterFS)で提供できます。
|
論理ユニット番号(LUN) | iSCSI または FCP が提供するストレージドメインごとに 300 を超える LUN は許可されません。 |
論理ボリューム(LV) |
Red Hat Virtualization では、論理ボリュームは、仮想マシン、テンプレート、および仮想マシンスナップショットの仮想ディスクを表します。
iSCSI または FCP が提供するストレージドメインごとに、350 を超える論理ボリュームは推奨されません。特定のストレージドメインの論理ボリュームの数がこの数を超える場合は、利用可能なストレージを 350 を超える論理ボリュームを持たない個別のストレージドメインに分割することが推奨されます。
この制限の根本的な原因は、LVM メタデータのサイズです。論理ボリュームの数が増えると、その論理ボリュームに関連付けられた LVM メタデータも増加します。このメタデータのサイズが 1 MB を超えると、新規ディスクの作成やスナップショットの作成などのプロビジョニング操作のパフォーマンスが減少し、QCOW ディスクの実行時に論理ボリュームのシンプロビジョニングに時間がかかることがあります。
論理ボリュームの https://access.redhat.com/solutions/441203 詳細は、を参照してください。
|
10.5. Red Hat Virtualization Manager の制限
表10.3 Red Hat Virtualization Manager の制限
項目 | 制限事項 |
---|---|
RAM |
|
PCI デバイス |
|
ストレージ |
|
10.6. ハイパーバイザーの要件
表10.4 Red Hat Virtualization ホストの要件とサポートされる制限
項目 | サポートの制限 |
---|---|
CPU |
最低 1 つの物理 CPU が必要です。Red Hat Virtualization は、ホストでこれらの CPU モデルの使用をサポートします。
すべての CPU は、 Intel® 64 または AMD64 CPU 拡張機能をサポートしており、 AMD-V™ または Intel VT® ハードウェア仮想化拡張機能が有効になっている必要があります。
No eXecute flag (NX)のサポートも必要です。
|
RAM |
各仮想マシンに必要な RAM 容量は、以下によって異なります。
また、KVM は仮想マシンの物理 RAM をオーバーコミットできます。これは、必要に応じて仮想マシンに RAM のみを割り当て、使用率の低い仮想マシンを swap に移動することで行います。
サポートされている最大および最小 RAM については https://access.redhat.com/articles/rhel-limits、を参照してください。
|
ストレージ |
ホストでサポートされる最小内部ストレージは、以下の一覧の合計です。
これらは、ホストのインストールの 最小 ストレージ要件であることに注意してください。より多くのストレージ領域を使用するデフォルトの割り当てを使用することが推奨されます。
|
PCI デバイス |
1 Gbps の推奨最小帯域幅には、少なくとも 1 つのネットワークコントローラーが必要です。
|
Virtualization hardware is unavailable. (No virtualization hardware was detected on this system)
- ホストブート画面では、任意のキーを押して、一覧から Boot または Boot with serial console エントリーを選択します。Tab を押して、選択したオプションのカーネルパラメーターを編集します。最後のカーネルパラメーターの後に Space があり、
rescue
パラメーターを追加します。 - Enter を押して、レスキューモードで起動します。
- 表示されるプロンプトで、以下のコマンドを実行してプロセッサーに仮想化拡張機能があり、それらが有効になっていることを確認します。
# grep -E 'svm|vmx' /proc/cpuinfo
何らかの出力が表示されれば、プロセッサーはハードウェアの仮想化が可能です。出力が表示されない場合は、プロセッサーがハードウェア仮想化をサポートしている可能性があります。状況によっては、製造元が BIOS で仮想化拡張機能を無効にする場合があります。この場合、製造元が提供するシステムの BIOS およびマザーボードマニュアルを参照してください。 - 追加のチェックとして、
kvm
モジュールがカーネルに読み込まれていることを確認します。# lsmod | grep kvm
出力にkvm_intel
またはkvm_amd
が含まれる場合は、kvm
ハードウェア仮想化モジュールが読み込まれ、システムが要件を満たします。
10.7. ゲストの要件とサポートの制限
表10.5 仮想化されたハードウェア
項目 | 制限事項 |
---|---|
CPU |
Red Hat Enterprise Linux 7 では、ゲストごとに最大 240 の仮想化 CPU がサポートされます。
|
RAM |
ゲストごとに異なるメモリー要件があります。各ゲストに必要な RAM 容量は、ゲストオペレーティングシステムの要件と、ゲストが動作している負荷によって異なります。
ゲストマシンの最大およびサポートされる最小 RAM については https://access.redhat.com/articles/rhel-kvm-limits、を参照してください。
|
PCI デバイス |
ゲストごとに最大 31 個の仮想化 PCI デバイスがサポートされます。この制限に対するシステムデバイスの数。一部は必須です。PCI デバイスの制限に対してカウントする必須デバイスには、PCI ホストブリッジ、ISA ブリッジ、USB ブリッジ、ボードブリッジ、グラフィックカード、IDE または VirtIO ブロックデバイスが含まれます。
|
ストレージ |
ゲストごとに最大 28 個の仮想化ストレージデバイスがサポートされ、可能な 3 つの IDE および 25 Virtio で設定されます。
|
10.8. SPICE の制限
10.9. 追加の参考資料
- 『Red Hat Enterprise Linux - System Administrator's Guide』
- Red Hat Enterprise Linux のデプロイメント、設定、および管理のガイド
- 『Red Hat Enterprise Linux - DM-Multipath Guide』
- Red Hat Enterprise Linux での Device-Mapper Multipathing の使用に関するガイド
- 『Red Hat Enterprise Linux - Installation Guide』
- Red Hat Enterprise Linux のインストールガイド
- 『Red Hat Enterprise Linux - Storage Administration Guide』
- Red Hat Enterprise Linux でストレージデバイスおよびファイルシステムを管理するガイド
- 『Red Hat Enterprise Linux - Virtualization Deployment and Administration Guide』
- Red Hat Enterprise Linux の仮想化テクノロジーのインストール、設定、管理、およびトラブルシューティングのガイド