テクニカルリファレンス
Red Hat Enterprise Virtualization 環境の技術アーキテクチャー
Red Hat Enterprise Virtualization Documentation Team
rhev-docs@redhat.com
概要
第1章 はじめに
1.1. Red Hat Enterprise Virtualization Manager
図1.1 Red Hat Enterprise Virtualization Manager のアーキテクチャー
1.2. Red Hat Virtualization Hypervisor
図1.2 ホストのアーキテクチャー
- Kernel-based Virtual Machine (KVM)
- Kernel-based Virtual Machine (KVM) は、Intel VT または AMD-V ハードウェア拡張機能を使用して完全仮想化を提供するロード可能なカーネルモジュールです。KVM 自体はカーネルスペース内で稼働しますが、その上で実行されるゲストは、ユーザースペース内の個別の QEMU プロセスとして稼働します。KVM によりホストは仮想マシンに対して物理ハードウェアを提供することができます。
- QEMU
- QEMU は、完全なシステムエミュレーションを提供するマルチプラットフォームのエミュレーターです。QEMU は、完全なシステム (例: 1 基または複数のプロセッサーを搭載した周辺機器付きの PC) をエミュレーションします。QEMU は異なるオペレーティングシステムの起動やシステムコードのデバッグに使用することができます。QEMU は、KVM および適切な仮想化拡張機能付きのプロセッサーと連動して、完全なハードウェア仮想化支援機能を提供します。
- VDSM - Red Hat Enterprise Virtualization Manager ホストエージェント
- Red Hat Enterprise Virtualization では、
VDSM
が仮想マシンおよびストレージ上のアクションを開始し、ホスト間の通信も円滑化します。VDSM は、メモリーやストレージ、ネットワークなどのホストのリソースをモニタリングします。また、VDSM は、仮想マシンの作成、統計の集計、ログの収集などのタスクにも対応します。VDSM インスタンスは各ホスト上で実行され、再設定可能なポート54321
を使用して Red Hat Enterprise Virtualization Manager から管理コマンドを受信します。VDSM-REGVDSM
は、VDSM-REG
を使用して各ホストを Red Hat Enterprise Virtualization Manager に登録します。VDSM-REG
は、ポート80
またはポート443
を使用して VDSM-REG 自体の情報とそのホストに関する情報を提供します。 libvirt
- libvirt は、仮想マシンおよびそれらに関連付けられた仮想デバイスの管理を容易にします。Red Hat Enterprise Virtualization Manager が仮想マシンのライフサイクルコマンド (起動/停止/再起動) を開始する際には、VDSM が適切なホストマシン上に libvirt を呼び出してそれらのコマンドを実行します。
- SPM - Storage Pool Manager
- Storage Pool Manager (SPM) はデータセンター内の 1 台のホストに割り当てられるロールです。SPM ホストには、データセンターの全ストレージドメインの構造メタデータを変更する単独の権限が付与されます。これには、仮想ディスクイメージ、スナップショット、テンプレートの作成/削除/操作が含まれます。また、Storage Area Network (SAN) 上のスパースブロックデバイスの割り当ても含まれます。SPM のロールは、同じデータセンター内の任意のホストに移行することが可能です。このため、ホストはすべて、データセンターで定義された全ストレージドメインにアクセスできる必要があります。Red Hat Enterprise Virtualization Manager は SPM を常に稼働状態に保ちます。ストレージ接続エラーが発生した場合には Manager が SPM ロールを別のホストに再割り当てします。
- ゲストオペレーティングシステム
- ゲストオペレーティングシステムは、修正を加えずに Red Hat Enterprise Virtualization 環境内の仮想マシンにインストールすることができます。ゲストオペレーティングシステムおよびゲスト上のすべてのアプリケーションは、仮想化環境であることを意識せずに通常どおりに稼働します。Red Hat は、仮想化デバイスへのアクセスを高速化/効率化することができる拡張デバイスドライバーを提供しています。 Red Hat Enterprise Virtualization Guest Agent をゲストにインストールして、管理コンソールに詳細なゲスト情報を提供することも可能です。
1.3. Manager にアクセスするためのインターフェース
- ユーザーポータル
- デスクトップ仮想化により、パーソナルコンピューターのデスクトップ環境と同様のデスクトップ環境がユーザーに提供されます。ユーザーポータルは、仮想デスクトップインフラストラクチャー をユーザーに提供するためのインターフェースです。ユーザーは Web ブラウザーを使用してユーザーポータルにアクセスし、自分に割り当てられた仮想デスクトップを表示してアクセスします。ユーザーポータルでユーザーが使用できるアクションは、システム管理者によって設定されます。標準ユーザーは、システム管理者により割り当てられたデスクトップを起動、停止、使用することができます。パワーユーザーは、一部の管理操作を行うことができます。いずれのタイプのユーザーも、同じ URL からユーザーポータルにアクセスします。ユーザーポータルには、ログイン時のパーミッションレベルに応じて、適切なオプションが表示されます。
- 標準ユーザーによるアクセス
標準ユーザーは、ユーザーポータルを介して仮想デスクトップの電源を投入/切断したり、接続したりすることができます。Simple Protocol for Independent Computing Environments (SPICE) または Virtual Network Computing (VNC) クライアントを使用して、仮想マシンへ容易に直接接続することができます。いずれのプロトコルも、ローカルにインストールしたデスクトップ環境と同様の環境をユーザーに提供します。仮想マシンの接続に使用するプロトコルは、仮想マシンの作成時に管理者が指定します。
ユーザーポータルで実行できるアクション、サポートされているブラウザーとクライアントに関する詳しい説明は『ユーザーガイド』を参照してください。 - パワーユーザーによるアクセス
Red Hat Enterprise Virtualization User Portal は、仮想リソースの作成、使用、モニタリングを行うためのグラフィカルユーザーインターフェースをパワーユーザーに提供します。システム管理者は、ユーザーにパワーユーザーのアクセスを付与することによって、一部の管理タスクを委任することができます。また、パワーユーザーは、標準ユーザーが実行できるタスクに加えて、以下のような操作を行うことができます。
- 仮想マシンの作成/編集/削除
- 仮想ディスクおよびネットワークインターフェースの管理
- 仮想マシンに対するユーザーパーミッションの割り当て
- 仮想マシンを迅速にデプロイするためのテンプレートの作成/使用
- リソースの使用状況および重大度が高いイベントのモニタリング
- 仮想マシンを以前の状態に復元するためのスナップショットの作成/使用
パワーユーザーは、委任された仮想マシンの管理タスクを実行することができます。データセンターおよびクラスターレベルの管理タスクは、その環境の管理者に確保されます。
- 管理ポータル
- 管理ポータルは、Red Hat Enterprise Virtualization Manager サーバーを管理するためのグラフィカルインターフェースです。これにより管理者は、Web ブラウザーを使用して、仮想環境内の全要素をモニタリング/作成/維持管理することができます。管理ポータルでは以下のようなタスクを実行することができます。
- 仮想インフラストラクチャー (ネットワーク、ストレージドメイン) の作成と管理
- ホストのインストールと管理
- 論理エンティティー (データセンター、クラスター) の作成と管理
- 仮想マシンの作成と管理
- Red Hat Enterprise Virtualization のユーザーおよびパーミッションの管理
管理ポータルは、JavaScript を使用して表示されます。管理ポータルの機能については、『Red Hat Enterprise Virtualization 管理ガイド』で詳しく説明しています。管理ポータルでサポートされているブラウザーおよびプラットフォームについては『Red Hat Enterprise Virtualization インストールガイド』を参照してください。 - Representational State Transfer (REST) API
- Red Hat Enterprise Virtualization REST API は、Red Hat Enterprise Virtualization 環境における問い合わせおよび制御を行うためのソフトウェアインターフェースを提供します。REST API は、HTTP アクションをサポートする任意のプログラミング言語で使用することができます。REST API により、開発者および管理者は以下のような作業を行うことができます。
- エンタープライズ IT システムとの統合
- サードパーティー製の仮想化ソフトウェアとの統合
- 自動メンテナンスおよびエラーチェックタスクの実行
- Red Hat Enterprise Virtualization 環境内の反復タスクを自動化するためのスクリプトの使用
API の仕様および使用例については Red Hat Enterprise Virtualization REST API ガイドを参照してください。
1.4. Manager をサポートするコンポーネント
- Red Hat JBoss Enterprise Application Platform
- Red Hat JBoss Enterprise Application Platform は Java アプリケーションサーバーです。クロスプラットフォームの Java アプリケーションの効率的な開発とデリバリーをサポートするフレームワークを提供します。Red Hat Enterprise Virtualization Manager のデリバリーには Red Hat JBoss Enterprise Application Platform を使用します。
重要
Red Hat Enterprise Virtualization Manager に同梱されている Red Hat JBoss Enterprise Application Platform のバージョンは、Red Hat Enterprise Virtualization Manager にサービスを提供する目的でカスタマイズされているため、その他のアプリケーションへのサービス提供には使用できません。Manager に同梱されている Red Hat JBoss Enterprise Application Platform を別の目的に使用すると、Red Hat Enterprise Virtualization 環境へのサービス提供機能に悪影響を及ぼします。 - レポートおよび履歴データの収集
- Red Hat Enterprise Virtualization Manager には、ホスト/仮想マシン/ストレージのモニタリングデータを収集する Data Warehouse が含まれており、数多くの事前定義済みレポートを利用することができます。ユーザーは SQL をサポートする任意のクエリーツールを使用して環境を分析したり、レポートを作成したりすることができます。Red Hat Enterprise Virtualization Manager のインストールプロセスでは 2 つのデータベースが作成されます。これらのデータベースは、インストール中に選択した Postgres インスタンス上に作成されます。
- engine データベースは、Red Hat Enterprise Virtualization Manager が使用するプライマリーデータストアです。仮想環境の状態、設定、パフォーマンスについての情報は、このデータベースに保管されます。
- ovirt_engine_history データベースには、engine オペレーションデータベースから経時的に収集した設定情報および統計メトリックが格納されます。engine データベース内の設定データは、毎分チェックされ、変更内容は ovirt_engine_history データベースに複製されます。データベースに加えられた変更内容をトラッキングすることによって、データベース内のオブジェクトに関する情報が提供されます。この情報により、Red Hat Enterprise Virtualization 環境のパフォーマンスを分析して強化し、問題を解決することができます。ovirt_engine_history データベースをベースとしたレポート生成に関する詳しい説明は 『Red Hat Enterprise Virtualization 管理ガイド』を参照してください。
重要
ovirt_engine_history データベースへのデータ複製は、RHEVM History Service (ovirt-engine-dwhd) によって実行されます。 - ディレクトリーサービス
- ディレクトリーサービスは、ユーザーおよび組織の情報を保管するための一元化されたネットワークベースのストレージを提供します。保管される情報の種類には、アプリケーションの設定、ユーザープロファイル、グループデータ、ポリシー、アクセス制御などが含まれます。Red Hat Enterprise Virtualization Manager は Active Directory、Identity Management (IdM)、OpenLDAP、および Red Hat Directory Server 9 をサポートしています。また管理目的専用のローカルの内部ドメインもあります。この内部ドメインのユーザーは、admin ユーザーの 1 つのみです。
1.5. ストレージ
図1.3 ストレージアーキテクチャー
- データストレージドメイン
- データドメインは、環境内で稼働中の全仮想マシンの仮想ハードディスクイメージを格納します。仮想マシンのテンプレートおよびスナップショットもデータドメインに保管されます。データドメインは異なるデータセンター間では共有できず、またデータセンターと同じタイプである必要があります。たとえば、iSCSI タイプのデータセンターには、iSCSI データドメインを使用する必要があります。
- エクスポートストレージドメイン
- エクスポートドメインは、データセンターと Red Hat Enterprise Virtualization 環境の間でイメージをコピーしたり移動したりするのに使用する一時的なストレージリポジトリーです。エクスポートドメインは仮想マシンとテンプレートのバックアップにも使用できます。エクスポートドメインは、データセンター間で移動することが可能ですが、一度に 1 つのデータセンターでしかアクティブにできません。
- ISO ストレージドメイン
- ISO ドメインは、ISO ファイル (仮想マシンにオペレーティングシステムやアプリケーションをインストールするのに使用する論理 CD-ROM) を格納します。ISO ドメインは、物理 CD-ROM/DVD のライブラリーの代わりとなる論理エンティティーとして、データセンターでの物理メディアの必要性を排除します。ISO ドメインは異なるデータセンター間で共有することができます。
1.6. ネットワーク
図1.4 ネットワークアーキテクチャー
- ネットワークインフラストラクチャー層
- Red Hat Enterprise Virtualization のネットワークアーキテクチャーは、複数の共通ハードウェア/ソフトウェアデバイスに依存します。
- Network Interface Controller (NIC): ホストをネットワークに接続する物理ネットワークインターフェースデバイス。
- 仮想 NIC (VNIC): ホストの物理 NIC を使用して稼働する論理 NIC。仮想マシンへのネットワーク接続を提供します。
- ボンディング: 複数の NIC を単一のインターフェースにバインドします。
- ブリッジ: パケット交換網のパケット転送技術です。仮想論理ネットワーク の基礎を形成します。
- 論理ネットワーク
- 論理ネットワークでは、環境要件に基づいてネットワークトラフィックを分けることができます。論理ネットワークの種類は次のとおりです。
- 仮想マシンネットワークトラフィックを伝送する論理ネットワーク
- 仮想マシンネットワークトラフィックを伝送しない論理ネットワーク
- 任意の論理ネットワーク
- 必須ネットワーク
すべての論理ネットワークは、必須または任意のいずれかです。仮想マシンネットワークトラフィックを伝送する論理ネットワークは、ソフトウェアブリッジデバイスとしてホストレベルで実装されます。デフォルトでは、Red Hat Enterprise Virtualization Manager のインストール中に 1 つの論理ネットワーク (ovirtmgmt
管理ネットワーク) が定義されます。管理者が追加できる他の論理ネットワークは、ストレージ専用の論理ネットワークとディスプレイ専用の論理ネットワークです。仮想マシントラフィックを伝送しない論理ネットワークでは、ホストに関連付けられたブリッジデバイスが存在せず、ホストのネットワークインターフェースに直接関連付けられます。Red Hat Enterprise Virtualization は、管理ネットワークのトラフィックから移行ネットワークのトラフィックを分離しています。これにより、ライブマイグレーション専用ネットワークの (ルーティングなしで) 使用が可能となり、またマイグレーションの実行中に、管理ネットワーク (ovirtmgmt) からハイパーバイザーへの接続が中断されないようになります。 - 異なる層の論理ネットワーク
- 論理ネットワークは、仮想環境の各層に異なる影響を及ぼします。データセンター層
論理ネットワークはデータセンターレベルで定義されます。各データセンターには、デフォルトで
ovirtmgmt
管理ネットワークがあります。これ以外の論理ネットワークはオプションですが、作成することをお勧めします。仮想マシンのネットワーク とカスタムの MTU はデータセンターレベルで設定できます。データセンターに定義された論理ネットワークは、その論理ネットワークを使用するクラスターにも追加する必要があります。クラスター層論理ネットワークは、データセンターから提供され、そのネットワークを使用するクラスターに追加する必要があります。デフォルトでは、各クラスターは管理ネットワークに接続されます。オプションとして、クラスターの親データセンターに定義されたクラスター論理ネットワークに追加することもできます。必須論理ネットワークがクラスターに追加された場合は、クラスター内の各ホストに対して必須論理ネットワークを実装する必要があります。必要に応じて、任意の論理ネットワークをホストに追加できます。
ホスト層仮想マシン論理ネットワークは、該当するネットワークインターフェースに関連付けられたソフトウェアブリッジデバイスとしてクラスター内の各ホストに実装されます。仮想マシンの論理ネットワーク以外のネットワークでは、関連付けられたブリッジは存在せず、ホストのネットワークインターフェースに直接関連付けられます。Red Hat Enterprise Virtualization 環境にホストを追加すると、そのホストのネットワークデバイスの 1 つを使用して管理ネットワークがブリッジとして実装されます。クラスターに追加されたその他の必須論理ネットワークは、クラスターに対して動作するよう各ホスト上のネットワークインターフェースに関連付ける必要があります。
仮想マシン層論理ネットワークは、物理マシンに対してネットワークを提供するのと同じ方法で、仮想マシンに提供することができます。仮想マシンの仮想 NIC は、仮想マシンを実行しているホストに実装された任意の仮想マシン論理ネットワークに接続できます。仮想マシンは、接続された論理ネットワークで利用可能な任意の他のデバイスまたは接続先に接続できます。
例1.1 管理ネットワーク
Red Hat Enterprise Virtualization Manager インストール時には、ovirtmgmt
と言う名前の管理用論理ネットワークが自動的に作成されます。ovirtmgmt
ネットワークは Red Hat Enterprise Virtualization Manager とホスト間の管理トラフィック専用です。この他に特殊目的のブリッジが設定されていない場合は、ovirtmgmt
が全トラフィックのデフォルトブリッジになります。
1.7. データセンター
- ストレージコンテナー は、ストレージドメインの接続情報など、ストレージタイプおよびストレージドメインに関する情報を格納します。ストレージはデータセンターに対して定義され、そのデータセンター内の全クラスターが使用可能です。1 つのデータセンター内のホストクラスターはすべて同じストレージドメインにアクセスできます。
- ネットワークコンテナーは、データセンターの論理ネットワークに関する情報を格納します。これには、ネットワークアドレス、VLAN タグ、STP サポートなどの情報が含まれます。論理ネットワークはデータセンターに対して定義され、オプションとしてクラスターレベルで実装されます。
- クラスターコンテナー は、クラスターを格納します。クラスターとは、AMD または Intel のプロセッサーの互換性があるプロセッサーコアを搭載したホストのグループのことです。クラスターはマイグレーションドメインであり、クラスター内の任意のホストに仮想マシンをライブマイグレーションすることができますが、別のクラスターのホストには移行できません。単一のデータセンターに複数のクラスターを格納し、各クラスターを複数のホストで構成することができます。
第2章 ストレージ
2.1. ストレージドメインの概要
2.2. ストレージドメインをバッキングするストレージのタイプ
- ファイルベースのストレージ
- Red Hat Enterprise Virtualization がサポートするファイルベースのストレージタイプには、NFS とホストのローカルストレージがあります。
注記
POSIX 準拠ファイルシステムをストレージドメインとして使用することが可能ですが、NFS 以外はサポートされていません。ファイルベースのストレージは、Red Hat Enterprise Virtualization 環境の外部で管理されます。NFS ストレージは、Red Hat Enterprise Linux NFS サーバーまたはその他のサードパーティー製 NAS サーバーで管理されます。Red Hat Enterprise Virtualization ホストは、独自のローカルストレージファイルシステムを管理することができます。 - ブロックベースのストレージ
- ブロックストレージは、未フォーマットのブロックデバイスを使用します。ブロックデバイスは LVM (論理ボリュームマネージャー) により ボリュームグループ に集約されます。LVM のインスタンスは全ホストで実行され、各 LVM インスタンスは他のホストで実行している LVM インスタンスを認識しません。VDSM は、ボリュームグループの変更をスキャンすることにより、クラスター化のロジックを LVM 上に追加します。変更が検出されると、VDSM はボリュームグループ情報をリフレッシュするよう各ホストに指示して、それらのホストを更新します。ホストは、ボリュームグループを論理ボリュームに分割し、論理ボリュームのメタデータをディスクに書き込みます。既存のストレージドメインにストレージ容量が追加された場合には、Red Hat Enterprise Virtualization Manager は各ホストの VDSM を使用してボリュームグループ情報を最新の状態に更新します。論理ユニット番号 (LUN) は個別のブロックデバイスです。LUN への接続には、サポートされているブロックストレージプロトコル (iSCSI、FCoE、SAS のいずれか) を使用することができます。Red Hat Enterprise Virtualization Manager は、LUN へのソフトウェアの iSCSI 接続を管理します。その他すべてのブロックストレージ接続は、Red Hat Enterprise Virtualization 環境外で管理されます。論理ボリュームの作成、拡張、削除や新規 LUN の追加など、ブロックベースのストレージ環境における変更は、専用に選択された Storage Pool Manager と呼ばれるホストの LVM によって処理されます。この変更は、VDSM によって同期され、クラスター内の全ホストにわたって更新されます。
2.3. ストレージドメインタイプ
- データストレージドメイン には、Red Hat Enterprise Virtualization 環境の全仮想マシンのハードディスクイメージを格納します。ディスクイメージには、インストールされているオペレーティングシステム、仮想マシンに保管されているデータ、仮想マシンによって生成されたデータなどが含まれる場合があります。データストレージドメインは、NFS、iSCSI、FCP、GlusterFS、POSIX 準拠のストレージをサポートしています。データドメインは、複数のデータセンター間では共有できません。また、データセンターとデータストレージドメインは、同じプロトコルを使用する必要があります (例: いずれも iSCSI ベースにする必要があるなど) 。
- エクスポートストレージドメイン は、データセンター間で移動するハードディスクイメージや仮想マシンテンプレート用の一時的なストレージを提供します。また、エクスポートストレージドメインは、仮想マシンのバックアップコピーを格納します。エクスポートストレージドメインは NFS ストレージをサポートしています。単一のエクスポートストレージドメインに複数のデータセンターがアクセスすることが可能ですが、一度に使用できるのは 1 つのデータセンターのみです。
- ISO ストレージドメイン は、イメージとも呼ばれる ISO ファイルを格納します。ISO ファイルは物理 CD/DVD の代わりとなります。Red Hat Enterprise Virtualization 環境で一般的な ISO ファイルのタイプには、オペレーティングシステムのインストールディスク、アプリケーションのインストールディスク、ゲストエージェントのインストールディスクなどがあります。物理ディスクをディスクドライブに挿入して起動するのと同じように、これらのイメージを仮想マシンにアタッチして起動することができます。ISO ストレージドメインにより、データセンター内の全ホストが ISO を共有できるため、物理的な光学メディアを用意する必要性がなくなります。
2.4. 仮想マシンのディスクイメージのストレージ形式
- QCOW2 形式の仮想マシンストレージ
- QCOW2 は、仮想マシンのディスクイメージ用のストレージフォーマットです。QCOW は QEMU Copy On Write の略です。QCOW2 フォーマットは、論理/物理ブロック間のマッピングを追加することにより、仮想層から物理ストレージ層を分離します。各論理ブロックはその物理オフセットにマッピングされます。このマッピングによりストレージのオーバーコミットと仮想マシンのスナップショットが可能となり、各 QCOW ボリュームが配下のディスクイメージに加えられた変更のみを表示します。最初のマッピングは全論理ブロックからバッキングファイルまたはボリューム内のオフセットをポイントします。仮想マシンがスナップショットの後にデータを QCOW2 ボリュームに書き込むと、対象のブロックはバッキングボリュームから読み込まれ、新たな情報で修正されてから、新しいスナップショット QCOW2 ボリュームに書き込まれます。この後にマッピングが新たな場所をポイントするように更新されます。
- RAW
- RAW ストレージ形式は、QCOW2 よりもパフォーマンス面で優れており、RAW 形式で保管されている仮想マシンディスクイメージにはフォーマッティングが適用されません。RAW 形式で保管されているディスクイメージ上の仮想マシンデータの操作には、ホストからの追加処理は必要ありません。仮想マシンが仮想ディスク内の特定のオフセットにデータを書き込むと、その I/O は、バッキングファイルまたは論理ボリュームの同じオフセットに書き込まれます。外部で管理されている、ストレージアレイからのシンプロビジョニングされた LUN を使用していない限り、RAW 形式では、定義されたイメージの全領域が事前割り当て済みである必要があります。
2.5. 仮想マシンのディスクイメージ用ストレージの割り当てポリシー
- 事前割り当てストレージ
- 仮想マシンのディスクイメージに必要なストレージはすべて、その仮想マシンの作成前に割り当てられます。仮想マシン用に 20 GB のディスクイメージが作成された場合は、そのディスクイメージは 20 GB のストレージドメイン容量を使用します。事前に割り当てられたディスクイメージは、拡張できません。ストレージを事前に割り当てておくと、ランタイム中にはストレージ割り当てが行われないため、書き込み時間が短縮されますが、柔軟性が犠牲になります。このようなストレージ割り当ての場合は、Red Hat Enterprise Virtualization Manager がストレージをオーバーコミットする能力が低くなります。事前割り当てストレージは、ストレージのレイテンシーに対応しにくい I/O タスクを集中的に処理する仮想マシンに推奨されます。通常、サーバー仮想マシンがこのような条件に該当します。
注記
ストレージバックエンドによって提供されるシンプロビジョニング機能を使用している場合でも、仮想マシン用にストレージをプロビジョニングする際に管理ポータルから事前割り当てストレージを選択する必要があります。 - スパース割り当てストレージ
- 仮想マシンのディスクイメージの上限サイズは、仮想マシンの作成時に設定されます。最初は、ディスクイメージはストレージドメインの容量を使用しませんが、仮想マシンがデータをディスクに書き込むと、上限に達するまで使用量は増えていきます。ディスクイメージ内のデータが削除されても、ストレージドメインに容量は戻りません。スパース割り当てのストレージは、ストレージの遅延に対してある程度の耐性があり、集中度が低/中程度の I/O タスクに使用する仮想マシンに適しています。通常、デスクトップ仮想マシンがこの条件に該当します。
注記
シンプロビジョニング機能がストレージバックエンドによって提供される場合には、このオプションを推奨のシンプロビジョニング実装として使用すべきです。ストレージはグラフィカルユーザーインターフェースから事前割り当てとしてプロビジョニングし、バックエンドソリューションにより提供されるシンプロビジョニング機能をそのまま活用します。
2.6. Red Hat Enterprise Virtualization におけるストレージメタデータバージョン
- V1 メタデータ (Red Hat Enterprise Virtualization 2.x シリーズ)各ストレージドメインには、そのストレージドメイン自体の構造と、仮想マシンディスクイメージをバッキングしている全物理ボリュームの名前を記述したメタデータが格納されています。マスタードメインには追加で、ストレージプール内の全ドメインと物理ボリューム名のメタデータが格納されています。このメタデータの合計サイズの上限は 2 KB で、プール内に格納できるストレージドメイン数が制限されています。テンプレートおよび仮想マシンベースイメージは読み取り専用です。V1 メタデータは、NFS、iSCSI、FC ストレージドメインに適用可能です。
- V2 メタデータ (Red Hat Enterprise Virtualization 3.0)ストレージドメインとプールのメタデータはすべて、論理ボリュームに書き込まれるのではなく、論理ボリュームタグとして保管されます。仮想マシンのディスクボリュームに関するメタデータは、ドメイン上の論理ボリュームに保管されます。物理ボリューム名は、メタデータには含まれなくなりました。テンプレートおよび仮想マシンベースイメージは読み取り専用です。V2 メタデータは、iSCSI および FC ストレージドメインに適用可能です。
- V3 metadata (Red Hat Enterprise Virtualization 3.1 以降)ストレージドメインとプールのメタデータはすべて、論理ボリュームに書き込まれるのではなく、論理ボリュームタグとして保管されます。仮想マシンのディスクボリュームに関するメタデータは、ドメイン上の論理ボリュームに保管されます。仮想マシンおよびテンプレートのベースイメージは、読み取り専用ではなくなりました。この変更により、ライブスナップショット、ライブストレージマイグレーション、スナップショットからのクローン作成が可能となりました。英語以外の言語で記述されたボリューム名に対する Unicode メタデータのサポートが追加されました。V3 メタデータは、NFS、GlusterFS、POSIX、iSCSI、FC ストレージドメインに適用可能です。
2.7. Red Hat Enterprise Virtualization におけるストレージドメインの自動リカバリー
2.8. Storage Pool Manager
leases
と呼ばれる特殊な論理ボリュームに書き込まれます。データドメインの構造に関するメタデータは、metadata
と呼ばれる特殊な論理ボリュームに書き込まれます。leases
論理ボリュームは、metadata
論理ボリュームへの変更を防ぎます。
spmStart
コマンドを実行します。これにより、そのホスト上の VDSM はストレージセントリックリースの引き継ぎを試みます。ホストが引き継ぎに成功すると、SPM となり、Red Hat Enterprise Virtualization Manager により新たなホストが SPM ロールを引き継ぐように要求されるまで、ストレージセントリックリースを維持します。
- SPM ホストがマスターストレージドメインにはアクセスできるが、全ストレージドメインにアクセスできない場合。
- SPM ホストがストレージへの接続を失ったために、リースを更新できない場合、またはリース容量が満杯なために書き込み操作を実行できない場合。
- SPM ホストがクラッシュした場合。
図2.1 Storage Pool Manager による構造メタデータの排他的書き込み
2.9. Storage Pool Manager の選択プロセス
- 「getSPMstatus」コマンド: Manager が VDSM を使用して、SPM のステータスが最後に割り当てられたホストをチェックすると、「SPM」、「Contending」、「Free」のいずれかの値が返されます。
- ストレージドメインのメタデータボリュームには、SPM ステータスを最後に割り当てられたホストが記載されています。
- ストレージドメインのメタデータボリュームには、SPM ステータスが最後に割り当てられたホストのバージョンの情報が含まれています。
2.10. Red Hat Enterprise Virtualization の排他的なリソースおよび Sanlock
2.11. シンプロビジョニングとストレージのオーバーコミット
注記
2.12. 論理ボリュームの拡張
第3章 ネットワーク
3.1. ネットワークアーキテクチャー
3.2. ネットワークの基礎用語
- ネットワークインターフェースコントローラー (NIC)
- ブリッジ
- ボンディング
- 仮想 NIC (VNIC)
- 仮想 LAN (VLAN)
3.3. ネットワークインターフェースコントローラー
3.4. ブリッジ
3.5. ボンディング
重要
ボンディングモード
モード 0 (round-robin ポリシー)
- このモードは、ネットワークインターフェースカードを順番に使用してパケットを送信します。パケットの送信は、ボンディングで最初に利用可能なネットワークインターフェースカードから、最後に利用可能なネットワークインターフェースカードまでループで使用をくり返します。それ以降のループでもすべて、最初に利用可能なネットワークインターフェースカードから使用されます。モード 0 では、ネットワークに対して耐障害性や負荷分散が提供されていますが、ブリッジと併用できないため、仮想マシンの論理ネットワークとの互換性はありません。
モード 1 (active-backup ポリシー)
- このモードは、すべてのネットワークインターフェースカードをバックアップ状態に設定して、1 つだけアクティブなカードを残します。アクティブなネットワークインターフェースカードで障害が発生すると、バックアップに設定されていたネットワークインターフェースカードの 1 つが、障害の発生したインターフェースに代わって、ボンディング内で唯一のアクティブインターフェースになります。1 つ以上のポートでアドレスが表示されていると、有効なネットワークインターフェースカードの MAC アドレスを反映するためにボンディングの MAC アドレスが変更された場合に混乱が生じる可能性があり、このような混乱を避ける目的で、モード 1 のボンディングの MAC アドレスは、1 つのポートだけで表示されます。モード 1 は耐障害性を提供し、Red Hat Enterprise Virtualization でサポートされています。
モード 2 (XOR ポリシー)
- このモードは、送信元と送信先の MAC アドレスの XOR (排他的理論和) をネットワークインターフェースカードのスレーブ数で除算した剰余に基づいて、パッケージの送信先のネットワークインターフェースカードを選択します。この計算により、各送信先の MAC アドレスに必ず同じネットワークインターフェースカードが選択されるようにします。モード 2 は耐障害性と負荷分散を提供し、Red Hat Enterprise Virtualization でサポートされています。
モード 3 (broadcast ポリシー)
- このモードは、全パッケージを全ネットワークインターフェースカードに送信します。モード 3 は耐障害性を提供し、Red Hat Enterprise Virtualization でサポートされています。
モード 4 (IEEE 802.3ad ポリシー)
- このモードは、任意の集約グループを作成し、このグループ内のインターフェースが速度およびデュプレックスの設定を共有します。モード 4 は、IEEE 802.3ad 仕様に従ってアクティブな集約グループ内のネットワークインターフェースカードをすべて使用します。このモードも、Red Hat Enterprise Virtualization でサポートされています。
モード 5 (adaptive transmit load balancing ポリシー)
- このモードは、ボンディング内の各ネットワークインターフェースカードの負荷に応じて発信トラフィックが分散され、現在のネットワークインターフェースカードが全着信トラフィックを受信するようにします。トラフィックの受信に割り当てられているネットワークインターフェースカードに障害が発生した場合には、着信トラフィックの受信ロールは別のネットワークインターフェースカードに割り当てられます。モード 5 はブリッジと併用できないため、仮想マシンの論理ネットワークとの互換性はありません。
モード 6 (adaptive load balancing ポリシー)
- このモードは、モード 5 (adaptive transmit load balancing ポリシー) に IPv4 トラフィックの受信負荷分散を組み合わせたポリシーで、特別なスイッチ要件はありません。ARP ネゴシエーションを使用して受信負荷の分散を行います。モード 6 はブリッジと併用できないため、仮想マシンの論理ネットワークとの互換性はありません。
3.6. ボンディング用のスイッチ設定
重要
3.7. 仮想ネットワークインターフェースカード
libvirt
により、仮想ネットワークインターフェースカードに PCI アドレスが割り当てられます。次に、この MAC アドレスと PCI アドレスを使用して、仮想マシンの仮想ネットワークインターフェースカードの名前 (例: eth0
) が取得されます。
ip addr show
を実行すると、そのホスト上の仮想マシンに関連付けられた仮想ネットワークインターフェースカードすべてが表示されます。また、論理ネットワークを強化するために作成されたネットワークブリッジや、ホストで使用されるネットワークインターフェースカードなどが表示されます。
[root@rhev-host-01 ~]# ip addr show 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 00:21:86:a2:85:cd brd ff:ff:ff:ff:ff:ff inet6 fe80::221:86ff:fea2:85cd/64 scope link valid_lft forever preferred_lft forever 3: wlan0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN qlen 1000 link/ether 00:21:6b:cc:14:6c brd ff:ff:ff:ff:ff:ff 5: ;vdsmdummy;: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN link/ether 4a:d5:52:c2:7f:4b brd ff:ff:ff:ff:ff:ff 6: bond0: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff 7: bond4: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff 8: bond1: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff 9: bond2: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff 10: bond3: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff 11: ovirtmgmt: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN link/ether 00:21:86:a2:85:cd brd ff:ff:ff:ff:ff:ff inet 10.64.32.134/23 brd 10.64.33.255 scope global ovirtmgmt inet6 fe80::221:86ff:fea2:85cd/64 scope link valid_lft forever preferred_lft forever
lo
) 1 つ、Ethernet デバイス 1 つ (eth0
)、ワイヤレスデバイス 1 つ (wlan0
)、VDSM ダミーデバイス 1 つ (;vdsmdummy;
)、ボンディングデバイス 5 つ (bond0
、bond4
、bond1
、bond2
、bond3
)、ネットワークブリッジ (ovirtmgmt
) 1 つ) がコンソールに出力されます。
brctl show
コマンドで表示することができます。
[root@rhev-host-01 ~]# brctl show bridge name bridge id STP enabled interfaces ovirtmgmt 8000.e41f13b7fdd4 no vnet002 vnet001 vnet000 eth0
brctl show
コマンドのコンソール出力から、virtio 仮想ネットワークインターフェースカードが ovirtmgmt
ブリッジのメンバーであることが分かります。仮想ネットワークインターフェースカードが関連付けられている仮想マシンはすべて、ovirtmgmt 論理ネットワークに接続されています。eth0
のネットワークインターフェースカードは ovirtmgmt
ブリッジのメンバーでもあります。eth0
デバイスは、ホスト外部への接続を提供するスイッチに接続されています。
3.8. 仮想 LAN (VLAN)
3.9. ネットワークラベル
ネットワークラベルの関連付け
- ラベルを論理ネットワークにアタッチすると、その論理ネットワークは、その特定のラベルが付いた物理ホストネットワークインターフェースに自動的に関連付けられます。
- ラベルを物理ホストネットワークインターフェースにアタッチすると、その特定のラベルが付いた論理ネットワークは、その物理ホストネットワークインターフェースに自動的に関連付けられます。
- 論理ネットワークまたは物理ホストネットワークインターフェースにアタッチされたラベルを変更すると、ラベルを削除して新規追加したのと同じように機能し、対象の論理ネットワークまたは物理ホストネットワークインターフェースの間の関連付けが更新されます。
ネットワークラベルとクラスター
- ラベル付きの論理ネットワークがクラスターに追加され、同じラベルが付いた物理ホストネットワークインターフェースがそのクラスター内にある場合には、論理ネットワークはその物理ホストネットワークインターフェースに自動的に追加されます。
- ラベル付きの論理ネットワークがクラスターからデタッチされ、同じラベルが付いた物理ホストネットワークインターフェースがそのクラスター内にある場合には、論理ネットワークはその物理ホストネットワークインターフェースから自動的に削除されます。
ネットワークラベルとロール付き論理ネットワーク
- ラベル付き論理ネットワークがディスプレイネットワークまたは移行ネットワークとして機能するよう割り当てられている場合には、その論理ネットワークは、IP アドレスを割り当てることができるように、物理ホストネットワークインターフェース上で DHCP を使用して設定されます。
3.10. クラスターネットワーク
- クラスター
- 論理ネットワーク
図3.1 クラスター内のネットワーク
3.11. 論理ネットワーク
ovirtmgmt
ネットワークは、Manager とホストの間で管理を目的とした通信に使用するために Red Hat Enterprise Virtualization のインストール中にデフォルトで作成されます。論理ネットワークは、要件が同じようなネットワークトラフィックをグループ化し、まとめて使用するのが一般的な用途です。管理者は多くの場合には、ストレージネットワークとディスプレイネットワークを作成して、各タイプのトラフィックを分離することによって、最適化やトラブルシューティングを行います。
- 仮想マシンネットワークトラフィックを伝送する論理ネットワーク
- 仮想マシンネットワークトラフィックを伝送しない論理ネットワーク
- 任意の論理ネットワーク
- 必須ネットワーク
図3.2 ovirtmgmt 論理ネットワーク
例3.1 論理ネットワークの使用例
ovirtmgmt
をすべてのネットワーク機能に使用していましたが、Pink 担当のシステム管理者は、Web サーバーのテスト用にネットワークを分離するため Web サーバーと一部のクライアント仮想マシンを別の論理ネットワーク (network_testing
) に配置することにしました。
network_testing
ネットワークに追加して、クラスター内の全ホストで対象のブリッジを設定する必要があるためです。次に管理者は、White をアクティブ化して実行中の仮想マシンを Red から移行し、同じプロセスを Red で再度実行します。
network_testing
論理ネットワークが White と Red の両方に適用されると、network_testing
論理ネットワークは Operational に変わります。これで仮想マシンがこの論理ネットワークを使用する準備が整ったことになります。
3.12. 必須ネットワーク、任意ネットワーク、仮想マシンネットワーク
注記
3.13. 仮想マシンの接続性
ovirtmgmt
論理ネットワーク上にある場合には、その仮想 NIC は仮想マシンを実行しているホストの ovirtmgmt
ブリッジのメンバーとして追加されます。
3.14. ポートミラーリング
- ポートミラーリングが有効になっているプロファイルを持つ仮想 NIC のホットプラグは、サポートされません。
- 仮想 NIC プロファイルが仮想マシンにアタッチされている場合は、ポートミラーリングは変更できません。
重要
3.15. ホストのネットワーク構成
- ブリッジと NIC の構成
- ブリッジ、VLAN、NIC の構成
- ブリッジ、ボンディング、VLAN の構成
- 複数のブリッジ、複数の VLAN、NIC の構成
3.16. ブリッジの構成
図3.3 ブリッジと NIC の構成
ovirtmgmt
ブリッジは、この構成の一例です。インストール時には、Red Hat Enterprise Virtualization Manager が VDSM
をホスト上にインストールします。VDSM
のインストールプロセスで ovirtmgmt
ブリッジが作成されます。その後に ovirtmgmt
ブリッジがホストの IP
アドレスを取得して、そのホストで管理のための通信が可能となります。
3.17. VLAN の構成
図3.4 ブリッジ、VLAN、NIC の構成
3.18. ブリッジとボンディングの構成
図3.5 ブリッジ、ボンディング、NIC の構成
3.19. 複数のブリッジ、複数の VLAN、NIC の構成
図3.6 複数のブリッジ、複数の VLAN、NIC の構成
3.20. 複数のブリッジ、複数の VLAN、ボンディングの構成
図3.7 ボンディング接続を使用した複数のブリッジ、複数の VLAN、複数の NIC
第4章 電源管理
4.1. 電源管理とフェンシングについて
4.2. Red Hat Enterprise Virtualization におけるプロキシーを使用した電源管理
- フェンシングが必要なホストと同じクラスター内にある任意のホスト
- フェンシングが必要なホストと同じデータセンター内にある任意のホスト
4.3. 電源管理
- American Power Conversion (apc)
- Bladecenter
- Cisco Unified Computing System (cisco_ucs)
- Dell Remote Access Card 5 (drac5)
- Dell Remote Access Card 7 (drac7)
- Electronic Power Switch (eps)
- HP BladeSystem (hpblade)
- Integrated Lights Out (ilo、ilo2、ilo3、ilo4)
- Intelligent Platform Management Interface (ipmilan)
- Remote Supervisor Adapter (rsa)
- rsb
- Western Telematic, Inc (wti)
注記
- Status: ホストのステータスを確認します。
- Start: ホストの電源を投入します。
- Stop: ホストの電源を切断します。
- Restart: ホストを再起動します。実際には、stop、wait、status、start、wait、status として実装されます。
4.4. フェンシング
4.5. ホストのソフトフェンシング
- 初回のネットワーク障害発生時には、ホストのステータスが「connecting」に変わります。
- Manager は次に VDSM に対してステータス確認を 3 回試みるか、ホストの負荷によって決定される時間が経過するのを待ちます。この時間は、[TimeoutToResetVdsInSeconds (デフォルトは 60 秒)] + [DelayResetPerVmInSeconds (デフォルトは 0.5 秒)] * [ホスト上で実行中の仮想マシン数] + [DelayResetForSpmInSeconds (デフォルトは 20 秒)] * [1 (ホストが SPM として稼働している場合) または 0 (ホストが SPM としては稼働していない場合)] の計算式で決定されます。VDSM が応答する時間を最大限にするために、Manager は上記のオプション (VDSM のステータス確認を 3 回試みる、または上記の計算式で決定される時間の経過を待つ) でいずれか長い方を選択します。
- この時間が経過してもホストが応答しない場合には、SSH を介して
vdsm restart
が実行されます。 vdsm restart
を実行しても、ホストと Manager 間の接続が再度確立されない場合には、ホストのステータスがNon Responsive
に変わります。電源管理が設定されている場合には、フェンシングは外部のフェンスエージェントによって引き継がれます。
注記
4.6. 複数の電源管理フェンスエージェントの使用
- 同時: ホストが停止するには、プライマリーエージェントとセカンダリーエージェントの両方が停止のコマンドに応答する必要があります。一方のエージェントが起動のコマンドに応答すると、ホストが起動します。
- 順次: ホストの停止または起動には、プライマリーエージェントが最初に使用され、それが失敗した場合にセカンダリーエージェントが使用されます。
第5章 負荷分散、スケジューリング、移行
5.1. 負荷分散、スケジューリング、移行
- 仮想マシンの起動: リソースをチェックして、仮想マシンを起動するホストを決定します。
- 仮想マシンの移行: リソースをチェックして、移行先となる適切なホストを決定します。
- 経過時間: 一定の間隔でリソースをチェックし、各ホストの負荷が、クラスター負荷分散ポリシーに適合しているかどうかを確認します。
5.2. 負荷分散ポリシー
5.3. 負荷分散ポリシー: VM_Evenly_Distributed
5.4. 負荷分散ポリシー: Evenly_Distributed
5.5. 負荷分散ポリシー: Power_Saving
5.6. 負荷分散ポリシー: None
5.7. 高可用性仮想マシンの確保
5.8. スケジューリング
5.9. マイグレーション
各仮想マシンの移行には、帯域幅 30 Mbps の制限が課せられます。一定の時間が経過すると移行はタイムアウトになります。タイムアウトは 300 秒、または仮想マシンのメモリー (MB) を 2048 Mb で除算して 300 秒で乗算した値のいずれか大きい方となります。
第6章 ディレクトリーサービス
6.1. ディレクトリーサービス
- ポータルへのログイン (ユーザー、パワーユーザー、管理者、REST API)
- クエリーによるユーザー情報の表示
- ドメインへの Manager の追加
6.2. ローカル認証: 内部ドメイン
admin@internal
ユーザーの 1 人しかユーザーがいない点も外部ドメインとも異なります。このアプローチを使用して、初回の認証を行うことにより、完全に機能するディレクトリーサーバーなしに Red Hat Enterprise Virtualization を評価することができるのに加えて、外部ディレクトリーサービスに伴う問題のトラブルシューティングに管理アカウントを確実に使用できるようになります。
6.3. GSSAPI を使用したリモート認証
engine-manage-domains
ツールを使用して Red Hat Enterprise Virtualization Manager の設定を行う必要があります。これには、システムをドメインに参加させるのに十分な権限を使用して、Manager にディレクトリー内のアカウントの認証情報を提供する必要があります。ドメインに追加した後には、Red Hat Enterprise Virtualization Manager がディレクトリーサーバーに対してパスワードを使用してドメインユーザーの認証を行うことが可能となります。Manager は Simple Authentication and Security Layer (SASL) と呼ばれるフレームワークを使用します。このフレームワークは Generic Security Services Application Program Interface (GSSAPI) を使用してユーザーのアイデンティティーをセキュアに検証し、そのユーザーに提供されている承認レベルを確認します。
図6.1 GSSAPI 認証
第7章 テンプレートとプール
7.1. テンプレートとプール
7.2. テンプレート
7.3. プール
例7.1 プールの使用例
第8章 仮想マシンのスナップショット
8.1. スナップショット
注記
- 作成: 仮想マシンの初回のスナップショットを作成する操作
- プレビュー: スナップショットが作成された時点までシステムデータを復元するかどうかを判断するためにスナップショットをプレビューする操作
- 削除: 必要がなくなった復元ポイントを削除する操作
8.2. Red Hat Enterprise Virtualization でのライブスナップショット
qemu-guest-agent
をインストールして、スナップショット前の休止を有効にできます。
8.3. スナップショットの作成
図8.1 初回のスナップショット作成
図8.2 追加スナップショットの作成
8.4. スナップショットのプレビュー
図8.3 スナップショットのプレビュー
8.5. スナップショットの削除
Delete_snapshot
というスナップショットが 200 GB で、Next_snapshot
という後続のスナップショットが 100 GB とします。Delete_snapshot
が削除されると、サイズ 200 GB の新規論理ボリュームが作成され、一時的に Snapshot_merge
という名前が指定されます。最終的に Snapshot_merge
のサイズは、Delete_snapshot
と Next_snapshot
の両方をマージした内容を収容できるように 300 GB に調節されます。次に、Snapshot_merge
の名前を Next_snapshot
に変更できるように、Next_snapshot
は Delete_me_too_snapshot
という名前に変更されます。そして最終的に、Delete_snapshot
と Delete_me_too_snapshot
が削除されます。
図8.4 スナップショットの削除
第9章 ハードウェアのドライバーとデバイス
9.1. 仮想ハードウェア
- エミュレーションデバイス
- エミュレーションデバイスは、仮想デバイス とも呼ばれ、完全にソフトウェア内に存在しています。エミュレーションデバイスドライバー とは、ホスト上で実行しているオペレーティングシステム (ソースデバイスを管理) とゲストで実行しているオペレーティングシステム間の変換層です。デバイスレベルにおけるエミュレーションデバイスとの指示のやりとりは、Hypervisor によってインターセプトされて、変換されます。Linux カーネルで認識される、同じタイプのエミュレーションデバイスはいずれも、エミュレーションドライバーのバッキングソースデバイスとして使用可能です。
- 準仮想化デバイス
- 準仮想化デバイスには、ゲストオペレーティングシステムにデバイスドライバーをインストールして、ホストマシン上の Hypervisor と通信するためのインターフェースを提供する必要があります。このインターフェースを使用すると、ディスク I/O などの従来集中的なタスクを仮想化環境外で実行することができます。このような方法による仮想化固有のオーバーヘッド低減は、ゲストオペレーティングシステムのパフォーマンスを物理ハードウェア上で直接実行している場合のパフォーマンスに近づけることを目的としています。
- 物理共有デバイス
- 一部のハードウェアプラットフォームでは、仮想ゲストが直接ハードウェアデバイスやコンポーネントにアクセスすることができます。仮想化においてこのプロセスは、パススルー または デバイス割り当て として知られています。パススルーにより、デバイスはゲストオペレーティングシステムに物理的にアタッチされているように表示され、動作します。
9.2. Red Hat Enterprise Virtualization における不変のデバイスアドレス
9.3. CPU (Central Processing Unit)
注記
9.4. システムデバイス
- ホストのブリッジ
- ISA ブリッジおよび USB ブリッジ (USB ブリッジと ISA ブリッジは同じデバイス)
- グラフィックカード (Cirrus または qxl のいずれかのドライバーを使用)
- メモリーバルーンデバイス
9.5. ネットワークデバイス
e1000
ネットワークインターフェースコントローラーは、仮想 Intel PRO/1000 (e1000) をゲストに公開します。virtio
ネットワークインターフェースコントローラーは、準仮想化ネットワークデバイスをゲストに公開します。rtl8139
ネットワークインターフェースコントローラーは、仮想Realtek Semiconductor Corp RTL8139
をゲストに公開します。
9.6. グラフィックデバイス
- ac97 は
Cirrus CLGD 5446 PCI VGA
カードをエミューレーションします。 - vga は、BochsVESA 拡張機能 (ハードウェアレベルで、全非標準モードを含む) が付いたダミー VGA カードをエミュレーションします。
9.7. ストレージデバイス
IDE
ドライバーは、エミュレーションブロックデバイスをゲストに公開します。エミュレーションIDE
ドライバーを使用して、仮想IDE
ハードディスクおよび仮想IDE
CD-ROM ドライブの任意の組み合わせ (最大 4 つ) を各仮想化ゲストにアタッチすることができます。エミュレーションIDE
ドライバーは、仮想 DVD-ROM ドライブの提供にも使用します。- VirtIO ドライバーは、準仮想化ブロックデバイスをゲストに公開します。準仮想化ブロックドライバーとは、仮想化ゲストにアタッチされた Hypervisor がサポートする全ストレージデバイス用のドライバーです (エミュレーションが必要なフロッピーディスクドライブは除く)。
9.8. サウンドデバイス
- ac97 は、
Intel 82801AA AC97 Audio
対応のサウンドカードをエミュレーションします。 - es1370 は、
ENSONIQ AudioPCI ES1370
サウンドカードをエミュレーションします。
9.9. シリアルドライバー
virtio-serial
) は、バイトストリーム指向の文字ストリームドライバーです。準仮想化シリアルドライバーは、ネットワークが提供されていないもしくは使用できない場合に、ホストのユーザー領域とゲストのユーザー領域を連結するシンプルな通信インターフェースを提供します。
9.10. バルーンドライバー
第10章 最小要件および技術的な制限事項
10.1. 最小要件およびサポート制限事項
10.2. データセンターの制限事項
表10.1 データセンターの制限事項
項目 | 制限 |
---|---|
ストレージドメイン数 |
|
ホスト数 |
|
10.3. クラスターの制限事項
- 管理対象の Hypervisor がすべてクラスター内にあること。
- クラスター内の全管理対象 Hypervisor の CPU タイプが同じであること。Intel CPU と AMD CPU は、同一のクラスター内では共存できません。
注記
10.4. ストレージドメインの制限事項
表10.2 ストレージドメインの制限事項
項目 | 制限 |
---|---|
ストレージタイプ |
|
論理ユニット番号 (LUN) |
|
論理ボリューム (LV)
|
Red Hat Enterprise Virtualization では、論理ボリュームは仮想マシン、テンプレート、および仮想マシンのスナップショット用の仮想ディスクを指します。
この制限の根本的な原因は、LVM メタデータのサイズです。論理ボリュームの数が増加すると、その論理ボリュームに関連付けられている LVM メタデータも増加します。このメタデータのサイズが 1 MB 超過すると、新規ディスクやスナップショットの作成などのプロビジョニング操作のパフォーマンスが低下し、QCOW ディスク実行時の論理ボリュームのシンプロビジョニングのための lvextend 操作の実行時間が長くなります。
|
注記
10.5. Red Hat Enterprise Virtualization Manager の制限事項
表10.3 Red Hat Enterprise Virtualization Manager の制限事項
項目 | 制限 |
---|---|
RAM |
|
PCI デバイス |
|
ストレージ |
|
注記
10.6. Hypervisor の要件
表10.4 Red Hat Enterprise Virtualization Hypervisor の要件およびサポート制限事項
項目 | サポート制限事項 |
---|---|
CPU |
|
RAM |
|
ストレージ |
サポートされている Hypervisor 内部ストレージの最小容量は、以下の一覧に示した容量の合計です。
この計算は、Hypervisor インストールの 最小限の ストレージ要件である点に注意してください。これよりも大きなストレージ容量を用いた、デフォルトの割り当てを使用することを推奨します。
|
PCI デバイス |
|
重要
Virtualization hardware is unavailable. (No virtualization hardware was detected on this system)
- Hypervisor の起動画面で任意のキーを押し、一覧から Boot または Boot with serial console のエントリーを選択します。Tab を押して選択したオプションのカーネルパラメーターを編集します。最後のカーネルパラメーターの後ろに 空白 があることを確認した上で
rescue
パラメーターを追記します。 - Enter を押してレスキューモードで起動します。
- プロンプトが表示されたら、次のコマンドを実行して、ご使用のプロセッサーに仮想化拡張があることと、仮想化拡張機能が有効化されていることを確認します。
# grep -E 'svm|vmx' /proc/cpuinfo
何らかの出力が表示されれば、プロセッサーはハードウェアの仮想化が可能です。出力が何も表示されない場合でも、ご使用のプロセッサーがハードウェア仮想化に対応している可能性があります。場合によっては、メーカーが BIOS で仮想化拡張機能を無効にしていることがあります。これに該当すると思われる場合には、メーカーが提供しているシステムの BIOS とマザーボードに関するマニュアルを参照してください。 - また、
kvm
モジュールがカーネルに読み込まれていることも確認します。# lsmod | grep kvm
出力にkvm_intel
またはkvm_amd
が含まれている場合は、kvm
ハードウェア仮想化モジュールが読み込まれており、システムが要件を満すことになります。
重要
fakeraid
デバイスへのインストールはサポートしていません。fakeraid
デバイスがある場合は、RAID モードでは実行されなくなるように再設定する必要があります。
- RAID コントローラーの BIOS にアクセスして、すべての論理ドライブを削除してください。
- コントローラーのモードを non-RAID (非 RAID) に変更します。これは、互換モードまたは JBOD モードと呼ばれる場合もあります。
10.7. ゲストの要件とサポート制限事項
表10.5 仮想ハードウェア
項目 | 制限 |
---|---|
CPU |
|
RAM |
RAM の要件は、ゲストによって異なります。各ゲストに必要な RAM の容量は、そのゲストのオペレーティングシステムの要件およびゲストの稼働中にかかる負荷によって異なります。また、数々のサポート制限事項も適用されます。
|
PCI デバイス |
ゲスト 1 台につき、最大 31 の 仮想 PCI デバイスがサポートされています。この制限に不利となるデバイスは数多くあり、その一部は必須デバイスです。PCI デバイスの制限に不利となる必須デバイスには、PCI ホストブリッジ、ISA ブリッジ、USB ブリッジ、ボードブリッジ、グラフィックカード、IDE または VirtIO のブロックデバイスが含まれます。
|
ストレージ |
ゲスト 1 台につき、最大 28 の仮想ストレージデバイスがサポートされており、3 の IDE と 25 の Virtio で構成することが可能です。
|
10.8. SPICE の制限事項
10.9. その他の参考資料
- 『Red Hat Enterprise Linux 導入ガイド』
- Red Hat Enterprise Linux のデプロイ、設定、管理に関するガイド。
- 『Red Hat Enterprise Linux DM マルチパス機能ガイド』
- Red Hat Enterprise Linux のデバイスマッパーマルチパス機能の使用方法に関するガイド。
- 『Red Hat Enterprise Linux インストールガイド』
- Red Hat Enterprise Linux のインストールに関するガイド。
- 『Red Hat Enterprise Linux ストレージ管理ガイド』
- Red Hat Enterprise Linux のストレージデバイスおよびファイルシステムの管理に関するガイド。
- 『Red Hat Enterprise Linux 仮想化管理ガイド』
- Red Hat Enterprise Linux の仮想化テクノロジーのインストール、設定、管理およびトラブルシューティングに関するガイド。
付録A 改訂履歴
改訂履歴 | |||
---|---|---|---|
改訂 3.6-5.1 | Fri 5 Feb 2016 | Red Hat Localization Services | |
| |||
改訂 3.6-5 | Fri 5 Feb 2016 | Red Hat Enterprise Virtualization Documentation Team | |
| |||
改訂 3.6-4 | Fri 11 Dec 2015 | Red Hat Enterprise Virtualization Documentation Team | |
| |||
改訂 3.6-3 | Wed 2 Dec 2015 | Red Hat Enterprise Virtualization Documentation Team | |
| |||
改訂 3.6-2 | Wed 18 Nov 2015 | Red Hat Enterprise Virtualization Documentation Team | |
| |||
改訂 3.6-1 | Mon 10 Aug 2015 | Red Hat Enterprise Virtualization Documentation Team | |
|