リモートデータベースが設定されたスタンドアロン Manager の Red Hat Virtualization のインストール
Red Hat Virtualization Manager を 1 つのサーバーにインストールし、そのデータベースを別のサーバーにインストールする方法
概要
はじめに
スタンドアロンの Manager は手動でインストールでき、カスタマイズも可能です。Red Hat Enterprise Linux マシンをインストールし、続いて設定スクリプト (engine-setup
) を実行して、Red Hat Virtualization Manager をどのように設定するか指定する必要があります。Manager を実行したら、ホストおよびストレージを追加します。仮想マシンの高可用性のためには、少なくとも 2 台のホストが必要です。
リモートの Manager データベースで Manager をインストールするには、engine-setup
を実行する前に、リモートマシンに手動でデータベースを作成してください。リモートマシンに Data Warehouse データベースをインストールするには、リモートマシンで Data Warehouse 設定スクリプト (ovirt-engine-dwh-setup
) を実行してください。このスクリプトは Data Warehouse サービスをインストールし、Data Warehouse データベースを自動的に作成することができます。
環境オプションおよび推奨される設定に関する情報は、Planning and Prerequisites Guide を参照してください。
Red Hat Virtualization の主要コンポーネント
コンポーネント名 | 説明 |
---|---|
Red Hat Virtualization Manager | 環境内のリソースを管理するグラフィカルユーザーインターフェイスと REST API を提供するサービス。Manager は、Red Hat Enterprise Linux を実行する物理マシンまたは仮想マシンにインストールされます。 |
ホスト | サポートされているホストには、Red Hat Enterprise Linux ホスト (RHEL ホスト) と Red Hat Virtualization Host (イメージベースのハイパーバイザー) の 2 つのタイプがあります。ホストは、Kernel-based Virtual Machine (KVM) テクノロジーを使用して、仮想マシンを実行するためのリソースを提供します。 |
共有ストレージ | 仮想マシンに関連付けられたデータの保管に使用するストレージサービス。 |
Data Warehouse | Manager から設定情報および統計データを収集するサービス。 |
スタンドアロンの Manager のアーキテクチャー
Red Hat Virtualization Manager は物理サーバーか、別の仮想環境でホストされている仮想マシン上で実行されます。スタンドアロンの Manager は、デプロイと管理が簡単ですが、追加の物理サーバーが 1 台必要となります。Manager は、Red Hat の High Availability Add-On などの別製品を使用して外部から管理した場合にのみ高可用性になります。
スタンドアロンの Manager 環境の最小セットアップには、以下が含まれます。
- Red Hat Virtualization Manager マシン 1 台。Manager は通常物理サーバーにデプロイされます。仮想マシン上にデプロイすることも可能ですが、その仮想マシンは別の環境でホストされていなければなりません。Manager は Red Hat Enterprise Linux 8 上で実行する必要があります。
- 仮想マシンの高可用性には、最小でホストが 2 台。Red Hat Enterprise Linux ホストまたは Red Hat Virtualization Host (RHVH) を使用することができます。VDSM (ホストエージェント) は全ホストで実行され、Red Hat Virtualization Manager との通信を円滑に行います。
- ストレージサービスを 1 つ。使用するストレージタイプに応じて、ローカルまたはリモートサーバーでホストすることができます。ストレージサービスは全ホストからアクセスできる必要があります。
図1 スタンドアロンの Manager の Red Hat Virtualization アーキテクチャー

第1章 OpenShift Container Platform インストールの概要
リモートデータベースが設定されたスタンドアロンの Manager 環境をインストールするステップは、以下のとおりです。
Red Hat Virtualization Manager をインストールおよび設定します。
- 2 つの Red Hat Enterprise Linux マシンをインストールします。1 つは Manager 用で、もう 1 つはデータベース用です。ここでは 2 番目のマシンをリモートサーバーと呼びます。
- Manager マシンをコンテンツ配信ネットワークに登録し、Red Hat Virtualization Manager のリポジトリーを有効にします。
- Manager データベースをリモートサーバーに手動で設定します。Data Warehouse の設定スクリプトにより Data Warehouse データベースを自動的に設定しない場合には、この手順を使用してデータベースを手動で設定することもできます。
-
engine-setup
を使用して Red Hat Virtualization Manager を設定します。 - Data Warehouse サービスおよびデータベースをリモートサーバーにインストールします。
- 管理ポータルに接続し、ホストおよびストレージドメインを追加します。
以下のホストタイプのいずれか、または両方を使用します。
- Manager にホストを追加 します。
ストレージドメインに使用するストレージを準備 します。以下のストレージタイプのいずれかを使用することができます。
- Manager にストレージドメインを追加 します。
環境を最新の状態に維持してください。詳細は、How do I update my Red Hat Virtualization system? を参照してください。既知の問題に対するバグ修正が頻繁にリリースされるため、ホストおよび Manager の更新タスクをスケジュール化してください。
第2章 要件
2.1. Red Hat Virtualization Manager の要件
2.1.1. ハードウェアの要件
以下に記載するハードウェアの最低要件および推奨要件は、一般的な中小規模のインストールをベースとしています。正確な要件は、デプロイメントの規模や負荷により異なります。
Red Hat Virtualization のハードウェア認定には、Red Hat Enterprise Linux のハードウェア認定が適用されます。詳細は、Does Red Hat Virtualization also have hardware certification? を参照してください。特定のハードウェア項目が Red Hat Enterprise Linux での使用に認定されているかどうかを確認するには、Red Hat 認定ハードウェア を参照してください。
表2.1 Red Hat Virtualization Manager ハードウェアの要件
リソース | 最低要件 | 推奨要件 |
---|---|---|
CPU | デュアルコア x86_64 CPU | クアッドコア x86_64 CPU または複数のデュアルコア x86_64 CPU |
メモリー | 利用可能なシステムメモリー 4 GB (Data Warehouse が未インストールで、かつ既存のプロセスによって消費されていないこと) | システムメモリー 16 GB |
ハードディスク | ディスクの空き容量 25 GB (ローカルアクセス、書き込みが可能であること) | ディスクの空き容量 50 GB (ローカルアクセス、書き込みが可能であること) Manager 履歴データベースのサイズに適したディスク容量を算出するには、RHV Manager History Database Size Calculator ツールを使用できます。 |
ネットワークインターフェイス | 1 Gbps 以上の帯域幅のネットワークインターフェイスカード (NIC) 1 基 | 1 Gbps 以上の帯域幅のネットワークインターフェイスカード (NIC) 1 基 |
2.1.2. ブラウザーの要件
管理ポータルと仮想マシンポータルには、以下のブラウザーバージョンとオペレーティングシステムを使用してアクセスすることができます。
ブラウザーのサポートは下記のように階層に分かれます。
- 階層 1: 全面的に検証済みで、完全にサポートされているブラウザーおよびオペレーティングシステムの組み合わせ。Red Hat のエンジニアリングチームは、この階層のブラウザーで問題が発生した場合には、必ず修正を行います。
- 階層 2: 部分的に検証済みで、正常に機能する可能性の高いブラウザーとオペレーティングシステムの組み合わせ。この階層のサポートは限定されます。Red Hat のエンジニアリングチームは、この階層のブラウザーで問題が発生した場合には、修正を試みます。
- 階層 3: 未検証だが、正常に機能することが予想されるブラウザーとオペレーティングシステムの組み合わせ。この階層では、最小限のサポートが提供されます。Red Hat のエンジニアリングチームは、この階層のブラウザー問題が発生した場合には、マイナーな問題に対してのみ修正を試みます。
表2.2 ブラウザーの要件
サポート階層 | オペレーティングシステムファミリー | ブラウザー |
---|---|---|
階層 1 | Red Hat Enterprise Linux | Mozilla Firefox 延長サポート版 (ESR) のバージョン |
任意 | Google Chrome、Mozilla Firefox、または Microsoft Edge の最新バージョン | |
階層 2 | ||
階層 3 | 任意 | Google Chrome または Mozilla Firefox の旧バージョン |
任意 | その他のブラウザー |
2.1.3. クライアントの要件
仮想マシンコンソールは、Red Hat Enterprise Linux および Windows でサポートされている Remote Viewer (virt-viewer
) クライアントを使用した場合にのみアクセスすることができます。virt-viewer
をインストールするには、仮想マシン管理ガイドの クライアントマシンへのコンポーネントのインストール を参照してください。virt-viewer
のインストールには管理者権限が必要です。
仮想マシンコンソールには、SPICE、VCN、または RDP (Windows のみ) プロトコルを使用してアクセスできます。ゲストオペレーティングシステムに QXLDOD グラフィカルドライバーをインストールして、SPICE の機能を向上させることができます。SPICE が現在サポートしている最大解像度は 2560 x 1600 ピクセルです。
クライアントオペレーティングシステムの SPICE サポート
サポートされている QXLDOD ドライバーは、Red Hat Enterprise Linux 7.2 以降および Windows 10 で利用できます。
SPICE は QXLDOD ドライバーを使用して Windows 8 または 8.1 で動作しますが、認定もテストもされていません。
2.1.4. オペレーティングシステムの要件
Red Hat Virtualization Manager は、Red Hat Enterprise Linux 8.6 のベースインストールにインストールする必要があります。
Manager に必要なパッケージのインストールを試みる際に、依存関係の問題が発生する可能性があるため、ベースのインストール後に他のパッケージをインストールしないでください。
Manager のインストールに必要なリポジトリー以外は有効にしないでください。
2.2. ホストの要件
Red Hat Virtualization のハードウェア認定には、Red Hat Enterprise Linux のハードウェア認定が適用されます。詳細は、Does Red Hat Virtualization also have hardware certification? を参照してください。特定のハードウェア項目が Red Hat Enterprise Linux での使用に認定されているかどうかを確認するには、認定ソリューションの検索 を参照してください。
ゲストに適用される要件と制限の詳細については、Red Hat Enterprise Linux テクノロジーの機能と制限 および Supported Limits for Red Hat Virtualization を参照してください。
2.2.1. CPU の要件
すべての CPU が Intel® 64 または AMD64 CPU の拡張機能をサポートし、AMD-V™ または Intel VT® のハードウェア仮想化拡張機能が有効化されている必要があります。No eXecute flag (NX) のサポートも必要です。
以下の CPU モデルがサポートされています。
AMD
- Opteron G4
- Opteron G5
- EPYC
Intel
- Nehalem
- Westmere
- SandyBridge
- IvyBridge
- Haswell
- Broadwell
- Skylake (クライアント)
- Skylake (サーバー)
- Cascadelake サーバー
IBM
- POWER8
- POWER9
CPU タイプ は、セキュリティー更新のある CPU モデルごとに、基本的なタイプと安全なタイプを一覧表示します。以下に例を示します。
- Intel Cascadelake Server Family
- Secure Intel Cascadelake Server Family
Secure CPU タイプには最新の更新が含まれます。詳細は、BZ#1731395 を参照してください。
2.2.1.1. プロセッサーが必要なフラグをサポートしているかどうかのチェック
BIOS で仮想化を有効にする必要があります。この設定を行った後には、ホストの電源をオフにしてから再起動して、変更が適用されるようにします。
手順
- Red Hat Enterprise Linux または Red Hat Virtualization Host の起動画面で任意のキーを押し、一覧から Boot か Boot with serial console のエントリーを選択します。
-
Tab
を押して、選択したオプションのカーネルパラメーターを編集します。 -
最後のカーネルパラメーターの後にスペースがあることを確認し、パラメーター
rescue
を追加します。 -
Enter
を押して、レスキューモードで起動します。 プロンプトが表示されたら以下のコマンドを実行して、プロセッサーに必要な拡張機能があるかどうか、またそれらが有効になっているかどうかを確認します。
# grep -E 'svm|vmx' /proc/cpuinfo | grep nx
何らかの出力が表示されれば、プロセッサーはハードウェアの仮想化に対応しています。出力が何も表示されない場合でも、プロセッサーがハードウェアの仮想化に対応している可能性があります。場合によっては、メーカーが BIOS で仮想化拡張機能を無効にしていることがあります。これに該当すると思われる場合には、メーカーが提供しているシステムの BIOS やマザーボードに関するマニュアルを参照してください。
2.2.2. メモリーの要件
必要最小限の RAM は 2 GB です。クラスターレベル 4.2 から 4.5 の場合、Red Hat Virtualization Host で仮想マシンごとにサポートされる最大 RAM は 6 TB です。クラスターレベル 4.6 から 4.7 の場合、Red Hat Virtualization Host で仮想マシンごとにサポートされる最大 RAM は 16 TB です。
ただし、必要な RAM 容量は、ゲストオペレーティングシステムの要件、ゲストのアプリケーションの要件、ゲストのメモリーアクティビティーと使用状況によって異なります。全ゲストがピークの負荷で同時に稼働しないことを前提とした場合、KVM は仮想ゲストに対して物理 RAM をオーバーコミットし、物理的に存在する RAM を超える要件でゲストをプロビジョニングすることも可能です。KVM は、ゲストが必要とする RAM だけを割り当てて、使用率の低いゲストを swap に移動することによって、オーバーコミットします。
2.2.3. ストレージの要件
ホストには、設定、ログ、カーネルダンプを格納し、swap 領域として使用するためのストレージが必要です。ストレージはローカルまたはネットワークベースとすることができます。Red Hat Virtualization Host (RHVH) は、ネットワークストレージのデフォルト割り当ての 1 つ、一部、またはすべてを使用して起動することができます。ネットワークストレージから起動する場合、ネットワークの接続が失われるとフリーズする場合があります。ドロップインマルチパス設定ファイルを追加すると、ネットワーク接続の喪失に対処することができます。SAN ストレージから起動した RHVH がネットワーク接続を失うと、接続が回復するまでファイルは読み取り専用になります。ネットワークストレージを使用すると、パフォーマンスが低下する場合があります。
本セクションでは、RHVH の最低ストレージ要件について説明します。Red Hat Enterprise Linux ホストのストレージ要件は、既存の設定で使用されるディスク容量によって異なりますが、RHVH の要件よりも多くなるはずです。
ホストのインストールの最低ストレージ要件を以下に示します。ただし、より多くのストレージ領域を利用できるデフォルトの割り当てを使用してください。
- / (root): 6 GB
- /home: 1 GB
- /tmp: 1 GB
- /boot: 1 GB
- /var: 5 GB
- /var/crash: 10 GB
- /var/log: 8 GB
- /var/log/audit: 2 GB
- /var/tmp: 10 GB
- スワップ - 1 GB詳細は、What is the recommended swap size for Red Hat platforms? を参照してください。
- Anaconda では、将来のメタデータ拡張用に、ボリュームグループ内のシンプールサイズの 20% が確保されます。これは、通常の使用条件においてデフォルト設定でストレージを使い果たすのを防ぐためです。インストール中のシンプールのオーバープロビジョニングもサポートされていません。
- 最少の合計: 64 GiB
セルフホストエンジンのインストールに RHV-M Appliance もインストールする場合には、/var/tmp
は 10 GB 以上である必要があります。
メモリーのオーバーコミットを使用する場合には、すべての仮想マシンに仮想メモリーを提供するのに十分な swap 領域を追加してください。メモリーの最適化 を参照してください。
2.2.4. PCI デバイスの要件
ホストには、1 Gbps 以上の帯域幅のネットワークインターフェイスが少なくとも 1 基搭載されている必要があります。各ホストに 2 つのネットワークインターフェイスを搭載し、そのうちの 1 つは仮想マシンの移行などネットワークへの負荷が高い作業専用にする必要があります。このように負荷の高い操作のパフォーマンスは、利用可能な帯域幅により制限されます。
Intel Q35 ベースの仮想マシンで PCI Express と従来の PCI デバイスを使用する方法に関する情報は、Using PCI Express and Conventional PCI Devices with the Q35 Virtual Machine を参照してください。
2.2.5. デバイス割り当ての要件
仮想マシンがホストから特定の PCIe デバイスを使用できるように、デバイス割り当ておよび PCI パススルーを実装する予定がある場合は、以下の要件を満たしていることを確認してください。
- CPU が IOMMU (例: VT-d または AMD-Vi) をサポートしていること。IBM POWER8 はデフォルトで IOMMU をサポートしています。
- ファームウェアが IOMMU をサポートしていること。
- 使用する CPU ルートポートが ACS または ACS と同等の機能をサポートしていること。
- PCIe デバイスが ACS または ACS と同等の機能をサポートしていること。
- PCIe デバイスとルートポート間の PCIe スイッチとブリッジはすべて、ACS をサポートしていること。たとえば、スイッチが ACS をサポートしていない場合には、そのスイッチの背後にあるデバイスはすべて同じ IOMMU グループを共有し、同じ仮想マシンにしか割り当てることができません。
- GPU のサポートについては、Red Hat Enterprise Linux 8 は VGA 以外のグラフィックデバイスとして PCIe ベースの NVIDIA K シリーズ Quadro (モデル 2000 シリーズ以降)、GRID、Tesla の PCI デバイス割り当てをサポートしていること。現在、標準のエミュレーションされた VGA インターフェイスの 1 つ以外に、仮想マシンには GPU を 2 つまでアタッチすることができます。エミュレーションされた VGA は、起動前やインストールに使用され、NVIDIA グラフィックドライバーが読み込まれると NVDIA GPU に引き継がれます。NVIDIA Quadro 2000 も、Quadro K420 カードもサポートされていない点にご注意ください。
ベンダーの仕様とデータシートをチェックして、お使いのハードウェアが要件を満たしていることを確認してください。lspci -v
コマンドを使用すると、システムにインストールされている PCI デバイスの情報を表示できます。
2.2.6. vGPU の要件
ホスト上の仮想マシンが仮想 GPU を使用するためには、ホストが以下の要件を満たす必要があります。
- GPU が vGPU に対応していること。
- ホストカーネルで GPU が有効であること。
- 適切なドライバーと共に GPU がインストールされていること。
- 仮想マシンの Administration Portal の Host Devices タブにある Manage vGPU ダイアログを使用して、この仮想マシンで使用する vGPU のタイプとインスタンスの数を選択します。
- クラスター内の各ホストに vGPU に対応したドライバーがインストールされていること。
- vGPU ドライバーと共に vGPU に対応した仮想マシンのオペレーティングシステムがインストールされていること。
2.3. ネットワークの要件
2.3.1. 一般要件
Red Hat Virtualization では、Manager を実行している物理または仮想マシンで IPv6 を有効にしたままにしておく必要があります。お使いのシステムが IPv6 を使用しない場合でも、Manager マシンで IPv6 を無効にしないでください。
2.3.2. DNS、NTP、IPMI フェンシングに対するファイアウォールの要件
以下のトピックに対するファイアウォールの要件は特殊なケースで、個別に検討する必要があります。
DNS および NTP
Red Hat Virtualization では DNS または NTP サーバーは作成されません。したがって、ファイアウォールには、受信トラフィックに対するオープンポートは必要ありません。
デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上の DNS および NTP への出力トラフィックを許可します。出力トラフィックを無効にする場合には、DNS および NTP サーバーに送付されるリクエストに例外を定義します。
- Red Hat Virtualization Manager およびすべてのホスト (Red Hat Virtualization Host および Red Hat Enterprise Linux ホスト) には、完全修飾ドメイン名と、全面的かつ完全な正引きおよび逆引きの名前解決が必要です。
- DNS サービスを Red Hat Virtualization 環境内の仮想マシンとして実行する方法はサポートされていません。Red Hat Virtualization 環境が使用する DNS サービスは、すべて環境の外部でホストする必要があります。
-
名前解決には、
/etc/hosts
ファイルの代わりに DNS を使用します。hosts ファイルを使用すると、より多くの作業が必要となり、誤設定の可能性がより高くなります。
IPMI およびその他のフェンシング機構 (オプション)
IPMI (Intelligent Platform Management Interface) およびその他のフェンシング機構については、ファイアウォールには、受信トラフィックに対するオープンポートは必要ありません。
デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上のポートへの送信 IPMI トラフィックを許可します。発信トラフィックを無効にする場合には、IPMI またはフェンシングサーバーに送付されるリクエストに例外を設定します。
クラスター内の各 Red Hat Virtualization Host および Red Hat Enterprise Linux ホストは、クラスター内にある残りの全ホストのフェンシングデバイスに接続できる必要があります。クラスターホストにエラー (ネットワークエラー、ストレージエラーなど) が発生し、ホストとして機能できない場合は、データセンターの他のホストに接続できる必要があります。
具体的なポート番号は、使用するフェンスエージェントのタイプおよびその設定により異なります。
以降のセクションで説明するファイアウォール要件の表には、このオプションは含まれていません。
2.3.3. Red Hat Virtualization Manager ファイアウォールの要件
Red Hat Virtualization Manager では、ネットワークトラフィックがシステムのファイアウォールを通過できるように複数のポートを開放しておく必要があります。
engine-setup
スクリプトは、ファイアウォールを自動的に設定できます。
本セクションに記載するファイアウォール設定は、デフォルトの設定を前提としています。
これらのファイアウォール要件の模式図が、https://access.redhat.com/articles/3932211 に記載されています。表に書かれた ID を使用して、模式図内の接続を検索できます。
表2.3 Red Hat Virtualization Manager ファイアウォールの要件
ID | ポート | プロトコル | 送信元 | 送信先 | 目的 | デフォルトで暗号化 |
---|---|---|---|---|---|---|
M1 | - | ICMP | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Red Hat Virtualization Manager | オプション 診断に役立つ場合があります。 | ✕ |
M2 | 22 | TCP | バックエンドの設定やソフトウェアのアップグレードなど、Manager のメンテナンスに使うシステム | Red Hat Virtualization Manager | Secure Shell (SSH) アクセス オプション | ◯ |
M3 | 2222 | TCP | 仮想マシンのシリアルコンソールにアクセスするクライアント | Red Hat Virtualization Manager | 仮想マシンのシリアルコンソールへの接続を可能にするための Secure Shell (SSH) アクセス。 | ◯ |
M4 | 80、443 | TCP | 管理ポータルのクライアント 仮想マシンポータルのクライアント Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト REST API クライアント | Red Hat Virtualization Manager | Manager に HTTP (ポート 80、暗号化なし) および HTTPS (ポート 443、暗号化あり) のアクセスを提供します。HTTP は接続を HTTPS にリダイレクトします。 | ◯ |
M5 | 6100 | TCP | 管理ポータルのクライアント 仮想マシンポータルのクライアント | Red Hat Virtualization Manager |
Manager 上で WebSocket プロキシーを実行している場合に、Web ベースのコンソールクライアント ( | ✕ |
M6 | 7410 | UDP | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Red Hat Virtualization Manager |
ホストの Kdump が有効な場合には、Manager の fence_kdump リスナー用にこのポートを開きます。fence_kdump の高度な設定 を参照してください。 | ✕ |
M7 | 54323 | TCP | 管理ポータルのクライアント |
Red Hat Virtualization Manager ( |
| ○ |
M8 | 6642 | TCP | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Open Virtual Network (OVN) southbound データベース | Open Virtual Network (OVN) データベースへの接続 | ○ |
M9 | 9696 | TCP | OVN 用外部ネットワークプロバイダーのクライアント | OVN 用外部ネットワークプロバイダー | OpenStack Networking API | ◯ engine-setup によって生成された設定による暗号化。 |
M10 | 35357 | TCP | OVN 用外部ネットワークプロバイダーのクライアント | OVN 用外部ネットワークプロバイダー | OpenStack Identity API | ◯ engine-setup によって生成された設定による暗号化。 |
M11 | 53 | TCP、UDP | Red Hat Virtualization Manager | DNS サーバー | 1023 より大きいポート番号からポート 53 への DNS ルックアップリクエストおよび応答。デフォルトで開いています。 | ✕ |
M12 | 123 | UDP | Red Hat Virtualization Manager | NTP サーバー | 1023 より大きいポート番号からポート 123 への NTP リクエストおよび応答。デフォルトで開いています。 | ✕ |
-
デフォルトの設定では、OVN northbound データベース (6641) のクライアントは
ovirt-provider-ovn
のみなので、OVN northbound データベースのポート (6641) は記載されていません。両者は同じホスト上で動作しているので、その通信はネットワークには現れません。 - デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上の DNS および NTP への出力トラフィックを許可します。出力トラフィックを無効にする場合には、Manager がリクエストを DNS および NTP サーバーに送信するように例外を設定します。他のノードでも DNS および NTP が必要な場合があります。その際には、それらのノードの要件を確認し、適切にファイアウォールを設定してください。
2.3.4. ホストファイアウォールの要件
Red Hat Enterprise Linux ホストおよび Red Hat Virtualization Host (RHVH) では、ネットワークトラフィックがシステムのファイアウォールを通過できるように複数のポートを開放しておく必要があります。新たなホストを Manager に追加する際に、ファイアウォールルールがデフォルトで自動的に設定され、既存のファイアウォール設定はすべて上書きされます。
新規ホストの追加時のファイアウォール自動設定を無効にするには、Advanced Parameters の下の Automatically configure host firewall のチェックボックスからチェックを外します。
ホストのファイアウォールルールをカスタマイズするには、RHV: How to customize the Host’s firewall rules? を参照してください。
これらのファイアウォール要件の図は、Red Hat Virtualization: Firewall Requirements Diagram で入手できます。表に書かれた ID を使用して、模式図内の接続を検索できます。
表2.4 仮想化ホストファイアウォールの要件
ID | ポート | プロトコル | 送信元 | 送信先 | 目的 | デフォルトで暗号化 |
---|---|---|---|---|---|---|
H1 | 22 | TCP | Red Hat Virtualization Manager | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Secure Shell (SSH) アクセス オプション | ○ |
H2 | 2223 | TCP | Red Hat Virtualization Manager | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | 仮想マシンのシリアルコンソールへの接続を可能にするための Secure Shell (SSH) アクセス。 | ○ |
H3 | 161 | UDP | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Red Hat Virtualization Manager | Simple Network Management Protocol (SNMP)。ホストから 1 つまたは複数の外部 SNMP マネージャーに Simple Network Management Protocol のトラップを送信する場合にのみ必要です。 オプション | ✕ |
H4 | 111 | TCP | NFS ストレージサーバー | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | NFS 接続 オプション | ✕ |
H5 | 5900 - 6923 | TCP | 管理ポータルのクライアント 仮想マシンポータルのクライアント | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | VNC および SPICE を介したリモートゲストのコンソールアクセス。クライアントが仮想マシンに容易にアクセスできるように、これらのポートは開放しておく必要があります。 | ◯ (オプション) |
H6 | 5989 | TCP、UDP | Common Information Model Object Manager (CIMOM) | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Common Information Model Object Managers (CIMOM) がホスト上で実行中の仮想マシンをモニタリングするために使用します。このポートは、仮想化環境内の仮想マシンのモニタリングに CIMOM を使用する場合にのみ開放する必要があります。 オプション | ✕ |
H7 | 9090 | TCP | Red Hat Virtualization Manager クライアントマシン | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Cockpit がインストールされている場合には、Cockpit Web インターフェイスにアクセスするために必要です。 | ○ |
H8 | 16514 | TCP | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | libvirt を使った仮想マシンの移行 | ○ |
H9 | 49152 - 49215 | TCP | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | VDSM を使用した仮想マシンの移行とフェンシング。仮想マシンの自動および手動での移行を容易に実行できるように、これらのポートを開放しておく必要があります。 | ◯フェンスエージェントに応じて、libvirt を介して移行が行われます。 |
H10 | 54321 | TCP | Red Hat Virtualization Manager Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | VDSM による Manager およびその他の仮想化ホストとの通信 | ○ |
H11 | 54322 | TCP |
Red Hat Virtualization Manager | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト |
| ○ |
H12 | 6081 | UDP | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | Open Virtual Network (OVN) をネットワークプロバイダーとして使用している場合に、OVN がホスト間にトンネルを作成するために必要です。 | ✕ |
H13 | 53 | TCP、UDP | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | DNS サーバー | 1023 より大きいポート番号からポート 53 への DNS ルックアップリクエストおよび応答。このポートは必須で、デフォルトで開いています。 | ✕ |
H14 | 123 | UDP | Red Hat Virtualization Hosts Red Hat Enterprise Linux ホスト | NTP サーバー | 1023 より大きいポート番号からポート 123 への NTP リクエストおよび応答。このポートは必須で、デフォルトで開いています。 | |
H15 | 4500 | TCP、UDP | Red Hat Virtualization Hosts | Red Hat Virtualization Hosts | インターネットセキュリティープロトコル (IPSec) | ○ |
H16 | 500 | UDP | Red Hat Virtualization Hosts | Red Hat Virtualization Hosts | インターネットセキュリティープロトコル (IPSec) | ○ |
H17 | - | AH、ESP | Red Hat Virtualization Hosts | Red Hat Virtualization Hosts | インターネットセキュリティープロトコル (IPSec) | ○ |
デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上の DNS および NTP への出力トラフィックを許可します。出力トラフィックを無効にする場合には、Red Hat Virtualization Host に例外を設定します。
Red Hat Enterprise Linux ホストは DNS および NTP サーバーにリクエストを送信します。他のノードでも DNS および NTP が必要な場合があります。その際には、それらのノードの要件を確認し、適切にファイアウォールを設定してください。
2.3.5. データベースサーバーファイアウォールの要件
Red Hat Virtualization では、Manager データベース (engine
) および Data Warehouse データベース (ovirt-engine-history
) でのリモートデータベースサーバーの使用をサポートしています。リモートデータベースサーバーを使用する予定がある場合は、Manager および Data Warehouse サービス (Manager と分離することが可能) からの接続を許可する必要があります。
同様に、外部システムからローカルまたはリモートの Data Warehouse データベースにアクセスする予定がある場合は、そのシステムからのアクセスをデータベースで許可する必要があります。
外部システムからの Manager データベースへのアクセスはサポートされていません。
これらのファイアウォール要件の模式図が、https://access.redhat.com/articles/3932211 に記載されています。表に書かれた ID を使用して、模式図内の接続を検索できます。
表2.5 データベースサーバーファイアウォールの要件
ID | ポート | プロトコル | 送信元 | 送信先 | 目的 | デフォルトで暗号化 |
---|---|---|---|---|---|---|
D1 | 5432 | TCP、UDP | Red Hat Virtualization Manager Data Warehouse サービス |
Manager (
Data Warehouse ( | PostgreSQL データベース接続のデフォルトポート | |
D2 | 5432 | TCP、UDP | 外部のシステム |
Data Warehouse ( | PostgreSQL データベース接続のデフォルトポート | デフォルトでは無効です。無効、ただし有効にできます。 |
2.3.6. 最大伝送単位の要件
デプロイメント中のホストで推奨される最大伝送単位 (MTU) の設定は 1500 です。環境が別の MTU に設定された後で、この設定を更新することができます。MTU 設定の変更に関する詳細は、How to change the Hosted Engine VM network MTU を参照してください。
第3章 Red Hat Virtualization Manager のインストール
3.1. Red Hat Virtualization Manager マシンおよびリモートサーバーのインストール
Red Hat Virtualization Manager は Red Hat Enterprise Linux 8 上で実行する必要があります。詳細なインストール手順は 標準的な RHEL インストールの実行 を参照してください。
このマシンは最低限の Manager ハードウェア要件 を満たしている必要があります。
- データベースに使用する第二の Red Hat Enterprise Linux マシンをインストールします。ここではこのマシンをリモートサーバーと呼びます。
コンテンツ配信ネットワークにアクセスできないシステムに Red Hat Virtualization Manager をインストールするには、Manager を設定する前に、Configuring an Offline Repository for Installation を参照してください。
3.2. Red Hat Virtualization Manager リポジトリーの有効化
ログインして、Red Hat Subscription Manager で Manager マシンを登録し、Red Hat Virtualization Manager
のサブスクリプションをアタッチして Manager のリポジトリーを有効にする必要があります。
手順
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
注記IPv6 ネットワークを使用している場合は、IPv6 移行メカニズムを使用して、コンテンツ配信ネットワークおよびサブスクリプションマネージャーにアクセスします。
Red Hat Virtualization Manager
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=pool_id
注記現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。
# subscription-manager list --consumed
有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。
# dnf repolist
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-8-for-x86_64-baseos-eus-rpms \ --enable=rhel-8-for-x86_64-appstream-eus-rpms \ --enable=rhv-4.4-manager-for-rhel-8-x86_64-rpms \ --enable=fast-datapath-for-rhel-8-x86_64-rpms \ --enable=jb-eap-7.4-for-rhel-8-x86_64-rpms \ --enable=openstack-16.2-cinderlib-for-rhel-8-x86_64-rpms \ --enable=rhceph-4-tools-for-rhel-8-x86_64-rpms
RHEL のバージョンを 8.6 に設定します。
# subscription-manager release --set=8.6
pki-deps
モジュールを有効にします。# dnf module -y enable pki-deps
postgresql
モジュールのバージョン 12 を有効にします。# dnf module -y enable postgresql:12
nodejs
モジュールのバージョン 14 を有効にします。# dnf module -y enable nodejs:14
インストール済みパッケージを同期して、利用可能な最新バージョンに更新します。
# dnf distro-sync --nobest
関連情報
モジュールおよびモジュールストリームの詳細は、ユーザー空間コンポーネントのインストール、管理、および削除 の以下のセクションを参照してください。
Red Hat Virtualization Manager を設定する前に、Manager データベースをリモートサーバーに手動で設定する必要があります。Data Warehouse の設定スクリプトにより Data Warehouse データベースを自動的に設定しない場合には、この手順を使用してデータベースを手動で設定することもできます。
3.3. リモートの PostgreSQL データベースの準備
リモートデータベース環境では、engine-setup
を実行する前に、Manager データベースを手動で作成する必要があります。
engine-setup
および engine-backup --mode=restore
コマンドは、システムロケールが異なる場合でも、en_US.UTF8
ロケールのシステムエラーメッセージだけをサポートします。
postgresql.conf
ファイルのロケール設定は en_US.UTF8
に設定する必要があります。
データベース名には、数字、アンダースコア、小文字しか使用できません。
Red Hat Virtualization Manager リポジトリーの有効化
ログインして、Red Hat Subscription Manager でデータベースマシンを登録し、Red Hat Virtualization Manager
のサブスクリプションをアタッチして Manager のリポジトリーを有効にする必要があります。
手順
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
注記IPv6 ネットワークを使用している場合は、IPv6 移行メカニズムを使用して、コンテンツ配信ネットワークおよびサブスクリプションマネージャーにアクセスします。
Red Hat Virtualization Manager
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=pool_id
注記現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。
# subscription-manager list --consumed
有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。
# dnf repolist
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-8-for-x86_64-baseos-eus-rpms \ --enable=rhel-8-for-x86_64-appstream-eus-rpms \ --enable=rhv-4.4-manager-for-rhel-8-x86_64-rpms \ --enable=fast-datapath-for-rhel-8-x86_64-rpms \ --enable=jb-eap-7.4-for-rhel-8-x86_64-rpms \ --enable=openstack-16.2-cinderlib-for-rhel-8-x86_64-rpms \ --enable=rhceph-4-tools-for-rhel-8-x86_64-rpms
RHEL のバージョンを 8.6 に設定します。
# subscription-manager release --set=8.6
postgresql
モジュールのバージョン 12 を有効にします。# dnf module -y enable postgresql:12
nodejs
モジュールのバージョン 14 を有効にします。# dnf module -y enable nodejs:14
インストール済みパッケージを同期して、利用可能な最新バージョンに更新します。
# dnf distro-sync --nobest
関連情報
モジュールおよびモジュールストリームの詳細は、ユーザー空間コンポーネントのインストール、管理、および削除 の以下のセクションを参照してください。
PostgreSQL データベースの初期化
PostgreSQL サーバーパッケージをインストールします。
# dnf install postgresql-server postgresql-contrib
PostgreSQL データベースインスタンスを初期化します。
# postgresql-setup --initdb
postgresql
サービスを有効にし、マシンのブート時に起動するように設定します。# systemctl enable postgresql # systemctl start postgresql
psql
コマンドラインインターフェイスにpostgres
ユーザーとして接続します。# su - postgres -c psql
デフォルトユーザーを作成します。Manager のデフォルトのユーザーは
engine
です。postgres=# create role user_name with login encrypted password 'password';
データベースを作成します。Manager のデフォルトのデータベース名は
engine
です。postgres=# create database database_name owner user_name template template0 encoding 'UTF8' lc_collate 'en_US.UTF-8' lc_ctype 'en_US.UTF-8';
新しいデータベースに接続します。
postgres=# \c database_name
uuid-ossp
拡張機能を追加します。database_name=# CREATE EXTENSION "uuid-ossp";
plpgsql
言語が存在しない場合は追加します。database_name=# CREATE LANGUAGE plpgsql;
psql
インターフェイスを終了します。database_name=# \q
/var/lib/pgsql/data/pg_hba.conf
ファイルを編集し、md5 クライアント認証を有効にし、エンジンがリモートでデータベースにアクセスできるようにします。ファイルの下部にあるlocal
で始まる行のすぐ下に、以下の行を追加します。X.X.X.X
を Manager または Data Warehouse マシンの IP アドレスに置き換え、0-32
または0-128
を CIDR マスクの長さに置き換えます。host database_name user_name X.X.X.X/0-32 md5 host database_name user_name X.X.X.X::/0-128 md5
以下に例を示します。
# IPv4, 32-bit address: host engine engine 192.168.12.10/32 md5 # IPv6, 128-bit address: host engine engine fe80::7a31:c1ff:0000:0000/96 md5
データベースへの TCP/IP 接続を許可します。
/var/lib/pgsql/data/postgresql.conf
ファイルを編集し、以下の行を追加します。listen_addresses='*'
この例では、
postgresql
サービスがすべてのインターフェイスの接続をリッスンするように設定します。IP アドレスを指定して、特定のインターフェイスをリッスンするように設定することもできます。PostgreSQL サーバーの設定を更新します。
/var/lib/pgsql/data/postgresql.conf
ファイルで、以下の行をファイルの下部に追加します。autovacuum_vacuum_scale_factor=0.01 autovacuum_analyze_scale_factor=0.075 autovacuum_max_workers=6 maintenance_work_mem=65536 max_connections=150 work_mem=8192
PostgreSQL データベースの接続に使用するデフォルトのポートを開放して、更新したファイアウォールルールを保存します。
# firewall-cmd --zone=public --add-service=postgresql # firewall-cmd --permanent --zone=public --add-service=postgresql
postgresql
サービスを再起動します。# systemctl restart postgresql
- オプションで、データベース接続を保護するために SSL をセットアップします。
3.4. Red Hat Virtualization Manager のインストールおよび設定
Red Hat Virtualization Manager のパッケージおよび依存関係をインストールし、engine-setup
コマンドを使用して設定します。スクリプトにより一連の質問が表示され、各質問に必要な値を入力すると、その設定が適用されて ovirt-engine
サービスが開始されます。
設定は、engine-setup
コマンドの手順に従って、複数の段階に分けて行います。各段階には、ユーザー入力が必要なステップが複数あります。設定候補のデフォルト値が大かっこ内に提示されます。提示された値がそのステップに有効な場合には、Enter
キーを押してその値を確定します。
engine-setup --accept-defaults
を実行して、デフォルトの回答があるすべての質問を自動的に許可できます。このオプションの使用には注意が必要なので、engine-setup
を熟知している場合に限り実行してください。
手順
すべてのパッケージを最新の状態にします。
# dnf upgrade --nobest
注記いずれかのカーネル関連のパッケージを更新した場合には、マシンを再起動してください。
rhvm
パッケージと依存関係をインストールします。# dnf install rhvm
engine-setup
コマンドを実行して、Red Hat Virtualization Manager の設定を開始します。# engine-setup
オプション: Yes と入力し、
Enter
を押してこのマシンで Cinderlib 統合を設定します。Set up Cinderlib integration (Currently in tech preview) (Yes, No) [No]:
重要Cinderlib はテクノロジープレビュー機能としてのみ提供されます。テクノロジープレビュー機能は、Red Hat の実稼働環境のサービスレベルアグリーメント (SLA) ではサポートされず、機能的に完全ではないことがあるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、開発プロセスの中でお客様に機能性のテストとフィードバックをしていただくことを目的としています。Red Hat のテクノロジープレビュー機能のサポートについての詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。
Enter
を押して、このマシンに Manager を設定します。Configure Engine on this host (Yes, No) [Yes]:
Open Virtual Network (OVN) をインストールします (オプション)。
Yes
を選択すると、Manager マシンに OVN サーバーをインストールし、これを外部ネットワークプロバイダーとして Red Hat Virtualization に追加します。また、追加したことにより、OVN をデフォルトのネットワークプロバイダーとして使用するようにデフォルトのクラスターが設定されます。重要管理ガイド の 外部ネットワークプロバイダーとして Open Virtual Network (OVN)(ovirt-provider-ovn) を追加 の Next steps も参照してください。
Configuring ovirt-provider-ovn also sets the Default cluster’s default network provider to ovirt-provider-ovn. Non-Default clusters may be configured with an OVN after installation. Configure ovirt-provider-ovn (Yes, No) [Yes]:
Red Hat Virtualization での OVN ネットワーク使用の詳細については、管理ガイド の 外部ネットワークプロバイダーとして Open Virtual Network (OVN)(ovirt-provider-ovn) を追加 を参照してください。
また、
engine-setup
では、noVNC
コンソールから仮想マシンに接続できるように Websocket プロキシーサーバーを設定することができます (オプション)。Configure WebSocket Proxy on this machine? (Yes, No) [Yes]:
重要WebSocket プロキシーおよび noVNC は、テクノロジープレビュー機能としてのみ提供されています。テクノロジープレビュー機能は、Red Hat の実稼働環境のサービスレベルアグリーメント (SLA) ではサポートされず、機能的に完全ではないことがあるため、Red Hat では実稼働環境での使用を推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行いフィードバックをご提供いただくことを目的としています。詳しい情報は、テクノロジープレビュー機能のサポート範囲 を参照してください。
リモートサーバー上で Data Warehouse を設定するには、
No
と答えて、Manager 設定の完了後に 別のマシンへの Data Warehouse のインストールおよび設定 を参照してください。Please note: Data Warehouse is required for the engine. If you choose to not configure it on this host, you have to configure it on a remote host, and then configure the engine on this host so that it can access the database of the remote Data Warehouse host. Configure Data Warehouse on this host (Yes, No) [Yes]:
重要Red Hat は、Data Warehouse データベース、Data Warehouse サービス、および Grafana をすべて同じマシンにインストールする場合のみサポートします。
Grafana を Data Warehouse サービスと同じマシンに設定するには、
No
と入力します。Configure Grafana on this host (Yes, No) [Yes]:
コマンドラインから仮想マシンのシリアルコンソールへのアクセスを許可します (オプション)。
Configure VM Console Proxy on this host (Yes, No) [Yes]:
この機能を使用するには、クライアントマシンで追加の設定が必要です。仮想マシン管理ガイド の 仮想マシンでのシリアルコンソールの表示 を参照してください。
Enter
キーを押して自動検出されたホスト名をそのまま使用するか、別のホスト名を入力してEnter
キーを押します。仮想化ホストを使用している場合には、自動的に検出されたホスト名が間違っている可能性がある点に注意してください。Host fully qualified DNS name of this server [autodetected host name]:
次に、
engine-setup
コマンドは、ファイアウォールの設定を確認し、ポート 80 や 443 など、Manager が外部との通信に使用するポートを開放するかどうかを尋ねます。engine-setup
によるファイアウォール設定の変更を許可しない場合には、Manager が使用するポートを手動で開放する必要があります。firewalld
がファイアウォールマネージャーとして設定されます。Setup can automatically configure the firewall on this system. Note: automatic configuration of the firewall may overwrite current settings. Do you want Setup to configure the firewall? (Yes, No) [Yes]:
ファイアウォールの自動設定を選択した場合に、ファイアウォール管理機能がアクティブ化されていなければ、サポートされているオプション一覧から、選択したファイアウォール管理機能を指定するように要求されます。ファイアウォール管理機能の名前を入力して、
Enter
キーを押してください。この操作は、オプションが 1 つしかリストされていない場合でも必要です。Manager データベースをこのマシン上に設定するか、別のマシン上に設定するかを指定します。
Where is the Engine database located? (Local, Remote) [Local]:
注記リモートエンジンデータベースを使用したデプロイメントは非推奨になりました。この機能は今後のリリースで削除されます。
Remote
を選択した場合には、事前設定したリモートデータベースサーバーに関する以下の値を入力してください。localhost
は、リモートデータベースサーバーの IP アドレスまたは完全修飾ドメイン名 (FQDN) に置き換えます。Engine database host [localhost]: Engine database port [5432]: Engine database secured connection (Yes, No) [No]: Engine database name [engine]: Engine database user [engine]: Engine database password:
自動作成された Red Hat Virtualization Manager の管理ユーザーのパスワードを設定します。
Engine admin password: Confirm engine admin password:
Gluster、Virt、または Both を選択します。
Application mode (Both, Virt, Gluster) [Both]:
- Both - 最も柔軟性が高いモードです。ほとんどの場合は、Both を選択します。
- Virt - 環境内で仮想マシンを実行できます。
Gluster - 管理ポータルからのみ GlusterFS を管理できます。
注記GlusterFS Storage は非推奨となり、将来のリリースではサポートされなくなります。
OVN プロバイダーをインストールした場合には、デフォルトの認証情報を使用するか、代わりの認証情報を指定するかを選択することができます。
Use default credentials (admin@internal) for ovirt-provider-ovn (Yes, No) [Yes]: oVirt OVN provider user[admin@internal]: oVirt OVN provider password:
wipe_after_delete
フラグのデフォルト値を設定します。これは、ディスクの削除時に仮想ディスクのブロックを消去します。Default SAN wipe after delete (Yes, No) [No]:
Manager は、ホストと安全な通信を行うために各種証明書を使用します。この証明書は、オプションとして、Manager との HTTPS 通信のセキュリティー保護に使用することも可能です。証明書の組織名を指定してください。
Organization name for certificate [autodetected domain-based name]:
必要に応じて、
engine-setup
により、Apache Web サーバーが提供するデフォルトページを Manager のランディングページに設定できます。Setup can configure the default page of the web server to present the application home page. This may conflict with existing applications. Do you wish to set the application as the default web page of the server? (Yes, No) [Yes]:
デフォルトでは、ホストと安全な通信を行うために、Manager と外部との SSL (HTTPS) 通信は、以前の設定で作成された自己署名証明書を使用してセキュリティー保護されます。または、外部との HTTPS 接続向けに別の証明書を選択します (これにより、ホストと Manager 間の通信方法に影響が出るわけではありません)。
Setup can configure apache to use SSL using a certificate issued from the internal CA. Do you wish Setup to configure that, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
Grafana 管理ユーザーに一意のパスワードを指定するか、Manager の管理パスワードと同じパスワードを使用することができます。
Use Engine admin password as initial Grafana admin password (Yes, No) [Yes]:
インストール設定を確認し、
Enter
キーを押して値を確定し、インストールを続行します。Please confirm installation settings (OK, Cancel) [OK]:
環境の設定が完了すると、engine-setup
は環境へのアクセス方法を表示します。
次のステップ
ファイアウォールを手動で設定する場合は、セットアップ中に選択したオプションに基づいて、開放する必要があるポートのカスタムリストが engine-setup
で指定されます。また、engine-setup
は、同じ値を使用して Manager の再設定に使用できるファイルに回答を保存し、Red Hat Virtualization Manager 設定プロセスのログファイルの場所を出力します。
- Red Hat Virtualization 環境をディレクトリーサーバーにリンクする予定がある場合には、ディレクトリーサーバーが使用するシステムクロックと同期する日付と時刻を設定し、アカウントの期限が予期せずに切れてしまう問題が発生しないようにしてください。詳細は、Red Hat Enterprise Linux システム管理者のガイド の システムクロックのリモートサーバーとの同期 を参照してください。
-
ブラウザーから提供される手順に従って、認証局の証明書をインストールしてください。
http://manager-fqdn/ovirt-engine/services/pki-resource?resource=ca-certificate&format=X509-PEM-CA
に移動して、認証局の証明書を取得できます。<manager-fqdn> は、インストール時に指定した FQDN に置き換えます。
リモートサーバーに Data Warehouse サービスおよびデータベースをインストールします。
3.5. 別のマシンへの Data Warehouse のインストールおよび設定
本セクションでは、Data Warehouse サービスを Red Hat Virtualization Manager マシンから別のマシンにインストールおよび設定する方法を説明します。Data Warehouse を別のマシンにインストールすることは、Manager マシンの負荷の削減に役立ちます。
Red Hat は、Data Warehouse データベース、Data Warehouse サービス、および Grafana をそれぞれ別々のマシンにインストールすることが可能です。ただし、サポート対象は、これらの各コンポーネントをすべて同じマシンにインストールすることのみです。
前提条件
- Red Hat Virtualization Manager が別のマシンにインストールされている必要があります。
- Red Hat Enterprise Linux 8 を実行中の物理サーバーまたは仮想マシンが必要です。
- Manager データベースのパスワードが必要です。
Red Hat Virtualization Manager リポジトリーの有効化
ログインして、Red Hat Subscription Manager で Data Warehouse マシンを登録し、Red Hat Virtualization Manager
のサブスクリプションをアタッチして Manager のリポジトリーを有効にする必要があります。
手順
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
注記IPv6 ネットワークを使用している場合は、IPv6 移行メカニズムを使用して、コンテンツ配信ネットワークおよびサブスクリプションマネージャーにアクセスします。
Red Hat Virtualization Manager
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=pool_id
注記現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。
# subscription-manager list --consumed
有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。
# dnf repolist
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-8-for-x86_64-baseos-eus-rpms \ --enable=rhel-8-for-x86_64-appstream-eus-rpms \ --enable=rhv-4.4-manager-for-rhel-8-x86_64-rpms \ --enable=fast-datapath-for-rhel-8-x86_64-rpms \ --enable=jb-eap-7.4-for-rhel-8-x86_64-rpms \ --enable=openstack-16.2-cinderlib-for-rhel-8-x86_64-rpms \ --enable=rhceph-4-tools-for-rhel-8-x86_64-rpms
RHEL のバージョンを 8.6 に設定します。
# subscription-manager release --set=8.6
pki-deps
モジュールを有効にします。# dnf module -y enable pki-deps
postgresql
モジュールのバージョン 12 を有効にします。# dnf module -y enable postgresql:12
nodejs
モジュールのバージョン 14 を有効にします。# dnf module -y enable nodejs:14
インストール済みパッケージを同期して、利用可能な最新バージョンに更新します。
# dnf distro-sync --nobest
関連情報
モジュールおよびモジュールストリームの詳細は、ユーザー空間コンポーネントのインストール、管理、および削除 の以下のセクションを参照してください。
別のマシンへの Data Warehouse のインストール
手順
- データベースをインストールするマシンにログインします。
すべてのパッケージを最新の状態にします。
# dnf upgrade --nobest
ovirt-engine-dwh-setup
パッケージをインストールします。# dnf install ovirt-engine-dwh-setup
engine-setup
コマンドを実行してインストールを開始します。# engine-setup
Yes
と回答して、このマシンに Data Warehouse をインストールします。Configure Data Warehouse on this host (Yes, No) [Yes]:
Yes
と回答して、このマシンに Grafana をインストールします。Configure Grafana on this host (Yes, No) [Yes]:
Enter
キーを押して、自動検出されたホスト名をそのまま使用するか、別のホスト名を入力し、Enter
キーを押します。Host fully qualified DNS name of this server [autodetected hostname]:
Enter
キーを押して、ファイアウォールを自動設定するか、No
と入力し、Enter
キーを押して、既存の設定を維持します。Setup can automatically configure the firewall on this system. Note: automatic configuration of the firewall may overwrite current settings. Do you want Setup to configure the firewall? (Yes, No) [Yes]:
ファイアウォールの自動設定を選択した場合に、ファイアウォール管理機能がアクティブ化されていなければ、サポートされているオプション一覧から、選択したファイアウォール管理機能を指定するように要求されます。ファイアウォール管理機能の名前を入力して、
Enter
キーを押してください。この操作は、オプションが 1 つしかリストされていない場合でも必要です。Manager マシンの完全修飾ドメイン名を入力して
Enter
キーを押します。Host fully qualified DNS name of the engine server []:
Enter
キーを押して、設定で SSH を使用して Manager の証明書に署名することを許可します。Setup will need to do some actions on the remote engine server. Either automatically, using ssh as root to access it, or you will be prompted to manually perform each such action. Please choose one of the following: 1 - Access remote engine server using ssh as root 2 - Perform each action manually, use files to copy content around (1, 2) [1]:
Enter
キーを押してデフォルトの SSH ポートをそのまま使用するか、別のポート番号を入力してEnter
キーを押します。ssh port on remote engine server [22]:
Manager マシンの root パスワードを入力します。
root password on remote engine server manager.example.com:
Data Warehouse データベースをこのマシン (ローカル) でホストするか、別のマシン (リモート) でホストするかを指定します。
注記Red Hat は、Data Warehouse データベース、Data Warehouse サービス、および Grafana をそれぞれ別々のマシンにインストールすることが可能です。ただし、サポート対象は、これらの各コンポーネントをすべて同じマシンにインストールすることのみです。
Where is the DWH database located? (Local, Remote) [Local]:
Local
を選択した場合には、engine-setup
スクリプトにより、データベースを自動で設定するか (ユーザーおよびデータベースの追加を含む)、事前に設定したローカルのデータベースに接続することができます。Setup can configure the local postgresql server automatically for the DWH to run. This may conflict with existing applications. Would you like Setup to automatically configure postgresql and create DWH database, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
-
Enter
を押してAutomatic
を選択した場合は、ここで追加のアクションは必要ありません。 Manual
を選択した場合には、手動設定したローカルデータベースに関する以下の値を入力してください。DWH database secured connection (Yes, No) [No]: DWH database name [ovirt_engine_history]: DWH database user [ovirt_engine_history]: DWH database password:
-
Remote
を選択した場合には、リモートデータベースホストに関する詳細を提供するように求められます。事前設定したリモートデータベースホストに関する以下の値を入力してください。DWH database host []: dwh-db-fqdn DWH database port [5432]: DWH database secured connection (Yes, No) [No]: DWH database name [ovirt_engine_history]: DWH database user [ovirt_engine_history]: DWH database password: password
Remote
を選択すると、Grafana データベースユーザーのユーザー名とパスワードを入力するように求められます。Grafana database user [ovirt_engine_history_grafana]: Grafana database password:
Manager データベースマシンの完全修飾ドメイン名およびパスワードを入力します。Manager データベースがインストールされているマシンに Data Warehouse データベースをインストールする場合は、同じ FQDN を使用します。その他のフィールドについては、
Enter
キーを押してそれぞれのデフォルト値をそのまま使用します。Engine database host []: engine-db-fqdn Engine database port [5432]: Engine database secured connection (Yes, No) [No]: Engine database name [engine]: Engine database user [engine]: Engine database password: password
収集したデータを Data Warehouse が保持する期間のオプションを選択します。
Please choose Data Warehouse sampling scale: (1) Basic (2) Full (1, 2)[1]:
Full
を選択すると、Red Hat Virtualization Data Warehouse Guide の ovirt-engine-dwhd.conf の Data Warehouse サービスのアプリケーション設定 に記載のデータストレージ設定のデフォルト値が使用されます (Data Warehouse がリモートホストにインストールされている場合に推奨)。Basic
を使用すると、DWH_TABLES_KEEP_HOURLY
の値を720
、DWH_TABLES_KEEP_DAILY
の値を0
にして、Manager マシンの負荷を軽減します。Manager と Data Warehouse が同じマシンにインストールされている場合にBasic
を使用します。インストールの設定を確認します。
Please confirm installation settings (OK, Cancel) [OK]:
Data Warehouse の設定完了後に、Red Hat Virtualization Manager で
ovirt-engine
サービスを再起動します。# systemctl restart ovirt-engine
- オプションで、データベース接続を保護するために SSL をセットアップします。
次に管理ポータルにログインします。ここで、環境にホストおよびストレージを追加することができます。
3.6. 管理ポータルへの接続
Web ブラウザーを使って管理ポータルへアクセスします。
Web ブラウザーで、
https://manager-fqdn/ovirt-engine
に移動します。manager-fqdn は、インストール時に指定した FQDN に置き換えます。注記別のホスト名または IP アドレスを使用して、管理ポータルにアクセスすることができます。これには、/etc/ovirt-engine/engine.conf.d/ に設定ファイルを追加する必要があります。以下に例を示します。
# vi /etc/ovirt-engine/engine.conf.d/99-custom-sso-setup.conf SSO_ALTERNATE_ENGINE_FQDNS="alias1.example.com alias2.example.com"
代替ホスト名の一覧は、スペースで区切る必要があります。また、Manager の IP アドレスを一覧に追加することもできますが、DNS で解決可能なホスト名の代わりに IP アドレスを使用することは推奨していません。
- Administration Portal をクリックすると、SSO ログインページが表示されます。SSO ログインにより、管理ポータルと仮想マシンポータルに同時にログインすることができます。
- ユーザー名 と パスワード を入力します。初回ログインの場合は、ユーザー名 admin とインストール時に指定したパスワードを使用してください。
- 認証する Domain を選択します。内部の admin ユーザー名を使用してログインする場合は、プロファイルに internal を選択します。
- Log In をクリックします。
- 管理ポータルは複数の言語で表示することができます。デフォルトの選択は、お使いの Web ブラウザーのロケール設定をベースに決定されます。デフォルト以外の言語で管理ポータルを表示する場合は、ウェルカムページのドロップダウンリストから任意の言語を選択してください。
Red Hat Virtualization 管理ポータルからログアウトするには、ヘッダーバーでユーザー名をクリックして、Sign Out をクリックします。すべてのポータルからログアウトされ、Manager のウェルカム画面が表示されます。
第4章 Red Hat Virtualization 用ホストのインストール
Red Hat Virtualization は、Red Hat Virtualization Hosts (RHVH) および Red Hat Enterprise Linux ホスト の 2 つのタイプのホストをサポートしています。環境に応じて、1 タイプのみまたは両方のタイプを使用することができます。移行や高可用性などの機能を利用するには、少なくとも 2 台のホストが必要です。
ネットワーク情報については、「ホストネットワーク設定の推奨プラクティス」 を参照してください。
SELinux は インストール時に enforcing モードに設定されます。確認するには、getenforce
を実行します。Red Hat Virtualization 環境をサポートするには、すべてのホストと Manager で SELinux を enforcing モードに設定する必要があります。
表4.1 ホストタイプ
ホストタイプ | 別名 | 説明 |
---|---|---|
Red Hat Virtualization Host | RHVH、シンホスト | Red Hat Enterprise Linux をベースとする最小限のオペレーティングシステム。カスタマーポータルから ISO ファイルとして配布され、マシンがホストとして機能するためのパッケージのみが含まれています。 |
Red Hat Enterprise Linux ホスト | RHEL ホスト、シックホスト | 適切なサブスクリプションがアタッチされた Red Hat Enterprise Linux システムは、ホストとして使用することができます。 |
ホストの互換性
新規データセンターの作成時に、互換バージョンを設定することができます。データセンター内の全ホストに適した互換バージョンを選択します。一旦設定されると、それよりも古いバージョンに変更することはできません。Red Hat Virtualization を新規インストールした場合には、最新の互換バージョンがデフォルトのデータセンターとデフォルトのクラスターに設定されるので、それ以前の互換バージョンを使用するには、追加でデータセンターおよびクラスターを作成する必要があります。互換バージョンに関する詳細は、Red Hat Virtualization のライフサイクル の Red Hat Virtualization Manager の互換性 を参照してください。
4.1. Red Hat Virtualization Hosts
4.1.1. Red Hat Virtualization Host のインストール
Red Hat Virtualization Host (RHVH) は、Red Hat Virtualization 環境でハイパーバイザーとして機能する物理マシンの簡単な設定方法を提供するために設計された、Red Hat Enterprise Linux をベースとする最小設定のオペレーティングシステムです。この最小設定のオペレーティングシステムには、マシンがハイパーバイザーとして機能するのに必要なパッケージのみが含まれており、ホストの監視や管理タスクの実行用に Cockpit Web インターフェイスが備えられています。ブラウザーの最小要件については、Cockpit の実行 を参照してください。
RHVH は NIST SP 800-53 パーティショニングの要件をサポートし、より強固なセキュリティーを提供します。RHVH は、デフォルトで NIST 800-53 パーティションレイアウトを使用します。
ホストは最低限の ホスト要件 を満たしている必要があります。
ホストのオペレーティングシステムのインストールまたは再インストールを行う場合、Red Hat では、ホストにアタッチされている既存の OS 以外のストレージを最初にデタッチすることを強く推奨しています。これは、ディスクを誤って初期化してデータが失われる可能性を避けるためです。
手順
- Red Hat カスタマーポータルの Red Hat Virtualization を使い始める にアクセスし、ログインします。
- Download Latest をクリックして、製品のダウンロードページに移動します。
- 一覧から RHV に適した Hypervisor Image for RHV を選択し、Download Now をクリックします。
- RHVH のインストール先となるマシンを起動し、準備したインストールメディアから起動します。
起動メニューから Install RHVH 4.4 を選択し、
Enter
を押します。注記ま
Tab
キーを押してカーネルパラメーターを編集することもできます。カーネルパラメーターはスペースで区切る必要があります。また、指定したカーネルパラメーターを使用してシステムを起動するには、Enter
キーを押します。Esc
キーを押してカーネルパラメーターへの変更を消去し、起動メニューに戻ります。- 言語を選択し、Continue をクリックします。
- Keyboard Layout の画面からキーボードのレイアウトを選択して Done をクリックします。
Installation Destination の画面から RHVH のインストール先のデバイスを選択します。オプションで暗号化を有効にします。Done をクリックします。
重要Automatically configure partitioning オプションを使用します。
- Time & Date の画面からタイムゾーンを選択し、Done をクリックします。
Network & Host Name の画面からネットワークを選択し、Configure… をクリックして接続の詳細を設定します。
注記システムを起動するたびに接続を使用する場合は、Connect automatically with priority のチェックボックスを選択します。詳細は、標準的な RHEL 8 インストールの実行 の ネットワークおよびホスト名のオプションの設定 を参照してください。
ホスト名を Host Name フィールドに入力し、Done をクリックします。
- オプション: Security Policy と Kdump を設定します。Installation Summary 画面の各セクションの詳細は、Red Hat Enterprise Linux 8 標準的な RHEL インストールの実行 の GUI を使用したインストールのカスタマイズ を参照してください。
- Begin Installation をクリックします。
RHVH のインストールの際に root パスワードを設定して、オプションで追加のユーザーを作成します。
警告ローカルのセキュリティー脆弱性が攻撃される可能性があるので、RHVH に信頼できないユーザーを作成しないでください。
Reboot をクリックしてインストールを完了します。
注記RHVH の再起動時に、
nodectl check
はホストでヘルスチェックを実行し、コマンドラインへのログイン時に結果を表示します。node status: OK
またはnode status: DEGRADED
のメッセージはヘルスステータスを示します。nodectl check
を実行して詳細情報を取得します。注記必要に応じて、 カーネルモジュールが自動的に読み込まれないようにする ことができます。
4.1.2. Red Hat Virtualization Host のリポジトリーの有効化
更新を受け取るには、システムを登録する必要があります。Red Hat Virtualization Host に必要なリポジトリーは 1 つだけです。本セクションでは、RHVH を コンテンツ配信ネットワーク または Red Hat Satellite 6 に登録する手順について説明します。
コンテンツ配信ネットワークへの RHVH の登録
Red Hat Virtualization Host 8
のリポジトリーを有効にして、Red Hat Virtualization Host に対する後続の更新を可能にします。# subscription-manager repos --enable=rhvh-4-for-rhel-8-x86_64-rpms
Red Hat Satellite 6 への RHVH の登録
-
https://HostFQDNorIP:9090
で Cockpit Web インターフェイスにログインします。 - Terminal をクリックします。
RHVH を Red Hat Satellite 6 に登録します。
# rpm -Uvh http://satellite.example.com/pub/katello-ca-consumer-latest.noarch.rpm # subscription-manager register --org="org_id" # subscription-manager list --available # subscription-manager attach --pool=pool_id # subscription-manager repos \ --disable='*' \ --enable=rhvh-4-for-rhel-8-x86_64-rpms
virt-who を使用して、Red Hat Satellite で仮想マシンのサブスクリプションを設定することもできます。virt-who を使用したホストベースのサブスクリプションの管理 を参照してください。
4.1.3. 高度なインストール
4.1.3.1. カスタムパーティション設定
Red Hat Virtualization Host (RHVH) でのカスタムパーティション設定は推奨されません。Installation Destination ウィンドウの Automatically configure partitioning オプションを使用してください。
インストールでカスタムのパーティション設定が必要な場合は、インストール時に I will configure partitioning
オプションを選択します。ただし、以下の制限が適用される点に注意してください。
- Manual Partitioning ウィンドウで、デフォルトの LVM Thin Provisioning オプションを選択する必要があります。
以下のディレクトリーが必要で、シンプロビジョニングされた論理ボリューム上になければなりません。
-
root (
/
) -
/home
-
/tmp
-
/var
-
/var/crash/
-
/var/log
/var/log/audit
重要/usr
用に別のパーティションを作成しないでください。別のパーティションを作成すると、インストールに失敗します。/usr
は、RHVH と共にバージョンを変更できる論理ボリューム上になければなりません。したがって、root (/
) 上に残す必要があります。各パーティションに必要なストレージサイズの詳細は、ストレージの要件 を参照してください。
-
root (
-
/boot
ディレクトリーは、標準のパーティションとして定義する必要があります。 -
/var
ディレクトリーは、別のボリュームまたはディスク上になければなりません。 - XFS または Ext4 ファイルシステムのみがサポートされます。
キックスタートファイルでの手動パーティション設定の定義
以下の例は、キックスタートファイルでパーティションを手動設定する方法を示しています。
clearpart --all part /boot --fstype xfs --size=1000 --ondisk=sda part pv.01 --size=42000 --grow volgroup HostVG pv.01 --reserved-percent=20 logvol swap --vgname=HostVG --name=swap --fstype=swap --recommended logvol none --vgname=HostVG --name=HostPool --thinpool --size=40000 --grow logvol / --vgname=HostVG --name=root --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=6000 --grow logvol /var --vgname=HostVG --name=var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=15000 logvol /var/crash --vgname=HostVG --name=var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10000 logvol /var/log --vgname=HostVG --name=var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8000 logvol /var/log/audit --vgname=HostVG --name=var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2000 logvol /home --vgname=HostVG --name=home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1000 logvol /tmp --vgname=HostVG --name=tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1000
logvol --thinpool --grow
を使用する場合は、シンプールを拡張するために、volgroup --reserved-space
または volgroup --reserved-percent
のボリュームグループに領域を確保する必要があります。
4.1.3.2. インストーラーのサポートなしでホストに DUD ドライバーをインストールする
RHVH のデフォルト設定でサポートされていないハードウェア RAID デバイスを使用する場合など、Red Hat Virtualization Host (RHVH) のインストールにドライバー更新ディスク (DUD) が必要な場合があります。Red Hat Enterprise Linux ホストとは対照的に、RHVH は DUD の使用を完全にはサポートしていません。その後、ホストは RAID を認識しないため、インストール後に正常に起動できません。代わりに、緊急モードで起動します。
出力例:
Warning: /dev/test/rhvh-4.4-20210202.0+1 does not exist Warning: /dev/test/swap does not exist Entering emergency mode. Exit the shell to continue.
このような場合、インストールを完了する前に手動でドライバーを追加できます。
前提条件
- RHVH をインストールするマシン
- DUD
- DUD と RHVH に USB ドライブを使用している場合は 2 つ以上の使用可能な USB ポート
手順
- DUD をホストマシンにロードします。
RHVH をインストールします。コマンドラインを使用したセルフホストエンジンの Red Hat Virtualization のインストール の Red Hat Virtualization Hosts のインストール を参照してください。
重要インストールが完了したら、システムを再起動しないでください。
ヒントSSH を使用して DUD にアクセスする場合は、次の手順を実行します。
文字列
inst.sshd
をカーネルコマンドラインに追加します。<kernel_command_line> inst.sshd
- インストール中にネットワークを有効にします。
- Ctrl + Alt + F3 を押して、コンソールモードに入ります。または、SSH を使用して接続することもできます。
DUD をマウントします。
# mkdir /mnt/dud # mount -r /dev/<dud_device> /mnt/dud
DUD 内の RPM ファイルをターゲットマシンのディスクにコピーします。
# cp /mnt/dud/rpms/<path>/<rpm_file>.rpm /mnt/sysroot/root/
以下に例を示します。
# cp /mnt/dud/rpms/x86_64/kmod-3w-9xxx-2.26.02.014-5.el8_3.elrepo.x86_64.rpm /mnt/sysroot/root/
root ディレクトリーを
/mnt/sysroot/
に変更します。# chroot /mnt/sysroot
現在の initrd イメージをバックアップします。以下に例を示します。
# cp -p /boot/initramfs-4.18.0-240.15.1.el8_3.x86_64.img /boot/initramfs-4.18.0-240.15.1.el8_3.x86_64.img.bck1 # cp -p /boot/rhvh-4.4.5.1-0.20210323.0+1/initramfs-4.18.0-240.15.1.el8_3.x86_64.img /boot/rhvh-4.4.5.1-0.20210323.0+1/initramfs-4.18.0-240.15.1.el8_3.x86_64.img.bck1
以前に作成したコピーからドライバーの RPM ファイルをインストールします。
以下に例を示します。
# dnf install /root/kmod-3w-9xxx-2.26.02.014-5.el8_3.elrepo.x86_64.rpm
注記インストールされた環境で再起動すると、このパッケージはシステムに表示されなくなるため、たとえば
initramfs
を再構築するために必要な場合は、そのパッケージをもう一度インストールする必要があります。インストールすると、パッケージは残ります。dnf
を使用してホストを更新する場合、ドライバーの更新は保持されるため、このプロセスを繰り返す必要はありません。ヒントインターネットに接続していない場合は、
dnf
の代わりにrpm
コマンドを使用してください。# rpm -ivh /root/kmod-3w-9xxx-2.26.02.014-5.el8_3.elrepo.x86_64.rpm
新しいイメージを作成し、ドライバーを強制的に追加します。
# dracut --force --add-drivers <module_name> --kver <kernel_version>
以下に例を示します。
# dracut --force --add-drivers 3w-9xxx --kver 4.18.0-240.15.1.el8_3.x86_64
結果を確認します。新しいイメージは大きくなり、ドライバーが含まれているはずです。たとえば、元のバックアップされたイメージファイルと新しいイメージファイルのサイズを比較します。
この例では、新しいイメージファイルは 88739013 バイトであり、元の 88717417 バイトよりも大きくなっています。
# ls -ltr /boot/initramfs-4.18.0-240.15.1.el8_3.x86_64.img* -rw-------. 1 root root 88717417 Jun 2 14:29 /boot/initramfs-4.18.0-240.15.1.el8_3.x86_64.img.bck1 -rw-------. 1 root root 88739013 Jun 2 17:47 /boot/initramfs-4.18.0-240.15.1.el8_3.x86_64.img
イメージファイルの一部として、新しいドライバーが含まれている必要があります。たとえば、3w-9xxx モジュールが含まれている必要があります。
# lsinitrd /boot/initramfs-4.18.0-240.15.1.el8_3.x86_64.img | grep 3w-9xxx drwxr-xr-x 2 root root 0 Feb 22 15:57 usr/lib/modules/4.18.0-240.15.1.el8_3.x86_64/weak-updates/3w-9xxx lrwxrwxrwx 1 root root 55 Feb 22 15:57 usr/lib/modules/4.18.0-240.15.1.el8_3.x86_64/weak-updates/3w-9xxx/3w-9xxx.ko-../../../4.18.0-240.el8.x86_64/extra/3w-9xxx/3w-9xxx.ko drwxr-xr-x 2 root root 0 Feb 22 15:57 usr/lib/modules/4.18.0-240.el8.x86_64/extra/3w-9xxx -rw-r--r-- 1 root root 80121 Nov 10 2020 usr/lib/modules/4.18.0-240.el8.x86_64/extra/3w-9xxx/3w-9xxx.ko
インストールするレイヤーで使用されるカーネルを含む
/boot
の下のディレクトリーにイメージをコピーします。以下はその例です。# cp -p /boot/initramfs-4.18.0-240.15.1.el8_3.x86_64.img /boot/rhvh-4.4.5.1-0.20210323.0+1/initramfs-4.18.0-240.15.1.el8_3.x86_64.img
- chroot を終了します。
- シェルを終了します。
- Ctrl + Alt + F3 を使用して仮想端末にアクセスした場合は、Ctrl + Alt + F_ <n> _ (通常は F1 または F5) を押してインストーラーに戻ります。
- インストーラー画面で、再起動します。
検証
マシンは正常に再起動するはずです。
4.1.3.3. Red Hat Virtualization Host デプロイメントの自動化
物理メディアデバイスなしに Red Hat Virtualization Host (RHVH) をインストールすることができます。そのためには、インストールの質問に対する回答が含まれたキックスタートファイルを使用し、ネットワーク経由で PXE サーバーから起動します。
ホストのオペレーティングシステムのインストールまたは再インストールを行う場合、Red Hat では、ホストにアタッチされている既存の OS 以外のストレージを最初にデタッチすることを強く推奨しています。これは、ディスクを誤って初期化してデータが失われる可能性を避けるためです。
RHVH は Red Hat Enterprise Linux とほぼ同じ方法でインストールされます。キックスタートファイルを使用して PXE サーバーからインストールする手順については、Red Hat Enterprise Linux インストールガイドの キックスタートを使ったインストール を参照してください。RHVH に固有の手順 (Red Hat Satellite を使用した RHVH のデプロイメントを例として使用) については、この後に説明します。
RHVH の自動デプロイメントは、以下の 3 つのステージで設定されます。
4.1.3.3.1. インストール環境の準備
- Red Hat カスタマーポータルの Red Hat Virtualization を使い始める にアクセスし、ログインします。
- Download Latest をクリックして、製品のダウンロードページに移動します。
- 一覧から RHV に適した Hypervisor Image for RHV を選択し、Download Now をクリックします。
- RHVH ISO イメージをネットワーク経由で提供できるようにします。Red Hat Enterprise Linux インストールガイド の インストールソース - ネットワーク を参照してください。
RHVH ISO から squashfs.img ハイパーバイザーイメージファイルを抽出します。
# mount -o loop /path/to/RHVH-ISO /mnt/rhvh # cp /mnt/rhvh/Packages/redhat-virtualization-host-image-update* /tmp # cd /tmp # rpm2cpio redhat-virtualization-host-image-update* | cpio -idmv
注記/tmp/usr/share/redhat-virtualization-host/image/
ディレクトリーにある squashfs.img ファイルの名前は redhat-virtualization-host-version_number_version.squashfs.img です。物理マシンにインストールするためのハイパーバイザーイメージが含まれます。Anacondainst.stage2
オプションで使用される /LiveOS/squashfs.img ファイルと混同しないでください。
4.1.3.3.2. PXE サーバーおよびブートローダーの設定
- PXE サーバーを設定します。Red Hat Enterprise Linux インストールガイド の ネットワークからのインストールの準備 を参照してください。
RHVH 起動イメージを
/tftpboot
ディレクトリーにコピーします。# cp mnt/rhvh/images/pxeboot/{vmlinuz,initrd.img} /var/lib/tftpboot/pxelinux/
ブートローダー設定で RHVH 起動イメージを指定して、
rhvh
ラベルを作成します。LABEL rhvh MENU LABEL Install Red Hat Virtualization Host KERNEL /var/lib/tftpboot/pxelinux/vmlinuz APPEND initrd=/var/lib/tftpboot/pxelinux/initrd.img inst.stage2=URL/to/RHVH-ISO
Red Hat Satellite の RHVH ブートローダー設定の例
Red Hat Satellite からの情報を使用してホストをプロビジョニングする場合には、グローバルまたはホストグループレベルのパラメーターを作成し (ここでは
rhvh_image
)、ISO をマウントまたは抽出するディレクトリーの URL を定義する必要があります。<%# kind: PXELinux name: RHVH PXELinux %> # Created for booting new hosts # DEFAULT rhvh LABEL rhvh KERNEL <%= @kernel %> APPEND initrd=<%= @initrd %> inst.ks=<%= foreman_url("provision") %> inst.stage2=<%= @host.params["rhvh_image"] %> intel_iommu=on console=tty0 console=ttyS1,115200n8 ssh_pwauth=1 local_boot_trigger=<%= foreman_url("built") %> IPAPPEND 2
RHVH ISO の内容をローカルで利用可能な状態にし、たとえば HTTPD サーバーを使用して、ネットワークにエクスポートします。
# cp -a /mnt/rhvh/ /var/www/html/rhvh-install # curl URL/to/RHVH-ISO/rhvh-install
4.1.3.3.3. キックスタートファイルの作成と実行
- キックスタートファイルを作成し、ネットワーク経由で提供できるようにします。Red Hat Enterprise Linux インストールガイド の キックスタートを使ったインストール を参照してください。
キックスタートファイルは以下に示す RHV 固有の要件を満たす必要があります。
RHVH に
%packages
セクションは必要ありません。代わりに、liveimg
オプションを使用して、RHVH ISO イメージから redhat-virtualization-host-version_number_version.squashfs.img ファイルを指定します。liveimg --url=example.com/tmp/usr/share/redhat-virtualization-host/image/redhat-virtualization-host-version_number_version.squashfs.img
自動パーティション設定は強く推奨されますが、使用に際して注意が必要です。最初にローカルディスクが検出されることを確認し、
ignoredisk
コマンドを追加してsda
のようにローカルディスクが無視するように指定します。特定のドライブを使用する場合、Red Hat は、ignoredisk --only-use=/dev/disk/<path>
またはignoredisk --only-use=/dev/disk/<ID>
の使用を推奨します。autopart --type=thinp ignoredisk --only-use=sda ignoredisk --only-use=/dev/disk/<path> ignoredisk --only-use=/dev/disk/<ID>
注記自動パーティション設定には、シンプロビジョニングが必要です。
/home
は必須のディレクトリーであるため、RHVH では--no-home
オプションは機能しません。インストールで手動パーティション設定が必要な場合は、パーティション設定に適用される制限の一覧およびキックスタートファイルでの手動パーティション設定の例を カスタムパーティション設定 で確認してください。
nodectl init
コマンドを呼び出す%post
セクションが必要です。%post nodectl init %end
注記nodectl init
コマンドが%post
セクションの最後で、再起動コードがある場合はその前にあることを確認してください。RHVH を独自にデプロイするためのキックスタート例
このキックスタートの例では、RHVH のデプロイ方法を示しています。必要に応じて、コマンドとオプションをさらに追加してください。
警告この例では、すべてのディスクが空であり、初期化可能であることを前提としています。データを含むディスクが割り当てられている場合は、そのディスクを削除するか、
ignoredisks
プロパティーに追加します。liveimg --url=http://FQDN/tmp/usr/share/redhat-virtualization-host/image/redhat-virtualization-host-version_number_version.squashfs.img clearpart --all autopart --type=thinp rootpw --plaintext ovirt timezone --utc America/Phoenix zerombr text reboot %post --erroronfail nodectl init %end
Satellite から登録およびネットワーク設定を使用した RHVH をデプロイするためのキックスタートの例
このキックスタートの例では、Red Hat Satellite からの情報を使用してホストネットワークを設定し、ホストを Satellite サーバーに登録します。グローバルまたはホストグループレベルのパラメーターを作成し (ここでは
rhvh_image
)、squashfs.img ファイルを格納するディレクトリーの URL を定義する必要があります。ntp_server1
もグローバルまたはホストグループレベルの変数です。警告この例では、すべてのディスクが空であり、初期化可能であることを前提としています。データを含むディスクが割り当てられている場合は、そのディスクを削除するか、
ignoredisks
プロパティーに追加します。<%# kind: provision name: RHVH Kickstart default oses: - RHVH %> install liveimg --url=<%= @host.params['rhvh_image'] %>squashfs.img network --bootproto static --ip=<%= @host.ip %> --netmask=<%= @host.subnet.mask %> --gateway=<%= @host.subnet.gateway %> --nameserver=<%= @host.subnet.dns_primary %> --hostname <%= @host.name %> zerombr clearpart --all autopart --type=thinp rootpw --iscrypted <%= root_pass %> # installation answers lang en_US.UTF-8 timezone <%= @host.params['time-zone'] || 'UTC' %> keyboard us firewall --service=ssh services --enabled=sshd text reboot %post --log=/root/ks.post.log --erroronfail nodectl init <%= snippet 'subscription_manager_registration' %> <%= snippet 'kickstart_networking_setup' %> /usr/sbin/ntpdate -sub <%= @host.params['ntp_server1'] || '0.fedora.pool.ntp.org' %> /usr/sbin/hwclock --systohc /usr/bin/curl <%= foreman_url('built') %> sync systemctl reboot %end
キックスタートファイルの場所を、PXE サーバーのブートローダー設定ファイルに追加します。
APPEND initrd=/var/tftpboot/pxelinux/initrd.img inst.stage2=URL/to/RHVH-ISO inst.ks=URL/to/RHVH-ks.cfg
- Red Hat Enterprise Linux インストールガイド の PXE を使ったネットワークからの起動 に記載された手順に従って、RHVH をインストールします。
4.2. Red Hat Enterprise Linux ホスト
4.2.1. Red Hat Enterprise Linux ホストのインストール
Red Hat Enterprise Linux ホストは、Red Hat Enterprise Linux Server
および Red Hat Virtualization
サブスクリプションがアタッチされた、物理サーバー上の Red Hat Enterprise Linux 8 の標準的な基本インストールをベースにしています。
詳細なインストール手順は、標準的な RHEL インストールの実行 を参照してください。
ホストは最低限の ホスト要件 を満たしている必要があります。
ホストのオペレーティングシステムのインストールまたは再インストールを行う場合、Red Hat では、ホストにアタッチされている既存の OS 以外のストレージを最初にデタッチすることを強く推奨しています。これは、ディスクを誤って初期化してデータが失われる可能性を避けるためです。
ホストの BIOS 設定で仮想化が有効になっている必要があります。ホストの BIOS 設定の変更に関する詳細は、そのホストのハードウェアのマニュアルを参照してください。
サードパーティー製の watchdogs は、Red Hat Enterprise Linux ホストにインストールしないでください。VDSM が提供する watchdog デーモンを妨げる可能性があります。
4.2.2. Red Hat Enterprise Linux ホストのリポジトリーの有効化
Red Hat Enterprise Linux マシンをホストとして使用するには、システムをコンテンツ配信ネットワークに登録し、Red Hat Enterprise Linux Server
および Red Hat Virtualization
サブスクリプションを割り当て、ホストのリポジトリーを有効にする必要があります。
手順
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
Red Hat Enterprise Linux Server
およびRed Hat Virtualization
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=poolid
注記現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。
# subscription-manager list --consumed
有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。
# dnf repolist
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-8-for-x86_64-baseos-eus-rpms \ --enable=rhel-8-for-x86_64-appstream-eus-rpms \ --enable=rhv-4-mgmt-agent-for-rhel-8-x86_64-rpms \ --enable=fast-datapath-for-rhel-8-x86_64-rpms \ --enable=advanced-virt-for-rhel-8-x86_64-rpms \ --enable=openstack-16.2-cinderlib-for-rhel-8-x86_64-rpms \ --enable=rhceph-4-tools-for-rhel-8-x86_64-rpms
IBM POWER8 または IBM POWER9 (リトルエンディアン) ハードウェアに Red Hat Enterprise Linux 8 ホストをインストールする場合:
# subscription-manager repos \ --disable='*' \ --enable=rhv-4-mgmt-agent-for-rhel-8-ppc64le-rpms \ --enable=rhv-4-tools-for-rhel-8-ppc64le-rpms \ --enable=advanced-virt-for-rhel-8-ppc64le-rpms \ --enable=rhel-8-for-ppc64le-appstream-rpms \ --enable=rhel-8-for-ppc64le-baseos-rpms \ --enable=fast-datapath-for-rhel-8-ppc64le-rpms \
RHEL のバージョンを 8.6 に設定します。
# subscription-manager release --set=8.6
現在インストールされている全パッケージを最新の状態にします。
# dnf upgrade --nobest
マシンを再起動します。
注記必要に応じて、 カーネルモジュールが自動的に読み込まれないようにする ことができます。
4.2.3. Red Hat Enterprise Linux ホストへの Cockpit のインストール
ホストのリソースの監視および管理タスクの実施のために、Cockpit をインストールすることができます。
手順
dashboard パッケージをインストールします。
# dnf install cockpit-ovirt-dashboard
cockpit.socket
サービスを有効にして起動します。# systemctl enable cockpit.socket # systemctl start cockpit.socket
ファイアウォールで Cockpit がアクティブなサービスかどうかを確認します。
# firewall-cmd --list-services
cockpit
のリストが表示されるはずです。表示されない場合には、root 権限で以下のコマンドを入力し、cockpit
をサービスとしてファイアウォールに追加します。# firewall-cmd --permanent --add-service=cockpit
--permanent
オプションは、再起動後もcockpit
サービスをアクティブな状態で維持します。
https://HostFQDNorIP:9090
で Cockpit Web インターフェイスにログインできます。
4.3. ホストネットワーク設定の推奨プラクティス
クラスター内のホストのネットワーク設定を変更するには、RHV Manager を常に使用します。使用しない場合は、サポート対象外の設定が作成される可能性があります。詳細は、Network Manager のステートフル設定 (nmstate) を参照してください。
お使いのネットワーク環境が複雑な場合には、ホストを Red Hat Virtualization Manager に追加する前に、ホストネットワークを手動で設定しなければならない場合があります。
以下に示すホストネットワーク設定のプラクティスを検討してください。
-
Cockpit を使用してネットワークを設定。
nmtui
またはnmcli
を使用することも可能。 - セルフホストエンジンのデプロイメントまたは Manager へのホスト追加にネットワークが必要ない場合には、ホストを Manager に追加した後に、管理ポータルでネットワークを設定します。データセンターまたはクラスターでの新しい論理ネットワークの作成 を参照。
以下の命名規則を使用する。
-
VLAN デバイス:
VLAN_NAME_TYPE_RAW_PLUS_VID_NO_PAD
-
VLAN インターフェイス:
physical_device.VLAN_ID
(例:eth0.23
,eth1.128
,enp3s0.50
) -
ボンディングインターフェイス:
bondnumber
(例:bond0
,bond1
) -
ボンディングインテリアの VLAN:
bondnumber.VLAN_ID
(例:bond0.50
,bond1.128
)
-
VLAN デバイス:
- ネットワークボンディング を使用。Red Hat Virtualization ではネットワークチーミングはサポートされておらず、セルフホストエンジンのデプロイメントにホストが使用されたりホストが Manager に追加されたりすると、エラーが発生する原因となります。
推奨されるボンディングモードを使用。
-
仮想マシンが
ovirtmgmt
ネットワークを使用しない場合には、ネットワークではサポートされるいずれかのボンディングモードが使用される。 -
仮想マシンが
ovirtmgmt
ネットワークを使用する場合には、仮想マシンのゲストが接続するブリッジで使用される場合にどのボンディングモードが有効ですか? を参照。 -
Red Hat Virtualization のデフォルトのボンディングモードは
(Mode 4) Dynamic Link Aggregation
です。お使いのスイッチがリンクアグリゲーション制御プロトコル (LACP) に対応していない場合には、(Mode 1) Active-Backup
を使用してください。詳細は、ボンドモード を参照。
-
仮想マシンが
以下の例に示すように、物理 NIC 上に VLAN を設定します (以下の例では
nmcli
を使用していますが、任意のツールを使用できます)。# nmcli connection add type vlan con-name vlan50 ifname eth0.50 dev eth0 id 50 # nmcli con mod vlan50 +ipv4.dns 8.8.8.8 +ipv4.addresses 123.123.0.1/24 +ipv4.gateway 123.123.0.254
以下の例に示すように、ボンディング上に VLAN を設定すします (以下の例では
nmcli
を使用していますが、任意のツールを使用することができます)。# nmcli connection add type bond con-name bond0 ifname bond0 bond.options "mode=active-backup,miimon=100" ipv4.method disabled ipv6.method ignore # nmcli connection add type ethernet con-name eth0 ifname eth0 master bond0 slave-type bond # nmcli connection add type ethernet con-name eth1 ifname eth1 master bond0 slave-type bond # nmcli connection add type vlan con-name vlan50 ifname bond0.50 dev bond0 id 50 # nmcli con mod vlan50 +ipv4.dns 8.8.8.8 +ipv4.addresses 123.123.0.1/24 +ipv4.gateway 123.123.0.254
-
firewalld
は無効にしないでください。 - ホストを Manager に追加した後に、管理ポータルでファイアウォールルールをカスタマイズします。ホストファイアウォールルールの設定 を参照。
4.4. Red Hat Virtualization Manager への通常ホストの追加
クラスター内のホストのネットワーク設定を変更するには、必ず RHV Manager を使用します。使用しない場合は、サポート対象外の設定が作成される可能性があります。詳細は、Network Manager Stateful Configuration (nmstate) を参照してください。
Red Hat Virtualization 環境にホストを追加するには、仮想化のチェック、パッケージのインストール、およびブリッジ作成の各ステップをプラットフォームで完了する必要があるため、多少時間がかかります。
手順
- 管理ポータルから Compute → Hosts をクリックします。
- New をクリックします。
- ドロップダウンリストを使用して、新規ホスト用の Data Center および Host Cluster を選択します。
- 新規ホストの Name と Address を入力します。SSH Port フィールドには、標準の SSH ポートであるポート 22 が自動入力されます。
Manager がホストにアクセスするために使用する認証メソッドを選択します。
- パスワード認証を使用するには、root ユーザーのパスワードを入力します。
- または、SSH PublicKey フィールドに表示される鍵をホスト上の /root/.ssh/authorized_keys にコピーして、公開鍵認証を使用します。
オプションで、Advanced Parameters ボタンをクリックして、以下に示すホストの詳細設定を変更します。
- ファイアウォールの自動設定を無効にします。
- ホストの SSH フィンガープリントを追加し、セキュリティーを強化します。手動での追加または自動取得が可能です。
- ホストにサポート対象の電源管理カードが搭載されている場合は、オプションとして電源管理を設定することができます。電源管理の設定に関する詳細は、管理ガイド の ホストパワーマネージメント設定の説明 を参照してください。
- OK をクリックします。
新規ホストが Installing
のステータスでホスト一覧に表示され、通知トレイ (
) の イベント セクションでインストールの進捗状況を確認できます。しばらくすると、ホストのステータスが
Up
に変わります。
第5章 Red Hat Virtualization 用ストレージの準備
新たな環境のストレージドメインとして使用するストレージを準備する必要があります。Red Hat Virtualization 環境には少なくとも 1 つのデータストレージドメインが必要ですが、さらに追加することを推奨します。
ホストのオペレーティングシステムのインストールまたは再インストールを行う場合、Red Hat では、ホストにアタッチされている既存の OS 以外のストレージを最初にデタッチすることを強く推奨しています。これは、ディスクを誤って初期化してデータが失われる可能性を避けるためです。
データドメインには、データセンター内の仮想マシンおよびテンプレートの仮想ハードディスクと OVF ファイルを格納します。このドメインは、アクティブな間は複数のデータセンター間で共有することはできません (ただし、データセンター間で移行することは可能です)。複数のストレージタイプのデータドメインを同じデータセンターに追加することは可能ですが、それらはすべてローカルドメインではなく、全ホストがアクセス可能なドメインであることが条件となります。
以下のストレージタイプのいずれかを使用することができます。
5.1. NFS ストレージの準備
ファイルストレージまたはリモートサーバーで NFS 共有を設定し、Red Hat Enterprise Virtualization Host システムのストレージドメインとして機能するようにします。リモートストレージで共有をエクスポートし、Red Hat Virtualization Manager で共有を設定すると、共有は Red Hat Virtualization Host に自動的にインポートされます。
NFS の準備、設定、マウント、およびエクスポートに関する詳細は、Red Hat Enterprise Linux 8 の ファイルシステムの管理 を参照してください。
Red Hat Virtualization には、特定のシステムユーザーアカウントおよびシステムユーザーグループが必要です。これにより、Manager はストレージドメイン (エクスポートしたディレクトリー) にデータを保管することができます。以下の手順では、1 つのディレクトリーのパーミションを設定しています。Red Hat Virtualization のストレージドメインとして使用するすべてのディレクトリーについて、chown
および chmod
のステップを繰り返す必要があります。
前提条件
NFS
utils
パッケージをインストールする。# dnf install nfs-utils -y
以下のコマンドを実行して、有効なバージョンを確認する。
# cat /proc/fs/nfsd/versions
以下のサービスを有効にする。
# systemctl enable nfs-server # systemctl enable rpcbind
手順
kvm
グループを作成します。# groupadd kvm -g 36
kvm
グループにvdsm
ユーザーを作成します。# useradd vdsm -u 36 -g kvm
storage
ディレクトリーを作成し、アクセス権を変更します。# mkdir /storage # chmod 0755 /storage # chown 36:36 /storage/
storage
ディレクトリーを、適切なパーミッションで/etc/exports
に追加します。# vi /etc/exports # cat /etc/exports /storage *(rw)
以下のサービスを再起動します。
# systemctl restart rpcbind # systemctl restart nfs-server
特定の IP アドレスで利用可能なエクスポートを確認するには、以下のコマンドを実行します。
# exportfs /nfs_server/srv 10.46.11.3/24 /nfs_server <world>
サービス起動後に /etc/exports
を変更した場合は、exportfs -ra
コマンドを使用してその変更を再読み込みできます。上記のすべての手順を実行すると、exports ディレクトリーが準備でき、利用可能かどうかを確認するため、別のホストでテストすることができます。
5.2. iSCSI ストレージの準備
Red Hat Virtualization は、LUN で設定されるボリュームグループから作成されるストレージドメインである iSCSI ストレージをサポートします。ボリュームグループおよび LUN は、いずれも同時に複数のストレージドメインにアタッチすることはできません。
iSCSI ストレージの設定および設定方法は、Red Hat Enterprise Linux 8 の ストレージデバイスの管理 の iSCSI ターゲット の設定 を参照してください。
ブロックストレージを使用する際に、仮想マシンを Raw デバイスまたは直接 LUN にデプロイして論理ボリュームマネージャー (LVM) で管理する場合は、フィルターを作成してゲストの論理ボリュームを除外する必要があります。これにより、ホストの起動時にゲストの論理ボリュームがアクティブ化されるのを防ぐことができます。アクティブ化されると、論理ボリュームの内容が古くなり、データ破損が生じる可能性があります。vdsm-tool config-lvm-filter
コマンドを使用して、LVM のフィルターを作成します。LVM フィルターの作成 を参照してください。
現状、Red Hat Virtualization はブロックサイズ 4K のブロックストレージはサポートしていません。ブロックストレージはレガシー (512b ブロック) モードで設定する必要があります。
SAN ストレージから起動したホストがストレージへの接続を失うと、ストレージファイルシステムは読み取り専用になり、接続が回復した後もその状態が続きます。
この状態を回避するには、ブート LUN の SAN のルートファイルシステムにドロップインマルチパス設定ファイルを追加し、接続可能な場合にキューに置かれるようにしてください。
# cat /etc/multipath/conf.d/host.conf
multipaths {
multipath {
wwid boot_LUN_wwid
no_path_retry queue
}
5.3. FCP ストレージの準備
Red Hat Virtualization は、既存の LUN で設定されるボリュームグループからストレージドメインを作成することで、SAN ストレージをサポートしています。ボリュームグループおよび LUN は、いずれも同時に複数のストレージドメインにアタッチすることはできません。
Red Hat Virtualization システムの管理者には Storage Area Networks (SAN) に関する作業知識が必要になります。SAN は通常、ホストと外部の共有ストレージ間のトラフィックにファイバーチャネルプロトコル (FCP) を使用します。このため、SAN は FCP ストレージとも呼ばれています。
Red Hat Enterprise Linux での FCP またはマルチパスの準備および設定に関する情報は、ストレージ管理ガイド および DM Multipath ガイド を参照してください。
ブロックストレージを使用する際に、仮想マシンを Raw デバイスまたは直接 LUN にデプロイして論理ボリュームマネージャー (LVM) で管理する場合は、フィルターを作成してゲストの論理ボリュームを除外する必要があります。これにより、ホストの起動時にゲストの論理ボリュームがアクティブ化されるのを防ぐことができます。アクティブ化されると、論理ボリュームの内容が古くなり、データ破損が生じる可能性があります。vdsm-tool config-lvm-filter
コマンドを使用して、LVM のフィルターを作成します。LVM フィルターの作成 を参照してください。
現状、Red Hat Virtualization はブロックサイズ 4K のブロックストレージはサポートしていません。ブロックストレージはレガシー (512b ブロック) モードで設定する必要があります。
SAN ストレージから起動したホストがストレージへの接続を失うと、ストレージファイルシステムは読み取り専用になり、接続が回復した後もその状態が続きます。
この状態を回避するには、ブート LUN の SAN のルートファイルシステムにドロップインマルチパス設定ファイルを追加し、接続可能な場合にキューに置かれるようにしてください。
# cat /etc/multipath/conf.d/host.conf
multipaths {
multipath {
wwid boot_LUN_wwid
no_path_retry queue
}
}
5.4. POSIX 準拠ファイルシステムストレージの準備
POSIX ファイルシステムのサポートにより、通常コマンドラインから手動でマウントするときと同じマウントオプションを使ってファイルシステムをマウントすることができます。この機能は、NFS、iSCSI、または FCP 以外を使用してマウントするストレージへのアクセスを可能にすることを目的としています。
Red Hat Virtualization でストレージドメインとして使用する POSIX 準拠のファイルシステムは、Global File System 2 (GFS2) 等のクラスター化したファイルシステムでなければなりません。また、スパースファイルおよびダイレクト I/O をサポートしている必要があります。たとえば、Common Internet File System (CIFS) は、ダイレクト I/O をサポートしていないため、Red Hat Virtualization との互換性はありません。
POSIX 準拠ファイルシステムストレージの準備および設定に関する情報は、Red Hat Enterprise Linux Global File System 2 を参照してください。
POSIX 準拠ファイルシステムのストレージドメインを作成して、NFS ストレージを マウントしないでください。必ず、NFS ストレージドメインを作成してください。
5.5. ローカルストレージの準備
Red Hat Virtualization Host (RHVH) の場合は、必ず /
(root) とは異なるファイルシステム上にローカルストレージを定義する必要があります。アップグレード中にデータが失われる可能性を防ぐために、別の論理ボリュームまたはディスクを使用します。
Red Hat Enterprise Linux ホストの場合
ホスト上に、ローカルストレージで使用するディレクトリーを作成します。
# mkdir -p /data/images
vdsm ユーザー (UID 36) および kvm グループ (GID 36) がそのディレクトリーにアクセスして読み取り/書き込みできるように、パーミッションを設定します。
# chown 36:36 /data /data/images # chmod 0755 /data /data/images
Red Hat Virtualization ホストの場合
論理ボリュームにローカルストレージを作成します。
ローカルストレージディレクトリーを作成します。
# mkdir /data # lvcreate -L $SIZE rhvh -n data # mkfs.ext4 /dev/mapper/rhvh-data # echo "/dev/mapper/rhvh-data /data ext4 defaults,discard 1 2" >> /etc/fstab # mount /data
新しいローカルストレージをマウントします。
# mount -a
vdsm ユーザー (UID 36) および kvm グループ (GID 36) が、そのディレクトリーにアクセスして読み取り/書き込みを行えるように、パーミッションを設定します。
# chown 36:36 /data /rhvh-data # chmod 0755 /data /rhvh-data
5.6. Red Hat Gluster Storage の準備
Red Hat Gluster Storage の準備および設定に関する情報は、Red Hat Gluster Storage インストールガイド を参照してください。
Red Hat Virtualization でサポートされている Red Hat Gluster Storage のバージョンについては、Red Hat Gluster Storage バージョンの互換性とサポート を参照してください。
5.7. SAN ベンダーのマルチパス設定のカスタマイズ
RHV 環境が SAN とのマルチパス接続を使用するように設定されている場合には、ストレージベンダーが指定する要件を満たすようにマルチパス設定をカスタマイズできます。このカスタマイズは、/etc/multipath.conf
で指定した設定と、デフォルトの設定の両方を上書きできます。
マルチパス設定を上書きする場合は、/etc/multipath.conf
をカスタマイズしないでください。VDSM は /etc/multipath.conf
を所有しているため、VDSM または Red Hat Virtualization をインストールまたはアップグレードすると、カスタマイズを含むこのファイルが上書きされます。この上書きにより、重大なストレージ障害が発生する可能性があります。
代わりに、カスタマイズまたは上書きする設定が含まれる /etc/multipath/conf.d
ディレクトリーにファイルを作成します。
VDSM は、/etc/multipath/conf.d
のファイルをアルファベット順に実行します。実行の順番を制御するには、ファイル名を番号で開始し、アルファベット順後の最後に来るようにします。たとえば、/etc/multipath/conf.d/90-myfile.conf
です。
重大なストレージ障害を引き起こさないように、以下のガイドラインに従ってください。
-
/etc/multipath.conf
は変更しないでください。ファイルにユーザー変更が含まれる場合にこのファイルが上書きされると、想定外のストレージ障害が発生する可能性があります。 -
user_friendly_names
とfind_multipaths
の設定を上書きしないでください。詳細については、Multipath.conf の推奨される設定 を参照してください。 -
ストレージベンダーから明示的に求められない限り、
no_path_retry
とpolling_interval
の設定を上書きしないようにします。詳細については、Multipath.conf の推奨される設定 を参照してください。
これらのガイドラインに従わないと、非常に深刻なストレージ障害が発生する可能性があります。
前提条件
VDSM がマルチパスモジュールを使用するように設定されている。これを確認するには、以下を入力します。
# vdsm-tool is-configured --module multipath
手順
-
/etc/multipath/conf.d
ディレクトリーに新しい設定ファイルを作成します。 -
上書きする個々の設定を、
/etc/multipath.conf
から/etc/multipath/conf.d/<my_device>.conf
内の新しい設定ファイルにコピーします。コメントマークを削除して設定値を編集し、変更を保存します。 以下を入力して、新しい設定を適用します。
# systemctl reload multipathd
注記multipathd サービスを再起動しないでください。これにより、VDSM ログにエラーが生成されます。
検証手順
- さまざまな障害シナリオで実稼働クラスター以外のクラスターを使用して、新しい設定が想定どおりに実行されことをテストします。たとえば、ストレージの接続をすべて無効にします。
- 一度に 1 つの接続を有効にし、これによりストレージドメインに到達可能であることを確認します。
5.8. 推奨される Multipath.conf 設定
以下の設定は上書きしないでください。
- user_friendly_names no
デバイス名は、すべてのハイパーバイザーで一貫性を保つ必要があります。たとえば、
/dev/mapper/{WWID}
です。この設定のデフォルト値no
は、さまざまなハイパーバイザー上の/dev/mapper/mpath{N}
など、任意で一貫性のないデバイス名の割り当てを阻止するため、システムの動作が予測できない可能性があります。警告この設定を
user_friendly_names yes
に変更しないでください。ユーザーフレンドリーな名前を使用すると、システムの想定外の動作や障害が発生する可能性が高く、サポートされていません。find_multipaths no
複数のパスを利用できる場合に RHVH がマルチパスを介してデバイスへのアクセスを試みるかどうかを制御します。現在の値
no
を使用すると、利用できるパスが 1 つしかない場合でも、RHV がマルチパスを介してデバイスにアクセスできるようになります。警告この設定は上書きしないでください。
ストレージシステムベンダーが必要な場合を除き、以下の設定は上書きしないでください。
no_path_retry 4
-
利用可能なパスがない場合にポーリングを再試行する回数を制御します。RHV バージョン 4.2 より前は、パスが利用できない場合に QEMU の I/O キューに問題が生じていたため、
no_path_retry
の値はfail
でした。fail
値により、仮想マシンはすぐに失敗し、一時停止していました。RHV バージョン 4.2 ではこの値が4
に変更されました。これにより、multipathd は最後のパスが失敗したことを検知すると、すべてのパスをさらに 4 回確認します。ポーリングがデフォルトの 5 秒間隔で行われると仮定すると、パスの確認には 20 秒かかります。パスが起動しない場合、multipathd は、パスが復元されるまでキューを停止するようにカーネルに指示し、未処理および将来の I/O をすべて失敗させます。パスが復元されると、次にすべてのパスが失敗したときのために、20 秒間のパスの確認時間がリセットされます。詳細は、この設定を変更したコミット を参照してください。 polling_interval 5
- パスが開いているか、または失敗したかを検出するポーリングの試行間隔の秒数を決定します。ベンダーが値を増やす理由を明示しない限り、VDSM が生成するデフォルト値を維持します。これにより、システムはパスの失敗に早めの対応することができます。
第6章 Red Hat Virtualization 用ストレージの追加
新たな環境にデータドメインとしてストレージを追加します。Red Hat Virtualization 環境には少なくとも 1 つのデータドメインが必要ですが、さらに追加することを推奨します。
前の手順で準備したストレージを追加します。
6.1. NFS ストレージの追加
ここでは、既存の NFS ストレージをデータドメインとして Red Hat Virtualization 環境にアタッチする手順を説明します。
ISO またはエクスポートドメインが必要な場合も、この手順を使用します。ただし、Domain Function の一覧では ISO または Export を選択します。
手順
- 管理ポータルで Storage → Domains をクリックします。
- New Domain をクリックします。
- ストレージドメインの Name を入力します。
- Data Center、Domain Function、Storage Type、Format、および Host のリストのデフォルト値をそのまま使用します。
- ストレージドメインに使用する Export Path を入力します。エクスポートパスは、123.123.0.10:/data (IPv4 の場合)、[2001:0:0:0:0:0:0:5db1]:/data (IPv6 の場合)、または domain.example.com:/data の形式で指定する必要があります。
オプションで、詳細パラメーターを設定できます。
- Advanced Parameters をクリックします。
- Warning Low Space Indicator フィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告メッセージが表示され、ログに記録されます。
- Critical Space Action Blocker のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
- 削除後にワイプするオプションを有効にするには、Wipe After Delete チェックボックスを選択します。このオプションは、ドメインの作成後に編集できますが、その場合はすでに存在している wipe after delete プロパティーは変更されません。
- OK をクリックします。
新しい NFS データドメインのステータスは、ディスクの準備ができるまで Locked
になります。その後、データドメインはデータセンターに自動的にアタッチされます。
6.2. iSCSI ストレージの追加
ここでは、既存の iSCSI ストレージをデータドメインとして Red Hat Virtualization 環境にアタッチする手順について説明します。
手順
- Storage → Domains をクリックします。
- New Domain をクリックします。
- 新規ストレージドメインの Name を入力します。
- ドロップダウンリストから Data Center を選択します。
- Domain Function として Data を、Storage Type として iSCSI を、それぞれ選択します。
Host としてアクティブなホストを選択します。
重要ストレージドメインへの通信は、Manager から直接ではなく、選択したホストを介して行われます。したがって、ストレージドメインを設定する前には、全ホストがストレージデバイスにアクセスできる状態でなければなりません。
Manager は iSCSI ターゲットを LUN に、または LUN を iSCSI ターゲットにマッピングすることができます。New Domain ウィンドウでストレージタイプに iSCSI を選択すると、未使用の LUN が割り当てられた既知のターゲットが自動的に表示されます。ストレージの追加に使用するターゲットが表示されない場合は、ターゲットの検出機能を使用して検索することができます。表示されている場合は、次の手順に進んでください。
Discover Targets をクリックし、ターゲットの検出オプションを有効にします。Manager がターゲットを検出してログインすると、New Domain ウィンドウに、その環境では未使用の LUN が割り当てられたターゲットが自動的に表示されます。
注記環境外で使用されている LUN も表示されます。
Discover Targets のオプションを使用すると、多数のターゲットの LUN を追加したり、同じ LUN に複数のパスを追加したりすることができます。
重要REST API メソッド
discoveriscsi
を使用して、iSCSI ターゲットを検出する場合には、FQDN または IP アドレスを使用できますが、REST API メソッドiscsilogin
を使用してログインするには、検出された iSCSI ターゲットの詳細を使用する必要があります。詳細は、REST API ガイド の discoveriscsi を参照してください。- Address フィールドに iSCSI ホストの FQDN または IP アドレスを入力します。
-
Port フィールドには、ターゲットを参照する際にホストに接続するポートを入力します。デフォルトは
3260
です。 ストレージのセキュリティー保護に CHAP を使用している場合は、User Authentication チェックボックスを選択します。CHAP user name と CHAP password を入力してください。
注記REST API を使用して、特定ホストの iSCSI ターゲットに認証情報を定義することができます。詳細は、REST API ガイド の StorageServerConnectionExtensions: add を参照してください。
- Discover をクリックします。
検出結果から 1 つまたは複数のターゲットを選択し、1 つのターゲットの場合は Login をクリックします。複数のターゲットの場合は Login All をクリックします。
重要複数のパスのアクセスが必要な場合は、すべての必要なパスを通してターゲットを検出してログインする必要があります。ストレージドメインを変更してパスを追加する方法は、現在サポートされていません。
重要REST API メソッド
iscsilogin
を使用してログインする場合は、discoveriscsi
メソッドで検出された iSCSI ターゲット の詳細を使用する必要があります。詳細は、REST API ガイド の iscsilogin を参照してください。
- ターゲットの横に表示されている + ボタンをクリックします。エントリーが展開され、ターゲットにアタッチされている未使用の LUN がすべて表示されます。
- ストレージドメインの作成に使用する各 LUN のチェックボックスにチェックを入れます。
オプションで、詳細パラメーターを設定できます。
- Advanced Parameters をクリックします。
- Warning Low Space Indicator フィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告メッセージが表示され、ログに記録されます。
- Critical Space Action Blocker のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
- 削除後にワイプするオプションを有効にするには、Wipe After Delete チェックボックスを選択します。このオプションは、ドメインの作成後に編集できますが、その場合はすでに存在している wipe after delete プロパティーは変更されません。
- Discard After Delete のチェックボックスを選択して、削除後に破棄のオプションを有効化します。このオプションは、ドメインの作成後に編集できます。また、このオプションを利用できるのは、ブロックストレージドメインのみです。
- OK をクリックします。
同じターゲットに対して複数のストレージ接続パスを設定している場合は、iSCSI マルチパスの設定 に記載されている手順に従い、iSCSI のボンディング設定を完了してください。
現在のストレージネットワークを iSCSI ボンディングに移行するには、論理ネットワークから iSCSI ボンディングへの移行 を参照してください。
6.3. FCP ストレージの追加
ここは、既存の FCP ストレージをデータドメインとして Red Hat Virtualization 環境にアタッチする手順について説明します。
手順
- Storage → Domains をクリックします。
- New Domain をクリックします。
- ストレージドメインの Name を入力します。
ドロップダウンリストから FCP Data Center を選択します。
適切な FCP データセンターがない場合は
(none)
を選択します。- ドロップダウンリストから Domain Function および Storage Type を選択します。選択したデータセンターとの互換性がないストレージドメインタイプは選択できません。
Host フィールドでアクティブなホストを 1 台選択します。データセンターで初めて作成するデータドメインではない場合、そのデータセンターの SPM ホストを選択する必要があります。
重要ストレージドメインへの通信はすべて、Red Hat Virtualization Manager から直接ではなく、選択したホストを介して行われます。システムには、アクティブなホストが少なくとも 1 台存在し、選択したデータセンターにアタッチされている必要があります。全ホストがストレージデバイスにアクセスできる状態でなければ、ストレージドメインは設定できません。
- New Domain ウィンドウで、ストレージタイプとして Fibre Channel を選択した場合は、未使用の LUN が割り当てられた既知のターゲットが自動的に表示されます。LUN ID チェックボックスを選択し、使用可能な LUN をすべて選択します。
オプションで、詳細パラメーターを設定できます。
- Advanced Parameters をクリックします。
- Warning Low Space Indicator フィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告メッセージが表示され、ログに記録されます。
- Critical Space Action Blocker のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
- 削除後にワイプするオプションを有効にするには、Wipe After Delete チェックボックスを選択します。このオプションは、ドメインの作成後に編集できますが、その場合はすでに存在している wipe after delete プロパティーは変更されません。
- Discard After Delete のチェックボックスを選択して、削除後に破棄のオプションを有効化します。このオプションは、ドメインの作成後に編集できます。また、このオプションを利用できるのは、ブロックストレージドメインのみです。
- OK をクリックします。
使用準備中は、新規 FCP データドメインのステータスは Locked
になります。準備が整った時点で、自動的にデータセンターにアタッチされます。
6.4. POSIX 準拠ファイルシステムストレージの追加
ここでは、既存の POSIX 準拠ファイルシステムストレージをデータドメインとして Red Hat Virtualization 環境にアタッチする手順について説明します。
手順
- Storage → Domains をクリックします。
- New Domain をクリックします。
- ストレージドメインの Name を入力します。
-
このストレージドメインと関連付ける Data Center を選択します。選択したデータセンターのタイプは、POSIX (POSIX compliant FS) でなければなりません。または、
(none)
選択します。 Domain Function ドロップダウンリストから
Data
を選択し、Storage Type ドロップダウンリストからPOSIX compliant FS
を選択します。該当する場合は、ドロップダウンメニューから Format を選択します。
- Host のドロップダウンリストからホストを選択します。
-
通常は
mount
コマンドで指定するように、POSIX ファイルシステムへの Path を入力します。 -
通常は
-t
引数を使用してmount
コマンドで指定するように、VFS Type を入力します。有効な VFS タイプの一覧は、man mount
で確認してください。 -
通常は
mount
コマンドに-o
引数を指定して指定するように、追加の Mount Options を入力します。このマウントオプションはコンマ区切りリストで提示してください。有効なマウントオプションの一覧については、man mount
で確認してください。 オプションで、詳細パラメーターを設定できます。
- Advanced Parameters をクリックします。
- Warning Low Space Indicator フィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告メッセージが表示され、ログに記録されます。
- Critical Space Action Blocker フィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
- 削除後にワイプするオプションを有効にするには、Wipe After Delete チェックボックスを選択します。このオプションは、ドメインの作成後に編集できますが、その場合はすでに存在している wipe after delete プロパティーは変更されません。
- OK をクリックします。
6.5. ローカルストレージドメインの追加
ローカルストレージドメインをホストに追加する際、ローカルストレージディレクトリーへのパスを設定すると、自動的にローカルデータセンター、ローカルクラスター、ローカルストレージドメインが作成され、ホストが配置されます。
手順
- Compute → Hosts をクリックし、ホストを選択します。
- Management → Maintenance をクリックしてから OK をクリックします。ホストのステータスが Maintenance に変わります。
- Management → Configure Local Storage をクリックします。
- Data Center、Cluster、および Storage フィールドの横にある Edit ボタンをクリックし、ローカルのストレージドメインを設定して名前を付けます。
- 文字入力フィールドにローカルストレージへのパスを設定します。
- 該当する場合は、Optimization タブをクリックして新規ローカルストレージクラスターのメモリー最適化ポリシーを設定します。
- OK をクリックします。
Manager は、ローカルクラスター、ローカルストレージドメインを使用してローカルデータセンターをセットアップします。ホストのステータスも Up に変更します。
検証
- Storage → Domains をクリックします。
- 追加したローカルストレージドメインを探します。
ドメインのステータスは Active (
) である必要があります。また、Storage Type 列の値は Local on Host である必要があります。
これで、新しいローカルストレージドメインにディスクイメージをアップロードできます。
6.6. Red Hat Gluster Storage の追加
Red Hat Virtualization で Red Hat Gluster Storage を使用するには、Red Hat Virtualization で Red Hat Gluster Storage を使用する場合の設定 を参照してください。
Red Hat Virtualization でサポートされている Red Hat Gluster Storage のバージョンについては、Red Hat Gluster Storage バージョンの互換性とサポート を参照してください。
付録A Red Hat Virtualization Manager をオフラインでインストールするためのローカルリポジトリーの設定
コンテンツ配信ネットワークに直接接続できないシステムに Red Hat Virtualization Manager をインストールするには、インターネットアクセスのあるシステムに必要なパッケージをダウンロードしてから、オフラインの Manager マシンと共有可能なリポジトリーを作成します。リポジトリーをホストするシステムは、パッケージのインストール先となるクライアントシステムと同じネットワークに接続されている必要があります。
前提条件
- コンテンツ配信ネットワークへアクセスできるシステムにインストールされた Red Hat Enterprise Linux 8 Server。このシステムは、必要なすべてのパッケージをダウンロードし、それらのパッケージをオフラインのシステムに配布します。
- 十分なディスクの空き容量。この手順では、多数のパッケージをダウンロードするため、ディスクの空き容量は最大 50 GB 必要になります。
まずは、オンラインシステムで Red Hat Virtualization Manager のリポジトリーを有効にします。
Red Hat Virtualization Manager リポジトリーの有効化
ログインして、Red Hat Subscription Manager でオンラインのマシンを登録し、Red Hat Virtualization Manager
のサブスクリプションをアタッチして Manager のリポジトリーを有効にする必要があります。
手順
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
注記IPv6 ネットワークを使用している場合は、IPv6 移行メカニズムを使用して、コンテンツ配信ネットワークおよびサブスクリプションマネージャーにアクセスします。
Red Hat Virtualization Manager
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=pool_id
注記現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。
# subscription-manager list --consumed
有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。
# dnf repolist
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-8-for-x86_64-baseos-eus-rpms \ --enable=rhel-8-for-x86_64-appstream-eus-rpms \ --enable=rhv-4.4-manager-for-rhel-8-x86_64-rpms \ --enable=fast-datapath-for-rhel-8-x86_64-rpms \ --enable=jb-eap-7.4-for-rhel-8-x86_64-rpms \ --enable=openstack-16.2-cinderlib-for-rhel-8-x86_64-rpms \ --enable=rhceph-4-tools-for-rhel-8-x86_64-rpms
RHEL のバージョンを 8.6 に設定します。
# subscription-manager release --set=8.6
pki-deps
モジュールを有効にします。# dnf module -y enable pki-deps
postgresql
モジュールのバージョン 12 を有効にします。# dnf module -y enable postgresql:12
nodejs
モジュールのバージョン 14 を有効にします。# dnf module -y enable nodejs:14
インストール済みパッケージを同期して、利用可能な最新バージョンに更新します。
# dnf distro-sync --nobest
関連情報
モジュールおよびモジュールストリームの詳細は、ユーザー空間コンポーネントのインストール、管理、および削除 の以下のセクションを参照してください。
オフラインリポジトリーの設定
インターネットに接続されていないサーバーは、ファイル転送プロトコル (FTP) を使用して他のシステムのソフトウェアリポジトリーにアクセスすることができます。FTP リポジトリーを作成するには、目的の Manager マシンに
vsftpd
をインストールして設定します。vsftpd
パッケージをインストールします。# dnf install vsftpd
匿名ユーザーの ftp アクセスを有効にして、目的の Manager マシンから rpm ファイルにアクセスできるようにし、セキュリティー保護のために ftp サーバーでの書き込みを無効にします。
/etc/vsftpd/vsftpd.conf
ファイルを編集し、以下のようにanonymous_enable
およびwrite_enable
の値を変更します。anonymous_enable=YES write_enable=NO
vsftpd サービスを起動し、サービスがブート時に起動されることを確認します。
# systemctl start vsftpd.service # systemctl enable vsftpd.service
ファイアウォールルールを作成して FTP サービスを有効にし、
firewalld
サービスを再度読み込んで変更を適用します。# firewall-cmd --permanent --add-service=ftp # firewall-cmd --reload
Red Hat Enterprise Linux 8 は、デフォルトで SELinux を適用するため、SELinux が FTP アクセスを許可するように設定します。
# setsebool -P allow_ftpd_full_access=1
ダウンロードしたパッケージが利用できる
/var/ftp/pub/
ディレクトリー内にサブディレクトリーを作成します。# mkdir /var/ftp/pub/rhvrepo
設定した全ソフトウェアリポジトリーから
rhvrepo
ディレクトリーにパッケージをダウンロードします。これには、システムにアタッチしたコンテンツ配信ネットワークの全サブスクリプションプール用リポジトリーとローカルで設定したあらゆるリポジトリーが含まれます。# reposync -p /var/ftp/pub/rhvrepo --download-metadata
このコマンドにより、多数のパッケージとそのメタデータがダウンロードされるため、完了するまで時間かかります。
リポジトリーファイルを作成し、目的の Manager マシンの
/etc/yum.repos.d/
ディレクトリーにコピーします。設定ファイルは、手動またはスクリプトを使用して作成することができます。リポジトリーをホストしているマシンで、以下のスクリプトを実行します。
baseurl
の ADDRESS は、リポジトリーをホストしているマシンの IP アドレスまたは FQDN に置き換えます。#!/bin/sh REPOFILE="/etc/yum.repos.d/rhev.repo" echo -e " " > $REPOFILE for DIR in $(find /var/ftp/pub/rhvrepo -maxdepth 1 -mindepth 1 -type d); do echo -e "[$(basename $DIR)]" >> $REPOFILE echo -e "name=$(basename $DIR)" >> $REPOFILE echo -e "baseurl=ftp://__ADDRESS__/pub/rhvrepo/`basename $DIR`" >> $REPOFILE echo -e "enabled=1" >> $REPOFILE echo -e "gpgcheck=0" >> $REPOFILE echo -e "\n" >> $REPOFILE done
Manager の設定 に戻ります。パッケージは、コンテンツ配信ネットワークからではなく、ローカルリポジトリーからインストールされます。
トラブルシューティング
reposync
を実行すると、以下のエラーメッセージが表示される-
No available modular metadata for modular package "package_name_from_module" it cannot be installed on the system
- 解決方法
-
reposync がすべてのパッケージを正しくダウンロードできるように、
yum-utils-4.0.8-3.el8.noarch
以降がインストールされていることを確認してください。詳細は、Create a local repo with Red Hat Enterprise Linux 8 を参照してください。
付録B PCI パススルー用ホストの設定
これは、Red Hat Virtualization で SR-IOV を準備およびセットアップする方法を示す一連のトピックの 1 つです。詳細は、SR-IOV のセットアップと設定 を参照してください。
PCI パススルーを有効化すると、デバイスが仮想マシンに直接アタッチされているかのように、ホストのデバイスを仮想マシンで使用できます。PCI パススルー機能を有効化するには、仮想化拡張機能および IOMMU 機能を有効化する必要があります。以下の手順では、ホストを再起動する必要があります。すでにホストが Manager にアタッチされている場合は、最初にホストがメンテナンスモードに設定されていることを確認してください。
前提条件
- ホストハードウェアが PCI デバイスパススルーおよび割り当ての要件を満たしていることを確認する。詳細は、PCI デバイスの要件 を参照してください。
PCI パススルー用ホストの設定
- BIOS の仮想化拡張機能および IOMMU 拡張機能を有効にします。詳細は、Red Hat Enterprise Linux 仮想化の導入および管理ガイド の BIOS での INTEL VT-X と AMD-V の仮想化ハードウェア拡張の有効化 を参照してください。
ホストを Manager に追加する際に Hostdev Passthrough & SR-IOV のチェックボックスを選択するか、手動で grub 設定ファイルを編集して、カーネルの IOMMU フラグを有効化します。
- 管理ポータルから IOMMU フラグを有効化する方法については、Red Hat Virtualization Manager への通常ホストの追加 および カーネル設定の説明 を参照してください。
- 手動で grub 設定ファイルを編集する方法については、IOMMU の手動での有効化 を参照してください。
- GPU パススルーを有効にするには、ホストとゲストシステムの両方で追加の設定手順を実行する必要があります。詳細は、Red Hat Virtualization での仮想マシン用 NVIDIA GPU のセットアップ の GPU デバイスパススルー: 単一の仮想マシンへのホスト GPU の割り当て を参照してください。
IOMMU の手動での有効化
grub 設定ファイルを編集して IOMMU を有効化します。
注記IBM POWER8 ハードウェアを使用している場合は、デフォルトで IOMMU が有効になっているため、この手順は省略してください。
Intel の場合は、マシンを起動し、grub 設定ファイルの
GRUB_CMDLINE_LINUX
行の末尾にintel_iommu=on
を追加します。# vi /etc/default/grub ... GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... intel_iommu=on ...
AMD の場合は、マシンを起動し、grub 設定ファイルの
GRUB_CMDLINE_LINUX
行の末尾にamd_iommu=on
を追加します。# vi /etc/default/grub … GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 … amd_iommu=on …
注記intel_iommu=on
または AMD IOMMU が検出される場合は、iommu=pt
を追加してみてください。pt
オプションでは、パススルーで使用するデバイスの IOMMU のみが有効化され、ホストのパフォーマンスが向上します。ただし、このオプションはすべてのハードウェアでサポートされているわけではありません。pt
オプションがお使いのホストで機能しない場合は、以前のオプションに戻してください。ハードウェアが割り込みの再マッピングをサポートしていないためにパススルーが失敗する場合、仮想マシンが信頼できるのであれば
allow_unsafe_interrupts
オプションを有効化することも検討してください。allow_unsafe_interrupts
を有効化すると、ホストが仮想マシンからの MSI 攻撃にさらされる可能性があるため、このオプションはデフォルトで有効化されていません。オプションを有効化するには、以下のとおり設定してください。# vi /etc/modprobe.d options vfio_iommu_type1 allow_unsafe_interrupts=1
grub.cfg ファイルをリフレッシュしてからホストを再起動し、変更を有効にします。
# grub2-mkconfig -o /boot/grub2/grub.cfg
# reboot
付録C スタンドアロン Red Hat Virtualization Manager の削除
engine-cleanup
コマンドは、Red Hat Virtualization Manager のすべてのコンポーネントを削除し、以下を自動的にバックアップします。
-
/var/lib/grafana/
の Grafana データベース -
/var/lib/ovirt-engine/backups/
の Manager データベース -
/var/lib/ovirt-engine/backups/
の PKI キーおよび設定の圧縮アーカイブ
バックアップファイル名には、日付と時刻が含まれます。
この手順は、Red Hat Virtualization Manager のスタンドアロンインストールでのみ使用してください。
手順
Manager マシンで以下のコマンドを実行します。
# engine-cleanup
次に進む前に、Manager サービスを停止する必要があります。確認が求められます。
OK
を入力して続行します。During execution engine service will be stopped (OK, Cancel) [OK]:
すべての Manager コンポーネントを削除することを確認するように求められます。
OK
と入力してすべてのコンポーネントを削除するか、Cancel
と入力してengine-cleanup
を終了します。All the installed ovirt components are about to be removed, data will be lost (OK, Cancel) [Cancel]: OK
engine-cleanup
は、削除されたコンポーネントおよびバックアップファイルの詳細な場所を示します。Red Hat Virtualization パッケージを削除します。
# dnf remove rhvm* vdsm-bootstrap
付録D カーネルモジュールの自動読み込みの回避
モジュールを直接読み込むか、別のモジュールから依存関係として読み込むか、起動プロセス中に読み込むかにかからず、カーネルモジュールが自動的に読み込まれないようにします。
手順
モジュール名は、
modprobe
ユーティリティーの設定ファイルに追加する必要があります。このファイルは、設定ディレクトリー/etc/modprobe.d
に配置する必要があります。この設定ディレクトリーの詳細は、
modprobe.d
の man ページを参照してください。モジュールが以下のいずれかで読み込まれるように設定されていないか確認してください。
-
/etc/modprobe.conf
-
/etc/modprobe.d/*
-
/etc/rc.modules
-
/etc/sysconfig/modules/*
# modprobe --showconfig <_configuration_file_name_>
-
出力にモジュールが表示される場合は、そのモジュールが無視され、読み込まれないことを確認します。
# modprobe --ignore-install <_module_name_>
読み込まれている場合は、実行中のシステムからモジュールの読み込みを解除します。
# modprobe -r <_module_name_>
システム固有の設定ファイルに
blacklist
行を追加して、モジュールを直接読み込まないようにします (例:/etc/modprobe.d/local-dontload.conf
)。# echo "blacklist <_module_name_> >> /etc/modprobe.d/local-dontload.conf
注記必須モジュールの場合や、別のモジュールにおいて任意の依存関係にある場合、この手順を実行してもモジュールの読み込みは回避されません。
オプションのモジュールがオンデマンドで読み込まれないようにします。
# echo "install <_module_name_>/bin/false" >> /etc/modprobe.d/local-dontload.conf
重要除外したモジュールが他のハードウェアで必要とされている場合、除外してしまうと予期しない結果が生じる可能性があります。
initramfs
のバックアップコピーを作成します。# cp /boot/initramfs-$(uname -r).img /boot/initramfs-$(uname -r).img.$(date +%m-%d-%H%M%S).bak
カーネルモジュールが
initramfs
の一部である場合は、初期ramdisk
イメージを再構築し、そのモジュールを省略します。# dracut --omit-drivers <_module_name_> -f
現在のカーネルコマンドラインパラメーターを取得します。
# grub2-editenv - list | grep kernelopts
<_module_name_>.blacklist=1 rd.driver.blacklist=<_module_name_>
を、生成された出力に追加します。# grub2-editenv - set kernelopts="<> <_module_name_>.blacklist=1 rd.driver.blacklist=<_module_name_>"
以下に例を示します。
# grub2-editenv - set kernelopts="root=/dev/mapper/rhel_example-root ro crashkernel=auto resume=/dev/mapper/rhel_example-swap rd.lvm.lv=rhel_example/root rd.lvm.lv=rhel_example/swap <_module_name_>.blacklist=1 rd.driver.blacklist=<_module_name_>"
kdump initramfs
のバックアップコピーを作成します。# cp /boot/initramfs-$(uname -r)kdump.img /boot/initramfs-$(uname -r)kdump.img.$(date +%m-%d-%H%M%S).bak
kdump initramfs
から省略するには、rd.driver.blacklist=<_module_name_>
を/etc/sysconfig/kdump
のKDUMP_COMMANDLINE_APPEND
設定に追加します。# sed -i '/^KDUMP_COMMANDLINE_APPEND=/s/"$/ rd.driver.blacklist=module_name"/' /etc/sysconfig/kdump
kdump initrd
への変更を適用するには、kdump
サービスを再起動します。# kdumpctl restart
kdump
の初期ramdisk
イメージを再構築します。# mkdumprd -f /boot/initramfs-$(uname -r)kdump.img
- システムを再起動します。
D.1. モジュールの一時削除
モジュールを一時的に削除できます。
手順
modprobe
を実行して、現在読み込まれているモジュールを削除します。# modprobe -r <module name>
-
モジュールの読み込みを解除できない場合、そのモジュールはプロセスまたは別のモジュールで使用されている可能性があります。その場合はプロセスを終了し、上記で作成した
modpole
コマンドを別のタイミングで実行してモジュール読み込みを解除します。
付録E Red Hat Virtualization のセキュリティー保護
これは、Red Hat Virtualization 固有の情報です。次のいずれかに関連する、基本的なセキュリティープラクティスについての説明ではありません。
- 不要なサービスの無効化
- 認証
- 認可
- アカウンティング
- RHV 以外のサービスの侵入テストおよび耐性
- 機密アプリケーションデータの暗号化
前提条件
- 所属する組織のセキュリティー標準およびプラクティスを熟知していること。可能な場合は、所属する組織のセキュリティー担当者にお問い合わせください。
- Red Hat Enterprise Linux Security hardening を参照してから、RHEL ホストをデプロイすること。
E.1. RHEL ベースのホストおよびスタンドアロン Manager での DISA STIG プロファイルの適用
RHV をインストールするときに、UI インストーラーで DISA STIG プロファイルを選択できます。これは、RHEL 8 が提供するプロファイルです。
DISA STIG プロファイルは、Red Hat Virtualization Host (RHVH) ではサポートされていません。
手順
- Installation Summary 画面で、Security Policy を選択します。
- Security Policy 画面で、Apply security policy を On に設定します。
- DISA STIG for Red Hat Enterprise Linux 8 を選択します。
- Select profile をクリックします。クリックすると、プロファイルの横に緑色のチェックマークが追加され、パッケージが Changes that were done or need to be done の一覧に追加されます。変更するように指示された場合は、画面の指示に従ってください。
- Done をクリックします。
- Installation Summary 画面で、Security Policy のステータスが Everything okay であることを確認します。
- ホストを再起動します。
E.1.1. セルフホストエンジンでの DISA STIG の有効化
コマンドラインを使用すると、デプロイメント中にセルフホスト型エンジンで DISA STIG を有効にすることができます。
手順
- セルフホスト型エンジンのデプロイメントスクリプトを開始します。コマンドラインを使用して Red Hat Virtualization をセルフホストエンジンとしてインストール を参照してください。
-
デプロイメントスクリプトで
Do you want to apply an OpenSCAP security profile?
のプロンプトが表示されたら、Yes
と入力します -
デプロイメントスクリプトで、
Please provide the security profile you would like to use?
のプロンプトが表示されたら、stig
と入力します。
E.2. RHV ホストおよびスタンドアロン Manager での PCI-DSS プロファイルの適用
RHVH をインストールする際に、RHEL 8 が提供するプロファイルである PCI-DSS プロファイルを UI インストーラーで選択できます。
手順
- Installation Summary 画面で、Security Policy を選択します。
- Security Policy 画面で、Apply security policy を On に設定します。
- PCI-DSS v3.2.1 Control Baseline for Red Hat Enterprise Linux 8 を選択します。
- Select profile をクリックします。クリックすると、プロファイルの横に緑色のチェックマークが追加され、パッケージが Changes that were done or need to be done の一覧に追加されます。変更するように指示された場合は、画面の指示に従ってください。
- Done をクリックします。
- Installation Summary 画面で、Security Policy のステータスが Everything okay であることを確認します。
- ホストを再起動します。
E.2.1. セルフホストエンジンでの PCI-DSS の有効化
コマンドラインを使用すると、デプロイメント中にセルフホスト型エンジンで PCI-DSS を有効にできます。
手順
- セルフホスト型エンジンのデプロイメントスクリプトを開始します。コマンドラインを使用して Red Hat Virtualization をセルフホストエンジンとしてインストール を参照してください。
-
デプロイメントスクリプトで
Do you want to apply an OpenSCAP security profile?
のプロンプトが表示されたら、Yes
と入力します -
デプロイメントスクリプトで、
Please provide the security profile you would like to use?
のプロンプトが表示されたら、pci-dss
と入力します。
付録F 法的通知
Copyright © 2022 Red Hat, Inc.
Licensed under the (Creative Commons Attribution–ShareAlike 4.0 International License).Derived from documentation for the (oVirt Project).If you distribute this document or an adaptation of it, you must provide the URL for the original version.
Modified versions must remove all Red Hat trademarks.
Red Hat, Red Hat Enterprise Linux, the Red Hat logo, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent.Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission.We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.