コマンドラインを使用したセルフホストエンジンの Red Hat Virtualization のインストール
代替方法: コマンドラインを使用して、Red Hat Virtualization Manager の管理するホスト上で動作する仮想マシンとして Manager をインストールする方法
概要
はじめに
セルフホストエンジンのインストールは、Ansible により自動化されています。最初のデプロイメントホスト上でインストールスクリプト (hosted-engine --deploy
) を実行し、デプロイメントホスト上に作成される仮想マシンに Red Hat Virtualization Manager (または engine) をインストールおよび設定します。Manager および Data Warehouse データベースは Manager 用仮想マシンにインストールされますが、必要であればインストール後に別のサーバーに移行することができます。
Manager 用仮想マシンを実行することのできるホストは、セルフホストエンジンノードと呼ばれます。高可用性機能に対応するためには、少なくとも 2 台のセルフホストエンジンノードが必要です。
Manager 用仮想マシン専用のストレージドメインは、セルフホストエンジン用ストレージドメインと呼ばれます。このストレージドメインはインストールのスクリプトにより作成されるので、インストールの開始前にベースとなるストレージを準備する必要があります。
環境オプションおよび推奨される設定に関する情報は、Planning and Prerequisites Guide を参照してください。セルフホストエンジン環境に特化した設定については、Self-Hosted Engine Recommendations を参照してください。
表1 Red Hat Virtualization の主要コンポーネント
コンポーネント名 | 説明 |
---|---|
Red Hat Virtualization Manager | 環境内のリソースを管理するグラフィカルユーザーインターフェイスと REST API を提供するサービス。Manager は、Red Hat Enterprise Linux を実行する物理マシンまたは仮想マシンにインストールされます。 |
ホスト | サポートされているホストには、Red Hat Enterprise Linux ホスト (RHEL ホスト) と Red Hat Virtualization Host (イメージベースのハイパーバイザー) の 2 つのタイプがあります。ホストは、Kernel-based Virtual Machine (KVM) テクノロジーを使用して、仮想マシンを実行するためのリソースを提供します。 |
共有ストレージ | 仮想マシンに関連付けられたデータの保管に使用するストレージサービス。 |
Data Warehouse | Manager から設定情報および統計データを収集するサービス。 |
セルフホストエンジンのアーキテクチャー
Red Hat Virtualization Manager は、管理している環境と同じ環境内のセルフホストエンジンノード (特化したホスト) で仮想マシンとして実行されます。セルフホストエンジン環境に必要な物理サーバーは 1 台少なくなりますが、デプロイと管理を行うための管理オーバーヘッドがより高くなります。Manager は、外部の HA 管理を使用せずに高可用性になります。
セルフホストエンジン環境の最小限のセットアップには、以下が含まれます。
- セルフホストエンジンノードでホストされている Red Hat Virtualization Manager 用仮想マシン 1 台。Red Hat Enterprise Linux 7 仮想マシンのインストールおよびその仮想マシンへの Manager のインストールを自動化するために、RHV-M Appliance が使用されます。
- 仮想マシンの高可用性には、最小でセルフホストエンジンノード 2 台。Red Hat Enterprise Linux ホストまたは Red Hat Virtualization Host (RHVH) を使用することができます。VDSM (ホストエージェント) は全ホストで実行され、Red Hat Virtualization Manager との通信を円滑に行います。HA サービスは、すべてのセルフホストエンジンノードで実行され、Manager 用仮想マシンの高可用性を管理します。
- ストレージサービスを 1 つ。使用するストレージタイプに応じて、ローカルまたはリモートサーバーでホストすることができます。ストレージサービスは全ホストからアクセス可能である必要があります。
図1 セルフホストエンジンの Red Hat Virtualization アーキテクチャー
第1章 インストールの概要
セルフホストエンジンのインストールには Ansible および RHV-M Appliance (事前設定された Manager 用仮想マシンのイメージ) が使用され、以下のタスクを自動化しています。
- 最初のセルフホストエンジンノードの設定
- そのノードへの Red Hat Enterprise Linux 仮想マシンのインストール
- その仮想マシンへの Red Hat Virtualization Manager のインストールと設定
- セルフホストエンジン用ストレージドメインの設定
RHV-M Appliance が使用されるのはインストール時だけです。Manager のアップグレードには使用されません。
セルフホストエンジン環境をインストールするステップは、以下のとおりです。
セルフホストエンジン用ストレージドメインおよび通常のストレージドメインに使用するストレージを準備します。以下のストレージタイプのいずれかを使用することができます。
インストールを実行するデプロイメントホストをインストールします。このホストが最初のセルフホストエンジンノードになります。以下のホストタイプのいずれかを使用することができます。
Manager にセルフホストエンジンノードおよび通常のホストをさらに追加します。セルフホストエンジンノードは Manager 用仮想マシンおよびその他の仮想マシンを実行することができます。通常のホストは Manager 用仮想マシンを実行することはできませんが、その他すべての仮想マシンを実行することができます。
以下のホストタイプのいずれか、または両方を使用します。
- Manager にセルフホストエンジンノードのホストを追加します。
- Manager に通常のホストを追加します。
- Manager にストレージドメインをさらに追加します。セルフホストエンジン用ストレージドメインは、Manager 用仮想マシンだけが使用することを推奨します。
- データベースまたはサービスを Manager とは別のサーバーでホストする場合には、インストールの完了後にそれらを移行することができます。
環境を最新の状態に維持してください。詳細は、https://access.redhat.com/articles/2974891 を参照してください。既知の問題のバグ修正は頻繁にリリースされるため、Red Hat では、ホストおよび Manager の更新タスクをスケジュール化することをお勧めします。
第2章 要件
2.1. Red Hat Virtualization Manager の要件
2.1.1. ハードウェアの要件
以下に記載するハードウェアの最低要件および推奨要件は、一般的な中小規模のインストールをベースとしています。正確な要件は、デプロイメントの規模や負荷により異なります。
Red Hat Virtualization のハードウェア認定には、Red Hat Enterprise Linux のハードウェア認定が適用されます。詳細は、https://access.redhat.com/solutions/725243 を参照してください。特定のハードウェア項目が Red Hat Enterprise Linux での使用に認定されているかどうかを確認するには、https://access.redhat.com/ecosystem/#certifiedHardware を参照してください。
表2.1 Red Hat Virtualization Manager ハードウェアの要件
リソース | 最低要件 | 推奨要件 |
---|---|---|
CPU | デュアルコア CPU | クアッドコア CPU または複数のデュアルコア CPU |
メモリー | 利用可能なシステムメモリー 4 GB (Data Warehouse が未インストールで、かつ既存のプロセスによって消費されていないこと) | システムメモリー 16 GB |
ハードディスク | ディスクの空き容量 25 GB (ローカルアクセス、書き込みが可能であること) | ディスクの空き容量 50 GB (ローカルアクセス、書き込みが可能であること) Manager 履歴データベースのサイズに適したディスク容量を算出するには、RHV Manager History Database Size Calculator ツールを使用できます。 |
ネットワークインターフェイス | 1 Gbps 以上の帯域幅のネットワークインターフェイスカード (NIC) 1 基 | 1 Gbps 以上の帯域幅のネットワークインターフェイスカード (NIC) 1 基 |
2.1.2. ブラウザーの要件
管理ポータルと VM ポータルには、以下のブラウザーバージョンとオペレーティングシステムを使用してアクセスすることができます。
ブラウザーのサポートは下記のように階層に分かれます。
- 階層 1: 全面的に検証済みで、完全にサポートされているブラウザーおよびオペレーティングシステムの組み合わせ。Red Hat Engineering は、この層のブラウザーに関する問題の修正に取り組んでいます。
- 階層 2: 部分的に検証済みで、正常に機能する可能性の高いブラウザーとオペレーティングシステムの組み合わせ。この階層のサポートは限定されます。この階層のブラウザーで問題が発生した場合には、Red Hat のエンジニアリングチームが修正を試みます。
- 階層 3: 未検証ですが、正常に機能することが予想されるブラウザーとオペレーティングシステムの組み合わせ。この階層では、最小限のサポートが提供されます。この階層のブラウザーでは、Red Hat のエンジニアリングチームはマイナーな問題のみ修正を試みます。
表2.2 ブラウザーの要件
サポート階層 | オペレーティングシステムファミリー | ブラウザー |
---|---|---|
階層 1 | Red Hat Enterprise Linux | Mozilla Firefox 延長サポート版 (ESR) のバージョン |
任意 | Google Chrome、Mozilla Firefox、または Microsoft Edge の最新バージョン | |
階層 2 | ||
階層 3 | 任意 | Google Chrome または Mozilla Firefox の旧バージョン |
任意 | その他のブラウザー |
2.1.3. クライアントの要件
仮想マシンコンソールは、Red Hat Enterprise Linux および Windows でサポートされている Remote Viewer (virt-viewer
) クライアントを使用した場合にのみアクセスすることができます。virt-viewer
をインストールするには、Virtual Machine Management Guide の Installing Supporting Components on Client Machines を参照してください。virt-viewer
のインストールには管理者権限が必要です。
仮想マシンコンソールには、SPICE、VNC、または RDP (Windows のみ) プロトコルを介してアクセスします。QXL グラフィカルドライバーをゲストのオペレーティングシステムにインストールして、SPICE 機能を改善 / 強化することができます。SPICE が現在サポートしている最大解像度は 2560 x 1600 ピクセルです。
サポートされている QXL ドライバーは、Red Hat Enterprise Linux、Windows XP、および Windows 7 で使用できます。
SPICE のサポートは次の階層に分かれています。
- Tier 1: Remote Viewer が完全にテストされ、サポートされているオペレーティングシステム。
- Tier 2: Remote Viewer が部分的にテストされ、動作する可能性が高いオペレーティングシステム。この階層のサポートは限定されます。この階層のリモートビューアーの問題が生じた場合は、Red Hat のエンジニアリングチームが、問題の修正を試みます。
表2.3 クライアントオペレーティングシステムの SPICE サポート
サポート階層 | オペレーティングシステム |
---|---|
ティア 1 | Red Hat Enterprise Linux 7.2 以降 |
Microsoft Windows 7 | |
ティア 2 | Microsoft Windows 8 |
Microsoft Windows 10 |
2.1.4. オペレーティングシステムの要件
Red Hat Virtualization Manager は、最新のマイナーリリースに更新済みの Red Hat Enterprise Linux 7 のベースインストール上にインストールする必要があります。
Manager に必要なパッケージのインストールを試みる際に、依存関係の問題が発生する可能性があるため、ベースのインストール後に他のパッケージをインストールしないでください。
Manager のインストールに必要なリポジトリー以外は有効にしないでください。
2.2. ホストの要件
Red Hat Virtualization のハードウェア認定には、Red Hat Enterprise Linux のハードウェア認定が適用されます。詳細は、https://access.redhat.com/solutions/725243 を参照してください。特定のハードウェア項目が Red Hat Enterprise Linux での使用に認定されているかどうかを確認するには、https://access.redhat.com/ecosystem/#certifiedHardware を参照してください。
ゲストに適用される要件および制限に関する詳しい情報は、Red Hat Enterprise Linux テクノロジーの機能と制限 および Red Hat Enterprise Virtualization における仮想化の制限 を参照してください。
2.2.1. CPU の要件
すべての CPU が Intel® 64 または AMD64 CPU の拡張機能をサポートし、AMD-V™ または Intel VT® のハードウェア仮想化拡張機能が有効化されている必要があります。No eXecute flag (NX) のサポートも必要です。
以下の CPU モデルがサポートされています。
AMD
- Opteron G4
- Opteron G5
- EPYC
Intel
- Nehalem
- Westmere
- Sandybridge
- Haswell
- Haswell-noTSX
- Broadwell
- Broadwell-noTSX
- Skylake (クライアント)
- Skylake (サーバー)
- IBM POWER8
2.2.1.1. プロセッサーが必要なフラグをサポートしているかどうかのチェック
BIOS で仮想化を有効にする必要があります。この設定を行った後には、ホストの電源をオフにしてから再起動して、変更が適用されるようにします。
- Red Hat Enterprise Linux または Red Hat Virtualization Host の起動画面で任意のキーを押し、一覧から Boot か Boot with serial console のエントリーを選択します。
-
Tab
を押して、選択したオプションのカーネルパラメーターを編集します。 -
最後のカーネルパラメーターの後にスペースがあり、パラメーター
rescue
を追加します。 -
Enter
を押して、レスキューモードで起動します。 プロンプトが表示されたら以下のコマンドを実行して、プロセッサーに必要な拡張機能があるかどうか、またそれらが有効になっているかどうかを確認します。
# grep -E 'svm|vmx' /proc/cpuinfo | grep nx
何らかの出力が表示されれば、プロセッサーはハードウェアの仮想化が可能です。出力が何も表示されない場合でも、プロセッサーがハードウェアの仮想化に対応している可能性があります。場合によっては、メーカーが BIOS で仮想化拡張機能を無効にしていることがあります。これに該当すると思われる場合には、メーカーが提供しているシステムの BIOS やマザーボードに関するマニュアルを参照してください。
2.2.2. メモリーの要件
必要最小限の RAM は 2 GB です。Red Hat Virtualization Host 上の仮想マシンでサポートされている RAM の最大値は、1 台あたり 4 TB です。
ただし、必要な RAM 容量は、ゲストオペレーティングシステムの要件、ゲストのアプリケーションの要件、ゲストのメモリーアクティビティーと使用状況によって異なります。KVM は、全ゲストがピークの負荷で同時に稼働しないことを前提として、仮想ゲストに対して物理 RAM をオーバーコミットして、物理的に存在する RAM を超える要件でゲストをプロビジョニングすることも可能です。KVM は、ゲストが必要とする RAM だけを割り当てて、使用率の低いゲストを swap に移動することによって、オーバーコミットします。
2.2.3. ストレージの要件
ホストには、設定、ログ、カーネルダンプを格納し、swap 領域として使用するためのストレージが必要です。ストレージはローカルまたはネットワークベースとすることができます。Red Hat Virtualization Host (RHVH) は、ネットワークストレージのデフォルト割り当ての 1 つ、一部、またはすべてを使用して起動することができます。ネットワークストレージから起動する場合、ネットワークの接続が失われるとフリーズする場合があります。ドロップインマルチパス設定ファイルを追加すると、ネットワーク接続の喪失に対処することができます。SAN ストレージから起動した RHVH がネットワーク接続を失うと、接続が回復するまでファイルは読み取り専用になります。ネットワークストレージを使用すると、パフォーマンスが低下する場合があります。
本セクションでは、RHVH の最低ストレージ要件について説明します。Red Hat Enterprise Linux ホストのストレージ要件は、既存の設定で使用されるディスク容量によって異なりますが、RHVH の要件よりも多くなるはずです。
ホストのインストールの最低ストレージ要件を以下に示します。ただし、Red Hat は、より多くのストレージスペースを使用するデフォルトの割り当てを使用することをお勧めします。
- / (root): 6 GB
- /home: 1 GB
- /tmp: 1 GB
- /boot: 1 GB
- /var: 15 GB
- /var/crash: 10 GB
- /var/log: 8 GB
- /var/log/audit: 2 GB
- swap: 1 GB (推奨の swap サイズについては、Red Hat Enterprise Linux で推奨される swap のサイズ を参照してください)
- Anaconda では、将来のメタデータ拡張用に、ボリュームグループ内のシンプールサイズの 20% が確保されます。これは、通常の使用条件においてデフォルト設定でストレージを使い果たすのを防ぐためです。インストール中のシンプールのオーバープロビジョニングもサポートされていません。
- 最少の合計: 55 GB
セルフホストエンジンのインストールに RHV-M Appliance もインストールする場合には、/var/tmp
は 5 GB 以上である必要があります。
メモリーのオーバーコミットを使用する場合には、すべての仮想マシンに仮想メモリーを提供するのに十分な swap 領域を追加してください。Memory Optimization を参照してください。
2.2.4. PCI デバイスの要件
ホストには、1 Gbps 以上の帯域幅のネットワークインターフェイスが少なくとも 1 基搭載されている必要があります。Red Hat では、各ホストに 2 つのネットワークインターフェイスを用意し、1 つは仮想マシンの移行などのネットワークの負荷が高いアクティビティーのサポート専用にすることをお勧めします。このように負荷の高い操作のパフォーマンスは、利用可能な帯域幅により制限されます。
Intel Q35 ベースの仮想マシンで PCI Express と従来の PCI デバイスを使用する方法に関する情報は、Using PCI Express and Conventional PCI Devices with the Q35 Virtual Machine を参照してください。
2.2.5. デバイス割り当ての要件
仮想マシンがホストから特定の PCIe デバイスを使用できるように、デバイス割り当ておよび PCI パススルーを実装する予定がある場合は、以下の要件を満たしていることを確認してください。
- CPU が IOMMU (例: VT-d または AMD-Vi) をサポートしていること。IBM POWER8 はデフォルトで IOMMU をサポートしています。
- ファームウェアが IOMMU をサポートしていること。
- 使用する CPU ルートポートが ACS または ACS と同等の機能をサポートしていること。
- PCIe デバイスが ACS または ACS と同等の機能をサポートしていること。
- Red Hat は、PCIe デバイスとルートポート間のすべての PCIe スイッチおよびブリッジが ACS をサポートすることを推奨しています。たとえば、スイッチが ACS をサポートしていない場合には、そのスイッチの背後にあるデバイスはすべて同じ IOMMU グループを共有し、同じ仮想マシンにしか割り当てることができません。
- GPU のサポートについては、Red Hat Enterprise Linux 7 は VGA 以外のグラフィックデバイスとして PCIe ベースの NVIDIA K シリーズ Quadro (モデル 2000 シリーズ以降)、GRID、Tesla の PCI デバイス割り当てをサポートしていること。現在、標準のエミュレーションされた VGA インターフェイスの 1 つ以外に、仮想マシンには GPU を 2 つまでアタッチすることができます。エミュレーションされた VGA は、起動前やインストールに使用され、NVIDIA グラフィックドライバーが読み込まれると NVDIA GPU に引き継がれます。NVIDIA Quadro 2000 も、Quadro K420 カードもサポートされていない点にご注意ください。
ベンダーの仕様とデータシートをチェックして、お使いのハードウェアが要件を満たしていることを確認してください。lspci -v
コマンドを使用すると、システムにインストールされている PCI デバイスの情報を表示できます。
2.2.6. vGPU の要件
ホスト上の仮想マシンが仮想 GPU を使用するためには、ホストが以下の要件を満たす必要があります。
- GPU が vGPU に対応していること
- ホストカーネルで GPU が有効であること
- 適切なドライバーと共に GPU がインストールされていること
- 事前定義の mdev_type が、デバイスのサポートする mdev タイプのいずれかに設定されていること
- クラスター内の各ホストに vGPU に対応したドライバーがインストールされていること
- vGPU ドライバーと共に vGPU に対応した仮想マシンのオペレーティングシステムがインストールされていること
2.3. ネットワークの要件
2.3.1. 一般要件
Red Hat Virtualization では、Manager を実行しているコンピューターまたは仮想マシン (または Manager マシン) で、引き続き IPv6 を有効にする必要があります。お使いのシステムが IPv6 を使用しない場合でも、Manager マシンで IPv6 を無効にしないでください。
2.3.2. DNS、NTP、IPMI フェンシング、およびメトリクスストアのファイアウォール要件
以下のトピックに対するファイアウォールの要件は特殊なケースで、個別に検討する必要があります。
DNS および NTP
Red Hat Virtualization では DNS または NTP サーバーは作成されません。したがって、ファイアウォールには、着信トラフィックに対するオープンポートは必要ありません。
デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上の DNS および NTP への送信トラフィックを許可します。発信トラフィックを無効にする場合には、DNS および NTP サーバーに送付されるリクエストに例外を定義します。
- Red Hat Virtualization Manager およびすべてのホスト (Red Hat Virtualization Host および Red Hat Enterprise Linux ホスト) には、完全修飾ドメイン名と、全面的かつ完全な正引きおよび逆引きの名前解決が必要です。
- DNS サービスを Red Hat Virtualization 環境内の仮想マシンとして実行する方法はサポートされていません。Red Hat Virtualization 環境が使用する DNS サービスは、すべて環境の外部でホストする必要があります。
-
Red Hat は、名前解決のために
/etc/hosts
ファイルの代わりに DNS を使用することを強くお勧めします。hosts ファイルを使用すると、より多くの作業が必要となり、誤設定の可能性がより高くなります。
IPMI およびその他のフェンシング機構 (オプション)
IPMI (Intelligent Platform Management Interface) およびその他のフェンシング機構については、ファイアウォールには、着信トラフィックに対するオープンポートは必要ありません。
デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上のポートへの送信 IPMI トラフィックを許可します。発信トラフィックを無効にする場合には、IPMI またはフェンシングサーバーに送付されるリクエストに例外を設定します。
クラスター内の各 Red Hat Virtualization Host および Red Hat Enterprise Linux ホストは、クラスター内にある残りの全ホストのフェンシングデバイスに接続できる必要があります。クラスターホストにエラー (ネットワークエラー、ストレージエラーなど) が発生し、ホストとして機能できない場合は、データセンターの他のホストに接続できる必要があります。
具体的なポート番号は、使用するフェンスエージェントのタイプおよびその設定により異なります。
以降のセクションで説明するファイアウォール要件の表には、このオプションは含まれていません。
Metrics Store、Kibana、ElasticSearch
Metrics Store、Kibana、ElasticSearch については、Network Configuration for Metrics Store virtual machines を参照してください。
2.3.3. Red Hat Virtualization Manager ファイアウォールの要件
Red Hat Virtualization Manager では、ネットワークトラフィックがシステムのファイアウォールを通過できるように複数のポートを開放しておく必要があります。
engine-setup
スクリプトはファイアウォールを自動的に設定できますが、iptables を使用している場合、これにより既存のファイアウォール設定が上書きされます。既存のファイアウォール設定を保持する場合は、Manager に必要なファイアウォールルールを手動で挿入する必要があります。engine-setup
コマンドは、必要な iptables ルールのリストを /etc/ovirt-engine/iptables.example ファイルに保存します。firewalld を使用している場合、engine-setup
は既存の設定を上書きしません。
本セクションに記載するファイアウォール設定は、デフォルトの設定を前提としています。
これらのファイアウォール要件の模式図が、https://access.redhat.com/articles/3932211 に記載されています。表に書かれた ID を使用して、模式図内の接続を探すことができます。
表2.4 Red Hat Virtualization Manager ファイアウォールの要件
ID | ポート | プロトコル | 送信元 | 宛先 | 目的 | デフォルトで暗号化 |
---|---|---|---|---|---|---|
M1 | - | ICMP | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Red Hat Virtualization Manager | オプション 診断に役立つ場合があります。 | ✕ |
M2 | 22 | TCP | バックエンドの設定やソフトウェアのアップグレードなど、Manager のメンテナーンスに使うシステム | Red Hat Virtualization Manager | Secure Shell (SSH) アクセス オプション | ◯ |
M3 | 2222 | TCP | 仮想マシンのシリアルコンソールにアクセスするクライアント | Red Hat Virtualization Manager | 仮想マシンのシリアルコンソールへの接続を可能にするための Secure Shell (SSH) アクセス。 | ◯ |
M4 | 80、443 | TCP | 管理ポータルのクライアント VM ポータルのクライアント Red Hat Virtualization Host Red Hat Enterprise Linux ホスト REST API クライアント | Red Hat Virtualization Manager | Manager に HTTP (ポート 80、暗号化なし) および HTTPS (ポート 443、暗号化あり) のアクセスを提供します。HTTP は接続を HTTPS にリダイレクトします。 | ◯ |
M5 | 6100 | TCP | 管理ポータルのクライアント VM ポータルのクライアント | Red Hat Virtualization Manager |
Manager 上で WebSocket プロキシーを実行している場合に、Web ベースのコンソールクライアント ( | ✗ |
M6 | 7410 | UDP | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Red Hat Virtualization Manager |
ホストの Kdump が有効な場合には、Manager の fence_kdump リスナー用にこのポートを開きます。fence_kdump Advanced Configuration を参照してください。 | ✕ |
M7 | 54323 | TCP | 管理ポータルのクライアント | Red Hat Virtualization Manager (ImageIO Proxy サーバー) |
ImageIO プロキシー ( | はい |
M8 | 6442 | TCP | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Open Virtual Network (OVN) southbound データベース | Open Virtual Network (OVN) データベースへの接続 | ◯ |
M9 | 9696 | TCP | OVN 用外部ネットワークプロバイダーのクライアント | OVN 用外部ネットワークプロバイダー | OpenStack Networking API | ◯ engine-setup によって生成された設定による暗号化。 |
M10 | 35357 | TCP | OVN 用外部ネットワークプロバイダーのクライアント | OVN 用外部ネットワークプロバイダー | OpenStack Identity API | ◯ engine-setup によって生成された設定による暗号化。 |
M11 | 53 | TCP、UDP | Red Hat Virtualization Manager | DNS サーバー | 1023 より大きいポート番号からポート 53 への DNS ルックアップリクエストおよび応答。デフォルトで開いています。 | ✕ |
M12 | 123 | UDP | Red Hat Virtualization Manager | NTP サーバー | 1023 より大きいポート番号からポート 123 への NTP リクエストおよび応答。デフォルトで開いています。 | ✕ |
-
デフォルトの設定では、OVN northbound データベース (6641) のクライアントは
ovirt-provider-ovn
のみなので、OVN northbound データベースのポート (6641) は記載されていません。両者は同じホスト上で動作しているので、その通信はネットワークには現れません。 - デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上の DNS および NTP への送信トラフィックを許可します。発信トラフィックを無効にする場合には、Manager がリクエストを DNS および NTP サーバーに送付するように例外を設定します。他のノードでも DNS および NTP が必要な場合があります。その際には、それらのノードの要件を確認し、適切にファイアウォールを設定してください。
2.3.4. ホストファイアウォールの要件
Red Hat Enterprise Linux ホストおよび Red Hat Virtualization Host (RHVH) では、ネットワークトラフィックがシステムのファイアウォールを通過できるように複数のポートを開放しておく必要があります。新たなホストを Manager に追加する際に、ファイアウォールルールがデフォルトで自動的に設定され、既存のファイアウォール設定はすべて上書きされます。
新規ホストの追加時のファイアウォール自動設定を無効にするには、詳細パラメーター の下の ホストのファイアウォールを自動設定する のチェックボックスからチェックを外します。
ホストのファイアウォールルールをカスタマイズするには、https://access.redhat.com/solutions/2772331 を参照してください。
これらのファイアウォール要件の模式図が、https://access.redhat.com/articles/3932211 に記載されています。表に書かれた ID を使用して、模式図内の接続を探すことができます。
表2.5 仮想化ホストファイアウォールの要件
ID | ポート | プロトコル | 送信元 | 宛先 | 目的 | デフォルトで暗号化 |
---|---|---|---|---|---|---|
H1 | 22 | TCP | Red Hat Virtualization Manager | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Secure Shell (SSH) アクセス オプション | ◯ |
H2 | 2223 | TCP | Red Hat Virtualization Manager | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | 仮想マシンのシリアルコンソールへの接続を可能にするための Secure Shell (SSH) アクセス。 | ◯ |
H3 | 161 | UDP | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Red Hat Virtualization Manager | Simple Network Management Protocol (SNMP)。ホストから 1 つまたは複数の外部 SNMP マネージャーに Simple Network Management Protocol のトラップを送信する場合にのみ必要です。 オプション | ✕ |
H4 | 111 | TCP | NFS ストレージサーバー | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | NFS 接続 オプション | ✕ |
H5 | 5900 - 6923 | TCP | 管理ポータルのクライアント VM ポータルのクライアント | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | VNC および SPICE を介したリモートゲストのコンソールアクセス。クライアントが仮想マシンに容易にアクセスできるように、これらのポートは開放しておく必要があります。 | ◯ (オプション) |
H6 | 5989 | TCP、UDP | Common Information Model Object Manager (CIMOM) | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Common Information Model Object Managers (CIMOM) がホスト上で実行中の仮想マシンをモニターリングするために使用します。このポートは、仮想化環境内の仮想マシンのモニターリングに CIMOM を使用する場合にのみ開放する必要があります。 オプション | ✕ |
H7 | 9090 | TCP | Red Hat Virtualization Manager クライアントマシン | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Cockpit がインストールされている場合には、Cockpit Web インターフェイスにアクセスするために必要です。 | ◯ |
H8 | 16514 | TCP | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | libvirt を使った仮想マシンの移行 | ◯ |
H9 | 49152 - 49215 | TCP | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | VDSM を使用した仮想マシンの移行とフェンシング。仮想マシンの自動および手動での移行を容易に実行できるように、これらのポートを開放しておく必要があります。 | ◯フェンスエージェントに応じて、libvirt を介して移行が行われます。 |
H10 | 54321 | TCP | Red Hat Virtualization Manager Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | VDSM による Manager およびその他の仮想化ホストとの通信 | ◯ |
H11 | 54322 | TCP | Red Hat Virtualization Manager (ImageIO Proxy サーバー) | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | ImageIO デーモン (ovirt-imageio-daemon) との通信に必要です。 | ◯ |
H12 | 6081 | UDP | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | Open Virtual Network (OVN) をネットワークプロバイダーとして使用している場合に、OVN がホスト間にトンネルを作成するために必要です。 | ✕ |
H13 | 53 | TCP、UDP | Red Hat Virtualization Host Red Hat Enterprise Linux ホスト | DNS サーバー | 1023 より大きいポート番号からポート 53 への DNS ルックアップリクエストおよび応答。このポートは必須で、デフォルトで開いています。 | ✗ |
デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上の DNS および NTP への送信トラフィックを許可します。発信トラフィックを無効にする場合には、Red Hat Virtualization Host に例外を設定します。
Red Hat Enterprise Linux ホストは DNS および NTP サーバーにリクエストを送付します。他のノードでも DNS および NTP が必要な場合があります。その際には、それらのノードの要件を確認し、適切にファイアウォールを設定してください。
2.3.5. データベースサーバーファイアウォールの要件
Red Hat Virtualization では、Manager データベース (engine
) および Data Warehouse データベース (ovirt-engine-history
) にリモートのデータベースサーバーの使用をサポートしています。リモートのデータベースサーバーを使用する予定の場合には、Manager および Data Warehouse サービス (Manager と分離することが可能) からの接続を許可する必要があります。
同様に、Red Hat CloudForms などの外部システムからローカルまたはリモートの Data Warehouse データベースにアクセスする場合、データベースはそのシステムからの接続を許可する必要があります。
外部システムからの Manager データベースへのアクセスはサポートされていません。
これらのファイアウォール要件の模式図が、https://access.redhat.com/articles/3932211 に記載されています。表に書かれた ID を使用して、模式図内の接続を探すことができます。
表2.6 データベースサーバーファイアウォールの要件
ID | ポート | プロトコル | 送信元 | 宛先 | 目的 | デフォルトで暗号化 |
---|---|---|---|---|---|---|
D1 | 5432 | TCP、UDP | Red Hat Virtualization Manager Data Warehouse サービス |
Manager (
Data Warehouse ( | PostgreSQL データベース接続のデフォルトポート | |
D2 | 5432 | TCP、UDP | 外部のシステム |
Data Warehouse ( | PostgreSQL データベース接続のデフォルトポート | デフォルトでは無効です。無効ですが、有効にできます。 |
第3章 Red Hat Virtualization 用ストレージの準備
新たな環境のストレージドメインとして使用するストレージを準備します。Red Hat Virtualization 環境には少なくとも 1 つのデータストレージドメインが必要ですが、さらに追加することを推奨します。
データドメインには、データセンター内の仮想マシンおよびテンプレートの仮想ハードディスクと OVF ファイルを格納します。このドメインは、アクティブな間は複数のデータセンター間で共有することはできません (ただし、データセンター間で移行することは可能です)。複数のストレージタイプのデータドメインを同じデータセンターに追加することは可能ですが、それらはすべてローカルドメインではなく、全ホストがアクセス可能なドメインであることが条件となります。
セルフホストエンジンには、Manager 仮想マシン専用の追加のデータドメインが必要です。このドメインは、セルフホストエンジンのデプロイ中に作成され、74 GB 以上である必要があります。デプロイを開始する前に、このドメインのストレージを準備する必要があります。
以下のストレージタイプのいずれかを使用することができます。
iSCSI ストレージを使用する場合には、セルフホストエンジン用ストレージドメインは 独自の iSCSI ターゲットを使用する必要があります。追加のストレージドメインは、異なる iSCSI ターゲットを使用しなければなりません。
セルフホストエンジン用ストレージドメインと同じデータセンター内に追加のデータドメインを作成することを強く推奨します。セルフホストエンジンをデータセンター内にデプロイする際に、アクティブなデータストレージドメインを 1 つしか用意していない場合、そのストレージドメインが破損しても、新しいストレージドメインを追加したり、破損したストレージドメインを削除することはできません。セルフホストエンジンを再デプロイしなければなりません。
3.1. NFS ストレージの準備
ファイルストレージまたはリモートサーバーで NFS 共有を設定し、Red Hat Enterprise Virtualization Host システムのストレージドメインとして機能するようにします。リモートストレージで共有をエクスポートし、Red Hat Virtualization Manager で共有を設定すると、共有は Red Hat Virtualization Host に自動的にインポートされます。
NFS の設定については、Red Hat Enterprise Linux 7 Storage Administration Guide の Network File System (NFS) を参照してください。
NFS 共有をエクスポートする方法については、How to export 'NFS' share from NetApp Storage / EMC SAN in Red Hat Virtualization を参照してください。
Red Hat Virtualization には、特定のシステムユーザーアカウントおよびシステムユーザーグループが必要です。これにより、Manager はストレージドメイン (エクスポートしたディレクトリー) にデータを保管することができます。以下の手順では、1 つのディレクトリーのパーミションを設定しています。Red Hat Virtualization のストレージドメインとして使用するすべてのディレクトリーについて、chown
および chmod
のステップを繰り返す必要があります。
手順
kvm
グループを作成します。# groupadd kvm -g 36
kvm
グループにvdsm
ユーザーを作成します。# useradd vdsm -u 36 -g 36
エクスポートしたディレクトリーの所有権を 36:36 に設定します。これにより、
vdsm:kvm
の所有権が与えられます。# chown -R 36:36 /exports/data
所有者に読み取り/書き込みアクセスを許可し、グループおよびその他のユーザーに読み取り/実行アクセスを許可するように、ディレクトリーのモードを変更します。
# chmod 0755 /exports/data
3.2. iSCSI ストレージの準備
Red Hat Virtualization は、LUN で設定されるボリュームグループから作成されるストレージドメインである iSCSI ストレージをサポートします。ボリュームグループおよび LUN は、いずれも同時に複数のストレージドメインにアタッチすることはできません。
iSCSI ストレージの設定については、Red Hat Enterprise Linux 7 Storage Administration Guide の Online Storage Management を参照してください。
ブロックストレージを使用する際、仮想マシンを Raw デバイスまたは直接 LUN にデプロイし、論理ボリュームマネージャーで管理する場合は、フィルターを作成してゲストの論理ボリュームを除外する必要があります。これにより、ホストの起動時にゲストの論理ボリュームがアクティブ化されるのを防ぐことができます。アクティブ化されると、論理ボリュームの内容が古くなり、データ破損が生じる可能性があります。詳細は、https://access.redhat.com/solutions/2662261 を参照してください。
現状、Red Hat Virtualization はブロックサイズ 4K のブロックストレージはサポートしていません。ブロックストレージはレガシー (512b ブロック) モードで設定する必要があります。
SAN ストレージから起動したホストがストレージへの接続を失うと、ストレージファイルシステムは読み取り専用になり、接続が回復した後もその状態が続きます。
この状況を防ぐために、Red Hat は、接続がある場合にはブート LUN の SAN のルートファイルシステムにドロップインマルチパス設定ファイルを追加して、キューに配置されるようにすることを推奨します。
# cat /etc/multipath/conf.d/host.conf
multipaths {
multipath {
wwid boot_LUN_wwid
no_path_retry queue
}
3.3. FCP ストレージの準備
Red Hat Virtualization は、既存の LUN で設定されるボリュームグループからストレージドメインを作成する方法で、SAN ストレージをサポートしています。ボリュームグループおよび LUN は、いずれも同時に複数のストレージドメインにアタッチすることはできません。
Red Hat Virtualization システムの管理者には Storage Area Networks (SAN) の概念に関する作業知識が必要になります。SAN は通常、ホストと外部の共有ストレージ間のトラフィックにファイバーチャネルプロトコル (FCP) を使用します。このため、SAN は FCP ストレージとも呼ばれています。
Red Hat Enterprise Linux での FCP またはマルチパスの準備および設定に関する情報は、ストレージ管理ガイド および Red Hat Enterprise Linux DM Multipath を参照してください。
ブロックストレージを使用する際、仮想マシンを Raw デバイスまたは直接 LUN にデプロイし、論理ボリュームマネージャーで管理する場合は、フィルターを作成してゲストの論理ボリュームを除外する必要があります。これにより、ホストの起動時にゲストの論理ボリュームがアクティブ化されるのを防ぐことができます。アクティブ化されると、論理ボリュームの内容が古くなり、データ破損が生じる可能性があります。詳細は、https://access.redhat.com/solutions/2662261 を参照してください。
現状、Red Hat Virtualization はブロックサイズ 4K のブロックストレージはサポートしていません。ブロックストレージはレガシー (512b ブロック) モードで設定する必要があります。
SAN ストレージから起動したホストがストレージへの接続を失うと、ストレージファイルシステムは読み取り専用になり、接続が回復した後もその状態が続きます。
この状況を防ぐために、Red Hat は、接続がある場合にはブート LUN の SAN のルートファイルシステムにドロップインマルチパス設定ファイルを追加して、キューに配置されるようにすることを推奨します。
# cat /etc/multipath/conf.d/host.conf
multipaths {
multipath {
wwid boot_LUN_wwid
no_path_retry queue
}
3.4. Red Hat Gluster Storage の準備
Red Hat Gluster Storage の準備および設定に関する情報は、Red Hat Gluster Storage Installation Guide を参照してください。
Red Hat Virtualization でサポートされる Red Hat Gluster Storage のバージョンについては、https://access.redhat.com/articles/2356261 を参照してください。
3.5. SAN ベンダーのマルチパス設定のカスタマイズ
マルチパス設定をカスタマイズする場合は、/etc/multipath.conf
を変更しないでください。代わりに、/etc/multipath.conf
をオーバーライドする新しい設定ファイルを作成します。
仮想デスクトップおよびサーバーマネージャー (VDSM) をアップグレードすると、/etc/multipath.conf
ファイルが上書きされます。multipath.conf
にカスタマイズが含まれている場合、それを上書きするとストレージの問題が発生する可能性があります。
前提条件
-
このトピックは、マルチパス接続ストレージドメインを使用するように設定されているため、
/etc/multipath.conf
ファイルがあるシステムにのみ適用されます。 -
user_friendly_names
とfind_multipaths
の設定を上書きしないでください。詳細については、ref-Recommended_Settings_for_Multipath.conf_SHE_cli_deploy を参照してください。 -
ストレージベンダーからの要求がない限り、
no_path_retry
とpolling_interval
をオーバーライドしないでください。詳細については、ref-Recommended_Settings_for_Multipath.conf_SHE_cli_deploy を参照してください。
手順
/etc/multipath.conf
の設定値をオーバーライドするには、/etc/multipath /conf.d/
ディレクトリーに新しい設定ファイルを作成します。注記/etc/multipath/conf.d/
内のファイルはアルファベット順に実行されます。名前の先頭に番号が付いたファイルの命名規則に従います。たとえば、/etc/multipath/conf.d/90-myfile.conf
です。-
オーバーライドする設定を
/etc/multipath.conf
から/etc/multipath/conf.d/
の新しい設定ファイルにコピーします。設定値を編集し、変更を保存します。 systemctl reload multipathd
コマンドを入力して、新しい設定を適用します。注記multipathd サービスを再起動しないようにします。これにより、VDSM ログにエラーが生成されます。
検証手順
/etc/multipath.conf
で VDSM が生成した設定を上書きする場合は、さまざまな障害シナリオで新規設定が想定どおりに実行されることを確認します。
たとえば、ストレージの接続をすべて無効にします。その後、一度に 1 つの接続を有効にし、これによりストレージドメインに到達可能であることを確認します。
トラブルシューティング
Red Hat Virtualization ホストで共有ストレージへのアクセスに問題がある場合は、/etc/multpath.conf
および /etc/multipath/conf.d/
の配下のファイルで、SAN と互換性のない値がないか確認してください。
関連情報
- RHEL ドキュメントの Red Hat Enterprise Linux DM Multipath
- Administration Guide の Configuring iSCSI Multipathing
-
How do I customize /etc/multipath.conf on my RHV-H hypervisors?
multipath.conf
ファイルの例を示している Red Hat カスタマーポータルの What values must not change and why? が本トピックのベースとなっています。
3.6. Multipath.conf の推奨される設定
/etc/multipath.conf
をオーバーライドするときは、次の設定をオーバーライドしないでください。
user_friendly_names no
- この設定では、実際のデバイス名に加えて、ユーザーフレンドリーな名前がデバイスに割り当てられるかどうかを制御します。デバイスにアクセスするには、複数のホストが同じ名前を使用する必要があります。この設定を無効にすることで、ユーザーフレンドリーな名前がこの要件を妨げないようにします。
find_multipaths no
- この設定は、パスが 1 つしかない場合でも、RHVH がマルチパスを介してすべてのデバイスにアクセスしようとするかどうかを制御します。この設定を無効にすることで、この設定が有効な場合に RHV が too-clever 動作を使用しないようにします。
ストレージシステムベンダーが必要としない限り、以下の設定を上書きしないようにします。
no_path_retry 4
-
この設定では、利用可能なパスがない場合にポーリングを再試行する回数を制御します。RHV バージョン 4.2 より前は、パスが利用できない場合に QEMU の I/O キューに問題が生じていたため、
no_path_retry
の値はfail
でした。fail
値により、仮想マシンはすぐに失敗し、一時停止していました。RHV バージョン 4.2 ではこの値が4
に変更されました。これにより、multipathd は最後のパスが失敗したことを検知すると、すべてのパスをさらに 4 回確認します。ポーリングがデフォルトの 5 秒間隔で行われると仮定すると、パスの確認には 20 秒かかります。パスが起動しない場合、multipathd は、パスが復元されるまでキューを停止するようにカーネルに指示し、未処理および将来の I/O をすべて失敗させます。パスが復元されると、次にすべてのパスが失敗したときのために、20 秒間のパスの確認時間がリセットされます。詳細は、この設定を変更したコミット を参照してください。 polling_interval 5
- この設定では、パスが開いているか、または失敗したかを検出するポーリングの試行間隔の秒数を決定します。ベンダーが値を増やす明確な理由を提供しない限り、VDSM が生成するデフォルト値を維持します。これにより、システムはパスの失敗に早めの対応することができます。
第4章 セルフホストエンジン用デプロイメントホストのインストール
セルフホストエンジンは、Red Hat Virtualization Host または Red Hat Enterprise Linux ホスト からデプロイすることができます。
高可用性のためにボンドインターフェイスを使用する、またはトラフィックをタイプごとに分離するために VLAN を使用する場合は (例: ストレージ用の接続と管理用の接続)、セルフホストエンジンのデプロイメント開始前にホストに設定する必要があります。詳細は、Planning and Prerequisites Guide の Networking Recommendations を参照してください。
4.1. Red Hat Virtualization Host のインストール
Red Hat Virtualization Host (RHVH) は、Red Hat Virtualization 環境でハイパーバイザーとして機能する物理マシンの簡単な設定方法を提供するために設計された、Red Hat Enterprise Linux をベースとする最小設定のオペレーティングシステムです。この最小設定のオペレーティングシステムには、マシンがハイパーバイザーとして機能するのに必要なパッケージのみが含まれており、ホストの監視や管理タスクの実行用に Cockpit Web インターフェイスが備えられています。最低限のブラウザー要件については、http://cockpit-project.org/running.html を参照してください。
RHVH は NIST SP 800-53 パーティショニングの要件をサポートし、より強固なセキュリティーを提供します。RHVH は、デフォルトで NIST 800-53 パーティションレイアウトを使用します。
ホストは最低限の host requirements を満たしている必要があります。
手順
カスタマーポータルから RHVH ISO イメージをダウンロードします。
- カスタマーポータル (https://access.redhat.com) にログインします。
- メニューバーの Downloads をクリックします。
- Red Hat Virtualization をクリックします。上にスクロールして Download Latest をクリックし、製品のダウンロードページにアクセスします。
- Hypervisor Image for RHV 4.3 に移動し、Download Now をクリックします。
- 起動可能なメディアデバイスを作成します。詳細については、Red Hat Enterprise Linux Installation Guide の Making Media を参照してください。
- RHVH のインストール先となるマシンを起動し、準備したインストールメディアから起動します。
ブートメニューから Install RHVH 4.3 を選択し、
Enter
を押します。注記また、
Tab
キーを押してカーネルパラメーターを編集することもできます。カーネルパラメーターはスペースで区切る必要があります。また、指定したカーネルパラメーターを使用してシステムを起動するには、Enter
キーを押します。Esc
キーを押してカーネルパラメーターへの変更を消去し、起動メニューに戻ります。- 言語を選択し、Continue をクリックします。
- Date & Time 画面からタイムゾーンを選択し、Done をクリックします。
- Keyboard 画面からキーボードレイアウトを選択し、Done をクリックします。
Installation Destination の画面から RHVH のインストール先のデバイスを選択します。オプションで暗号化を有効にします。Done をクリックします。
重要Red Hat は、Automatically configure partitioning オプションを使用することを強くお勧めします。
Network & Host Name の画面からネットワークを選択し、Configure… をクリックして接続の詳細を設定します。
注記システムが起動するたびに接続を使用するには、Automatically connect to this network when it is available チェックボックスにマークを入れます。詳細については、Red Hat Enterprise Linux 7 Installation Guide の Edit Network Connections を参照してください。
ホスト名を Host name フィールドに入力し、Done をクリックします。
- オプションで 言語サポート、セキュリティーポリシー、および Kdump を設定します。Installation Summary 画面の各セクションの詳細については、Red Hat Enterprise Linux 7 Installation Guide の Installing Using Anaconda を参照してください。
- Begin Installation をクリックします。
RHVH のインストールの際に root パスワードを設定して、オプションで追加のユーザーを作成します。
警告Red Hat は、ローカルセキュリティーの脆弱性が悪用される可能性があるため、RHVH で信頼できないユーザーを作成しないことを強くお勧めします。
Reboot をクリックしてインストールを完了します。
注記RHVH の再起動時に、
nodectl check
はホストでヘルスチェックを実行し、コマンドラインへのログイン時に結果を表示します。node status: OK
またはnode status: DEGRADED
のメッセージはヘルスステータスを示します。nodectl check
を実行して詳細情報を取得します。このサービスはデフォルトで有効になっています。
4.1.1. Red Hat Virtualization Host のリポジトリーの有効化
更新を受け取るためにシステムを登録します。Red Hat Virtualization Host に必要なリポジトリーは 1 つだけです。本セクションでは、RHVH を コンテンツ配信ネットワーク または Red Hat Satellite 6 に登録する手順について説明します。
コンテンツ配信ネットワークへの RHVH の登録
-
https://HostFQDNorIP:9090
で Cockpit Web インターフェイスにログインします。 - Subscriptions に移動し、Register System をクリックしてカスタマーポータルのユーザー名とパスワードを入力します。Red Hat Virtualization Host のサブスクリプションが自動的にシステムにアタッチされます。
- 端末 をクリックします。
Red Hat Virtualization Host 7
のリポジトリーを有効にして、Red Hat Virtualization Host に対する後続の更新を可能にします。# subscription-manager repos --enable=rhel-7-server-rhvh-4-rpms
Red Hat Satellite 6 への RHVH の登録
-
https://HostFQDNorIP:9090
で Cockpit Web インターフェイスにログインします。 - 端末 をクリックします。
RHVH を Red Hat Satellite 6 に登録します。
# rpm -Uvh http://satellite.example.com/pub/katello-ca-consumer-latest.noarch.rpm # subscription-manager register --org="org_id" # subscription-manager list --available # subscription-manager attach --pool=pool_id # subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rhvh-4-rpms
4.2. Red Hat Enterprise Linux ホストのインストール
Red Hat Enterprise Linux ホストは、Red Hat Enterprise Linux Server
および Red Hat Virtualization
サブスクリプションがアタッチされた、物理サーバー上の Red Hat Enterprise Linux 7 の標準的な基本インストールをベースにしています。
詳細なインストール手順は、Performing a standard {enterprise-linux-shortname} installation を参照してください。
ホストは最低限の host requirements を満たしている必要があります。
ホストの BIOS 設定で仮想化が有効になっている必要があります。ホストの BIOS 設定の変更に関する詳細は、そのホストのハードウェアのマニュアルを参照してください。
サードパーティーのウォッチドッグは、VDSM によって提供されるウォッチドッグデーモンに干渉する可能性があるため、Red Hat Enterprise Linux ホストにインストールしないでください。
4.2.1. Red Hat Enterprise Linux ホストのリポジトリーの有効化
Red Hat Enterprise Linux マシンをホストとして使用するには、システムをコンテンツ配信ネットワークに登録し、Red Hat Enterprise Linux Server
および Red Hat Virtualization
サブスクリプションを割り当て、ホストのリポジトリーを有効にする必要があります。
手順
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
Red Hat Enterprise Linux Server
およびRed Hat Virtualization
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=poolid
注記現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。
# subscription-manager list --consumed
有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。
# yum repolist
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rpms \ --enable=rhel-7-server-rhv-4-mgmt-agent-rpms \ --enable=rhel-7-server-ansible-2.9-rpms
IBM POWER8 (リトルエンディアン) ハードウェアに Red Hat Enterprise Linux 7 ホストをインストールする場合:
# subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-le-rpms \ --enable=rhel-7-for-power-le-rpms
IBM POWER9 (リトルエンディアン) ハードウェアに Red Hat Enterprise Linux 7 ホストをインストールする場合:
# subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-9-rpms \ --enable=rhel-7-for-power-9-rpms
現在インストールされている全パッケージを最新の状態にします。
# yum update
- マシンを再起動します。
第5章 Red Hat Virtualization Manager のインストール
デプロイメントプロセス中に RHV-M Appliance がインストールされている。ただし、必要な場合は、インストールを開始する前にデプロイメントホストにインストールすることができます。
# yum install rhvm-appliance
Manager 用仮想マシンの手動インストールはサポートされていません。
5.1. コマンドラインを使用したセルフホストエンジンのデプロイ
コマンドラインからセルフホストエンジンをデプロイすることができます。セットアップパッケージをインストールしてコマンド hosted-engine --deploy
を実行すると、スクリプトがご自分の環境の情報を収集し、その情報を使用してホストおよび Manager を設定します。
前提条件
- Manager およびホスト用の完全修飾ドメイン名 (FQDN)。正引き (フォワードルックアップ) と逆引き (リバースルックアップ) の記録は両方とも DNS で設定する必要があります。
手順
デプロイメントツールをインストールします。
# yum install ovirt-hosted-engine-setup
Red Hat は、ネットワークまたはターミナルが中断した場合にセッションが失われないように、
screen
ウィンドウマネージャーを使用してスクリプトを実行することをお勧めします。インストールしてscreen
を開始します。# yum install screen # screen
デプロイメントスクリプトを開始します。
# hosted-engine --deploy
注記Ctrl+D のキーの組み合わせを使用してデプロイメントを中断すると、スクリプトをいつでも終了することができます。セッションのタイムアウトまたは接続の中断が発生した場合は、
screen-d-r
を実行してデプロイメントセッションを復元します。確認を要求されたら、Yes と入力してデプロイメントを開始します。
Continuing will configure this host for serving as hypervisor and will create a local VM with a running engine. The locally running engine will be used to configure a new storage domain and create a VM there. At the end the disk of the local VM will be moved to the shared storage. Are you sure you want to continue? (Yes, No)[Yes]:
ネットワークを設定します。表示されたゲートウェイが正しいことを確認し、Enter キーを押します。スクリプトがホストの接続性を確認することができるように、同じサブネット上の ping 送信可能なアドレスを入力します。
Please indicate a pingable gateway IP address [X.X.X.X]:
スクリプトにより、環境の管理ブリッジとして使用する NIC 候補が検出されます。候補のいずれかを入力するか、Enter キーを押してデフォルトをそのまま使用します。
Please indicate a nic to set ovirtmgmt bridge on: (eth1, eth0) [eth1]:
仮想マシンのインストールにカスタムアプライアンスを使用する場合は、OVA アーカイブへのパスを入力します。使用しない場合は、このフィールドを空欄のままにして RHV-M Appliance を使用します。
If you want to deploy with a custom engine appliance image, please specify the path to the OVA archive you would like to use (leave it empty to skip, the setup will use rhvm-appliance rpm installing it if missing):
仮想マシンの CPU およびメモリー設定を入力します。
Please specify the number of virtual CPUs for the VM (Defaults to appliance OVF value): [4]: Please specify the memory size of the VM in MB (Defaults to maximum available): [7267]:
manager.example.com
などの Manager 用仮想マシンの FQDN を指定します。Please provide the FQDN you would like to use for the engine appliance. Note: This will be the FQDN of the engine VM you are now going to launch, it should not point to the base host or to any other existing machine. Engine VM FQDN:
Manager 用仮想マシンのドメインを指定します。たとえば、FQDN が
manager.example.com
の場合、example.com
を入力します。Please provide the domain name you would like to use for the engine appliance. Engine VM domain: [example.com]
Manager の root パスワードを作成し、確認のために同じパスワードを再入力します。
Enter root password that will be used for the engine appliance: Confirm appliance root password:
オプションとして、パスワードを入力せずに Manager に root ユーザーとしてログインできるように SSH 公開鍵を入力し、root ユーザーの SSH アクセスを有効にするかどうかを指定します。
Enter ssh public key for the root user that will be used for the engine appliance (leave it empty to skip): Do you want to enable ssh access for the root user (yes, no, without-password) [yes]:
Manager 用仮想マシンの MAC アドレスを入力するか、無作為に生成される MAC アドレスを適用します。Manager 用仮想マシンへの IP アドレス割り当てに DHCP を使用するには、この MAC アドレスに有効な DHCP 予約があることを確認してください。デプロイメントスクリプトは、DHCP サーバーの設定は行いません。
You may specify a unicast MAC address for the VM or accept a randomly generated default [00:16:3e:3d:34:47]:
仮想マシンのネットワーク情報を入力します。
How should the engine VM network be configured (DHCP, Static)[DHCP]?
Static を指定した場合は、Manager の IP アドレスを入力します。
重要- 静的 IP アドレスは、ホストと同じサブネットに属している必要があります。たとえばホストが 10.1.1.0/24 内にある場合、Manager 用仮想マシンの IP は同じサブネット範囲 (10.1.1.1-254/24) になければなりません。
- IPv6 については、Red Hat Virtualization でサポートされるのは静的なアドレスだけです。
Please enter the IP address to be used for the engine VM [x.x.x.x]: Please provide a comma-separated list (max 3) of IP addresses of domain name servers for the engine VM Engine VM DNS (leave it empty to skip):
Manager 用仮想マシンおよびベースホストのエントリーを仮想マシンの
/etc/hosts
ファイルに追加するかどうかを指定します。ホスト名は解決可能でなければなりません。Add lines for the appliance itself and for this host to /etc/hosts on the engine VM? Note: ensuring that this host could resolve the engine VM hostname is still up to you (Yes, No)[No]
SMTP サーバーの名前と TCP ポート番号、メール通知を送信するメールアドレス、メール通知を受信するメールアドレス (複数ある場合はコンマ区切りリスト) を指定します。あるいは、Enter キーを押してデフォルトをそのまま使用します。
Please provide the name of the SMTP server through which we will send notifications [localhost]: Please provide the TCP port number of the SMTP server [25]: Please provide the email address from which notifications will be sent [root@localhost]: Please provide a comma-separated list of email addresses which will get notifications [root@localhost]:
管理ポータルにアクセスするための
admin@internal
ユーザーのパスワードを作成し、確認のために再度入力します。Enter engine admin password: Confirm engine admin password:
スクリプトにより仮想マシンが作成されます。RHV-M Appliance をインストールする必要がある場合には、時間がかかることがあります。仮想マシンの作成後、スクリプトは情報収集プロセスに進みます。
使用するストレージのタイプを選択します。
Please specify the storage you would like to use (glusterfs, iscsi, fc, nfs)[nfs]:
NFS の場合は、バージョン、完全なアドレス、およびストレージへのパスならびにマウントオプションを入力します。
Please specify the nfs version you would like to use (auto, v3, v4, v4_1)[auto]: Please specify the full shared storage connection path to use (example: host:/path): storage.example.com:/hosted_engine/nfs If needed, specify additional mount options for the connection to the hosted-engine storage domain []:
iSCSI の場合は、ポータルの詳細を入力し、自動検出された一覧からターゲットおよび LUN を選択します。デプロイメント時に選択できる iSCSI ターゲットは 1 つだけですが、マルチパスがサポートされているので、同じポータルグループのポータルをすべて接続することができます。
注記複数の iSCSI ターゲットを指定するには、セルフホスト型エンジンをデプロイする前にマルチパスを有効にする必要があります。詳細は、Red Hat Enterprise Linux DM Multipath を参照してください。Multipath Helper ツールを使用して、さまざまなオプションでマルチパスをインストールおよび設定するスクリプトを生成することもできます。
Please specify the iSCSI portal IP address: Please specify the iSCSI portal port [3260]: Please specify the iSCSI discover user: Please specify the iSCSI discover password: Please specify the iSCSI portal login user: Please specify the iSCSI portal login password: The following targets have been found: [1] iqn.2017-10.com.redhat.example:he TPGT: 1, portals: 192.168.1.xxx:3260 192.168.2.xxx:3260 192.168.3.xxx:3260 Please select a target (1) [1]: 1 The following luns have been found on the requested target: [1] 360003ff44dc75adcb5046390a16b4beb 199GiB MSFT Virtual HD status: free, paths: 1 active Please select the destination LUN (1) [1]:
Gluster ストレージの場合は、完全なアドレスおよびストレージへのパスならびにマウントオプションを入力します。
重要レプリカ 3 Gluster ストレージのみがサポートされています。次の設定になっていることを確認してください。
3 つの Gluster サーバーすべての/etc/glusterfs/glusterd.vol ファイルで、
rpc-auth-allow-insecure
をon
に設定します。option rpc-auth-allow-insecure on
次のようにボリュームを設定します。
gluster volume set _volume_ cluster.quorum-type auto gluster volume set _volume_ network.ping-timeout 10 gluster volume set _volume_ auth.allow \* gluster volume set _volume_ group virt gluster volume set _volume_ storage.owner-uid 36 gluster volume set _volume_ storage.owner-gid 36 gluster volume set _volume_ server.allow-insecure on
Please specify the full shared storage connection path to use (example: host:/path): storage.example.com:/hosted_engine/gluster_volume If needed, specify additional mount options for the connection to the hosted-engine storage domain []:
ファイバーチャネルの場合は、自動検出された一覧から LUN を選択します。ホストのバスアダプターが設定、接続されている必要があります。また、LUN には既存のデータが含まれないようにする必要があります。既存の LUN を再利用するには、Administration Guide の Reusing LUNs を参照してください。
The following luns have been found on the requested target: [1] 3514f0c5447600351 30GiB XtremIO XtremApp status: used, paths: 2 active [2] 3514f0c5447600352 30GiB XtremIO XtremApp status: used, paths: 2 active Please select the destination LUN (1, 2) [1]:
Manager のディスクサイズを入力します。
Please specify the size of the VM disk in GB: [50]:
デプロイメントが正常に完了すると、1 つのデータセンター、クラスター、ホスト、ストレージドメイン、および Manager 用仮想マシンがすでに稼働しているはずです。管理ポータルにログインして、その他のリソースを追加することができます。
-
オプションとして、
ovirt-engine-extension-aaa-ldap-setup
インタラクティブセットアップスクリプトを使用してディレクトリーサーバーを追加して、環境にユーザーを追加することができます。詳細は、Administration Guide の Configuring an External LDAP Provider を参照してください。
管理ポータルで、Manager 用仮想マシン、仮想マシンを実行しているホスト、およびセルフホストエンジン用ストレージドメインに金色の王冠のフラグが付けられます。
自動インストールの一部として、Red Hat Virtualization Manager リポジトリーの有効化は行われません。Manager 仮想マシンにログインして、コンテンツ配信ネットワークに登録します。
5.2. Red Hat Virtualization Manager リポジトリーの有効化
システムを Red Hat Subscription Manager に登録し、Red Hat Virtualization Manager
のサブスクリプションをアタッチして Manager のリポジトリーを有効にします。
手順
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
注記IPv6 ネットワークを使用している場合は、IPv6 移行メカニズムを使用して、コンテンツ配信ネットワークおよびサブスクリプションマネージャーにアクセスします。
Red Hat Virtualization Manager
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=pool_id
注記現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。
# subscription-manager list --consumed
有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。
# yum repolist
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rpms \ --enable=rhel-7-server-supplementary-rpms \ --enable=rhel-7-server-rhv-4.3-manager-rpms \ --enable=rhel-7-server-rhv-4-manager-tools-rpms \ --enable=rhel-7-server-ansible-2.9-rpms \ --enable=jb-eap-7.2-for-rhel-7-server-rpms
次に管理ポータルにログインします。ここで、環境にホストおよびストレージを追加することができます。
5.3. 管理ポータルへの接続
Web ブラウザーを使って管理ポータルへアクセスします。
Web ブラウザーで、
https://manager-fqdn/ovirt-engine
に移動します。manager-fqdn は、インストール時に指定した FQDN に置き換えます。注記別のホスト名または IP アドレスを使用して、管理ポータルにアクセスすることができます。これには、/etc/ovirt-engine/engine.conf.d/ に設定ファイルを追加する必要があります。以下に例を示します。
# vi /etc/ovirt-engine/engine.conf.d/99-custom-sso-setup.conf SSO_ALTERNATE_ENGINE_FQDNS="alias1.example.com alias2.example.com"
代替ホスト名の一覧は、スペースで区切る必要があります。また、Manager の IP アドレスを一覧に追加することもできますが、DNS で解決可能なホスト名の代わりに IP アドレスを使用することは推奨していません。
- Administration Portal をクリックすると、SSO ログインページが表示されます。SSO ログインにより、管理ポータルと VM ポータルに同時にログインすることができます。
- User Name と Password を入力します。初回ログインの場合は、ユーザー名 admin とインストール時に指定したパスワードを使用してください。
- 認証する Domain を選択します。内部の admin ユーザー名を使用してログインする場合は、プロファイルに internal を選択します。
- Log In をクリックします。
- 管理ポータルは複数の言語で表示することができます。デフォルトの選択は、お使いの Web ブラウザーのロケール設定をベースに決定されます。デフォルト以外の言語で管理ポータルを表示する場合は、ウェルカムページのドロップダウンリストから任意の言語を選択してください。
Red Hat Virtualization 管理ポータルからログアウトするには、ヘッダーバーでユーザー名をクリックして、Sign Out をクリックします。すべてのポータルからログアウトされ、Manager のウェルカム画面が表示されます。
第6章 Red Hat Virtualization 用ホストのインストール
Red Hat Virtualization は、Red Hat Virtualization Hosts (RHVH) および Red Hat Enterprise Linux ホスト の 2 つのタイプのホストをサポートしています。環境に応じて、1 タイプのみまたは両方のタイプを使用することができます。移行や高可用性などの機能を利用するには、少なくとも 2 台のホストが必要です。
ネットワークに関する情報は、「ホストネットワーク設定の推奨プラクティス」 を参照してください。
SELinux は インストール時に enforcing モードに設定されます。確認するには、getenforce
を実行します。Red Hat Virtualization 環境をサポートするには、すべてのホストと Manager で SELinux を enforcing モードに設定する必要があります。
表6.1 ホストタイプ
ホストタイプ | 別名 | 説明 |
---|---|---|
Red Hat Virtualization Host | RHVH、シンホスト | Red Hat Enterprise Linux をベースとする最小限のオペレーティングシステム。カスタマーポータルから ISO ファイルとして配布され、マシンがホストとして機能するためのパッケージのみが含まれています。 |
Red Hat Enterprise Linux ホスト | RHEL ホスト、シックホスト | 適切なサブスクリプションがアタッチされた Red Hat Enterprise Linux システムは、ホストとして使用することができます。 |
ホストの互換性
新規データセンターの作成時に、互換バージョンを設定することができます。データセンター内の全ホストに適した互換バージョンを選択します。一旦設定されると、それよりも古いバージョンに変更することはできません。Red Hat Virtualization を新規インストールした場合には、最新の互換バージョンが Default データセンターと Default クラスターに設定されるので、それ以前の互換バージョンを使用するには、追加でデータセンターおよびクラスターを作成する必要があります。互換バージョンに関する詳細は、Red Hat Virtualization のライフサイクル の Red Hat Virtualization Manager の互換性 を参照してください。
6.1. Red Hat Virtualization Host
6.1.1. Red Hat Virtualization Host のインストール
Red Hat Virtualization Host (RHVH) は、Red Hat Virtualization 環境でハイパーバイザーとして機能する物理マシンの簡単な設定方法を提供するために設計された、Red Hat Enterprise Linux をベースとする最小設定のオペレーティングシステムです。この最小設定のオペレーティングシステムには、マシンがハイパーバイザーとして機能するのに必要なパッケージのみが含まれており、ホストの監視や管理タスクの実行用に Cockpit Web インターフェイスが備えられています。最低限のブラウザー要件については、http://cockpit-project.org/running.html を参照してください。
RHVH は NIST SP 800-53 パーティショニングの要件をサポートし、より強固なセキュリティーを提供します。RHVH は、デフォルトで NIST 800-53 パーティションレイアウトを使用します。
ホストは最低限の host requirements を満たしている必要があります。
手順
カスタマーポータルから RHVH ISO イメージをダウンロードします。
- カスタマーポータル (https://access.redhat.com) にログインします。
- メニューバーの Downloads をクリックします。
- Red Hat Virtualization をクリックします。上にスクロールして Download Latest をクリックし、製品のダウンロードページにアクセスします。
- Hypervisor Image for RHV 4.3 に移動し、Download Now をクリックします。
- 起動可能なメディアデバイスを作成します。詳細については、Red Hat Enterprise Linux Installation Guide の Making Media を参照してください。
- RHVH のインストール先となるマシンを起動し、準備したインストールメディアから起動します。
ブートメニューから Install RHVH 4.3 を選択し、
Enter
を押します。注記また、
Tab
キーを押してカーネルパラメーターを編集することもできます。カーネルパラメーターはスペースで区切る必要があります。また、指定したカーネルパラメーターを使用してシステムを起動するには、Enter
キーを押します。Esc
キーを押してカーネルパラメーターへの変更を消去し、起動メニューに戻ります。- 言語を選択し、Continue をクリックします。
- Date & Time 画面からタイムゾーンを選択し、Done をクリックします。
- Keyboard 画面からキーボードレイアウトを選択し、Done をクリックします。
Installation Destination の画面から RHVH のインストール先のデバイスを選択します。オプションで暗号化を有効にします。Done をクリックします。
重要Red Hat は、Automatically configure partitioning オプションを使用することを強くお勧めします。
Network & Host Name の画面からネットワークを選択し、Configure… をクリックして接続の詳細を設定します。
注記システムが起動するたびに接続を使用するには、Automatically connect to this network when it is available チェックボックスにマークを入れます。詳細については、Red Hat Enterprise Linux 7 Installation Guide の Edit Network Connections を参照してください。
ホスト名を Host name フィールドに入力し、Done をクリックします。
- オプションで 言語サポート、セキュリティーポリシー、および Kdump を設定します。Installation Summary 画面の各セクションの詳細については、Red Hat Enterprise Linux 7 Installation Guide の Installing Using Anaconda を参照してください。
- Begin Installation をクリックします。
RHVH のインストールの際に root パスワードを設定して、オプションで追加のユーザーを作成します。
警告Red Hat は、ローカルセキュリティーの脆弱性が悪用される可能性があるため、RHVH で信頼できないユーザーを作成しないことを強くお勧めします。
Reboot をクリックしてインストールを完了します。
注記RHVH の再起動時に、
nodectl check
はホストでヘルスチェックを実行し、コマンドラインへのログイン時に結果を表示します。node status: OK
またはnode status: DEGRADED
のメッセージはヘルスステータスを示します。nodectl check
を実行して詳細情報を取得します。このサービスはデフォルトで有効になっています。
6.1.2. Red Hat Virtualization Host のリポジトリーの有効化
更新を受け取るためにシステムを登録します。Red Hat Virtualization Host に必要なリポジトリーは 1 つだけです。本セクションでは、RHVH を コンテンツ配信ネットワーク または Red Hat Satellite 6 に登録する手順について説明します。
コンテンツ配信ネットワークへの RHVH の登録
-
https://HostFQDNorIP:9090
で Cockpit Web インターフェイスにログインします。 - Subscriptions に移動し、Register System をクリックしてカスタマーポータルのユーザー名とパスワードを入力します。Red Hat Virtualization Host のサブスクリプションが自動的にシステムにアタッチされます。
- 端末 をクリックします。
Red Hat Virtualization Host 7
のリポジトリーを有効にして、Red Hat Virtualization Host に対する後続の更新を可能にします。# subscription-manager repos --enable=rhel-7-server-rhvh-4-rpms
Red Hat Satellite 6 への RHVH の登録
-
https://HostFQDNorIP:9090
で Cockpit Web インターフェイスにログインします。 - 端末 をクリックします。
RHVH を Red Hat Satellite 6 に登録します。
# rpm -Uvh http://satellite.example.com/pub/katello-ca-consumer-latest.noarch.rpm # subscription-manager register --org="org_id" # subscription-manager list --available # subscription-manager attach --pool=pool_id # subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rhvh-4-rpms
6.1.3. 高度なインストール
6.1.3.1. カスタムパーティション設定
Red Hat Virtualization Host (RHVH) でのカスタムパーティション設定は推奨されません。Red Hat は、Installation Destination ウィンドウで Automatically configure partitioning オプションを使用することを強くお勧めします。
インストールでカスタムのパーティション設定が必要な場合は、インストール時に I will configure partitioning
オプションを選択します。ただし、以下の制限が適用される点に注意してください。
- Manual Partitioning ウィンドウで、デフォルトの LVM Thin Provisioning オプションを選択する必要があります。
以下のディレクトリーが必要で、シンプロビジョニングされた論理ボリューム上になければなりません。
-
root (
/
) -
/home
-
/tmp
-
/var
-
/var/crash/
-
/var/log
/var/log/audit
重要/usr
用に別のパーティションを作成しないでください。別のパーティションを作成すると、インストールに失敗します。/usr
は、RHVH と共にバージョンを変更できる論理ボリューム上になければなりません。したがって、root (/
) 上に残す必要があります。各パーティションに必要なストレージのサイズについては、「ストレージの要件」 を参照してください。
-
root (
-
/boot
ディレクトリーは、標準のパーティションとして定義する必要があります。 -
/var
ディレクトリーは、別のボリュームまたはディスク上になければなりません。 - XFS または Ext4 ファイルシステムのみがサポートされます。
キックスタートファイルでの手動パーティション設定の定義
以下の例では、キックスタートファイルでパーティションを手動設定する方法を説明します。
clearpart --all part /boot --fstype xfs --size=1000 --ondisk=sda part pv.01 --size=42000 --grow volgroup HostVG pv.01 --reserved-percent=20 logvol swap --vgname=HostVG --name=swap --fstype=swap --recommended logvol none --vgname=HostVG --name=HostPool --thinpool --size=40000 --grow logvol / --vgname=HostVG --name=root --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=6000 --grow logvol /var --vgname=HostVG --name=var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=15000 logvol /var/crash --vgname=HostVG --name=var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10000 logvol /var/log --vgname=HostVG --name=var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8000 logvol /var/log/audit --vgname=HostVG --name=var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2000 logvol /home --vgname=HostVG --name=home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1000 logvol /tmp --vgname=HostVG --name=tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1000
logvol --thinpool --grow
を使用する場合は、シンプールを拡張するために、volgroup --reserved-space
または volgroup --reserved-percent
のボリュームグループに領域を確保する必要があります。
6.1.3.2. Red Hat Virtualization Host デプロイメントの自動化
物理メディアデバイスなしに Red Hat Virtualization Host (RHVH) をインストールすることができます。そのためには、インストールの質問に対する回答が含まれたキックスタートファイルを使用し、ネットワーク経由で PXE サーバーから起動します。
RHVH は Red Hat Enterprise Linux とほぼ同じ方法でインストールされるので、キックスタートファイルを使用して PXE サーバーからインストールする手順の概要については、Red Hat Enterprise Linux インストールガイドの キックスタートを使ったインストール を参照してください。RHVH に固有の手順 (Red Hat Satellite を使用した RHVH のデプロイメントを例として使用) については、この後に説明します。
RHVH の自動デプロイメントは、以下の 3 つのステージで設定されます。
6.1.3.2.1. インストール環境の準備
- Customer Portal にログインします。
- メニューバーの Downloads をクリックします。
- Red Hat Virtualization をクリックします。上にスクロールして Download Latest をクリックし、製品のダウンロードページにアクセスします。
- Hypervisor Image for RHV 4.3 に移動し、Download Now をクリックします。
- RHVH ISO イメージをネットワーク経由で提供できるようにします。Red Hat Enterprise Linux インストールガイド の インストールソース - ネットワーク を参照してください。
RHVH ISO から squashfs.img ハイパーバイザーイメージファイルを抽出します。
# mount -o loop /path/to/RHVH-ISO /mnt/rhvh # cp /mnt/rhvh/Packages/redhat-virtualization-host-image-update* /tmp # cd /tmp # rpm2cpio redhat-virtualization-host-image-update* | cpio -idmv
注記/tmp/usr/share/redhat-virtualization-host/image/
ディレクトリーにある squashfs.img ファイルの名前は redhat-virtualization-host-version_number_version.squashfs.img です。物理マシンにインストールするためのハイパーバイザーイメージが含まれます。これは、Anacondainst.stage2
オプションで使用される /LiveOS/squashfs.img ファイルと混同しないでください。
6.1.3.2.2. PXE サーバーおよびブートローダーの設定
- PXE サーバーを設定します。Red Hat Enterprise Linux インストールガイド の ネットワークからのインストールの準備 を参照してください。
RHVH 起動イメージを
/tftpboot
ディレクトリーにコピーします。# cp mnt/rhvh/images/pxeboot/{vmlinuz,initrd.img} /var/lib/tftpboot/pxelinux/
ブートローダー設定で RHVH 起動イメージを指定して、
rhvh
ラベルを作成します。LABEL rhvh MENU LABEL Install Red Hat Virtualization Host KERNEL /var/lib/tftpboot/pxelinux/vmlinuz APPEND initrd=/var/lib/tftpboot/pxelinux/initrd.img inst.stage2=URL/to/RHVH-ISO
Red Hat Satellite の RHVH ブートローダー設定の例
Red Hat Satellite からの情報を使用してホストをプロビジョニングする場合には、グローバルまたはホストグループレベルのパラメーターを作成し (ここでは
rhvh_image
)、ISO をマウントまたは抽出するディレクトリーの URL を定義する必要があります。<%# kind: PXELinux name: RHVH PXELinux %> # Created for booting new hosts # DEFAULT rhvh LABEL rhvh KERNEL <%= @kernel %> APPEND initrd=<%= @initrd %> inst.ks=<%= foreman_url("provision") %> inst.stage2=<%= @host.params["rhvh_image"] %> intel_iommu=on console=tty0 console=ttyS1,115200n8 ssh_pwauth=1 local_boot_trigger=<%= foreman_url("built") %> IPAPPEND 2
RHVH ISO の内容をローカルで利用可能な状態にし、たとえば HTTPD サーバーを使用して、ネットワークにエクスポートします。
# cp -a /mnt/rhvh/ /var/www/html/rhvh-install # curl URL/to/RHVH-ISO/rhvh-install
6.1.3.2.3. キックスタートファイルの作成と実行
- キックスタートファイルを作成し、ネットワーク経由で提供できるようにします。Red Hat Enterprise Linux インストールガイド の キックスタートを使ったインストール を参照してください。
キックスタートファイルは以下に示す RHV 固有の要件を満たす必要があります。
RHVH には
%packages
セクションは必要ありません。代わりに、liveimg
オプションを使用して、RHVH ISO イメージからの redhat-virtualization-host-version_number_version.squashfs.img ファイルを指定します。liveimg --url=example.com/tmp/usr/share/redhat-virtualization-host/image/redhat-virtualization-host-version_number_version.squashfs.img
自動パーティション設定を強く推奨します。
autopart --type=thinp
注記自動パーティション設定では、シンプロビジョニングを使用する必要があります。
/home
は必須のディレクトリーであるため、RHVH では--no-home
オプションは機能しません。インストールで手動パーティション設定が必要な場合は、パーティション設定に適用される制限の一覧およびキックスタートファイルでの手動パーティション設定の例を 「カスタムパーティション設定」 で確認してください。
nodectl init
コマンドを呼び出す%post
セクションが必要です。%post nodectl init %end
RHVH を独自にデプロイするためのキックスタート例
このキックスタートの例では、RHVH のデプロイ方法を示しています。必要に応じて、コマンドとオプションをさらに追加してください。
liveimg --url=http://FQDN/tmp/usr/share/redhat-virtualization-host/image/redhat-virtualization-host-version_number_version.squashfs.img clearpart --all autopart --type=thinp rootpw --plaintext ovirt timezone --utc America/Phoenix zerombr text reboot %post --erroronfail nodectl init %end
Satellite から登録およびネットワーク設定を使用した RHVH をデプロイするためのキックスタートの例
このキックスタートの例では、Red Hat Satellite からの情報を使用してホストネットワークを設定し、ホストを Satellite サーバーに登録します。グローバルまたはホストグループレベルのパラメーターを作成し (ここでは
rhvh_image
)、squashfs.img ファイルを格納するディレクトリーの URL を定義する必要があります。ntp_server1
もグローバルまたはホストグループレベルの変数です。<%# kind: provision name: RHVH Kickstart default oses: - RHVH %> install liveimg --url=<%= @host.params['rhvh_image'] %>squashfs.img network --bootproto static --ip=<%= @host.ip %> --netmask=<%= @host.subnet.mask %> --gateway=<%= @host.subnet.gateway %> --nameserver=<%= @host.subnet.dns_primary %> --hostname <%= @host.name %> zerombr clearpart --all autopart --type=thinp rootpw --iscrypted <%= root_pass %> # installation answers lang en_US.UTF-8 timezone <%= @host.params['time-zone'] || 'UTC' %> keyboard us firewall --service=ssh services --enabled=sshd text reboot %post --log=/root/ks.post.log --erroronfail nodectl init <%= snippet 'subscription_manager_registration' %> <%= snippet 'kickstart_networking_setup' %> /usr/sbin/ntpdate -sub <%= @host.params['ntp_server1'] || '0.fedora.pool.ntp.org' %> /usr/sbin/hwclock --systohc /usr/bin/curl <%= foreman_url('built') %> sync systemctl reboot %end
キックスタートファイルの場所を、PXE サーバーのブートローダー設定ファイルに追加します。
APPEND initrd=/var/tftpboot/pxelinux/initrd.img inst.stage2=URL/to/RHVH-ISO inst.ks=URL/to/RHVH-ks.cfg
- Red Hat Enterprise Linux インストールガイド の PXE を使ったネットワークからの起動 に記載された手順に従って、RHVH をインストールします。
6.2. Red Hat Enterprise Linux ホスト
6.2.1. Red Hat Enterprise Linux ホストのインストール
Red Hat Enterprise Linux ホストは、Red Hat Enterprise Linux Server
および Red Hat Virtualization
サブスクリプションがアタッチされた、物理サーバー上の Red Hat Enterprise Linux 7 の標準的な基本インストールをベースにしています。
詳細なインストール手順は、Performing a standard {enterprise-linux-shortname} installation を参照してください。
ホストは最低限の host requirements を満たしている必要があります。
ホストの BIOS 設定で仮想化が有効になっている必要があります。ホストの BIOS 設定の変更に関する詳細は、そのホストのハードウェアのマニュアルを参照してください。
サードパーティーのウォッチドッグは、VDSM によって提供されるウォッチドッグデーモンに干渉する可能性があるため、Red Hat Enterprise Linux ホストにインストールしないでください。
6.2.2. Red Hat Enterprise Linux ホストのリポジトリーの有効化
Red Hat Enterprise Linux マシンをホストとして使用するには、システムをコンテンツ配信ネットワークに登録し、Red Hat Enterprise Linux Server
および Red Hat Virtualization
サブスクリプションを割り当て、ホストのリポジトリーを有効にする必要があります。
手順
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
Red Hat Enterprise Linux Server
およびRed Hat Virtualization
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=poolid
注記現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。
# subscription-manager list --consumed
有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。
# yum repolist
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rpms \ --enable=rhel-7-server-rhv-4-mgmt-agent-rpms \ --enable=rhel-7-server-ansible-2.9-rpms
IBM POWER8 (リトルエンディアン) ハードウェアに Red Hat Enterprise Linux 7 ホストをインストールする場合:
# subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-le-rpms \ --enable=rhel-7-for-power-le-rpms
IBM POWER9 (リトルエンディアン) ハードウェアに Red Hat Enterprise Linux 7 ホストをインストールする場合:
# subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-9-rpms \ --enable=rhel-7-for-power-9-rpms
現在インストールされている全パッケージを最新の状態にします。
# yum update
- マシンを再起動します。
6.2.3. Red Hat Enterprise Linux ホストへの Cockpit のインストール
ホストのリソースの監視および管理タスクの実施のために、Cockpit をインストールすることができます。
手順
dashboard パッケージをインストールします。
# yum install cockpit-ovirt-dashboard
cockpit.socket
サービスを有効にして起動します。# systemctl enable cockpit.socket # systemctl start cockpit.socket
ファイアウォールで Cockpit がアクティブなサービスかどうかを確認します。
# firewall-cmd --list-services
cockpit
のリストが表示されるはずです。表示されない場合には、root 権限で以下のコマンドを入力し、cockpit
をサービスとしてファイアウォールに追加します。# firewall-cmd --permanent --add-service=cockpit
--permanent
オプションは、再起動後もcockpit
サービスをアクティブな状態を維持します。
https://HostFQDNorIP:9090
で Cockpit Web インターフェイスにログインできます。
6.3. ホストネットワーク設定の推奨プラクティス
お使いのネットワーク環境が複雑な場合には、ホストを Red Hat Virtualization Manager に追加する前に、ホストネットワークを手動で設定しなければならない場合があります。
Red Hat では、以下に示すホストネットワーク設定のプラクティスを推奨しています。
-
Cockpit を使用してネットワークを設定する。
nmtui
またはnmcli
を使用することもできます。 - セルフホストエンジンのデプロイメントまたは Manager へのホスト追加にネットワークが必要ない場合には、ホストを Manager に追加した後に、管理ポータルでネットワークを設定する。Creating a New Logical Network in a Data Center or Cluster を参照してください。
以下の命名規則を使用する。
-
VLAN デバイス:
VLAN_NAME_TYPE_RAW_PLUS_VID_NO_PAD
-
VLAN インターフェイス:
physical_device.VLAN_ID
(例:eth0.23
,eth1.128
,enp3s0.50
) -
ボンディングインターフェイス:
bondnumber
(例:bond0
,bond1
) -
ボンディングインテリアの VLAN:
bondnumber.VLAN_ID
(例:bond0.50
,bond1.128
)
-
VLAN デバイス:
- network bonding を使用します。Red Hat Virtualization ではネットワークチーミングはサポートされておらず、セルフホストエンジンのデプロイメントにホストが使用されたりホストが Manager に追加されたりすると、エラーが発生する原因となります。
推奨されるボンディングモードを使用する。
-
仮想マシンが
ovirtmgmt
ネットワークを使用しない場合には、ネットワークではサポートされるいずれかのボンディングモードが使用されます。 -
仮想マシンが
ovirtmgmt
ネットワークを使用する場合には、Which bonding modes work when used with a bridge that virtual machine guests or containers connect to? を参照してください。 -
Red Hat Virtualization のデフォルトのボンディングモードは
(Mode 4)Dynamic Link Aggregation
です。お使いのスイッチがリンクアグリゲーション制御プロトコル (LACP) に対応していない場合には、(Mode 1) Active-Backup
を使用してください。詳細は、Bonding Modes を参照してください。
-
仮想マシンが
以下の例に示すように、物理 NIC 上に VLAN を設定する (以下の例では
nmcli
を使用していますが、任意のツールを使用することができます)。# nmcli connection add type vlan con-name vlan50 ifname eth0.50 dev eth0 id 50 # nmcli con mod vlan50 +ipv4.dns 8.8.8.8 +ipv4.addresses 123.123.0.1/24 +ivp4.gateway 123.123.0.254
以下の例に示すように、ボンディング上に VLAN を設定する (以下の例では
nmcli
を使用していますが、任意のツールを使用することができます)。# nmcli connection add type bond con-name bond0 ifname bond0 bond.options "mode=active-backup,miimon=100" ipv4.method disabled ipv6.method ignore # nmcli connection add type ethernet con-name eth0 ifname eth0 master bond0 slave-type bond # nmcli connection add type ethernet con-name eth1 ifname eth1 master bond0 slave-type bond # nmcli connection add type vlan con-name vlan50 ifname bond0.50 dev bond0 id 50 # nmcli con mod vlan50 +ipv4.dns 8.8.8.8 +ipv4.addresses 123.123.0.1/24 +ivp4.gateway 123.123.0.254
-
firewalld
を無効にしないでください。 - ホストを Manager に追加した後に、管理ポータルでファイアウォールルールをカスタマイズする。Configuring Host Firewall Rules を参照してください。
静的 IPv6 アドレスを使用する管理ブリッジを作成する場合は、ホストを追加する前に、インターフェイス設定 (ifcfg) ファイルでネットワークマネージャーコントロールを無効にしてください。詳細は、https://access.redhat.com/solutions/3981311 を参照してください。
6.4. Red Hat Virtualization Manager へのセルフホスト型エンジンノードの追加
セルフホストエンジンノードは、通常のホストと同じ方法で追加することができますが、セルフホストエンジンノードとしてホストをデプロイするという追加のステップが必要です。共有ストレージドメインは自動的に検出され、ノードは必要に応じて Manager 用仮想マシンをホストするフェイルオーバー用ホストとして使用することができます。セルフホスト型エンジン環境に通常のホストをアタッチすることもできますが、Manager 用仮想マシンをホストすることはできません。Red Hat は、Manager 仮想マシンの高可用性を確保するために、少なくとも 2 つのセルフホストエンジンノードを用意することをお勧めします。追加ホストは、REST API を使用して追加することもできます。REST API Guide の Hosts を参照してください。
前提条件
- セルフホストエンジンノードを再利用する場合は、既存のセルフホストエンジン設定を削除してください。Removing a Host from a Self-Hosted Engine Environment を参照してください。
静的 IPv6 アドレスを使用する管理ブリッジを作成する場合は、ホストを追加する前に、インターフェイス設定 (ifcfg) ファイルでネットワークマネージャーコントロールを無効にしてください。詳細は、https://access.redhat.com/solutions/3981311 を参照してください。
手順
- 管理ポータルで コンピュート → ホスト をクリックします。
New をクリックします。
ホストの追加設定に関する情報は、Administration Guide の Explanation of Settings and Controls in the New Host and Edit Host Windows を参照してください。
- ドロップダウンリストを使用して、新規ホスト用の Data Center および Host Cluster を選択します。
- 新規ホストの Name と Address を入力します。SSH Port フィールドには、標準の SSH ポートであるポート 22 が自動入力されます。
Manager がホストにアクセスするために使用する認証メソッドを選択します。
- パスワード認証を使用するには、root ユーザーのパスワードを入力します。
- または、SSH PublicKey フィールドに表示される鍵をホスト上の /root/.ssh/authorized_keys にコピーして、公開鍵認証を使用します。
- ホストにサポート対象の電源管理カードが搭載されている場合には、オプションとして電源管理を設定することができます。電源管理の設定に関する詳細は、Administration Guide の Host Power Management Settings Explained を参照してください。
- ホストエンジン タブをクリックします。
- デプロイ を選択します。
- OK をクリックします。
6.5. Red Hat Virtualization Manager への通常のホストの追加
Red Hat Virtualization 環境にホストを追加するには、仮想化のチェック、パッケージのインストール、およびブリッジの作成の各ステップをプラットフォームで完了する必要があるため、多少時間がかかります。
静的 IPv6 アドレスを使用する管理ブリッジを作成する場合は、ホストを追加する前に、インターフェイス設定 (ifcfg) ファイルでネットワークマネージャーコントロールを無効にしてください。詳細は、https://access.redhat.com/solutions/3981311 を参照してください。
手順
- 管理ポータルから Compute → Hosts をクリックします。
- New をクリックします。
- ドロップダウンリストを使用して、新規ホスト用の Data Center および Host Cluster を選択します。
- 新規ホストの Name と Address を入力します。SSH Port フィールドには、標準の SSH ポートであるポート 22 が自動入力されます。
Manager がホストにアクセスするために使用する認証メソッドを選択します。
- パスワード認証を使用するには、root ユーザーのパスワードを入力します。
- または、SSH PublicKey フィールドに表示される鍵をホスト上の /root/.ssh/authorized_keys にコピーして、公開鍵認証を使用します。
オプションとして、Advanced Parameters ボタンをクリックして、以下に示すホストの詳細設定を変更します。
- ファイアウォールの自動設定を無効にする。
- ホストの SSH フィンガープリントを追加し、セキュリティーを強化する。手動での追加または自動取得が可能です。
- ホストにサポート対象の電源管理カードが搭載されている場合には、オプションとして電源管理を設定することができます。電源管理の設定に関する詳細は、Administration Guide の Host Power Management Settings Explained を参照してください。
- OK をクリックします。
新規ホストが Installing
のステータスでホスト一覧に表示され、通知トレイ (
) の イベント セクションでインストールの進捗状況を確認できます。しばらくすると、ホストのステータスが Up
に変わります。
第7章 Red Hat Virtualization 用ストレージの追加
新たな環境にデータドメインとしてストレージを追加します。Red Hat Virtualization 環境には少なくとも 1 つのデータドメインが必要ですが、さらに追加することを推奨します。
前の手順で準備したストレージを追加します。
iSCSI ストレージを使用する場合には、新しいデータドメインはセルフホストエンジン用ストレージドメインと同じ iSCSI ターゲットを使用することはできません。
セルフホストエンジン用ストレージドメインと同じデータセンター内に追加のデータドメインを作成することを強く推奨します。セルフホストエンジンをデータセンター内にデプロイする際に、アクティブなデータストレージドメインを 1 つしか用意していない場合、そのストレージドメインが破損しても、新しいストレージドメインを追加したり、破損したストレージドメインを削除することはできません。セルフホストエンジンを再デプロイしなければなりません。
7.1. NFS ストレージの追加
この手順では、既存の NFS ストレージをデータドメインとして Red Hat Virtualization 環境にアタッチする方法について説明します。
ISO またはエクスポートドメインが必要な場合にも、この手順を使用します。ただし、Domain Function の一覧から ISO または Export を選択します。
手順
- 管理ポータルで Storage → Domains をクリックします。
- 新規ドメイン をクリックします。
- ストレージドメインの Name を入力します。
- Data Center、Domain Function、Storage Type、Format、および Host 一覧のデフォルト値をそのまま使用します。
- ストレージドメインに使用する Export Path を入力します。エクスポートパスは、123.123.0.10:/data (IPv4 の場合)、[2001:0:0:0:0:0:0:5db1]:/data (IPv6 の場合)、または domain.example.com:/data の形式で指定する必要があります。
オプションで、詳細パラメーターを設定することが可能です。
- Advanced Parameters をクリックします。
- Warning Low Space Indicator のフィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告メッセージが表示され、ログに記録されます。
- Critical Space Action Blocker のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
- 削除後にワイプするオプションを有効にするには、Wipe After Delete のチェックボックスを選択します。このオプションは、ドメインの作成後に編集することが可能ですが、その場合にはすでに存在していたディスクの削除後にワイププロパティーは変更されません。
- OK をクリックします。
新しい NFS データドメインのステータスは、ディスクの準備ができるまで Locked
になります。その後、データドメインはデータセンターに自動的にアタッチされます。
7.2. iSCSI ストレージの追加
この手順では、既存の iSCSI ストレージをデータドメインとして Red Hat Virtualization 環境にアタッチする方法について説明します。
手順
- Storage → Domains をクリックします。
- 新規ドメイン をクリックします。
- 新規ストレージドメインの Name を入力します。
- ドロップダウンリストから Data Center を選択します。
- Domain Function にData を、Storage Type に iSCSI を、それぞれ選択します。
Host にアクティブなホストを選択します。
重要ストレージドメインへの通信は、直接 Manager からではなく、選択したホストを介して行われます。したがって、ストレージドメインを設定する前には、全ホストがストレージデバイスにアクセスできる状態でなければなりません。
Manager は iSCSI ターゲットを LUN に、または LUN を iSCSI ターゲットにマッピングすることができます。New Domain ウィンドウでストレージタイプに iSCSI を選択すると、未使用の LUN が割り当てられた既知のターゲットが自動的に表示されます。ストレージの追加に使用するターゲットが表示されない場合には、ターゲットの検出機能を使用して検索することができます。表示されている場合には、次の手順に進んでください。
Discover Targets をクリックし、ターゲットの検出オプションを有効にします。Manager がターゲットを検出してログインすると、新規ドメイン ウィンドウに、その環境では未使用の LUN が割り当てられたターゲットが自動的に表示されます。
注記環境の外部で使用されている LUN も表示されます。
ターゲットを検出 のオプションを使用すると、多数のターゲットの LUN を追加したり、同じ LUN に複数のパスを追加したりすることができます。
- アドレス フィールドに iSCSI ホストの FQDN または IP アドレスを入力します。
-
Port フィールドには、ターゲットを参照する際にホストに接続するポートを入力します。デフォルトは
3260
です。 ストレージのセキュリティー保護に CHAP を使用している場合は、User Authentication のチェックボックスを選択します。CHAP user name と CHAP password を入力してください。
注記REST API を使用して、特定ホストの iSCSI ターゲットに認証情報を定義することができます。詳細は、REST API Guide の StorageServerConnectionExtensions: add を参照してください。
- Discover をクリックします。
検出結果から 1 つまたは複数のターゲットを選択し、1 つのターゲットの場合は Login をクリックします。複数のターゲットの場合は Login All をクリックします。
重要複数のパスのアクセスが必要な場合には、すべての必要なパスを通してターゲットを検出してログインする必要があります。ストレージドメインを変更してさらにパスを追加する方法は、現在サポートされていません。
- 対象のターゲットの横に表示されている + ボタンをクリックします。エントリーが展開され、ターゲットにアタッチされている未使用の LUN がすべて表示されます。
- ストレージドメインの作成に使用する各 LUN のチェックボックスにチェックを入れます。
オプションで、詳細パラメーターを設定することが可能です。
- Advanced Parameters をクリックします。
- Warning Low Space Indicator のフィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告メッセージが表示され、ログに記録されます。
- Critical Space Action Blocker のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
- 削除後にワイプするオプションを有効にするには、Wipe After Delete のチェックボックスを選択します。このオプションは、ドメインの作成後に編集することが可能ですが、その場合にはすでに存在していたディスクの削除後にワイププロパティーは変更されません。
- Discard After Delete のチェックボックスを選択して、削除後に破棄のオプションを有効化します。このオプションは、ドメインの作成後に編集できます。また、このオプションを利用できるのは、ブロックストレージドメインのみです。
- OK をクリックします。
同じターゲットに対して複数のストレージ接続パスを設定している場合には、Configuring iSCSI Multipathing に記載の手順に従って、iSCSI ボンディング設定を完了してください。
現在のストレージネットワークを iSCSI ボンディングに移行するには、Migrating a Logical Network to an iSCSI Bond を参照してください。
7.3. FCP ストレージの追加
この手順では、既存の FCP ストレージをデータドメインとして Red Hat Virtualization 環境にアタッチする方法について説明します。
手順
- Storage → Domains をクリックします。
- New Domain をクリックします。
- ストレージドメインの Name を入力します。
ドロップダウンリストから FCP Data Center を選択します。
適切な FCP データセンターがない場合には
(none)
を選択します。- ドロップダウンリストから Domain Function および Storage Type を選択します。選択したデータセンターとの互換性がないストレージドメインタイプは選択できません。
Host のフィールドでアクティブなホストを 1 台選択します。データセンターで初めて作成するデータドメインでなければ、そのデータセンターの SPM ホストを選択する必要があります。
重要ストレージドメインへの通信はすべて、Red Hat Virtualization Manager から直接ではなく、選択したホストを介して行われます。システムには、アクティブなホストが少なくとも 1 台存在し、選択したデータセンターにアタッチされている必要があります。ストレージドメインを設定する前には、全ホストがストレージデバイスにアクセスできる状態でなければなりません。
- New Domain ウィンドウで、ストレージタイプに Fibre Channel を選択した場合は、未使用の LUN が割り当てられた既知のターゲットが自動的に表示されます。LUN ID のチェックボックスを選択し、使用可能な LUN をすべて選択します。
オプションで、詳細パラメーターを設定することが可能です。
- Advanced Parameters をクリックします。
- Warning Low Space Indicator のフィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告メッセージが表示され、ログに記録されます。
- Critical Space Action Blocker のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
- 削除後にワイプするオプションを有効にするには、Wipe After Delete のチェックボックスを選択します。このオプションは、ドメインの作成後に編集することが可能ですが、その場合にはすでに存在していたディスクの削除後にワイププロパティーは変更されません。
- Discard After Delete のチェックボックスを選択して、削除後に破棄のオプションを有効化します。このオプションは、ドメインの作成後に編集できます。また、このオプションを利用できるのは、ブロックストレージドメインのみです。
- OK をクリックします。
使用準備中は、新規 FCP データドメインのステータスは Locked
になります。準備が整った時点で、自動的にデータセンターにアタッチされます。
7.4. Red Hat Gluster Storage の追加
Red Hat Virtualization で Red Hat Gluster Storage を使用するには、Configuring Red Hat Virtualization with Red Hat Gluster Storage を参照してください。
Red Hat Virtualization でサポートされる Red Hat Gluster Storage のバージョンについては、https://access.redhat.com/articles/2356261 を参照してください。
付録A セルフホストエンジンのデプロイメントのトラブルシューティング
セルフホストエンジンがすでにデプロイされているかどうかを確認するには、hosted-engine --check-deployed
を実行します。セルフホストエンジンがデプロイされていない場合にだけ、エラーが表示されます。
A.1. Manager 用仮想マシンのトラブルシューティング
hosted-engine --vm-status
を実行して Manager 用仮想マシンのステータスを確認します。
Manager 用仮想マシンに加えた変更がステータスコマンドの出力に反映されるには、20 秒ほどかかります。
出力の Engine status
ごとに、問題を特定または解決するためのアドバイスを以下に示します。
Engine status: "health": "good", "vm": "up" "detail": "up"
Manager 用仮想マシンが通常通りに稼働中の場合には、以下のような出力が表示されます。
--== Host 1 status ==-- Status up-to-date : True Hostname : hypervisor.example.com Host ID : 1 Engine status : {"health": "good", "vm": "up", "detail": "up"} Score : 3400 stopped : False Local maintenance : False crc32 : 99e57eba Host timestamp : 248542
- 出力は正常だが Manager に接続することができない場合は、ネットワーク接続を確認してください。
Engine status: "reason": "failed liveliness check", "health": "bad", "vm": "up", "detail": "up"
health
がbad
でvm
がup
の場合、HA サービスは Manager 用仮想マシンを再起動して Manager の復旧を試みます。数分以内に復旧しない場合は、コマンドラインからグローバルメンテナーンスモードを有効にして、ホストを HA サービスの管理対象外にします。# hosted-engine --set-maintenance --mode=global
コンソールに接続します。プロンプトが表示されたら、オペレーティングシステムの root パスワードを入力します。コンソールのオプションに関する詳細は、https://access.redhat.com/solutions/2221461 を参照してください。
# hosted-engine --console
- Manager 用仮想マシンにログインして、オペレーティングシステムが動作していることを確認します。
ovirt-engine
サービスのステータスを確認します。# systemctl status -l ovirt-engine # journalctl -u ovirt-engine
- /var/log/messages、/var/log/ovirt-engine/engine.log、および /var/log/ovirt-engine/server.log のログを確認します。
問題を解決したら、セルフホストエンジンノードのいずれかから、手動で Manager 用仮想マシンを再起動します。
# hosted-engine --vm-shutdown # hosted-engine --vm-start
注記セルフホストエンジンノードがグローバルメンテナーンスモードにある場合は、Manager 用仮想マシンを手動で再起動する必要があります。コマンドラインから
reboot
コマンドを送信して Manager 用仮想マシンを再起動しようとしても、Manager 用仮想マシンは電源オフのままです。設計上、このようになります。Manager 用仮想マシンで
ovirt-engine
サービスが稼働中であることを確認します。# systemctl status ovirt-engine.service
Manager 用仮想マシンが稼働中であることを確認した後は、コンソールセッションを終了して、メンテナーンスモードを無効にし、HA サービスを再び有効にします。
# hosted-engine --set-maintenance --mode=none
Engine status: "vm": "down", "health": "bad", "detail": "unknown", "reason": "vm not running on this host"
- 環境内に複数のホストがある場合は、現在別のホストが Manager 用仮想マシンの再起動を試みていないことを確認します。
- グローバルメンテナーンスモードにないことを確認します。
- /var/log/ovirt-hosted-engine-ha/agent.log で、ovirt-ha-agent のログを確認します。
セルフホストエンジンノードのいずれかから、手動で Manager 用仮想マシンの再起動を試みます。
# hosted-engine --vm-shutdown # hosted-engine --vm-start
Engine status: "vm": "unknown", "health": "unknown", "detail": "unknown", "reason": "failed to getVmStats"
このステータスは、ovirt-ha-agent
が VDSM から仮想マシンの詳細を取得できなかったことを意味しています。
- /var/log/vdsm/vdsm.log で VDSM のログを確認します。
- /var/log/ovirt-hosted-engine-ha/agent.log で、ovirt-ha-agent のログを確認します。
Engine status: セルフホストエンジンの設定が共有ストレージから取得されていない
ステータス が表示されると、共有ストレージからセルフホストエンジン設定は取得されていません。ovirt-ha-agent が実行されており、ストレージサーバーにアクセスできることを確認してください
ovirt-ha-agent
サービス、ストレージ、またはその両方に問題があります。
ホストで
ovirt-ha-agent
のステータスを確認します。# systemctl status -l ovirt-ha-agent # journalctl -u ovirt-ha-agent
ovirt-ha-agent
がダウンしている場合は、再起動します。# systemctl start ovirt-ha-agent
-
/var/log/ovirt-hosted-engine-ha/agent.log で、
ovirt-ha-agent
のログを確認します。 - 共有ストレージに ping を送信できることを確認します。
- 共有ストレージがマウントされているかどうかを確認します。
その他のトラブルシューティング用コマンド
以下のコマンドのいずれかを実行してセルフホストエンジン環境のトラブルシューティングを行う必要がある場合には、Red Hat サポートまでご連絡ください。
-
hosted-engine --reinitialize-lockspace
: このコマンドは、sanlock ロックスペースが壊れている場合に使用します。sanlock ロックスペースを再初期化する前に、グローバルメンテナーンスモードが有効で Manager 用仮想マシンが停止していることを確認してください。 -
hosted-engine --clean-metadata
: ホストのエージェントのメタデータをグローバルステータスデータベースから削除します。これにより、他のホストではすべて、このホストについての情報はなくなります。ターゲットのホストが停止状態でグローバルメンテナーンスモードが有効であることを確認してください。 -
hosted-engine --check-liveliness
: このコマンドは、ovirt-engine サービスの liveliness ページを確認します。Web ブラウザーでhttps://engine-fqdn/ovirt-engine/services/health/
に接続して確認することもできます。 -
hosted-engine --connect-storage
: このコマンドは、ホストと Manager 用仮想マシンに必要なストレージ接続をすべて準備するように VDSM に指示します。これは通常、セルフホストエンジンのデプロイ中にバックエンドで実行します。このコマンドを実行してストレージの問題のトラブルシューティングを行う必要がある場合には、グローバルメンテナーンスモードを必ず有効にしてください。
A.2. 失敗したセルフホストエンジンのデプロイメントのクリーンアップ
セルフホストエンジンのデプロイメントが中断された場合には、その後のデプロイメントは失敗して、エラーメッセージが表示されます。このエラーはデプロイメントが失敗した段階によって異なります。
エラーメッセージが表示される場合には、デプロイメントホストでクリーンアップスクリプトを実行して、失敗したデプロイメントをクリーンアップすることができます。ただし、最良の手段は、ベースのオペレーティングシステムを再インストールして、デプロイメントを最初からやり直すことです。
クリーンアップスクリプトには、以下の制約があります。
- スクリプトの実行中にネットワークの接続が中断すると、スクリプトによる管理ブリッジの削除や作業用ネットワーク設定の再作成に失敗する場合がある。
- スクリプトでは、失敗したデプロイメント中に使用された共有ストレージデバイスをクリーンアップすることができない。以降のデプロイメントで再使用するには、共有ストレージデバイスをクリーンアップする必要があります。
手順
/usr/sbin/ovirt-hosted-engine-cleanup
を実行してy
を選択し、失敗したセルフホストエンジンのデプロイメントで残されたものを削除します。# /usr/sbin/ovirt-hosted-engine-cleanup This will de-configure the host to run ovirt-hosted-engine-setup from scratch. Caution, this operation should be used with care. Are you sure you want to proceed? [y/n]
同じ共有ストレージデバイスに再インストールするか、別の共有ストレージデバイスを選択するかを定義します。
同じストレージドメインにインストール環境をデプロイする場合は、NFS、Gluster、PosixFS またはローカルストレージドメインのサーバーの適切なディレクトリーで以下のコマンドを実行し、そのストレージドメインをクリーンアップします。
# rm -rf storage_location/*
- iSCSI またはファイバーチャネルプロトコル (FCP) のストレージの場合は、https://access.redhat.com/solutions/2121581 で、ストレージのクリーンアップ方法を参照してください。
- または、別の共有ストレージデバイスを選択します。
- セルフホストエンジンを再デプロイします。
付録B リモートサーバーへのデータベースおよびサービスの移行
自動化されたインストール中にリモートデータベースおよびサービスを設定することはできませんが、インストール後に別のサーバーに移行することができます。
B.1. リモートサーバーへのセルフホストエンジンデータベースの移行
Red Hat Virtualization Manager の初期設定の後に、セルフホストエンジンの engine
データベースをリモートのデータベースサーバーに移行することができます。engine-backup
を使用してデータベースのバックアップを作成し、新しいデータベースサーバーに復元します。
新規データベースサーバーに Red Hat Enterprise Linux 7 をインストールし、必要なリポジトリーを有効にする必要があります。
Red Hat Virtualization Manager リポジトリーの有効化
システムを Red Hat Subscription Manager に登録し、Red Hat Virtualization Manager
のサブスクリプションをアタッチして Manager のリポジトリーを有効にします。
手順
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
注記IPv6 ネットワークを使用している場合は、IPv6 移行メカニズムを使用して、コンテンツ配信ネットワークおよびサブスクリプションマネージャーにアクセスします。
Red Hat Virtualization Manager
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=pool_id
注記現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。
# subscription-manager list --consumed
有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。
# yum repolist
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rpms \ --enable=rhel-7-server-supplementary-rpms \ --enable=rhel-7-server-rhv-4.3-manager-rpms \ --enable=rhel-7-server-rhv-4-manager-tools-rpms \ --enable=rhel-7-server-ansible-2.9-rpms \ --enable=jb-eap-7.2-for-rhel-7-server-rpms
リモートサーバーへのセルフホストエンジンデータベースの移行
セルフホストエンジンノードにログインし、環境を
global
メンテナーンスモードにします。これにより、高可用性エージェントを無効化して、この手順の実行中に Manager 用仮想マシンが移行されないようにします。# hosted-engine --set-maintenance --mode=global
Red Hat Virtualization Manager マシンにログインし、
ovirt-engine
サービスを停止して、エンジンのバックアップに干渉しないようにします。# systemctl stop ovirt-engine.service
engine
データベースのバックアップを作成します。# engine-backup --scope=files --scope=db --mode=backup --file=file_name --log=backup_log_name
バックアップファイルを新規データベースサーバーにコピーします。
# scp /tmp/engine.dump root@new.database.server.com:/tmp
新しいデータベースサーバーにログインし、
engine-backup
をインストールします。# yum install ovirt-engine-tools-backup
新しいデータベースサーバーでデータベースを復元します。file_name は、Manager からコピーされたバックアップファイルです。
# engine-backup --mode=restore --scope=files --scope=db --file=file_name --log=restore_log_name --provision-db --no-restore-permissions
データベースが移行されたので、
ovirt-engine
サービスを開始します。# systemctl start ovirt-engine.service
セルフホストエンジンノードにログインし、メンテナーンスモードをオフにして、高可用性エージェントを有効にします。
# hosted-engine --set-maintenance --mode=none
B.2. 別のマシンへの Data Warehouse の移行
本セクションでは、Data Warehouse データベースおよびサービスを Red Hat Virtualization Manager から別のマシンに移行する方法を説明します。Data Warehouse サービスを別のマシンでホストすることで、各個別マシンの負荷が削減され、CPU やメモリーリソースを他のプロセスと共有することで競合が生じる可能性を回避できます。
Data Warehouse サービスを移行して既存の Data Warehouse データベース (ovirt_engine_history
) に接続するか、Data Warehouse サービスを移行する前に Data Warehouse データベースを別のマシンに移行することができます。Data Warehouse データベースが Manager 上でホストされている場合、Data Warehouse サービスに加えてデータベースを移行することで、Manager マシンのリソースの競合がさらに減少します。データベースは、Data Warehouse サービスを移行するのと同じマシンに移行することも、Manager マシンと新しい Data Warehouse サービスマシンの両方とは別のマシンに移行することもできます。
B.2.1. 別のマシンへの Data Warehouse データベースの移行
Data Warehouse サービスを移行する前に、Data Warehouse データベース (ovirt_engine_history
) を移行します。engine-backup
を使用してデータベースのバックアップを作成し、それを新規データベースマシンで復元します。engine-backup
の詳細は、engine-backup --help
を実行してください。
Data Warehouse サービスのみを移行するには、「別のマシンへの Data Warehouse サービスの移行」 を参照してください。
新規データベースサーバーに Red Hat Enterprise Linux 7 がインストールされている必要があります。新規データベースサーバーで必要なリポジトリーを有効にします。
Red Hat Virtualization Manager リポジトリーの有効化
システムを Red Hat Subscription Manager に登録し、Red Hat Virtualization Manager
のサブスクリプションをアタッチして Manager のリポジトリーを有効にします。
手順
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
注記IPv6 ネットワークを使用している場合は、IPv6 移行メカニズムを使用して、コンテンツ配信ネットワークおよびサブスクリプションマネージャーにアクセスします。
Red Hat Virtualization Manager
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=pool_id
注記現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。
# subscription-manager list --consumed
有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。
# yum repolist
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rpms \ --enable=rhel-7-server-supplementary-rpms \ --enable=rhel-7-server-rhv-4.3-manager-rpms \ --enable=rhel-7-server-rhv-4-manager-tools-rpms \ --enable=rhel-7-server-ansible-2.9-rpms \ --enable=jb-eap-7.2-for-rhel-7-server-rpms
別のマシンへの Data Warehouse データベースの移行
Manager で Data Warehouse データベースおよび設定ファイルのバックアップを作成します。
# engine-backup --mode=backup --scope=dwhdb --scope=files --file=file_name --log=log_file_name
そのバックアップファイルを Manager マシンから新たなマシンにコピーします。
# scp /tmp/file_name root@new.dwh.server.com:/tmp
engine-backup
を新しいマシンにインストールします。# yum install ovirt-engine-tools-backup
PostgreSQL サーバーパッケージをインストールします。
# yum install rh-postgresql10 rh-postgresql10-postgresql-contrib
PostgreSQL データベースを初期化し、
postgresql
サービスを開始して、このサービスが起動時に開始されることを確認します。# scl enable rh-postgresql10 -- postgresql-setup --initdb # systemctl enable rh-postgresql10-postgresql # systemctl start rh-postgresql10-postgresql
新しいマシンで Data Warehouse データベースを復元します。file_name は、Manager からコピーされたバックアップファイルです。
# engine-backup --mode=restore --scope=files --scope=dwhdb --file=file_name --log=log_file_name --provision-dwh-db --no-restore-permissions
これで、Manager がホストされるマシンとは別のマシンで、Data Warehouse データベースがホストされるようになりました。Data Warehouse データベースを正常に復元したら、engine-setup
コマンドの実行を指示するプロンプトが表示されます。このコマンドを実行する前に、Data Warehouse サービスを移行します。
B.2.2. 別のマシンへの Data Warehouse サービスの移行
Red Hat Virtualization Manager マシンにインストールおよび設定した Data Warehouse サービスを、別のマシンに移行することができます。Data Warehouse サービスを別のマシンでホストすることは、Manager マシンの負荷を削減する上で役立ちます。
この手順では、Data Warehouse サービスのみを移行することに注意してください。
Data Warehouse サービスを移行する前に Data Warehouse データベース (ovirt_engine_history
) を移行する場合は、「別のマシンへの Data Warehouse データベースの移行」 を参照してください。
前提条件
- Manager と Data Warehouse が同じマシン上にインストールおよび設定されている必要があります。
新たな Data Warehouse マシンを設定するには、以下の項目が必要です。
- Manager /etc/ovirt-engine/engine.conf.d/10-setup-database.conf ファイルからのパスワード
- Data Warehouse マシンから Manager データベースマシンの TCP ポート 5432 へのアクセス許可
-
Manager の /etc/ovirt-engine-dwh/ovirt-engine-dwhd.conf.d/10-setup-database.conf ファイルからの Data Warehouse データベースのユーザー名とパスワード。「別のマシンへの Data Warehouse データベースの移行」 を使用して
ovirt_engine_history
データベースを移行した場合、バックアップには、そのマシンでデータベースの設定中に定義した認証情報が含まれます。
このシナリオのインストールでは、以下の 4 つのステップを実施する必要があります。
B.2.2.1. 新たな Data Warehouse マシンの準備
Red Hat Virtualization のリポジトリーを有効にし、Red Hat Enterprise Linux 7 マシンに Data Warehouse セットアップパッケージをインストールします。
必要なリポジトリーを有効にします。
コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。
# subscription-manager register
Red Hat Virtualization Manager
のサブスクリプションプールを見つけ、プール ID を記録します。# subscription-manager list --available
上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。
# subscription-manager attach --pool=pool_id
リポジトリーを設定します。
# subscription-manager repos \ --disable='*' \ --enable=rhel-7-server-rpms \ --enable=rhel-7-server-supplementary-rpms \ --enable=rhel-7-server-rhv-4.3-manager-rpms \ --enable=rhel-7-server-rhv-4-manager-tools-rpms \ --enable=rhel-7-server-ansible-2.9-rpms \ --enable=jb-eap-7.2-for-rhel-7-server-rpms
現在インストールされている全パッケージを最新の状態にします。
# yum update
ovirt-engine-dwh-setup
パッケージをインストールします。# yum install ovirt-engine-dwh-setup
B.2.2.2. Manager マシンでの Data Warehouse サービスの停止
Data Warehouse サービスを停止します。
# systemctl stop ovirt-engine-dwhd.service
データベースがリモートマシンでホストされる場合には、postgres.conf ファイルを編集して手動でアクセス権限を付与する必要があります。/var/opt/rh/rh-postgresql10/lib/pgsql/data/postgresql.conf ファイルを編集し、listen_addresses 行を次のように変更します。
listen_addresses = '*'
その行が存在しない、またはコメントアウトされている場合には、手動で追加します。
Manager マシンでデータベースがホストされていて、そのデータベースが Red Hat Virtualization Manager のクリーンセットアップ中に設定された場合には、デフォルトでアクセス権限が付与されます。
Data Warehouse データベースの設定および移行方法に関する詳細情報は、「別のマシンへの Data Warehouse データベースの移行」 を参照してください。
postgresql サービスを再起動します。
# systemctl restart rh-postgresql10-postgresql
B.2.2.3. 新たな Data Warehouse マシンの設定
本セクションで示すオプションまたは設定の順序は、お使いの環境によって異なる場合があります。
ovirt_engine_history
データベースと Data Warehouse サービスの両方を 同じ マシンに移行する場合は、以下のコマンドを実行します。移行しない場合は、次のステップに進みます。# sed -i '/^ENGINE_DB_/d' \ /etc/ovirt-engine-dwh/ovirt-engine-dwhd.conf.d/10-setup-database.conf # sed -i \ -e 's;^\(OVESETUP_ENGINE_CORE/enable=bool\):True;\1:False;' \ -e '/^OVESETUP_CONFIG\/fqdn/d' \ /etc/ovirt-engine-setup.conf.d/20-setup-ovirt-post.conf
engine-setup
コマンドを実行し、マシンでの Data Warehouse の設定を開始します。# engine-setup
Enter
を押して、Data Warehouse を設定します。Configure Data Warehouse on this host (Yes, No) [Yes]:
Enter キーを押して自動検出されたホスト名をそのまま使用するか、別のホスト名を入力して Enter キーを押します。
Host fully qualified DNS name of this server [autodetected host name]:
Enter
キーを押してファイアウォールを自動設定するか、No
と入力してEnter
キーを押し、既存の設定を維持します。Setup can automatically configure the firewall on this system. Note: automatic configuration of the firewall may overwrite current settings. Do you want Setup to configure the firewall? (Yes, No) [Yes]:
ファイアウォールの自動設定を選択した場合に、ファイアウォール管理機能がアクティブ化されていなければ、サポートされているオプション一覧から、選択したファイアウォール管理機能を指定するように要求されます。ファイアウォール管理機能の名前を入力して、
Enter
キーを押してください。この操作は、オプションが 1 つしかリストされていない場合でも必要です。Manager の完全修飾ドメイン名およびパスワードを入力します。その他のフィールドについては、Enter キーを押してそれぞれのデフォルト値をそのまま使用します。
Host fully qualified DNS name of the engine server []: engine-fqdn Setup needs to do some actions on the remote engine server. Either automatically, using ssh as root to access it, or you will be prompted to manually perform each such action. Please choose one of the following: 1 - Access remote engine server using ssh as root 2 - Perform each action manually, use files to copy content around (1, 2) [1]: ssh port on remote engine server [22]: root password on remote engine server engine-fqdn: password
Manager データベースマシンの完全修飾ドメイン名 (FQDN) およびパスワードを入力します。その他のフィールドについては、
Enter
キーを押してそれぞれのデフォルト値をそのまま使用します。Engine database host []: manager-db-fqdn Engine database port [5432]: Engine database secured connection (Yes, No) [No]: Engine database name [engine]: Engine database user [engine]: Engine database password: password
インストールの設定を確認します。
Please confirm installation settings (OK, Cancel) [OK]:
これで、Data Warehouse サービスがリモートマシンに設定されました。次は、Manager マシンの Data Warehouse サービスを無効にします。
B.2.2.4. Manager マシンでの Data Warehouse サービスの無効化
Manager マシンで Manager を再起動します。
# service ovirt-engine restart
以下のコマンドを実行して /etc/ovirt-engine-setup.conf.d/20-setup-ovirt-post.conf ファイルを変更し、オプションを
False
に設定します。# sed -i \ -e 's;^\(OVESETUP_DWH_CORE/enable=bool\):True;\1:False;' \ -e 's;^\(OVESETUP_DWH_CONFIG/remoteEngineConfigured=bool\):True;\1:False;' \ /etc/ovirt-engine-setup.conf.d/20-setup-ovirt-post.conf
Data Warehouse サービスを無効にします。
# systemctl disable ovirt-engine-dwhd.service
Data Warehouse に関するファイルを削除します。
# rm -f /etc/ovirt-engine-dwh/ovirt-engine-dwhd.conf.d/* .conf /var/lib/ovirt-engine-dwh/backups/*
これで、Data Warehouse サービスが Manager とは別のマシンでホストされるようになりました。
B.3. Websocket プロキシーを別のマシンに移行する
Websocket プロキシーおよび noVNC は、テクノロジープレビュー機能としてのみ提供されています。テクノロジープレビューの機能は、Red Hat の本番環境のサービスレベルアグリーメント (SLA) ではサポートされず、機能的に完全ではないことがあるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、開発プロセスの中でお客様に機能性のテストとフィードバックをしていただくことを目的としています。詳しい情報は、テクノロジープレビュー機能のサポート範囲 を参照してください。
セキュリティーまたはパフォーマンス上の理由から、WebSocket プロキシーは Red Hat Virtualization Manager を実行しない別のマシンで実行できます。WebSocket プロキシーを Manager マシンから別のマシンに移行する手順では、Manager マシンから WebSocket プロキシー設定を削除してから、別のマシンにプロキシーをインストールします。
engine-cleanup
コマンドを使用して、Manager マシンから WebSocket プロキシーを削除できます。
Manager マシンからの Websocket プロキシーの削除
Manager マシンで、
engine-cleanup
を実行して、必要な設定を削除します。# engine-cleanup
すべてのコンポーネントを削除するかどうかを問われたら、
No
と入力してEnter
を押します。Do you want to remove all components? (Yes, No) [Yes]: No
エンジンを削除するかどうかを問われたら
No
と入力し、Enter
を押します。Do you want to remove the engine? (Yes, No) [Yes]: No
WebSocket プロキシーを削除するかどうかを問われたら、
Yes
と入力してEnter
を押します。Do you want to remove the WebSocket proxy? (Yes, No) [No]: Yes
他のコンポーネントを削除するかどうかを問われたら、
No
を選択します。
別のマシンへの Websocket プロキシーのインストール
Websocket プロキシーおよび noVNC は、テクノロジープレビュー機能としてのみ提供されています。テクノロジープレビューの機能は、Red Hat の本番環境のサービスレベルアグリーメント (SLA) ではサポートされず、機能的に完全ではないことがあるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、開発プロセスの中でお客様に機能性のテストとフィードバックをしていただくことを目的としています。詳しい情報は、テクノロジープレビュー機能のサポート範囲 を参照してください。
Websocket プロキシーにより、ユーザーは noVNC コンソールを介して仮想マシンに接続することができます。noVNC クライアントは Websocket を使用して VNC データを渡します。ただし、QEMU の VNC サーバーには Websocket サポートがないため、Websocket プロキシーはクライアントと VNC サーバーの間に配置する必要があります。Websocket プロキシーは、ネットワークへのアクセスがあるすべてのマシン (Manager マシンを含む) で実行可能です。
セキュリティーおよびパフォーマンスの理由から、ユーザーには別のマシンで Websocket プロキシーを設定することを推奨します。
手順
Websocket プロキシーをインストールします。
# yum install ovirt-engine-websocket-proxy
engine-setup
コマンドを実行して、WebSocket プロキシーを設定します。# engine-setup
注記rhvm
パッケージもインストールされている場合は、このホストで Manager (Engine
) を設定するかどうかを問われたら、No
を選択します。Enter
を押して、engine-setup
がマシン上に WebSocket プロキシーサーバーを設定できるようにします。Configure WebSocket Proxy on this machine? (Yes, No) [Yes]:
Enter
キーを押して自動検出されたホスト名をそのまま使用するか、別のホスト名を入力してEnter
キーを押します。仮想化ホストを使用している場合には、自動的に検出されたホスト名が間違っている可能性がある点に注意してください。Host fully qualified DNS name of this server [host.example.com]:
Enter
を押して、engine-setup
がファイアウォールを設定し、外部通信に必要なポートを開くことを許可します。engine-setup
でファイアウォール設定を変更できない場合は、必要なポートを手動で開く必要があります。Setup can automatically configure the firewall on this system. Note: automatic configuration of the firewall may overwrite current settings. Do you want Setup to configure the firewall? (Yes, No) [Yes]:
Manager マシンの FQDN を入力し、
Enter
を押します。Host fully qualified DNS name of the engine server []: manager.example.com
Enter
を押して、engine-setup
が Manager マシンでアクションを実行できるようにするか、2
を押して手動でアクションを実行します。Setup will need to do some actions on the remote engine server. Either automatically, using ssh as root to access it, or you will be prompted to manually perform each such action. Please choose one of the following: 1 - Access remote engine server using ssh as root 2 - Perform each action manually, use files to copy content around (1, 2) [1]:
Enter
を押して、デフォルトの SSH ポート番号を受け入れるか、Manager マシンのポート番号を入力します。ssh port on remote engine server [22]:
root パスワードを入力して Manager マシンにログインし、
Enter
を押します。root password on remote engine server engine_host.example.com:
iptables ルールが現在の設定と異なる場合に、それらを確認するかどうかを選択します。
Generated iptables rules are different from current ones. Do you want to review them? (Yes, No) [No]:
Enter
を押して、設定を確定します。--== CONFIGURATION PREVIEW ==-- Firewall manager : iptables Update Firewall : True Host FQDN : host.example.com Configure WebSocket Proxy : True Engine Host FQDN : engine_host.example.com Please confirm installation settings (OK, Cancel) [OK]:
Manager マシンが設定済みの Websocket プロキシーを使用するように設定するための説明が表示されます。
Manual actions are required on the engine host in order to enroll certs for this host and configure the engine about it. Please execute this command on the engine host: engine-config -s WebSocketProxy=host.example.com:6100 and than restart the engine service to make it effective
Manager マシンへログインして、表示された説明に沿って操作を行います。
# engine-config -s WebSocketProxy=host.example.com:6100 # systemctl restart ovirt-engine.service
付録C PCI パススルーを有効にするためのホストの設定
これは、Red Hat Virtualization で SR-IOV を準備および設定する方法を示す一連のトピックの 1 つです。詳細は、Setting Up and Configuring SR-IOV を参照してください。
PCI パススルーを有効化すると、デバイスが仮想マシンに直接アタッチされているかのように、ホストのデバイスを仮想マシンで使用することができます。PCI パススルー機能を有効化するには、仮想化拡張機能および IOMMU 機能を有効化する必要があります。以下の手順では、ホストを再起動する必要があります。すでにホストが Manager にアタッチされている場合には、最初にホストがメンテナンスモードに設定されていることを確認してください。
前提条件
- ホストハードウェアが PCI デバイスパススルーおよび割り当ての要件を満たしていることを確認してください。詳細は、PCI Device Requirements を参照してください。
PCI パススルーを有効にするためのホストの設定
- BIOS の仮想化拡張機能および IOMMU 拡張機能を有効化してください。詳細は、Red Hat Enterprise Linux 仮想化の導入および管理ガイド の BIOS での INTEL VT-X と AMD-V の仮想化ハードウェア拡張の有効化 を参照してください。
ホストを Manager に追加する際に Hostdev Passthrough & SR-IOV のチェックボックスを選択するか、手動で grub 設定ファイルを編集して、カーネルの IOMMU フラグを有効化します。
- 管理ポータルから IOMMU フラグを有効化する方法については、Adding Standard Hosts to the Red Hat Virtualization Manager および Kernel Settings Explained を参照してください。
- 手動で grub 設定ファイルを編集する方法については、IOMMU の手動での有効化 を参照してください。
- GPU パススルーを有効にするには、ホストとゲストシステムの両方で追加の設定手順を実行する必要があります。詳細は、Setting up an NVIDIA GPU for a virtual machine in Red Hat Virtualization の GPU device passthrough: Assigning a host GPU to a single virtual machine を参照してください。
IOMMU の手動での有効化
grub 設定ファイルを編集して IOMMU を有効化します。
注記IBM POWER8 ハードウェアを使用している場合は、IOMMU がデフォルトで有効化されているので、この手順は飛ばしてください。
Intel の場合は、マシンを起動し、grub 設定ファイルの
GRUB_CMDLINE_LINUX
行の末尾にintel_iommu=on
を追加します。# vi /etc/default/grub ... GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... intel_iommu=on ...
AMD の場合は、マシンを起動し、grub 設定ファイルの
GRUB_CMDLINE_LINUX
行の末尾にamd_iommu=on
を追加します。# vi /etc/default/grub ... GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... amd_iommu=on ...
注記intel_iommu=on
またはamd_iommu=on
が機能する場合は、iommu=pt
またはamd_iommu=pt
を追加してみてください。pt
オプションでは、パススルーで使用するデバイスの IOMMU のみが有効化されて、ホストのパフォーマンスが向上します。ただし、このオプションはすべてのハードウェアでサポートされるわけではありません。pt
オプションがお使いのホストで機能しない場合は、以前のオプションに戻してください。ハードウェアが割り込みの再マッピングをサポートしていないためにパススルーが失敗する場合は、仮想マシンが信頼できるのであれば
allow_unsafe_interrupts
オプションを有効化することも検討してください。allow_unsafe_interrupts
を有効化すると、ホストは仮想マシンからの MSI 攻撃に晒されることになるため、このオプションはデフォルトで有効化されていません。オプションを有効化するには、以下のように設定してください。# vi /etc/modprobe.d options vfio_iommu_type1 allow_unsafe_interrupts=1
grub.cfg ファイルをリフレッシュしてからホストを再起動し、変更を有効にします。
# grub2-mkconfig -o /boot/grub2/grub.cfg
# reboot
SR-IOV を有効にして専用の仮想 NIC を仮想マシンに割り当てるには、https://access.redhat.com/articles/2335291 を参照してください。
付録D Red Hat Virtualization Manager の削除
engine-cleanup
コマンドを使用して、Red Hat Virtualization の特定のコンポーネントまたはすべてのコンポーネントを削除できます。
Manager データベースのバックアップおよび PKI キーや設定の圧縮アーカイブは常に自動で作成されます。これらのファイルは /var/ lib/ovirt-engine/backups/
の下に保存され、ファイル名にはそれぞれ日付と engine-
および engine-pki-
が含まれます。
手順
Manager マシンで以下のコマンドを実行します。
# engine-cleanup
Red Hat Virtualization Manager コンポーネントをすべて削除するかどうかを確認するプロンプトが表示されます。
Yes
と入力し、Enter
を押して、すべてのコンポーネントを削除します。Do you want to remove all components? (Yes, No) [Yes]:
No
と入力し、Enter
を押して、削除するコンポーネントを選択します。各コンポーネントについて保持するか削除するかを個別に選択することができます。Do you want to remove Engine database content? All data will be lost (Yes, No) [No]: Do you want to remove PKI keys? (Yes, No) [No]: Do you want to remove PKI configuration? (Yes, No) [No]: Do you want to remove Apache SSL configuration? (Yes, No) [No]:
この段階でも Red Hat Virtualization Manager の削除を中止することができます。続行することを選択した場合、
ovirt-engine
サービスは停止され、選択したオプションに従って環境の設定が削除されます。During execution engine service will be stopped (OK, Cancel) [OK]: ovirt-engine is about to be removed, data will be lost (OK, Cancel) [Cancel]:OK
Red Hat Virtualization パッケージを削除します。
# yum remove rhvm* vdsm-bootstrap
付録E Red Hat Virtualization のセキュリティー保護
このトピックには、Red Hat Virtualization のセキュリティー保護に関する限定的な情報が記載されています。この情報は今後増えていく予定です。
この情報は Red Hat Virtualization に特化したものです。以下に関連する基本のセキュリティープラクティスは対象としていません。
- 不要なサービスの無効化
- 認証
- 認可
- アカウンティング
- RHV 以外のサービスの侵入テストおよび耐性
- 機密アプリケーションデータの暗号化
前提条件
- お客様は所属する組織のセキュリティー標準およびプラクティスを熟知している必要があります。可能な場合は、所属する組織のセキュリティー担当者にお問い合わせください。
- RHEL ホストをデプロイする前に セキュリティーガイド を参照してください。
E.1. DISA STIG for Red Hat Linux 7
国防情報システム局 (DISA: Defense Information Systems Agency) は、さまざまなプラットフォームおよびオペレーティングシステム向けにセキュリティー技術導入ガイド (STIG: Security Technical Implementation Guide) を配布しています。
Red Hat Virtualization Host (RHVH) のインストールに際して、利用可能なセキュリティーポリシーの 1 つに DISA STIG for Red Hat Linux 7 プロファイルがあります。インストール時にこのプロファイルをセキュリティーポリシーとして有効にすると、SSH キー、SSL 証明書を再生成する必要がなくなります。有効にしない場合は、デプロイメントプロセスでホストを再生成する必要があります。
DISA STIG セキュリティーポリシーは、Red Hat が正式にテストおよび認定する唯一のセキュリティーポリシーです。
DISA STIG は、DOD IA および IA 対応デバイス/システムの設定標準です。DISA は 1998 年以降、セキュリティー技術導入ガイド (STIG: Security Technical Implementation Guide) を提供することで、国防総省 (DoD: Department of Defense) のセキュリティーシステムの Security Posture を強化する上で重大なロールを果たしてきました。STIG には、悪意あるコンピューター攻撃に対して脆弱である可能性のある情報システム/ソフトウェアを 'ロックダウン' するテクニカルガイダンスが含まれています。
これらの STIG は、米国標準技術局 (NIST: National Institute of Standards and Technology) Special Publication 800-53 (NIST SP 800-53) がまとめた要件に基づくものです。NIST SP 800-53 とは、国家安全保障に関わるもの以外のすべての米連邦政府情報システムに関するセキュリティー管理のガイドラインです。
さまざまなプロファイルの中から重複するものを判断するため、Red Hat では、Cloud Security Alliance の Cloud Controls Matrix (CCM) を参照しています。この CCM は、クラウド固有のセキュリティー制御の包括的なセットを指定し、主要な標準、ベストプラクティス、および規制の要件にそれぞれをマッピングします。
Red Hat では、セキュリティーポリシーの検証をサポートするため、RHEL や RHV を含むさまざまな Red Hat プラットフォームに OpenSCAP ツールおよびセキュリティー設定共通化手順 (SCAP: Security Content Automation Protocol) プロファイルを提供しています。
Red Hat の OpenSCAP プロジェクトは、SCAP ベースラインを評価、査定、および実施するために、管理者および監査担当者にオープンソースツールを提供します。OpenSCAP は 2014 年に、NIST の SCAP 1.2 で認証されるようになりました。
NIST は SCAP 標準を保守します。SCAP 準拠のプロファイルは、オペレーティングシステムおよびアプリケーションのセキュリティー設定に関するローレベルの詳細なガイダンスを提供します。
Red Hat は、さまざまな製品およびプラットフォームの SCAP ベースラインを以下に公開しています。
- NIST National Checklist Program (NCP): 公開されているセキュリティーチェックリスト (またはベンチマーク) の米政府のリポジトリー
- 国防総省 (DoD: Department of Defense) Cyber Exchange
E.2. DISA STIG for Red Hat Linux 7 プロファイルの適用
このトピックでは、Red Hat Virtualization (RHV) Manager (Manager)、Red Hat Virtualization Host (RHVH)、および Red Hat Enterprise Linux ホストのインストールに際して、DISA STIG for Red Hat Linux 7 のセキュリティープロファイルを有効にする方法を説明します。
DISA STIG for Red Hat Linux 7 を RHVH 用に有効化
以下に示す 2 つの使用目的で Red Hat Virtualization Host (RHVH) をインストールする場合に、以下の手順が適用されます。
- Manager をセルフホストエンジンとしてデプロイする際に、RHVH を Manager 用仮想マシンのホストとして使用する。
- RHVH を RHV クラスター内で通常のホストとして使用する。
Anaconda インストーラーを使用して RHVH をインストールする場合は、以下の手順を実行します。
- インストールの概要 画面で、セキュリティーポリシー を選択します。
- セキュリティーポリシー 画面を開いたら、セキュリティーポリシーの適用 設定を On に切り替えます。
- プロファイルのリストをスクロールダウンし、DISA STIG for Red Hat Linux 7 を選択します。
プロファイルの選択 ボタンをクリックします。クリックすることで、プロファイルの横に緑色のチェックマークが追加され、パッケージを 完了済みまたは完了する必要のある変更 の一覧に追加します。
注記これらのパッケージは RHVH イメージにすでに含まれています。RHVH は単一のシステムイメージとして出荷されます。RHVH イメージの一部ではない他の選択されたセキュリティープロファイルで必要なパッケージのインストールができない場合があります。含まれるパッケージの一覧は、RHVH の Package Manifest を参照してください。
- 完了 をクリックします。
- インストールの概要 画面で、セキュリティーポリシー のステータスが 問題なし であることを確認します。
- 後ほど RHVH にログインすると、コマンドラインに以下の情報が表示されます。
コマンドラインを使用して RHV をセルフホストエンジンとしてデプロイする 場合、ovirt-hosted-engine-setup
の入力後に一連のプロンプトが表示される際に、コマンドラインで Do you want to apply a default OpenSCAP security profile?
という質問が表示されます。Yes
と入力して手順にしたがって DISA STIG for Red Hat Linux 7 プロファイルを選択します。