コマンドラインを使用したセルフホストエンジンの Red Hat Virtualization のインストール

Red Hat Virtualization 4.3

コマンドラインを使用して、Red Hat Virtualization Manager の管理するホスト上で動作する仮想マシンとして Manager をインストールする方法

Red Hat Virtualization Documentation Team

Red Hat Customer Content Services

概要

本書では、自動インストールを設定および実行するためにコマンドラインを使用して、セルフホストエンジン環境をインストールする方法について説明します。なお、セルフホストエンジン環境では、Red Hat Virtualization Manager (または「engine」) は、自分が管理する同じ環境内の特殊なホスト上で動作する仮想マシンにインストールされます。これが希望する構成ではない場合には、『製品ガイド』でその他の インストールオプション を参照してください。

前書き

セルフホストエンジンのインストールは、Ansible により自動化されています。最初のデプロイメントホスト上でインストールスクリプト (hosted-engine --deploy) を実行し、デプロイメントホスト上に作成される仮想マシンに Red Hat Virtualization Manager (または「engine」) をインストールおよび設定します。Manager および Data Warehouse データベースは Manager 用仮想マシンにインストールされますが、必要であればインストール後に別のサーバーに移行することができます。

Manager 用仮想マシンを実行することのできるホストは、セルフホストエンジンノードと呼ばれます。高可用性機能に対応するためには、少なくとも 2 台のセルフホストエンジンノードが必要です。

Manager 用仮想マシン専用のストレージドメインは、セルフホストエンジン用ストレージドメインと呼ばれます。このストレージドメインはインストールのスクリプトにより作成されるので、インストールの開始前にベースとなるストレージを準備する必要があります。

環境オプションおよび推奨される構成に関する情報は、『Planning and Prerequisites Guide』を参照してください。特に、セルフホストエンジン環境の構成については、「Self-Hosted Engine Recommendations」を参照してください。

表1 Red Hat Virtualization の主要コンポーネント

コンポーネント名説明

Red Hat Virtualization Manager

環境内のリソースを管理するグラフィカルユーザーインターフェースと REST API を提供するサービス。Manager は、Red Hat Enterprise Linux を実行する物理マシンまたは仮想マシンにインストールされます。

ホスト

サポートされているホストには、Red Hat Enterprise Linux ホスト (RHEL ベースのハイパーバイザー) と Red Hat Virtualization Host (イメージベースのハイパーバイザー) の 2 つのタイプがあります。ホストは、Kernel-based Virtual Machine (KVM) テクノロジーを使用して、仮想マシンを実行するためのリソースを提供します。

共有ストレージ

仮想マシンに関連付けられたデータの保管に使用するストレージサービス

Data Warehouse

Manager から設定情報および統計データを収集するサービス

セルフホストエンジンのアーキテクチャー

Red Hat Virtualization Manager は、自分が管理する同じ環境内のセルフホストエンジンノード (特化したホスト) で仮想マシンとして実行されます。セルフホストエンジン環境に必要なサーバーは 1 台少なくなりますが、デプロイと管理を行うための管理オーバーヘッドがより高くなります。Manager は、外部の HA 管理を使用せずに高可用性になります。

セルフホストエンジン環境の最小限のセットアップには、以下が含まれます。

  • セルフホストエンジンノードでホストされている Red Hat Virtualization Manager 用仮想マシン 1 台。Red Hat Enterprise Linux 7 仮想マシンのインストールおよびその仮想マシンへの Manager のインストールを自動化するために、RHV-M Appliance が使用されます。
  • 仮想マシンの高可用性には、最小でホスト 2 台。Red Hat Enterprise Linux ホストまたは Red Hat Virtualization Host (RHVH) を使用することができます。VDSM (ホストエージェント) は全ホストで実行され、Red Hat Virtualization Manager との通信を円滑に行います。HA サービスは、すべてのセルフホストエンジンノードで実行され、Manager 用仮想マシンの高可用性を管理します。
  • ストレージサービスを 1 つ。使用するストレージタイプに応じて、ローカルまたはリモートサーバーでホストすることができます。ストレージサービスは全ホストからアクセス可能である必要があります。

図1 セルフホストエンジンの Red Hat Virtualization アーキテクチャー

Self-Hosted Engine Red Hat Virtualization Architecture

第1章 インストールの概要

セルフホストエンジンのインストールには Ansible および RHV-M Appliance (事前設定された Manager 用仮想マシンのイメージ) が使用され、以下のタスクを自動化しています。

  • 最初のセルフホストエンジンノードの設定
  • そのノードへの Red Hat Enterprise Linux 仮想マシンのインストール
  • その仮想マシンへの Red Hat Virtualization Manager のインストールと設定
  • セルフホストエンジン用ストレージドメインの設定
注記

RHV-M Appliance が使用されるのはインストール時だけです。Manager のアップグレードには使用されません。

セルフホストエンジン環境をインストールするステップは、以下のとおりです。

  1. セルフホストエンジン用ストレージドメインおよび通常のストレージドメインに使用するストレージを準備します。以下のストレージタイプのいずれかを使用することができます。

  2. インストールを実行するデプロイメントホストをインストールします。このホストが最初のセルフホストエンジンノードになります。以下のホストタイプのいずれかを使用することができます。

  3. Red Hat Virtualization Manager をインストールおよび設定します。

  4. Manager にさらにセルフホストエンジンノードおよび通常のホストを追加します。セルフホストエンジンノードは Manager 用仮想マシンおよびその他の仮想マシンを実行することができます。通常のホストは Manager 用仮想マシンを実行することはできませんが、その他すべての仮想マシンを実行することができます。

  5. Manager にさらにストレージドメインを追加します。セルフホストエンジン用ストレージドメインは、Manager 用仮想マシンだけが使用することを推奨します。
  6. データベースまたはサービスを Manager とは別のサーバーでホストする場合には、インストールの完了後にそれらを移行することができます。
重要

環境を最新の状態に維持してください。詳細については、「How do I update my Red Hat Virtualization system?」を参照してください。既知の問題に対するバグ修正が頻繁にリリースされることから、Red Hat ではホストおよび Manager の更新タスクをスケジュール化することを推奨します。

第2章 要件

2.1. Red Hat Virtualization Manager の要件

2.1.1. ハードウェアの要件

以下に記載するハードウェアの最低要件および推奨要件は、一般的な中小規模のインストールをベースとしています。正確な要件は、デプロイメントの規模や負荷により異なります。

Red Hat Virtualization のハードウェア認定には、Red Hat Enterprise Linux のハードウェア認定が適用されます。詳しくは、「Does Red Hat Enterprise Virtualization also have hardware certification?」を参照してください。特定のハードウェア項目が Red Hat Enterprise Linux での使用に認定されているかどうかを確認するには、「The Red Hat Ecosystem」を参照してください。

表2.1 Red Hat Virtualization Manager ハードウェアの要件

リソース最低要件推奨要件

CPU

デュアルコア CPU

クアッドコア CPU または複数のデュアルコア CPU

メモリー

利用可能なシステムメモリー 4 GB (Data Warehouse が未インストールで、かつ既存のプロセスによって消費されていないこと)

システムメモリー 16 GB

ハードディスク

ディスクの空き容量 25 GB (ローカルアクセス、書き込みが可能であること)

ディスクの空き容量 50 GB (ローカルアクセス、書き込みが可能であること)

Manager 履歴データベースのサイズに適したディスク容量を算出するには、RHV Manager History Database Size Calculator ツールを使用することができます。

ネットワークインターフェース

1 Gbps 以上の帯域幅のネットワークインターフェースカード (NIC) 1 基

1 Gbps 以上の帯域幅のネットワークインターフェースカード (NIC) 1 基

2.1.2. ブラウザーの要件

管理ポータルと VM ポータルには、以下のブラウザーバージョンとオペレーティングシステムを使用してアクセスすることができます。

ブラウザーのサポートは下記のように階層に分かれます。

  • 階層 1: 全面的に検証済みで、完全にサポートされているブラウザーとオペレーティングシステムの組み合わせ。この階層のブラウザーで問題が発生した場合には、Red Hat のエンジニアリングチームは必ず修正を行います。
  • 階層 2: 部分的に検証済みで、正常に機能する可能性の高いブラウザーとオペレーティングシステムの組み合わせ。この階層のサポートは限定されます。この階層のブラウザーで問題が発生した場合には、Red Hat のエンジニアリングチームは修正を試みます。
  • 階層 3: 未検証ですが、正常に機能することが予想されるブラウザーとオペレーティングシステムの組み合わせ。この階層では、最小限のサポートが提供されます。この階層のブラウザーでは、Red Hat のエンジニアリングチームはマイナーな問題のみ修正を試みます。

表2.2 ブラウザーの要件

サポート階層オペレーティングシステムファミリーブラウザー

階層 1

Red Hat Enterprise Linux

Mozilla Firefox 延長サポート版 (ESR) のバージョン

 

任意

Google Chrome、Mozilla Firefox、または Microsoft Edge の最新バージョン

階層 2

  

階層 3

任意

Google Chrome または Mozilla Firefox の旧バージョン

 

任意

その他のブラウザー

2.1.3. クライアントの要件

仮想マシンコンソールは、Red Hat Enterprise Linux および Windows でサポートされているリモートビューアー (virt-viewer) クライアントを使用した場合にのみアクセスすることができます。virt-viewer をインストールするには、『Virtual Machine Management Guide』「Installing Supporting Components on Client Machines」を参照してください。virt-viewer のインストールには管理者権限が必要です。

仮想マシンコンソールには、SPICE、VCN、または RDP (Windows のみ) プロトコルを使用してアクセスします。ゲストのオペレーティングシステムに QXL グラフィカルドライバーをインストールすると、SPICE の機能を向上/強化させることができます。SPICE が現在サポートしている最大解像度は 2560 x 1600 ピクセルです。

サポートされている QXL ドライバーは、Red Hat Enterprise Linux、Windows XP、および Windows 7 で利用できます。

SPICE のサポートは下記のように階層に分かれます。

  • 階層 1: Remote Viewer が全面的に検証済みでサポートされているオペレーティングシステム
  • 階層 2: Remote Viewer が部分的に検証済みで、正常に機能する可能性の高いオペレーティングシステム。この階層のサポートは限定されます。この階層の remote-viewer で問題が発生した場合には、Red Hat のエンジニアリングチームは修正を試みます。

表2.3 クライアントオペレーティングシステムの SPICE サポート

サポート階層オペレーティングシステム

階層 1

Red Hat Enterprise Linux 7.2 以降

 

Microsoft Windows 7

階層 2

Microsoft Windows 8

 

Microsoft Windows 10

2.1.4. オペレーティングシステムの要件

Red Hat Virtualization Manager は、最新のマイナーリリースに更新済みの Red Hat Enterprise Linux 7 のベースインストール上にインストールする必要があります。

Manager に必要なパッケージのインストールを試みる際に、依存関係の問題が発生する可能性があるため、ベースのインストール後に他のパッケージをインストールしないでください。

Manager のインストールに必要なリポジトリー以外は有効にしないでください。

2.2. ホストの要件

Red Hat Virtualization のハードウェア認定には、Red Hat Enterprise Linux のハードウェア認定が適用されます。詳しくは、「Does Red Hat Enterprise Virtualization also have hardware certification?」を参照してください。特定のハードウェア項目が Red Hat Enterprise Linux での使用に認定されているかどうかを確認するには、「The Red Hat Ecosystem」を参照してください。

ゲストに適用される要件および制限に関する詳しい情報は、「Red Hat Enterprise Linux テクノロジーの機能と制限」および「Virtualization limits for Red Hat Enterprise Virtualization」を参照してください。

2.2.1. CPU の要件

すべての CPU が Intel® 64 または AMD64 CPU の拡張機能をサポートし、AMD-V™ または Intel VT® のハードウェア仮想化拡張機能が有効化されている必要があります。No eXecute flag (NX) のサポートも必要です。

以下の CPU モデルがサポートされています。

  • AMD

    • Opteron G4
    • Opteron G5
    • EPYC
  • Intel

    • Nehalem
    • Westmere
    • Sandybridge
    • Haswell
    • Haswell-noTSX
    • Broadwell
    • Broadwell-noTSX
    • Skylake (クライアント)
    • Skylake (サーバー)
  • IBM POWER8

2.2.1.1. プロセッサーが必要なフラグをサポートしているかどうかのチェック

BIOS で仮想化を有効にする必要があります。この設定を行った後には、ホストの電源をオフにしてから再起動して、変更が適用されるようにします。

  1. Red Hat Enterprise Linux または Red Hat Virtualization Host の起動画面で任意のキーを押し、一覧から BootBoot with serial console のエントリーを選択します。
  2. Tab キーを押して、選択したオプションのカーネルパラメーターを編集します。
  3. 最後のカーネルパラメーターの後にスペースが 1 つあることを確認して、rescue パラメーターを追記します。
  4. Enter キーを押して、レスキューモードで起動します。
  5. プロンプトが表示されたら次のコマンドを実行して、プロセッサーに必要な仮想化拡張機能があるかどうか、またそれらが有効になっているかどうかを確認します。

    # grep -E 'svm|vmx' /proc/cpuinfo | grep nx

何らかの出力が表示されれば、プロセッサーはハードウェアの仮想化が可能です。出力が何も表示されない場合でも、プロセッサーがハードウェアの仮想化に対応している可能性があります。場合によっては、メーカーが BIOS で仮想化拡張機能を無効にしていることがあります。これに該当すると思われる場合には、メーカーが提供しているシステムの BIOS やマザーボードに関するマニュアルを参照してください。

2.2.2. メモリーの要件

必要最小限の RAM は 2 GB です。Red Hat Virtualization Host 上の仮想マシンでサポートされている RAM の最大値は、1 台あたり 4 TB です。

ただし、必要な RAM 容量は、ゲストオペレーティングシステムの要件、ゲストのアプリケーションの要件、ゲストのメモリーアクティビティーと使用状況によって異なります。KVM は、全ゲストがピークの負荷で同時に稼働しないことを前提として、仮想ゲストに対して物理 RAM をオーバーコミットして、物理的に存在する RAM を超える要件でゲストをプロビジョニングすることも可能です。KVM は、ゲストが必要とする RAM だけを割り当てて、使用率の低いゲストを swap に移動することによって、オーバーコミットします。

2.2.3. ストレージの要件

ホストには、設定、ログ、カーネルダンプを格納し、swap 領域として使用するためのストレージが必要です。ストレージはローカルまたはネットワークベースとすることができます。Red Hat Virtualization Host (RHVH) は、ネットワークストレージのデフォルト割り当ての 1 つ、一部、またはすべてを使用して起動することができます。ネットワークストレージから起動する場合、ネットワークの接続が失われるとフリーズする場合があります。ドロップインマルチパス設定ファイルを追加すると、ネットワーク接続のアドレス喪失の問題を解消することができます。SAN ストレージから起動した RHVH がネットワーク接続を失うと、接続が回復するまでファイルは読み取り専用になります。ネットワークストレージを使用すると、パフォーマンスが低下する場合があります。

本セクションでは、RHVH の最低ストレージ要件について説明します。Red Hat Enterprise Linux ホストのストレージ要件は、既存の設定で使用されるディスク容量によって異なりますが、RHVH の要件よりも多くなるはずです。

ホストのインストールの最低ストレージ要件を以下に示します。ただし、Red Hat では、より多くのストレージ領域を利用できるデフォルトの割り当てを使用することを推奨しています。

  • / (ルート): 6 GB
  • /home: 1 GB
  • /tmp: 1 GB
  • /boot: 1 GB
  • /var: 15 GB
  • /var/crash: 10 GB
  • /var/log: 8 GB
  • /var/log/audit: 2 GB
  • swap: 1 GB (推奨の swap サイズについては、「Red Hat Enterprise Linux で推奨される swap のサイズ」を参照してください)
  • Anaconda では、将来のメタデータ拡張用に、ボリュームグループ内のシンプールサイズの 20% が確保されます。これは、通常の使用条件においてデフォルト設定でストレージを使い果たすのを防ぐためです。インストール中のシンプールのオーバープロビジョニングもサポートされていません。
  • 最少の合計: 55 GB

セルフホストエンジンのシステム環境に RHV-M Appliance もインストールする場合には、/var/tmp は 5 GB 以上でなければなりません。

メモリーのオーバーコミットを使用する場合には、すべての仮想マシンに仮想メモリーを提供するのに十分な swap 領域を追加してください。『Administration Guide』の「Memory Optimization」を参照してください。

2.2.4. PCI デバイスの要件

ホストには、1 Gbps 以上の帯域幅のネットワークインターフェースが少なくとも 1 基搭載されている必要があります。Red Hat は、各ホストには 2 つのネットワークインターフェースを搭載し、そのうちの 1 つは仮想マシンの移行などネットワークへの負荷が高い作業専用にすることを推奨します。このように負荷の高い操作のパフォーマンスは、利用可能な帯域幅により制限されます。

Intel Q35 ベースの仮想マシンで PCI Express と従来の PCI デバイスを使用する方法に関する情報は、「Using PCI Express and Conventional PCI Devices with the Q35 Virtual Machine」を参照してください。

2.2.5. デバイス割り当ての要件

仮想マシンがホストから特定の PCIe デバイスを使用できるように、デバイス割り当ておよび PCI パススルーを実装する予定がある場合は、以下の要件を満たしていることを確認してください。

  • CPU が IOMMU (例: VT-d または AMD-Vi) をサポートしていること。IBM POWER8 はデフォルトで IOMMU をサポートしています。
  • ファームウェアが IOMMU をサポートしていること。
  • 使用する CPU ルートポートが ACS または ACS と同等の機能をサポートしていること。
  • PCIe デバイスが ACS または ACS と同等の機能をサポートしていること。
  • Red Hat では、PCIe デバイスとルートポート間の PCIe スイッチとブリッジがすべて ACS をサポートしていることを推奨しています。たとえば、スイッチが ACS をサポートしていない場合には、そのスイッチの背後にあるデバイスはすべて同じ IOMMU グループを共有し、同じ仮想マシンにしか割り当てることができません。
  • GPU のサポートについては、Red Hat Enterprise Linux 7 は VGA 以外のグラフィックデバイスとして PCIe ベースの NVIDIA K シリーズ Quadro (モデル 2000 シリーズ以降)、GRID、Tesla の PCI デバイス割り当てをサポートしています。現在、標準のエミュレーションされた VGA インターフェースの 1 つ以外に、仮想マシンには GPU を 2 つまでアタッチすることができます。エミュレーションされた VGA は、起動前やインストールに使用され、NVIDIA グラフィックドライバーが読み込まれると NVDIA GPU に引き継がれます。NVIDIA Quadro 2000 も、Quadro K420 カードもサポートされていない点にご注意ください。

ベンダーの仕様とデータシートをチェックして、お使いのハードウェアが要件を満たしていることを確認してください。lspci -v コマンドで、システムにインストール済みの PCI デバイスの情報を表示することができます。

2.2.6. vGPU の要件

ホスト上の仮想マシンに vGPU のインストールを許可する設定を行う場合は、以下の条件が満たされる必要があります。

  • GPU が vGPU に対応していること
  • ホストカーネルで GPU が有効であること
  • 適切なドライバーと共に GPU がインストールされていること
  • 事前定義の mdev_type が、デバイスのサポートする mdev タイプのいずれかに設定されていること
  • クラスター内の各ホストに vGPU に対応したドライバーがインストールされていること
  • vGPU ドライバーと共に vGPU に対応した仮想マシンのオペレーティングシステムがインストールされていること

2.3. ネットワークの要件

2.3.1. DNS、NTP、および IPMI フェンシングに対するファイアウォールの要件

DNS、NTP、および IPMI フェンシングに対するファイアウォールの要件は特殊なケースで、個別に検討する必要があります。

DNS および NTP

Red Hat Virtualization では DNS または NTP サーバーは作成されません。したがって、ファイアウォールには、着信トラフィックに対するオープンポートは必要ありません。

デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上の DNS および NTP への送信トラフィックを許可します。発信トラフィックを無効にする場合には、DNS および NTP サーバーに送付されるリクエストに例外を設定します。

重要
  • Red Hat Virtualization Manager およびすべてのホスト (Red Hat Virtualization Host および Red Hat Enterprise Linux ホスト) には、完全修飾ドメイン名と、全面的かつ完全な正引きおよび逆引きの名前解決が必要です。
  • DNS サービスを Red Hat Virtualization 環境内の仮想マシンとして実行する方法はサポートされていません。Red Hat Virtualization 環境が使用する DNS サービスは、すべて環境の外部でホストする必要があります。
  • Red Hat では、名前解決に /etc/hosts ファイルではなく DNS を使用することを強く推奨しています。hosts ファイルを使用すると、より多くの作業が必要となり、誤設定の可能性がより高くなります。

IPMI およびその他のフェンシング機構 (オプション)

IPMI (Intelligent Platform Management Interface) およびその他のフェンシング機構については、ファイアウォールには、着信トラフィックに対するオープンポートは必要ありません。

デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上のポートへの送信 IPMI トラフィックを許可します。発信トラフィックを無効にする場合には、IPMI またはフェンシングサーバーに送付されるリクエストに例外を設定します。

クラスター内の各 Red Hat Virtualization Host および Red Hat Enterprise Linux ホストは、クラスター内にある残りの全ホストのフェンシングデバイスに接続できる必要があります。クラスターのホストにエラー (ネットワークエラー、ストレージエラー等) が生じてホストとして機能することができない場合には、データセンター内のその他のホストに接続できる必要があります。

具体的なポート番号は、使用するフェンスエージェントのタイプおよびその設定により異なります。

以降のセクションで説明するファイアウォール要件の表には、このオプションは含まれていません。

2.3.2. Red Hat Virtualization Manager ファイアウォールの要件

Red Hat Virtualization Manager では、ネットワークトラフィックがシステムのファイアウォールを通過できるように複数のポートを開放しておく必要があります。

engine-setup スクリプトにより、ファイアウォールを自動設定することができますが、iptables を使用している場合には、既存のファイアウォール設定はすべて上書きされます。既存のファイアウォール設定を維持する場合には、Manager が必要とするファイアウォールルールを手動で挿入する必要があります。engine-setup コマンドは、必要な iptables ルールの一覧を /etc/ovirt-engine/iptables.example ファイルに保存します。firewalld を使用している場合には、engine-setup によって既存の設定は上書きされません。

本セクションに記載するファイアウォール設定は、デフォルトの設定を前提としています。

注記

これらのファイアウォール要件の模式図が、「Red Hat Virtualization: Firewall Requirements Diagram」に記載されています。表に書かれた ID を使用して、模式図内の接続を探すことができます。

表2.4 Red Hat Virtualization Manager ファイアウォールの要件

IDポートプロトコル送信元宛先目的

M1

-

ICMP

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Red Hat Virtualization Manager

オプション

診断に役立つ場合があります。

M2

22

TCP

バックエンドの設定やソフトウェアのアップグレードなど、Manager のメンテナンスに使うシステム

Red Hat Virtualization Manager

Secure Shell (SSH) アクセス

オプション

M3

2222

TCP

仮想マシンのシリアルコンソールにアクセスするクライアント

Red Hat Virtualization Manager

仮想マシンのシリアルコンソールへの接続を可能にするための Secure Shell (SSH) アクセス

M4

80、443

TCP

管理ポータルのクライアント

VM ポータルのクライアント

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

REST API クライアント

Red Hat Virtualization Manager

HTTP および HTTPS 経由で Manager にアクセスできるようにします。

M5

6100

TCP

管理ポータルのクライアント

VM ポータルのクライアント

Red Hat Virtualization Manager

Manager 上で Websocket プロキシーを実行している場合に Web ベースのコンソールクライアント (noVNC) に対する websocket プロキシーアクセスを提供します。ただし、Websocket プロキシーが別のホストで実行されている場合には、このポートは使用されません。

M6

7410

UDP

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Red Hat Virtualization Manager

ホストの Kdump が有効な場合には、Manager の fence_kdump リスナー用にこのポートを開きます。『Administration Guide』の「fence_kdump Advanced Configuration」を参照してください。

M7

54323

TCP

管理ポータルのクライアント

Red Hat Virtualization Manager (ImageIO Proxy サーバー)

ImageIO Proxy (ovirt-imageio-proxy) との通信に必要です。

M8

6442

TCP

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Open Virtual Network (OVN) southbound データベース

Open Virtual Network (OVN) データベースへの接続

M9

9696

TCP

OVN 用外部ネットワークプロバイダーのクライアント

OVN 用外部ネットワークプロバイダー

OpenStack Networking API

M10

35357

TCP

OVN 用外部ネットワークプロバイダーのクライアント

OVN 用外部ネットワークプロバイダー

OpenStack Identity API

M11

53

TCP、UDP

Red Hat Virtualization Manager

DNS サーバー

1023 より大きいポート番号からポート 53 への DNS ルックアップリクエストおよび応答。デフォルトで開いています。

M12

123

UDP

Red Hat Virtualization Manager

NTP サーバー

1023 より大きいポート番号からポート 123 への NTP リクエストおよび応答。デフォルトで開いています。

注記
  • デフォルトの設定ではクライアントは ovirt-provider-ovn なので、OVN northbound データベースのポート (6641) は記載されていません。両者は同じホスト上で動作しているので、その通信はネットワークには現れません。
  • デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上の DNS および NTP への送信トラフィックを許可します。発信トラフィックを無効にする場合には、Manager がリクエストを DNS および NTP サーバーに送付するように例外を設定します。他のノードでも DNS および NTP が必要な場合があります。その際には、それらのノードの要件を確認し、適切にファイアウォールを設定してください。

2.3.3. ホストファイアウォールの要件

Red Hat Enterprise Linux ホストおよび Red Hat Virtualization Host (RHVH) では、ネットワークトラフィックがシステムのファイアウォールを通過できるように複数のポートを開放しておく必要があります。新たなホストを Manager に追加する際に、ファイアウォールルールがデフォルトで自動的に設定され、既存のファイアウォール設定はすべて上書きされます。

新規ホストの追加時のファイアウォール自動設定を無効にするには、詳細パラメーター の下の ホストのファイアウォールを自動設定する のチェックボックスからチェックを外します。

ホストのファイアウォールルールをカスタマイズするには、「RHV: How to customize the Host's firewall rules?」を参照してください。

注記

これらのファイアウォール要件の模式図が、「Red Hat Virtualization: Firewall Requirements Diagram」に記載されています。表に書かれた ID を使用して、模式図内の接続を探すことができます。

表2.5 仮想化ホストファイアウォールの要件

IDポートプロトコル送信元宛先目的

H1

22

TCP

Red Hat Virtualization Manager

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Secure Shell (SSH) アクセス

オプション

H2

2223

TCP

Red Hat Virtualization Manager

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

仮想マシンのシリアルコンソールへの接続を可能にするための Secure Shell (SSH) アクセス

H3

161

UDP

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Red Hat Virtualization Manager

Simple Network Management Protocol (SNMP)。ホストから 1 つまたは複数の外部 SNMP マネージャーに Simple Network Management Protocol のトラップを送信する場合にのみ必要です。

オプション

H4

111

TCP

NFS ストレージサーバー

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

NFS 接続

オプション

H5

5900 - 6923

TCP

管理ポータルのクライアント

VM ポータルのクライアント

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

VNC および SPICE を介したリモートゲストのコンソールアクセス。クライアントが仮想マシンに容易にアクセスできるように、これらのポートは開放しておく必要があります。

H6

5989

TCP、UDP

Common Information Model Object Manager (CIMOM)

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Common Information Model Object Managers (CIMOM) がホスト上で実行中の仮想マシンをモニタリングするのに使用します。このポートは、環境内の仮想マシンのモニタリングに CIMOM を使用する場合にのみ開放する必要があります。

オプション

H7

9090

TCP

Red Hat Virtualization Manager

クライアントマシン

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Cockpit がインストールされている場合には、その Web インターフェースにアクセスするために必要です。

H8

16514

TCP

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

libvirt を使った仮想マシンの移行

H9

49152 - 49216

TCP

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

VDSM を使用した仮想マシンの移行とフェンシング。仮想マシンの自動および手動での移行を容易に実行できるように、これらのポートを開放しておく必要があります。

H10

54321

TCP

Red Hat Virtualization Manager

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

VDSM による Manager およびその他の仮想化ホストとの通信

H11

54322

TCP

Red Hat Virtualization Manager (ImageIO Proxy サーバー)

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

ImageIO デーモン (ovirt-imageio-daemon) との通信に必要です。

H12

6081

UDP

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

Open Virtual Network (OVN) をネットワークプロバイダーとして使用している場合に、OVN がホスト間にトンネルを作成するために必要です。

H13

53

TCP、UDP

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

DNS サーバー

1023 より大きいポート番号からポート 53 への DNS ルックアップリクエストおよび応答。このポートは必須で、デフォルトで開いています。

H14

123

UDP

Red Hat Virtualization Host

Red Hat Enterprise Linux ホスト

NTP サーバー

1023 より大きいポート番号からポート 123 への NTP リクエストおよび応答。このポートは必須で、デフォルトで開いています。

注記

デフォルトでは、Red Hat Enterprise Linux は任意のアドレス上の DNS および NTP への送信トラフィックを許可します。発信トラフィックを無効にする場合には、ホストがリクエストを DNS および NTP サーバーに送付するように例外を設定します。

Red Hat Enterprise Linux ホストは DNS および NTP サーバーにリクエストを送付します。他のノードでも DNS および NTP が必要な場合があります。その際には、それらのノードの要件を確認し、適切にファイアウォールを設定してください。

2.3.4. データベースサーバーファイアウォールの要件

Red Hat Virtualization では、Manager データベース (engine) および Data Warehouse データベース (ovirt-engine-history) にリモートのデータベースサーバーの使用をサポートしています。リモートのデータベースサーバーを使用する予定の場合には、Manager および Data Warehouse サービス (Manager と分離することが可能) からの接続を許可する必要があります。

同様に、Red Hat CloudForms などの外部システムからローカルまたはリモートの Data Warehouse データベースにアクセスする予定の場合には、そのシステムからのアクセスをデータベースで許可する必要があります。

重要

外部システムからの Manager データベースへのアクセスはサポートされていません。

注記

これらのファイアウォール要件の模式図が、「Red Hat Virtualization: Firewall Requirements Diagram」に記載されています。表に書かれた ID を使用して、模式図内の接続を探すことができます。

表2.6 データベースサーバーファイアウォールの要件

IDポートプロトコル送信元宛先目的

D1

5432

TCP、UDP

Red Hat Virtualization Manager

Data Warehouse サービス

Manager (engine) データベースサーバー

Data Warehouse (ovirt-engine-history) データベースサーバー

PostgreSQL データベース接続のデフォルトポート

D2

5432

TCP、UDP

外部のシステム

Data Warehouse (ovirt-engine-history) データベースサーバー

PostgreSQL データベース接続のデフォルトポート

第3章 Red Hat Virtualization 用ストレージの準備

新たな環境のストレージドメインとして使用するストレージを準備します。Red Hat Virtualization 環境には少なくとも 1 つのデータストレージドメインが必要ですが、さらに追加することを推奨します。

データドメインには、データセンター内の仮想マシンおよびテンプレートの仮想ハードディスクと OVF ファイルを格納します。このドメインは、アクティブな間は複数のデータセンター間で共有することはできません (ただし、データセンター間で移行することは可能です)。複数のストレージタイプのデータドメインを同じデータセンターに追加することは可能ですが、それらはすべてローカルドメインではなく、全ホストがアクセス可能なドメインであることが条件となります。

セルフホストエンジンには、さらに Manager 用仮想マシン専用のデータドメインが必要です。このドメインはセルフホストエンジンのデプロイメント中に作成され、容量は少なくとも 74 GiB 必要です。デプロイメントの開始前に、このドメイン用のストレージを準備する必要があります。

以下のストレージタイプのいずれかを使用することができます。

重要

iSCSI ストレージを使用する場合には、セルフホストエンジン用ストレージドメインは自己の iSCSI ターゲットを使用する必要があります。追加のストレージドメインは、異なる iSCSI ターゲットを使用しなければなりません。

警告

セルフホストエンジン用ストレージドメインと同じデータセンター内に追加のデータストレージドメインを作成することを強く推奨します。セルフホストエンジンをデータセンター内にデプロイする際に、アクティブなデータストレージドメインを 1 つしか用意しないと、そのストレージドメインが破損した場合に、新たなストレージドメインを追加することや破損したストレージドメインを削除することができません。セルフホストエンジンを再デプロイしなければなりません。

3.1. NFS ストレージの準備

Red Hat Enterprise Linux サーバー上でストレージドメインとして機能する NFS 共有を設定します。

NFS の準備および設定に関する情報は、『Red Hat Enterprise Linux 7 ストレージ管理ガイド』「NFS (Network File System)」を参照してください。

Red Hat Virtualization には、特定のシステムユーザーアカウントおよびシステムユーザーグループが必要です。これにより、Manager はストレージドメイン (エクスポートしたディレクトリー) にデータを保管することができます。以下の手順では、1 つのディレクトリーのパーミションを設定しています。Red Hat Virtualization のストレージドメインとして使用するすべてのディレクトリーについて、chown および chmod のステップを繰り返す必要があります。

手順

  1. kvm というグループを作成します。

    # groupadd kvm -g 36
  2. ユーザー vdsm を作成してグループ kvm に追加します。

    # useradd vdsm -u 36 -g 36
  3. エクスポートディレクトリーの所有権を 36:36 に設定すると、vdsm:kvm に所有権が付与されます。

    # chown -R 36:36 /exports/data
  4. 所有者に読み取り/書き込みアクセスを許可し、グループおよびその他のユーザーに読み取り/実行アクセスを許可するように、ディレクトリーのモードを変更します。

    # chmod 0755 /exports/data

3.2. iSCSI ストレージの準備

Red Hat Virtualization は、LUN で構成されるボリュームグループから作成されるストレージドメインである iSCSI ストレージをサポートします。ボリュームグループおよび LUN は、いずれも同時に複数のストレージドメインにアタッチすることはできません。

iSCSI ストレージの準備および設定に関する情報は、『Red Hat Enterprise Linux 7 ストレージ管理ガイド』「オンラインストレージ管理」を参照してください。

重要

ブロックストレージを使用する際、仮想マシンを Raw デバイスまたは直接 LUN にデプロイし、論理ボリュームマネージャーで管理する場合は、フィルターを作成してゲストの論理ボリュームを除外する必要があります。これにより、ホストの起動時にゲストの論理ボリュームがアクティブ化されるのを防ぐことができます。アクティブ化されると、論理ボリュームと論理ボリュームマネージャーのメタデータが同期しなくなり、データ破損が生じる可能性があります。詳細については、「RHV: Hosts boot with Guest LVs activated」を参照してください。

重要

現状、Red Hat Virtualization はブロックサイズ 4K のストレージはサポートしていません。ブロックストレージはレガシー (512b ブロック) モードで設定する必要があります。

重要

SAN ストレージから起動したホストがストレージへの接続を失うと、ストレージファイルシステムは読み取り専用になり、接続が回復した後もその状態が続きます。

パスが利用可能な状況であればブート LUN が必ず再接続されるように、SAN のルートファイルシステムに以下のドロップインマルチパス設定ファイルを追加してください。

# cat /etc/multipath/conf.d/host.conf
multipaths {
    multipath {
        wwid boot_LUN_wwid
        no_path_retry queue
    }

3.3. FCP ストレージの準備

Red Hat Virtualization は、既存の LUN で構成されるボリュームグループからストレージドメインを作成する方法で、SAN ストレージをサポートしています。ボリュームグループおよび LUN は、いずれも同時に複数のストレージドメインにアタッチすることはできません。

Red Hat Virtualization システムの管理者には Storage Area Networks (SAN) の概念に関する作業知識が必要になります。SAN は通常、ホストと外部の共有ストレージ間のトラフィックに Fibre Channel Protocol (FCP) を使用します。このため、SAN は FCP ストレージとも呼ばれています。

Red Hat Enterprise Linux での FCP またはマルチパスの準備および設定に関する情報は、『Red Hat Enterprise Linux 7 ストレージ管理ガイド』および『Red Hat Enterprise Linux 7 DM Multipath』を参照してください。

重要

ブロックストレージを使用する際、仮想マシンを Raw デバイスまたは直接 LUN にデプロイし、論理ボリュームマネージャーで管理する場合は、フィルターを作成してゲストの論理ボリュームを除外する必要があります。これにより、ホストの起動時にゲストの論理ボリュームがアクティブ化されるのを防ぐことができます。アクティブ化されると、論理ボリュームと論理ボリュームマネージャーのメタデータが同期しなくなり、データ破損が生じる可能性があります。詳細については、「RHV: Hosts boot with Guest LVs activated」を参照してください。

重要

現状、Red Hat Virtualization はブロックサイズ 4K のストレージはサポートしていません。ブロックストレージはレガシー (512b ブロック) モードで設定する必要があります。

重要

SAN ストレージから起動したホストがストレージへの接続を失うと、ストレージファイルシステムは読み取り専用になり、接続が回復した後もその状態が続きます。

パスが利用可能な状況であればブート LUN が必ず再接続されるように、SAN のルートファイルシステムに以下のドロップインマルチパス設定ファイルを追加してください。

# cat /etc/multipath/conf.d/host.conf
multipaths {
    multipath {
        wwid boot_LUN_wwid
        no_path_retry queue
    }

3.4. Red Hat Gluster Storage の準備

Red Hat Gluster Storage の準備および設定に関する情報は、『Red Hat Gluster Storage Installation Guide』を参照してください。

Red Hat Virtualization でサポートされる Red Hat Gluster Storage のバージョンについては、「Red Hat Gluster Storage Version Compatibility and Support」を参照してください。

重要

Red Hat Virtualization 4.3 では、現在 Red Hat ハイパーコンバージドインフラストラクチャーはサポートされていません。

第4章 セルフホストエンジン用デプロイメントホストのインストール

セルフホストエンジンは、Red Hat Virtualization Host または Red Hat Enterprise Linux ホスト からデプロイすることができます。

重要

高可用性のためにボンドインターフェースを使用する、またはトラフィックをタイプごとに分離するために VLAN を使用する場合は (例: ストレージ用の接続と管理用の接続)、セルフホストエンジンのデプロイメント開始前にホストに設定する必要があります。詳細については、『Planning and Prerequisites Guide』「Networking Recommendations」を参照してください。

4.1. Red Hat Virtualization Host のインストール

Red Hat Virtualization Host (RHVH) は、Red Hat Virtualization 環境でハイパーバイザーとして機能する物理マシンの簡単な設定方法を提供するために設計された、Red Hat Enterprise Linux をベースとする最小構成のオペレーティングシステムです。この最小構成のオペレーティングシステムには、マシンがハイパーバイザーとして機能するのに必要なパッケージのみが含まれており、ホストの監視や管理タスクの実行用に Cockpit Web インターフェースが備えられています。最低限のブラウザー要件については、「Running Cockpit」を参照してください。

RHVH は NIST SP 800-53 パーティショニングの要件をサポートし、より強固なセキュリティーを提供します。RHVH は、デフォルトで NIST 800-53 パーティションレイアウトを使用します。

ホストは最低限の ホスト要件 を満たしている必要があります。

手順

  1. カスタマーポータルから RHVH ISO イメージをダウンロードします。

    1. カスタマーポータル (https://access.redhat.com) にログインします。
    2. メニューバーの ダウンロード をクリックします。
    3. Red Hat Virtualization をクリックします。スクロールアップし、最新の Red Hat Virtualization 4.3 Host and Manager のダウンロード をクリックして製品のダウンロードページに移動します。
    4. Hypervisor Image for RHV 4.3 に移動し、今すぐダウンロードする をクリックします。
    5. ブート可能なメディアデバイスを作成します。詳しい情報については、『Red Hat Enterprise Linux インストールガイド』「メディアの作成」を参照してください。
  2. RHVH のインストール先となるマシンを起動し、準備したインストールメディアから起動します。
  3. 起動メニューから Install RHVH 4.3 を選択して Enter キーを押します。

    注記

    または、Tab キーを押してカーネルパラメーターを編集することもできます。カーネルパラメーターはスペースで区切る必要があります。指定したカーネルパラメーターを使用してシステムを起動するには、Enter キーを押します。カーネルパラメーターへの変更を消去し、起動メニューに戻るには、Esc キーを押します。

  4. 言語を選択し、続行 をクリックします。
  5. 日付と時刻 の画面からタイムゾーンを選択して 完了 をクリックします。
  6. キーボードレイアウト の画面からキーボードのレイアウトを選択して 完了 をクリックします。
  7. インストール先 の画面から RHVH のインストール先のデバイスを選択します。オプションで暗号化を有効にします。完了 をクリックします。

    重要

    Red Hat は パーティションを自動構成する オプションを使用することを強く推奨します。

  8. ネットワークとホスト名 の画面からネットワークを選択して、設定​ をクリックして接続の詳細を設定します。ホスト名 フィールドにホスト名を入力して 完了 をクリックします。
  9. オプションで 言語サポートSECURITY POLICY、および KDUMP を設定します。インストールの概要 画面の各セクションの情報については、『Red Hat Enterprise Linux 7 インストールガイド』「Anaconda を使用したインストール」を参照してください。
  10. インストールの開始 をクリックします。
  11. RHVH のインストールの際に root パスワードを設定して、オプションで追加のユーザーを作成します。

    警告

    ローカルのセキュリティー脆弱性が攻撃される可能性があるので、Red Hat は RHVH に信頼できないユーザーを作成することは推奨しません。

  12. 再起動 をクリックしてインストールを完了します。

    注記

    RHVH の再起動時には、nodectl check がホストのヘルスチェックを実行して、コマンドラインへのログイン時に結果を表示します。メッセージ node status: OK または node status: DEGRADED により、ヘルスステータスを確認することができます。さらに詳しい情報を表示するには、nodectl check を実行します。このサービスは、デフォルトで有効化されています。

4.1.1. Red Hat Virtualization Host のリポジトリーの有効化

更新を受け取るためにシステムを登録します。Red Hat Virtualization Host に必要なリポジトリーは 1 つだけです。本セクションでは、RHVH を コンテンツ配信ネットワーク または Red Hat Satellite 6 に登録する手順について説明します。

コンテンツ配信ネットワークへの RHVH の登録

  1. https://HostFQDNorIP:9090 から Cockpit Web インターフェースにログインします。
  2. サブスクリプション に移動し、登録 をクリックしてカスタマーポータルのユーザー名とパスワードを入力します。Red Hat Virtualization Host のサブスクリプションが自動的にシステムにアタッチされます。
  3. 端末 をクリックします。
  4. Red Hat Virtualization Host に対する今後の更新が得られるように、Red Hat Virtualization Host 7 リポジトリーを有効にします。

    # subscription-manager repos --enable=rhel-7-server-rhvh-4-rpms

Red Hat Satellite 6 への RHVH の登録

  1. https://HostFQDNorIP:9090 から Cockpit Web インターフェースにログインします。
  2. 端末 をクリックします。
  3. RHVH を Red Hat Satellite 6 に登録します。

      # rpm -Uvh http://satellite.example.com/pub/katello-ca-consumer-latest.noarch.rpm
      # subscription-manager register --org="org_id"
      # subscription-manager list --available
      # subscription-manager attach --pool=pool_id
      # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rhvh-4-rpms

4.2. Red Hat Enterprise Linux ホストのインストール

Red Hat Enterprise Linux ホストは、Red Hat Enterprise Linux Server および Red Hat Virtualization のサブスクリプションがアタッチされた、物理サーバー上の Red Hat Enterprise Linux 7 の標準的な基本インストールをベースにしています。

詳細なインストール手順は、『Red Hat Enterprise Linux 7 インストールガイド』を参照してください。

ホストは最低限の ホスト要件 を満たしている必要があります。

重要

ホストの BIOS 設定で仮想化が有効になっている必要があります。ホストの BIOS 設定の変更に関する情報については、そのホストのハードウェアのマニュアルを参照してください。

重要

サードパーティー製のウォッチドッグは、VDSM によって提供される watchdog デーモンを妨げる可能性があるので、Red Hat Enterprise Linux ホストにはインストールすべきではありません。

4.2.1. Red Hat Enterprise Linux ホストリポジトリーの有効化

Red Hat Enterprise Linux マシンをホストとして使用するには、システムをコンテンツ配信ネットワークに登録し、Red Hat Enterprise Linux Server および Red Hat Virtualization サブスクリプションをアタッチし、ホストのリポジトリーを有効にする必要があります。

手順

  1. コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。

    # subscription-manager register
  2. Red Hat Enterprise Linux Server および Red Hat Virtualization のサブスクリプションプールを探し、プール ID を記録しておきます。

    # subscription-manager list --available
  3. 上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。

    # subscription-manager attach --pool=poolid
    注記

    現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。

    # subscription-manager list --consumed

    有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。

    # yum repolist
  4. リポジトリーを設定します。

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rpms \
        --enable=rhel-7-server-rhv-4-mgmt-agent-rpms \
        --enable=rhel-7-server-ansible-2-rpms

    IBM POWER8 (リトルエンディアン) ハードウェアに Red Hat Enterprise Linux 7 ホストをインストールする場合:

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-le-rpms \
        --enable=rhel-7-for-power-le-rpms

    IBM POWER9 (リトルエンディアン) ハードウェアに Red Hat Enterprise Linux 7 ホストをインストールする場合:

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-9-rpms \
        --enable=rhel-7-for-power-9-rpms
  5. 現在インストールされている全パッケージを最新の状態にします。

    # yum update
  6. マシンを再起動します。

第5章 Red Hat Virtualization Manager のインストール

RHV-M Appliance はデプロイメントプロセス中にインストールされますが、必要であればインストールを開始する前にデプロイメントホストにインストールすることもできます。

# yum install rhvm-appliance

Manager 用仮想マシンの手動インストールはサポートされません。

5.1. コマンドラインを使用したセルフホストエンジンのデプロイ

コマンドラインからセルフホストエンジンをデプロイすることができます。セットアップパッケージをインストールしてコマンド hosted-engine --deploy を実行すると、スクリプトがご自分の環境の情報を収集し、その情報を使用してホストおよび Manager を設定します。

前提条件

  • Manager およびホスト用の完全修飾ドメイン名。正引き (フォワードルックアップ) と逆引き (リバースルックアップ) の両方を DNS で設定する必要があります。

手順

  1. デプロイメントツールをインストールします。

    # yum install ovirt-hosted-engine-setup
  2. Red Hat では、ネットワークやターミナルが切断された場合などにセッションが失われないように、screen ウィンドウマネージャーを使用してスクリプトを実行することを推奨します。screen をインストールして起動します。

    # yum install screen
    # screen
  3. デプロイメントスクリプトを開始します。

    # hosted-engine --deploy
    注記

    Ctrl+D のキーの組み合わせを使用してデプロイメントを中断すると、スクリプトをいつでも終了することができます。セッションがタイムアウトした場合や接続が中断された場合には、screen -d -r を実行してデプロイメントセッションを復元します。

  4. 確認を要求されたら、Yes と入力してデプロイメントを開始します。

    Continuing will configure this host for serving as hypervisor and will create a local VM with a running engine.
    The locally running engine will be used to configure a new storage domain and create a VM there.
    At the end the disk of the local VM will be moved to the shared storage.
    Are you sure you want to continue? (Yes, No)[Yes]:
  5. ネットワークを設定します。表示されたゲートウェイが正しいことを確認し、Enter キーを押します。スクリプトがホストの接続性を確認することができるように、同じサブネット上の ping 送信可能なアドレスを入力します。

    Please indicate a pingable gateway IP address [X.X.X.X]:
  6. スクリプトにより、環境の管理ブリッジとして使用する NIC 候補が検出されます。候補のいずれかを入力するか、Enter キーを押してデフォルトをそのまま使用します。

    Please indicate a nic to set ovirtmgmt bridge on: (eth1, eth0) [eth1]:
  7. 仮想マシンのインストールにカスタムアプライアンスを使用する場合は、OVA アーカイブへのパスを入力します。該当しなければ、このフィールドを空欄のままにして RHV-M Appliance を使用します。

    If you want to deploy with a custom engine appliance image,
    please specify the path to the OVA archive you would like to use
    (leave it empty to skip, the setup will use rhvm-appliance rpm installing it if missing):
  8. 仮想マシンの CPU およびメモリー構成を入力します。

    Please specify the number of virtual CPUs for the VM (Defaults to appliance OVF value): [4]:
    Please specify the memory size of the VM in MB (Defaults to maximum available): [7267]:
  9. Manager 用仮想マシンの完全修飾ドメイン名を指定します (例: manager.example.com)。

    Please provide the FQDN you would like to use for the engine appliance.
    Note: This will be the FQDN of the engine VM you are now going to launch,
    it should not point to the base host or to any other existing machine.
    Engine VM FQDN:
  10. Manager 用仮想マシンのドメインを指定します。たとえば、完全修飾ドメイン名が manager.example.com であれば、example.com と入力します。

    Please provide the domain name you would like to use for the engine appliance.
    Engine VM domain: [example.com]
  11. Manager の root パスワードを作成し、確認のために同じパスワードを再入力します。

    Enter root password that will be used for the engine appliance:
    Confirm appliance root password:
  12. オプションとして、パスワードを入力せずに Manager に root ユーザーとしてログインできるように SSH 公開鍵を入力し、root ユーザーの SSH アクセスを有効にするかどうかを指定します。

    Enter ssh public key for the root user that will be used for the engine appliance (leave it empty to skip):
    Do you want to enable ssh access for the root user (yes, no, without-password) [yes]:
  13. Manager 用仮想マシンの MAC アドレスを入力するか、無作為に生成される MAC アドレスを適用します。Manager 用仮想マシンへの IP アドレス割り当てに DHCP を使用するには、この MAC アドレスに有効な DHCP 予約があることを確認してください。デプロイメントスクリプトは、DHCP サーバーの設定は行いません。

    You may specify a unicast MAC address for the VM or accept a randomly generated default [00:16:3e:3d:34:47]:
  14. 仮想マシンのネットワークの詳細を入力します。

    How should the engine VM network be configured (DHCP, Static)[DHCP]?

    Static を指定した場合には、Manager の IP アドレスを入力します。

    重要
    • 静的 IP アドレスは、ホストと同じサブネットに属している必要があります。たとえば、ホストが 10.1.1.0/24 内にある場合、Manager 用仮想マシンの IP は同じサブネット範囲 (10.1.1.1-254/24) になければなりません。
    • IPv6 については、Red Hat Virtualization でサポートされるのは静的なアドレスだけです。
    Please enter the IP address to be used for the engine VM [x.x.x.x]:
    Please provide a comma-separated list (max 3) of IP addresses of domain name servers for the engine VM
    Engine VM DNS (leave it empty to skip):
  15. Manager 用仮想マシンおよびベースホストのエントリーを仮想マシンの /etc/hosts ファイルに追加するかどうかを指定します。ホスト名は解決可能でなければなりません。

    Add lines for the appliance itself and for this host to /etc/hosts on the engine VM?
    Note: ensuring that this host could resolve the engine VM hostname is still up to you (Yes, No)[No]
  16. SMTP サーバーの名前と TCP ポート番号、メール通知に使用するメールアドレス、通知を受信するメールアドレス (複数ある場合はコンマ区切りリスト) を指定します。あるいは、Enter キーを押してデフォルトをそのまま使用します。

    Please provide the name of the SMTP server through which we will send notifications [localhost]:
    Please provide the TCP port number of the SMTP server [25]:
    Please provide the email address from which notifications will be sent [root@localhost]:
    Please provide a comma-separated list of email addresses which will get notifications [root@localhost]:
  17. admin@internal ユーザーが管理ポータルにアクセスするためのパスワードを作成し、確認のために同じパスワードを再入力します。

    Enter engine admin password:
    Confirm engine admin password:

    スクリプトにより仮想マシンが作成されます。RHV-M Appliance をインストールする必要がある場合には、時間がかかることがあります。仮想マシンの作成後、スクリプトは情報収集プロセスに進みます。

  18. 使用するストレージのタイプを選択します。

    Please specify the storage you would like to use (glusterfs, iscsi, fc, nfs)[nfs]:
    • NFS の場合は、バージョン、完全なアドレス、およびストレージへのパスならびにマウントオプションを入力します。

      Please specify the nfs version you would like to use (auto, v3, v4, v4_1)[auto]:
      Please specify the full shared storage connection path to use (example: host:/path): storage.example.com:/hosted_engine/nfs
      If needed, specify additional mount options for the connection to the hosted-engine storage domain []:
    • iSCSI の場合は、ポータルの詳細を入力し、自動検出された一覧からターゲットおよび LUN を選択します。デプロイメント時に選択できる iSCSI ターゲットは 1 つだけですが、マルチパスがサポートされているので、同じポータルグループのポータルをすべて接続することができます。

      注記

      複数の iSCSI ターゲットを指定するには、セルフホストエンジンをデプロイする前にマルチパスを有効にする必要があります。詳細については、『Red Hat Enterprise Linux DM Multipath』を参照してください。Multipath Helper ツールを使用して、さまざまなオプションでマルチパスをインストールおよび設定するスクリプトを生成することもできます。

      Please specify the iSCSI portal IP address:
      Please specify the iSCSI portal port [3260]:
      Please specify the iSCSI discover user:
      Please specify the iSCSI discover password:
      Please specify the iSCSI portal login user:
      Please specify the iSCSI portal login password:
      
      The following targets have been found:
      	[1]	iqn.2017-10.com.redhat.example:he
      		TPGT: 1, portals:
      			192.168.1.xxx:3260
      			192.168.2.xxx:3260
      			192.168.3.xxx:3260
      
      Please select a target (1) [1]: 1
      
      The following luns have been found on the requested target:
        [1] 360003ff44dc75adcb5046390a16b4beb   199GiB  MSFT   Virtual HD
            status: free, paths: 1 active
      
      Please select the destination LUN (1) [1]:
    • Gluster ストレージの場合は、完全なアドレスおよびストレージへのパスならびにマウントオプションを入力します。

      重要

      サポートされるストレージは、レプリカ 3 の Gluster ストレージのみです。以下の設定を完了しておいてください。

      • 3 つすべての Gluster サーバーの /etc/glusterfs/glusterd.vol ファイルで、rpc-auth-allow-insecureon に設定します。

        option rpc-auth-allow-insecure on
      • 以下のようにボリュームを設定します。

        gluster volume set _volume_ cluster.quorum-type auto
        gluster volume set _volume_ network.ping-timeout 10
        gluster volume set _volume_ auth.allow \*
        gluster volume set _volume_ group virt
        gluster volume set _volume_ storage.owner-uid 36
        gluster volume set _volume_ storage.owner-gid 36
        gluster volume set _volume_ server.allow-insecure on
      Please specify the full shared storage connection path to use (example: host:/path): storage.example.com:/hosted_engine/gluster_volume
      If needed, specify additional mount options for the connection to the hosted-engine storage domain []:
    • ファイバーチャネルの場合は、自動検出された一覧から LUN を選択します。ホストのバスアダプターが設定、接続されている必要があります。また、LUN には既存のデータが含まれないようにする必要があります。既存の LUN を再使用する場合には、『Administration Guide』「Reusing LUNs」を参照してください。

      The following luns have been found on the requested target:
      [1] 3514f0c5447600351   30GiB   XtremIO XtremApp
      		status: used, paths: 2 active
      
      [2] 3514f0c5447600352   30GiB   XtremIO XtremApp
      		status: used, paths: 2 active
      
      Please select the destination LUN (1, 2) [1]:
  19. Manager のディスク容量を入力します。

    Please specify the size of the VM disk in GB: [50]:

    デプロイメントが正常に完了すると、1 つのデータセンター、クラスター、ホスト、ストレージドメイン、および Manager 用仮想マシンがすでに稼働しているはずです。管理ポータルにログインして、その他のリソースを追加することができます。

  20. オプションとして、ovirt-engine-extension-aaa-ldap-setup の対話型設定スクリプトを使用して、ディレクトリーサーバーを追加します。これにより、環境に新規ユーザーを追加することができます。詳細については、『Administration Guide』「Configuring an External LDAP Provider」を参照してください。

管理ポータルで、Manager 用仮想マシン、仮想マシンを実行しているホスト、およびセルフホストエンジンのストレージドメインに金色の王冠のフラグが付けられます。

Red Hat Virtualization Manager リポジトリーの有効化は、自動化されたインストール中には実施されません。Manager 用仮想マシンにログインして、コンテンツ配信ネットワークに登録します。

5.2. Red Hat Virtualization Manager リポジトリーの有効化

Red Hat Subscription Manager でシステムを登録し、Red Hat Virtualization Manager のサブスクリプションをアタッチし、Manager のリポジトリーを有効にします。

手順

  1. コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。

    # subscription-manager register
    注記

    IPv6 ネットワークを使用していて IPv6 から IPv4 への (6to4) リレーを使用することができない、または使用する必要がある場合には、--baseurl オプションを追加して IPv6 互換の CDN ホストを使用することができます (subscription-manager register --baseurl=https://cdn6.redhat.com)。

  2. Red Hat Virtualization Manager のサブスクリプションプールを探し、プール ID を記録しておきます。

    # subscription-manager list --available
  3. 上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。

    # subscription-manager attach --pool=pool_id
    注記

    現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。

    # subscription-manager list --consumed

    有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。

    # yum repolist
  4. リポジトリーを設定します。

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rpms \
        --enable=rhel-7-server-supplementary-rpms \
        --enable=rhel-7-server-rhv-4.3-manager-rpms \
        --enable=rhel-7-server-rhv-4-manager-tools-rpms \
        --enable=rhel-7-server-ansible-2-rpms \
        --enable=jb-eap-7.2-for-rhel-7-server-rpms

次に管理ポータルにログインします。ここで、環境にホストおよびストレージを追加することができます。

5.3. 管理ポータルへの接続

Web ブラウザーを使って管理ポータルへアクセスします。

  1. Web ブラウザーで https://manager-fqdn/ovirt-engine にアクセスします (manager-fqdn は、インストール時に指定した完全修飾ドメイン名に置き換えてください)。

    注記

    別のホスト名または IP アドレスを使用して、管理ポータルにアクセスすることができます。これには、/etc/ovirt-engine/engine.conf.d/ に設定ファイルを追加する必要があります。以下に例を示します。

    # vi /etc/ovirt-engine/engine.conf.d/99-custom-sso-setup.conf
    SSO_ALTERNATE_ENGINE_FQDNS="alias1.example.com alias2.example.com"

    代替ホストの一覧は、スペースで区切る必要があります。また、Manager の IP アドレスを一覧に追加することもできますが、DNS で解決可能なホスト名の代わりに IP アドレスを使用することは推奨していません。

  2. 管理ポータル をクリックすると、SSO ログインページが表示されます。SSO ログインにより、管理ポータルと VM ポータルに同時にログインすることができます。
  3. ユーザー名パスワード を入力します。初回ログインの場合は、ユーザー名 admin とインストール時に指定したパスワードを使用してください。
  4. 認証する プロファイル を選択します。内部の admin ユーザー名を使用してログインする場合は、プロファイルに internal を選択します。
  5. ログイン をクリックします。
  6. 管理ポータルは複数の言語で表示することができます。デフォルトの選択は、お使いの Web ブラウザーのロケール設定をベースに決定されます。デフォルト以外の言語で管理ポータルを表示する場合は、ウェルカムページのドロップダウンリストから任意の言語を選択してください。

Red Hat Virtualization 管理ポータルからログアウトするには、ヘッダーバーでユーザー名をクリックして、サインアウト をクリックします。すべてのポータルからログアウトされ、Manager のウェルカム画面が表示されます。

第6章 Red Hat Virtualization 用ホストのインストール

Red Hat Virtualization は、Red Hat Virtualization Host (RHVH)Red Hat Enterprise Linux ホスト の 2 つのタイプのホストをサポートしています。環境に応じて、1 タイプのみまたは両方のタイプを使用することができます。移行や高可用性などの機能を利用するには、少なくとも 2 台のホストが必要です。

ネットワーク設定に関する情報は、「ホストネットワーク設定の推奨プラクティス」を参照してください。

重要

SELinux は インストール時に enforcing モードに設定されます。確認するには、getenforce コマンドを実行してください。Red Hat Virtualization 環境を Red Hat がサポートするには、すべてのホストと Manager で SELinux を enforcing モードに設定する必要があります。

表6.1 ホストタイプ

ホストタイプ別名説明

Red Hat Virtualization Host

RHVH、シンホスト

Red Hat Enterprise Linux をベースとする最小限のオペレーティングシステム。カスタマーポータルから ISO ファイルとして配信されており、ホストとして機能するマシンに必要なパッケージのみが含まれます。

Red Hat Enterprise Linux ホスト

RHEL ベースのハイパーバイザー、シックホスト

適切なサブスクリプションがアタッチされた Red Hat Enterprise Linux システムは、ホストとして使用することができます。

ホストの互換性

新規データセンターの作成時に、互換バージョンを設定することができます。データセンター内の全ホストに適した互換バージョンを選択します。一旦設定されると、それよりも古いバージョンに変更することはできません。Red Hat Virtualization を新規インストールした場合には、最新の互換バージョンが Default データセンターと Default クラスターに設定されるので、それ以前の互換バージョンを使用するには、追加でデータセンターおよびクラスターを作成する必要があります。互換バージョンに関する詳細情報については、「Red Hat Virtualization のライフサイクル」Red Hat Virtualization Manager の互換性 を参照してください。

6.1. Red Hat Virtualization Host

6.1.1. Red Hat Virtualization Host のインストール

Red Hat Virtualization Host (RHVH) は、Red Hat Virtualization 環境でハイパーバイザーとして機能する物理マシンの簡単な設定方法を提供するために設計された、Red Hat Enterprise Linux をベースとする最小構成のオペレーティングシステムです。この最小構成のオペレーティングシステムには、マシンがハイパーバイザーとして機能するのに必要なパッケージのみが含まれており、ホストの監視や管理タスクの実行用に Cockpit Web インターフェースが備えられています。最低限のブラウザー要件については、「Running Cockpit」を参照してください。

RHVH は NIST SP 800-53 パーティショニングの要件をサポートし、より強固なセキュリティーを提供します。RHVH は、デフォルトで NIST 800-53 パーティションレイアウトを使用します。

ホストは最低限の ホスト要件 を満たしている必要があります。

手順

  1. カスタマーポータルから RHVH ISO イメージをダウンロードします。

    1. カスタマーポータル (https://access.redhat.com) にログインします。
    2. メニューバーの ダウンロード をクリックします。
    3. Red Hat Virtualization をクリックします。スクロールアップし、最新の Red Hat Virtualization 4.3 Host and Manager のダウンロード をクリックして製品のダウンロードページに移動します。
    4. Hypervisor Image for RHV 4.3 に移動し、今すぐダウンロードする をクリックします。
    5. ブート可能なメディアデバイスを作成します。詳しい情報については、『Red Hat Enterprise Linux インストールガイド』「メディアの作成」を参照してください。
  2. RHVH のインストール先となるマシンを起動し、準備したインストールメディアから起動します。
  3. 起動メニューから Install RHVH 4.3 を選択して Enter キーを押します。

    注記

    または、Tab キーを押してカーネルパラメーターを編集することもできます。カーネルパラメーターはスペースで区切る必要があります。指定したカーネルパラメーターを使用してシステムを起動するには、Enter キーを押します。カーネルパラメーターへの変更を消去し、起動メニューに戻るには、Esc キーを押します。

  4. 言語を選択し、続行 をクリックします。
  5. 日付と時刻 の画面からタイムゾーンを選択して 完了 をクリックします。
  6. キーボードレイアウト の画面からキーボードのレイアウトを選択して 完了 をクリックします。
  7. インストール先 の画面から RHVH のインストール先のデバイスを選択します。オプションで暗号化を有効にします。完了 をクリックします。

    重要

    Red Hat は パーティションを自動構成する オプションを使用することを強く推奨します。

  8. ネットワークとホスト名 の画面からネットワークを選択して、設定​ をクリックして接続の詳細を設定します。ホスト名 フィールドにホスト名を入力して 完了 をクリックします。
  9. オプションで 言語サポートSECURITY POLICY、および KDUMP を設定します。インストールの概要 画面の各セクションの情報については、『Red Hat Enterprise Linux 7 インストールガイド』「Anaconda を使用したインストール」を参照してください。
  10. インストールの開始 をクリックします。
  11. RHVH のインストールの際に root パスワードを設定して、オプションで追加のユーザーを作成します。

    警告

    ローカルのセキュリティー脆弱性が攻撃される可能性があるので、Red Hat は RHVH に信頼できないユーザーを作成することは推奨しません。

  12. 再起動 をクリックしてインストールを完了します。

    注記

    RHVH の再起動時には、nodectl check がホストのヘルスチェックを実行して、コマンドラインへのログイン時に結果を表示します。メッセージ node status: OK または node status: DEGRADED により、ヘルスステータスを確認することができます。さらに詳しい情報を表示するには、nodectl check を実行します。このサービスは、デフォルトで有効化されています。

6.1.2. Red Hat Virtualization Host のリポジトリーの有効化

更新を受け取るためにシステムを登録します。Red Hat Virtualization Host に必要なリポジトリーは 1 つだけです。本セクションでは、RHVH を コンテンツ配信ネットワーク または Red Hat Satellite 6 に登録する手順について説明します。

コンテンツ配信ネットワークへの RHVH の登録

  1. https://HostFQDNorIP:9090 から Cockpit Web インターフェースにログインします。
  2. サブスクリプション に移動し、登録 をクリックしてカスタマーポータルのユーザー名とパスワードを入力します。Red Hat Virtualization Host のサブスクリプションが自動的にシステムにアタッチされます。
  3. 端末 をクリックします。
  4. Red Hat Virtualization Host に対する今後の更新が得られるように、Red Hat Virtualization Host 7 リポジトリーを有効にします。

    # subscription-manager repos --enable=rhel-7-server-rhvh-4-rpms

Red Hat Satellite 6 への RHVH の登録

  1. https://HostFQDNorIP:9090 から Cockpit Web インターフェースにログインします。
  2. 端末 をクリックします。
  3. RHVH を Red Hat Satellite 6 に登録します。

      # rpm -Uvh http://satellite.example.com/pub/katello-ca-consumer-latest.noarch.rpm
      # subscription-manager register --org="org_id"
      # subscription-manager list --available
      # subscription-manager attach --pool=pool_id
      # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rhvh-4-rpms

6.1.3. 高度なインストール

6.1.3.1. カスタムパーティション設定

Red Hat Virtualization Host (RHVH) でのカスタムパーティション設定は推奨されません。Red Hat は、インストール先 ウィンドウの パーティションを自動構成する オプションを使用することを強く推奨します。

インストールでカスタムのパーティション設定が必要な場合は、インストール時に パーティションを自分で構成する オプションを選択します。ただし、以下の制限が適用される点に注意してください。

  • 手動パーティション設定 ウィンドウで、デフォルトの LVM シンプロビジョニング オプションを選択する必要があります。
  • 以下のディレクトリーが必要で、シンプロビジョニングされた論理ボリューム上になければなりません。

    • ルート (/)
    • /home
    • /tmp
    • /var
    • /var/crash
    • /var/log
    • /var/log/audit

      重要

      /usr 用に別のパーティションを作成しないでください。別のパーティションを作成すると、インストールに失敗します。

      /usr は、RHVH と共にバージョンを変更することのできる論理ボリューム上になければなりません。したがって、ルート (/) 上に残す必要があります。

      各パーティションに必要なストレージのサイズについては、「ストレージの要件」を参照してください。

  • /boot ディレクトリーは、標準パーティションとして定義する必要があります。
  • /var ディレクトリーは、別のボリュームまたはディスク上になければなりません。
  • XFS または Ext4 ファイルシステムのみがサポートされます。

キックスタートファイルでの手動パーティション設定の定義

以下の例で、キックスタートファイルで手動パーティション設定を定義する方法を説明します。

clearpart --all
part /boot --fstype xfs --size=1000 --ondisk=sda
part pv.01 --size=42000 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40000 --grow
logvol / --vgname=HostVG --name=root --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=6000 --grow
logvol /var --vgname=HostVG --name=var --thin --fstype=ext4 --poolname=HostPool
--fsoptions="defaults,discard" --size=15000
logvol /var/crash --vgname=HostVG --name=var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10000
logvol /var/log --vgname=HostVG --name=var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8000
logvol /var/log/audit --vgname=HostVG --name=var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2000
logvol /home --vgname=HostVG --name=home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1000
logvol /tmp --vgname=HostVG --name=tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1000
注記

logvol --thinpool --grow を使用する場合は、volgroup --reserved-space または volgroup --reserved-percent も含め、シンプールの拡大用にボリュームグループの領域を確保する必要があります。

6.1.3.2. Red Hat Virtualization Host デプロイメントの自動化

物理メディアデバイスなしに Red Hat Virtualization Host (RHVH) をインストールすることができます。そのためには、インストールの質問に対する回答が含まれたキックスタートファイルを使用し、ネットワーク経由で PXE サーバーから起動します。

RHVH は Red Hat Enterprise Linux とほぼ同じ方法でインストールされるので、キックスタートファイルを使用し PXE サーバーからインストールする手順の概要については、『Red Hat Enterprise Linux インストールガイド』を参照してください。RHVH に固有の手順 (たとえば、Red Hat Satellite を使用した RHVH のデプロイメント) については、この後に説明します。

RHVH の自動デプロイメントは、以下の 3 つのステージで構成されます。

6.1.3.2.1. インストール環境の準備
  1. カスタマーポータル にログインします。
  2. メニューバーの ダウンロード をクリックします。
  3. Red Hat Virtualization をクリックします。スクロールアップし、最新の Red Hat Virtualization 4.3 Host and Manager のダウンロード をクリックして製品のダウンロードページに移動します。
  4. Hypervisor Image for RHV 4.3 に移動し、今すぐダウンロードする をクリックします。
  5. RHVH ISO イメージをネットワーク経由で提供できるようにします。『Red Hat Enterprise Linux インストールガイド』「インストールソース - ネットワーク」を参照してください。
  6. RHVH ISO から squashfs.img ハイパーバイザーイメージファイルを抽出します。

    # mount -o loop /path/to/RHVH-ISO /mnt/rhvh
    # cp /mnt/rhvh/Packages/redhat-virtualization-host-image-update* /tmp
    # cd /tmp
    # rpm2cpio redhat-virtualization-host-image-update* | cpio -idmv
    注記

    /tmp/usr/share/redhat-virtualization-host/image/ ディレクトリーに格納された squashfs.img ファイルの名前は、redhat-virtualization-host-version_number_version.squashfs.img です。物理マシンにインストールするためのハイパーバイザーイメージが含まれます。/LiveOS/squashfs.img ファイルとは混同しないでください。これは、Anaconda inst.stage2 オプションに使用されます。

6.1.3.2.2. PXE サーバーおよびブートローダーの設定
  1. PXE サーバーを設定します。『Red Hat Enterprise Linux インストールガイド』「ネットワークからのインストールの準備」を参照してください。
  2. RHVH 起動イメージを /tftpboot ディレクトリーにコピーします。

    # cp mnt/rhvh/images/pxeboot/{vmlinuz,initrd.img} /var/lib/tftpboot/pxelinux/
  3. rhvh ラベルを作成し、ブートローダー設定で RHVH 起動イメージを指定します。

    LABEL rhvh
    MENU LABEL Install Red Hat Virtualization Host
    KERNEL /var/lib/tftpboot/pxelinux/vmlinuz
    APPEND initrd=/var/lib/tftpboot/pxelinux/initrd.img inst.stage2=URL/to/RHVH-ISO

    Red Hat Satellite からの情報を使用してホストをプロビジョニングする場合には、グローバルまたはホストグループレベルのパラメーターを作成し (ここでは rhvh_image)、ISO をマウントまたは抽出するディレクトリーの URL を定義する必要があります。

    <%#
    kind: PXELinux
    name: RHVH PXELinux
    %>
    # Created for booting new hosts
    #
    
    DEFAULT rhvh
    
    LABEL rhvh
    KERNEL <%= @kernel %>
    APPEND initrd=<%= @initrd %> inst.ks=<%= foreman_url("provision") %> inst.stage2=<%= @host.params["rhvh_image"] %> intel_iommu=on console=tty0 console=ttyS1,115200n8 ssh_pwauth=1 local_boot_trigger=<%= foreman_url("built") %>
    IPAPPEND 2
  4. RHVH ISO の内容をローカルで利用可能な状態にし、たとえば HTTPD サーバーを使用してネットワークにエクスポートします。

    # cp -a /mnt/rhvh/ /var/www/html/rhvh-install
    # curl URL/to/RHVH-ISO/rhvh-install
6.1.3.2.3. キックスタートファイルの作成と実行
  1. キックスタートファイルを作成し、ネットワーク経由で提供できるようにします。『Red Hat Enterprise Linux インストールガイド』「キックスタートを使ったインストール」を参照してください。
  2. キックスタートファイルは以下に示す RHV 固有の要件を満たす必要があります。

    • %packages セクションは、RHVH には必要ありません。代わりに、liveimg オプションを使用して、RHVH ISO イメージからの redhat-virtualization-host-version_number_version.squashfs.img ファイルを指定します。

      liveimg --url=example.com/tmp/usr/share/redhat-virtualization-host/image/redhat-virtualization-host-version_number_version.squashfs.img
    • 自動パーティション設定を強く推奨します。

      autopart --type=thinp
      注記

      自動パーティション設定では、シンプロビジョニングを使用する必要があります。

      /home は必須のディレクトリーなので、RHVH では --no-home オプションは機能しません。

      インストールで手動パーティション設定が必要な場合は、「カスタムパーティション設定」でパーティション設定に適用される制限およびキックスタートファイルでの手動パーティション設定の例を確認してください。

    • nodectl init コマンドを呼び出す %post セクションが必要です。

      %post
      nodectl init
      %end

      このキックスタートの例は、RHVH のデプロイ方法を示したものです。必要に応じて、さらにコマンドとオプションを追加してください。

      liveimg --url=http://FQDN/tmp/usr/share/redhat-virtualization-host/image/redhat-virtualization-host-version_number_version.squashfs.img
      clearpart --all
      autopart --type=thinp
      rootpw --plaintext ovirt
      timezone --utc America/Phoenix
      zerombr
      text
      
      reboot
      
      %post --erroronfail
      nodectl init
      %end

      このキックスタートの例では、Red Hat Satellite からの情報を使用してホストネットワークを設定し、ホストを Satellite サーバーに登録します。グローバルまたはホストグループレベルのパラメーターを作成し (ここでは rhvh_image)、squashfs.img ファイルを格納するディレクトリーの URL を定義する必要があります。ntp_server1 もグローバルまたはホストグループレベルの変数です。

      <%#
      kind: provision
      name: RHVH Kickstart default
      oses:
      - RHVH
      %>
      install
      liveimg --url=<%= @host.params['rhvh_image'] %>squashfs.img
      
      network --bootproto static --ip=<%= @host.ip %> --netmask=<%= @host.subnet.mask %> --gateway=<%= @host.subnet.gateway %> --nameserver=<%= @host.subnet.dns_primary %> --hostname <%= @host.name %>
      
      zerombr
      clearpart --all
      autopart --type=thinp
      
      rootpw --iscrypted <%= root_pass %>
      
      # installation answers
      lang en_US.UTF-8
      timezone <%= @host.params['time-zone'] || 'UTC' %>
      keyboard us
      firewall --service=ssh
      services --enabled=sshd
      
      text
      reboot
      
      %post --log=/root/ks.post.log --erroronfail
      nodectl init
      <%= snippet 'subscription_manager_registration' %>
      <%= snippet 'kickstart_networking_setup' %>
      /usr/sbin/ntpdate -sub <%= @host.params['ntp_server1'] || '0.fedora.pool.ntp.org' %>
      /usr/sbin/hwclock --systohc
      
      /usr/bin/curl <%= foreman_url('built') %>
      
      sync
      systemctl reboot
      %end
  3. キックスタートファイルの場所を、PXE サーバーのブートローダー設定ファイルに追加します。

    APPEND initrd=/var/tftpboot/pxelinux/initrd.img inst.stage2=_URL/to/RHVH-ISO_ inst.ks=_URL/to/RHVH-ks_.cfg
  4. 『Red Hat Enterprise Linux インストールガイド』「PXE を使ってネットワークからインストールプログラムを起動する」の手順に従って、RHVH をインストールします。

6.2. Red Hat Enterprise Linux ホスト

6.2.1. Red Hat Enterprise Linux ホストのインストール

Red Hat Enterprise Linux ホストは、Red Hat Enterprise Linux Server および Red Hat Virtualization のサブスクリプションがアタッチされた、物理サーバー上の Red Hat Enterprise Linux 7 の標準的な基本インストールをベースにしています。

詳細なインストール手順は、『Red Hat Enterprise Linux 7 インストールガイド』を参照してください。

ホストは最低限の ホスト要件 を満たしている必要があります。

重要

ホストの BIOS 設定で仮想化が有効になっている必要があります。ホストの BIOS 設定の変更に関する情報については、そのホストのハードウェアのマニュアルを参照してください。

重要

サードパーティー製のウォッチドッグは、VDSM によって提供される watchdog デーモンを妨げる可能性があるので、Red Hat Enterprise Linux ホストにはインストールすべきではありません。

6.2.2. Red Hat Enterprise Linux ホストリポジトリーの有効化

Red Hat Enterprise Linux マシンをホストとして使用するには、システムをコンテンツ配信ネットワークに登録し、Red Hat Enterprise Linux Server および Red Hat Virtualization サブスクリプションをアタッチし、ホストのリポジトリーを有効にする必要があります。

手順

  1. コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。

    # subscription-manager register
  2. Red Hat Enterprise Linux Server および Red Hat Virtualization のサブスクリプションプールを探し、プール ID を記録しておきます。

    # subscription-manager list --available
  3. 上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。

    # subscription-manager attach --pool=poolid
    注記

    現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。

    # subscription-manager list --consumed

    有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。

    # yum repolist
  4. リポジトリーを設定します。

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rpms \
        --enable=rhel-7-server-rhv-4-mgmt-agent-rpms \
        --enable=rhel-7-server-ansible-2-rpms

    IBM POWER8 (リトルエンディアン) ハードウェアに Red Hat Enterprise Linux 7 ホストをインストールする場合:

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-le-rpms \
        --enable=rhel-7-for-power-le-rpms

    IBM POWER9 (リトルエンディアン) ハードウェアに Red Hat Enterprise Linux 7 ホストをインストールする場合:

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-9-rpms \
        --enable=rhel-7-for-power-9-rpms
  5. 現在インストールされている全パッケージを最新の状態にします。

    # yum update
  6. マシンを再起動します。

6.2.3. Red Hat Enterprise Linux ホストへの Cockpit のインストール

ホストのリソースの監視および管理タスクの実施のために、Cockpit をインストールすることができます。

手順

  1. dashboard パッケージをインストールします。

    # yum install cockpit-ovirt-dashboard
  2. cockpit.socket サービスを有効にし、さらにサービスを起動します。

    # systemctl enable cockpit.socket
    # systemctl start cockpit.socket
  3. ファイアウォールで Cockpit がアクティブなサービスかどうかを確認します。

    # firewall-cmd --list-services

    一覧に cockpit が表示されているはずです。表示されていない場合には、root 権限で以下のコマンドを入力し、cockpit をサービスとしてファイアウォールに追加します。

    # firewall-cmd --permanent --add-service=cockpit

    --permanent オプションにより、cockpit サービスは再起動後もアクティブな状態を維持します。

https://HostFQDNorIP:9090 から Cockpit Web インターフェースにログインすることができます。

6.4. Red Hat Virtualization Manager へのセルフホストエンジンノードの追加

セルフホストエンジンノードは、通常のホストと同じ方法で追加することができますが、セルフホストエンジンノードとしてホストをデプロイするという追加のステップが必要です。共有ストレージドメインは自動的に検出され、ノードは必要に応じて Manager 用仮想マシンをホストするフェイルオーバー用ホストとして使用することができます。セルフホストエンジン環境に通常のホストをアタッチすることもできますが、Manager 用仮想マシンをホストすることはできません。Red Hat では、Manager 用仮想マシンの高可用性を確保するために、セルフホストエンジンノードを最低でも 2 つ用意することを強く推奨します。追加ホストは、REST API を使用して追加することもできます。『REST API Guide』「Hosts」を参照してください。

前提条件

重要

静的 IPv6 アドレスを使用する管理ブリッジを作成する場合には、ホストを追加する前にネットワークマネージャーの制御をそのインターフェース設定 (ifcfg) ファイルで無効にします。詳しい情報は、「[RHV 4.3] Static IPv6 Address is lost on host deploy if NM manages the interface」を参照してください。

手順

  1. 管理ポータルで コンピュートホスト をクリックします。
  2. 新規作成 をクリックします。

    ホスト設定に関する追加情報は『Administration Guide』「Explanation of Settings and Controls in the New Host and Edit Host Windows」を参照してください。

  3. ドロップダウンリストを使用して、新規ホスト用の データセンター および ホストクラスター を選択します。
  4. 新規ホストの 名前ホスト名 を入力します。SSH ポート フィールドには、標準の SSH ポートであるポート 22 が自動入力されます。
  5. Manager がホストにアクセスするために使用する認証メソッドを選択します。

    • パスワード認証を使用するには、root ユーザーのパスワードを入力します。
    • または、SSH 公開鍵 フィールドに表示される鍵をホスト上の /root/.ssh/authorized_keys にコピーして、公開鍵認証を使用します。
  6. ホストにサポート対象の電源管理カードが搭載されている場合には、オプションとして電源管理を設定することができます。電源管理の設定に関する情報については、『Administration Guide』「Host Power Management Settings Explained」を参照してください。
  7. ホストエンジン タブをクリックします。
  8. デプロイ を選択します。
  9. OK をクリックします。

6.5. Red Hat Virtualization Manager への通常ホストの追加

Red Hat Virtualization 環境にホストを追加するには、仮想化のチェック、パッケージのインストール、およびブリッジの作成の各ステップをプラットフォームで完了する必要があるため、多少時間がかかります。

重要

静的 IPv6 アドレスを使用する管理ブリッジを作成する場合には、ホストを追加する前にネットワークマネージャーの制御をそのインターフェース設定 (ifcfg) ファイルで無効にします。詳しい情報は、「[RHV 4.3] Static IPv6 Address is lost on host deploy if NM manages the interface」を参照してください。

手順

  1. 管理ポータルから コンピュートホスト をクリックします。
  2. 新規作成 をクリックします。
  3. ドロップダウンリストを使用して、新規ホスト用の データセンター および ホストクラスター を選択します。
  4. 新規ホストの 名前ホスト名 を入力します。SSH ポート フィールドには、標準の SSH ポートであるポート 22 が自動入力されます。
  5. Manager がホストにアクセスするために使用する認証メソッドを選択します。

    • パスワード認証を使用するには、root ユーザーのパスワードを入力します。
    • または、SSH 公開鍵 フィールドに表示される鍵をホスト上の /root/.ssh/authorized_keys にコピーして、公開鍵認証を使用します。
  6. オプションとして、詳細パラメーター ボタンをクリックして、以下に示すホストの詳細設定を変更します。

    • ファイアウォールの自動設定を無効にする。
    • ホストの SSH フィンガープリントを追加し、セキュリティーを強化する。手動での追加または自動取得が可能です。
  7. ホストにサポート対象の電源管理カードが搭載されている場合には、オプションとして電源管理を設定することができます。電源管理の設定に関する情報については、『Administration Guide』「Host Power Management Settings Explained」を参照してください。
  8. OK をクリックします。

新規ホストが Installing のステータスでホスト一覧に表示され、通知ドロワー ( EventsIcon ) の イベント セクションでインストールの進捗状況を確認することができます。しばらくすると、ホストのステータスが Up に変わります。

第7章 Red Hat Virtualization 用ストレージの追加

新たな環境にデータドメインとしてストレージを追加します。Red Hat Virtualization 環境には少なくとも 1 つのデータドメインが必要ですが、さらに追加することを推奨します。

前の手順で準備したストレージを追加します。

重要

iSCSI ストレージを使用する場合には、新しいデータドメインはセルフホストエンジン用ストレージドメインと同じ iSCSI ターゲットを使用することはできません。

警告

セルフホストエンジン用ストレージドメインと同じデータセンター内に追加のデータドメインを作成することを強く推奨します。セルフホストエンジンをデータセンター内にデプロイする際に、アクティブなデータストレージドメインを 1 つしか用意しないと、そのストレージドメインが破損した場合に、新たなストレージドメインを追加することや破損したストレージドメインを削除することができません。セルフホストエンジンを再デプロイしなければなりません。

7.1. NFS ストレージの追加

この手順では、既存の NFS ストレージをデータドメインとして Red Hat Virtualization 環境にアタッチする方法について説明します。

ISO またはエクスポートドメインが必要な場合にも、この手順を使用します。ただし、ドメイン機能 の一覧から ISO または エクスポート を選択します。

手順

  1. 管理ポータルで ストレージドメイン をクリックします。
  2. 新規ドメイン をクリックします。
  3. ストレージドメインの 名前 を入力します。
  4. データセンタードメイン機能ストレージタイプ形式、および 使用するホスト のデフォルト値をそのまま使用します。
  5. ストレージドメインに使用する エクスポートパス を入力します。エクスポートパスは、123.123.0.10:/data (IPv4 の場合)、[2001:0:0:0:0:0:0:5db1]:/data (IPv6 の場合)、または domain.example.com:/data の形式で指定する必要があります。
  6. オプションで、詳細パラメーターを設定することが可能です。

    1. 詳細パラメーター をクリックします。
    2. 容量不足の警告 のフィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告のメッセージが表示され、ログに記録されます。
    3. アクションをブロックする深刻な容量不足 のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
    4. 削除後にワイプするオプションを有効にするには、削除後にワイプ チェックボックスを選択します。このオプションは、ドメインの作成後に編集することが可能ですが、その場合にはすでに存在していたディスクの「削除後にワイプ」プロパティーは変更されません。
  7. OK をクリックします。

ディスクの準備が完了するまで新規 NFS データドメインのステータスは ロック と表示され、その後データセンターに自動的にアタッチされます。

7.2. iSCSI ストレージの追加

この手順では、既存の iSCSI ストレージをデータドメインとして Red Hat Virtualization 環境にアタッチする方法について説明します。

手順

  1. ストレージドメイン をクリックします。
  2. 新規ドメイン をクリックします。
  3. 新規ストレージドメインの 名前 を入力します。
  4. ドロップダウンリストから データセンター を選択します。
  5. ドメイン機能データ を、ストレージタイプiSCSI を、それぞれ選択します。
  6. 使用するホスト にアクティブなホストを選択します。

    重要

    ストレージドメインへの通信は、直接 Manager からではなく、選択したホストを介して行われます。したがって、ストレージドメインを設定する前には、全ホストがストレージデバイスにアクセスできる状態でなければなりません。

  7. Manager は iSCSI ターゲットを LUN に、または LUN を iSCSI ターゲットにマッピングすることができます。新規ドメイン ウィンドウでストレージタイプに iSCSI を選択すると、未使用の LUN が割り当てられた既知のターゲットが自動的に表示されます。ストレージを追加するのに使用するターゲットが表示されない場合には、ターゲットの検出機能を使用して検索することができます。表示されている場合には、次の手順に進んでください。

    1. ターゲットを検出 をクリックし、ターゲットの検出オプションを有効にします。Manager がターゲットを検出してログインすると、新規ドメイン ウィンドウに、その環境では未使用の LUN が割り当てられたターゲットが自動的に表示されます。

      注記

      環境の外部で使用されている LUN も表示されます。

      ターゲットを検出 のオプションを使用すると、多数のターゲットの LUN を追加したり、同じ LUN に複数のパスを追加したりすることができます。

    2. アドレス フィールドに iSCSI ホストの完全修飾ドメイン名または IP アドレスを入力します。
    3. ポート フィールドには、ターゲットを参照する際にホストに接続するポートを入力します。デフォルトは 3260 です。
    4. ストレージのセキュリティー保護に CHAP を使用している場合は、ユーザー認証 のチェックボックスを選択します。CHAP のユーザー名CHAP のパスワード を入力してください。

      注記

      REST API を使用して、特定ホストの iSCSI ターゲットに認証情報を定義することができます。詳しくは、『REST API Guide』「StorageServerConnectionExtensions: add」を参照してください。

    5. 検出 をクリックします。
    6. 検出結果から 1 つまたは複数のターゲットを選択し、各ターゲットの ログイン をクリックします。あるいは、全ターゲットにログイン をクリックします。

      重要

      複数のパスのアクセスが必要な場合には、すべての必要なパスを通してターゲットを検出してログインするようにしてください。ストレージドメインを変更してさらにパスを追加する方法は、現在サポートされていません。

  8. 対象のターゲットの横に表示されている + ボタンをクリックします。エントリーが展開され、ターゲットにアタッチされている未使用の LUN がすべて表示されます。
  9. ストレージドメインの作成に使用する各 LUN のチェックボックスにチェックを入れます。
  10. オプションで、詳細パラメーターを設定することが可能です。

    1. 詳細パラメーター をクリックします。
    2. 容量不足の警告 のフィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告のメッセージが表示され、ログに記録されます。
    3. アクションをブロックする深刻な容量不足 のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
    4. 削除後にワイプするオプションを有効にするには、削除後にワイプ チェックボックスを選択します。このオプションは、ドメインの作成後に編集することが可能ですが、その場合にはすでに存在していたディスクの「削除後にワイプ」プロパティーは変更されません。
    5. 削除後に破棄 チェックボックスを選択して、削除後に破棄のオプションを有効化します。このオプションは、ドメインの作成後に編集できます。また、このオプションを利用できるのは、ブロックストレージドメインのみです。
  11. OK をクリックします。

同じターゲットに対して複数のストレージ接続パスを設定している場合には、『Administration Guide』の「Configuring iSCSI Multipathing」に記載の手順に従って、iSCSI のボンディング設定を完了してください。

現在のストレージネットワークを iSCSI ボンディングに移行するには、『Administration Guide』の「Migrating a Logical Network to an iSCSI Bond」を参照してください。

7.3. FCP ストレージの追加

この手順では、既存の FCP ストレージをデータドメインとして Red Hat Virtualization 環境にアタッチする方法について説明します。

手順

  1. ストレージドメイン をクリックします。
  2. 新規ドメイン をクリックします。
  3. ストレージドメインの 名前 を入力します。
  4. ドロップダウンリストから FCP データセンター を選択します。

    適切な FCP データセンターがない場合には (none) を選択します。

  5. ドロップダウンリストから ドメイン機能 および ストレージタイプ を選択します。選択したデータセンターとの互換性がないストレージドメインタイプは選択できません。
  6. 使用するホスト のフィールドでアクティブなホストを 1 台選択します。データセンターで初めて作成するデータドメインでなければ、そのデータセンターの SPM ホストを選択する必要があります。

    重要

    ストレージドメインへの通信はすべて、Red Hat Virtualization Manager から直接ではなく、選択したホストを介して行われます。システムには、アクティブなホストが少なくとも 1 台存在し、選択したデータセンターにアタッチされている必要があります。ストレージドメインを設定する前には、全ホストがストレージデバイスにアクセスできる状態でなければなりません。

  7. 新規ドメイン ウィンドウで、ストレージタイプに ファイバーチャネル を選択した場合は、未使用の LUN が割り当てられた既知のターゲットが自動的に表示されます。LUN ID チェックボックスを選択し、使用可能な LUN をすべて選択します。
  8. オプションで、詳細パラメーターを設定することが可能です。

    1. 詳細パラメーター をクリックします。
    2. 容量不足の警告 のフィールドに、パーセンテージ値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーに警告のメッセージが表示され、ログに記録されます。
    3. アクションをブロックする深刻な容量不足 のフィールドに GB 単位で値を入力します。ストレージドメインの空き容量がこの値を下回ると、ユーザーにエラーメッセージが表示され、ログに記録されます。容量を消費する新規アクションは、一時的であってもすべてブロックされます。
    4. 削除後にワイプするオプションを有効にするには、削除後にワイプ チェックボックスを選択します。このオプションは、ドメインの作成後に編集することが可能ですが、その場合にはすでに存在していたディスクの「削除後にワイプ」プロパティーは変更されません。
    5. 削除後に破棄 チェックボックスを選択して、削除後に破棄のオプションを有効化します。このオプションは、ドメインの作成後に編集できます。また、このオプションを利用できるのは、ブロックストレージドメインのみです。
  9. OK をクリックします。

使用準備中、新規 FCP データドメインは ロック のステータスとなります。準備が整った時点で、自動的にデータセンターにアタッチされます。

7.4. Red Hat Gluster Storage の追加

Red Hat Virtualization で Red Hat Gluster Storage を使用するには、『Configuring Red Hat Virtualization with Red Hat Gluster Storage』を参照してください。

Red Hat Virtualization でサポートされる Red Hat Gluster Storage のバージョンについては、「Red Hat Gluster Storage Version Compatibility and Support」を参照してください。

重要

Red Hat Virtualization 4.3 では、現在 Red Hat ハイパーコンバージドインフラストラクチャーはサポートされていません。

付録A セルフホストエンジンのデプロイメントのトラブルシューティング

セルフホストエンジンがすでにデプロイされているかどうかを確認するには、hosted-engine --check-deployed を実行します。セルフホストエンジンがデプロイされていない場合にだけ、エラーが表示されます。

A.1. Manager 用仮想マシンのトラブルシューティング

hosted-engine --vm-status を実行して Manager 用仮想マシンのステータスを確認します。

注記

Manager 用仮想マシンに加えた変更がステータスコマンドの出力に反映されるには、20 秒ほどかかります。

出力の Engine status ごとに、問題を特定または解決するためのアドバイスを以下に示します。

Engine status: "health": "good", "vm": "up", "detail": "up"

  1. Manager 用仮想マシンが通常通りに稼働中の場合には、以下のような出力が表示されます。

    --== Host 1 status ==--
    
    Status up-to-date              : True
    Hostname                       : hypervisor.example.com
    Host ID                        : 1
    Engine status                  : {"health": "good", "vm": "up", "detail": "up"}
    Score                          : 3400
    stopped                        : False
    Local maintenance              : False
    crc32                          : 99e57eba
    Host timestamp                 : 248542
  2. 出力は正常だが Manager に接続することができない場合は、ネットワーク接続を確認してください。

Engine status: "reason": "failed liveliness check", "health": "bad", "vm": "up", "detail": "up"

  1. healthbadvmup の場合、HA サービスは Manager 用仮想マシンを再起動して Manager の復旧を試みます。数分で復旧しない場合は、コマンドラインからグローバルメンテナンスモードを有効にして、ホストを HA サービスの管理対象外にします。

    # hosted-engine --set-maintenance --mode=global
  2. コンソールに接続します。プロンプトが表示されたら、オペレーティングシステムの root パスワードを入力します。コンソールのオプションについての詳しい説明は、「How to access Hosted Engine VM console from RHEV-H host?」を参照してください。

    # hosted-engine --console
  3. Manager 用仮想マシンにログインして、オペレーティングシステムが動作していることを確認します。
  4. ovirt-engine サービスのステータスを確認します。

    # systemctl status -l ovirt-engine
    # journalctl -u ovirt-engine
  5. ログ /var/log/messages/var/log/ovirt-engine/engine.log、および /var/log/ovirt-engine/server.log を確認します。
  6. 問題を解決したら、セルフホストエンジンノードのいずれかから、手動で Manager 用仮想マシンを再起動します。

    # hosted-engine --vm-shutdown
    # hosted-engine --vm-start
    注記

    セルフホストエンジンノードがグローバルメンテナンスモードにある場合は、Manager 用仮想マシンを手動で再起動する必要があります。コマンドラインから reboot コマンドを送信して Manager 用仮想マシンを再起動しようとしても、設計上 Manager 用仮想マシンは電源オフのままです。

  7. Manager 用仮想マシンで ovirt-engine サービスが稼働中であることを確認します。

     # systemctl status ovirt-engine.service
  8. Manager 用仮想マシンが稼働中であることを確認した後には、コンソールセッションを終了して、メンテナンスモードを無効にし、HA サービスを再び有効にします。

    # hosted-engine --set-maintenance --mode=none

Engine status: "vm": "down", "health": "bad", "detail": "unknown", "reason": "vm not running on this host"

  1. 環境内に複数のホストがある場合は、現在別のホストが Manager 用仮想マシンの再起動を試みていないことを確認します。
  2. グローバルメンテナンスモードにないことを確認します。
  3. /var/log/ovirt-hosted-engine-ha/agent.logovirt-ha-agent のログを確認します。
  4. セルフホストエンジンノードのいずれかから、手動で Manager 用仮想マシンの再起動を試みます。

    # hosted-engine --vm-shutdown
    # hosted-engine --vm-start

Engine status: "vm": "unknown", "health": "unknown", "detail": "unknown", "reason": "failed to getVmStats"

このステータスは、ovirt-ha-agent が VDSM から仮想マシンの詳細を取得できなかったことを意味しています。

  1. /var/log/vdsm/vdsm.log で VDSM のログを確認します。
  2. /var/log/ovirt-hosted-engine-ha/agent.logovirt-ha-agent のログを確認します。

Engine status: セルフホストエンジンの設定が共有ストレージから取得されていない

ステータスが The hosted engine configuration has not been retrieved from shared storage. Please ensure that ovirt-ha-agent is running and the storage server is reachable と表示される場合は、ovirt-ha-agent サービスもしくはストレージ (またはその両方) に問題があります。

  1. ホストの ovirt-ha-agent のステータスを確認します。

    # systemctl status -l ovirt-ha-agent
    # journalctl -u ovirt-ha-agent
  2. ovirt-ha-agent が停止状態の場合は、再起動します。

    # systemctl start ovirt-ha-agent
  3. /var/log/ovirt-hosted-engine-ha/agent.logovirt-ha-agent のログを確認します。
  4. 共有ストレージに ping を送信できることを確認します。
  5. 共有ストレージがマウントされているかどうかを確認します。

その他のトラブルシューティング用コマンド

重要

以下のコマンドのいずれかを実行してセルフホストエンジン環境のトラブルシューティングを行う必要がある場合には、Red Hat サポートまでご連絡ください。

  • hosted-engine --reinitialize-lockspace: このコマンドは、sanlock ロックスペースが壊れている場合に使用します。sanlock ロックスペースを再初期化する前に、グローバルメンテナンスモードが有効で Manager 用仮想マシンが停止していることを確認してください。
  • hosted-engine --clean-metadata: ホストのエージェントのメタデータをグローバルステータスデータベースから削除します。これにより、他のホストではすべて、このホストについての情報はなくなります。ターゲットのホストが停止状態でグローバルメンテナンスモードが有効であることを確認してください。
  • hosted-engine --check-liveliness: このコマンドは、ovirt-engine サービスの liveliness ページを確認します。また、Web ブラウザーで https://engine-fqdn/ovirt-engine/services/health/ に接続して確認することもできます。
  • hosted-engine --connect-storage: このコマンドは、ホストと Manager 用仮想マシンに必要な全ストレージ接続の準備をするように VDSM に指示します。これは通常、セルフホストエンジンのデプロイ中にバックエンドで実行します。このコマンドを実行してストレージの問題のトラブルシューティングを行う必要がある場合には、グローバルメンテナンスモードを必ず有効にしてください。

A.2. 失敗したセルフホストエンジンのデプロイメントのクリーンアップ

セルフホストエンジンのデプロイが中断された場合には、その後のデプロイメントは失敗して、エラーメッセージが表示されます。このエラーはデプロイメントが失敗した段階によって異なります。

エラーメッセージが表示された場合には、デプロイメントホストでクリーンアップスクリプトを実行して、失敗したデプロイメントをクリーンアップすることができます。ただし、ベースのオペレーティングシステムを再インストールして、デプロイメントを最初からやり直すのが最良の手段です。

注記

クリーンアップスクリプトには、以下の制約があります。

  • スクリプトの実行中にネットワークの接続が中断すると、スクリプトによる管理ブリッジの削除や作業用ネットワーク設定の再作成に失敗する場合がある。
  • スクリプトでは、失敗したデプロイメント中に使用された共有ストレージデバイスをクリーンアップすることができない。以降のデプロイメントで再使用するには、共有ストレージデバイスをクリーンアップする必要があります。

手順

  1. /usr/sbin/ovirt-hosted-engine-cleanup を実行して y を選択し、失敗したセルフホストエンジンのデプロイメントで残された項目を削除します。

    # /usr/sbin/ovirt-hosted-engine-cleanup
    This will de-configure the host to run ovirt-hosted-engine-setup from scratch.
    Caution, this operation should be used with care.
    Are you sure you want to proceed? [y/n]
  2. 同じ共有ストレージデバイスに再インストールするか、異なる共有ストレージデバイスを選択するかを定義します。

    • 同じストレージドメインにインストール環境をデプロイする場合には、NFS、Gluster、PosixFS サーバーまたはローカルストレージドメインの適切なディレクトリーで以下のコマンドを実行し、そのストレージドメインをクリーンアップします。

      # rm -rf storage_location/*
    • iSCSI またはファイバーチャネルプロトコル (FCP) のストレージの場合には、「How to Clean Up a Failed Self-hosted Engine Deployment?」でストレージのクリーンアップ方法を参照してください。
    • または、別の共有ストレージデバイスを選択します。
  3. セルフホストエンジンを再デプロイします。

付録B リモートサーバーへのデータベースおよびサービスの移行

自動化されたインストール中にリモートデータベースおよびサービスを設定することはできませんが、インストール後に別のサーバーに移行することができます。

B.1. リモートサーバーへのセルフホストエンジンデータベースの移行

Red Hat Virtualization Manager の初期設定の後に、セルフホストエンジンの engine データベースをリモートのデータベースサーバーに移行することができます。engine-backup を使用してデータベースのバックアップを作成し、それを新しいデータベースサーバーで復元します。

新しいデータベースサーバーに Red Hat Enterprise Linux 7 をインストールし、必要なリポジトリーを有効にする必要があります。

Red Hat Virtualization Manager リポジトリーの有効化

Red Hat Subscription Manager でシステムを登録し、Red Hat Virtualization Manager のサブスクリプションをアタッチし、Manager のリポジトリーを有効にします。

手順

  1. コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。

    # subscription-manager register
    注記

    IPv6 ネットワークを使用していて IPv6 から IPv4 への (6to4) リレーを使用することができない、または使用する必要がある場合には、--baseurl オプションを追加して IPv6 互換の CDN ホストを使用することができます (subscription-manager register --baseurl=https://cdn6.redhat.com)。

  2. Red Hat Virtualization Manager のサブスクリプションプールを探し、プール ID を記録しておきます。

    # subscription-manager list --available
  3. 上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。

    # subscription-manager attach --pool=pool_id
    注記

    現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。

    # subscription-manager list --consumed

    有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。

    # yum repolist
  4. リポジトリーを設定します。

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rpms \
        --enable=rhel-7-server-supplementary-rpms \
        --enable=rhel-7-server-rhv-4.3-manager-rpms \
        --enable=rhel-7-server-rhv-4-manager-tools-rpms \
        --enable=rhel-7-server-ansible-2-rpms \
        --enable=jb-eap-7.2-for-rhel-7-server-rpms

リモートサーバーへのセルフホストエンジンデータベースの移行

  1. セルフホストエンジンノードにログインして、環境を global メンテナンスモードに指定します。これにより、高可用性エージェントを無効化して、この手順の実行中に Manager 用仮想マシンが移行されないようにします。

    # hosted-engine --set-maintenance --mode=global
  2. Red Hat Virtualization Manager マシンにログインして ovirt-engine サービスを停止し、engine のバックアップを干渉しないようにします。

    # systemctl stop ovirt-engine.service
  3. engine データベースのバックアップを作成します。

    # engine-backup --scope=files --scope=db --mode=backup --file=file_name --log=backup_log_name
  4. バックアップファイルを新規データベースサーバーにコピーします。

    # scp /tmp/engine.dump root@new.database.server.com:/tmp
  5. 新規データベースにログインして engine-backup をインストールします。

    # yum install ovirt-engine-tools-backup
  6. 新規データベースサーバーにデータベースを復元します。file_name は、Manager からコピーしたバックアップファイルに置き換えてください。

    # engine-backup --mode=restore --scope=files --scope=db --file=file_name --log=restore_log_name --provision-db --no-restore-permissions
  7. データベースが移行されたので、ovirt-engine サービスを起動します。

    # systemctl start ovirt-engine.service
  8. セルフホストエンジンノードにログインして、メンテナンスモードをオフにして、高可用性エージェントを有効にします。

    # hosted-engine --set-maintenance --mode=none

B.2. 別のマシンへの Data Warehouse の移行

Data Warehouse サービスを Red Hat Virtualization Manager マシンから別のマシンに移行します。Data Warehouse サービスを別のマシンでホストすることで、各個別マシンの負荷が削減され、各サービスが CPU やメモリーを他のプロセスと共有することで競合が生じる可能性がなくなります。

Data Warehouse サービスを移行し、既存の Data Warehouse データベース (ovirt_engine_history) に接続します。あるいはオプションとして、Data Warehouse サービスを移行する前に Data Warehouse データベースを別のマシンに移行します。Data Warehouse データベースが Manager マシンでホストされている場合には、Data Warehouse サービスに加えてデータベースを移行することで、Manager マシンでのリソースの競合がさらに減少します。Data Warehouse サービスの移行先と同じマシンにデータベースを移行することも、Manager マシンや Data Warehouse サービス用の新たなマシンとは別のマシンにデータベースを移行することもできます。

B.2.1. 別のマシンへの Data Warehouse データベースの移行

Data Warehouse サービスを移行する前に、Data Warehouse データベース (ovirt_engine_history) を移行します。engine-backup を使用してデータベースのバックアップを作成し、それを新しいデータベースマシンで復元します。engine-backup の詳細を確認するには、engine-backup --help を実行します。

Data Warehouse サービスだけを移行するには、「別のマシンへの Data Warehouse サービスの移行」を参照してください。

新しいデータベースサーバーに Red Hat Enterprise Linux 7 をインストールし、必要なリポジトリーを有効にする必要があります。

Red Hat Virtualization Manager リポジトリーの有効化

Red Hat Subscription Manager でシステムを登録し、Red Hat Virtualization Manager のサブスクリプションをアタッチし、Manager のリポジトリーを有効にします。

手順

  1. コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。

    # subscription-manager register
    注記

    IPv6 ネットワークを使用していて IPv6 から IPv4 への (6to4) リレーを使用することができない、または使用する必要がある場合には、--baseurl オプションを追加して IPv6 互換の CDN ホストを使用することができます (subscription-manager register --baseurl=https://cdn6.redhat.com)。

  2. Red Hat Virtualization Manager のサブスクリプションプールを探し、プール ID を記録しておきます。

    # subscription-manager list --available
  3. 上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。

    # subscription-manager attach --pool=pool_id
    注記

    現在アタッチされているサブスクリプションを表示するには、以下のコマンドを実行します。

    # subscription-manager list --consumed

    有効なリポジトリーをすべて一覧表示するには、以下のコマンドを実行します。

    # yum repolist
  4. リポジトリーを設定します。

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rpms \
        --enable=rhel-7-server-supplementary-rpms \
        --enable=rhel-7-server-rhv-4.3-manager-rpms \
        --enable=rhel-7-server-rhv-4-manager-tools-rpms \
        --enable=rhel-7-server-ansible-2-rpms \
        --enable=jb-eap-7.2-for-rhel-7-server-rpms
別のマシンへの Data Warehouse データベースの移行
  1. Data Warehouse データベースおよび設定ファイルのバックアップを作成します。

    # engine-backup --mode=backup --scope=dwhdb --scope=files --file=file_name --log=log_file_name
  2. そのバックアップファイルを Manager マシンから新たなマシンにコピーします。

    # scp /tmp/file_name root@new.dwh.server.com:/tmp
  3. 新たなマシンに engine-backup をインストールします。

    # yum install ovirt-engine-tools-backup
  4. 新たなマシンに Data Warehouse データベースを復元します。file_name は、Manager マシンからコピーしたバックアップファイルに置き換えてください。

    # engine-backup --mode=restore --scope=files --scope=dwhdb --file=file_name --log=log_file_name --provision-dwh-db --no-restore-permissions

これで、Manager がホストされるマシンとは別のマシンで、Data Warehouse データベースがホストされるようになりました。Data Warehouse サービスを移行して移行を完了します。

B.2.2. 別のマシンへの Data Warehouse サービスの移行

Red Hat Virtualization Manager マシンにインストールおよび設定した Data Warehouse サービスを、別のマシンに移行します。Data Warehouse サービスを別のマシンでホストすることは、Manager マシンの負荷を削減するのに役立ちます。以下の手順では、Data Warehouse サービスだけが移行される点に注意してください。Data Warehouse サービスを移行する前に Data Warehouse データベース (ovirt_engine_history) を移行するには、「別のマシンへの Data Warehouse データベースの移行」を参照してください。

前提条件

  • Manager と Data Warehouse サービスが同じマシン上にインストールおよび設定されていること。
  • 新たな Data Warehouse マシンを設定するには、以下の項目が必要です。

    • Manager の /etc/ovirt-engine/engine.conf.d/10-setup-database.conf ファイルからのパスワード
    • Data Warehouse マシンから Manager データベースマシンの TCP ポート 5432 へのアクセス許可
    • Manager の /etc/ovirt-engine-dwh/ovirt-engine-dwhd.conf.d/10-setup-database.conf ファイルからの Data Warehouse データベースの認証情報。「別のマシンへの Data Warehouse データベースの移行」の手順を使用して ovirt_engine_history データベースを移行している場合には、そのマシンでのデータベース設定中に定義した認証情報をリトリーブします。

以下のシナリオのインストールでは、以下の 4 つのステップを実施する必要があります。

B.2.2.1. 新たな Data Warehouse マシンの準備

Red Hat Virtualization のリポジトリーを有効にし、Red Hat Enterprise Linux 7 マシンに Data Warehouse セットアップパッケージをインストールします。

  1. 必要なリポジトリーを有効にします。

    1. コンテンツ配信ネットワークにシステムを登録します。プロンプトが表示されたら、カスタマーポータルのユーザー名とパスワードを入力します。

      # subscription-manager register
    2. Red Hat Virtualization Manager のサブスクリプションプールを探し、プール ID を記録しておきます。

      # subscription-manager list --available
    3. 上記のプール ID を使用して、サブスクリプションをシステムにアタッチします。

      # subscription-manager attach --pool=pool_id
    4. リポジトリーを設定します。

      # subscription-manager repos \
          --disable='*' \
          --enable=rhel-7-server-rpms \
          --enable=rhel-7-server-supplementary-rpms \
          --enable=rhel-7-server-rhv-4.3-manager-rpms \
          --enable=rhel-7-server-rhv-4-manager-tools-rpms \
          --enable=rhel-7-server-ansible-2-rpms \
          --enable=jb-eap-7.2-for-rhel-7-server-rpms
  2. 現在インストールされている全パッケージを最新の状態にします。

    # yum update
  3. ovirt-engine-dwh-setup パッケージをインストールします。

    # yum install ovirt-engine-dwh-setup

B.2.2.2. Manager マシンでの Data Warehouse サービスの停止

  1. Data Warehouse サービスを停止します。

    # systemctl stop ovirt-engine-dwhd.service
  2. データベースをリモートマシンでホストする場合には、postgres.conf ファイルを編集して手動でアクセス権限を付与する必要があります。/var/opt/rh/rh-postgresql10/lib/pgsql/data/postgresql.conf ファイルを編集し、listen_addresses 行を以下のように変更します。

    listen_addresses = '*'

    その行が存在しない、またはコメントアウトされている場合には、手動で追加します。

    Manager マシンでホストされるデータベースが Red Hat Virtualization Manager のクリーンセットアップ中に設定されている場合には、アクセス権限はデフォルトで付与されます。

    Data Warehouse データベースの設定および移行方法に関する詳細情報は、「別のマシンへの Data Warehouse データベースの移行」を参照してください。

  3. postgresql サービスを再起動します。

    # systemctl restart rh-postgresql10-postgresql

B.2.2.3. 新たな Data Warehouse マシンの設定

本手順に示す質問の順序は、ご自分の環境により異なる場合があります。

  1. ovirt_engine_history データベースと Data Warehouse サービスの両方を 同じ マシンに移行する場合には、以下のコマンドを実行します。そうでない場合には、次のステップに進みます。

    # sed -i '/^ENGINE_DB_/d' \
            /etc/ovirt-engine-dwh/ovirt-engine-dwhd.conf.d/10-setup-database.conf
    
    # sed -i \
         -e 's;^\(OVESETUP_ENGINE_CORE/enable=bool\):True;\1:False;' \
         -e '/^OVESETUP_CONFIG\/fqdn/d' \
         /etc/ovirt-engine-setup.conf.d/20-setup-ovirt-post.conf
  2. engine-setup コマンドを実行し、マシンでの Data Warehouse の設定を開始します。

    # engine-setup
  3. Enter キーを押して Data Warehouse を設定します。

    Configure Data Warehouse on this host (Yes, No) [Yes]:
  4. Enter キーを押して自動検出されたホスト名をそのまま使用するか、別のホスト名を入力して Enter キーを押します。

    Host fully qualified DNS name of this server [autodetected host name]:
  5. Enter キーを押してファイアウォールを自動設定するか、No と入力して Enter キーを押し既存の設定を維持します。

    Setup can automatically configure the firewall on this system.
    Note: automatic configuration of the firewall may overwrite current settings.
    Do you want Setup to configure the firewall? (Yes, No) [Yes]:

    ファイアウォールの自動設定を選択した場合に、ファイアウォール管理機能がアクティブ化されていなければ、サポートされているオプション一覧から選択するファイアウォール管理機能を指定するように要求されるので、そのファイアウォール管理機能の名前を入力して Enter キーを押してください。この操作は、オプションが 1 つしかリストされていない場合でも必要です。

  6. Manager の完全修飾ドメイン名およびパスワードを入力します。その他のフィールドについては、Enter キーを押してそれぞれのデフォルト値をそのまま使用します。

    Host fully qualified DNS name of the engine server []: engine-fqdn
    Setup needs to do some actions on the remote engine server. Either automatically, using ssh as root to access it, or you will be prompted to manually perform each such action.
    Please choose one of the following:
    1 - Access remote engine server using ssh as root
    2 - Perform each action manually, use files to copy content around
    (1, 2) [1]:
    ssh port on remote engine server [22]:
    root password on remote engine server engine-fqdn: password
  7. Data Warehouse データベースの場所に関する以下の質問に回答します。

    Where is the DWH database located? (Local, Remote) [Local]:
    • Data Warehouse データベースを Data Warehouse サービスと同じマシンに移行した場合には、Local を選択します。データベースがすでに存在しているので、事前に定義されたローカルデータベースに接続するよう選択する必要があります。

      Setup can configure the local postgresql server automatically for the DWH to run. This may conflict with existing applications.
      Would you like Setup to automatically configure postgresql and create DWH database, or prefer to perform that manually? (Automatic, Manual) [Automatic]:

      Manual を選択し、移行したデータベースに関する以下の値を入力します。

      DWH database secured connection (Yes, No) [No]:
      DWH database name [ovirt_engine_history]:
      DWH database user [ovirt_engine_history]:
      DWH database password:
    • Data Warehouse データベースを移行していない、またはこれとは別のマシンに移行している場合には、Remote を選択して Data Warehouse データベースに関する以下の値を入力します。

      DWH database host [localhost]:
      DWH database port [5432]:
      DWH database secured connection (Yes, No) [No]:
      DWH database name [ovirt_engine_history]:
      DWH database user [ovirt_engine_history]:
      DWH database password:
  8. Manager データベースマシンの完全修飾ドメイン名およびパスワードを入力します。その他のフィールドについては、Enter キーを押してそれぞれのデフォルト値をそのまま使用します。

    Engine database host []: manager-db-fqdn
    Engine database port [5432]:
    Engine database secured connection (Yes, No) [No]:
    Engine database name [engine]:
    Engine database user [engine]:
    Engine database password: password
  9. Data Warehouse が収集したデータを保持する期間のオプションを選択します。

    Please choose Data Warehouse sampling scale:
    	(1) Basic
    	(2) Full
    	(1, 2)[1]:

    Full を選択すると、『Red Hat Virtualization Data Warehouse Guide』の「Application Settings for the Data Warehouse service in ovirt-engine-dwhd.conf」に記載のデータストレージ設定のデフォルト値が使用されます (Data Warehouse がリモートサーバーにインストールされている場合に推奨)。

    注記

    Basic から Full に移行した場合には、初期段階では既存の基本データだけが利用可能です。

    Basic を選択すると、DWH_TABLES_KEEP_HOURLY および DWH_TABLES_KEEP_DAILY の値がそれぞれ 720 および 0 に下がり、Manager マシンの負荷は軽減されますが、詳細な履歴データは減少します。

  10. 既存の Data Warehouse サービスと Manager の接続を永続的に解除するかどうかを確認します。

    Do you want to permanently disconnect this DWH from the engine? (Yes, No) [Yes]:
  11. インストールの設定を確認します。

    Please confirm installation settings (OK, Cancel) [OK]:

B.2.2.4. Manager マシンでの Data Warehouse パッケージの無効化

  1. Manager マシンで Manager を再起動します。

    # service ovirt-engine restart
  2. Data Warehouse サービスを無効にします。

    # systemctl disable ovirt-engine-dwhd.service
  3. Data Warehouse に関するファイルを削除します。

    # rm -f /etc/ovirt-engine-dwh/ovirt-engine-dwhd.conf.d/* .conf /var/lib/ovirt-engine-dwh/backups/*

これで、Data Warehouse サービスが Manager とは別のマシンでホストされるようになりました。

B.3. 別のマシンへの Websocket プロキシーの移行

重要

Websocket プロキシーおよび noVNC は、テクノロジープレビュー機能としてのみ提供されています。テクノロジープレビューの機能は、Red Hat の本番環境のサービスレベルアグリーメント (SLA) ではサポートされず、機能的に完全ではないことがあるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、開発プロセスの中でお客様に機能性のテストとフィードバックをしていただくことを目的としています。詳しい情報は、「テクノロジプレビュー機能のサポート範囲」を参照してください。

セキュリティーまたはパフォーマンス上の理由で、Red Hat Virtualization Manager を実行しているものとは別のマシンで Websocket プロキシーを実行することが可能です。Manager マシンから別のマシンに Websocket プロキシーを移行する手順では、Manager マシンから Websocket プロキシーの設定を削除してから、別のマシンにプロキシーをインストールする必要があります。

Manager マシンから Websocket プロキシーを削除するには、engine-cleanup コマンドを使用することができます。

Manager マシンからの Websocket プロキシーの削除

  1. Manager マシンで engine-cleanup を実行して、必要な設定を削除します。

    # engine-cleanup
  2. 全コンポーネントを削除するかどうかを尋ねられたら、No と入力して Enter キーを押します。

    Do you want to remove all components? (Yes, No) [Yes]: No
  3. engine を削除するかどうかを尋ねられたら、No と入力して Enter キーを押します。

    Do you want to remove the engine? (Yes, No) [Yes]: No
  4. Websocket プロキシーを削除するかどうかを尋ねられたら、Yes と入力して Enter キーを押します。

    Do you want to remove the WebSocket proxy? (Yes, No) [No]: Yes

    その他のコンポーネントを削除するかどうかを尋ねられたら、No を選択します。

別のマシンへの Websocket プロキシーのインストール

重要

Websocket プロキシーおよび noVNC は、テクノロジープレビュー機能としてのみ提供されています。テクノロジープレビューの機能は、Red Hat の本番環境のサービスレベルアグリーメント (SLA) ではサポートされず、機能的に完全ではないことがあるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、開発プロセスの中でお客様に機能性のテストとフィードバックをしていただくことを目的としています。詳しい情報は、「テクノロジプレビュー機能のサポート範囲」を参照してください。

Websocket プロキシーにより、ユーザーは noVNC コンソールを介して仮想マシンに接続することができます。noVNC クライアントは Websocket を使用して VNC データを渡しますが、QEMU の VNC サーバーには Websocket サポートがないため、Websocket プロキシーはクライアントと VNC サーバーの間に配置する必要があります。プロキシーは、Manager マシンなど、ネットワークにアクセス可能なマシンで実行可能です。

セキュリティーおよびパフォーマンスの理由から、ユーザーは別のマシンで Websocket プロキシーを設定することを推奨します。

手順

  1. Websocket プロキシーをインストールします。

    # yum install ovirt-engine-websocket-proxy
  2. engine-setup コマンドを実行して Websocket プロキシーを設定します。

    # engine-setup
    注記

    rhvm パッケージもインストールした場合には、このホストに Manager (Engine) を設定するか聞かれた場合に No を選択してください。

  3. Enter キーを押して、engine-setup がマシンに Websocket プロキシーサーバーを設定できるようにします。

    Configure WebSocket Proxy on this machine? (Yes, No) [Yes]:
  4. Enter キーを押して自動検出されたホスト名をそのまま使用するか、別のホスト名を入力して Enter キーを押します。仮想化ホストを使用している場合には、自動的に検出されたホスト名が間違っている可能性がある点に注意してください。

    Host fully qualified DNS name of this server [host.example.com]:
  5. Enter キーを押して、engine-setup がファイアウォールを設定して外部との通信に必要なポートを開放できるようにします。engine-setup でのファイアウォール設定の変更を許可しない場合には、手動で必要なポートを開放する必要があります。

    Setup can automatically configure the firewall on this system.
    Note: automatic configuration of the firewall may overwrite current settings.
    Do you want Setup to configure the firewall? (Yes, No) [Yes]:
  6. Manager マシンの完全修飾ドメイン名を入力して Enter キーを押します。

    Host fully qualified DNS name of the engine server []: manager.example.com
  7. Enter キーを押して、engine-setup が Manager マシンでアクションを実行するのを許可するか、2 を押して手動でアクションを実行してください。

    Setup will need to do some actions on the remote engine server. Either automatically, using ssh as root to access it, or you will be prompted to manually perform each such action.
    Please choose one of the following:
    1 - Access remote engine server using ssh as root
    2 - Perform each action manually, use files to copy content around
    (1, 2) [1]:
    1. Enter キーを押してデフォルトの SSH ポート番号をそのまま使用するか、Manager マシンのポート番号を入力します。

      ssh port on remote engine server [22]:
    2. Manager マシンにログインするための root パスワードを入力して Enter キーを押します。

      root password on remote engine server engine_host.example.com:
  8. 現在の設定と異なる場合には、iptables のルールを確認するかどうかを選択します。

    Generated iptables rules are different from current ones.
    Do you want to review them? (Yes, No) [No]:
  9. Enter キーを押して構成設定を確定します。

    --== CONFIGURATION PREVIEW ==--
    
    Firewall manager                        : iptables
    Update Firewall                         : True
    Host FQDN                               : host.example.com
    Configure WebSocket Proxy               : True
    Engine Host FQDN                        : engine_host.example.com
    
    Please confirm installation settings (OK, Cancel) [OK]:

    Manager が設定済みの Websocket プロキシーを使用するように設定する際の説明が表示されます。

    Manual actions are required on the engine host
    in order to enroll certs for this host and configure the engine about it.
    
    Please execute this command on the engine host:
       engine-config -s WebSocketProxy=host.example.com:6100
    and than restart the engine service to make it effective
  10. Manager マシンへログインして、表示された説明に沿って操作を行います。

    # engine-config -s WebSocketProxy=host.example.com:6100
    # systemctl restart ovirt-engine.service

付録C PCI パススルーを有効にするためのホストの設定

PCI パススルーを有効化すると、デバイスが仮想マシンに直接アタッチされているかのように、ホストのデバイスを仮想マシンで使用することができます。PCI パススルー機能を有効化するには、仮想化拡張機能および IOMMU 機能を有効化する必要があります。以下の手順では、ホストを再起動する必要があります。すでにホストが Manager にアタッチされている場合には、まずホストをメンテナンスモードに設定してください。

前提条件

  • ホストハードウェアが PCI デバイスパススルーおよび割り当ての要件を満たしていることを確認してください。詳しい情報は、『Planning and Prerequisites Guide』の「PCI Device Requirements」参照してください。

PCI パススルーを有効にするためのホストの設定

  1. BIOS の仮想化拡張機能および IOMMU 拡張機能を有効化してください。詳しい情報については、『Red Hat Enterprise Linux 仮想化の導入および管理ガイド』「BIOS での Intel VT-x と AMD-V の仮想化ハードウェア拡張の有効化」を参照してください。
  2. ホストを Manager に追加する際に ホストデバイスパススルー & SR-IOV のチェックボックスを選択するか、手動で grub 設定ファイルを編集して、カーネルの IOMMU フラグを有効化します。

  3. GPU パススルーを有効にするには、ホストとゲストシステムの両方で追加の設定手順を実行する必要があります。詳しい情報については、『Administration Guide』「Preparing Host and Guest Systems for GPU Passthrough」を参照してください。

IOMMU の手動での有効化

  1. grub 設定ファイルを編集して IOMMU を有効化します。

    注記

    IBM POWER8 ハードウェアを使用している場合は、IOMMU がデフォルトで有効化されているのでこの手順は飛ばしてください。

    • Intel の場合はマシンを起動して grub 設定ファイルの GRUB_CMDLINE_LINUX 行の末尾に intel_iommu=on を追記してください。

      # vi /etc/default/grub
      ...
      GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... intel_iommu=on
      ...
    • AMD の場合はマシンを起動して grub 設定ファイルの GRUB_CMDLINE_LINUX 行の末尾に amd_iommu=on を追記してください。

      # vi /etc/default/grub
      ...
      GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... amd_iommu=on
      ...
      注記

      intel_iommu=on または amd_iommu=on が機能する場合は、iommu=pt または amd_iommu=pt を追加してみてください。pt オプションにより、パススルーで使用するデバイスの IOMMU のみが有効化されて、ホストのパフォーマンスが向上しますが、このオプションはすべてのハードウェアでサポートされるわけではありません。pt オプションがお使いのホストで機能しない場合には、以前のオプションに戻してください。

      ハードウェアが割り込みの再マッピングをサポートしていないためにパススルーが失敗する場合は、仮想マシンが信頼できるのであれば allow_unsafe_interrupts オプションを有効化することも検討してください。allow_unsafe_interrupts を有効化すると、ホストは仮想マシンからの MSI 攻撃に晒されることになるため、このオプションはデフォルトで有効化されていません。オプションを有効化するには以下のように設定してください。

      # vi /etc/modprobe.d
      options vfio_iommu_type1 allow_unsafe_interrupts=1
  2. grub.cfg ファイルをリフレッシュしてからホストを再起動し、変更を有効にします。

    # grub2-mkconfig -o /boot/grub2/grub.cfg
    # reboot

SR-IOV を有効にし専用の仮想 NIC を仮想マシンに割り当てるには、「How to enable host device passthrough and SR-IOV to allow assigning dedicated virtual NICs to virtual machines in RHV」を参照してください。

付録D Red Hat Virtualization Manager の削除

engine-cleanup コマンドを使用して、Red Hat Virtualization Manager の特定またはすべてのコンポーネントを削除することができます。

注記

Manager データベースのバックアップおよび PKI キーや設定の圧縮アーカイブは常に自動で作成されます。これらのファイルは、/var/lib/ovirt-engine/backups/ に配置されており、ファイル名に日付ならびにそれぞれ engine- および engine-pki- が含まれています。

手順

  1. Manager マシンで以下のコマンドを実行します。

    # engine-cleanup
  2. Red Hat Virtualization Manager コンポーネントをすべて削除するかどうかを確認するプロンプトが表示されます。

    • 全コンポーネントを削除するには、Yes と入力してから Enter キーを押します。

      Do you want to remove all components? (Yes, No) [Yes]:
    • 削除するコンポーネントを選択するには、No と入力して Enter キーを押します。各コンポーネントについて保持するか削除するかを個別に選択することができます。

      Do you want to remove Engine database content? All data will be lost (Yes, No) [No]:
      Do you want to remove PKI keys? (Yes, No) [No]:
      Do you want to remove PKI configuration? (Yes, No) [No]:
      Do you want to remove Apache SSL configuration? (Yes, No) [No]:
  3. この段階でも Red Hat Virtualization Manager の削除を中止することができます。削除を続行した場合には、ovirt-engine サービスが停止し、選択したオプションに従って環境の設定が削除されます。

    During execution engine service will be stopped (OK, Cancel) [OK]:
    ovirt-engine is about to be removed, data will be lost (OK, Cancel) [Cancel]:OK
  4. Red Hat Virtualization パッケージを削除します。

    # yum remove rhvm* vdsm-bootstrap