로컬 데이터베이스가 있는 독립 실행형 관리자로 Red Hat Virtualization 설치

Red Hat Virtualization 4.3

CREATENATIVE 방법 Red Hat Virtualization Manager와 해당 데이터베이스를 동일한 서버에 설치

초록

이 문서에서는 Red Hat Virtualization Manager가 Manager 데이터베이스와 Manager와 동일한 시스템에 설치된 다른 환경에서 호스팅되는 가상 시스템 또는 물리적 서버에 Red Hat Virtualization Manager를 설치하는 독립 실행형 관리자 환경을 설치하는 방법을 설명합니다. 사용하려는 구성이 아닌 경우 제품 가이드의 다른 설치 옵션을 참조하십시오.

머리말

독립 실행형 관리자 설치는 수동 및 사용자 정의할 수 있습니다. Red Hat Enterprise Linux 시스템을 설치한 다음 구성 스크립트(engine-setup)를 실행하고 Red Hat Virtualization Manager를 구성하는 방법에 대한 정보를 제공해야 합니다. Manager가 실행된 후 호스트 및 스토리지를 추가합니다. 가상 시스템 고가용성에는 두 개 이상의 호스트가 필요합니다.

로컬 데이터베이스 환경에서 Manager 구성 스크립트를 통해 Manager 데이터베이스 및 데이터 웨어하우스 데이터베이스를 자동으로 생성할 수 있습니다. 또는 engine-setup 을 실행하기 전에 Manager 시스템에서 이러한 데이터베이스를 수동으로 생성할 수 있습니다.

환경 옵션 및 권장 구성에 대한 자세한 내용은 계획 및 사전 요구 사항 가이드 를 참조하십시오.

표 1. Red Hat Virtualization 키 구성 요소

구성 요소 이름설명

Red Hat Virtualization Manager

환경에서 리소스를 관리하기 위해 그래픽 사용자 인터페이스와 REST API를 제공하는 서비스입니다. Manager는 Red Hat Enterprise Linux를 실행하는 물리적 또는 가상 머신에 설치됩니다.

호스트

RHEL 호스트(Red Hat Enterprise Linux 호스트) 및 Red Hat Virtualization 호스트(image-based hypervisor)는 두 가지 유형의 호스트입니다. 호스트는 KVM(커널 기반 가상 시스템) 기술을 사용하며 가상 시스템을 실행하는 데 사용되는 리소스를 제공합니다.

공유 스토리지

스토리지 서비스는 가상 시스템과 연결된 데이터를 저장하는 데 사용됩니다.

데이터 3.4

Manager에서 구성 정보 및 통계 데이터를 수집하는 서비스입니다.

독립 실행형 관리자 아키텍처

Red Hat Virtualization Manager는 물리적 서버에서 실행되거나 별도의 가상화 환경에서 호스팅되는 가상 머신에서 실행됩니다. 독립 실행형 관리자는 배포 및 관리가 용이하지만 추가 물리적 서버가 필요합니다. Manager는 Red Hat의 고가용성 애드온과 같은 제품을 외부적으로 관리하는 경우에만 고가용성을 제공합니다.

독립 실행형 관리자 환경에 대한 최소 설정에는 다음이 포함됩니다.

  • Red Hat Virtualization Manager 머신 1개 일반적으로 Manager는 물리적 서버에 배포됩니다. 그러나 가상 시스템이 별도의 환경에서 호스팅되는 한 가상 머신에도 배포할 수 있습니다. Manager는 Red Hat Enterprise Linux 7에서 실행되어야 합니다.
  • 가상 머신 고가용성을 위해 최소 두 개의 호스트. Red Hat Enterprise Linux 호스트 또는 RHVH(Red Hat Virtualization Host)를 사용할 수 있습니다. VDSM(호스트 에이전트)은 Red Hat Virtualization Manager와의 통신을 용이하게 하기 위해 모든 호스트에서 실행됩니다.
  • 사용된 스토리지 유형에 따라 로컬 또는 원격 서버에서 호스팅할 수 있는 스토리지 서비스. 모든 호스트에서 스토리지 서비스에 액세스할 수 있어야 합니다.

그림 1. standalone Manager Red Hat Virtualization Architecture

standalone Manager Red Hat Virtualization Architecture

1장. 설치 개요

로컬 데이터베이스를 사용하여 독립 실행형 관리자 환경을 설치하려면 다음 단계를 수행해야 합니다.

중요

환경을 최신 상태로 유지합니다. 자세한 내용은 https://access.redhat.com/articles/2974891 를 참조하십시오. 알려진 문제에 대한 버그 수정은 자주 릴리스되므로 예약된 작업을 사용하여 호스트 및 관리자를 업데이트하는 것이 좋습니다.

2장. 요구 사항

2.1. Red Hat Virtualization Manager 요구 사항

2.1.1. 하드웨어 요구 사항

여기에 설명된 최소 및 권장 하드웨어 요구 사항은 일반적인 중소 규모 설치를 기반으로 합니다. 정확한 요구 사항은 크기 조정 및 로드에 따라 배포마다 다릅니다.

Red Hat Virtualization의 하드웨어 인증은 Red Hat Enterprise Linux의 하드웨어 인증의 적용을 받습니다. 자세한 내용은 https://access.redhat.com/solutions/725243 을 참조하십시오. Red Hat Enterprise Linux에서 사용할 수 있도록 특정 하드웨어 항목이 인증되었는지 확인하려면 https://access.redhat.com/ecosystem/#certifiedHardware 을 참조하십시오.

표 2.1. Red Hat Virtualization Manager 하드웨어 요구 사항

리소스최소권장

CPU

듀얼 코어 CPU.

쿼드 코어 CPU 또는 여러 개의 듀얼 코어 CPU.

메모리

4GB의 사용 가능한 시스템 RAM이 설치되어 있지 않고 기존 프로세스에서 메모리를 사용하지 않는 경우 사용 가능한 시스템 RAM입니다.

16GB의 시스템 RAM.

하드 디스크

로컬에 액세스할 수 있고 쓰기 가능한 디스크 공간 25GB.

로컬에서 액세스할 수 있고 쓸 수 있는 50GB의 디스크 공간

RHV Manager 기록 데이터베이스 크기 계산기 를 사용하여 Manager 기록 데이터베이스 크기에 적절한 디스크 공간을 계산할 수 있습니다.

네트워크 인터페이스

최소 1Gbps 대역폭의 NIC(네트워크 인터페이스 카드) 1개

최소 1Gbps 대역폭의 NIC(네트워크 인터페이스 카드) 1개

2.1.2. 브라우저 요구 사항

다음 브라우저 버전 및 운영 체제는 관리 포털 및 VM 포털에 액세스하는 데 사용할 수 있습니다.

브라우저 지원은 계층으로 나뉩니다.

  • 계층 1: 완전히 테스트 및 지원되는 브라우저 및 운영 체제 조합. Red Hat Engineering은 이 계층의 브라우저 문제를 해결하기 위해 최선을 다하고 있습니다.
  • 계층 2: 부분적으로 테스트되었으며 작동할 가능성이 있는 브라우저 및 운영 체제 조합입니다. 이 계층에는 제한된 지원이 제공됩니다. Red Hat Engineering은 이 계층의 브라우저 문제를 수정하려고 시도합니다.
  • 계층 3: 테스트되지 않았지만 작동할 수 있는 브라우저 및 운영 체제 조합입니다. 이 계층에는 최소한의 지원이 제공됩니다. Red Hat Engineering은 이 계층에 있는 브라우저의 사소한 문제만 수정하려고 시도합니다.

표 2.2. 브라우저 요구 사항

지원 계층운영 체제 제품군브라우저

계층 1

Red Hat Enterprise Linux

Mozilla Firefox ESR(Extended Support Release) 버전

 

Any

Google Chrome, Mozilla Firefox 또는 Microsoft Edge의 최신 버전

계층 2

  

계층 3

Any

이전 버전의 Google Chrome 또는 Mozilla Firefox

 

Any

기타 브라우저

2.1.3. 클라이언트 요구 사항

가상 머신 콘솔은 Red Hat Enterprise Linux 및 Windows에서 지원되는 Remote Viewer(virt-viewer) 클라이언트를 통해서만 액세스할 수 있습니다. virt-viewer 를 설치하려면 가상 머신 관리 가이드의 클라이언트 시스템에 지원 구성 요소 설치를 참조하십시오. virt-viewer 를 설치하려면 관리자 권한이 필요합니다.

가상 머신 콘솔은 SPICE, VNC 또는 RDP(Windows 전용) 프로토콜을 통해 액세스합니다. QXL 그래픽 드라이버는 SPICE 기능 개선을 위해 게스트 운영 체제에 설치할 수 있습니다. SPICE는 현재 2560x1600픽셀의 최대 해상도를 지원합니다.

지원되는 QXL 드라이버는 Red Hat Enterprise Linux, Windows XP 및 Windows 7에서 사용할 수 있습니다.

SPICE 지원은 다음과 같은 계층으로 나뉩니다.

  • 계층 1: 원격 뷰어가 완전히 테스트되어 지원되는 운영 체제입니다.
  • 계층 2: 원격 뷰어가 부분적으로 테스트되어 작동되는 운영 체제입니다. 이 계층에는 제한된 지원이 제공됩니다. Red Hat Engineering은 이 계층의 remote-viewer 문제를 수정하려고 시도합니다.

표 2.3. 클라이언트 운영 체제 SPICE 지원

지원 계층운영 체제

계층 1

Red Hat Enterprise Linux 7.2 이상

 

Microsoft Windows 7

계층 2

Microsoft Windows 8

 

Microsoft Windows 10

2.1.4. 운영 체제 요구 사항

Red Hat Virtualization Manager는 최신 마이너 릴리스로 업데이트된 Red Hat Enterprise Linux 7의 기본 설치에 설치되어 있어야 합니다.

기본 설치 후 추가 패키지를 설치하지 마십시오. 이 패키지는 Manager에 필요한 패키지를 설치할 때 종속성 문제가 발생할 수 있으므로 설치되지 마십시오.

Manager 설치에 필요한 리포지토리 이외의 추가 리포지토리를 활성화하지 마십시오.

2.2. 호스트 요구 사항

Red Hat Virtualization의 하드웨어 인증은 Red Hat Enterprise Linux의 하드웨어 인증의 적용을 받습니다. 자세한 내용은 https://access.redhat.com/solutions/725243 을 참조하십시오. Red Hat Enterprise Linux에서 사용할 수 있도록 특정 하드웨어 항목이 인증되었는지 확인하려면 https://access.redhat.com/ecosystem/#certifiedHardware 을 참조하십시오.

게스트에 적용되는 요구 사항 및 제한 사항에 대한 자세한 내용은 https://access.redhat.com/articles/rhel-limitshttps://access.redhat.com/articles/906543 을 참조하십시오.

2.2.1. CPU 요구 사항

모든 CPU는 Intel® 64 또는 AMD64 CPU 확장 기능과 AMD-V™ 또는 Intel VT® 하드웨어 가상화 확장 기능이 활성화되어 있어야 합니다. No eXecute 플래그 (NX)에 대한 지원도 필요합니다.

다음과 같은 CPU 모델이 지원됩니다.

  • AMD

    • Opteron G4
    • Opteron G5
    • EPYC
  • Intel

    • Nehalem
    • Westmere
    • SandyBridge
    • Haswell
    • Haswell-noTSX
    • Broadwell
    • Broadwell-noTSX
    • Skylake (클라이언트)
    • Skylake (서버)
  • IBM POWER8

2.2.1.1. 프로세서가 필요한 플래그를 지원하는지 확인

BIOS에서 가상화를 활성화해야 합니다. 이 변경 사항을 적용한 후 호스트의 전원을 끄고 재부팅합니다.

  1. Red Hat Enterprise Linux 또는 Red Hat Virtualization Host 부팅 화면에서 임의의 키를 눌러 목록에서 Boot or Boot with serial console 항목을 선택합니다.
  2. Tab 을 눌러 선택한 옵션의 커널 매개 변수를 편집합니다.
  3. 마지막 커널 매개변수 뒤에 공백이 있는지 확인하고 매개 변수 rescue 를 추가합니다.
  4. Enter 를 눌러 복구 모드로 부팅합니다.
  5. 프롬프트에서 프로세서에 필요한 확장 기능이 있고 다음 명령을 실행하여 사용하도록 설정되어 있는지 확인합니다.

    # grep -E 'svm|vmx' /proc/cpuinfo | grep nx

출력이 표시되면 프로세서가 하드웨어 가상화가 가능합니다. 출력이 표시되지 않는 경우에도 프로세서는 여전히 하드웨어 가상화를 지원할 수 있습니다. 일부 환경에서는 BIOS에서 가상화 확장을 사용하지 않도록 설정합니다. 이것이 케이스라고 생각되는 경우, 시스템의 BIOS와 제조업체가 제공하는 마더 보드 설명서를 참조하십시오.

2.2.2. 메모리 요구 사항

필요한 최소 RAM은 2GB입니다. Red Hat Virtualization Host에서 VM당 지원되는 최대 RAM은 4TB입니다.

그러나 필요한 RAM 크기는 게스트 운영 체제 요구 사항, 게스트 애플리케이션 요구 사항, 게스트 메모리 활동 및 사용량에 따라 달라집니다. KVM은 가상화된 게스트의 물리적 RAM을 오버 커밋할 수 있으므로 게스트가 최대 부하에서 동시에 작동하지 않는다는 가정하에 RAM 요구 사항보다 더 큰 RAM을 프로비저닝할 수 있습니다. KVM은 필요에 따라 게스트에 RAM만 할당하고 활용도가 낮은 게스트를 스왑으로 전환함으로써 이 작업을 수행합니다.

2.2.3. 스토리지 요구 사항

호스트에는 구성, 로그, 커널 덤프를 저장하고 스왑 공간으로 사용하기 위해 스토리지가 필요합니다. 스토리지는 로컬 또는 네트워크 기반일 수 있습니다. RHVH(Red Hat Virtualization Host)는 네트워크 스토리지에서 하나의 기본 할당 또는 모든 기본 할당으로 부팅할 수 있습니다. 네트워크 스토리지에서 부팅하면 네트워크 연결이 끊기면 정지될 수 있습니다. 드롭인 다중 경로 구성 파일을 추가하면 네트워크 연결에서 손실을 해결할 수 있습니다. RHVH가 SAN 스토리지에서 부팅되고 연결이 끊어지면 네트워크 연결이 복원될 때까지 파일이 읽기 전용입니다. 네트워크 스토리지를 사용하면 성능이 저하될 수 있습니다.

RHVH의 최소 스토리지 요구 사항은 이 섹션에 설명되어 있습니다. Red Hat Enterprise Linux 호스트의 스토리지 요구 사항은 기존 구성에서 사용하는 디스크 공간 크기에 따라 달라지지만 RHVH보다 클 것으로 예상됩니다.

호스트 설치에 필요한 최소 스토리지 요구 사항은 다음과 같습니다. 그러나 Red Hat은 더 많은 스토리지 공간을 사용하는 기본 할당을 사용하도록 권장합니다.

  • / (root) - 6GB
  • /home - 1GB
  • /tmp - 1GB
  • /boot - 1GB
  • /var - 15GB
  • /var/crash - 10GB
  • /var/log - 8GB
  • /var/log/audit - 2GB
  • 스왑 - 1GB(권장 스왑 크기의 경우 https://access.redhat.com/solutions/15244참조)
  • Anaconda는 향후 메타데이터 확장을 위해 볼륨 그룹 내에서 씬 풀 크기의 20%를 예약합니다. 이는 즉시 사용 가능한 구성이 정상적인 사용 조건에서 공간이 부족해지는 것을 방지하기 위한 것입니다. 설치 중에 씬 풀의 프로비저닝도 지원되지 않습니다.
  • 최소 합계 - 55GB

자체 호스팅 엔진 설치를 위해 RHV-M appliance를 설치하는 경우에도 /var/tmp 는 5GB 이상이어야 합니다.

메모리 과다 할당을 사용하려면 충분한 스왑 공간을 추가하여 모든 가상 머신에 가상 메모리를 제공합니다. 메모리 최적화를 참조하십시오.

2.2.4. PCI 장치 요구 사항

호스트에는 최소 대역폭이 1Gbps인 네트워크 인터페이스가 하나 이상 있어야 합니다. 각 호스트에는 두 개의 네트워크 인터페이스가 있으며, 가상 머신 마이그레이션과 같은 네트워크 집약적인 활동을 지원하는 것을 권장합니다. 이러한 작업의 성능은 사용 가능한 대역폭에 따라 제한됩니다.

Intel Q35 기반 가상 머신에서 PCI Express 및 기존 PCI 장치를 사용하는 방법에 대한 자세한 내용은 Q35 가상 머신의 PCI Express 및 컴플라이언 PCI 장치 사용을 참조하십시오.

2.2.5. 장치 할당 요구 사항

가상 머신이 호스트의 특정 PCIe 장치를 사용할 수 있도록 장치 할당 및 PCI 패스스루를 구현하려는 경우 다음 요구사항을 충족해야 합니다.

  • CPU는 IOMMU(예: VT-d 또는 AMD-Vi)를 지원해야 합니다. IBM POWER8은 기본적으로 IOMMU를 지원합니다.
  • 펌웨어는 IOMMU를 지원해야 합니다.
  • 사용되는 CPU 루트 포트는 ACS 또는 ACS-equivalent 기능을 지원해야 합니다.
  • PCIe 장치는 ACS 또는 ACS 동일 기능을 지원해야 합니다.
  • Red Hat은 PCIe 장치와 루트 포트 간의 모든 PCIe 스위치와 브리지가 ACS를 지원하는 것이 좋습니다. 예를 들어, 스위치가 ACS를 지원하지 않는 경우 해당 스위치의 모든 장치는 동일한 IOMMU 그룹을 공유하며 동일한 가상 시스템에만 할당할 수 있습니다.
  • GPU 지원의 경우 Red Hat Enterprise Linux 7은 PCIe 기반 NVIDIA K-Series Quadro(모델 2000 시리즈 이상), GRID, strategy이 아닌 그래픽 장치로 PCI 장치 할당을 지원합니다. 현재 최대 2개의 GPU를 표준 VGA 인터페이스 중 하나에 추가하여 가상 시스템에 연결할 수 있습니다. 에뮬레이션된 VGA는 사전 부팅 및 설치에 사용되며 NVIDIA GPU는 NVIDIA 그래픽 드라이버가 로드될 때 인수됩니다. NVIDIA Quadro 2000은 지원되지 않으며 Quadro K420 카드도 지원되지 않습니다.

공급 업체 사양 및 데이터시트를 확인하여 하드웨어가 이러한 요구 사항을 충족하는지 확인하십시오. lspci -v 명령은 시스템에 이미 설치된 PCI 장치에 대한 정보를 출력하는 데 사용할 수 있습니다.

2.2.6. vGPU 요구 사항

해당 호스트의 가상 머신이 vGPU를 사용하려면 호스트가 다음 요구 사항을 충족해야 합니다.

  • vGPU 호환 GPU
  • GPU 지원 호스트 커널
  • 올바른 드라이버가 있는 GPU 설치
  • 장치에서 지원하는 mdev 유형 중 하나에 해당하도록 사전 정의된 mdev_type 설정
  • 클러스터의 각 호스트에 설치된 vGPU 가능 드라이버
  • vGPU 드라이버가 설치된 vGPU 지원 가상 머신 운영 체제

2.3. 네트워킹 요구 사항

2.3.1. 일반 요구 사항

Red Hat Virtualization은 Manager를 실행 중인 컴퓨터 또는 가상 머신에서 IPv6를 사용하도록 설정해야 합니다(관리자 시스템"라고도 함). 시스템이 사용하지 않는 경우에도 Manager 시스템에서 IPv6을 비활성화하지 마십시오.

2.3.2. DNS, NTP, IPMI 펜싱 및 지표 저장소에 대한 방화벽 요구 사항

다음 모든 항목에 대한 방화벽 요구 사항은 개별적인 고려 사항이 필요한 특수한 사례입니다.

DNS 및 NTP

Red Hat Virtualization은 DNS 또는 NTP 서버를 생성하지 않으므로 방화벽에 들어오는 트래픽용 포트를 열 필요가 없습니다.

기본적으로 Red Hat Enterprise Linux는 모든 대상 주소의 DNS 및 NTP로 아웃바운드 트래픽을 허용합니다. 발신 트래픽을 비활성화하는 경우 DNS 및 NTP 서버로 전송되는 요청에 대한 예외를 정의합니다.

중요
  • Red Hat Virtualization Manager 및 모든 호스트(Red Hat Virtualization Host 및 Red Hat Enterprise Linux 호스트)에는 정규화된 도메인 이름과 전체, 완벽하게 정렬된 순방향 및 역방향 이름 확인이 가능해야 합니다.
  • Red Hat Virtualization 환경에서 가상 머신으로 DNS 서비스를 실행하는 것은 지원되지 않습니다. Red Hat Virtualization 환경에서 사용하는 모든 DNS 서비스는 환경 외부에서 호스팅되어야 합니다.
  • Red Hat은 이름 확인을 위해 /etc/hosts 파일 대신 DNS를 사용할 것을 강력히 권장합니다. 일반적으로 호스트 파일을 사용하려면 더 많은 작업이 필요하며 오류가 발생할 가능성이 큽니다.

IPMI 및 기타 펜싱 메커니즘 (선택 사항)

IPMI(Intelligent Platform Management Interface) 및 기타 펜싱 메커니즘의 경우 방화벽에 들어오는 트래픽에 대해 포트를 열 필요가 없습니다.

기본적으로 Red Hat Enterprise Linux는 모든 대상 주소의 포트로 아웃바운드 IPMI 트래픽을 허용합니다. 발신 트래픽을 비활성화하는 경우 IPMI 또는 펜싱 서버로 전송되는 요청에 예외를 적용합니다.

클러스터의 각 Red Hat Virtualization Host 및 Red Hat Enterprise Linux 호스트는 클러스터에 있는 다른 모든 호스트의 펜싱 장치에 연결할 수 있어야 합니다. 클러스터 호스트에 오류가 발생하고(네트워크 오류, 스토리지 오류…​) 호스트 역할을 할 수 없는 경우 데이터 센터의 다른 호스트에 연결할 수 있어야 합니다.

특정 포트 번호는 사용 중인 펜스 에이전트 유형과 구성 방법에 따라 다릅니다.

다음 섹션의 방화벽 요구 사항 테이블은 이 옵션을 나타내지 않습니다.

메트릭 저장소, Kibana 및 ElasticSearch

Metrics Store, Kibana 및 ElasticSearch는 지표 저장소 가상 머신에 대한 네트워크 구성을 참조하십시오.

2.3.3. Red Hat Virtualization Manager 방화벽 요구 사항

Red Hat Virtualization Manager를 사용하려면 시스템 방화벽을 통한 네트워크 트래픽을 허용하기 위해 여러 포트를 열어야 합니다.

engine-setup 스크립트는 방화벽을 자동으로 구성할 수 있지만 iptables 를 사용하는 경우 기존 방화벽 구성을 덮어씁니다. 기존 방화벽 구성을 유지하려면 Manager에 필요한 방화벽 규칙을 수동으로 삽입해야 합니다. engine-setup 명령은 /etc/ovirt-engine/ iptables.example 파일에 필요한 iptables 규칙 목록을 저장합니다. firewalld 를 사용하는 경우engine-setup 은 기존 구성을 덮어쓰지 않습니다.

여기에 설명된 방화벽 구성은 기본 구성을 가정합니다.

참고

이러한 방화벽 요구 사항의 다이어그램은 https://access.redhat.com/articles/3932211 에서 확인할 수 있습니다. 테이블의 ID를 사용하여 다이어그램에서 연결을 조회할 수 있습니다.

표 2.4. Red Hat Virtualization Manager 방화벽 요구 사항

ID포트프로토콜소스대상목적기본적으로 암호화

M1

-

ICMP

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

Red Hat Virtualization Manager

선택 사항:

진단에 도움이 될 수 있습니다.

없음

M2

22

TCP

백엔드 구성 및 소프트웨어 업그레이드를 포함한 관리자 유지 관리에 사용되는 시스템.

Red Hat Virtualization Manager

SSH(Secure Shell) 액세스.

선택 사항:

있음

M3

2222

TCP

가상 머신 직렬 콘솔에 액세스하는 클라이언트입니다.

Red Hat Virtualization Manager

가상 머신 직렬 콘솔에 연결할 수 있도록 SSH(Secure Shell) 액세스.

있음

M4

80, 443

TCP

관리 포털 클라이언트

VM 포털 클라이언트

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

REST API 클라이언트

Red Hat Virtualization Manager

Manager에 HTTP(포트 80, 암호화되지 않음) 및 HTTPS(포트 443, 암호화된) 액세스를 제공합니다. HTTP는 연결을 HTTPS로 리디렉션합니다.

있음

M5

6100

TCP

관리 포털 클라이언트

VM 포털 클라이언트

Red Hat Virtualization Manager

Websocket 프록시가 Manager에서 실행되는 경우 웹 기반 콘솔 클라이언트인 noVNC 에 대한 websocket 프록시 액세스를 제공합니다. 그러나 websocket 프록시가 다른 호스트에서 실행 중인 경우 이 포트는 사용되지 않습니다.

없음

M6

7410

UDP

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

Red Hat Virtualization Manager

호스트에서 Kdump가 활성화된 경우 Manager의 fence_kdump 리스너에 대해 이 포트를 엽니다. fence_kdump 고급 구성을 참조하십시오. fence_kdump 는 연결을 암호화하는 방법을 제공하지 않습니다. 그러나 자격이 없는 호스트의 액세스를 차단하도록 이 포트를 수동으로 구성할 수 있습니다.

없음

M7

54323

TCP

관리 포털 클라이언트

Red Hat Virtualization Manager (ImageIO Proxy 서버)

ImageIO 프록시(ovirt-imageio-proxy)와의 통신에 필요합니다.

있음

M8

6442

TCP

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

OVN(Open Virtual Network) southbound 데이터베이스

OVN(Open Virtual Network) 데이터베이스에 연결

있음

M9

9696

TCP

OVN용 외부 네트워크 공급자 클라이언트

OVN용 외부 네트워크 공급자

OpenStack Networking API

예. engine-setup으로 생성된 구성입니다.

M10

35357

TCP

OVN용 외부 네트워크 공급자 클라이언트

OVN용 외부 네트워크 공급자

OpenStack ID API

예. engine-setup으로 생성된 구성입니다.

M11

53

TCP, UDP

Red Hat Virtualization Manager

DNS 서버

DNS 조회는 1023개 이상의 포트에서 포트 53으로, 응답에 요청합니다. 기본적으로 엽니다.

없음

M12

123

UDP

Red Hat Virtualization Manager

NTP 서버

NTP는 1023 이상의 포트에서 포트 123 및 응답에 요청합니다. 기본적으로 엽니다.

없음

참고
  • 기본 구성에서 OVN northbound 데이터베이스(6641)에 대한 유일한 클라이언트는 ovirt-provider-ovn 이므로 OVN northbound 데이터베이스(6641)의 포트는 나열되지 않습니다. 둘 다 동일한 호스트에서 실행되기 때문에 통신은 네트워크에 표시되지 않습니다.
  • 기본적으로 Red Hat Enterprise Linux는 모든 대상 주소의 DNS 및 NTP로 아웃바운드 트래픽을 허용합니다. 발신 트래픽을 비활성화하는 경우 Manager에서 DNS 및 NTP 서버에 요청을 보내는 예외를 만듭니다. 다른 노드에도 DNS 및 NTP가 필요할 수 있습니다. 이 경우 해당 노드의 요구 사항을 확인하고 그에 따라 방화벽을 구성합니다.

2.3.4. 호스트 방화벽 요구 사항

Red Hat Enterprise Linux 호스트 및 RHVH(Red Hat Virtualization Host)에는 시스템 방화벽을 통한 네트워크 트래픽을 허용하기 위해 여러 포트를 열어야 합니다. 방화벽 규칙은 관리자에 새 호스트를 추가할 때 기본적으로 자동으로 구성되므로 기존 방화벽 구성을 덮어씁니다.

새 호스트를 추가할 때 자동 방화벽 구성을 비활성화하려면 Advanced Parameters (고급 매개 변수 )에서 자동으로 호스트 방화벽 구성 확인란을 지웁니다.

호스트 방화벽 규칙을 사용자 지정하려면 https://access.redhat.com/solutions/2772331 를 참조하십시오.

참고

이러한 방화벽 요구 사항의 다이어그램은 https://access.redhat.com/articles/3932211 에서 확인할 수 있습니다. 테이블의 ID를 사용하여 다이어그램에서 연결을 조회할 수 있습니다.

표 2.5. 가상화 호스트 방화벽 요구 사항

ID포트프로토콜소스대상목적기본적으로 암호화

H1

22

TCP

Red Hat Virtualization Manager

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

SSH(Secure Shell) 액세스.

선택 사항:

있음

H2

2223

TCP

Red Hat Virtualization Manager

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

가상 머신 직렬 콘솔에 연결할 수 있도록 SSH(Secure Shell) 액세스.

있음

H3

161

UDP

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

Red Hat Virtualization Manager

SNMP(Simple Network Management Protocol). 단순 네트워크 관리 프로토콜 트랩을 호스트에서 하나 이상의 외부 SNMP 관리자로 전송하려는 경우에만 필요합니다.

선택 사항:

없음

H4

111

TCP

NFS 스토리지 서버

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

NFS 연결.

선택 사항:

없음

H5

5900 - 6923

TCP

관리 포털 클라이언트

VM 포털 클라이언트

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

VNC 및 SPICE를 통한 원격 게스트 콘솔 액세스. 가상 머신에 대한 클라이언트 액세스를 용이하게 하려면 이러한 포트가 열려 있어야 합니다.

예 (선택 사항)

H6

5989

TCP, UDP

CIMOM(Common Information Model Object Manager)

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

CIMOM(Common Information Model Object Manager)에서 호스트에서 실행되는 가상 머신을 모니터링하는 데 사용합니다. CIMOM을 사용하여 가상화 환경의 가상 머신을 모니터링하려는 경우에만 필요합니다.

선택 사항:

없음

H7

9090

TCP

Red Hat Virtualization Manager

클라이언트 머신

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

설치된 경우 Cockpit 웹 인터페이스에 액세스하는 데 필요합니다.

있음

H8

16514

TCP

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

libvirt 를 사용한 가상 시스템 마이그레이션.

있음

H9

49152 - 49215

TCP

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

VDSM을 사용한 가상 시스템 마이그레이션 및 펜싱. 가상 시스템의 자동화 및 수동 마이그레이션을 용이하게 하려면 이러한 포트가 열려 있어야 합니다.

네, 필요합니다. 펜싱 에이전트에 따라 libvirt를 통해 마이그레이션을 수행합니다.

H10

54321

TCP

Red Hat Virtualization Manager

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

Manager 및 기타 가상화 호스트와의 VDSM 통신.

있음

H11

54322

TCP

Red Hat Virtualization Manager (ImageIO Proxy 서버)

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

ImageIO 데몬(ovirt-imageio-daemon)과 통신하는 데 필요합니다.

있음

H12

6081

UDP

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

OVN이 호스트 간 터널을 생성할 수 있도록 네트워크 공급자로 OVN(Open Virtual Network)을 사용하는 경우 필요합니다.

없음

H13

53

TCP, UDP

Red Hat Virtualization 호스트

Red Hat Enterprise Linux 호스트

DNS 서버

DNS 조회는 1023개 이상의 포트에서 포트 53으로, 응답에 요청합니다. 이 포트는 필수이며 기본적으로 열려 있습니다.

없음

참고

기본적으로 Red Hat Enterprise Linux는 모든 대상 주소의 DNS 및 NTP로 아웃바운드 트래픽을 허용합니다. 발신 트래픽을 비활성화하는 경우 Red Hat Virtualization Host에 대한 예외를 수행합니다.

DNS 및 NTP 서버에 요청을 보내는 Red Hat Enterprise Linux 호스트. 다른 노드에도 DNS 및 NTP가 필요할 수 있습니다. 이 경우 해당 노드의 요구 사항을 확인하고 그에 따라 방화벽을 구성합니다.

2.3.5. 데이터베이스 서버 방화벽 요구 사항

Red Hat Virtualization은 Manager 데이터베이스(엔진) 및 데이터 웨어하우스 데이터베이스(ovirt-engine-history)에 원격 데이터베이스 서버를 사용할 수 있도록 지원합니다. 원격 데이터베이스 서버를 사용하려는 경우 Manager의 연결 및 데이터 웨어하우스 서비스(관리자와 분리할 수 있음)를 허용해야 합니다.

마찬가지로, Red Hat CloudForms와 같은 외부 시스템에서 로컬 또는 원격 데이터 웨어하우스 데이터베이스에 액세스하려는 경우 데이터베이스에서 해당 시스템의 연결을 허용해야 합니다.

중요

외부 시스템에서 Manager 데이터베이스에 액세스하는 것은 지원되지 않습니다.

참고

이러한 방화벽 요구 사항의 다이어그램은 https://access.redhat.com/articles/3932211 에서 확인할 수 있습니다. 테이블의 ID를 사용하여 다이어그램에서 연결을 조회할 수 있습니다.

표 2.6. 데이터베이스 서버 방화벽 요구 사항

ID포트프로토콜소스대상목적기본적으로 암호화

D1

5432

TCP, UDP

Red Hat Virtualization Manager

데이터 3.4 서비스

관리자(engine) 데이터베이스 서버

데이터 웨어하우스(ovirt-engine-history) 데이터베이스 서버

PostgreSQL 데이터베이스 연결의 기본 포트.

아니요, 하지만 활성화할 수 있습니다.

D2

5432

TCP, UDP

외부 시스템

데이터 웨어하우스(ovirt-engine-history) 데이터베이스 서버

PostgreSQL 데이터베이스 연결의 기본 포트.

기본적으로 비활성되어 있습니다. 아니요, 하지만 활성화할 수 있습니다.

3장. Red Hat Virtualization Manager 설치

Red Hat Virtualization Manager 설치에는 다음 단계가 포함됩니다.

3.1. Red Hat Virtualization Manager 머신 준비

Red Hat Virtualization Manager는 Red Hat Enterprise Linux 7에서 실행되어야 합니다. Red Hat Enterprise Linux 설치에 대한 자세한 내용은 Red Hat Enterprise Linux 7 설치 가이드를 참조하십시오.

이 머신은 최소 관리자 하드웨어 요구 사항을 충족해야 합니다.

콘텐츠 전송 네트워크에 액세스할 수 없는 시스템에 Red Hat Virtualization Manager를 설치하려면 Manager를 구성하기 전에 부록 A. 오프라인 Red Hat Virtualization Manager 설치를 위한 로컬 리포지토리 구성 을 참조하십시오.

기본적으로 Red Hat Virtualization Manager의 구성 스크립트 engine-setup 은 Manager 시스템에서 Manager 데이터베이스와 Data Warehouse 데이터베이스를 자동으로 생성 및 구성합니다. 데이터베이스 또는 둘 다를 수동으로 설정하려면 Manager를 구성하기 전에 부록 B. 로컬 수동 구성 PostgreSQL 데이터베이스 준비 를 참조하십시오.

3.2. Red Hat Virtualization Manager 리포지토리 활성화

Red Hat Subscription Manager에 시스템을 등록하고, Red Hat Virtualization Manager 서브스크립션을 연결하고, Manager 리포지토리를 활성화합니다.

절차

  1. 메시지가 표시되면 Content Delivery Network에 시스템을 등록하고 고객 포털 사용자 이름과 암호를 입력합니다.

    # subscription-manager register
    참고

    IPv6 네트워크를 사용하는 경우 IPv6 전환 메커니즘을 사용하여 Content Delivery Network 및 서브스크립션 관리자에 액세스합니다.

  2. Red Hat Virtualization Manager 서브스크립션 풀을 찾아 풀 ID를 기록합니다.

    # subscription-manager list --available
  3. 풀 ID를 사용하여 시스템에 서브스크립션을 연결합니다.

    # subscription-manager attach --pool=pool_id
    참고

    현재 연결된 서브스크립션을 보려면 다음을 수행합니다.

    # subscription-manager list --consumed

    활성화된 리포지토리를 모두 나열하려면 다음을 수행합니다.

    # yum repolist
  4. 리포지토리를 구성합니다.

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rpms \
        --enable=rhel-7-server-supplementary-rpms \
        --enable=rhel-7-server-rhv-4.3-manager-rpms \
        --enable=rhel-7-server-rhv-4-manager-tools-rpms \
        --enable=rhel-7-server-ansible-2.9-rpms \
        --enable=jb-eap-7.2-for-rhel-7-server-rpms

3.3. Red Hat Virtualization Manager 설치 및 구성

Red Hat Virtualization Manager의 패키지 및 종속 항목을 설치하고 engine-setup 명령을 사용하여 구성합니다. 이 스크립트는 일련의 질문을 하고 모든 질문에 필요한 값을 제공하면 해당 구성을 적용하고 ovirt-engine 서비스를 시작합니다.

중요

engine-setup 명령은 각각 사용자 입력이 필요한 여러 단계로 구성된 여러 구성 단계를 안내합니다. 제안된 구성 기본값은 대괄호로 제공됩니다. 제안된 값이 지정된 단계에서 허용되는 경우 Enter 키를 눌러 해당 값을 수락합니다.

engine-setup --accept-defaults 를 실행하여 기본 응답이 있는 모든 질문을 자동으로 허용할 수 있습니다. 이 옵션은 신중하게 사용해야 하며 engine-setup 에 익숙한 경우에만 사용해야 합니다.

절차

  1. 모든 패키지가 최신 상태인지 확인합니다.

    # yum update
    참고

    커널 관련 패키지가 업데이트된 경우 시스템을 재부팅합니다.

  2. KnativeServing 패키지 및 종속 항목을 설치합니다.

    # yum install rhvm
  3. engine-setup 명령을 실행하여 Red Hat Virtualization Manager 구성을 시작합니다.

    # engine-setup
  4. Enter 를 눌러 이 머신에서 Manager를 구성합니다.

    Configure Engine on this host (Yes, No) [Yes]:
  5. 필요한 경우 OVN(Open Virtual Network)을 설치합니다. Yes 를 선택하면 Manager 시스템에 OVN 중앙 서버가 설치되고 외부 네트워크 공급자로 Red Hat Virtualization에 추가됩니다. 기본 클러스터는 기본 네트워크 공급자로 OVN을 사용하며 기본 클러스터에 추가된 호스트는 OVN과 통신하도록 자동으로 구성됩니다.

    Configure ovirt-provider-ovn (Yes, No) [Yes]:

    Red Hat Virtualization에서 OVN 네트워크를 사용하는 방법에 대한 자세한 내용은 관리 가이드의 외부 네트워크 공급자로 OVN(Open Virtual Network) 을 참조하십시오.

  6. 필요한 경우 engine-setup 을 허용하여 Manager가 가상 디스크를 스토리지 도메인에 업로드할 수 있도록 이미지 I/O 프록시(ovirt-imageio-proxy)를 구성합니다.

    Configure Image I/O Proxy on this host? (Yes, No) [Yes]:
  7. 필요한 경우 engine-setup 을 허용하여 사용자가 noVNC 콘솔을 통해 가상 머신에 연결할 수 있도록 websocket 프록시 서버를 구성합니다.

    Configure WebSocket Proxy on this machine? (Yes, No) [Yes]:
    중요

    Websocket 프록시 및 noVNC는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있으며 프로덕션에 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. 자세한 내용은 Red Hat 기술 프리뷰 기능 지원 범위를 참조하십시오.

  8. 이 시스템에서 데이터 웨어하우스를 구성할지 여부를 선택합니다.

    Please note: Data Warehouse is required for the engine. If you choose to not configure it on this host, you have to configure it on a remote host, and then configure the engine on this host so that it can access the database of the remote Data Warehouse host.
    Configure Data Warehouse on this host (Yes, No) [Yes]:
  9. 선택적으로 명령줄에서 가상 머신의 직렬 콘솔에 액세스할 수 있습니다.

    Configure VM Console Proxy on this host (Yes, No) [Yes]:

    이 기능을 사용하려면 클라이언트 시스템에 추가 구성이 필요합니다. 가상 머신 관리 가이드에서 가상 머신에 대한 직렬 콘솔 열기를 참조하십시오.

  10. Enter 를 눌러 자동으로 감지된 호스트 이름을 승인하거나 대체 호스트 이름을 입력하고 Enter 키를 누릅니다. 가상 호스트를 사용하는 경우 자동으로 감지된 호스트 이름이 올바르지 않을 수 있습니다.

    Host fully qualified DNS name of this server [autodetected host name]:
  11. engine-setup 명령은 방화벽 구성을 확인하고, 포트 80 및 443과 같은 외부 통신을 위해 Manager에서 사용하는 포트를 열도록 제공합니다. engine-setup 에서 방화벽 구성을 수정하는 것을 허용하지 않는 경우 Manager에서 사용하는 포트를 수동으로 열어야 합니다. firewalld 는 방화벽 관리자로 구성되어 있습니다. iptables 는 더 이상 사용되지 않습니다.

    Setup can automatically configure the firewall on this system.
    Note: automatic configuration of the firewall may overwrite current settings.
    NOTICE: iptables is deprecated and will be removed in future releases
    Do you want Setup to configure the firewall? (Yes, No) [Yes]:

    방화벽을 자동으로 구성하고 방화벽 관리자가 활성 상태가 아닌 경우 지원되는 옵션 목록에서 선택한 방화벽 관리자를 선택하라는 메시지가 표시됩니다. 방화벽 관리자의 이름을 입력하고 Enter 키를 누릅니다. 이는 하나의 옵션만 나열된 경우에도 적용됩니다.

  12. 이 시스템에서 데이터벤치 데이터베이스를 구성할지 또는 다른 시스템에서 구성할지 여부를 지정합니다.

    Where is the DWH database located? (Local, Remote) [Local]:
    • 로컬 을 선택하는 경우 engine-setup 스크립트는 데이터베이스를 자동으로 구성할 수 있으며(사용자 및 데이터베이스 추가 포함) 사전 구성된 로컬 데이터베이스에 연결할 수 있습니다.

      Setup can configure the local postgresql server automatically for the DWH to run. This may conflict with existing applications.
      Would you like Setup to automatically configure postgresql and create DWH database, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
      • 자동 을 선택하면 Enter 키를 눌러 자동으로 선택하면 추가 작업이 필요하지 않습니다.
      • 수동 구성을 선택하는 경우 수동으로 구성된 로컬 데이터베이스에 대해 다음 값을 입력합니다.

        DWH database secured connection (Yes, No) [No]:
        DWH database name [ovirt_engine_history]:
        DWH database user [ovirt_engine_history]:
        DWH database password:
        참고

        engine-setup 은 Manager 데이터베이스가 다음 단계에서 구성된 후 이러한 값을 요청합니다.

    • 원격을 선택하는 경우(예: Manager 시스템에 Datakvm 서비스를 설치하지만 원격 데이터 웨어하우스 데이터베이스를 구성한 경우 원격 데이터베이스 서버에 대해 다음 값을 입력합니다.If you select Remote (for example, if you are installing the Data Warehouse service on the Manager machine, but have configured a remote Data Warehouse database), enter the following values for the remote database server:

      DWH database host [localhost]:
      DWH database port [5432]:
      DWH database secured connection (Yes, No) [No]:
      DWH database name [ovirt_engine_history]:
      DWH database user [ovirt_engine_history]:
      DWH database password:
      참고

      engine-setup 은 Manager 데이터베이스가 다음 단계에서 구성된 후 이러한 값을 요청합니다.

  13. 이 머신에서 Manager 데이터베이스를 구성할지 또는 다른 머신에서 구성할지 여부를 지정합니다.

    Where is the Engine database located? (Local, Remote) [Local]:
    • 로컬 을 선택하는 경우 engine-setup 명령은 데이터베이스를 자동으로 구성할 수 있으며(사용자 및 데이터베이스 추가 포함) 사전 구성된 로컬 데이터베이스에 연결할 수 있습니다.

      Setup can configure the local postgresql server automatically for the engine to run. This may conflict with existing applications.
      Would you like Setup to automatically configure postgresql and create Engine database, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
      • 자동 을 선택하면 Enter 키를 눌러 자동으로 선택하면 추가 작업이 필요하지 않습니다.
      • 수동 구성을 선택하는 경우 수동으로 구성된 로컬 데이터베이스에 대해 다음 값을 입력합니다.

        Engine database secured connection (Yes, No) [No]:
        Engine database name [engine]:
        Engine database user [engine]:
        Engine database password:
  14. Red Hat Virtualization Manager의 자동으로 생성된 관리 사용자에 대한 암호를 설정합니다.

    Engine admin password:
    Confirm engine admin password:
  15. Gluster,Virt, 또는 둘 다를 선택합니다.

    Application mode (Both, Virt, Gluster) [Both]:

    둘 다 최고의 유연성을 제공합니다. 대부분의 경우 둘 다 선택합니다. virt 을 사용하면 환경에서 가상 시스템을 실행할 수 있습니다. Gluster 를 사용하면 관리 포털에서 GlusterFS를 관리할 수 있습니다.

  16. OVN 공급자를 설치한 경우 기본 인증 정보를 사용하거나 대안을 지정하도록 선택할 수 있습니다.

    Use default credentials (admin@internal) for ovirt-provider-ovn (Yes, No) [Yes]:
    oVirt OVN provider user[admin@internal]:
    oVirt OVN provider password:
  17. 디스크가 삭제될 때 가상 디스크의 블록을 제거하는 wipe_after_delete 플래그의 기본값을 설정합니다.

    Default SAN wipe after delete (Yes, No) [No]:
  18. Manager는 인증서를 사용하여 호스트와 안전하게 통신합니다. 이 인증서를 사용하여 Manager와의 HTTPS 통신을 보호할 수도 있습니다. 인증서의 조직 이름을 제공합니다.

    Organization name for certificate [autodetected domain-based name]:
  19. 또는 engine-setup 을 허용하여 관리자의 시작 페이지를 Apache 웹 서버에서 제공하는 기본 페이지로 설정합니다.

    Setup can configure the default page of the web server to present the application home page. This may conflict with existing applications.
    Do you wish to set the application as the default web page of the server? (Yes, No) [Yes]:
  20. 기본적으로 Manager와의 외부 SSL(HTTPS) 통신은 이전에 구성의 이전에 생성된 자체 서명 인증서로 보호되어 호스트와 안전하게 통신할 수 있습니다. 또는 외부 HTTPS 연결에 대해 다른 인증서를 선택합니다. Manager에서 호스트와 통신하는 방법에는 영향을 미치지 않습니다.

    Setup can configure apache to use SSL using a certificate issued from the internal CA.
    Do you wish Setup to configure that, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
  21. 데이터 웨어하우스가 수집된 데이터를 유지하는 기간을 선택합니다.

    Please choose Data Warehouse sampling scale:
    (1) Basic
    (2) Full
    (1, 2)[1]:

    Full 은 데이터 웨어하우스 가이드에 나열된 데이터 스토리지 설정의 기본값을 사용합니다(데이터 웨어하우스가 원격 서버에 설치된 경우 권장됨).

    BasicDWH_TABLES_KEEP_HOURLY 의 값을 720 으로 줄이고 DWH_TABLES_KEEP_DAILY0 으로 줄여 관리자 시스템의 부하를 줄입니다. Manager 및 Data Warehouse가 동일한 시스템에 설치된 경우 Basic 을 사용합니다.

  22. 설치 설정을 검토하고 Enter 를 눌러 값을 수락하고 설치를 진행합니다.

    Please confirm installation settings (OK, Cancel) [OK]:

    환경이 구성된 경우 engine-setup 은 사용자 환경에 액세스하는 방법에 대한 세부 정보를 표시합니다. 방화벽을 수동으로 구성하도록 선택하면 engine-setup 은 설정 중에 선택한 옵션에 따라 열어야 하는 포트 목록을 제공합니다. engine-setup 은 또한 동일한 값을 사용하여 관리자를 재구성하는 데 사용할 수 있는 파일에 답변을 저장하고 Red Hat Virtualization Manager 구성 프로세스에 대한 로그 파일의 위치를 출력합니다.

  23. Red Hat Virtualization 환경을 디렉터리 서버와 연결하려는 경우 예기치 않은 계정 만료 문제를 방지하기 위해 디렉터리 서버에서 사용하는 시스템 클럭과 동기화되도록 날짜와 시간을 설정합니다. 자세한 내용은 Red Hat Enterprise Linux 시스템 관리자 가이드의 원격 서버와 시스템 잠금 동기화 를 참조하십시오.
  24. 브라우저에서 제공한 지침에 따라 인증 기관을 설치합니다. http://manager-fqdn/ovirt-engine/services/pki-resource?resource=ca-certificate&format=X509-PEM-CA 로 이동하여 manager- fqdn 을 설치 중에 제공한 FQDN으로 교체하여 인증 기관의 인증서를 가져올 수 있습니다.

환경에 호스트 및 스토리지를 추가할 수 있는 관리 포털에 로그인합니다.

3.4. 관리 포털에 연결

웹 브라우저를 사용하여 관리 포털에 액세스합니다.

  1. 웹 브라우저에서 https://manager-fqdn/ovirt-engine 으로 이동하여 manager-fqdn 을 설치 중에 제공한 FQDN으로 교체합니다.

    참고

    대체 호스트 이름 또는 IP 주소를 사용하여 관리 포털에 액세스할 수 있습니다. 이를 위해서는 /etc/ovirt-engine/engine.conf.d/ 에 구성 파일을 추가해야 합니다. 예를 들어 다음과 같습니다.

    # vi /etc/ovirt-engine/engine.conf.d/99-custom-sso-setup.conf
    SSO_ALTERNATE_ENGINE_FQDNS="alias1.example.com alias2.example.com"

    대체 호스트 이름 목록을 공백으로 구분해야 합니다. Manager의 IP 주소를 목록에 추가할 수도 있지만 DNS 확인 가능한 호스트 이름 대신 IP 주소를 사용하는 것은 권장되지 않습니다.

  2. 관리 포털 을 클릭합니다. SSO 로그인 페이지가 표시됩니다. SSO 로그인을 사용하면 관리 및 VM 포털에 동시에 로그인할 수 있습니다.
  3. 사용자 이름암호를 입력합니다. 처음 로그인하는 경우 설치 중에 지정한 암호와 함께 사용자 이름 admin 을 사용합니다.
  4. 인증할 도메인 을 선택합니다. 내부 관리자 이름을 사용하여 로그인하는 경우 내부 도메인을 선택합니다.
  5. Log In (로그인)을 클릭합니다.
  6. 관리 포털은 여러 언어로 볼 수 있습니다. 기본 선택 사항은 웹 브라우저의 로케일 설정에 따라 선택됩니다. 기본 언어가 아닌 언어로 관리 포털을 보려면 시작 페이지의 드롭다운 목록에서 원하는 언어를 선택합니다.

Red Hat Virtualization 관리 포털에서 로그아웃하려면 헤더 표시줄에서 사용자 이름을 클릭하고 Sign Out (로그아웃)을 클릭합니다. 모든 포털에서 로그아웃되었으며 Manager 시작 화면이 표시됩니다.

4장. Red Hat Virtualization용 호스트 설치

Red Hat Virtualization은 RHVH(Red Hat Virtualization Host)와 Red Hat Enterprise Linux 호스트 라는 두 가지 유형의 호스트를 지원합니다. 환경에 따라 한 유형만 또는 둘 다 사용할 수 있습니다. 마이그레이션 및 고가용성과 같은 기능에는 최소 두 개의 호스트가 필요합니다.

네트워킹 정보는 4.3절. “호스트 네트워크 구성에 대한 권장 사례” 를 참조하십시오.

중요

설치 시 SELinux가 강제 모드에 있습니다. 확인하려면 getenforce 를 실행합니다. SELinux는 Red Hat Virtualization 환경을 지원하는 모든 호스트 및 관리자에서 강제 모드로 설정되어 있어야 합니다.

표 4.1. 호스트 유형

호스트 유형기타 이름설명

Red Hat Virtualization 호스트

RHVH, 씬 호스트

이는 Red Hat Enterprise Linux를 기반으로 하는 최소 운영 체제입니다. 고객 포털에서 ISO 파일로 배포되며 시스템이 호스트 역할을 하는 데 필요한 패키지만 포함합니다.

Red Hat Enterprise Linux 호스트

RHEL 호스트, 두께 호스트

적절한 서브스크립션이 연결된 Red Hat Enterprise Linux 시스템을 호스트로 사용할 수 있습니다.

호스트 호환성

새 데이터 센터를 생성할 때 호환성 버전을 설정할 수 있습니다. 데이터 센터의 모든 호스트에 적합한 호환성 버전을 선택합니다. 설정한 후에는 버전 회귀가 허용되지 않습니다. 새로운 Red Hat Virtualization 설치의 경우 최신 호환성 버전이 기본 데이터 센터와 기본 클러스터에 설정됩니다. 이전 호환성 버전을 사용하려면 추가 데이터 센터와 클러스터를 생성해야 합니다. 호환성 버전에 대한 자세한 내용은 Red Hat Virtualization 라이프 사이클의 Red Hat Virtualization Manager 호환성 을 참조하십시오.

4.1. Red Hat Virtualization 호스트

4.1.1. Red Hat Virtualization 호스트 설치

RHVH(Red Hat Virtualization Host)는 Red Hat Virtualization 환경에서 하이퍼바이저 역할을 하는 물리적 머신을 설정하는 간단한 방법을 제공하도록 설계된 최소 운영 체제입니다. 최소 운영 체제에는 시스템이 하이퍼바이저 역할을 하는 데 필요한 패키지만 포함하며, 호스트 모니터링 및 관리 작업을 수행하는 데 필요한 Cockpit 웹 인터페이스를 제공합니다. 최소 브라우저 요구 사항은 http://cockpit-project.org/running.html 을 참조하십시오.

RHVH에서는 보안 향상을 위해 NIST 800-53 파티션 요구 사항을 지원합니다. RHVH는 기본적으로 NIST 800-53 파티션 레이아웃을 사용합니다.

호스트는 최소 호스트 요구 사항을 충족해야 합니다.

절차

  1. 고객 포털에서 RHVH ISO 이미지를 다운로드합니다.

    1. https://access.redhat.com 에서 고객 포털에 로그인합니다.
    2. 메뉴 모음에서 다운로드를 클릭합니다.
    3. Red Hat Virtualization 을 클릭합니다. 아래로 스크롤하여 Download Latest 를 클릭하여 제품 다운로드 페이지에 액세스합니다.
    4. RHV 4.3의 Hypervisor Image (하이퍼 이미지)로 이동하여 Download Now 를 클릭합니다.
    5. 부팅 가능한 미디어 장치를 생성합니다. 자세한 내용은 Red Hat Enterprise Linux 설치 가이드에서 Making Media 를 참조하십시오.
  2. RHVH를 설치하는 시스템을 시작하여 준비된 설치 미디어에서 부팅합니다.
  3. 부팅 메뉴에서 Install RHVH 4.3 을 선택하고 Enter 를 누릅니다.

    참고

    Tab 키를 눌러 커널 매개 변수를 편집할 수도 있습니다. 커널 매개변수는 공백으로 구분해야 하며, Enter 키를 눌러 지정된 커널 매개 변수를 사용하여 시스템을 부팅할 수 있습니다. Esc 키를 눌러 커널 매개 변수 변경 사항을 지우고 부팅 메뉴로 돌아갑니다.

  4. 언어를 선택하고 Continue 를 클릭합니다.
  5. 날짜 및 시간 화면에서 시간대 를 선택하고 완료 를 클릭합니다.
  6. 키보드 화면에서 키보드 레이아웃을 선택하고 Done 을 클릭합니다.
  7. Installation Destination (설치 대상) 화면에서 RHVH를 설치할 장치를 선택합니다. 필요한 경우 암호화를 활성화합니다. 완료 를 클릭합니다.

    중요

    Red Hat은 자동으로 파티션 설정 옵션을 사용하는 것이 좋습니다.

  8. Network & Host Name 화면에서 네트워크를 선택하고 Configure…​ 을 클릭하여 연결 세부 정보를 구성합니다.

    참고

    시스템을 부팅할 때마다 연결을 사용하려면 Automatically connect to this network when it is available (이 네트워크를 사용할 수 있을 때 자동으로 연결) 확인란을 선택합니다. 자세한 내용은 Red Hat Enterprise Linux 7 설치 가이드의 네트워크 연결 편집 을 참조하십시오.

    호스트 이름 필드에 호스트 이름을 입력하고 Done (완료)을 클릭합니다.

  9. 선택적으로 언어 지원,보안 정책, Kdump 를 구성합니다. 설치 요약 화면의 각 섹션에 대한 자세한 내용은 Red Hat Enterprise Linux 7 설치 가이드 의 Anaconda를 사용하여 설치를 참조하십시오.
  10. 설치 시작을 클릭합니다.
  11. RHVH를 설치하는 동안 루트 암호를 설정하고 선택적으로 추가 사용자를 생성합니다.

    주의

    로컬 보안 취약점이 악용될 수 있으므로 RHVH에서 신뢰할 수 없는 사용자를 생성하지 않는 것이 좋습니다.

  12. Reboot (재부팅)를 클릭하여 설치를 완료합니다.

    참고

    RHVH가 다시 시작되면 nodectl 에서 호스트에서 상태 점검을 수행하고 명령줄에서 로그인하면 결과를 표시합니다. 메시지 노드 status: OK 또는 node status: DEGRADED 는 상태를 나타냅니다. nodectl 검사를 실행하여 자세한 정보를 가져옵니다. 서비스는 기본적으로 활성화되어 있습니다.

4.1.2. Red Hat Virtualization Host Repository 활성화

업데이트를 받으려면 시스템을 등록합니다. Red Hat Virtualization Host에는 리포지토리가 하나만 필요합니다. 이 섹션에서는 Content Delivery Network 또는 Red Hat Satellite 6 에 RHVH를 등록하는 방법을 설명합니다.

Content Delivery Network에 RHVH 등록

  1. https://HostFQDNorIP:9090 에서 Cockpit 웹 인터페이스에 로그인합니다.
  2. 서브스크립션 으로 이동하여 Register System 을 클릭하고 Customer Portal 사용자 이름과 암호를 입력합니다. Red Hat Virtualization Host 서브스크립션이 시스템에 자동으로 연결됩니다.
  3. 터미널 을 클릭합니다.
  4. Red Hat Virtualization Host 7 리포지토리를 활성화하여 Red Hat Virtualization Host에 대한 이후 업데이트를 허용합니다.

    # subscription-manager repos --enable=rhel-7-server-rhvh-4-rpms

Red Hat Satellite 6으로 RHVH 등록

  1. https://HostFQDNorIP:9090 에서 Cockpit 웹 인터페이스에 로그인합니다.
  2. 터미널 을 클릭합니다.
  3. Red Hat Satellite 6에 RHVH를 등록합니다.

      # rpm -Uvh http://satellite.example.com/pub/katello-ca-consumer-latest.noarch.rpm
      # subscription-manager register --org="org_id"
      # subscription-manager list --available
      # subscription-manager attach --pool=pool_id
      # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rhvh-4-rpms

4.1.3. 고급 설치

4.1.3.1. 사용자 정의 파티셔닝

RHVH(Red Hat Virtualization Host)에서 사용자 정의 파티셔닝은 권장되지 않습니다. Red Hat은 Installation Destination (설치 대상) 창에서 자동으로 파티션 설정 옵션을 사용하는 것이 좋습니다.

설치에 사용자 지정 파티션이 필요한 경우 설치 중에 I will configure partitioning 옵션을 선택하고 다음 제한 사항이 적용됩니다.

  • Manual Partitioning 창에서 기본 LVM Thin Provisioning 옵션이 선택되어 있는지 확인합니다.
  • 다음 디렉터리가 필요하며 씬 프로비저닝된 논리 볼륨에 있어야 합니다.

    • 루트 (/)
    • /home
    • /tmp
    • /var
    • /var/crash
    • /var/log
    • /var/log/audit

      중요

      /usr 에 대해 별도의 파티션을 생성하지 마십시오. 이렇게 하면 설치에 실패합니다.

      /usr 은 RHVH와 함께 버전을 변경할 수 있는 논리 볼륨에 있어야 하므로 root(/)에 남아 있어야 합니다.

      각 파티션의 필요한 스토리지 크기에 대한 자세한 내용은 2.2.3절. “스토리지 요구 사항” 을 참조하십시오.

  • /boot 디렉토리가 표준 파티션으로 정의되어야 합니다.
  • /var 디렉토리는 별도의 볼륨 또는 디스크에 있어야 합니다.
  • XFS 또는 Ext4 파일 시스템만 지원됩니다.

Kickstart 파일에서 수동 파티셔닝 구성

다음 예제에서는 Kickstart 파일에서 수동 파티셔닝을 구성하는 방법을 보여줍니다.

clearpart --all
part /boot --fstype xfs --size=1000 --ondisk=sda
part pv.01 --size=42000 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40000 --grow
logvol / --vgname=HostVG --name=root --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=6000 --grow
logvol /var --vgname=HostVG --name=var --thin --fstype=ext4 --poolname=HostPool
--fsoptions="defaults,discard" --size=15000
logvol /var/crash --vgname=HostVG --name=var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10000
logvol /var/log --vgname=HostVG --name=var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8000
logvol /var/log/audit --vgname=HostVG --name=var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2000
logvol /home --vgname=HostVG --name=home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1000
logvol /tmp --vgname=HostVG --name=tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1000
참고

logvol --thinpool --grow 를 사용하는 경우 씬 풀이 확장되도록 볼륨 그룹에 공간을 예약하려면 volgroup --reserved-space 또는 volgroup --reserved-percent 도 포함해야 합니다.

4.1.3.2. Red Hat Virtualization Host 배포 자동화

설치 질문에 대한 응답이 포함된 Kickstart 파일을 사용하여 PXE 서버에서 PXE 서버를 부팅하여 물리적 미디어 장치 없이 RHVH(Red Hat Virtualization Host)를 설치할 수 있습니다.

Kickstart 파일이 있는 PXE 서버에서 설치하는 일반적인 지침은 RHVH가 Red Hat Enterprise Linux와 거의 동일한 방식으로 설치되므로 Red Hat Enterprise Linux 설치 가이드에서 확인할 수 있습니다. RHVH별 지침(Red Hat Satellite로 RHVH 배포 예)은 다음과 같습니다.

자동화된 RHVH 배포에는 다음 세 단계가 있습니다.

4.1.3.2.1. 설치 환경 준비
  1. 고객 포털에 로그인합니다.
  2. 메뉴 모음에서 다운로드를 클릭합니다.
  3. Red Hat Virtualization 을 클릭합니다. 아래로 스크롤하여 Download Latest 를 클릭하여 제품 다운로드 페이지에 액세스합니다.
  4. RHV 4.3의 Hypervisor Image (하이퍼 이미지)로 이동하여 Download Now 를 클릭합니다.
  5. 네트워크를 통해 RHVH ISO 이미지를 사용할 수 있도록 합니다. Red Hat Enterprise Linux 설치 가이드에서 네트워크에서 설치 소스를 참조하십시오.
  6. RHVH ISO에서 squashfs.img 하이퍼바이저 이미지 파일을 추출합니다.

    # mount -o loop /path/to/RHVH-ISO /mnt/rhvh
    # cp /mnt/rhvh/Packages/redhat-virtualization-host-image-update* /tmp
    # cd /tmp
    # rpm2cpio redhat-virtualization-host-image-update* | cpio -idmv
    참고

    /tmp/usr/share/redhat-virtualization-host/image/ 디렉터리에 있는 이 squashfs.img 파일은 redhat-virtualization-host-version_number_version.squashfs.img 이라고 합니다. 여기에는 실제 시스템에 설치할 하이퍼바이저 이미지가 포함되어 있습니다. Anaconda inst.stage2 옵션에 사용되는 /LiveOS/squashfs.img 파일과 혼동해서는 안 됩니다.

4.1.3.2.2. PXE 서버 및 부팅 로더 구성
  1. PXE 서버를 구성합니다. Red Hat Enterprise Linux 설치 가이드의 네트워크 설치 준비를 참조하십시오.
  2. RHVH 부팅 이미지를 /tftpboot 디렉터리에 복사합니다.

    # cp mnt/rhvh/images/pxeboot/{vmlinuz,initrd.img} /var/lib/tftpboot/pxelinux/
  3. 부트 로더 구성에서 RHVH 부트 이미지를 지정하는 rhvh 레이블을 생성합니다.

    LABEL rhvh
    MENU LABEL Install Red Hat Virtualization Host
    KERNEL /var/lib/tftpboot/pxelinux/vmlinuz
    APPEND initrd=/var/lib/tftpboot/pxelinux/initrd.img inst.stage2=URL/to/RHVH-ISO

    Red Hat Satellite용 RHVH 부팅 로드 구성 예

    Red Hat Satellite의 정보를 사용하여 호스트를 프로비저닝하는 경우 rhvh_image 라는 글로벌 또는 호스트 그룹 수준 매개변수를 생성하여 ISO가 마운트되거나 추출되는 디렉터리 URL로 채워야 합니다.

    <%#
    kind: PXELinux
    name: RHVH PXELinux
    %>
    # Created for booting new hosts
    #
    
    DEFAULT rhvh
    
    LABEL rhvh
    KERNEL <%= @kernel %>
    APPEND initrd=<%= @initrd %> inst.ks=<%= foreman_url("provision") %> inst.stage2=<%= @host.params["rhvh_image"] %> intel_iommu=on console=tty0 console=ttyS1,115200n8 ssh_pwauth=1 local_boot_trigger=<%= foreman_url("built") %>
    IPAPPEND 2
  4. RHVH ISO의 콘텐츠를 로컬에서 사용할 수 있도록 설정하고 HTTPD 서버를 사용하여 네트워크로 내보냅니다.

    # cp -a /mnt/rhvh/ /var/www/html/rhvh-install
    # curl URL/to/RHVH-ISO/rhvh-install
4.1.3.2.3. Kickstart 파일 생성 및 실행
  1. Kickstart 파일을 만들고 네트워크를 통해 사용할 수 있도록 합니다. Red Hat Enterprise Linux 설치 가이드의 Kickstart 설치 단원을 참조하십시오.
  2. Kickstart 파일이 다음 RHV 관련 요구 사항을 충족하는지 확인합니다.

    • RHVH에는 %packages 섹션이 필요하지 않습니다. 대신 liveimg 옵션을 사용하고 RHVH ISO 이미지에서 redhat-virtualization-host-version_number_version.squashfs.img 파일을 지정합니다.

      liveimg --url=example.com/tmp/usr/share/redhat-virtualization-host/image/redhat-virtualization-host-version_number_version.squashfs.img
    • 자동 분할을 사용하는 것이 좋습니다.

      autopart --type=thinp
      참고

      씬 프로비저닝은 자동 분할과 함께 사용해야 합니다.

      /home 은 필수 디렉터리이므로 RHVH에서는 --no-home 옵션이 작동하지 않습니다.

      설치에 수동 파티셔닝이 필요한 경우, 파티션에 적용되는 제한 사항 목록 및 Kickstart 파일의 수동 파티션 예제를 보려면 4.1.3.1절. “사용자 정의 파티셔닝” 를 참조하십시오.

    • nodectl init 명령을 호출하는 %post 섹션이 필요합니다.

      %post
      nodectl init
      %end

      Own에 RHVH 배포용 Kickstart 예

      이 Kickstart 예제에서는 RHVH를 배포하는 방법을 보여줍니다. 필요에 따라 추가 명령 및 옵션을 포함할 수 있습니다.

      liveimg --url=http://FQDN/tmp/usr/share/redhat-virtualization-host/image/redhat-virtualization-host-version_number_version.squashfs.img
      clearpart --all
      autopart --type=thinp
      rootpw --plaintext ovirt
      timezone --utc America/Phoenix
      zerombr
      text
      
      reboot
      
      %post --erroronfail
      nodectl init
      %end

      Satellite에서 등록 및 네트워크 구성을 사용하여 RHVH 배포 예

      이 Kickstart 예제에서는 Red Hat Satellite의 정보를 사용하여 호스트 네트워크를 구성하고 호스트를 Satellite 서버에 등록합니다. rhvh_image 라는 글로벌 또는 호스트 그룹 수준 매개 변수를 생성하고 디렉터리 URL로 squashfs.img 파일을 채워야 합니다. ntp_server1 은 글로벌 또는 호스트 그룹 수준 변수이기도 합니다.

      <%#
      kind: provision
      name: RHVH Kickstart default
      oses:
      - RHVH
      %>
      install
      liveimg --url=<%= @host.params['rhvh_image'] %>squashfs.img
      
      network --bootproto static --ip=<%= @host.ip %> --netmask=<%= @host.subnet.mask %> --gateway=<%= @host.subnet.gateway %> --nameserver=<%= @host.subnet.dns_primary %> --hostname <%= @host.name %>
      
      zerombr
      clearpart --all
      autopart --type=thinp
      
      rootpw --iscrypted <%= root_pass %>
      
      # installation answers
      lang en_US.UTF-8
      timezone <%= @host.params['time-zone'] || 'UTC' %>
      keyboard us
      firewall --service=ssh
      services --enabled=sshd
      
      text
      reboot
      
      %post --log=/root/ks.post.log --erroronfail
      nodectl init
      <%= snippet 'subscription_manager_registration' %>
      <%= snippet 'kickstart_networking_setup' %>
      /usr/sbin/ntpdate -sub <%= @host.params['ntp_server1'] || '0.fedora.pool.ntp.org' %>
      /usr/sbin/hwclock --systohc
      
      /usr/bin/curl <%= foreman_url('built') %>
      
      sync
      systemctl reboot
      %end
  3. PXE 서버의 부트 로더 구성 파일에 Kickstart 파일 위치를 추가합니다.

    APPEND initrd=/var/tftpboot/pxelinux/initrd.img inst.stage2=URL/to/RHVH-ISO inst.ks=URL/to/RHVH-ks.cfg
  4. Red Hat Enterprise Linux 설치 가이드PXE를 사용하여 네트워크에서 부팅 의 지침에 따라 RHVH를 설치합니다.

4.2. Red Hat Enterprise Linux 호스트

4.2.1. Red Hat Enterprise Linux 호스트 설치

Red Hat Enterprise Linux 호스트는 Red Hat Enterprise Linux ServerRed Hat Virtualization 서브스크립션이 연결된 물리적 서버에 Red Hat Enterprise Linux 7의 표준 기본 설치를 기반으로 합니다.

자세한 설치 지침은 표준 {enterprise-linux-shortname} 설치 수행 을 참조하십시오.

호스트는 최소 호스트 요구 사항을 충족해야 합니다.

중요

호스트의 BIOS 설정에서 가상화를 활성화해야 합니다. 호스트의 BIOS 설정 변경에 대한 자세한 내용은 호스트의 하드웨어 설명서를 참조하십시오.

중요

VDSM에서 제공하는 워치독 데몬을 방해할 수 있으므로 Red Hat Enterprise Linux 호스트에 타사 워치독을 설치하지 않아야 합니다.

4.2.2. Red Hat Enterprise Linux 호스트 리포지토리 활성화

Red Hat Enterprise Linux 머신을 호스트로 사용하려면 시스템을 Content Delivery Network에 등록하고 Red Hat Enterprise Linux ServerRed Hat Virtualization 서브스크립션을 연결하고 호스트 리포지토리를 활성화해야 합니다.

절차

  1. 메시지가 표시되면 Content Delivery Network에 시스템을 등록하고 고객 포털 사용자 이름과 암호를 입력합니다.

    # subscription-manager register
  2. Red Hat Enterprise Linux ServerRed Hat Virtualization 서브스크립션 풀을 찾아 풀 ID를 기록합니다.

    # subscription-manager list --available
  3. 풀 ID를 사용하여 서브스크립션을 시스템에 연결합니다.

    # subscription-manager attach --pool=poolid
    참고

    현재 연결된 서브스크립션을 보려면 다음을 수행합니다.

    # subscription-manager list --consumed

    활성화된 리포지토리를 모두 나열하려면 다음을 수행합니다.

    # yum repolist
  4. 리포지토리를 구성합니다.

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rpms \
        --enable=rhel-7-server-rhv-4-mgmt-agent-rpms \
        --enable=rhel-7-server-ansible-2.9-rpms

    Red Hat Enterprise Linux 7 호스트, little endian, IBM POWER8 하드웨어의 경우:

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-le-rpms \
        --enable=rhel-7-for-power-le-rpms

    IBM POWER9 하드웨어에서 Red Hat Enterprise Linux 7 호스트 little endian의 경우:

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-9-rpms \
        --enable=rhel-7-for-power-9-rpms
  5. 현재 설치된 모든 패키지가 최신 버전인지 확인합니다.

    # yum update
  6. 시스템을 재부팅합니다.

4.2.3. Red Hat Enterprise Linux 호스트에 Cockpit 설치

호스트의 리소스를 모니터링하고 관리 작업을 수행하기 위해 Cockpit을 설치할 수 있습니다.

절차

  1. 대시보드 패키지를 설치합니다.

    # yum install cockpit-ovirt-dashboard
  2. cockpit.socket 서비스를 활성화하고 시작합니다.

    # systemctl enable cockpit.socket
    # systemctl start cockpit.socket
  3. 방화벽에서 Cockpit이 활성 서비스인지 확인합니다.

    # firewall-cmd --list-services

    cockpit 이 나열되어야 합니다. 없는 경우 root 권한으로 다음을 입력하여 방화벽에 cockpit 를 서비스로 추가합니다.

    # firewall-cmd --permanent --add-service=cockpit

    --permanent 옵션은 재부팅 후 cockpit 서비스를 활성 상태로 유지합니다.

https://HostFQDNorIP:9090 에서 Cockpit 웹 인터페이스에 로그인할 수 있습니다.

4.4. Red Hat Virtualization Manager에 표준 호스트 추가

Red Hat Virtualization 환경에 호스트를 추가하는 작업은 가상화 검사, 패키지 설치, 브릿지 생성 등 플랫폼에서 다음 단계를 완료하므로 시간이 걸릴 수 있습니다.

중요

정적 IPv6 주소를 사용하는 관리 브릿지를 만들 때 호스트를 추가하기 전에 인터페이스 구성(ifcfg) 파일에서 네트워크 관리자 제어를 비활성화합니다. 자세한 내용은 https://access.redhat.com/solutions/3981311 를 참조하십시오.

절차

  1. 관리 포털에서 ComputeHosts (컴퓨팅 호스트)를 클릭합니다.
  2. New 를 클릭합니다.
  3. 드롭다운 목록을 사용하여 새 호스트의 Data CenterHost Cluster 를 선택합니다.
  4. 새 호스트의 이름 및 주소를 입력합니다. 표준 SSH 포트 22는 SSH 포트 필드에 자동으로 채워집니다.
  5. Manager에서 호스트에 액세스하는 데 사용할 인증 방법을 선택합니다.

    • 암호 인증을 사용하려면 root 사용자의 암호를 입력합니다.
    • 또는 SSH PublicKey 필드에 표시된 키를 호스트의 /root/.ssh/authorized_keys 에 복사하여 공개 키 인증을 사용합니다.
  6. 필요에 따라 고급 매개 변수 버튼을 클릭하여 다음과 같은 고급 호스트 설정을 변경합니다.

    • 자동 방화벽 구성을 비활성화합니다.
    • 호스트 SSH 지문을 추가하여 보안을 강화합니다. 수동으로 추가하거나 자동으로 가져올 수 있습니다.
  7. 필요에 따라 호스트에 지원되는 전원 관리 카드가 있는 전원 관리를 구성합니다. 전원 관리 구성에 대한 자세한 내용은 관리 가이드에 설명된 호스트 전원 관리 설정을 참조하십시오.
  8. OK를 클릭합니다.

새 호스트는 설치 상태의 호스트 목록에 표시되고 알림 Drawer ( EventsIcon )의 이벤트 섹션에서 설치 진행 상황을 볼 수 있습니다. 잠시 지연된 후 호스트 상태가 Up 으로 변경됩니다.

5장. Red Hat Virtualization용 스토리지 준비

새 환경의 스토리지 도메인에 사용할 스토리지를 준비합니다. Red Hat Virtualization 환경에는 하나 이상의 데이터 스토리지 도메인이 있어야 하지만 추가 도메인을 추가하는 것이 좋습니다.

데이터 도메인에는 데이터 센터에 있는 모든 가상 머신과 템플릿의 가상 하드 디스크 및 OVF 파일이 있으며 활성화된 상태에서 데이터 센터 간에 공유할 수 없습니다(데이터 센터 간에 마이그레이션할 수 있음). 여러 스토리지 유형의 데이터 도메인을 동일한 데이터 센터에 추가할 수 있습니다. 이 도메인은 모두 로컬 도메인이 아닌 공유 데이터 센터에 추가됩니다.

다음 스토리지 유형 중 하나를 사용할 수 있습니다.

5.1. NFS 스토리지 준비

Red Hat Enterprise Virtualization Host 시스템에서 스토리지 도메인 역할을 하도록 파일 스토리지 또는 원격 서버에 NFS 공유를 설정합니다. 원격 스토리지에서 공유를 내보내고 Red Hat Virtualization Manager에서 구성한 후 Red Hat Virtualization 호스트에서 공유를 자동으로 가져옵니다.

NFS 설정 및 구성에 대한 자세한 내용은 Red Hat Enterprise Linux 7 스토리지 관리 가이드의 NFS(Network File System) 를 참조하십시오.

'NFS' 공유를 내보내는 방법에 대한 자세한 내용은 Red Hat Virtualization의 NetApp Storage / EMC SAN에서 'NFS' 공유를 내보내 는 방법을 참조하십시오.

특정 시스템 사용자 계정과 시스템 사용자 그룹은 Red Hat Virtualization에 필요하므로 Manager는 내보낸 디렉터리가 나타내는 스토리지 도메인에 데이터를 저장할 수 있습니다. 다음 절차에서는 하나의 디렉터리에 대한 권한을 설정합니다. Red Hat Virtualization에서 스토리지 도메인으로 사용하려는 모든 디렉토리에 대해 chownchmod 단계를 반복해야 합니다.

절차

  1. kvm 그룹을 생성합니다.

    # groupadd kvm -g 36
  2. kvm 그룹에 vdsm 사용자 vdsm을 생성합니다.

    # useradd vdsm -u 36 -g 36
  3. 내보낸 디렉터리의 소유권을 36:36으로 설정하여 vdsm:kvm 소유권을 제공합니다.

    # chown -R 36:36 /exports/data
  4. 디렉터리 모드를 변경하여 소유자에 읽기 및 쓰기 권한이 부여되도록 하고, 그룹 및 기타 사용자에게 읽기 및 실행 권한이 부여되도록 합니다.

    # chmod 0755 /exports/data

5.2. iSCSI 스토리지 준비

Red Hat Virtualization은 LUN으로 구성된 볼륨 그룹에서 생성된 스토리지 도메인인 iSCSI 스토리지를 지원합니다. 볼륨 그룹 및 LUN은 한 번에 둘 이상의 스토리지 도메인에 연결할 수 없습니다.

iSCSI 스토리지 설정 및 구성에 대한 자세한 내용은 Red Hat Enterprise Linux 7 스토리지 관리 가이드에서 Online Storage Management 를 참조하십시오.

중요

블록 스토리지를 사용하고 있고 원시 장치 또는 LUN에 가상 머신을 배포하고 논리 볼륨 관리자를 사용하여 이를 관리하려면 게스트 논리 볼륨을 숨기는 필터를 생성해야 합니다. 이렇게 하면 호스트가 부팅될 때 게스트 논리 볼륨이 활성화되지 않고 오래된 논리 볼륨으로 이어질 수 있으며 데이터 손상을 유발할 수 있습니다. 자세한 내용은 https://access.redhat.com/solutions/2662261 를 참조하십시오.

중요

Red Hat Virtualization은 현재 블록 크기가 4K인 블록 스토리지를 지원하지 않습니다. 레거시(512b 블록) 모드로 블록 스토리지를 구성해야 합니다.

중요

호스트가 SAN 스토리지에서 부팅되고 스토리지 연결이 끊어지면 스토리지 파일 시스템이 읽기 전용 상태가 되고 연결이 복원된 후에도 이 상태로 유지됩니다.

이러한 상황을 방지하기 위해 Red Hat은 SAN의 루트 파일 시스템에 있는 SAN에 대한 다중 경로 구성 파일을 추가하여 연결이 있을 때 대기열에 추가하도록 권장합니다.

# cat /etc/multipath/conf.d/host.conf
multipaths {
    multipath {
        wwid boot_LUN_wwid
        no_path_retry queue
    }

5.3. FCP 스토리지 준비

Red Hat Virtualization은 기존 LUN으로 구성된 볼륨 그룹에서 스토리지 도메인을 생성하여 SAN 스토리지를 지원합니다. 한 번에 둘 이상의 스토리지 도메인에 볼륨 그룹 및 LUN을 연결할 수 없습니다.

Red Hat Virtualization 시스템 관리자는 SAN(Storage Area Networks) 개념에 대한 작업 지식이 필요합니다. SAN은 일반적으로 호스트와 공유 외부 스토리지 간의 트래픽에 FCP(Fibre Channel Protocol)를 사용합니다. 이러한 이유로 SAN은 때때로 FCP 스토리지라고 할 수 있습니다.

Red Hat Enterprise Linux에서 FCP 또는 멀티패스를 설정하고 구성하는 방법에 대한 자세한 내용은 스토리지 관리 가이드DM Multipath 가이드를 참조하십시오.

중요

블록 스토리지를 사용하고 있고 원시 장치 또는 LUN에 가상 머신을 배포하고 논리 볼륨 관리자를 사용하여 이를 관리하려면 게스트 논리 볼륨을 숨기는 필터를 생성해야 합니다. 이렇게 하면 호스트가 부팅될 때 게스트 논리 볼륨이 활성화되지 않고 오래된 논리 볼륨으로 이어질 수 있으며 데이터 손상을 유발할 수 있습니다. 자세한 내용은 https://access.redhat.com/solutions/2662261 를 참조하십시오.

중요

Red Hat Virtualization은 현재 블록 크기가 4K인 블록 스토리지를 지원하지 않습니다. 레거시(512b 블록) 모드로 블록 스토리지를 구성해야 합니다.

중요

호스트가 SAN 스토리지에서 부팅되고 스토리지 연결이 끊어지면 스토리지 파일 시스템이 읽기 전용 상태가 되고 연결이 복원된 후에도 이 상태로 유지됩니다.

이러한 상황을 방지하기 위해 Red Hat은 SAN의 루트 파일 시스템에 있는 SAN에 대한 다중 경로 구성 파일을 추가하여 연결이 있을 때 대기열에 추가하도록 권장합니다.

# cat /etc/multipath/conf.d/host.conf
multipaths {
    multipath {
        wwid boot_LUN_wwid
        no_path_retry queue
    }

5.4. POSIX 호환 파일 시스템 스토리지 준비

POSIX 파일 시스템 지원을 사용하면 일반적으로 명령줄에서 수동으로 마운트할 때 사용하는 것과 동일한 마운트 옵션을 사용하여 파일 시스템을 마운트할 수 있습니다. 이 기능은 NFS, iSCSI 또는 FCP를 사용하여 스토리지에 대한 액세스를 허용하지 않습니다.

Red Hat Virtualization에서 스토리지 도메인으로 사용되는 POSIX 호환 파일 시스템은 GFS2(Global File System 2)와 같은 클러스터형 파일 시스템이어야 하며 스파스 파일과 직접 I/O를 지원해야 합니다. 예를 들어 CIFS(Common Internet File System)는 직접 I/O를 지원하지 않으므로 Red Hat Virtualization과 호환되지 않습니다.

POSIX 호환 파일 시스템 스토리지 설정 및 구성에 대한 자세한 내용은 Red Hat Enterprise Linux Global File System 2 를 참조하십시오.

중요

POSIX 호환 파일 시스템 스토리지 도메인을 생성하여 NFS 스토리지를 마운트 하지 마십시오. 대신 NFS 스토리지 도메인을 항상 생성합니다.

5.5. 로컬 스토리지 준비

호스트에서 로컬 스토리지 도메인을 설정할 수 있습니다. 로컬 스토리지를 사용하도록 호스트를 설정하면 다른 호스트를 추가할 수 없는 새 데이터 센터와 클러스터에 호스트가 자동으로 추가됩니다. 다중 호스트 클러스터에는 모든 호스트가 모든 스토리지 도메인에 액세스할 수 있어야 하며, 로컬 스토리지에서는 사용할 수 없습니다. 단일 호스트 클러스터에서 생성된 가상 시스템은 마이그레이션, 펜싱 또는 예약할 수 없습니다.

중요

RHVH(Red Hat Virtualization Host)에서 로컬 스토리지는 / (root)와 별도의 파일 시스템에 항상 정의해야 합니다. 업그레이드 중에 데이터 손실을 방지하기 위해 별도의 논리 볼륨 또는 디스크를 사용하는 것이 좋습니다.

Red Hat Enterprise Linux 호스트를 위한 로컬 스토리지 준비

  1. 호스트에서 로컬 스토리지에 사용할 디렉터리를 생성합니다.

    # mkdir -p /data/images
  2. 디렉터리에 vdsm 사용자(UID 36) 및 kvm 그룹(GID 36)에 대한 읽기/쓰기 액세스 권한을 허용하는 권한이 있는지 확인합니다.

    # chown 36:36 /data /data/images
    # chmod 0755 /data /data/images

Red Hat Virtualization 호스트를 위한 로컬 스토리지 준비

다음과 같이 논리 볼륨에 로컬 스토리지를 생성하는 것이 좋습니다.

  1. 로컬 스토리지 디렉터리를 생성합니다.

    # mkdir /data
    # lvcreate -L $SIZE rhvh -n data
    # mkfs.ext4 /dev/mapper/rhvh-data
    # echo "/dev/mapper/rhvh-data /data ext4 defaults,discard 1 2" >> /etc/fstab
    # mount /data
  2. 새 로컬 스토리지를 마운트한 다음 권한과 소유권을 수정합니다.

    # mount -a
    # chown 36:36 /data /rhvh-data
    # chmod 0755 /data /rhvh-data

5.6. Red Hat Gluster Storage 준비

Red Hat Gluster Storage 설정 및 구성에 대한 자세한 내용은 Red Hat Gluster Storage 설치 가이드를 참조하십시오.

Red Hat Virtualization에서 지원되는 Red Hat Gluster Storage 버전은 https://access.redhat.com/articles/2356261 에서 참조하십시오.

5.7. SAN 벤더에 대한 다중 경로 구성 사용자 정의

다중 경로 구성 설정을 사용자 지정하려면 /etc/multipath.conf 를 수정하지 마십시오. 대신 /etc/multipath.conf 를 재정의하는 새 구성 파일을 만듭니다.

주의

Virtual Desktop and Server Manager(VDSM)를 업그레이드하면 /etc/multipath.conf 파일을 덮어씁니다. multipath.conf 에 사용자 지정이 포함된 경우 덮어 쓰기하면 스토리지 문제가 트리거될 수 있습니다.

사전 요구 사항

절차

  1. /etc/multipath.conf 에서 설정 값을 재정의하려면 /etc/multipath/conf.d/ 디렉터리에 새 구성 파일을 만듭니다.

    참고

    /etc/multipath/conf.d/ 의 파일은 알파벳순으로 실행됩니다. 파일 이름 지정 규칙을 따릅니다. 이름 시작 부분에 숫자가 있는 파일 이름 지정 규칙을 따릅니다. 예를 들면 /etc/multipath/conf.d/90-myfile.conf 입니다.

  2. /etc/multipath.conf 에서 /etc/multipath/conf.d/ 의 새 구성 파일로 재정의할 설정을 복사합니다. 설정 값을 편집하고 변경 사항을 저장합니다.
  3. systemctl reload multipathd 명령을 입력하여 새 구성 설정을 적용합니다.

    참고

    multipathd 서비스를 다시 시작하지 마십시오. 이렇게 하면 VDSM 로그에 오류가 생성됩니다.

검증 단계

/etc/multipath.conf 에서 VDSM 생성 설정을 재정의하는 경우 새 구성이 다양한 실패 시나리오에서 예상대로 작동하는지 확인합니다.

예를 들어 모든 스토리지 연결을 비활성화합니다. 그런 다음 한 번에 하나의 연결을 활성화하고 스토리지 도메인에 연결할 수 있는지 확인합니다.

문제 해결

Red Hat Virtualization Host가 공유 스토리지에 액세스하는 데 문제가 있는 경우 /etc/multpath.conf/etc/multipath/conf.d/ 에 있는 파일에서 SAN과 호환되지 않는 값을 확인합니다.

추가 리소스

6장. Red Hat Virtualization용 스토리지 추가

새 환경에서 스토리지를 데이터 도메인으로 추가합니다. Red Hat Virtualization 환경에는 하나 이상의 데이터 도메인이 있어야 하지만 추가 도메인을 추가하는 것이 좋습니다.

이전에 준비한 스토리지를 추가합니다.

6.1. NFS 스토리지 추가

다음 절차에서는 기존 NFS 스토리지를 Red Hat Virtualization 환경에 데이터 도메인으로 연결하는 방법을 설명합니다.

ISO 또는 내보내기 도메인이 필요한 경우 이 절차를 사용하지만 도메인 기능 목록에서 ISO 또는 내보내기 를 선택합니다.

절차

  1. 관리 포털에서 StorageDomains (스토리지 도메인)을 클릭합니다.
  2. New Domain (새 도메인)을 클릭합니다.
  3. 스토리지 도메인 의 이름을 입력합니다.
  4. 데이터 센터,도메인 기능,스토리지 유형,형식호스트 목록의 기본값을 수락합니다.
  5. 스토리지 도메인에 사용할 내보내기 경로 를 입력합니다. 내보내기 경로는 123.123.0.10:/data (IPv4), [2001:0:0:0:0:5db1]:/data (IPv6) 또는 domain.example.com:/data 형식이어야 합니다.
  6. 필요한 경우 고급 매개변수를 구성할 수 있습니다.

    1. 고급 매개 변수 를 클릭합니다.
    2. Warning Low Space Indicator 필드에 백분율 값을 입력합니다. 스토리지 도메인에서 사용 가능한 공간이 이 백분율 미만이면 경고 메시지가 사용자에게 표시되고 기록됩니다.
    3. Critical Space Action Blocker 필드에 GB 값을 입력합니다. 스토리지 도메인에서 사용 가능한 공간이 이 값보다 작으면 오류 메시지가 사용자에게 표시되고 기록되고 일시적으로 공간을 소비하는 새 작업이 차단됩니다.
    4. Wipe After Delete 확인란을 선택하여 삭제 후 삭제 옵션을 활성화합니다. 이 옵션은 도메인이 생성된 후 편집할 수 있지만 이미 존재하는 디스크의 삭제 속성 후에는 초기화되지 않습니다.
  7. OK를 클릭합니다.

새 NFS 데이터 도메인의 상태는 디스크가 준비될 때까지 입니다. 그러면 데이터 도메인이 데이터 센터에 자동으로 연결됩니다.

6.2. iSCSI 스토리지 추가

다음 절차에서는 기존 iSCSI 스토리지를 Red Hat Virtualization 환경에 데이터 도메인으로 연결하는 방법을 설명합니다.

절차

  1. 스토리지 도메인 을 클릭합니다.
  2. New Domain (새 도메인)을 클릭합니다.
  3. 새 스토리지 도메인의 이름을 입력합니다.
  4. 드롭다운 목록에서 데이터 센터를 선택합니다.
  5. Domain Function (도메인 기능)로 Data 를 선택하고 Storage Type (스토리지 유형)으로 iSCSI 를 선택합니다.
  6. 활성 호스트 를 호스트로 선택합니다.

    중요

    스토리지 도메인과의 통신은 선택한 호스트에서 가져온 것이며 Manager에서 직접 통신할 수 없습니다. 따라서 스토리지 도메인을 구성하려면 모든 호스트가 스토리지 장치에 액세스할 수 있어야 합니다.

  7. Manager는 iSCSI 대상을 LUN 또는 LUN에 iSCSI 대상에 매핑할 수 있습니다. iSCSI 스토리지 유형을 선택하면 사용되지 않는 LUN으로 알려진 대상이 자동으로 표시됩니다. 스토리지를 추가하기 위해 사용하는 대상이 나타나지 않으면 대상 검색을 사용하여 찾을 수 있습니다. 그렇지 않으면 다음 단계로 진행할 수 있습니다.

    1. 검색 대상을 클릭하여 대상 검색 옵션을 활성화합니다. 대상이 검색되고 에 로그인되면 New Domain (새 도메인) 창에 자동으로 환경에서 사용되지 않는 LUN과 대상이 표시됩니다.

      참고

      외부에서 환경에 사용되는 LUN도 표시됩니다.

      Discover Targets 옵션을 사용하여 동일한 LUN에 여러 대상 또는 여러 경로에 LUN을 추가할 수 있습니다.

    2. Address (주소) 필드에 iSCSI 호스트의 FQDN 또는 IP 주소를 입력합니다.
    3. Port (포트) 필드에서 대상을 검색할 때 호스트에 연결할 포트를 입력합니다. 기본값은 3260 입니다.
    4. CHAP를 사용하여 스토리지를 보호하는 경우 User Authentication (사용자 인증) 확인란을 선택합니다. CHAP 사용자 이름CHAP 암호를 입력합니다.

      참고

      REST API를 사용하여 특정 호스트의 iSCSI 대상 인증 정보를 정의할 수 있습니다. 자세한 내용은 StorageServerConnectionExtensions: REST API Guide 에서 add 를 참조하십시오.

    5. Discover (검색)를 클릭합니다.
    6. 검색 결과에서 하나 이상의 대상을 선택하고 하나의 대상의 로그인 또는 여러 대상에 대해 모두 로그인 을 클릭합니다.

      중요

      둘 이상의 경로 액세스가 필요한 경우 필요한 모든 경로를 통해 대상에 대해 검색하고 로그인해야 합니다. 현재 추가 경로를 추가하도록 스토리지 도메인을 수정하는 것은 지원되지 않습니다.

  8. 원하는 대상 옆에 있는 + 버튼을 클릭합니다. 이렇게 하면 항목이 확장되고 대상에 연결된 사용되지 않는 모든 LUN이 표시됩니다.
  9. 스토리지 도메인을 생성하기 위해 사용 중인 각 LUN의 확인란을 선택합니다.
  10. 필요한 경우 고급 매개변수를 구성할 수 있습니다.

    1. 고급 매개 변수 를 클릭합니다.
    2. Warning Low Space Indicator 필드에 백분율 값을 입력합니다. 스토리지 도메인에서 사용 가능한 공간이 이 백분율 미만이면 경고 메시지가 사용자에게 표시되고 기록됩니다.
    3. Critical Space Action Blocker 필드에 GB 값을 입력합니다. 스토리지 도메인에서 사용 가능한 공간이 이 값보다 작으면 오류 메시지가 사용자에게 표시되고 기록되고 일시적으로 공간을 소비하는 새 작업이 차단됩니다.
    4. Wipe After Delete 확인란을 선택하여 삭제 후 삭제 옵션을 활성화합니다. 이 옵션은 도메인이 생성된 후 편집할 수 있지만 이미 존재하는 디스크의 삭제 속성 후에는 초기화되지 않습니다.
    5. 삭제 후 삭제 옵션을 사용하려면 해제를 선택합니다.Select the Discard After Delete check box to enable the discard after delete option. 이 옵션은 도메인을 생성한 후 편집할 수 있습니다. 이 옵션은 블록 스토리지 도메인에서만 사용할 수 있습니다.
  11. OK를 클릭합니다.

동일한 대상에 여러 스토리지 연결 경로를 구성한 경우 iSCSI 다중 경로 구성 절차에 따라 iSCSI 본딩을 완료합니다.

현재 스토리지 네트워크를 iSCSI 본딩으로 마이그레이션하려면 iSCSI Bond로 논리 네트워크 마이그레이션을 참조하십시오.

6.3. FCP 스토리지 추가

다음 절차에서는 기존 FCP 스토리지를 Red Hat Virtualization 환경에 데이터 도메인으로 연결하는 방법을 설명합니다.

절차

  1. 스토리지 도메인 을 클릭합니다.
  2. New Domain (새 도메인)을 클릭합니다.
  3. 스토리지 도메인 의 이름을 입력합니다.
  4. 드롭다운 목록에서 FCP 데이터 센터를 선택합니다.

    적절한 FCP 데이터 센터가 없는 경우 (없음) 을 선택합니다.

  5. 드롭다운 목록에서 Domain FunctionStorage Type 을 선택합니다. 선택한 데이터 센터와 호환되지 않는 스토리지 도메인 유형을 사용할 수 없습니다.
  6. 호스트 필드에서 활성 호스트 를 선택합니다. 데이터 센터의 첫 번째 데이터 도메인이 아닌 경우 데이터 센터의 SPM 호스트를 선택해야 합니다.

    중요

    스토리지 도메인과의 모든 통신은 Red Hat Virtualization Manager에서 직접 연결되는 선택된 호스트를 통해 이루어집니다. 시스템에 하나 이상의 활성 호스트가 있어야 하며 선택한 데이터 센터에 연결되어 있어야 합니다. 스토리지 도메인을 구성하려면 모든 호스트가 스토리지 장치에 액세스할 수 있어야 합니다.

  7. 새 도메인 창은 파이버 채널 을 스토리지 유형으로 선택하면 사용되지 않는 LUN으로 알려진 대상을 자동으로 표시합니다. LUN ID 확인란을 선택하여 사용 가능한 LUN을 모두 선택합니다.
  8. 필요한 경우 고급 매개변수를 구성할 수 있습니다.

    1. 고급 매개 변수 를 클릭합니다.
    2. Warning Low Space Indicator 필드에 백분율 값을 입력합니다. 스토리지 도메인에서 사용 가능한 공간이 이 백분율 미만이면 경고 메시지가 사용자에게 표시되고 기록됩니다.
    3. Critical Space Action Blocker 필드에 GB 값을 입력합니다. 스토리지 도메인에서 사용 가능한 공간이 이 값보다 작으면 오류 메시지가 사용자에게 표시되고 기록되고 일시적으로 공간을 소비하는 새 작업이 차단됩니다.
    4. Wipe After Delete 확인란을 선택하여 삭제 후 삭제 옵션을 활성화합니다. 이 옵션은 도메인이 생성된 후 편집할 수 있지만 이미 존재하는 디스크의 삭제 속성 후에는 초기화되지 않습니다.
    5. 삭제 후 삭제 옵션을 사용하려면 해제를 선택합니다.Select the Discard After Delete check box to enable the discard after delete option. 이 옵션은 도메인을 생성한 후 편집할 수 있습니다. 이 옵션은 블록 스토리지 도메인에서만 사용할 수 있습니다.
  9. OK를 클릭합니다.

새로운 FCP 데이터 도메인은 사용할 준비가 되어 있는 동안 locked 상태로 유지됩니다. 준비가 되면 자동으로 데이터 센터에 연결됩니다.

6.4. POSIX 호환 파일 시스템 스토리지 추가

다음 절차에서는 기존 POSIX 호환 파일 시스템 스토리지를 데이터 도메인으로 Red Hat Virtualization 환경에 연결하는 방법을 설명합니다.

절차

  1. 스토리지 도메인 을 클릭합니다.
  2. New Domain (새 도메인)을 클릭합니다.
  3. 스토리지 도메인 의 이름을 입력합니다.
  4. 스토리지 도메인과 연결할 데이터 센터를 선택합니다. 선택한 데이터 센터는 POSIX 유형(POSIX 호환 FS) 이어야 합니다. 또는 (없음) 을 선택합니다.
  5. 스토리지 유형 드롭다운 목록에서 Domain Function 드롭다운 목록 및 POSIX 호환 FS 에서 데이터를 선택합니다.

    해당하는 경우 드롭다운 메뉴에서 형식 을 선택합니다.

  6. 호스트 드롭다운 목록에서 호스트 를 선택합니다.
  7. 일반적으로 mount 명령에 제공하는 POSIX 파일 시스템의 경로 를 입력합니다.
  8. 일반적으로 -t 인수를 사용하여 마운트 명령에 제공하는 VFS 유형 을 입력합니다. 유효한 VFS 유형 목록은 man mount 를 참조하십시오.
  9. 일반적으로 -o 인수를 사용하여 mount 명령에 제공하므로 추가 마운트 옵션 을 입력합니다. 마운트 옵션은 쉼표로 구분된 목록으로 제공되어야 합니다. 유효한 마운트 옵션 목록은 man mount 를 참조하십시오.
  10. 필요한 경우 고급 매개변수를 구성할 수 있습니다.

    1. 고급 매개 변수 를 클릭합니다.
    2. Warning Low Space Indicator 필드에 백분율 값을 입력합니다. 스토리지 도메인에서 사용 가능한 공간이 이 백분율 미만이면 경고 메시지가 사용자에게 표시되고 기록됩니다.
    3. Critical Space Action Blocker 필드에 GB 값을 입력합니다. 스토리지 도메인에서 사용 가능한 공간이 이 값보다 작으면 오류 메시지가 사용자에게 표시되고 기록되고 일시적으로 공간을 소비하는 새 작업이 차단됩니다.
    4. Wipe After Delete 확인란을 선택하여 삭제 후 삭제 옵션을 활성화합니다. 이 옵션은 도메인이 생성된 후 편집할 수 있지만 이미 존재하는 디스크의 삭제 속성 후에는 초기화되지 않습니다.
  11. OK를 클릭합니다.

6.5. 로컬 스토리지 추가

호스트에 로컬 스토리지를 추가하면 새 데이터 센터와 클러스터에 호스트를 배치합니다. 로컬 스토리지 구성 창은 데이터 센터, 클러스터 및 스토리지를 단일 프로세스로 생성합니다.

절차

  1. ComputeHosts (컴퓨팅 호스트)를 클릭하고 호스트를 선택합니다.
  2. ManagementMaintenance (유지 관리)를 클릭하고 OK 를 클릭합니다.
  3. ManagementConfigure Local Storage (로컬 스토리지 구성)를 클릭합니다.
  4. Data Center,Cluster, Storage 필드 옆에 있는 Edit 버튼을 클릭하여 로컬 스토리지 도메인을 구성하고 이름을 지정합니다.
  5. 텍스트 입력 필드에 로컬 스토리지의 경로를 설정합니다.
  6. 해당하는 경우 최적화 탭을 클릭하여 새 로컬 스토리지 클러스터에 대한 메모리 최적화 정책을 구성합니다.
  7. OK를 클릭합니다.

호스트는 자체 데이터 센터에서 온라인 상태가 됩니다.

6.6. Red Hat Gluster Storage 추가

Red Hat Gluster Storage를 Red Hat Virtualization과 함께 사용하려면 Red Hat Gluster Storage로 Red Hat Virtualization 구성을 참조하십시오.

Red Hat Virtualization에서 지원되는 Red Hat Gluster Storage 버전은 https://access.redhat.com/articles/2356261 에서 참조하십시오.

부록 A. 오프라인 Red Hat Virtualization Manager 설치를 위한 로컬 리포지토리 구성

콘텐츠 전달 네트워크에 직접 연결되지 않은 시스템에 Red Hat Virtualization Manager를 설치하려면 인터넷에 액세스할 수 있는 시스템에서 필요한 패키지를 다운로드한 다음 오프라인 Manager 머신과 공유할 수 있는 리포지토리를 생성합니다. 리포지토리를 호스팅하는 시스템은 패키지를 설치할 클라이언트 시스템과 동일한 네트워크에 연결되어 있어야 합니다.

사전 요구 사항

  • Content Delivery Network에 액세스할 수 있는 시스템에 설치된 Red Hat Enterprise Linux 7 Server입니다. 이 시스템은 필요한 모든 패키지를 다운로드하여 오프라인 시스템에 배포합니다.
  • 사용 가능한 디스크 공간이 많이 있습니다. 이 절차에서는 많은 수의 패키지를 다운로드하고 최대 50GB의 여유 디스크 공간이 필요합니다.

온라인 시스템에서 Red Hat Virtualization Manager 리포지토리를 활성화합니다.

Red Hat Virtualization Manager 리포지토리 활성화

Red Hat Subscription Manager에 시스템을 등록하고, Red Hat Virtualization Manager 서브스크립션을 연결하고, Manager 리포지토리를 활성화합니다.

절차

  1. 메시지가 표시되면 Content Delivery Network에 시스템을 등록하고 고객 포털 사용자 이름과 암호를 입력합니다.

    # subscription-manager register
    참고

    IPv6 네트워크를 사용하는 경우 IPv6 전환 메커니즘을 사용하여 Content Delivery Network 및 서브스크립션 관리자에 액세스합니다.

  2. Red Hat Virtualization Manager 서브스크립션 풀을 찾아 풀 ID를 기록합니다.

    # subscription-manager list --available
  3. 풀 ID를 사용하여 시스템에 서브스크립션을 연결합니다.

    # subscription-manager attach --pool=pool_id
    참고

    현재 연결된 서브스크립션을 보려면 다음을 수행합니다.

    # subscription-manager list --consumed

    활성화된 리포지토리를 모두 나열하려면 다음을 수행합니다.

    # yum repolist
  4. 리포지토리를 구성합니다.

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rpms \
        --enable=rhel-7-server-supplementary-rpms \
        --enable=rhel-7-server-rhv-4.3-manager-rpms \
        --enable=rhel-7-server-rhv-4-manager-tools-rpms \
        --enable=rhel-7-server-ansible-2.9-rpms \
        --enable=jb-eap-7.2-for-rhel-7-server-rpms

오프라인 리포지토리 구성

  1. 인터넷에 연결되지 않은 서버는 FTP(파일 전송 프로토콜)를 사용하여 다른 시스템의 소프트웨어 리포지토리에 액세스할 수 있습니다. FTP 리포지토리를 생성하려면 vsftpd 를 설치하고 구성합니다.

    1. vsftpd 패키지를 설치합니다.

      # yum install vsftpd
    2. vsftpd 서비스를 시작하고 부팅 시 서비스가 시작되는지 확인합니다.

      # systemctl start vsftpd.service
      # systemctl enable vsftpd.service
    3. /var/ftp/pub/ 디렉토리에 하위 디렉토리를 만듭니다. 다운로드한 패키지를 사용할 수 있게 됩니다.

      # mkdir /var/ftp/pub/rhvrepo
  2. 구성된 모든 소프트웨어 리포지토리에서 rhvrepo 디렉터리로 패키지를 다운로드합니다. 여기에는 시스템에 연결된 모든 Content Delivery Network 서브스크립션 풀 및 로컬로 구성된 리포지토리가 포함됩니다.

    # reposync -l -p /var/ftp/pub/rhvrepo

    이 명령은 많은 수의 패키지를 다운로드하고 완료하는 데 시간이 오래 걸립니다. l 옵션을 사용하면 yum 플러그인 지원을 사용할 수 있습니다.

  3. createrepo 패키지를 설치합니다.

    # yum install createrepo
  4. /var/ftp/pub/rhvrepo 에서 패키지가 다운로드된 각 하위 디렉터리에 대한 리포지토리 메타데이터를 생성합니다.

    # for DIR in $(find /var/ftp/pub/rhvrepo -maxdepth 1 -mindepth 1 -type d); do createrepo $DIR; done
  5. 리포지토리 파일을 만들고 관리자를 설치할 오프라인 머신의 /etc/yum.repos.d/ 디렉터리에 복사합니다.

    구성 파일은 수동 또는 스크립트를 사용하여 생성할 수 있습니다. 리포지토리를 호스팅하는 시스템에서 아래의 스크립트를 실행하고 baseurlADDRESS 를 리포지토리를 호스팅하는 시스템의 IP 주소 또는 FQDN으로 바꿉니다.

    #!/bin/sh
    
    REPOFILE="/etc/yum.repos.d/rhev.repo"
    echo -e " " > $REPOFILE
    
    for DIR in $(find /var/ftp/pub/rhvrepo -maxdepth 1 -mindepth 1 -type d);
    do
        echo -e "[$(basename $DIR)]"	>> $REPOFILE
        echo -e "name=$(basename $DIR)" >> $REPOFILE
        echo -e "baseurl=ftp://_ADDRESS_/pub/rhvrepo/`basename $DIR`" >> $REPOFILE
        echo -e "enabled=1" >> $REPOFILE
        echo -e "gpgcheck=0" >> $REPOFILE
        echo -e "\n" >> $REPOFILE
    done

3.3절. “Red Hat Virtualization Manager 설치 및 구성” 으로 돌아갑니다. 패키지는 콘텐츠 전송 네트워크 대신 로컬 리포지토리에서 설치됩니다.

부록 B. 로컬 수동 구성 PostgreSQL 데이터베이스 준비

이 절차를 사용하여 사용자 지정 값으로 Manager 데이터베이스 또는 데이터 웨어하우스 데이터베이스를 설정합니다. 관리자를 구성하기 전에 이 데이터베이스를 설정합니다. engine-setup 중에 데이터베이스 자격 증명을 제공해야 합니다.

참고

engine-setupengine-backup --mode=restore 명령은 시스템 로케일이 다른 경우에도 en_US.UTF8 로케일의 시스템 오류 메시지만 지원합니다.

postgresql.conf 파일의 로케일 설정은 en_US.UTF8 로 설정해야 합니다.

중요

데이터베이스 이름에는 숫자, 밑줄 및 소문자만 포함되어야 합니다.

Red Hat Virtualization Manager 리포지토리 활성화

Red Hat Subscription Manager에 시스템을 등록하고, Red Hat Virtualization Manager 서브스크립션을 연결하고, Manager 리포지토리를 활성화합니다.

절차

  1. 메시지가 표시되면 Content Delivery Network에 시스템을 등록하고 고객 포털 사용자 이름과 암호를 입력합니다.

    # subscription-manager register
    참고

    IPv6 네트워크를 사용하는 경우 IPv6 전환 메커니즘을 사용하여 Content Delivery Network 및 서브스크립션 관리자에 액세스합니다.

  2. Red Hat Virtualization Manager 서브스크립션 풀을 찾아 풀 ID를 기록합니다.

    # subscription-manager list --available
  3. 풀 ID를 사용하여 시스템에 서브스크립션을 연결합니다.

    # subscription-manager attach --pool=pool_id
    참고

    현재 연결된 서브스크립션을 보려면 다음을 수행합니다.

    # subscription-manager list --consumed

    활성화된 리포지토리를 모두 나열하려면 다음을 수행합니다.

    # yum repolist
  4. 리포지토리를 구성합니다.

    # subscription-manager repos \
        --disable='*' \
        --enable=rhel-7-server-rpms \
        --enable=rhel-7-server-supplementary-rpms \
        --enable=rhel-7-server-rhv-4.3-manager-rpms \
        --enable=rhel-7-server-rhv-4-manager-tools-rpms \
        --enable=rhel-7-server-ansible-2.9-rpms \
        --enable=jb-eap-7.2-for-rhel-7-server-rpms

PostgreSQL 데이터베이스 초기화

  1. PostgreSQL 서버 패키지를 설치합니다.

    # yum install rh-postgresql10 rh-postgresql10-postgresql-contrib
  2. PostgreSQL 데이터베이스를 초기화하고, postgresql 서비스를 시작하고, 이 서비스가 부팅 시 시작되는지 확인합니다.

    # scl enable rh-postgresql10 -- postgresql-setup --initdb
    # systemctl enable rh-postgresql10-postgresql
    # systemctl start rh-postgresql10-postgresql
  3. postgres 사용자로 psql 명령줄 인터페이스에 연결합니다.

    su - postgres -c 'scl enable rh-postgresql10 -- psql'
  4. 기본 사용자를 생성합니다. Manager의 기본 사용자는 engine 이고 Datakvm의 기본 사용자는 ovirt_engine_history 입니다.

    postgres=# create role user_name with login encrypted password 'password';
  5. 데이터베이스를 생성합니다. 관리자의 기본 데이터베이스 이름은 engine 이고 데이터kvm의 기본 데이터베이스 이름은 ovirt_engine_history 입니다.

    postgres=# create database database_name owner user_name template template0 encoding 'UTF8' lc_collate 'en_US.UTF-8' lc_ctype 'en_US.UTF-8';
  6. 새 데이터베이스에 연결합니다.

    postgres=# \c database_name
  7. uuid-ossp 확장을 추가합니다.

    database_name=# CREATE EXTENSION "uuid-ossp";
  8. plpgsql 언어가 없는 경우 해당 언어를 추가합니다.

    database_name=# CREATE LANGUAGE plpgsql;
  9. psql 인터페이스를 종료합니다.

    database_name=# \q
  10. md5 클라이언트 인증을 활성화하여 데이터베이스에 원격으로 액세스할 수 있는지 확인합니다. /var/opt/rh-postgresql10/lib/pgsql/data/pgsql/data/pg_hba.conf 파일을 편집하여 X.X.X.X 를 Manager 또는 Data 3.9 시스템의 IP 주소로 교체, 0-32 또는 0-128 을 마스크 길이로 바꿉니다.

    host    database_name    user_name    X.X.X.X/0-32    md5
    host    database_name    user_name    X.X.X.X::/0-128   md5
  11. PostgreSQL 서버의 구성을 업데이트합니다. /var/opt/rh-postgresql10/lib/pgsql/data/postgresql.conf 파일을 편집하고 파일 맨 아래에 다음 행을 추가합니다.

    autovacuum_vacuum_scale_factor=0.01
    autovacuum_analyze_scale_factor=0.075
    autovacuum_max_workers=6
    maintenance_work_mem=65536
    max_connections=150
    work_mem=8192
  12. postgresql 서비스를 다시 시작합니다.

    # systemctl restart rh-postgresql10-postgresql
  13. 필요한 경우 http://www.postgresql.org/docs/10/static/ssl-tcp.html#SSL-FILE-USAGE 의 지침을 사용하여 데이터베이스 연결을 보호하도록 SSL을 설정합니다.

3.3절. “Red Hat Virtualization Manager 설치 및 구성” 로 돌아가서 로컬 및 데이터베이스에 대한 메시지가 표시되면 Manual 에 응답합니다.

부록 C. PCI 패스스루를 위한 호스트 구성

참고

이는 Red Hat Virtualization에서 SR-IOV를 설정하고 구성하는 방법을 보여주는 일련의 주제 중 하나입니다. 자세한 내용은 SR-IOV 설정 및구성을 참조하십시오.

PCI 패스스루를 사용하면 가상 머신에서 장치가 가상 머신에 직접 연결된 것처럼 호스트 장치를 사용할 수 있습니다. PCI 패스스루 기능을 활성화하려면 가상화 확장 및 IOMMU 기능을 활성화해야 합니다. 다음 절차에 따라 호스트를 재부팅해야 합니다. 호스트가 관리자에게 이미 연결된 경우 호스트를 먼저 유지 관리 모드로 전환해야 합니다.

사전 요구 사항

  • 호스트 하드웨어가 PCI 장치 통과 및 할당 요구 사항을 충족하는지 확인합니다. 자세한 내용은 PCI 장치 요구 사항을 참조하십시오.

PCI 패스스루를 위한 호스트 구성

  1. BIOS에서 가상화 확장 및 IOMMU 확장을 활성화합니다. 자세한 내용은 Red Hat Enterprise Linux Virtualization Deployment and Administration Guide 의 BIOS에서 Intel VT-x 및 AMD-V 가상화 하드웨어 확장 기능을 참조하십시오.
  2. 관리자를 추가하거나 grub 구성 파일을 수동으로 편집하여 커널에서 IOMMU 플래그를 사용하도록 설정합니다.

  3. GPU 패스스루의 경우 호스트 및 게스트 시스템 모두에서 추가 구성 단계를 실행해야 합니다. 자세한 내용은 GPU 장치 패스스루: Red Hat Virtualization에서 가상 머신에 NVIDIA GPU를 설정하여 단일 가상 머신에 호스트 GPU 할당 을 참조하십시오.

수동으로 IOMMU 활성화

  1. grub 구성 파일을 편집하여 IOMMU를 활성화합니다.

    참고

    IBM POWER8 하드웨어를 사용하는 경우 이 단계를 IOMMU로 건너뛰어 기본적으로 사용하도록 설정되어 있습니다.

    • Intel의 경우 시스템을 부팅하고 grub 설정 파일에서 GRUB_CMDLINE_LINUX 행 끝에 intel_iommu=on 을 추가합니다.

      # vi /etc/default/grub
      ...
      GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... intel_iommu=on
      ...
    • AMD의 경우 시스템을 부팅하고 grub 설정 파일에서 GRUB_CMDLINE_LINUX 행 끝에 amd_iommu=on 을 추가합니다.

      # vi /etc/default/grub
      ...
      GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... amd_iommu=on
      ...
      참고

      intel_iommu=on 또는 amd_iommu=on 이 작동하면 iommu=pt 또는 amd_iommu=pt 를 추가할 수 있습니다. pt 옵션은 통과에 사용되는 장치에 대한 IOMMU만 활성화하고 더 나은 호스트 성능을 제공합니다. 그러나 옵션은 모든 하드웨어에서 지원되지 않을 수 있습니다. pt 옵션이 호스트에 대해 작동하지 않는 경우 이전 옵션으로 되돌립니다.

      하드웨어에서 인터럽트 리디렉션을 지원하지 않기 때문에 패스스루가 실패하는 경우 가상 머신을 신뢰할 수 있는 경우 allow_unsafe_interrupts 옵션 활성화를 고려할 수 있습니다. allow_unsafe_interrupts 는 호스트가 가상 머신의 MSI 공격에 노출될 수 있기 때문에 기본적으로 활성화되어 있지 않습니다. 옵션을 활성화하려면 다음을 수행합니다.

      # vi /etc/modprobe.d
      options vfio_iommu_type1 allow_unsafe_interrupts=1
  2. grub.cfg 파일을 새로 고치고 이러한 변경 사항을 적용하려면 호스트를 재부팅합니다.

    # grub2-mkconfig -o /boot/grub2/grub.cfg
    # reboot

SR-IOV를 활성화하고 전용 가상 NIC를 가상 머신에 할당하려면 https://access.redhat.com/articles/2335291 를 참조하십시오.

부록 D. Red Hat Virtualization Manager 제거

engine-cleanup 명령을 사용하여 Red Hat Virtualization Manager의 특정 구성 요소 또는 모든 구성 요소를 제거할 수 있습니다.

참고

Manager 데이터베이스의 백업과 PKI 키 및 구성의 압축된 아카이브는 항상 자동으로 생성됩니다. 이러한 파일은 /var/lib/ovirt-engine/backups/ 에 저장되며 각각 날짜 및 engine- pki- 를 파일 이름에 포함합니다.

절차

  1. Manager 시스템에서 다음 명령을 실행합니다.

    # engine-cleanup
  2. 모든 Red Hat Virtualization Manager 구성 요소를 제거할지 여부를 묻는 메시지가 표시됩니다.

    • Yes 를 입력하고 Enter 를 눌러 모든 구성 요소를 제거합니다.

      Do you want to remove all components? (Yes, No) [Yes]:
    • No 를 입력하고 Enter 를 눌러 제거할 구성 요소를 선택합니다. 각 구성 요소를 개별적으로 유지 또는 제거할지 여부를 선택할 수 있습니다.

      Do you want to remove Engine database content? All data will be lost (Yes, No) [No]:
      Do you want to remove PKI keys? (Yes, No) [No]:
      Do you want to remove PKI configuration? (Yes, No) [No]:
      Do you want to remove Apache SSL configuration? (Yes, No) [No]:
  3. Red Hat Virtualization Manager를 제거하고 삭제를 취소할 수 있는 또 다른 기회가 제공됩니다. 계속 진행하도록 선택하면 ovirt-engine 서비스가 중지되고 선택한 옵션에 따라 환경의 구성이 제거됩니다.

    During execution engine service will be stopped (OK, Cancel) [OK]:
    ovirt-engine is about to be removed, data will be lost (OK, Cancel) [Cancel]:OK
  4. Red Hat Virtualization 패키지 제거:

    # yum remove rhvm* vdsm-bootstrap

부록 E. Red Hat Virtualization 보안

이 주제에서는 Red Hat Virtualization의 보안 설정에 대한 제한된 정보가 포함되어 있습니다. 이 정보는 시간이 지남에 따라 증가합니다.

이 정보는 Red Hat Virtualization에만 해당되며 다음과 관련된 기본 보안 관행은 다루지 않습니다.

  • 불필요한 서비스 비활성화
  • 인증
  • 권한 부여
  • 회계
  • RHV 이외의 서비스의 개입 테스트 및 강화
  • 중요한 애플리케이션 데이터의 암호화

사전 요구 사항

  • 조직의 보안 표준 및 관행을 잘 알고 있어야 합니다. 가능한 경우 조직의 보안 담당자에게 문의하십시오.
  • RHEL 호스트를 배포하기 전에 Red Hat Enterprise Linux 보안 가이드 를 참조하십시오.

E.1. DISA STIG for Red Hat Linux 7

Defense Information Systems Agency(DISA)는 다양한 플랫폼 및 운영 체제에 대해STIG(Security Technical Implementation Guides)를 배포합니다.

RHVH(Red Hat Virtualization Host)를 설치하는 동안 Red Hat Linux 7 프로필은 사용 가능한 보안 정책 중 하나입니다. 설치 중에 이 프로필을 보안 정책으로 활성화하면 SSH 키, SSL 인증서가 다시 생성되거나 배포 프로세스에서 나중에 호스트를 다시 구성할 필요가 없습니다.

중요

DISA incident 보안 정책은 Red Hat이 공식적으로 테스트하고 인증하는 유일한 보안 정책입니다.

DISA STIGs는 " DOD IA 및 IA 지원 장치/시스템에 대한 구성 표준입니다. 1998년 이후 DISA는 DoD 보안 시스템 보안 시행 가이드(STIG)를 제공하여 DoD 보안 시스템의 보안 태세를 강화하는데 중요한 역할을 했습니다. STIG에는 악의적인 컴퓨터 공격에 취약할 수 있는 '잠금' 정보 시스템/소프트웨어에 대한 기술 지침이 포함되어 있습니다.

이러한 devices는 국가 보안과 관련된 미국 연방 정보 시스템의 보안 제어 카탈로그인 NIST(National Standards and Technology) 특수PublicPublication 800-53 (NIST) 특수Publication 800-53 의 요구 사항을 기반으로 합니다.

Red Hat은 Cloud Security Alliance의 CCO(Cloud Controls Matrix)를 기반으로 하는 다양한 프로필을 식별합니다. 이 CCM은 포괄적인 클라우드별 보안 제어를 지정하고 각각을 선도적인 표준, 모범 사례 및 규정의 요구 사항에 매핑합니다.

보안 정책을 확인하기 위해 Red Hat은 RHEL 및 RHV를 포함하여 다양한 Red Hat 플랫폼에 OpenSCAP 툴 및 SCAP(Security Content Automation Protocol) 프로필을 제공합니다.

Red Hat의 OpenSCAP 프로젝트는 SCAP 기준을 평가, 측정 및 적용하는 관리자와 감사자가 오픈 소스 툴을 제공합니다. NIST는 2014년에 SCAP 1.2 인증을 OpenSCAP에 수상했습니다.

NIST는 SCAP 표준을 유지합니다. SCAP 호환 프로필은 운영 체제 및 애플리케이션의 보안 구성을 설정하는 방법에 대한 자세한 하위 수준 지침을 제공합니다.

Red Hat은 다양한 제품과 플랫폼에 대한 SCAP 기준을 다음 두 위치에 게시합니다.

  • 공개적으로 사용 가능한 보안 체크리스트(또는 벤치마크)의 미국 정부 리포지토리인 NIST National Checklist Program(NCP)입니다.
  • 부서 of Defense (DoD) Cyber Exchange

E.2. Red Hat Linux 7 프로파일에 DISA STIG 적용

이 주제에서는 RHV( Red Hat Virtualization) Manager("the Manager"), RHVH(Red Hat Virtualization Host) 및 Red Hat Enterprise Linux 호스트를 설치하는 동안 Red Hat Linux 7 보안 프로필에 DISA backend를 활성화하는 방법을 설명합니다.

RHVH에서 Red Hat Linux 7에 대해 DISA HTPasswd를 활성화

다음 절차는 두 가지 목적으로 RHVH(Red Hat Virtualization Host)를 설치하는 데 적용됩니다.

  • Manager를 자체 호스팅 엔진으로 배포할 때 Manager 가상 시스템의 호스트로 RHVH 사용.
  • RHV 클러스터에서 일반 호스트로 RHVH 사용.

Anaconda 설치 프로그램을 사용하여 RHVH를 설치하는 경우 다음을 수행합니다.

  1. 설치 요약 화면에서 보안 정책을 선택합니다. security policy
  2. 열리는 보안 정책 화면에서 적용 보안 정책 설정을 on;으로 전환합니다.
  3. 프로필 목록을 아래로 스크롤하고 Red Hat Linux 7에 대해 DISA onnectionFactory를 선택합니다.
  4. 프로필 선택 버튼을 클릭합니다. 이 작업은 프로필 옆에 녹색 확인 표시를 추가하고 수행된 변경 사항 목록에 패키지를 추가하거나 수행해야 합니다.

    참고

    이러한 패키지는 이미 RHVH 이미지에 포함되어 있습니다. RHVH는 단일 시스템 이미지로 제공됩니다. RHVH 이미지에 포함되지 않은 다른 선택된 보안 프로필에 필요한 패키지를 설치할 수 없습니다. 포함된 패키지 목록은 RHVH 패키지 매니페스트를 참조하십시오. security policy selected

  5. 완료 를 클릭합니다.
  6. 설치 요약 화면에서 보안 정책 의 상태가 Everything인지 확인합니다.
  7. 나중에 RHVH에 로그인하면 명령줄에 다음 정보가 표시됩니다. security policy rhvh login
참고

명령줄을 사용하여 RHV를 셀프 호스트 엔진으로 배포하는 경우, ovirt-hosted-engine-setup 을 입력한 후 일련의 프롬프트 중에 명령행에서 기본 OpenSCAP 보안 프로필을 적용하시겠습니까? Yes 를 입력하고 지침에 따라 Red Hat Linux 7 프로필에 대한 DISA onnectionFactory를 선택합니다.