Red Hat Training

A Red Hat training course is available for Red Hat Virtualization

설치 가이드

Red Hat Virtualization 4.1

Red Hat Virtualization 설치

Red Hat Virtualization Documentation Team

Red Hat Customer Content Services

초록

Red Hat Virtualization 설치를 위한 종합 가이드입니다.

I 부. Red Hat Virtualization 소개

1장. Red Hat Virtualization 소개

Red Hat Virtualization은 Red Hat Enterprise Linux 기반의 엔터프라이즈급 서버 및 데스크탑 가상화 플랫폼입니다. 이 가이드는 다음과 같이 구성되어 있습니다:
  • Red Hat Virtualization Manager 설치 및 설정
  • 호스트 설치 및 설정
  • 기존 FCP 스토리지를 Red Hat Virtualization 환경에 연결. 기타 스토리지 옵션은 관리 가이드를 참조하십시오.

표 1.1. Red Hat Virtualization 주요 구성 요소

구성 요소설명
Red Hat Virtualization Manager환경 내에서 리소스를 관리하고 액세스를 제공하는 서버
호스트가상 머신을 실행하는 데 사용되는 처리 기능과 메모리 리소스를 제공하는 서버
스토리지가상 머신과 연결된 데이터 저장에 사용되는 스토리지

중요

타이밍 및 인증 문제가 발생하지 않도록 호스트, Manager, 같은 환경 내의 다른 서버의 시스템 시계를 모두 동기화하는 것이 중요합니다. 이를 위해 각 시스템의 Network Time Protocol (NTP)이 동일한 NTP 서버와 동기화되도록 설정합니다.

2장. 시스템 요구 사항

2.1. Red Hat Virtualization Manager 요구 사항

2.1.1. 하드웨어 요구 사항

다음에 설명된 최소 및 권장 하드웨어 요구 사항은 일반적인 중소 규모 설치를 바탕으로 합니다. 정확한 요구 사항은 각 배포 규모와 부하에 따라 다릅니다.
Red Hat Virtualization Manager는 Red Hat Enterprise Linux에서 실행됩니다. 특정 하드웨어 항목이 Red Hat Enterprise Linux에서 사용이 인증되었는지 여부를 확인하려면 https://access.redhat.com/ecosystem/#certifiedHardware를 참조하십시오.

표 2.1. Red Hat Virtualization Manager 하드웨어 요구 사항

리소스최소 요구 사항권장
CPU듀얼 코어 CPU쿼드 코어 CPU 또는 멀티 듀얼 코어 CPU
메모리데이터 웨어하우스가 설치되지 않았고 기존 프로세스가 메모리를 사용하지 않고 있는 경우 시스템 RAM이 4 GB 필요합니다.시스템 RAM 16 GB
하드 디스크로컬로 액세스할 수 있으며 쓰기 가능한 디스크 공간 25 GB
로컬로 액세스할 수 있으며 쓰기 가능한 디스크 공간 50 GB
RHEV Manager History Database Size Calculator를 사용해서 해당 Manager 기록 데이터베이스 크기에 적절한 디스크 공간을 계산할 수 있습니다.
네트워크 인터페이스최소 1 Gbps 대역폭의 네트워크 인터페이스 카드 (NIC) 한 개최소 1 Gbps 대역폭의 네트워크 인터페이스 카드 (NIC) 한 개

2.1.2. 브라우저 요구 사항

다음 브라우저 버전 및 운영 체제를 사용하여 관리 포털 및 사용자 포털에 액세스할 수 있습니다.
브라우저는 다음과 같은 계층으로 나뉘어 지원됩니다.
  • 계층 1: 완전하게 테스트되어 완전하게 지원되는 브라우저 및 운영 체제 조합입니다. Red Hat Engineering은 이 계층에서 브라우저 관련 문제를 해결하기 위해 최선을 다합니다.
  • 계층 2: 부분적으로 테스트되어 작동될 수 있는 브라우저 및 운영 체제 조합입니다. 이 계층에는 제한된 지원이 제공됩니다. Red Hat Engineering은 이 계층에서 브라우저 관련 문제를 해결하려고 시도합니다.
  • 계층 3: 테스트되지 않고 작동할 수 있는 브라우저 및 운영 체제 조합입니다. 최소 지원이 제공됩니다. Red Hat Engineering은 이 계층에서 브라우저 관련 사소한 문제만을 해결하려고 시도합니다.

표 2.2. 브라우저 요구 사항

지원 계층운영 체제 제품군 브라우저 포털 액세스
계층 1Red Hat Enterprise LinuxMozilla Firefox ESR (Extended Support Release) 버전관리 포털 및 사용자 포털
계층 2WindowsInternet Explorer 10 이상관리 포털 및 사용자 포털
모두가장 최신 Google Chrome 또는 Mozilla Firefox 버전관리 포털 및 사용자 포털
계층 3모두Google Chrome 또는 Mozilla Firefox 이전 버전관리 포털 및 사용자 포털
모두다른 브라우저관리 포털 및 사용자 포털

2.1.3. 클라이언트 요구 사항

가상 머신 콘솔은 Red Hat Enterprise Linux 및 Windows에서 지원되는 원격 뷰어 (virt-viewer) 클라이언트를 통해서만 액세스할 수 있습니다. virt-viewer를 설치하려면 가상 머신 관리 가이드에 있는 지원되는 구성 요소 설치를 참조하십시오. virt-viewer를 설치하려면 관리자 권한이 있어야 합니다.
SPICE 콘솔은 지원되지 않는 SPICE HTML5 브라우저 클라이언트를 통해 OS X와 같은 기타 운영 체제에서만 액세스할 수 있습니다.
지원되는 QXL 드라이버는 Red Hat Enterprise Linux, Windows XP, Windows 7에서 사용할 수 있습니다.
SPICE는 다음과 같은 계층으로 나뉘어 지원됩니다.
  • 계층 1: 원격 뷰어가 완전히 테스트되고 지원되는 운영 체제입니다.
  • 계층 2: 원격 뷰어가 부분적으로 테스트되고 작동될 수 있는 운영 체제입니다. 이 계층에는 제한된 지원이 제공됩니다. Red Hat Engineering은 이 계층에서 원격 뷰어 관련 문제를 해결합니다.

표 2.3. 클라이언트 운영 체제의 SPICE 지원

지원 계층운영 체제SPICE 지원
계층 1Red Hat Enterprise Linux 7Red Hat Enterprise Linux 7.2 이상에서 완전 지원
 Microsoft Windows 7Microsoft Windows 7에서 완전 지원
계층 2Microsoft Windows 8spice-vdagent가 게스트 운영 체제에서 실행되고 있는 경우 지원
 Microsoft Windows 10spice-vdagent가 게스트 운영 체제에서 실행되고 있는 경우 지원

2.1.4. 운영 체제 요구 사항

Red Hat Virtualization Manager는 최신 마이너 릴리스로 업데이트된 Red Hat Enterprise Linux 7의 기본 설치에 설치해야 합니다. Manager에 필요한 패키지를 설치할 때 종속성 문제가 발생할 수 있으므로 기본 설치 후 추가 패키지를 설치하지 마십시오.

2.1.5. DNS 요구 사항

Red Hat Virtualization Manager 및 모든 네트워크 통신에는 DNS 역방향 조회가 가능하고 PTR 레코드가 있어야 성능이 현저하게 저하되는 것을 방지할 수 있습니다.

참고

/etc/hosts 파일에 항목을 추가하는 것으로 역방향 DNS 조회가 제공되지 않으므로 충분하지 않습니다.

2.2. 하이퍼바이저 요구 사항

2.2.1. CPU 요구 사항

모든 CPU는 Intel® 64 또는 AMD64 CPU 확장을 지원해야 하며 AMD-V™ 또는 Intel VT® 하드웨어 가상화 확장 기능을 지원해야 합니다. 또한 No eXecute flag (NX)가 지원되어야 합니다.

표 2.4. 지원되는 하이퍼바이저 CPU 모델

AMDIntelIBM
AMD Opteron G1Intel ConroeIBM POWER8
AMD Opteron G2Intel Penryn
AMD Opteron G3Intel Nehalem
AMD Opteron G4Intel Westmere
AMD Opteron G5Intel Sandybridge
Intel Haswell
Intel Skylake

절차 2.1. 프로세서가 필요한 플래그 지원 여부 확인

BIOS에서 가상화를 활성화해야 합니다. 이와 같이 변경된 내용이 적용될 수 있도록 변경 후 호스트 전원을 끄고 재부팅합니다.
  1. Red Hat Enterprise Linux 또는 Red Hat Virtualization Host 부팅 화면에서 아무 키나 누른 후 목록에서 Boot 또는 Boot with serial console 항목을 선택합니다.
  2. Tab을 클릭해서 선택된 옵션의 커널 매개 변수를 편집합니다.
  3. 목록 끝의 커널 매개 변수 뒤에 Space가 있는지 확인하고 rescue 매개 변수를 추가합니다.
  4. Enter를 눌러서 복구 모드로 부팅합니다.
  5. 표시되는 프롬프트에서 다음의 명령을 실행해서 사용자의 프로세서에 필요한 확장 기능이 있으며 활성화되어 있는지 확인합니다:
    # grep -E 'svm|vmx' /proc/cpuinfo | grep nx
    표시되는 내용이 있다면 프로세서에 하드웨어 가상화가 가능한 것입니다. 표시되는 내용이 없더라도 사용자의 프로세서가 하드웨어 가상화를 지원할 수도 있습니다. 일부의 경우 제조업체가 BIOS에서 가상화 확장을 비활성화하기도 합니다. 사용자가 이 경우에 해당된다고 생각된다면 해당 제조업체가 제공한 시스템 BIOS 및 마더보드 사용 설명서를 확인합니다.

2.2.2. 메모리 요구 사항

필요한 RAM 크기는 게스트 운영 체제 요구 사항, 게스트 프로그램 요구 사항, 그리고 게스트의 메모리 활동과 사용량에 따라 다릅니다. 또한 KVM이 가상 게스트를 위해 물리적 RAM을 오버 커밋 할 수 있다는 점을 고려해야 합니다. 이것은 모든 게스트가 동시에 최대 부하 상태가 아니라는 가정 하에 물리적으로 존재하는 것보다 높은 수준의 RAM 요구 사항을 가진 게스트를 프로비저닝 할 수 있게 해줍니다. 이를 위해 KVM은 필요 시에만 게스트에 RAM을 할당하고 사용률이 낮은 게스트는 스왑으로 이동합니다.

표 2.5. 메모리 요구 사항

최소최대
2 GB의 RAM2 TB의 RAM

2.2.3. 스토리지 요구 사항

호스트는 로컬 스토리지를 사용해서 설정, 로그, 커널 덤프 등을 저장하고 스왑 공간으로 활용합니다. Red Hat Virtualization Host 4.0의 최소 스토리지 요구 사항은 다음과 같습니다. Red Hat Enterprise Linux 호스트의 스토리지 요구 사항은 기존 설정으로 사용되고 있는 디스크 공간에 따라 다르지만 Red Hat Virtualization Host 4.0의 스토리지 요구 사항보다는 클 것으로 예상됩니다.

표 2.6. Red Hat Virtualization Host 4.0 최소 스토리지 요구 사항

//boot/varswap최소 요구 사항 합계
6 GB1 GB15 GB1 GB23 GB

중요

사용자가 셀프 호스트 엔진 설치를 위해 RHV-M 가상 어플라이언스도 설치하는 경우 /var 파티션은 최소 60 GB여야 합니다.
권장 스왑 용량은 https://access.redhat.com/ko/solutions/744483를 참조하십시오.

2.2.4. PCI 장치 요구 사항

호스트는 최소 1 Gbps 대역폭의 네트워크 인터페이스가 적어도 한 개 필요합니다. 각각의 호스트에 두 개의 네트워크 인터페이스를 두는 것을 권장하며 그 중 하나는 가상 머신 마이그레이션과 같이 네트워크 리소스를 많이 사용하는 활동을 전적으로 지원하는 것이 좋습니다. 이런 작업의 수행은 사용 가능한 대역폭에 의해서 제한됩니다.

2.2.5. 장치 할당 시 하드웨어 고려 사항

가상 머신이 호스트의 특정 PCIe 장치를 사용할 수 있도록 장치 할당 및 PCI 통과(passthrough)를 구현하려면 다음과 같은 요건이 충족되어야 합니다:
  • CPU가 IOMMU(예: VT-d 또는 AMD-Vi)를 지원해야 합니다. 기본적으로 IBM POWER8은 IOMMU를 지원합니다.
  • 펌웨어가 IOMMU를 지원해야 합니다.
  • CPU root 포트가 ACS 또는 ACS와 동급의 기능을 지원해야 합니다.
  • PCIe 장치가 ACS 또는 ACS와 동급의 기능을 지원해야 합니다.
  • 모든 PCIe 스위치, 그리고 PCIe 장치와 root 포트 간의 모든 브리지가 ACS를 지원하는 것이 권장됩니다. 예를 들어, 어떤 스위치가 ACS를 지원하지 않는 경우 해당 스위치의 모든 장치는 같은 IOMMU 그룹을 공유하기 때문에 동일한 가상 머신에만 할당될 수 있습니다.
  • GPU 지원을 위해 Red Hat Enterprise Linux 7은 VGA 이외의 그래픽 장치로 NVIDIA K 시리즈 Quadro (2000 시리즈 이후 모델), GRID, 그리고 Tesla를 PCI 장치 할당하는 것을 지원합니다. 현재 표준 및 에뮬레이트된 VGA 인터페이스 중 하나에 추가해서 최대 2개의 GPU가 가상 머신에 연결될 수 있습니다. 사전 부팅 및 설치에는 에뮬레이트된 VGA가 사용되며 NVIDIA 그래픽 드라이버 실행 시 NVIDIA GPU가 대신 실행됩니다. NVIDIA Quadro 2000 및 Quadro K420 카드 모두 지원되지 않습니다.
제조사 사양과 데이터시트 등을 참조해서 하드웨어가 위의 요건을 충족하는지 확인합니다. 호스트 설치 후 부록 G. PCI 통과(passthrough)를 위한 호스트 설정을 참조해서 장치 통과가 가능하도록 호스트 하드웨어 및 소프트웨어를 활성화합니다.
lspci -v 명령을 사용해서 시스템에 이미 설치된 PCI 장치에 대한 설명을 출력할 수 있습니다.

2.3. 방화벽

2.3.1. Red Hat Virtualization Manager 방화벽 요구 사항

Red Hat Virtualization Manager가 시스템 방화벽을 통한 네트워크 트래픽을 허용하려면 여러 개의 포트를 열어야 합니다. engine-setup 스크립트를 사용해서 방화벽을 자동으로 설정할 수 있지만 이것은 기존 방화벽 설정을 모두 덮어쓰기합니다.
기존 방화벽 설정이 이미 있다면 Manager가 필요로 하는 방화벽 규칙을 사용자가 수동으로 입력해야 합니다. engine-setup 명령을 사용해서 필요한 iptables 규칙 목록을 /usr/share/ovirt-engine/conf/iptables.example 파일에 저장합니다.
다음 부분에 있는 방화벽 설정은 기본 설정을 전제로 합니다. 설치 시 기본 포트가 아닌 HTTPHTTPS 포트를 선택할 경우 방화벽 규칙을 수정해서 다음 목록의 기본 포트인 80443 포트가 아닌 실제 선택된 해당 포트에 네트워크 트래픽을 허용합니다.

표 2.7. Red Hat Virtualization Manager 방화벽 요구 사항

포트프로토콜소스대상목적
-ICMP
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
Red Hat Virtualization Manager
Red Hat Virtualization Manager 등록 시 온라인 여부를 확인하기 위해 가상화 호스트가 Manager에게 ICMP 핑(ping) 요청을 보냅니다.
22TCP
백엔드 설정과 소프트웨어 업그레이드를 포함하는 Manager 관리 시스템
Red Hat Virtualization Manager
보안 쉘 (SSH) 액세스
선택 사항
2222TCP
가상 머신 직렬 콘솔에 액세스하는 클라이언트
Red Hat Virtualization Manager
가상 머신 직렬 콘솔 연결을 가능하게 하는 보안 쉘 (SSH) 액세스
80, 443TCP
관리 포털 클라이언트
사용자 포털 클라이언트
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
REST API 클라이언트
Red Hat Virtualization Manager
Manager에게 HTTPHTTPS 액세스 제공
6100TCP
관리 포털 클라이언트
사용자 포털 클라이언트
Red Hat Virtualization Manager
websocket 프록시가 Manager에서 실행중일 때 웹 기반 콘솔 클라이언트(noVNCspice-html5)에 websocket 프록시 액세스를 제공합니다. 그러나 websocket 프록시가 다른 호스트에서 실행중인 경우 해당 포트를 사용하지 않습니다.
7410UDP
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
Red Hat Virtualization Manager
Manager가 Kdump 알림을 받을 수 있도록 반드시 열려 있어야 합니다.

중요

Red Hat Virtualization Manager가 NFS 스토리지를 내보내야 하는 ISO 스토리지 도메인과 같은 환경에서는 추가 포트가 방화벽을 통과하도록 허용해야 합니다. 사용중인 NFS 버전에 해당하는 포트에 방화벽 예외를 허가합니다:

NFSv4

  • NFSTCP 포트 2049

NFSv3

  • NFSTCPUDP 포트 2049
  • TCPUDP 포트 111 (rpcbind/sunrpc).
  • MOUNTD_PORT="port"로 지정된 TCPUDP 포트
  • STATD_PORT="port"로 지정된 TCPUDP 포트
  • LOCKD_TCPPORT="port"로 지정된 TCP 포트
  • LOCKD_UDPPORT="port"로 지정된 UDP 포트
MOUNTD_PORT, STATD_PORT, LOCKD_TCPPORT, 그리고 LOCKD_UDPPORT 포트는 모두 /etc/sysconfig/nfs 파일에 설정되어 있습니다.

2.3.2. 하이퍼바이저 방화벽 요구 사항

Red Hat Enterprise Linux 호스트와 Red Hat Virtualization Host(RHVH)가 시스템 방화벽을 통한 네트워크 트래픽을 허용하려면 여러 개의 포트를 열어야 합니다. Red Hat Virtualization Host의 경우 이런 방화벽 규칙이 자동 설정됩니다. 하지만 Red Hat Enterprise Linux 호스트의 경우 방화벽을 수동 설정해야 합니다.

표 2.8. 가상화 호스트 방화벽 요구 사항

포트프로토콜소스대상목적
22TCP
Red Hat Virtualization Manager
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
보안 쉘 (SSH) 액세스
선택 사항
2223TCP
Red Hat Virtualization Manager
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
가상 머신 직렬 콘솔 연결을 가능하게 하는 보안 쉘 (SSH) 액세스
161UDP
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
Red Hat Virtualization Manager
단순 네트워크 관리 프로토콜(SNMP). 호스트에서 SNMP 트랩을 하나 이상의 외부 SNMP 관리자에게 보내는 경우에만 필요합니다.
선택 사항
5900 - 6923TCP
관리 포털 클라이언트
사용자 포털 클라이언트
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
VNCSPICE를 통한 원격 게스트 콘솔 액세스. 해당 포트가 열려 있어야 클라이언트가 가상 머신에 액세스할 수 있습니다.
5989TCP, UDP
Common Information Model Object Manager (CIMOM)
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
Common Information Model Object Manager(CIMOM)가 호스트에 실행중인 가상 머신을 모니터링하는 데 사용됩니다. 사용자의 가상화 환경에서 CIMOM을 사용해서 가상 머신을 모니터링하는 경우에만 필요합니다.
선택 사항
9090TCP
Red Hat Virtualization Manager
클라이언트 시스템
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
Cockpit 사용자 인터페이스 액세스
선택 사항
16514TCP
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
libvirt을 사용한 가상 머신 마이그레이션
49152 - 49216TCP
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
VDSM을 사용한 가상 머신 마이그레이션 및 차단. 해당 포트가 열려 있어야 가상 머신의 자동 및 수동 마이그레이션이 가능합니다.
54321TCP
Red Hat Virtualization Manager
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
Red Hat Virtualization Host
Red Hat Enterprise Linux 호스트
Manager와 다른 가상화 호스트와의 VDSM 통신

2.3.3. 디렉토리 서버 방화벽 요구 사항

Red Hat Virtualization에서 사용자 인증을 지원하려면 디렉토리 서버가 필요합니다. 디렉토리 서버 방화벽에 여러 개의 포트가 열려 있어야 Red Hat Virtualization Manager가 사용하는 GSS-API 인증을 지원할 수 있습니다.

표 2.9. 호스트 방화벽 요구 사항

포트프로토콜소스대상목적
88, 464TCP, UDP
Red Hat Virtualization Manager
디렉토리 서버
Kerberos 인증
389, 636TCP
Red Hat Virtualization Manager
디렉토리 서버
Lightweight Directory Access Protocol(LDAP) 및 SSL을 통한 LDAP.

2.3.4. 데이터베이스 서버 방화벽 요구 사항

Red Hat Virtualization은 원격 데이터베이스 서버의 사용을 지원합니다. Red Hat Virtualization 사용 시 원격 데이터베이스 서버를 사용하려면 해당 원격 데이터베이스 서버가 Manager로부터의 연결을 허용하는지 확인해야 합니다.

표 2.10. 호스트 방화벽 요구 사항

포트프로토콜소스대상목적
5432TCP, UDP
Red Hat Virtualization Manager
PostgreSQL 데이터베이스 서버
PostgreSQL 데이터베이스 연결에 사용할 기본 포트
설치 시 기본 옵션인 Manager 자체에 로컬 데이터베이스 서버를 사용하는 경우 추가 방화벽 규칙이 필요하지 않습니다.

II 부. Red Hat Virtualization Manager 설치

3장. Red Hat Virtualization Manager

3.1. 필요한 서브스크립션을 등록

Red Hat Enterprise Linux 기본 운영 체제를 설치하고 해당 시스템이 이전 장에서 설명된 요구 사항을 충족하는지 여부 확인 후 사용자는 Red Hat Subscription Manager를 이용해서 시스템을 등록해야 하며 Red Hat Virtualization Manager 패키지 설치에 필요한 서브스크립션을 등록해야 합니다.
  1. 사용자 시스템을 Content Delivery Network에 등록 시 사용자의 고객 포털 사용자 이름과 암호를 입력합니다:
    # subscription-manager register
  2. Red Hat Enterprise Linux ServerRed Hat Virtualization 서브스크립션 풀을 찾아서 해당 풀 ID를 기록합니다.
    # subscription-manager list --available
  3. 이전 단계에서 기록한 풀 ID를 사용해서 시스템에 서브스크립션을 연결합니다:
    # subscription-manager attach --pool=pool_id

    참고

    현재 연결된 서브스크립션을 확인하려면 다음의 명령을 실행합니다:
    # subscription-manager list --consumed
    활성화된 모든 리포지터리 목록을 보려면 다음의 명령을 실행합니다:
    # yum repolist
  4. 기존의 모든 리포지터리를 비활성화합니다:
    # subscription-manager repos --disable=*
  5. 필요한 리포지터리를 활성화합니다:
    # subscription-manager repos --enable=rhel-7-server-rpms
    # subscription-manager repos --enable=rhel-7-server-supplementary-rpms
    # subscription-manager repos --enable=rhel-7-server-rhv-4.1-rpms
    # subscription-manager repos --enable=rhel-7-server-rhv-4-tools-rpms
    # subscription-manager repos --enable=jb-eap-7-for-rhel-7-server-rpms
이제 사용자 시스템은 필요한 서브스크립션에 등록했습니다. 다음 부분에서는 Red Hat Virtualization Manager 패키지를 설치합니다.

3.2. Red Hat Virtualization Manager 패키지 설치

Red Hat Virtualization Manager을 설정하고 사용하기 전에 rhevm 패키지와 관련 패키지를 모두 설치해야 합니다.

절차 3.1. Red Hat Virtualization Manager 패키지 설치

  1. Red Hat Virtualization Manager를 설치하는 시스템에 다음의 명령을 실행해서 모든 패키지가 업데이트되어 있는지 확인합니다:
    # yum update

    참고

    커널 관련 패키지가 업데이트된 경우 시스템을 재부팅합니다.
  2. 다음의 명령을 실행해서 rhevm 패키지와 관련 패키지를 모두 설치합니다.
    # yum install rhevm
Red Hat Virtualization Manager 설정을 위해 다음 단계를 진행합니다.

3.3. Red Hat Virtualization Manager 설정

rhevm 패키지와 관련 패키지를 모두 설치한 후 engine-setup 명령을 사용해서 Red Hat Virtualization Manager를 설정해야 합니다. 이 명령은 사용자에게 일련의 질문을 하며, 사용자가 모든 질문에 대해 필요한 값을 입력하면 해당 설정을 적용하고 ovirt-engine 서비스를 시작합니다.
기본값으로 engine-setup 명령은 Manager 시스템에서 Manager 데이터베이스를 로컬로 생성하고 설정합니다. 다른 방법으로 사용자는 Manager가 원격 데이터베이스 또는 수동으로 설정된 로컬 데이터베이스를 사용하도록 설정할 수 있습니다. 하지만 engine-setup을 실행하기 전에 반드시 해당 데이터베이스를 먼저 설정해야 합니다. 원격 데이터베이스를 설정하는 방법은 부록 D. Red Hat Virtualization Manager에서 사용할 원격 PostgreSQL 데이터 베이스 준비를 참조하십시오. 로컬 데이터베이스를 수동으로 설정하는 방법은 부록 E. Red Hat Virtualization Manager에서 사용할 수동 설정 PostgreSQL 데이터 베이스 준비를 참조하십시오.
기본값으로 engine-setup 명령은 Manager에 websocket 프록시를 설정합니다. 하지만 보안과 성능을 이유로 사용자가 해당 프록시를 개별 호스트에 설정하는 것을 선택할 수 있습니다. 설정 방법은 부록 F. 다른 시스템에 대한 Websocket 프록시 설치를 참조하십시오.

참고

engine-setup 명령은 뚜렷이 구분되는 여러 설정 과정을 설명해 주며 각 과정은 사용자 입력을 필요로 하는 여러 가지 단계로 이루어져 있습니다. 권장 설정 기본값은 사각 괄호에 제시되어 있습니다. 특정 단계에서 제시된 값이 수용 가능하다면 Enter를 눌러서 해당 값을 허용합니다.

절차 3.2. Red Hat Virtualization Manager 설정

  1. engine-setup 명령을 실행해서 Red Hat Virtualization Manager 설정을 시작합니다:
    # engine-setup
  2. Enter를 클릭해서 Manager를 설정합니다:
    Configure Engine on this host (Yes, No) [Yes]:
  3. 선택적으로 engine-setup을 허용하여 Manager에서 가상 디스크 이미지를 스토리지 도메인에 업로드할 수 있도록 이미지 I/O 프록시를 설정합니다. 자세한 내용은 관리 가이드에 있는 스토리지 도메인에 디스크 이미지 업로드를 참조하십시오.
    Configure Image I/O Proxy on this host? (Yes, No) [Yes]:
  4. 옵션으로 engine-setup을 사용해서 사용자들이 noVNC 또는 HTML 5 콘솔을 사용해서 가상 머신에 연결할 수 있게 해주는 websocket 프록시 서버를 설정합니다:
    Configure WebSocket Proxy on this machine? (Yes, No) [Yes]:
    다른 시스템에서 websocket 프록시를 설정하려면 No를 클릭하고 부록 F. 다른 시스템에 대한 Websocket 프록시 설치에 있는 설정 방법을 참조하십시오.
  5. Manager 시스템에 데이터 웨어하우스를 설정할지 선택합니다.
    Please note: Data Warehouse is required for the engine. If you choose to not configure it on this host, you have to configure it on a remote host, and then configure the engine on this host so that it can access the database of the remote Data Warehouse host.
    Configure Data Warehouse on this host (Yes, No) [Yes]:
    별도의 시스템에 데이터 웨어하우스를 설정하려면 No를 선택하고 데이터 웨어하우스 가이드에 있는 별도의 시스템에 데이터 웨어하우스 설치 및 설정에서 설치 및 설정 지침을 참조하십시오.
  6. 옵션으로 명령행에서 가상 머신의 시리얼 콘솔에 액세스를 허용합니다.
    Configure VM Console Proxy on this host (Yes, No) [Yes]:
    이 기능을 사용하려면 클라이언트 시스템에 추가 설정을 해야 합니다. 가상 머신 관리 가이드에 있는 가상 머신에 대한 시리얼 콘솔 열기를 참조하십시오.
  7. Enter를 눌러서 자동 인식된 호스트명을 받아들이거나 다른 호스트명을 입력하고 Enter를 누릅니다. 사용자가 가상 호스트를 사용중인 경우 자동 인식된 호스트명이 올바르지 않을 수 있습니다.
    Host fully qualified DNS name of this server [autodetected host name]:
  8. engine-setup 명령을 사용해서 사용자의 방화벽 설정을 확인하고 TCP 포트 80과 443 등 Manager가 외부 통신에 사용하는 포트를 열도록 설정을 수정할 수 있습니다. engine-setup 명령이 사용자의 방화벽 설정을 수정하도록 허용하지 않으면 사용자는 Manager가 사용하는 포트를 수동으로 열어야 합니다.
    Setup can automatically configure the firewall on this system.
    Note: automatic configuration of the firewall may overwrite current settings.
    Do you want Setup to configure the firewall? (Yes, No) [Yes]:
    사용자가 방화벽의 자동 설정을 선택하고 현재 활성화되어 있는 방화벽 관리자가 없으면 사용자는 지원되는 옵션 목록에서 방화벽 관리자를 선택해야 합니다. 해당 방화벽 관리자 이름을 입력하고 Enter를 클릭합니다. 목록에 옵션이 하나 밖에 없는 경우에도 방법은 동일합니다.
  9. 로컬 또는 원격 PostgreSQL 데이터베이스를 데이터 웨어하우스 데이터베이스로 사용하는 것을 선택합니다:
    Where is the DWH database located? (Local, Remote) [Local]:
    • Local을 선택하는 경우 engine-setup 명령을 사용해서 사용자 데이터베이스를 자동으로 설정하거나 사전 설정된 로컬 데이터베이스에 연결할 수 있습니다:
      Setup can configure the local postgresql server automatically for the DWH to run. This may conflict with existing applications.
      Would you like Setup to automatically configure postgresql and create DWH database, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
      1. Enter를 클릭해서 Automatic을 선택하는 경우 더 이상 아무런 조치를 할 필요가 없습니다.
      2. Manual을 선택하는 경우 수동으로 설정된 로컬 데이터베이스를 위해 다음 값을 입력합니다:
        DWH database secured connection (Yes, No) [No]:
        DWH database name [ovirt_engine_history]:
        DWH database user [ovirt_engine_history]:
        DWH database password:

        참고

        다음 단계에서 Manager 데이터베이스가 설정된 후 engine-setup에 의해 해당 값이 요구됩니다.
    • Remote를 선택하는 경우 사전 설정된 원격 데이터베이스 호스트를 위해 다음 값을 입력합니다:
      DWH database host [localhost]:
      DWH database port [5432]:
      DWH database secured connection (Yes, No) [No]:
      DWH database name [ovirt_engine_history]:
      DWH database user [ovirt_engine_history]:
      DWH database password:

      참고

      다음 단계에서 Manager 데이터베이스가 설정된 후 engine-setup에 의해 해당 값이 요구됩니다.
  10. 로컬 또는 원격 PostgreSQL 데이터베이스를 Manager 데이터베이스로 사용하는 것을 선택합니다:
    Where is the Engine database located? (Local, Remote) [Local]:
    • Local을 선택하는 경우 engine-setup 명령을 사용해서 사용자 데이터베이스를 자동으로 설정하거나 사전 설정된 로컬 데이터베이스에 연결할 수 있습니다:
      Setup can configure the local postgresql server automatically for the engine to run. This may conflict with existing applications.
      Would you like Setup to automatically configure postgresql and create Engine database, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
      1. Enter를 클릭해서 Automatic을 선택하는 경우 더 이상 아무런 조치를 할 필요가 없습니다.
      2. Manual을 선택하는 경우 수동으로 설정된 로컬 데이터베이스를 위해 다음 값을 입력합니다:
        Engine database secured connection (Yes, No) [No]:
        Engine database name [engine]:
        Engine database user [engine]:
        Engine database password:
    • Remote를 선택하는 경우 사전 설정된 원격 데이터베이스 호스트를 위해 다음 값을 입력합니다:
      Engine database host [localhost]:
      Engine database port [5432]:
      Engine database secured connection (Yes, No) [No]:
      Engine database name [engine]:
      Engine database user [engine]:
      Engine database password:
  11. Red Hat Virtualization Manager의 자동 생성된 관리 사용자의 암호를 설정합니다:
    Engine admin password:
    Confirm engine admin password:
  12. Gluster, Virt, 또는 Both를 선택합니다:
    Application mode (Both, Virt, Gluster) [Both]:
    Both는 최대의 유연성을 제공합니다. 대부분의 경우 Both를 선택합니다. Virt application mode는 사용자가 해당 환경에서 가상 머신을 실행할 수 있게 해줍니다. Gluster application mode는 사용자가 관리 포털에서만 GlusterFS를 관리할 수 있게 해줍니다.
  13. 디스크가 삭제되었을 때 가상 디스크 블록을 삭제하는 wipe_after_delete 플래그의 기본값을 설정합니다.
    Default SAN wipe after delete (Yes, No) [No]:
  14. Manager는 호스트와 안전하게 통신하기 위해 인증서를 사용합니다. 옵션으로 해당 인증서를 사용해서 Manager와 HTTPS 통신을 확보할 수도 있습니다. 해당 인증서의 조직 이름을 입력합니다:
    Organization name for certificate [autodetected domain-based name]:
  15. 옵션으로 engine-setup 명령을 사용해서 Manager의 랜딩 페이지를 Apache 웹 서버에서 제공하는 기본 페이지로 하는 것을 허용합니다:
    Setup can configure the default page of the web server to present the application home page. This may conflict with existing applications.
    Do you wish to set the application as the default web page of the server? (Yes, No) [Yes]:
  16. 기본값으로 Manager와의 외부 SSL (HTTPS) 통신은 이전에 호스트와 안전하게 통신하기 위해 생성된 자체 서명 인증서를 사용해서 확보합니다. 다른 방법으로 외부 HTTPS 연결을 위해 다른 인증서를 선택합니다. 이것은 Manager와 호스트간의 통신 방법에 영향을 주지 않습니다:
    Setup can configure apache to use SSL using a certificate issued from the internal CA.
    	Do you wish Setup to configure that, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
  17. Manager에 ISO 스토리지 도메인으로 사용할 NFS 공유를 생성할지를 선택합니다. 로컬 ISO 도메인은 가상 머신의 초기 설정에 사용할 수 있는 다양한 이미지를 제공합니다.
    Configure an NFS share on this server to be used as an ISO Domain? (Yes, No) [No]:
    • 기본값 (No)을 선택하면 더 이상의 조치가 필요하지 않습니다.
    • Yes를 선택하면 추가 정보를 제공하여 ISO 도메인을 설정해야 합니다.
      1. ISO 도메인 경로를 지정합니다:
        Local ISO domain path [/var/lib/exports/iso]:
      2. ISO 도메인에 액세스가 필요한 네트워크 또는 호스트를 지정합니다:
        Local ISO domain ACL: 10.1.2.0/255.255.255.0(rw) host01.example.com(rw) host02.example.com(rw)
        위의 예시에서는 단일 /24 네트워크와 두 개의 특정 호스트에 대한 액세스가 허용됩니다. 자세한 포맷 옵션은 exports(5) man 페이지를 참조하십시오.
      3. ISO 도메인의 표시 이름을 지정합니다:
        Local ISO domain name [ISO_DOMAIN]:
  18. 데이터 웨어하우스가 수집된 데이터를 얼마동안 유지할지 선택합니다:

    참고

    Manager 시스템에 데이터 웨어하우스를 설정하지 않도록 선택하는 경우 이 단계를 건너뜁니다.
    Please choose Data Warehouse sampling scale:
    (1) Basic
    (2) Full
    (1, 2)[1]:
    Full을 선택하면 데이터 웨어하우스 가이드에 있는 데이터 스토리지 설정 기본값이 사용됩니다 (데이터 웨어하우스가 원격 호스트에 설치되는 경우 권장됨).
    Basic을 선택하면 DWH_TABLES_KEEP_HOURLY 값이 720으로, DWH_TABLES_KEEP_DAILY 값이 0으로 감소하여 Manager 시스템의 부하가 완화됩니다(Manager와 데이터 웨어하우스를 동일한 시스템에 설치한 경우 권장됨).
  19. 설치 설정 검토 후 Enter를 클릭해서 입력된 값에 동의하고 설치를 진행합니다:
    Please confirm installation settings (OK, Cancel) [OK]:
  20. 사용자의 Red Hat Virtualization 환경을 디렉토리 서버에 연결하려면 예상하지 못한 계정 만료 문제를 피하기 위해 디렉토리 서버가 사용하는 시스템 클럭과 날짜 및 시간을 동기화합니다. 자세한 내용은 Red Hat Enterprise Linux 시스템 관리자 가이드에 있는 시스템 클럭과 원격 서버 동기화를 참조하십시오.
사용자 환경 설정 후 engine-setup 명령을 사용해서 사용자 환경에 액세스하는 자세한 방법을 표시합니다. 수동으로 방화벽을 설정하는 경우 engine-setup 명령을 실행하면 시작 시 선택된 옵션을 바탕으로 열어야 되는 포트의 사용자 정의 목록이 표시됩니다. 또한 engine-setup 명령을 사용해서 사용자 답변을 파일에 저장해서 동일한 값을 사용해서 Manager를 재설정하는 데 사용할 수 있고 Red Hat Virtualization Manager 설정 프로세스의 로그 파일 위치를 표시합니다.
다음 항목에서는 admin@internal 사용자로 관리 포털에 연결하는 방법을 확인할 수 있습니다. 그 후 호스트 설정 및 스토리지 연결을 진행합니다.

3.4. 관리 포털 연결

웹 브라우저를 사용하여 관리 포털에 액세스합니다.
  1. 웹 브라우저에서 https://your-manager-fqdn/ovirt-engine으로 이동합니다. 여기서 your-manager-fqdn 대신 사용자가 설치 시 제공한 정규화된 도메인 이름(FQDN)을 입력합니다.

    중요

    관리 포털에 처음 연결하면 브라우저와 웹 서버 간 통신을 보호하는 데 사용되는 인증서를 신뢰하는지 묻는 메시지가 표시됩니다. 이 인증서를 허용해야 합니다. Firefox, Internet Explorer 또는 Google Chrome에서 인증 기관을 설치하는 지침을 참조하십시오.

    참고

    대체 호스트 이름 또는 IP 주소를 사용하여 관리 포털에 액세스할 수 있습니다. 이를 위해서는 /etc/ovirt-engine/engine.conf.d/에 설정 파일을 추가해야 합니다. 예를 들면 다음과 같습니다.
    # vi /etc/ovirt-engine/engine.conf.d/99-custom-sso-setup.conf
    SSO_ALTERNATE_ENGINE_FQDNS="alias1.example.com alias2.example.com"
    대체 호스트 이름 목록은 공백으로 구분해야 합니다. Manager의 IP 주소를 목록에 추가할 수도 있지만 DNS 확인 가능 호스트 이름 대신 IP 주소를 사용하는 것은 좋지 않습니다.
  2. 관리 포털을 클릭합니다.
  3. 사용자 이름암호를 입력합니다. 최초 로그인하는 경우 사용자 이름을 admin으로 입력하고 설치 시 사용자가 지정한 암호를 입력합니다.
  4. 도메인 목록에서 인증 대상 도메인을 선택합니다. 내부 admin 사용자 이름으로 로그인시 internal 도메인을 선택합니다.
  5. 로그인을 클릭합니다.
  6. 관리 포털은 다양한 언어로 볼 수 있습니다. 웹 브라우저의 로케일 설정에 따라 기본 선택 항목이 선택됩니다. 기본 설정 언어 이외의 언어로 관리 포털을 보려면 시작 페이지의 드롭다운 목록에서 원하는 언어를 선택합니다.
다음 장에서는 추가 Manager 관련 작업 옵션을 설명합니다. 사용자 환경에 해당하는 작업이 없는 경우 III 부. 호스트 설치로 갑니다.

III 부. 호스트 설치

5장. 호스트 소개

Red Hat Virtualization은 RHVH (Red Hat Virtualization Host)와 Red Hat Enterprise Linux 호스트의 두 가지 호스트 유형을 지원합니다. 환경 요구 사항에 따라 Red Hat Virtualization 환경에 한 가지 유형만 사용하거나 둘 다 사용할 수 있습니다. Red Hat Virtualization 환경에 두 개 이상의 호스트를 설치하고 연결하는 것이 좋습니다. 호스트를 하나만 연결하면 마이그레이션 및 고가용성과 같은 기능에 액세스할 수 없습니다.

중요

SELinux는 설치 시 강제 (enforcing) 모드로 설정됩니다. 확인하려면 getenforce를 실행하십시오. Red Hat에서 Red Hat Virtualization 환경을 지원하려면 모든 하이퍼바이저 및 Manager에서 SELinux를 강제 모드로 설정해야 합니다.

표 5.1. 호스트

호스트 유형다른 이름설명
Red Hat Virtualization Host
RHVH, 씬 호스트 (thin host)
Red Hat Enterprise Linux 기반의 최소 운영 체제. 고객 포털에서 ISO 파일로 배포되며 여기에는 시스템이 호스트 역할을 하는 데 필요한 패키지만 포함되어 있습니다.
Red Hat Enterprise Linux Host
RHEL 기반 하이퍼바이저, 씩 호스트 (thick host)
적절한 채널에 구독되어 있는 Red Hat Enterprise Linux 호스트는 호스트로 사용될 수 있습니다.

5.1. 호스트 호환성

새 데이터 센터를 만들 때 호환성 버전을 설정할 수 있습니다. 데이터 센터의 모든 호스트에 적합한 호환성 버전을 선택하십시오. 버전을 설정한 후에는 되돌릴 수 없습니다. 새로운 Red Hat Virtualization을 설치하는 경우에는 기본 데이터 센터 및 기본 클러스터에 최신 호환성 버전이 설정됩니다. 이전 호환성 버전을 사용하려면 추가 데이터 센터 및 클러스터를 만들어야 합니다. 호환성 버전에 대한 자세한 내용은 Red Hat Virtualization 라이프 사이클에 있는 Red Hat Virtualization Manager 호환성을 참조하십시오.

6장. Red Hat Virtualization Host

6.1. Red Hat Virtualization Host 설치

RHVH (Red Hat Virtualization Host)는 Red Hat Enterprise Linux 기반의 최소 운영 체제이며 Red Hat Virtualization 환경에서 하이퍼바이저 역할을 하는 물리적 시스템을 간단하게 설정할 수 있도록 설계되었습니다. 이 최소 운영 체제에는 해당 시스템의 하이퍼바이저 역할에 필요한 패키지만 있으며 호스트 모니터링과 관리 작업 수행을 위한 Cockpit 사용자 웹 인터페이스를 제공합니다. 최소 브라우저 요구 사항을 확인하려면 http://cockpit-project.org/running.html을 참조하십시오.
시작하기 전에 RHVH를 설치하는 시스템이 2.2절. “하이퍼바이저 요구 사항”에 있는 하드웨어 요구 사항을 충족하는지 확인하십시오.
RHVH를 물리적 시스템에 설치하는 작업은 다음과 같은 세 가지 핵심 단계로 구성됩니다.
  1. 고객 포털에서 RHVH ISO 이미지를 다운로드합니다.
  2. RHVH ISO 이미지를 USB, CD 또는 DVD에 작성합니다.
  3. RHVH 최소 운영 체제를 설치합니다.

절차 6.1. Red Hat Virtualization Host 설치

  1. 고객 포털에서 RHVH ISO 이미지를 다운로드합니다.
    1. 고객 포털(https://access.redhat.com)에 로그인합니다.
    2. 메뉴 표시줄에서 다운로드를 클릭합니다.
    3. Red Hat Virtualization을 클릭하고 위로 스크롤한 다음 최신 버전 다운로드를 클릭하여 제품 다운로드 페이지에 액세스합니다.
    4. 해당 하이퍼바이저 이미지를 선택하고 지금 다운로드를 클릭합니다.
    5. 부팅 가능 미디어 장치를 만듭니다. 자세한 내용은 Red Hat Enterprise Linux 설치 가이드에 있는 미디어 만들기를 참조하십시오.
  2. 준비된 설치 미디어를 사용하여 RHVH를 설치할 시스템을 시작합니다.
  3. 부트 메뉴에서 설치 옵션을 선택한 후 Enter를 누릅니다.

    참고

    Tab 키를 눌러서 커널 매개 변수를 편집할 수도 있습니다. 커널 매개 변수는 공백으로 구분해야 하며, Enter 키를 눌러 지정된 커널 매개 변수를 사용하여 시스템을 부팅할 수 있습니다. Esc 키를 누르면 커널 매개 변수 변경 사항을 모두 취소하고 부트 메뉴로 돌아갑니다.
  4. 언어를 선택한 후 계속 을 클릭합니다.
  5. 날짜 및 시간 화면에서 시간대를 선택하고 완료를 클릭합니다.
  6. 키보드 화면에서 키보드 레이아웃을 선택하고 완료를 클릭합니다.
  7. 설치 대상 화면에서 RHVH를 설치할 장치를 선택합니다. 선택적으로 암호화를 활성화합니다. 완료를 클릭합니다.

    중요

    자동으로 파티셔닝 설정 옵션을 사용하는 것이 좋습니다.

    참고

    RHVH를 다시 설치할 때 로컬 스토리지 도메인을 보존하는 방법에 대한 자세한 내용은 https://access.redhat.com/solutions/2804081을 참조하십시오.
  8. 네트워크 및 호스트 이름 화면에서 네트워크를 선택하고 설정...을 클릭하여 연결 상세 정보를 설정합니다. 호스트 이름 필드에 호스트 이름을 입력하고 완료를 클릭합니다.
  9. 옵션에서 언어 지원, 보안 정책Kdump를 설정합니다. 설치 요약 화면의 각 섹션에 대한 자세한 내용은 Red Hat Enterprise Linux 7 설치 가이드에 있는 Anaconda를 사용하여 설치를 참조하십시오.
  10. 설치 시작을 클릭합니다.
  11. RHVH가 설치되는 동안 root 암호를 설정하고 원할 경우 추가 사용자를 만듭니다.

    주의

    로컬 보안의 취약점을 악용할 수 있으므로 RHVH에 신뢰할 수 없는 사용자를 만들지 않는 것이 좋습니다.
  12. 재부팅을 클릭하여 설치를 완료합니다.

    참고

    RHVH가 다시 시작되면 imgbase-motd.service 에서 호스트에 대한 상태 점검을 수행하고 로그인 시 명령행에 결과를 표시합니다. imgbase status: OK 또는 imgbase status: DEGRADED 메시지는 상태를 나타냅니다. 자세한 내용을 보려면 imgbase check를 실행하십시오. 이 서비스는 기본적으로 활성화되어 있습니다.
  13. 설치가 완료되면 https://HostFQDNorIP:9090에 있는 Cockpit 사용자 인터페이스에 로그인하여 호스트를 컨텐츠 전송 네트워크 (Content Delivery Network)에 등록합니다. 도구 > 서브스크립션 > 시스템 등록을 클릭하여 고객 포털 사용자 이름과 암호를 입력합니다. 시스템이 자동으로 Red Hat Virtualization Host 서브스크립션에 등록됩니다.
  14. Terminal을 클릭하고 추후 Red Hat Virtualization Host 업데이트를 허용하도록 Red Hat Virtualization Host 7 리포지터리를 활성화합니다.
    # subscription-manager repos --enable=rhel-7-server-rhvh-4-rpms
이제 Red Hat Virtualization 환경에 호스트를 추가할 수 있습니다. 8장. Red Hat Virtualization Manager에 대한 Host 추가를 참조하십시오.

6.2. 고급 설치

6.2.1. 사용자 정의 파티셔닝

RHVH (Red Hat Virtualization Host)에서는 사용자 정의 파티셔닝을 사용하지 않는 것이 좋습니다. 설치 대상 창에 있는 자동으로 파티셔닝 설정 옵션을 사용하는 것이 좋습니다.
설치에 사용자 정의 파티셔닝이 필요한 경우 다음과 같은 제한 사항이 적용됩니다.
  • 수동 파티셔닝 창에서 LVM 씬 프로비저닝 옵션을 선택해야 합니다.
  • root (/) 디렉토리가 씬 프로비저닝된 논리 볼륨에 있어야 합니다.
  • root (/) 디렉토리가 6GB 이상이어야 합니다.
  • /var 디렉토리가 별도의 볼륨 또는 디스크에 있어야 합니다.
  • XFS 또는 Ext4 파일 시스템만 지원됩니다.

6.2.2. Red Hat Virtualization Host 배포 자동화

PXE를 사용하여 네트워크에서 부팅하면 물리적 미디어 장치 없이 RHVH (Red Hat Virtualization Host)를 설치할 수 있습니다. 설치 질문에 대한 답변이 포함된 킥스타트 파일을 사용하여 설치 프로세스를 자동화할 수 있습니다. 킥스타트 파일은 네트워크를 통해서도 액세스할 수 있으므로 물리적 미디어가 필요하지 않습니다.
RHVH는 Red Hat Enterprise Linux와 거의 동일한 방식으로 설치되므로 두 작업 모두 Red Hat Enterprise Linux 7 설치 가이드에서 지침을 확인할 수 있습니다. Red Hat Enterprise Linux와 다르게 RHVH에서 수행해야 하는 주요 지침은 다음 절차에 포함되어 있습니다.

절차 6.2. PXE 및 킥스타트를 사용한 배포 자동화

  1. 고객 포털에서 RHVH ISO 이미지를 다운로드합니다.
    1. 고객 포털(https://access.redhat.com)에 로그인합니다.
    2. 메뉴 표시줄에서 다운로드를 클릭합니다.
    3. Red Hat Virtualization을 클릭하고 위로 스크롤한 다음 최신 버전 다운로드를 클릭하여 제품 다운로드 페이지에 액세스합니다.
    4. 해당 하이퍼바이저 이미지를 선택하고 지금 다운로드를 클릭합니다.
  2. 설치 소스 - 네트워크에 있는 지침을 사용하여 네트워크에서 RHVH ISO 이미지를 사용할 수 있도록 설정합니다.
  3. 네트워크 설치 준비에 있는 지침을 사용하여 PXE 서버를 설정합니다.
    PXE 서버에서 RHVH를 부팅하는 데에는 다음과 같은 요구 사항이 적용됩니다.
    • RHVH 부팅 이미지를 tftp/ root 디렉토리로 복사해야 합니다.
      # cp URL/to/RHVH-ISO/images/pxeboot/{vmlinuz,initrd.img} /var/lib/tftpboot/pxelinux/
    • 부트 로더 설정 파일에 RHVH 부팅 이미지를 지정하는 RHVH 레이블이 포함되어 있어야 합니다.
      KERNEL URL/to/vmlinuz
      APPEND initrd=URL/to/initrd.img inst.stage2=URL/to/RHVH-ISO
  4. 킥스타트 설치에 있는 지침을 사용하여 킥스타트 파일을 만들고 네트워크에서 사용할 수 있도록 설정합니다.
    RHVH 킥스타트 파일에는 다음과 같은 제한 사항이 적용됩니다.
    • RHVH에는 %packages 섹션이 필요하지 않습니다. 대신 liveimg 옵션을 사용하여 RHVH ISO 이미지에서 squashfs.img 파일을 지정합니다.
      liveimg --url=URL/to/squashfs.img
    • autopart 명령을 사용하는 것이 좋습니다. 씬 프로비저닝을 사용해야 합니다.
      autopart --type=thinp
      설치에 수동 파티셔닝이 필요한 경우에는 다음과 같은 제한 사항이 적용됩니다.
      • root(/) 디렉토리가 씬 프로비저닝된 논리 볼륨에 있어야 합니다.
      • /var 디렉토리가 별도의 볼륨에 있어야 합니다.
      • /boot 디렉토리가 별도의 파티션에 있어야 합니다.
    • nodectl init 명령을 호출하는 %post 섹션이 필요합니다.
      %post
      nodectl init
      %end
    설치 프로세스를 완전히 자동화하려면 이 킥스타트 파일을 PXE 서버의 부트 로더 설정 파일에 추가하면 됩니다. APPEND 행에 inst.ks=를 추가하여 킥스타트 위치를 지정합니다.
    APPEND initrd=URL/to/initrd.img inst.stage2=URL/to/RHVH-ISO inst.ks=URL/to/RHVH-ks.cfg

    예 6.1. Red Hat Virtualization Host 킥스타트 파일

    다음은 Red Hat Virtualization Host를 배포하는 데 사용되는 킥스타트 파일의 예입니다. 필요에 따라 추가 명령 및 옵션을 포함할 수 있습니다.
    liveimg --url=http://1.2.3.4/path/to/squashfs.img
    clearpart --all
    autopart --type=thinp
    rootpw --plaintext ovirt
    timezone --utc America/Phoenix
    zerombr
    text
    
    reboot
    
    %post --erroronfail
    nodectl init
    %end
  5. PXE를 사용하여 네트워크에서 AMD64 및 Intel 64 Systems에 설치 시작에 있는 지침을 사용하여 RHVH를 설치합니다.

7장. Red Hat Enterprise Linux 호스트

7.1. Red Hat Enterprise Linux 호스트 설치

Red Hat Enterprise Linux 호스트는 RHEL 기반 하이퍼바이저라고도 하는데, 이것은 Red Hat Enterprise Linux ServerRed Hat Virtualization 서브스크립션이 활성화되어 있는 물리적인 서버에 Red Hat Enterprise Linux를 기본적으로 설치하는 것을 바탕으로 합니다. 자세한 설치 방법은 Red Hat Enterprise Linux 7 설치 가이드를 참조하시기 바랍니다.
부록 G. PCI 통과(passthrough)를 위한 호스트 설정을 참조해서 장치 통과가 가능하도록 호스트 하드웨어 및 소프트웨어를 활성화합니다.

중요

사용자 호스트의 BIOS 설정에 Virtualization이 활성화되어 있어야 합니다. 사용자 호스트의 BIOS 설정 변경방법은 사용자 호스트의 하드웨어 문서를 참조하시기 바랍니다.

중요

타사 감시 장치는 VDSM의 감시 장치 데몬과 충돌할 수도 있으므로 Red Hat Enterprise Linux 호스트에 타사 감시 장치가 설치되어 있지 않아야 합니다.

7.2. 필요한 서브스크립션을 등록

가상화 호스트로 사용하려는 Red Hat Enterprise Linux 호스트가 2.2절. “하이퍼바이저 요구 사항”에 있는 하드웨어 요구 사항을 충족하는지 확인해야 합니다. 해당 호스트는 또한 Subscription Manager를 사용해서 여러 가지 서브스크립션을 등록해야 합니다. 다음의 절차를 통해 CDN(Content Delivery Network)에 등록하고 Red Hat Enterprise Linux ServerRed Hat Virtualization 서브스크립션을 호스트에 연결합니다.

절차 7.1. Subscription Manager를 사용하여 필요한 서브스크립션에 등록

  1. 사용자 시스템을 Content Delivery Network에 등록 시 사용자의 고객 포털 사용자 이름암호를 입력합니다:
    # subscription-manager register
  2. Red Hat Enterprise Linux ServerRed Hat Virtualization 서브스크립션 풀을 찾아서 해당 풀 ID를 기록합니다.
    # subscription-manager list --available
  3. 이전 단계에서 기록한 풀 ID를 사용해서 시스템에 서브스크립션을 연결합니다:
    # subscription-manager attach --pool=poolid

    참고

    현재 연결된 서브스크립션을 확인하려면 다음의 명령을 실행합니다:
    # subscription-manager list --consumed
    활성화된 모든 리포지터리 목록을 보려면 다음의 명령을 실행합니다:
    # yum repolist
  4. 기존의 모든 리포지터리를 비활성화합니다:
    # subscription-manager repos --disable=*
  5. 필요한 리포지터리를 활성화합니다:
    # subscription-manager repos --enable=rhel-7-server-rpms
    # subscription-manager repos --enable=rhel-7-server-rhv-4-mgmt-agent-rpms
    IBM POWER8 하드웨어에 Red Hat Enterprise Linux 7 little endian 호스트를 설치하려면 다음 리포지터리를 활성화합니다.
    # subscription-manager repos --enable=rhel-7-server-rhv-4-mgmt-agent-for-power-le-rpms 
    # subscription-manager repos --enable=rhel-7-for-power-le-rpms
  6. 현재 설치된 모든 패키지가 업데이트되어 있는지 확인합니다:
    # yum update

    참고

    커널 관련 패키지가 업데이트된 경우 시스템을 재부팅합니다.
호스트가 필요한 서브스크립션을 등록한 후 다음 부분으로 넘어가서 사용자 Red Hat Virtualization 환경에 사용자 호스트를 연결합니다.

8장. Red Hat Virtualization Manager에 대한 Host 추가

사용자의 Red Hat Virtualization 환경에 호스트를 추가하려면 플랫폼을 통해 가상화 확인, 패키지 설치, 브리지 생성, 그리고 호스트 재부팅 등의 단계를 거쳐야 하므로 시간이 소요될 수 있습니다. 상세 정보 창을 사용해서 호스트와 Manager의 연결 과정을 모니터링합니다.

절차 8.1. Red Hat Virtualization Manager에 대한 Host 추가

  1. 관리 포털에서 호스트 리소스 탭을 클릭합니다.
  2. 새로 만들기를 클릭합니다.
  3. 드롭 다운 목록을 사용하여 새 호스트의 데이터 센터호스트 클러스터를 선택합니다.
  4. 새 호스트의 이름주소를 입력합니다. SSH 포트 란에 표준 SSH 포트인 포트 22가 자동으로 채워집니다.
  5. Manager가 호스트에 액세스 시 인증방법을 선택합니다.
    • 암호 인증을 사용하려면 root 사용자의 암호를 입력합니다.
    • 또는, SSH 공개 키 란에 있는 키를 공개 키 인증을 사용할 호스트의 /root/.ssh/authorized_keys에 복사합니다.
  6. 고급 호스트 설정을 보려면 고급 매개 변수 버튼을 클릭합니다.
    1. 옵션으로 자동 방화벽 설정을 비활성화합니다.
    2. 옵션으로 보안을 강화하기 위해 호스트 SSH 지문을 추가합니다. 이를 수동으로 추가하거나 자동으로 가져오기할 수 있습니다.
  7. 옵션으로 호스트에 지원되는 전원 관리 카드가 있는 경우 전원 관리를 설정합니다. 전원 관리 설정에 대한 자세한 내용은 관리 가이드에 있는 호스트 전원 관리 설정을 참조하십시오.
  8. OK를 클릭합니다.
새 호스트는 Installing 상태로 호스트 목록에 표시되고 상세 정보 창에서 설치 진행 상태를 확인할 수 있습니다. 잠시 후 호스트 상태가 Up으로 변경됩니다.

IV 부. 스토리지 연결

9장. 스토리지

9.1. 스토리지 소개

스토리지 도메인은 일반적인 스토리지 인터페이스가 있는 이미지 모음입니다. 스토리지 도메인에는 템플릿 이미지와 가상 머신(스냅샷 포함)의 전체 이미지, ISO 파일, 그리고 자체의 메타데이터가 들어 있습니다. 스토리지 도메인은 블록 장치(SAN - iSCSI 또는 FCP) 또는 파일 시스템(NAS - NFS, GlusterFS, 또는 기타 다른 POSIX 호환 파일 시스템)으로 구성될 수 있습니다.
스토리지 도메인은 세 가지 유형이 있습니다:
  • 데이터 도메인: 데이터 도메인은 데이터 센터에서 모든 가상 머신과 템플릿의 가상 하드 디스크와 OVF 파일을 수용하며, 여러 데이터 센터에서 공유될 수 없습니다. 여러 유형의 데이터 도메인 (iSCSI, NFS, FC, POSIX, Gluster)이 로컬 도메인이 아닌 공유 도메인인 경우 해당 도메인을 모두 동일한 데이터 센터에 추가할 수 있습니다.

    중요

    ISO 도메인과 내보내기 도메인을 연결할 수 있기 위해서는 먼저 Up 상태인 호스트가 하나 있어야 하며 데이터 센터에 데이터 도메인을 연결해야 합니다.
  • ISO 도메인: ISO 도메인에는 가상 머신의 운영 체제 및 애플리케이션을 설치 및 시작하는데 사용하는 ISO 파일(또는 논리 CD)이 저장되어 있으며, 여러 데이터 센터에서 공유될 수 있습니다. ISO 도메인에서의 데이터 센터에서는 물리적 미디어가 필요하지 않습니다. ISO 도메인은 NFS만을 기반으로 할 수 있습니다. 하나의 ISO 도메인만 데이터 센터에 추가할 수 있습니다.
  • 내보내기 도메인: 내보내기 도메인은 데이터 센터와 Red Hat Virtualization 환경 간의 이미지를 복사 및 이동하는 데 사용되는 임시 스토리지 리포지터리입니다. 내보내기 도메인은 가상 머신을 백업하는 데 사용할 수 있습니다. 내보내기 도메인은 데이터 센터 간에 이동할 수 있지만 한 번에 하나의 데이터 센터에서만 활성화할 수 있습니다. 내보내기 도메인은 NFS 만을 기반으로 할 수 있습니다. 하나의 내보내기 도메인만 데이터 센터에 추가할 수 있습니다.
기존 FCP 스토리지를 데이터 도메인으로 연결하려면 다음 섹션을 참조하십시오. 더 많은 스토리지 옵션은 관리 가이드를 참조하십시오.

9.2. FCP 스토리지 추가

Red Hat Virtualization 플랫폼은 기존의 LUN에서 만들어진 볼륨 그룹에서 스토리지 도메인을 생성하여 SAN 스토리지를 지원합니다. 볼륨 그룹이나 LUN 모두 동시에 여러 스토리지 도메인에 연결할 수 없습니다.
Red Hat Virtualization 시스템 관리자는 SAN (Storage Area Networks) 개념에 대한 작업 지식이 필요합니다. 일반적으로 SAN은 호스트와 외부 공유 스토리지 간의 트래픽에 대해 FCP(Fibre Channel Protocol)를 사용합니다. 이러한 이유로 SAN은 FCP 스토리지라고도 합니다.
Red Hat Enterprise Linux에서 FCP 또는 멀티패스 설정에 대한 보다 자세한 내용은 Storage Administration GuideDM Multipath 가이드에서 참조하십시오.
다음 절차에서는 데이터 도메인으로 Red Hat Virtualization 환경에 기존 FCP 스토리지를 연결하는 방법을 설명합니다. 기타 지원되는 스토리지 유형에 대한 자세한 내용은 관리 가이드에 있는 스토리지를 참조하십시오.

절차 9.1. FCP 스토리지 추가

  1. 스토리지 리소스 탭을 클릭하면 모든 스토리지 도메인 목록이 표시됩니다.
  2. 새로운 도메인을 클릭하면 새로운 도메인 창이 열립니다.
  3. 스토리지 도메인의 이름을 입력합니다.
    FCP 스토리지 추가

    그림 9.1. FCP 스토리지 추가

  4. 데이터 센터 드롭 다운 메뉴에서 FCP 데이터 센터를 선택합니다.
    적절한 FCP 데이터 센터가 없을 경우 (none)을 선택합니다.
  5. 드롭 다운 메뉴를 사용하여 도메인 기능스토리지 유형을 선택합니다. 선택한 데이터 센터와 호환되지 않는 스토리지 도메인 유형은 사용할 수 없습니다.
  6. 사용 호스트 란에서 활성 호스트를 선택합니다. 데이터 센터에 있는 첫 번째 데이터 도메인이 아닐 경우 데이터 센터의 SPM 호스트를 선택해야 합니다.

    중요

    스토리지 도메인에서의 모든 통신은 Red Hat Virtualization Manager에서 직접 이루어 지는 것이 아니라 선택한 호스트를 통해 이루어집니다. 시스템에 최소한 하나의 활성 호스트가 존재해야 하며 선택한 데이터 센터에 연결되어 있어야 합니다. 모든 호스트는 스토리지 도메인을 설정하기 전 스토리지 장치에 액세스할 수 있어야 합니다.
  7. 스토리지 유형으로 Data / Fibre Channel이 선택되어 있을 때 새로운 도메인 창에는 사용하지 않는 LUN이 있는 알려진 대상이 자동으로 표시됩니다. LUN ID 확인란을 선택하여 사용 가능한 모든 LUN을 선택합니다.
  8. 옵션으로 고급 매개 변수를 설정할 수 있습니다.
    1. 고급 매개 변수를 클릭합니다.
    2. 디스크 공간 부족 경고 표시 필드에 백분율 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 해당 백분율 값 아래로 내려가면 사용자에게 경고 메세지가 표시되고 기록됩니다.
    3. 심각히 부족한 디스크 공간의 동작 차단 필드에 GB 단위로 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 해당 값 아래로 내려가면 사용자에게 오류 메세지가 표시되고 기록되며 공간을 소비하는 모든 새로운 동작은 일시적이라도 모두 차단됩니다.
    4. 삭제 후 초기화 확인란을 선택하여 삭제 후 초기화 옵션을 활성화합니다. 이 옵션은 도메인 생성 후 편집할 수 있지만 이러한 경우 이미 존재하는 디스크의 삭제 후 초기화 속성은 변경되지 않습니다.
    5. 삭제 후 폐기 확인란을 선택하여 삭제 후 폐기 옵션을 활성화합니다. 이 옵션은 도메인 생성 후 편집할 수 있으며 스토리지 도메인을 차단하는 데에만 사용할 수 있습니다.
  9. OK를 클릭하여 스토리지 도메인을 생성하고 창을 닫습니다.
새로운 FCP 데이터 도메인이 스토리지 탭에 표시됩니다. 이는 사용 준비될 때까지 Locked 상태로 되어 있습니다. 사용 준비되면 이는 자동으로 데이터 센터에 연결됩니다.

부록 A. 로컬 ISO 도메인 권한 변경

설정 시 Manager가 로컬 ISO 도메인을 제공하도록 설정된 경우 해당 도메인은 하나 이상의 데이터 센터에 연결될 수 있으며 가상 머신 이미지 파일을 제공하는 데 사용될 수 있습니다. 기본값으로 로컬 ISO 도메인의 액세스 제어 목록(ACL)은 Manager 시스템에 대해서만 읽기 및 쓰기 액세스를 제공합니다. 가상화 호스트는 ISO 도메인에 대한 읽기 및 쓰기 액세스가 있어야 해당 도메인을 데이터 센터와 연결할 수 있습니다. 초기 설정 시 네트워크 또는 호스트 상세 정보가 없었거나 언제든지 ACL을 업데이트해야 할 때 다음의 절차를 이용합니다.
전체 네트워크에 대한 읽기 및 쓰기 액세스 제공이 가능하지만 그것을 필요로 하는 호스트 및 서브넷에게만 액세스를 제공하는 것이 좋습니다.

절차 A.1. 로컬 ISO 도메인 권한 변경

  1. Manager 시스템에 로그인합니다.
  2. /etc/exports 파일을 편집하고 호스트 또는 호스트가 속한 서브넷을 액세스 제어 목록에 추가합니다:
    /var/lib/exports/iso 10.1.2.0/255.255.255.0(rw) host01.example.com(rw) host02.example.com(rw)
    위의 예시에서는 단일 /24 네트워크와 두 개의 특정 호스트에 대한 읽기 및 쓰기 액세스가 허용됩니다. /var/lib/exports/iso는 해당 ISO 도메인의 기본 파일 경로입니다. 자세한 포맷 설정 옵션은 exports(5) man 페이지를 참조하시기 바랍니다.
  3. 변경 사항을 적용합니다:
    # exportfs -ra
engine-setup 실행 후 /etc/exports 파일을 수동으로 편집한 후 engine-cleanup을 실행하면 변경 사항이 해제되지 않습니다.

부록 B. 로컬 ISO 도메인의 데이터 센터 연결

Manager 설치 시 생성된 로컬 ISO 도메인은 관리 포털에 Unattached로 표시됩니다. 해당 도메인을 사용하려면 데이터 센터에 연결합니다. 해당 ISO 도메인은 데이터 센터와 스토리지 유형이 동일해야 합니다. 데이터 센터의 각 호스트가 해당 도메인에 대한 ISO 읽기 및 쓰기 권한이 있어야 합니다. 특히 Storage Pool Manager의 액세스 가능 여부를 확인합니다.
하나의 ISO 도메인만 데이터 센터에 연결될 수 있습니다.

절차 B.1. 로컬 ISO 도메인의 데이터 센터 연결

  1. 관리 포털에서 데이터 센터 리소스 탭을 클릭하여 해당하는 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 스토리지 탭을 선택하여 데이터 센터에 이미 연결된 스토리지 도메인 목록을 나열합니다.
  3. ISO 연결을 클릭하여 ISO 라이브러리 연결 창을 엽니다.
  4. 로컬 ISO 도메인의 라디오 버튼을 클릭합니다.
  5. OK를 클릭합니다.
ISO 도메인은 이제 데이터 센터에 연결되었으며 자동으로 활성화되었습니다.

부록 C. Red Hat Gluster Storage 노드에 Gluster 프로세스 활성화

  1. 탐색 창에서 클러스터 탭을 선택합니다.
  2. 새로 만들기를 선택합니다.
  3. "Gluster 서비스 활성화" 라디오 버튼을 클릭합니다. 필요한 주소, SSH 지문, 암호 등을 입력합니다. 주소와 암호란은 기존의 Gluster 설정을 가져옴 확인란이 선택되었을 때에만 입력 가능합니다.
    Description

    그림 C.1. "Gluster 서비스 활성화" 라디오 버튼 클릭하기

  4. OK를 클릭합니다.
이제 Gluster 클러스터에 Red Hat Gluster Storage 노드를 추가하고 Gluster 볼륨을 스토리지 도메인으로 마운트할 수 있습니다. iptables 규칙은 더 이상 스토리지 도메인이 클러스터에 추가되는 것을 방지하지 않습니다.

부록 D. Red Hat Virtualization Manager에서 사용할 원격 PostgreSQL 데이터 베이스 준비

옵션으로 PostgreSQL 데이터베이스를 원격 Red Hat Enterprise Linux 7 시스템에 설정해서 Manager 데이터베이스로 사용합니다. 기본값으로 Red Hat Virtualization Manager의 engine-setup 설정 스크립트를 사용해서 Manager 데이터베이스를 Manager 시스템에 로컬로 생성하고 설정합니다. 자동 데이터베이스 설정 방법은 3.3절. “Red Hat Virtualization Manager 설정”을 참조하십시오. Manager 시스템에 사용자 지정 값을 가진 Manager 데이터베이스를 설정하는 방법은 부록 E. Red Hat Virtualization Manager에서 사용할 수동 설정 PostgreSQL 데이터 베이스 준비를 참조하십시오.
다음의 절차를 통해 Manager가 설치된 시스템이 아닌 다른 시스템에 데이터베이스를 설정합니다. engine-setup 시 데이터베이스 인증 정보를 입력해야 하므로 Manager 설정 전에 우선 해당 데이터베이스를 설정합니다.

참고

engine-setupengine-backup --mode=restore 명령은 시스템 로캘(locale)이 다른 경우에도 en_US.UTF8 로캘에서만 시스템 오류 메시지를 지원합니다.
postgresql.conf 파일의 로캘 설정이 en_US.UTF8로 설정되어야 합니다.

중요

데이터베이스 이름은 숫자, 밑줄, 그리고 소문자만 포함할 수 있습니다.

절차 D.1. Red Hat Virtualization Manager에서 사용할 원격 PostgreSQL 데이터 베이스 준비

  1. PostgreSQL 서버 패키지를 설치합니다:
    # yum install postgresql-server
  2. PostgreSQL 데이터베이스를 초기화하고 postgresql 서비스를 시작합니다. 해당 서비스가 부팅 시 시작되는지 확인합니다:
    # su -l postgres -c "/usr/bin/initdb --locale=en_US.UTF8 --auth='ident' --pgdata=/var/lib/pgsql/data/"
    # systemctl start postgresql.service
    # systemctl enable postgresql.service
  3. postgres 사용자로 psql 명령행 인터페이스에 연결합니다:
    # su - postgres
    $ psql
  4. Manager가 데이터베이스에서 읽기/쓰기 시 사용할 사용자를 생성합니다. Manager의 기본 사용자 이름은 engine입니다:
    postgres=# create role user_name with login encrypted password 'password';
  5. Red Hat Virtualization 환경에 대한 데이터를 저장할 데이터베이스를 생성합니다. Manager의 기본 데이터베이스 이름은 engine입니다:
    postgres=# create database database_name owner user_name template template0 encoding 'UTF8' lc_collate 'en_US.UTF-8' lc_ctype 'en_US.UTF-8';
  6. 새로운 데이터베이스에 연결하고 plpgsql 언어를 추가합니다:
    postgres=# \c database_name
    database_name=# CREATE LANGUAGE plpgsql;
  7. md5 클라이언트 인증을 활성화하여 원격으로 데이터베이스에 액세스할 수 있습니다. /var/lib/pgsql/data/pg_hba.conf 파일을 편집하고 다음 행을 파일 아래에 있는 local로 시작하는 행 바로 아래에 추가합니다. 여기서 X.X.X.X는 Manager의 IP 주소로 변경합니다:
    host    database_name    user_name    X.X.X.X/32   md5
  8. 데이터베이스에 TCP/IP 연결을 허용합니다. /var/lib/pgsql/data/postgresql.conf 파일을 편집하고 다음 행을 추가합니다:
    listen_addresses='*'
    위의 예시에서는 모든 인터페이스에서의 연결을 수신하도록 postgresql 서비스를 설정하고 있습니다. IP 주소로 인터페이스를 지정할 수 있습니다.
  9. PostgreSQL 데이터베이스 연결에 사용할 기본 포트를 열고 업데이트된 방화벽 규칙을 저장합니다:
    # yum install iptables-services
    # iptables -I INPUT 5 -p tcp --dport 5432 -j ACCEPT
    # service iptables save
  10. postgresql 서비스를 다시 시작합니다:
    # systemctl restart postgresql.service
옵션으로 http://www.postgresql.org/docs/8.4/static/ssl-tcp.html#SSL-FILE-USAGE에 있는 지시 사항에 따라 데이터 베이스 보안 연결을 위해 SSL을 설정합니다.

부록 E. Red Hat Virtualization Manager에서 사용할 수동 설정 PostgreSQL 데이터 베이스 준비

옵션으로 로컬 PostgreSQL 데이터베이스를 Manager 시스템에 설정해서 Manager 데이터베이스로 사용합니다. 기본값으로 Red Hat Virtualization Manager의 engine-setup 설정 스크립트를 사용해서 Manager 데이터베이스를 Manager 시스템에 로컬로 생성하고 설정합니다. 자동 데이터베이스 설정 방법은 3.3절. “Red Hat Virtualization Manager 설정”을 참조하십시오. Manager가 설치된 시스템과 다른 시스템에 Manager 데이터베이스를 설정하는 방법은 부록 D. Red Hat Virtualization Manager에서 사용할 원격 PostgreSQL 데이터 베이스 준비를 참조하십시오.
다음의 절차를 통해 사용자 지정 값을 가진 Manager 데이터베이스를 설정합니다. engine-setup 시 데이터베이스 인증 정보를 입력해야 하므로 Manager 설정 전에 먼저 해당 데이터베이스를 설정합니다. 데이터베이스 설정을 위해 우선 Manager 시스템에 rhevm 패키지를 설치해야 합니다. postgresql-server 패키지는 관련 패키지로 설치됩니다.

참고

engine-setupengine-backup --mode=restore 명령은 시스템 로캘(locale)이 다른 경우에도 en_US.UTF8 로캘에서만 시스템 오류 메시지를 지원합니다.
postgresql.conf 파일의 로캘 설정이 en_US.UTF8로 설정되어야 합니다.

중요

데이터베이스 이름은 숫자, 밑줄, 그리고 소문자만 포함할 수 있습니다.

절차 E.1. Red Hat Virtualization Manager에서 사용할 수동 설정 PostgreSQL 데이터 베이스 준비

  1. PostgreSQL 데이터베이스를 초기화하고 postgresql 서비스를 시작합니다. 해당 서비스가 부팅 시 시작되는지 확인합니다:
    # su -l postgres -c "/usr/bin/initdb --locale=en_US.UTF8 --auth='ident' --pgdata=/var/lib/pgsql/data/"
    # systemctl start postgresql.service
    # systemctl enable postgresql.service
  2. postgres 사용자로 psql 명령행 인터페이스에 연결합니다.
    # su - postgres
    $ psql
  3. Manager가 데이터베이스에서 읽기/쓰기 시 사용할 사용자를 생성합니다. Manager의 기본 사용자 이름은 engine입니다:
    postgres=# create role user_name with login encrypted password 'password';
  4. Red Hat Virtualization 환경에 대한 데이터를 저장할 데이터베이스를 생성합니다. Manager의 기본 데이터베이스 이름은 engine입니다:
    postgres=# create database database_name owner user_name template template0 encoding 'UTF8' lc_collate 'en_US.UTF-8' lc_ctype 'en_US.UTF-8';
  5. 새로운 데이터베이스에 연결하고 plpgsql 언어를 추가합니다:
    postgres=# \c database_name
    database_name=# CREATE LANGUAGE plpgsql;
  6. md5 클라이언트 인증을 활성화하여 원격으로 데이터베이스에 액세스할 수 있습니다. /var/lib/pgsql/data/pg_hba.conf 파일을 편집하고 다음 행을 파일 아래에 있는 local로 시작하는 행 바로 아래에 추가합니다:
    host    [database name]    [user name]    0.0.0.0/0  md5
    host    [database name]    [user name]    ::0/0      md5
  7. postgresql 서비스를 다시 시작합니다:
    # systemctl restart postgresql.service
옵션으로 http://www.postgresql.org/docs/8.4/static/ssl-tcp.html#SSL-FILE-USAGE에 있는 지시 사항에 따라 데이터 베이스 보안 연결을 위해 SSL을 설정합니다.

부록 F. 다른 시스템에 대한 Websocket 프록시 설치

websocket 프록시를 사용해서 noVNC 및 SPICE HTML5 콘솔을 통해 가상 머신에 연결할 수 있습니다. QEMU의 VNC 서버는 websocket을 지원하지 않으므로 websocket 프록시를 클라이언트와 VNC 서버 간에 배치해야 합니다. Manager 시스템을 포함해서 네트워크에 액세스할 수 있는 모든 시스템에서 해당 프록시를 실행할 수 있습니다.
보안과 성능을 위해 다른 시스템에 websocket 프록시를 설정하는 것이 좋습니다.

참고

SPICE HTML5 지원은 기술 프리뷰 기능입니다. 기술 프리뷰 기능은 Red Hat 서브스크립션 서비스 수준 계약 (SLA: Subscription Service Level Agreement)에서 완전 지원되지 않으며 기능이 완전하게 작동하지 않을 수 있고 프로덕션 환경에서의 사용을 목적으로 하지 않습니다. 하지만 이러한 기능을 통해 예정된 제품 기능을 미리 사용해 볼 수 있으므로 고객은 개발 과정에서 기능을 테스트하고 피드백을 보낼 수 있습니다.
다음 부분을 통해 Manager를 실행하지 않는 다른 시스템에 대한 websocket 프록시를 설치 및 설정합니다. Manager에 websocket 프록시를 설정하는 방법은 3.3절. “Red Hat Virtualization Manager 설정”을 참조하십시오.

절차 F.1. 다른 시스템에 대한 Websocket 프록시 설치 및 설정

  1. websocket 프록시를 설치합니다:
    # yum install ovirt-engine-websocket-proxy
  2. engine-setup 명령을 실행해서 websocket 프록시를 설정합니다.
    # engine-setup

    참고

    rhevm 패키지도 설치된 경우 해당 호스트에 대한 engine 설정 여부를 물으면 No를 선택합니다.
  3. Enter를 클릭해서 engine-setup이 시스템에 websocket 프록시 서버를 설치하는 것을 허용합니다.
    Configure WebSocket Proxy on this machine? (Yes, No) [Yes]:
  4. Enter를 눌러서 자동 인식된 호스트명을 받아들이거나 다른 호스트명을 입력하고 Enter를 누릅니다. 사용자가 가상 호스트를 사용중인 경우 자동 인식된 호스트명이 올바르지 않을 수 있습니다:
    Host fully qualified DNS name of this server [host.example.com]:
  5. Enter를 클릭해서 engine-setup이 외부 통신에 필요한 방화벽을 설치하고 포트를 여는 것을 허용합니다. engine-setup 명령이 사용자의 방화벽 설정을 수정하도록 허용하지 않으면 사용자는 필요한 포트를 수동으로 열어야 합니다.
    Setup can automatically configure the firewall on this system.
    Note: automatic configuration of the firewall may overwrite current settings.
    Do you want Setup to configure the firewall? (Yes, No) [Yes]:
  6. Manager 시스템의 정규화된 DNS 이름을 입력하고 Enter 키를 누릅니다.
    Host fully qualified DNS name of the engine server []: engine_host.example.com
  7. Enter를 클릭해서 engine-setup이 Manager 시스템에서 작업하는 것을 허용하거나 또는 2를 눌러서 사용자가 수동으로 작업합니다.
    Setup will need to do some actions on the remote engine server. Either automatically, using ssh as root to access it, or you will be prompted to manually perform each such action.
    Please choose one of the following:
    1 - Access remote engine server using ssh as root
    2 - Perform each action manually, use files to copy content around
    (1, 2) [1]:
    1. Enter를 눌러서 기본 SSH 포트 번호를 수락하거나 Manager 시스템의 포트 번호를 입력합니다.
      ssh port on remote engine server [22]:
      
    2. Manager 시스템의 root 로그인 암호를 입력하고 Enter를 누릅니다.
      root password on remote engine server engine_host.example.com:
      
  8. iptables 규칙이 현재 설정과 다른 경우 해당 규칙 검토 여부를 선택합니다.
    Generated iptables rules are different from current ones.
    Do you want to review them? (Yes, No) [No]:
  9. Enter를 눌러서 설정을 확인합니다.
    --== CONFIGURATION PREVIEW ==--
             
    Firewall manager                        : iptables
    Update Firewall                         : True
    Host FQDN                               : host.example.com
    Configure WebSocket Proxy               : True
    Engine Host FQDN                        : engine_host.example.com
             
    Please confirm installation settings (OK, Cancel) [OK]:
    설정된 websocket 프록시를 사용하도록 Manager 시스템을 설정하는 방법이 표시됩니다.
    Manual actions are required on the engine host
    in order to enroll certs for this host and configure the engine about it.
             
    Please execute this command on the engine host: 
       engine-config -s WebSocketProxy=host.example.com:6100
    and than restart the engine service to make it effective
  10. Manager 시스템에 로그인하고 위에 설명된 설정을 실행합니다.
    # engine-config -s WebSocketProxy=host.example.com:6100
    # systemctl restart ovirt-engine.service
    

부록 G. PCI 통과(passthrough)를 위한 호스트 설정

PCI 통과(passthrough)를 활성화하면 가상 머신이 마치 호스트 장치에 직접 연결된 것처럼 호스트 장치를 사용할 수 있습니다. PCI 통과 기능을 활성화하려면 가상화 확장 및 IOMMU 기능이 활성화되어야 합니다. 다음의 절차를 사용하는 경우 호스트를 재부팅해야 합니다. 호스트가 이미 Manager에 연결되어 있는 경우 다음의 절차를 실행하기 전에 호스트를 유지 관리 모드로 전환합니다.

전제 조건:

절차 G.1. PCI 통과(passthrough)를 위한 호스트 설정

  1. BIOS에서 가상화 확장 및 IOMMU 확장 기능을 활성화합니다. 자세한 내용은 Red Hat Enterprise Linux 가상화 및 관리 가이드에 있는 BIOS에서 Intel VT-x 및 AMD-V 가상화 하드웨어 확장 활성화를 참조하십시오.
  2. 호스트를 Manager에 추가할 때 호스트 장치 통과 & SR-IOV 확인란을 선택하거나 grub 설정 파일을 수동으로 편집하여 커널에서 IOMMU 플래그를 활성화합니다.
  3. GPU 통과(Passthrough)를 위해서는 호스트 및 게스트 시스템 모두에 추가적인 설정 단계를 실행해야 합니다. 자세한 내용은 관리 가이드에 있는 GPU 통과에 필요한 호스트 및 게스트 시스템 준비를 참조하십시오.

절차 G.2. IOMMU 수동 활성화

  1. GRUB 설정 파일을 편집해서 IOMMU를 활성화합니다.

    참고

    IBM POWER8 하드웨어를 사용하는 경우 기본값으로 IOMMU가 활성화되어 있으므로 이 단계를 건너뜁니다.
    • Intel의 경우 시스템을 부팅한 후 grub 설정 파일의 GRUB_CMDLINE_LINUX행 끝에 intel_iommu=on를 덧붙입니다.
      # vi /etc/default/grub
      ...
      GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... intel_iommu=on
      ...
    • AMD의 경우 시스템을 부팅한 후 grub 설정 파일의 GRUB_CMDLINE_LINUX행 끝에 amd_iommu=on를 덧붙입니다.
      # vi /etc/default/grub
      ...
      GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... amd_iommu=on
      ...

    참고

    intel_iommu=on 또는 amd_iommu=on이 작동한다면 intel_iommu=pt 또는 amd_iommu=pt로 바꿔 봅니다. pt 옵션을 사용해서 통과(passthrough)에 사용되는 장치만 IOMMU가 활성화하고 더 나은 호스트 성능을 제공합니다. 하지만 모든 하드웨어에서 이 옵션이 지원되지는 않을 수 있습니다. 사용자 호스트에 pt 옵션이 작동하지 않으면 이전 옵션으로 돌아갑니다.
    하드웨어가 인터럽트 리매핑(interrupt remapping)을 지원하지 않아서 통과가 실패하는 경우 가상 머신이 신뢰할 수 있다면 allow_unsafe_interrupts 옵션을 활성화할 수도 있습니다. allow_unsafe_interrupts 옵션을 활성화하면 잠재적으로 호스트가 가상 머신으로부터 MSI 공격에 노출될 수 있어서 기본값으로 활성화되어 있지 않습니다. 해당 옵션을 활성화하는 방법은 다음과 같습니다:
    # vi /etc/modprobe.d
    options vfio_iommu_type1 allow_unsafe_interrupts=1
  2. 변경 사항을 적용하려면 grub.cfg 파일을 새로고침하고 호스트를 재부팅합니다:
    # grub2-mkconfig -o /boot/grub2/grub.cfg
    # reboot
SR-IOV를 활성화하고 가상 머신에 전용 가상 NIC를 할당하는 방법은 https://access.redhat.com/articles/2335291을 참조하시기 바랍니다.

법적 공지

Copyright © 2016 Red Hat.
This document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.