기술 참조
Red Hat Virtualization 환경의 기술 아키텍처
초록
1장. 소개
1.1. Red Hat Virtualization Manager

그림 1.1. Red Hat Virtualization Manager 아키텍처
1.2. Red Hat Virtualization Host

그림 1.2. 호스트 아키텍처
- 커널 기반 가상 머신 (KVM)
- 커널 기반 가상 머신(KVM)이란 Intel VT 또는 AMD-V 하드웨어 확장을 사용하여 완전한 가상화를 제공하는 로딩 가능한 커널 모델을 말합니다. KVM 자체는 커널 공간에서 실행되지만 KVM 상에서 실행되는 게스트는 사용자 공간에서 개별 QEMU 프로세스로 실행됩니다. 호스트가 KVM을 사용하면 가상 머신이 물리적 하드웨어를 사용할 수 있게 됩니다.
- QEMU
- QEMU란 전체 시스템 에뮬레이션을 제공하는 데 사용되는 멀티 플랫폼 에뮬레이터입니다. QEMU를 사용하여 예를 들어 하나 이상의 프로세서와 주변 기기를 포함하는 PC와 같은 전체 시스템을 에뮬레이트합니다. QEMU를 사용하여 다른 운영 체제를 실행하거나 시스템 코드를 디버깅할 수도 있습니다. KVM 및 적절한 가상화 확장을 가진 프로세서와 함께 QEMU를 사용하여 완전한 하드웨어 기반 가상화가 제공됩니다.
- Red Hat Virtualization Manager 호스트 에이전트, VDSM
- Red Hat Virtualization에서
VDSM은 가상 머신 및 스토리지에서 작업을 시작합니다. 또한 VDSM은 호스트 간 소통을 원활하게 해줍니다. VDSM은 메모리, 스토리지, 네트워킹 등과 같은 호스트 리소스를 감시합니다. 이에 더해 VDSM은 가상 머신 생성, 통계자료 축적, 로그 수집 등의 작업도 관리합니다. VDSM 인스턴스가 각 호스트에서 실행되며 재설정이 가능한54321포트를 사용하여 Red Hat Virtualization Manager에서 관리 명령을 받습니다.VDSM-REGVDSM은VDSM-REG를 사용하여 각 호스트를 Red Hat Virtualization Manager에 등록합니다.VDSM-REG는80포트 또는443포트를 사용하여 그 자체와 호스트에 대한 정보를 제공합니다. libvirt- Libvirt는 가상 머신 및 관련 가상 장치의 관리를 원활하게 해줍니다. Red Hat Virtualization Manager가 가상 머신 생명 주기 명령(시작, 중지, 재부팅 등)을 시작하면 VDSM이 관련 호스트 시스템에서 libvirt를 호출하여 이러한 명령을 실행하도록 합니다.
- Storage Pool Manager, SPM
- Storage Pool Manager(SPM)는 데이터 센터의 한 호스트에 할당되는 역할입니다. SPM 호스트는 데이터 센터에서 모든 스토리지 도메인 구조 메타데이터를 변경할 수 있는 유일한 권한이 있습니다. 변경 가능한 내용에는 가상 디스크 이미지, 스냅샷, 그리고 템플릿의 생성, 삭제, 그리고 수정 등이 포함됩니다. 또한 스파스 블록 장치의 스토리지를 Storage Area Network(SAN)에 할당하는 것도 포함됩니다. SPM 역할은 데이터 센터 내의 아무 호스트에 마이그레이션할 수 있습니다. 그러므로 데이터 센터 내의 모든 호스트는 데이터 센터에서 정의된 모든 스토리지 도메인에 액세스할 수 있어야 합니다.Red Hat Virtualization Manager는 SPM이 항상 사용 가능한지 확인합니다. 스토리지 연결 문제 발생 시 Manager는 SPM 역할을 다른 호스트에 다시 배정합니다.
- 게스트 운영 체제
- 게스트 운영 체제는 Red Hat Virtualization 환경에서 수정하지 않고 가상 머신에 설치할 수 있습니다. 게스트 운영 체제 및 설치된 모든 애플리케이션은 가상화된 환경이라는 것을 인식하지 못하며 정상적으로 작동합니다.Red Hat에서 제공하는 개선된 장치 드라이버를 사용하여 더 빠르고 효율적으로 가상화 장치에 액세스할 수 있습니다. 또한 게스트에 Red Hat Virtualization 게스트 에이전트 설치 시 관리 콘솔에 개선된 게스트 정보를 제공합니다.
1.3. Manager에 액세스하기 위한 인터페이스
- 사용자 포털
- 사용자는 데스크탑 가상화를 통해 개인 PC 데스크탑 환경과 비슷한 데스크탑 환경을 경험할 수 있습니다. 사용자 포털은 사용자에게 가상 데스크탑 인프라를 제공하는 데 사용됩니다. 사용자는 웹 브라우저를 통해 사용자 포털에 액세스하며 자신에게 배정된 가상 데스크탑을 표시 및 액세스할 수 있습니다. 사용자 포털에서 사용자가 수행할 수 있는 작업은 시스템 관리자가 설정합니다. 일반 사용자는 시스템 관리자가 배정한 가상 데스크탑을 시작, 중지, 그리고 사용할 수 있습니다. 고급 사용자(Power User)는 관리 작업을 일부 수행할 수 있습니다. 두 종류의 사용자 모두 같은 URL을 통해 사용자 포털에 액세스하며 로그인 시 자신의 권한에 맞는 옵션을 선택할 수 있습니다.
- 일반 사용자 액세스
일반 사용자는 사용자 포털을 통해 본인의 가상 데스크탑을 시작/정지/연결할 수 있습니다. 가상 머신에 직접 연결하기 위해 Simple Protocol for Independent Computing Environments (SPICE) 또는 Virtual Network Computing (VNC) 클라이언트를 사용합니다. 두 프로토콜 모두 사용자에게 로컬로 설치된 데스크탑 환경과 유사한 환경을 제공합니다. 관리자는 가상 머신 생성 시 해당 가상 머신에 연결하는 데 사용될 프로토콜을 지정합니다.
사용자 포털에서 사용 가능한 작업과 지원되는 브라우저 및 클라이언트에 대한 보다 자세한 내용은 Introduction to the User Portal(사용자 포털 소개)에서 참조하십시오. - 고급 사용자 액세스
Red Hat Virtualization 사용자 포털은 고급 사용자에게 가상 리소스를 생성/사용/감시할 수 있게 해주는 그래픽 사용자 인터페이스(GUI)를 제공합니다. 시스템 관리자는 사용자에게 고급 사용자 액세스를 부여해서 일부 관리 작업을 위임할 수 있습니다. 일반 사용자가 수행할 수 있는 작업에 더해서 고급 사용자가 수행할 수 있는 작업은 다음과 같습니다:
- 가상 머신을 생성, 편집, 삭제합니다.
- 가상 디스크 및 네트워크 인터페이스를 관리합니다.
- 가상 머신에 사용자 권한을 부여합니다.
- 템플릿을 생성 및 사용하여 가상 머신을 빠르게 배포할 수 있습니다.
- 리소스 사용량 및 심각성이 높은 이벤트를 감시합니다.
- 스냅샷을 생성 및 사용하여 가상 머신을 이전 상태로 복원합니다.
고급 사용자는 위임된 가상 머신의 관리 작업을 수행할 수 있습니다. 데이터 센터 및 클러스터 수준의 관리 작업은 해당 환경의 관리자가 갖게 됩니다.
- 관리 포털
- 관리 포털은 Red Hat Virtualization Manager 서버의 그래픽 관리 인터페이스입니다. 관리 포털을 사용하여 관리자는 웹 브라우저를 통해 가상화 환경의 모든 요소를 감시, 생성, 그리고 관리할 수 있습니다. 관리 포털에서 수행할 수 있는 작업은 다음과 같습니다:
- 네트워크, 스토리지 도메인 등과 같은 가상 인프라를 생성/관리합니다.
- 호스트를 설치 및 관리할 수 있습니다.
- 데이터 센터, 클러스터 등과 같은 논리적 엔티티를 생성/관리합니다.
- 가상 머신을 생성 및 관리합니다.
- Red Hat Virtualization 사용자 및 권한을 관리합니다.
관리 포털은 JavaScript를 사용하여 표시됩니다.관리 포털 기능에 대한 보다 자세한 내용은 Red Hat Virtualization 관리 가이드에서 참조하십시오. 관리 포털에서 지원되는 브라우저 및 플랫폼에 대한 내용은 Red Hat Virtualization 설치 가이드에서 참조하십시오. - Representational State Transfer (REST) API
- Red Hat Virtualization REST API에서는 Red Hat Virtualization 환경을 조사 및 관제할 수 있는 소프트웨어 인터페이스를 제공합니다. REST API는 HTTP 작업을 지원하는 모든 프로그래밍 언어에서 사용할 수 있습니다.REST API를 사용하여 개발자와 관리자는 다음과 같은 작업을 할 수 있습니다:
- 기업 IT 시스템과 통합합니다.
- 타사 가상화 소프트웨어와 통합합니다.
- 자동화된 유지관리 및 오류 확인 작업을 수행합니다.
- 스크립트를 사용하여 Red Hat Virtualization 환경에서 반복적인 작업을 자동화합니다.
API 사양 및 사용 예는 Red Hat Virtualization REST API Guide에서 참조하십시오.
1.4. Manager를 지원하는 구성 요소
- Red Hat JBoss Enterprise Application Platform
- Red Hat JBoss Enterprise Application Platform은 Java 애플리케이션 서버입니다. 이를 사용하여 플랫폼 간 Java 애플리케이션의 효율적인 개발 및 전송을 지원하는 프레임워크를 제공합니다. Red Hat Virtualization Manager는 Red Hat JBoss Enterprise Application Platform을 사용하여 제공됩니다.
중요
Red Hat Virtualization Manager와 함께 번들로 제공된 Red Hat JBoss Enterprise Application Platform 버전은 다른 애플리케이션에 사용하지 않아야 합니다. 이 플랫폼은 Red Hat Virtualization Manager에 사용하도록 특별히 맞춰져 있습니다. Manager에 포함된 Red Hat JBoss Enterprise Application Platform을 다른 목적으로 사용하는 것은 Red Hat Virtualization 환경에서의 플랫폼 기능에 부정적인 영향을 미치게 됩니다. - 보고서 및 기록 데이터 수집
- Red Hat Virtualization Manager에 포함된 data warehouse에서는 호스트, 가상 머신, 그리고 스토리지 감시 데이터를 수집합니다. 사전 정의된 여러 가지 보고서가 제공됩니다. 사용자는 SQL을 지원하는 모든 쿼리 도구를 사용하여 환경을 분석하고 보고서를 생성할 수 있습니다.Red Hat Virtualization Manager 설치 중 두 개의 데이터베이스가 생성됩니다. 이 데이터베이스는 설치 중 선택된 Postgres 인스턴스에 생성됩니다.
- engine 데이터베이스는 Red Hat Virtualization Manager에서 사용하는 주 데이터 저장소입니다. 가상화 환경의 상태, 설정, 성능 등에 관한 정보가 이 데이터베이스에 저장됩니다.
- ovirt_engine_history 데이터베이스는 engine 운영 데이터베이스에서 시간을 두고 수집된 설정 정보 및 통계 지표를 담고 있습니다. engine 데이터베이스에 있는 설정 데이터는 매분 검사되어 변경 내용이 ovirt_engine_history 데이터베이스에 복제됩니다. 데이터베이스 변경 내용을 추적하여 데이터베이스에 있는 대상에 대한 정보를 얻을 수 있습니다. 이를 통해 사용자의 Red Hat Virtualization 환경을 분석하고 개선하여 문제를 해결할 수 있게 해줍니다.ovirt_engine_history 데이터베이스를 기반으로 보고서를 생성하는 방법은 Red Hat Virtualization Data Warehouse 가이드에 있는 History Database(기록 데이터베이스)에서 참조하시기 바랍니다.
중요
ovirt_engine_history 데이터베이스에서 데이터 복제는 RHEVM History Service인 ovirt-engine-dwhd가 수행합니다. - 디렉토리 서비스
- 디렉토리 서비스는 사용자 및 조직 정보를 저장할 수 있는 중앙화된 네트워크 기반 저장소를 제공합니다. 애플리케이션 설정, 사용자 프로파일, 그룹 데이터, 정책, 액세스 제어 등의 정보가 저장됩니다. Red Hat Virtualization Manager는 Active Directory, Identity Management (IdM), OpenLDAP, 그리고 Red Hat Directory Server 9를 지원합니다. 또한 오직 관리만을 목적으로 하는 로컬 내부 도메인도 있습니다. 이러한 내부 도메인의 유일한 사용자는 관리자입니다.
1.5. 스토리지
- 데이터 스토리지 도메인
- 시스템 환경에서 실행 중인 모든 가상 머신의 가상 하드 디스크 이미지는 데이터 도메인에 있습니다. 가상 머신의 템플릿 및 스냅샷도 데이터 도메인에 저장됩니다. 데이터 도메인은 데이터 센터 간에 공유할 수 없습니다.
- 내보내기 스토리지 도메인
- 내보내기 도메인이란 데이터 센터와 Red Hat Virtualization 환경 간에 이미지를 복사 및 이동하는 데 사용되는 임시 스토리지 리포지터리를 말합니다. 내보내기 도메인은 가상 머신과 템플릿을 백업하는 데 사용할 수 있습니다. 내보내기 도메인은 데이터 센터 간에 이동할 수 있지만 한 번에 하나의 데이터 센터에서만 활성화할 수 있습니다.
- ISO 스토리지 도메인
- ISO 도메인에 저장되는 ISO 파일은 가상 머신에 운영 체제 및 애플리케이션을 설치하는 데 사용되는 논리 CD-ROM입니다. ISO 도메인이라는 논리 엔티티는 물리적 CD-ROM 또는 DVD 라이브러리를 대체하여 데이터 센터에서 물리적 미디어가 더 이상 필요하지 않게 해줍니다. ISO 도메인은 여러 데이터 센터 간에 공유될 수 있습니다.
1.6. 네트워크

그림 1.3. 네트워크 아키텍처
- 네트워크 인프라 계층
- Red Hat Virtualization 네트워크 아키텍처는 다음과 같은 일반적인 하드웨어 및 소프트웨어 장치에 의존합니다:
- Network Interface Controllers(NICs)는 호스트를 네트워크에 연결하는 물리 네트워크 인터페이스 장치입니다.
- Virtual NIC(VNIC)는 호스트의 물리 NIC를 사용하여 작동하는 논리 NIC입니다. VNIC는 가상 머신에 네트워크 연결을 제공합니다.
- 본딩은 여러 NIC를 하나의 인터페이스로 통합합니다.
- 브리지란 패킷 교환 네트워크에서 사용하는 패킷 전달 방식을 말합니다. 이는 가상 머신 논리 네트워크의 기반이 됩니다.
- 논리 네트워크
- 논리 네트워크는 환경의 요구 사항에 따라 네트워크 트래픽을 분리할 수 있게 해줍니다. 다음과 같은 종류의 논리 네트워크가 있습니다:
- 가상 머신 네트워크 트래픽을 전송하는 논리 네트워크
- 가상 머신 네트워크 트래픽을 전송하지 않는 논리 네트워크
- 선택적 논리 네트워크
- 필수 네트워크
모든 논리 네트워크는 필수 또는 옵션(선택적)입니다.가상 머신 네트워크 트래픽을 전송하는 논리 네트워크는 호스트 수준에서 소프트웨어 브리지 장치로 구현됩니다. 기본적으로 Red Hat Virtualization Manager 설치 중ovirtmgmt관리 네트워크라는 하나의 논리 네트워크가 지정됩니다.그 외에도 관리자는 전용 스토리지 논리 네트워크 및 전용 디스플레이 논리 네트워크 등의 논리 네트워크를 추가할 수 있습니다. 가상 머신 트래픽을 전송하지 않는 논리 네트워크는 호스트에서 관련 브리지 장치가 없습니다. 이러한 논리 네트워크는 호스트 네트워크 인터페이스와 직접적으로 연결되어 있습니다.Red Hat Virtualization은 마이그레이션 관련 네트워크 트래픽으로부터 관리 관련 네트워크 트래픽을 분리합니다. 이를 통해 실시간 마이그레이션 전용 네트워크(라우팅 없음)를 사용할 수 있게 되며 마이그레이션 중에 관리 네트워크(ovirtmgmt)가 하이퍼바이저와의 연결을 잃지 않게 해줍니다. - 계층별 논리 네트워크에 대한 설명
- 논리 네트워크는 가상화 환경의 각 계층에서 다른 영향을 미칩니다.데이터 센터 계층
논리 네트워크가 데이터 센터 수준에서 정의됩니다. 각 데이터 센터에 기본적으로
ovirtmgmt관리 네트워크가 있습니다. 추가적인 논리 네트워크는 선택 사항이지만 있는 것이 좋습니다. 데이터 센터 수준에서 가상 머신 네트워크로 지정하고 사용자 정의 MTU를 설정할 수 있습니다. 데이터 센터에 정의된 논리 네트워크는 그 논리 네트워크를 사용하는 클러스터에도 추가되어야 합니다.클러스터 계층논리 네트워크는 데이터 센터에서 사용 가능하며 이 네트워크를 사용하게 될 클러스터에 네트워크를 반드시 추가해야 합니다. 기본적으로 각 클러스터는 관리 네트워크에 연결되어 있습니다. 옵션으로 클러스터의 상위 데이터 센터에 정의된 논리 네트워크를 그 클러스터에 추가할 수 있습니다. 필수 논리 네트워크를 클러스터에 추가한 경우 이를 클러스터의 각 호스트에서 구현해야 합니다. 필요시 선택적 논리 네트워크를 호스트에 추가할 수 있습니다.
호스트 계층가상 머신 논리 네트워크는 클러스터 내의 각 호스트에서 주어진 네트워크 인터페이스와 연결된 소프트웨어 브리지로 구현됩니다. 가상 머신 논리 네트워크가 아닌 네트워크에는 연결된 브리지가 없으며 호스트 네트워크 인터페이스와 직접 연결되어 있습니다. 각 호스트를 Red Hat Virtualization 환경에 추가하는 경우 관리 네트워크는 호스트의 네트워크 장치를 사용하는 브리지로 구현됩니다. 추가적으로 필요한 논리 네트워크를 클러스터에 추가 시 이러한 논리 네트워크를 각 호스트에서 네트워크 인터페이스에 연결되어야 해당 클러스터에서 작동하게 됩니다.
가상 머신 계층네트워크가 물리적 시스템에 제공되는 것과 같은 방법으로 논리 네트워크가 가상 머신에 제공됩니다. 가상 머신은 이를 실행하는 호스트에서 구현된 아무 가상 머신 논리 네트워크에 가상 NIC를 연결할 수 있습니다. 그 후 가상 머신은 연결된 논리 네트워크에서 사용 가능한 다른 모든 장치 또는 대상에 연결할 수 있게 됩니다.
예 1.1. 관리 네트워크
ovirtmgmt라고 부르는 관리 논리 네트워크는 Red Hat Virtualization Manager 설치 중 자동으로 생성됩니다.ovirtmgmt네트워크는 Red Hat Virtualization Manager와 호스트 간의 관리 트래픽을 전담합니다. 특정한 목적의 다른 브리지가 설정되어 있지 않은 경우ovirtmgmt가 모든 트래픽에 대한 기본 브리지가 됩니다.
1.7. 데이터 센터
- 스토리지 컨테이너에서는 스토리지 도메인에 대한 연결 정보를 포함한 스토리지 유형 및 스토리지 도메인 정보가 저장됩니다. 데이터 센터에 대하여 스토리지가 정의되며 해당 데이터 센터의 모든 클러스터에서 사용 가능합니다. 데이터 센터 내에 있는 모든 호스트 클러스터는 같은 스토리지 도메인에 액세스할 수 있습니다.
- 네트워크 컨테이너에서는 데이터 센터의 논리 네트워크 정보가 저장됩니다. 여기에는 네트워크 주소, VLAN 태그 및 STP 지원 등의 상세 정보도 포함됩니다. 데이터 센터에 대하여 논리 네트워크가 정의되며 옵션으로 클러스터 수준에서 구현됩니다.
- 클러스터 컨테이너에서는 클러스터가 저장됩니다. 클러스터란 AMD 또는 Intel 프로세서와 같이 호환되는 프로세서 코어를 가진 호스트 그룹을 말합니다. 클러스터는 마이그레이션 도메인이며 가상 머신은 클러스터 내의 모든 호스트에 실시간 마이그레이션할 수 있지만 다른 클러스터에는 할 수 없습니다. 하나의 데이터 센터에 여러 클러스터를 연결할 수 있으며 각 클러스터에 여러 호스트를 저장할 수 있습니다.
2장. 스토리지
2.1. 스토리지 도메인 개요
2.2. 스토리지가 지원되는 스토리지 도메인 유형
- 파일 기반 스토리지
- Red Hat Virtualization에서 지원되는 파일 기반 스토리지 유형에는 NFS, GlusterFS, 기타 POSIX 호환 파일 시스템, 그리고 호스트 로컬 스토리지 등이 있습니다.파일 기반 스토리지는 Red Hat Virtualization 환경 밖에서 관리됩니다.NFS 스토리지는 Red Hat Enterprise Linux NFS 서버 또는 타사 네트워크에 연결된 스토리지 서버에 의해 관리됩니다.호스트는 자체적으로 로컬 스토리지 파일 시스템을 관리할 수 있습니다.
- 블록 기반 스토리지
- 블록 스토리지에서는 포맷하지 않은 블록 장치를 사용합니다. 블록 장치는 논리 볼륨 관리자(LVM)에 의해 볼륨 그룹으로 통합됩니다. LVM 인스턴스는 다른 호스트에서 실행 중인 인스턴스를 인식하지 못하고 모든 호스트에서 실행됩니다. VDSM은 볼륨 그룹의 변경 내용을 스캔하여 LVM에 클러스터링 로직을 추가합니다. 변경 내용 감지 시 VDSM은 개별 호스트에 볼륨 그룹 정보를 새로고침하라고 지시해서 이러한 호스트를 업데이트합니다. 호스트가 볼륨 그룹을 논리 볼륨으로 나누며 논리 볼륨 메타데이터를 디스크에 씁니다. 기존 스토리지 도메인에 스토리지 용량이 추가되는 경우 Red Hat Virtualization Manager로 인해 각 호스트의 VDSM이 볼륨 그룹 정보를 새로고침하게 됩니다.논리 단위 번호(LUN)란 개별 블록 장치를 말합니다. 지원되는 블록 스토리지 프로토콜인 iSCSI, FCoE, 또는 SAS 중 하나를 사용하여 LUN에 연결합니다. Red Hat Virtualization Manager에서는 LUN에 대한 소프트웨어 iSCSI 연결을 관리합니다. 다른 모든 블록 장치 연결은 Red Hat Virtualization 환경 밖에서 관리됩니다. 논리 볼륨 생성, 논리 볼륨 확장 또는 삭제, 그리고 새 LUN 추가 등과 같은 블록 기반 스토리지 환경의 모든 변경 사항은 Storage Pool Manager라는 특별히 선택된 호스트에 있는 LVM에서 처리합니다. 그 후 VDSM이 이러한 변경 사항을 동기화하며 스토리지 메타데이터는 이를 클러스터 내의 모든 호스트에서 새로고침합니다.
2.3. 스토리지 도메인 유형
- 데이터 스토리지 도메인에서는 Red Hat Virtualization 환경에 있는 모든 가상 머신의 하드 디스크 이미지가 저장됩니다. 디스크 이미지는 설치된 운영 체제 또는 가상 머신이 저장하거나 생성한 데이터를 포함할 수 있습니다. 데이터 스토리지 도메인은 NFS, iSCSI, FCP, GlusterFS 그리고 POSIX 호환 스토리지를 지원합니다. 데이터 도메인은 여러 데이터 센터 간에 공유될 수 없습니다.
- 내보내기 스토리지 도메인 데이터 센터 간에 전송되는 하드 디스크 이미지와 가상 머신 템플릿의 임시 저장소입니다.또한 내보내기 스토리지 도메인은 가상 머신 백업 복사본을 저장합니다. 내보내기 스토리지 도메인은 NFS 스토리지를 지원합니다. 여러 데이터 센터에서 하나의 내보내기 스토리지 도메인에 액세스할 수 있지만 한 번에 하나의 데이터 센터만 스토리지 도메인을 사용할 수 있습니다.
- ISO 스토리지 도메인에서는 이미지라고 부르는 ISO 파일이 저장됩니다. ISO 파일은 물리적인 CD 또는 DVD의 표현입니다. Red Hat Virtualization 환경에서 일반적인 ISO 파일에는 운영 체제 설치 디스크, 애플리케이션 설치 디스크, 그리고 게스트 에이전트 설치 디스크 등이 있습니다. 이러한 이미지는 물리적인 디스크를 디스크 드라이브에 삽입하여 부팅하는 것과 같은 방법으로 가상 머신에 연결하여 부팅할 수 있습니다. ISO 스토리지 도메인은 데이터 센터 내의 모든 호스트가 ISO를 공유할 수 있도록 해주므로 물리적인 광학 미디어가 필요하지 않게 됩니다.
2.4. 가상 머신 디스크 이미지의 저장소 형식
- QCOW2 형식의 가상 머신 스토리지
- QCOW2는 가상 머신 디스크 이미지의 저장 형식입니다. QCOW는 QEMU copy on write의 약자입니다. QCOW2 형식은 논리 블록과 물리적인 블록 사이에 매핑을 추가하여 가상 계층으로부터 물리적인 스토리지 레이어를 분리합니다. 각 논리 블록은 물리적 오프셋에 매핑되어서 스토리지 초과 할당 및 가상 머신 스냅샷을 사용 가능하게 하며, 여기서 각 QCOW 볼륨은 기반 디스크 이미지의 변경 내용만 보여줍니다.초기 매핑을 통해 모든 논리 블록이 지원 파일 또는 지원 볼륨에 있는 오프셋과 연결됩니다. 가상 머신이 스냅샷 후 QCOW2 볼륨에 데이터를 쓰면 지원 볼륨에서 관련 블록을 읽고 새 정보로 수정한 후 새 스냅샷 QCOW2 볼륨에 쓰기합니다. 이를 통해 맵은 새 장소로 연결되도록 업데이트됩니다.
- RAW
- RAW 스토리지 형식으로 저장된 가상 머신 디스크 이미지에는 형식이 적용되지 않는다는 점에서 QCOW2보다 성능면에서 우월합니다. RAW 형식으로 저장된 디스크 이미지를 사용하여 가상 머신 데이터 작업 시 호스트에서 추가적인 작업을 할 필요가 없습니다. 가상 머신이 가상 디스크에서 주어진 오프셋에 데이터를 쓰면 이러한 I/O는 지원 파일 또는 논리 볼륨의 같은 오프셋에 쓰기됩니다.Raw 형식의 경우 저장 장치 어레이(storage array)에서 외부에서 관리되는 씬 프로비저닝된 LUN을 사용하지 않는 한 정의된 이미지의 전체 공간이 사전 할당되어야 합니다.
2.5. 가상 머신 디스크 이미지 스토리지 할당 정책
- 사전 할당 스토리지
- 가상 머신 디스크 이미지에서 필요로 하는 모든 스토리지는 가상 머신 생성 전에 할당됩니다. 가상 머신에 대하여 20 GB의 디스크 이미지 생성 시 이 디스크 이미지는 20 GB의 스토리지 도메인 용량을 사용합니다. 사전 할당된 디스크 이미지는 확장될 수 없습니다. 사전 할당된 스토리지 사용 시 유연성이 줄어드는 대신 작동 중에 스토리지 할당 작업을 하지 않아도 되어서 데이터를 쓰는 시간이 절약됩니다. 이러한 방법으로 스토리지 할당 시 Red Hat Virtualization Manager가 스토리지를 오버커밋할 수 있는 능력이 감소하게 됩니다. 스토리지 대기 시간에 대한 허용치가 낮은 집중적인 I/O 작업에 가상 머신을 사용하는 경우 사전 할당 스토리지가 권장됩니다. 일반적으로 서버 가상 머신이 여기에 해당됩니다.
참고
스토리지 백엔드에서 제공된 씬 프로비저닝 기능을 사용하는 경우에도 관리 포털에서 가상 머신 스토리지 프로비저닝을 할 때 여전히 사전 할당 스토리지를 선택해야 합니다. - 스파스 할당 스토리지
- 가상 머신 디스크 이미지의 최대 용량 제한은 가상 머신 생성 시 설정됩니다. 초기에 디스크 이미지는 스토리지 도메인 용량을 하나도 사용하지 않습니다. 가상 머신이 디스크에 데이터를 씀에 따라 사용량이 증가하여 최대 용량에 도달합니다. 디스크 이미지에 있는 데이터를 삭제해도 스토리지 도메인 용량이 복원되지 않습니다. 스토리지 대기 시간에 대해 약간의 허용치가 있는 중저급 강도의 I/O 작업에 가상 머신을 사용하는 경우 스파스 할당 스토리지가 권장됩니다. 일반적으로 데스크탑 가상 머신이 여기에 해당됩니다.
참고
스토리지 백엔드에서 제공된 씬 프로비저닝 기능을 사용하는 경우 이는 씬 프로비저닝에서 선호하는 구현으로 사용해야 합니다. 스토리지는 GUI에서 사전 할당 프로비저닝하여 씬 프로비저닝을 백엔드 해결책으로 남겨놓습니다.
2.6. Red Hat Virtualization에서의 스토리지 메타데이터 버전
- V1 메타데이터 (Red Hat Virtualization 2.x 시리즈)각 스토리지 도메인에는 자체의 구조를 설명하는 메타데이터가 들어 있으며 가상 머신 디스크 이미지의 백업에 사용되는 모든 실제 볼륨의 이름도 들어 있습니다.마스터 도메인은 추가로 모든 도메인 및 스토리지 풀의 실제 볼륨 이름에 대한 메타데이터를 담고 있습니다. 이러한 메타데이터의 총 크기는 2 KB로 제한되므로 풀 내에 있을 수 있는 스토리지 도메인의 수가 제한됩니다.템플릿 및 가상 머신 기본 이미지는 읽기 전용입니다.V1 메타데이터는 NFS, iSCSI, 및 FC 스토리지 도메인에 적용됩니다.
- V2 메타데이터 (Red Hat Enterprise Virtualization 3.0)모든 스토리지 도메인 및 풀 메타데이터는 논리 볼륨에 쓰지 않고 논리 볼륨 태그로 저장됩니다. 가상 머신 디스크 볼륨에 대한 메타데이터는 여전히 도메인의 논리 볼륨에 저장됩니다.실제 볼륨 이름은 더 이상 메타데이터에 포함되지 않습니다.템플릿 및 가상 머신 기본 이미지는 읽기 전용입니다.V2 메타데이터는 iSCSI 및 FC 스토리지 도메인에 적용됩니다.
- V3 메타데이터 (Red Hat Enterprise Virtualization 3.1+)모든 스토리지 도메인 및 풀 메타데이터는 논리 볼륨에 쓰지 않고 논리 볼륨 태그로 저장됩니다. 가상 머신 디스크 볼륨에 대한 메타데이터는 여전히 도메인의 논리 볼륨에 저장됩니다.가상 머신 및 템플릿 기본 이미지는 더 이상 읽기 전용이 아닙니다. 이러한 변화를 통해 실시간 스냅샷, 실시간 스토리지 마이그레이션, 그리고 스냅샷 복제가 가능해집니다.영어로 되어 있지 않은 볼륨 이름을 위해 유니코드 메타데이터 지원이 추가됩니다.V3 메타데이터는 NFS, GlusterFS, POSIX, iSCSI, 및 FC 스토리지 도메인에 적용됩니다.
2.7. Red Hat Virtualization에서 스토리지 도메인 자동 복구
2.8. SPM (Storage Pool Manager)
임대에 쓰기됩니다. 데이터 도메인의 구조에 대한 메타데이터는 메타데이터라고 부르는 특별 논리 볼륨에 쓰여집니다. 메타데이터 논리 볼륨 변경 사항은임대 논리 볼륨에 의해 보호됩니다.
spmStart 명령을 내려서 그 호스트의 VDSM이 스토리지 중심의 임대를 시작하도록 만듭니다. 호스트가 성공하면 SPM이 되며 Red Hat Virtualization Manager가 다른 호스트에게 SPM 역할을 하도록 요청할 때까지 스토리지 중심의 임대를 유지합니다.
- SPM 호스트가 모든 스토리지 도메인에 액세스할 수 없지만 마스터 스토리지 도메인에 액세스할 수 있는 경우
- 스토리지 연결이 끊겼거나 임대 볼륨이 차서 쓰기 작업을 수행할 수 없게 되어서 SPM 호스트가 임대를 갱신하지 못하는 경우
- SPM 호스트가 작동 정지되는 경우

그림 2.1. Storage Pool Manager는 구조적인 메타데이터만 단독으로 쓰기합니다.
2.9. Storage Pool Manager 선택 프로세스
- "getSPMstatus" 명령: Manager는 VDSM을 사용하여 마지막으로 SPM 상태에 있었던 호스트에 확인 후 "SPM", "Contending", 또는 "Free" 중 하나의 응답을 받습니다.
- 스토리지 도메인의 메타데이터 볼륨에는 마지막으로 SPM 상태에 있었던 호스트가 포함되어 있습니다.
- 스토리지 도메인의 메타데이터 볼륨에는 마지막으로 SPM 상태에 있었던 호스트의 버전이 포함되어 있습니다.
2.10. Red Hat Virtualization의 단독 리소스 및 Sanlock
2.11. 씬 프로비저닝 및 스토리지 오버커밋
참고
2.12. 논리 볼륨 확장
3장. 네트워크
3.1. 네트워크 아키텍처
3.2. 소개: 기본 네트워킹 용어
- Network Interface Controller (NIC)
- 브리지
- 본딩
- 가상 NIC
- 가상 LAN (VLAN)
3.3. Network Interface Controller
3.4. 브리지
3.5. 본딩
중요
본딩 모드
모드 0 (round-robin 정책)- 네트워크 인터페이스 카드를 통해 순차적으로 패킷을 전송합니다. 패킷은 본딩에서 처음 사용 가능한 네트워크 인터페이스 카드로 시작하여 마지막으로 사용 가능한 네트워크 인터페이스 카드로 종료하는 루프에 전송됩니다. 이후의 모든 루프는 처음 사용 가능한 네트워크 인터페이스 카드에서 시작됩니다. 모드 0는 내결함성을 제공하고 본딩의 모든 네트워크 인터페이스 카드에서 부하 균형을 조정합니다. 하지만 모드 0는 브리지와 함께 사용할 수 없으므로 가상 머신 논리 네트워크와 호환되지 않습니다.
모드 1 (active-backup 정책)- 하나의 네트워크 인터페이스 카드는 활성 상태로 두고 다른 모든 네트워크 인터페이스 카드를 백업 상태로 설정합니다. 활성 네트워크 인터페이스 카드에 오류가 발생하는 경우 백업 네트워크 인터페이스 카드 중 하나가 본딩에서 활성 네트워크 인터페이스 카드로 네트워크 인터페이스 카드를 대체합니다. 모드 1에서 본딩의 MAC 주소가 활성 네트워크 인터페이스 카드를 반영하도록 변경될 경우 발생할 수 있는 혼란을 방지하기 위해 MAC 주소는 하나의 포트에만 표시됩니다. 모드 1은 내결함성을 제공하고 Red Hat Virtualization에서 지원됩니다.
모드 2 (XOR 정책)- 소스에서 XOR 연산 결과 및 대상 MAC 주소 모듈 네트워크 인터페이스 카드 슬레이브 수에 따라 패킷을 전송할 네트워크 인터페이스 카드를 선택합니다. 이러한 계산을 통해 각각의 대상 MAC 주소에 동일한 네트워크 인터페이스 카드가 선택됩니다. 모드 2는 내결함성 및 부하 분산을 제공하고 Red Hat Virtualization에서 지원됩니다.
모드 3 (broadcast 정책)- 모든 네트워크 인터페이스 카드에 모든 패킷을 전송합니다. 모드 3은 내결함성을 제공하고 Red Hat Virtualization에서 지원됩니다.
모드 4 (IEEE 802.3ad 정책)- 인터페이스가 동일한 속도 및 이중 설정을 공유하는 집계 그룹을 생성합니다. 모드 4는 IEEE 802.3ad 사양에 따라 활성 집계 그룹에 있는 모든 네트워크 인터페이스 카드를 사용하며 Red Hat Virtualization에서 지원됩니다.
모드 5 (adaptive transmit load balancing 정책)- 본딩의 각 네트워크 인터페이스 카드에서 부하에 따라 발신 트래픽 계정이 분산되어 현재 네트워크 인터페이스 카드가 모든 들어오는 트래픽을 수신할 수 있게 합니다. 수신 트래픽에 할당된 네트워크 인터페이스 카드에 오류가 발생할 경우 다른 네트워크 인터페이스 카드가 수신 트래픽의 역할을 하도록 지정됩니다. 모드 5는 브리지와 함께 사용할 수 없으므로 가상 머신 논리 네트워크와 호환되지 않습니다.
모드 6 (adaptive load balancing 정책)- 특별한 전환 요구 사항없이 모드 5 (adaptive transmit load balancing 정책)는 IPv4 트래픽의 수신 부하 분산과 결합되어 있습니다. ARP 협상은 수신 부하 분산에 사용됩니다. 모드 6는 브리지와 함께 사용할 수 없으므로 가상 머신 논리 네트워크와 호환되지 않습니다.
3.6. 본딩을 위한 스위치 설정
중요
3.7. 가상 네트워크 인터페이스 카드 (VNIC)
libvirt는 이러한 VNIC에 PCI 주소를 배정합니다. 그 후 MAC 주소 및 PCI 주소를 사용하여 가상 머신에 있는 VNIC의 이름(예: eth0)을 가져옵니다.
ip addr show 명령 실행 시 해당 호스트에 있는 가상 머신과 연결된 모든 VNIC가 표시됩니다. 또한 논리 네트워크를 백업하기 위해 생성된 모든 네트워크 브리지도 표시되며 해당 호스트가 사용하는 모든 네트워크 인터페이스 카드(NIC)가 표시됩니다.
[root@rhev-host-01 ~]# ip addr show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:21:86:a2:85:cd brd ff:ff:ff:ff:ff:ff
inet6 fe80::221:86ff:fea2:85cd/64 scope link
valid_lft forever preferred_lft forever
3: wlan0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN qlen 1000
link/ether 00:21:6b:cc:14:6c brd ff:ff:ff:ff:ff:ff
5: ;vdsmdummy;: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN
link/ether 4a:d5:52:c2:7f:4b brd ff:ff:ff:ff:ff:ff
6: bond0: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN
link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff
7: bond4: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN
link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff
8: bond1: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN
link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff
9: bond2: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN
link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff
10: bond3: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN
link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff
11: ovirtmgmt: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN
link/ether 00:21:86:a2:85:cd brd ff:ff:ff:ff:ff:ff
inet 10.64.32.134/23 brd 10.64.33.255 scope global ovirtmgmt
inet6 fe80::221:86ff:fea2:85cd/64 scope link
valid_lft forever preferred_lft forever
lo), 한 개의 Ethernet 장치(eth0), 한 개의 무선 장치 (wlan0), 한 개의 VDSM 더미(dummy) 장치(;vdsmdummy;), 다섯 개의 본딩 장치(bond0, bond4, bond1, bond2, bond3), 그리고 한 개의 네트워크 브리지(ovirtmgmt).
brctl show 명령을 사용하여 브리지 멤버십을 표시할 수 있습니다:
[root@rhev-host-01 ~]# brctl show bridge name bridge id STP enabled interfaces ovirtmgmt 8000.e41f13b7fdd4 no vnet002 vnet001 vnet000 eth0
brctl show 명령에 대한 콘솔 출력 내용을 보면 virtio VNIC가 ovirtmgmt 브리지의 멤버인 것으로 표시됩니다. VNIC가 연결된 모든 가상 머신은 ovirtmgmt 논리 네트워크에 연결되어 있습니다. eth0 NIC도 ovirtmgmt 브리지의 멤버입니다. eth0 장치는 호스트 범위 밖에서 연결을 제공하는 스위치에 케이블로 연결되어 있습니다.
3.8. 가상 LAN (VLAN)
3.9. 네트워크 레이블
네트워크 레이블 연결
- 논리 네트워크에 레이블 연결 시 그 논리 네트워크는 해당 레이블이 있는 아무 물리적인 호스트 네트워크 인터페이스에 자동으로 연결됩니다.
- 물리적인 호스트 네트워크 인터페이스에 레이블 연결 시 해당 레이블이 있는 모든 논리 네트워크는 그 물리적인 호스트 네트워크 인터페이스에 자동으로 연결됩니다.
- 논리 네트워크 또는 물리적인 호스트 네트워크 인터페이스에 연결된 레이블을 변경하는것 은 레이블을 제거하거나 추가하는 것과 같은 작동을 하게 됩니다. 관련된 논리 네트워크 또는 물리적인 호스트네트 워크 인터페이스 간의 연결이 업데이트됩니다.
네트워크 레이블 및 클러스터
- 레이블이 있는 논리 네트워크가 클러스터에 추가되고 그 클러스터에 같은 레이블이 있는 물리적인 호스트 네트워크 인터페이스가 있는 경우 그 논리 네트워크는 이러한 물리적인 호스트 네트워크 인터페이스에 자동으로 추가됩니다.
- 레이블이 있는 논리 네트워크가 클러스터에서 분리되고 그 클러스터에 같은 레이블이 있는 물리적인 호스트 네트워크 인터페이스가 있는 경우 그 논리 네트워크는 이러한 물리적이ㄴ 호스트 네트워크 인터페이스에서 자동으로 분리됩니다.
네트워크 레이블 및 역할
- 레이블이 있는 논리 네트워크가 디스플레이 네트워크 또는 마이그레이션 네트워크 역할을 할당받는 경우 그 논리 네트워크는 IP 주소를 할당 받을 수 있도록 DHCP를 사용하여 물리적인 호스트 네트워크 인터페이스에서 설정되게 됩니다.
3.10. 클러스터 네트워킹
- 클러스터
- 논리 네트워크

그림 3.1. 클러스터 내에서의 네트워킹
3.11. 논리 네트워크
ovirtmgmt 네트워크가 기본으로 생성됩니다. 논리 네트워크는 요구 사항이나 사용 용도가 비슷한 네트워크 트래픽을 그룹으로 묶는 데 가장 흔히 사용됩니다. 대부분의 경우 최적화 및 문제 해결을 위해 트래픽을 종류별로 분리하기 위해 관리자가 스토리지 네트워크와 디스플레이 네트워크를 생성하게 됩니다.
- 가상 머신 네트워크 트래픽을 전송하는 논리 네트워크
- 가상 머신 네트워크 트래픽을 전송하지 않는 논리 네트워크
- 선택적 논리 네트워크
- 필수 네트워크

그림 3.2. ovirtmgmt 논리 네트워크
예 3.1. 논리 네트워크 사용 예
ovirtmgmt를 사용하여 모든 네트워크 기능을 수행했습니다. Pink를 담당하는 시스템 관리자는 웹 서버의 네트워크 테스트를 분리하기 위해 웹 서버와 일부 클라이언트 가상 머신을 개별 논리 네트워크에 놓기로 합니다. 해당 관리자는 이러한 새 논리 네트워크를 network_testing이라고 부르기로 합니다.
network_testing 네트워크에 추가하여 클러스터 내의 모든 호스트에서 관련 브리지가 설정되어야 하기 때문입니다. 그 다음으로 관리자는 White를 활성화하고 Red에서 실행 중인 모든 가상 머신을 마이그레이션한 후 위와 같은 절차를 Red에서 반복합니다.
network_testing 논리 네트워크가 물리적인 네트워크 인터페이스에 브리징된 경우 network_testing 논리네트 워크는 Operational 상태가 되어 가상 머신에서 사용할 수 있게 됩니다.
3.12. 필수 네트워크, 선택적 네트워크, 가상 머신 네트워크
3.13. 가상 머신 연결
ovirtmgmt 네트워크에 있는 경우 그 가상 머신의 VNIC는 가상 머신이 실행되는 호스트의 ovirtmgmt 브리지의 멤버로 추가됩니다.
3.14. 포트 미러링
- 포트 미러링이 활성화된 포트가 있는 프로파일의 vNIC를 핫 플러깅하는 것은 지원되지 않습니다.
- vNIC 프로파일이 가상 머신에 연결되어 있는 경우 포트 미러링을 변경할 수 없습니다.
중요
3.15. 호스트 네트워크 설정
- 브리지 및 NIC 설정
- 브리지, VLAN, 및 NIC 설정
- 브리지, 본딩, 및 VLAN 설정
- 다중 브리지, 다중 VLAN, 및 NIC 설정
3.16. 브리지 설정

그림 3.3. 브리지 및 NIC 설정
ovirtmgmt가 자동 생성되는 것에서 볼 수 있습니다. Red Hat Virtualization Manager 설치 시 호스트에 VDSM을 설치합니다. VDSM 설치 프로세스 중 브리지 ovirtmgmt가 생성됩니다. 그 후 ovirtmgmt 브리지가 호스트의 IP 주소를 획득하여 호스트의 관리 통신을 활성화합니다.
3.17. VLAN 설정

그림 3.4. 브리지, VLAN, 및 NIC 설정
3.18. 브리지 및 본딩 설정

그림 3.5. 브리지, 본딩, 그리고 NIC 설정
3.19. 다중 브리지, 다중 VLAN, 및 NIC 설정

그림 3.6. 다중 브리지, 다중 VLAN, 및 NIC 설정
3.20. 다중 브리지, 다중 VLAN, 및 본딩 설정

그림 3.7. 본딩 연결을 사용하는 다중 브리지, 다중 VLAN, 및 다중 NIC
4장. 전원 관리
4.1. 전원 관리 및 펜싱 소개
4.2. Red Hat Virtualization에서 프록시를 통해 전원 관리
- 펜싱이 필요한 호스트와 동일한 클러스터에 있는 호스트입니다.
- 펜싱이 필요한 호스트와 동일한 데이터 센터에 있는 호스트입니다.
4.3. 전원 관리
- American Power Conversion (apc).
- Bladecenter.
- Cisco Unified Computing System (cisco_ucs).
- Dell Remote Access Card 5 (drac5).
- Dell Remote Access Card 7 (drac7).
- Electronic Power Switch (eps).
- HP BladeSystem (hpblade).
- Integrated Lights Out (ilo, ilo2, ilo3, ilo4).
- Intelligent Platform Management Interface (ipmilan).
- Remote Supervisor Adapter (rsa).
- rsb.
- Western Telematic, Inc (wti).
참고
- Status: 호스트의 상태를 확인합니다.
- Start: 호스트의 전원을 켭니다.
- Stop: 호스트의 전원을 끕니다.
- Restart: 호스트를 다시 시작합니다. 실제로는 중지, 대기, 상태, 시작, 대기, 상태로 실행됩니다.
4.4. 펜싱
4.5. 호스트 소프트 펜싱
- 첫 번째 네트워크 장애 발생 시 호스트 상태는 "connecting"으로 변경됩니다.
- Manager는 VDSM에게 상태를 3번 확인하거나 호스트에서의 로딩에 의해 결정되는 대기 시간 동안 기다립니다. 이러한 대기 시간을 결정하는 수식은 TimeoutToResetVdsInSeconds (기본값 60 초) + [DelayResetPerVmInSeconds (기본값 0.5 초)]*(호스트에서 실행 중인 가상 머신 수) + [DelayResetForSpmInSeconds (기본값 20 초)] * 1 (호스트가 SPM으로 실행 중인 경우) 또는 0 (호스트가 SPM으로 실행하지 않는 경우)의 설정 값에 의해 지정됩니다. VDSM에 최대 응답 시간을 부여하려면 Manager는 위의 옵션 ( VDSM의 상태를 3번 확인하거나 위의 수식에 의해 지정되는 대기 시간 동안 대기) 중 두 개의 긴 옵션을 선택합니다.
- 시간이 경과해도 호스트가 응답하지 않을 경우 SSH를 통해
vdsm restart가 실행됩니다. vdsm restart가 호스트와 Manager 간의 연결을 다시 설정하지 않을 경우 호스트 상태는Non Responsive로 변경되며 전원 관리가 설정되어 있을 경우 펜싱은 외부 펜싱 에이전트로 전달됩니다.
참고
4.6. 여러 전원 관리 펜싱 에이전트 사용
- 동시: 주요 및 보조 에이전트 모두 중지 명령에 응답해야 호스트가 중지될 수 있습니다. 한 에이전트가 시작 명령에 응답 시 호스트가 시작하게 됩니다.
- 순차적: 호스트를 중지 또는 시작하기 위해 먼저 주요 에이전트를 사용하며 이것이 실패하면 보조 에이전트를 사용합니다.
5장. 로드 밸런싱, 스케줄링, 그리고 마이그레이션
5.1. 로드 밸런싱, 스케줄링, 그리고 마이그레이션
- 가상 머신 시작: 가상 머신을 어느 호스트에서 시작할지 결정하기 위해 리소스를 확인합니다.
- 가상 머신 마이그레이션: 적절한 대상 호스트를 결정하기 위해 리소스를 확인합니다.
- 시간 경과: 개별 호스트의 부하(load)가 클러스터 로드 밸런싱 정책을 준수하고 있는지 확인하기 위해 리소스를 정기적으로 확인합니다.
5.2. 로드 밸런싱 정책
5.3. 로드 밸런싱 정책: VM_Evenly_Distributed
5.4. 로드 밸런싱 정책: Evenly_Distributed
5.5. 로드 밸런싱 정책: Power_Saving
5.6. 로드 밸런싱 정책: None
5.7. 고가용성 가상 머신 예약
5.8. 스케줄링
5.9. 마이그레이션
- 52 MiBps(초당 메가바이트)의 대역폭 제한이 각 가상 머신 마이그레이션에 적용됩니다.
- 가상 머신 메모리 1 GB당 64초 초과 시 마이그레이션이 종료됩니다.
- 프로세스가 240초 이상 중지된 경우 마이그레이션 작업이 중지됩니다.
- 동시에 마이그레이션을 보내는 경우 각 호스트의 CPU 코어마다 한 개 또는 2 중에서 더 적은 숫자로 개수가 제한됩니다.
6장. 디렉토리 서비스
6.1. 디렉토리 서비스
- 포털 로그인 (사용자, 고급 사용자, 관리자, REST API)
- 사용자 정보 표시 쿼리
- 도메인에 Manager 추가
6.2. 로컬 인증: 내부 도메인
admin@internal)만 있기 때문에 외부 도메인과는 차이가 있습니다. 초기 인증 시 이러한 방식을 사용하면 완료되었으며 작동 중인 디렉토리 서버가 필요 없이 Red Hat Virtualization을 확인할 수 있으며 외부 디렉토리 서비스에 발생하는 모든 문제를 해결할 수 있는 관리 계정이 사용 가능하도록 할 수 있습니다.
6.3. GSSAPI를 사용한 원격 인증
engine-manage-domains 도구를 사용하여 RHDS, AD, 또는 IdM 도메인에 소속되도록 설정해야 합니다. 이를 위해 Manager는 RHDS, AD, 또는 IdM 디렉토리 서버로부터 도메인에 시스템을 연결할 수 있을 만큼 충분한 권한을 가진 계정에 대한 인증 정보를 받아야 합니다. 도메인 추가 후 도메인 사용자는 암호를 사용하여 Red Hat Virtualization Manager에 의해 디렉토리 서버에 대한 인증을 받습니다. Manager는 Simple Authentication and Security Layer(SASL)라는 프레임워크를 사용하며 이러한 프레임워크는 또한 Generic Security Services Application Program Interface(GSSAPI)를 사용하여 사용자의 신원을 안전하게 검증하고 해당 사용자의 권한 부여 수준을 파악할 수 있습니다.

그림 6.1. GSSAPI 인증
7장. 템플릿 및 풀
7.1. 템플릿 및 풀
7.2. 템플릿
7.3. 풀
예 7.1. 풀 사용 예
8장. 가상 머신 스냅샷
8.1. 스냅샷
참고
- 생성: 가상 머신에 대하여 생성된 첫 스냅샷과 관련됩니다.
- 미리 보기: 스냅샷을 찍은 당시의 시스템 데이터를 복원하는지 여부를 확인하기 위해 스냅샷을 미리 보는 것입니다.
- 삭제: 더 이상 필요하지 않은 복원 지점을 삭제하는 것입니다.
8.2. Red Hat Virtualization에서 실시간 스냅샷
qemu-guest-agent를 설치하여 스냅샷 전에 정지(quiescing)를 활성화할 수 있습니다.
8.3. 스냅샷 생성

그림 8.1. 최초 스냅샷 생성

그림 8.2. 추가 스냅샷 생성
8.4. 스냅샷 미리 보기

그림 8.3. 미리 보기 스냅샷
8.5. 스냅샷 삭제
Delete_snapshot 스냅샷은 200 GB이며 이후의 스냅샷인 Next_snapshot 스냅샷은 100 GB입니다. Delete_snapshot이 삭제되고 Snapshot_merge라는 임시 이름의 새 논리 볼륨이 200 GB 크기로 생성됩니다. Snapshot_merge는 결국 Delete_snapshot 및Next_snapshot의 통합 컨텐츠를 수용하기 위해 크기가 300 GB로 변경됩니다. 그 후Next_snapshot의 이름은 Snapshot_merge의 이름이 Next_snapshot으로 변경될 수 있도록 Delete_me_too_snapshot으로 변경됩니다. 마지막으로 Delete_snapshot 및 Delete_me_too_snapshot이 삭제됩니다.

그림 8.4. 스냅샷 삭제
9장. 하드웨어 드라이버 및 장치
9.1. 가상화 하드웨어
- 에뮬레이트된 장치
- 가상 장치라고도 부르는 에뮬레이트된 장치는 온전히 소프트웨어에서만 존재합니다. 에뮬레이트된 장치 드라이버란 (소스 장치를 관리하는) 호스트에서 실행 중인 운영 체제와 게스트에서 실행 중인 운영 체제 간의 변환 레이어를 말합니다. 장치 수준에서 에뮬레이트된 장치와의 통신은 하이퍼바이저에서 가로채기 및 변환하게 됩니다. Linux 커널에서 인식하는 에뮬레이트 장치와 같은 유형의 모든 장치는 에뮬레이트된 드라이버의 백업 소스 장치로 사용 가능합니다.
- 반가상화 장치
- 반가상화 장치를 사용하려면 게스트 운영 체제에 장치 드라이버를 설치해서 호스트 시스템의 하이퍼바이저와 통신할 수 있는 인터페이스를 제공해 줘야 합니다. 이러한 인터페이스를 사용하여 디스크 I/O 등 일반적으로 집약적인 작업을 가상 환경 밖에서 수행할 수 있게 해줍니다. 이러한 방법으로 가상화 환경 고유의 오버헤드를 감소하여 게스트 운영 체제를 물리적인 하드웨어에 직업 실행했을 때와 비슷한 성능을 보일 수 있습니다.
- 물리적으로 공유된 장치
- 특정 하드웨어 플랫폼은 가상화 게스트가 각종 하드웨어 장치 및 구성 요소에 직접 액세스할 수 있게 해줍니다. 가상화에서 이러한 과정을 통과(passthrough) 또는 장치 지정이라고 합니다. 통과를 사용하면 장치가 게스트 운영 체제에 물리적으로 연결된 것처럼 보이고 작동하게 됩니다.
9.2. Red Hat Virtualization에서 변경할 수 없는(stable) 장치 주소
9.3. CPU (Central Processing Unit)
참고
9.4. 시스템 장치
- 호스트 브리지
- ISA 브리지 및 USB 브리지 (USB 브리지 및 ISA 브리지는 같은 장치입니다)
- (Cirrus 또는 qxl 드라이버를 사용하는) 그래픽 카드
- 메모리 벌룬 장치
9.5. 네트워크 장치
e1000NIC는 가상화 Intel PRO/1000 (e1000)을 게스트에 표시합니다.virtioNIC는 반가상화 네트워크 장치를 게스트에 표시합니다.rtl8139NIC는 가상화Realtek Semiconductor Corp RTL8139를 게스트에 표시합니다.
9.6. 그래픽 장치
- ac97 은
Cirrus CLGD 5446 PCI VGA카드를 에뮬레이트합니다. - vga 는 (모든 비표준 모드를 포함하여 하드웨어 수준에서) BochsVESA 확장으로 더미(dummy) VGA 카드를 에뮬레이트합니다.
9.7. 스토리지 장치
IDE드라이버는 에뮬레이트된 블록 장치를 게스트에 표시합니다. 에뮬레이트된IDE드라이버를 사용하여 각 가상화 게스트에 가상화IDE하드 디스크 또는 가상화IDECD-ROM 장치를 조합하여 최대 4대 연결할 수 있습니다. 또한 에뮬레이트된IDE드라이버를 사용하여 가상화된 DVD-ROM 드라이버를 제공할 수 있습니다.- VirtIO 드라이버는 반가상화 블록 장치를 게스트에 표시합니다. 반가상화 블록 드라이버는 가상화 게스트에 연결된 하이퍼바이저가 지원하는 모든 스토리지 장치에 대한 드라이버입니다. (에뮬레이션이 필요한 플로피 디스크 장치 제외)
9.8. 사운드 장치
- ac97 은
Intel 82801AA AC97 Audio호환 사운드 카드를 에뮬레이트합니다. - es1370 은
ENSONIQ AudioPCI ES1370사운드 카드를 에뮬레이트합니다.
9.9. 시리얼 드라이버
virtio-serial)는 바이트 스트림 지향의 문자 스트림 드라이버입니다. 반가상화 시리얼 드라이버는 네트워킹을 사용할 수 없는 경우 호스트의 사용자 공간과 게스트의 사용자 공간 사이의 간단한 통신 인터페이스를 제공합니다.
9.10. 벌룬 드라이버
10장. 최소 요구 사항 및 기술 제한 사항
10.1. 최소 요구 사항 및 지원 제한 사항
10.2. 데이터 센터 제한 사항
표 10.1. 데이터 센터 제한 사항
| 항목 | 제한 사항 |
|---|---|
| 스토리지 도메인 수 |
|
| 호스트 수 |
|
10.3. 클러스터 제한 사항
- 관리되는 모든 하이퍼바이저는 클러스터에 있어야 합니다.
- 클러스터 내에서 관리되는 모든 하이퍼바이저는 같은 CPU 유형이어야 합니다. Intel 및 AMD CPU는 같은 클러스터 내에서 공존할 수 없습니다.
참고
10.4. 스토리지 도메인 제한 사항
표 10.2. 스토리지 도메인 제한 사항
| 항목 | 제한 사항 |
|---|---|
| 스토리지 유형 |
지원되는 스토리지 유형은 다음과 같습니다:
Red Hat Virtualization 4.0에서 새 ISO 및 내보내기 스토리지 도메인은 모든 파일 기반 스토리지(NFS, Posix 또는 GlusterFS)에서 제공될 수 있습니다.
|
| Logical Unit Number (LUN) | iSCSI 또는 FCP에서 제공되는 각 스토리지 도메인에 허용되는 LUN은 최대 300 LUN입니다. |
| 논리 볼륨 (LV) |
Red Hat Virtualization에서 논리 볼륨은 가상 머신, 템플릿, 그리고 가상 머신 스냅샷에 대한 가상 디스크를 표현합니다.
iSCSI 또는 FCP에서 제공하는 각 스토리지 도메인의 논리 볼륨 수는 350을 넘지 않는 것이 좋습니다. 어떤 스토리지 도메인의 논리 볼륨 수가 이 숫자를 넘는 경우 논리 볼륨 수가 350을 넘지 않는 다른 스토리지 도메인에 가용 스토리지를 나누는 것이 좋습니다.
이러한 제한 사항이 있는 근본적인 이유는 LVM 메타데이터 크기 때문입니다. 논리 볼륨의 수가 증가함에 따라 이러한 논리 볼륨과 연결된 LVM 메타데이터 역시 증가합니다. 이러한 메타데이터 크기가 1 MB를 초과 시 새 디스크 또는 스냅샷 생성과 같은 프로비저닝 작업과 QCOW 디스크 실행 시 논리 볼륨을 씬(thin) 프로비저닝하는 lvextend 작업 등이 더 오래 걸립니다.
논리 볼륨에 대한 보다 자세한 내용은 https://access.redhat.com/solutions/441203에서 참조하시기 바랍니다.
|
참고
10.5. Red Hat Virtualization Manager 제한 사항
표 10.3. Red Hat Virtualization Manager 제한 사항
| 항목 | 제한 사항 |
|---|---|
| RAM |
|
| PCI 장치 |
|
| 스토리지 |
|
참고
10.6. 하이퍼바이저 요구 사항
표 10.4. Red Hat Virtualization Host 요구 사항 및 지원 제한 사항
| 항목 | 지원 제한 사항 |
|---|---|
| CPU |
최소한 하나의 물리적 CPU가 필요합니다. Red Hat Virtualization에서는 호스트에서 지원하는CPU 모델은 다음과 같습니다:
모든 CPUs에서는 Intel® 64 또는 AMD64 CPU 확장을 지원해야 하며 AMD-V™ 또는 Intel VT® 하드웨어 가상화 확장이 활성화되어 있어야 합니다. 또한
No eXecute 플래그(NX)도 지원해야 합니다.
|
| RAM |
각 가상 머신에서 필요한 RAM 크기는 다음과 같은 것에 따라 다릅니다:
또한 KVM은 물리적 RAM을 가상 머신에 대해 오버커밋할 수 있습니다. 이를 위해 필요 시에만 가상 머신에 RAM을 할당하고 사용률이 낮은 가상 머신을 스왑으로 이동합니다.
지원되는 최대 및 최소 RAM에 대한 보다 자세한 내용은 https://access.redhat.com/articles/rhel-limits에서 참조하시기 바랍니다.
|
| 스토리지 |
호스트에 대하여 지원되는 최소 내부 스토리지는 다음 목록의 항목을 모두 합친 값입니다:
이것은 호스트 설치를 위한 최소 스토리지 요구 사항임에 유의합니다. 더 많은 스토리지 공간을 사용하는 기본 할당을 사용하는 것이 좋습니다.
|
| PCI 장치 |
최소 1 Gbps 권장 대역폭의 네트워크 컨트롤러가 적어도 한 개 필요합니다.
|
중요
Virtualization hardware is unavailable. (No virtualization hardware was detected on this system)
- 호스트 부팅 화면에서 아무 키나 누른 후 목록에서 Boot 또는 Boot with serial console 항목을 선택합니다. Tab을 눌러서 선택된 옵션에 대한 커널 매개변수를 수정합니다. 목록의 마지막 커널 매개변수 뒤에 Space가 있어야 하므로 이를 확인하고
rescue매개변수를 추가합니다. - Enter를 눌러서 복구 모드로 부팅합니다.
- 표시되는 프롬프트에서 다음의 명령을 실행해서 사용자의 프로세서에 가상화 확장 기능이 있으며 활성화되어 있는지 확인합니다:
# grep -E 'svm|vmx' /proc/cpuinfo
표시되는 내용이 있다면 프로세서에 하드웨어 가상화가 가능한 것입니다. 표시되는 내용이 없더라도 사용자의 프로세서가 하드웨어 가상화를 지원할 수도 있습니다. 일부의 경우 제조업체가 BIOS에서 가상화 확장을 비활성화하기도 합니다. 사용자가 이 경우에 해당된다고 생각된다면 해당 제조업체가 제공한 시스템 BIOS 및 마더보드 사용 설명서를 확인합니다. - 추가 확인을 위해
kvm모듈이 커널에 로딩되어 있는지 확인합니다:# lsmod | grep kvm
표시되는 내용에kvm_intel또는kvm_amd가 있다면kvm하드웨어 가상화 모듈이 로딩되어 있으며 사용자 시스템이 요구 사항을 충족한다는 것을 의미합니다.
10.7. 게스트 요구 사항 및 지원 제한 사항
표 10.5. 가상화 하드웨어
| 항목 | 제한 사항 |
|---|---|
| CPU |
Red Hat Enterprise Linux 7에서 각 게스트에 최대 240개의 가상화 CPU를 지원합니다.
|
| RAM |
각 게스트는 RAM 요구 사항이 다릅니다. 각 게스트에 필요한 RAM 용량은 게스트 운영 체제의 요구 사항 및 게스트 작업 로드(load)에 따라 다릅니다.
게스트 시스템의 최대 및 최소지 원 RAM에 대한 보다 자세한 내용은 https://access.redhat.com/articles/rhel-kvm-limits에서 참조하시기 바랍니다.
|
| PCI 장치 |
각 게스트당 최대 31개의 가상화 PCI 장치를 지원합니다. 어떤 시스템 장치는 이러한 제한 숫자에 불리하게 계산되며, 여기에 필수 장치도 일부 있습니다. PCI 장치 제한 숫자에 불리하게 계산되는 필수 장치는 PCI 호스트 브리지, ISA 브리지, USB 브리지, 보드 브리지, 그래픽 카드, 그리고 IDE 또는 VirtIO 블록 장치 등입니다.
|
| 스토리지 |
각 게스트에서 3개의 IDE 및 25개의 Virtio로 구성된 최대 28개의 가상화 스토리지 장치를 지원합니다.
|
10.8. SPICE 제한 사항
10.9. 추가 참조
- Red Hat Enterprise Linux - 시스템 관리자 가이드 (System Administrator's Guide)
- Red Hat Enterprise Linux 배포, 설정 및 관리 가이드입니다.
- Red Hat Enterprise Linux - DM-Multipath 가이드
- Red Hat Enterprise Linux에서 Device-Mapper Multipathing 사용에 대한 가이드입니다.
- Red Hat Enterprise Linux - 설치 가이드
- Red Hat Enterprise Linux 설치 가이드입니다.
- Red Hat Enterprise Linux - 시스템 관리 가이드 (Storage Administration Guide)
- Red Hat Enterprise Linux에서 스토리지 장치 및 파일 시스템 관리에 대한 가이드입니다.
- Red Hat Enterprise Linux - 가상화 배포 및 관리 가이드 (Virtualization Deployment and Administration Guide)
- Red Hat Enterprise Linux에서 가상화 기술의 설치, 설정, 관리 및 문제 해결 가이드입니다.
