관리 가이드

Red Hat Virtualization 4.0

Red Hat Virtualization에서 관리 작업

Red Hat Virtualization 문서화 팀

Red Hat Customer Content Services

법적 공지

Copyright © 2016 Red Hat.
This document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.

초록

다음 부분에서는 Red Hat Virtualization 관리자와 관련된 절차 및 정보에 대해 설명합니다.

1장. Red Hat Virtualization 환경 관리 및 유지 보수

Red Hat Virtualization 환경을 계속 실행하려면 관리자가 필요합니다. 관리자로 실행할 수 있는 작업은 다음과 같습니다:
  • 호스트 및 가상 머신과 같은 물리적 및 가상 리소스를 관리합니다. 이에는 호스트 업그레이드 및 추가, 도메인 가져오기, 외부 하이퍼바이저에서 생성된 가상 머신 전환, 가상 머신 풀 관리 등이 포함됩니다.
  • 하나의 호스트에서 최대 부하, 메모리 또는 디스크 공간 부족과 같은 잠재적 문제에 대해 전반적인 시스템 리소스를 모니터링하고 필요한 작업 (예: 시스템을 종료하여 리소스를 사용 해제하거나 작업 부하를 줄이기 위해 다른 호스트로 가상 머신을 마이그레이션)을 실행합니다.
  • 가상 머신의 새로운 요구 사항에 대응합니다. (예: 운영 체제 업그레이드 또는 더 많은 메모리 할당)
  • 태그를 사용하여 사용자 정의 개체 속성을 관리합니다.
  • 일반 북마크로 저장된 검색을 관리합니다.
  • 사용자 설정 권한 수준을 관리합니다.
  • 특정 사용자 또는 전체 시스템 기능에 대한 가상 머신의 문제를 해결합니다.
  • 일반 및 특정 보고서를 생성합니다.

1.1. 전체 설정

관리 포털에 있는 머리글 표시줄에서 액세스하면 설정 창을 통해 사용자, 역할, 시스템 권한, 스케줄링 정책, 인스턴스 유형, 그리고 MAC 주소 풀과 같은 Red Hat Virtualization 환경의 전체 리소스를 설정할 수 있습니다. 이 창에서는 사용자 환경에서 리소스와 상호 작용하는 방식을 사용자 정의할 수 있으며 여러 클러스터에 적용 가능한 옵션을 설정할 수 있는 중심적인 위치가 됩니다.
Accessing the Configure window

그림 1.1. 설정 창에 액세스하기

1.1.1. 역할

역할은 Red Hat Virtualization Manager에서 설정할 수 있는 사전 정의된 권한 모음입니다. 역할은 데이터 센터에 있는 다른 리소스 레벨 및 특정 물리/가상 리소스에 대한 액세스 및 관리 권한을 제공합니다.
다단계 관리에서 컨테이너 개체에 적용되는 모든 권한은 컨테이너 내에 있는 개별 개체 모두에 적용됩니다. 예를 들어 호스트 관리자 역할이 특정 호스트에 있는 사용자에게 지정될 때 사용자에게는 지정된 호스트에서만 사용할 수 있는 호스트 작업을 수행할 수 있는 권한이 부여됩니다. 하지만 데이터 센터에 있는 사용자에게 호스트 관리자 역할이 지정되면 사용자는 데이터 센터의 클러스터 내에 있는 모든 호스트에서 호스트 작업을 수행할 수 있는 권한이 부여됩니다.

1.1.1.1. 새 역할 생성

필요한 역할이 Red Hat Virtualization 기본 역할 목록에 없을 경우 새 역할을 생성하고 필요에 따라 이를 사용자 정의할 수 있습니다.

절차 1.1. 새 역할 생성

  1. 머리글 표시줄에서 설정 버튼을 클릭하여 설정 창을 엽니다. 이 창에는 기본 사용자와 관리자 역할 및 사용자 정의 역할 목록이 표시됩니다.
  2. 새로 만들기를 클릭합니다. 새 역할 창이 표시됩니다.
    새 역할 창

    그림 1.2. 새 역할 창

  3. 새 역할의 이름설명을 입력합니다.
  4. 계정 유형으로 관리자 또는 사용자를 선택합니다.
  5. 모두 확장 또는 모두 축소 버튼을 사용하여 작업 허용을 위한 확인란 목록에 있는 개체에 대한 권한을 확장하거나 축소할 수 있습니다. 또한 각 개체에 대한 옵션을 확장하거나 축소할 수 있습니다.
  6. 각 개체별로 설정하려는 역할을 허용 또는 거부하고자 하는 작업을 선택 또는 선택 해제합니다.
  7. OK를 클릭하여 변경 사항을 적용합니다. 역할 목록에 새로운 역할이 표시됩니다.

1.1.1.2. 역할 편집 또는 역할 복사

생성한 역할 설정을 변경할 수 있지만 기본 역할을 변경할 수 없습니다. 기본 역할을 변경하려면 복제하여 필요에 따라 수정합니다.

절차 1.2. 역할 편집 또는 역할 복사

  1. 머리글 표시줄에서 설정 버튼을 클릭하여 설정 창을 엽니다. 이 창에는 기본 사용자와 관리자 역할 및 사용자 정의 역할 목록이 표시됩니다.
  2. 변경하고자 하는 역할을 선택합니다. 편집을 클릭하여 역할 수정 창을 열거나 복사를 클릭하여 역할 복사 창을 엽니다.
  3. 필요에 따라 역할의 이름설명을 변경합니다.
  4. 모두 확장 또는 모두 축소 버튼을 사용하여 개체에 대한 권한을 확장하거나 축소할 수 있습니다. 또한 각 개체에 대한 옵션을 확장하거나 축소할 수 있습니다.
  5. 각 개체별로 편집하려는 역할을 허용 또는 거부하고자 하는 작업을 선택 또는 선택 해제합니다.
  6. OK를 클릭하여 변경 사항을 적용합니다.

1.1.1.3. 사용자 역할 및 인증 예

다음 예에서는 이 장에서 설명된 다른 인증 시스템 기능을 사용하여 다양한 시나리오에서 인증 관리를 적용하는 방법에 대해 설명합니다.

예 1.1. 클러스터 권한

Sarah는 회사에서 회계 부서 시스템 관리자입니다. 부서에서 모든 가상 리소스는 Accounts라는 Red Hat Virtualization cluster 하에 구성되어 있습니다. 계정 클러스터에서 ClusterAdmin 역할이 Sarah에게 할당되었습니다. 가상 머신은 클러스터의 자식 개체이기 때문에 이를 통해 클러스터에 있는 모든 가상 머신을 관리할 수 있습니다. 가상 머신 관리에는 디스크와 같은 가상 리소스를 편집, 추가, 삭제하고 스냅샷을 생성하는 것 등이 포함됩니다. 하지만 클러스터 외부 리소스는 관리할 수 없습니다. ClusterAdmin은 관리자 역할이기 때문에 관리 포털을 사용하여 이러한 리소스를 관리할 수 있지만 사용자 포털을 통해 액세스할 수 없습니다.

예 1.2. VM PowerUser 권한

John은 회계 부서에서 소프트웨어 개발자로 가상 머신을 사용하여 소프트웨어를 구축 및 테스트합니다. Sarah는 John에 대해 johndesktop이라는 가상 데스크탑을 생성했습니다. John에게는 johndesktop 가상 머신에 대해 UserVmManager 역할이 할당됩니다. 이로 인해 John은 사용자 포털을 사용하여 단일 가상 머신에 액세스할 수 있습니다. John은 UserVmManager 권한이 있기 때문에 가상 머신을 수정하거나 새 가상 디스크 등의 리소스를 추가할 수 있습니다. UserVmManager는 사용자 역할이기 때문에 관리 포털은 사용할 수 없습니다.

예 1.3. 데이터 센터 Power User Role 권한

Penelope는 사무실 매니저입니다. Penelope는 자신의 업무에 더하여 면접 날짜를 정하고 신원 조회를 하는 것과 같이 인사부 매니저의 인사 관련 업무를 수행했습니다. 회사의 방침에 따라 Penelope는 인사 관련 업무를 실행할 때 특정 애플리케이션을 사용했습니다.
Penelope는 사무실 관리 업무를 위해 자신의 컴퓨터를 사용하지만 인사 관련 애플리케이션을 실행하기 위해 별도의 가상 머신을 생성하고자 합니다. 새 가상 머신이 있는 데이터 센터에 대해 PowerUserRole 권한이 Penelope에게 할당되었습니다. 새 가상 머신을 생성하려면 스토리지 도메인에서 가상 머신 디스크 이미지 생성과 같은 데이터 센터 내에 있는 일부 구성 요소를 변경해야 하기 때문입니다.
이는 DataCenterAdmin 권한을 Penelope에게 할당하는 것과 동일하지 않음에 유의합니다. 데이터 센터의 PowerUser로 Penelope는 사용자 포털에 로그인하여 데이터 센터 내에 있는 가상 머신에 특정 가상 머신 작업을 수행할 수 있습니다. 하지만 데이터 센터에 호스트 또는 스토리지 연결과 같은 데이터 센터 수준의 작업은 수행할 수 없습니다.

예 1.4. 네트워크 관리자 권한

Chris는 IT 부서에서 네트워크 관리자로 일하고 있으며 부서의 Red Hat Virtualization 환경에 있는 네트워크를 생성, 조작, 삭제와 같은 작업을 담당합니다. Chris의 역할을 수행하려면 리소스 및 각 리소스의 네트워크에서 관리자 권한이 필요합니다. 예를 들어 IT 부서의 데이터 센터에서 Chris가 NetworkAdmin 권한이 있을 경우 데이터 센터에서 네트워크를 추가 및 삭제할 수 있으며 데이터 센터에 속한 모든 가상 머신의 네트워크를 연결 및 분리할 수 있습니다.
회사의 가상 인프라 네트워크 관리에 더하여 Chris는 하급 네트워크 관리자를 관리합니다. 하급 네트워크 관리자인 Pat는 사내 교육 부서의 소규모 가상 환경을 관리하고 있습니다. Chris는 Pat에게 사내 교육 부서에서 사용하는 가상 머신에 대해 VnicProfileUser 권한 및 UserVmManager 권한을 할당했습니다. 이러한 권한을 사용하여 Pat는 사용자 포털의 확장 탭에서 가상 머신에 네트워크 인터페이스를 추가하는 것과 같은 단순한 관리 작업을 수행할 수 있지만 가상 머신이 실행되는 호스트의 네트워크 또는 가상 머신이 속한 데이터 센터에 있는 네트워크를 변경할 수 있는 권한이 없습니다.

예 1.5. 사용자 정의 역할 권한

Rachel은 IT 부서에서 일하고 있으며 Red Hat Virtualization에서 사용자 계정을 관리하는 역할을 담당하고 있습니다. Rachel에게는 사용자 계정을 추가하고 적절한 역할 및 권한을 할당하기 위한 권한이 필요합니다. Rachel 자신은 가상 머신을 사용하지 않고 호스트, 가상 머신, 클러스터, 데이터의 관리 액세스가 필요하지 않습니다. 이러한 특정 권한을 제공하기 위한 내장된 역할은 없습니다. 사용자 정의 역할을 생성하여 Rachel의 담당 부분에 맞는 권한을 설정해야 합니다.
UserManager 사용자 정의 역할

그림 1.3. UserManager 사용자 정의 역할

위에서 설명한 UserManager 사용자 정의 역할을 통해 사용자, 권한, 역할을 조정할 수 있습니다. 이러한 작업은 그림 1.3. “UserManager 사용자 정의 역할”에 있는 계층의 최상위 레벨인 System 아래에 구성되어 있으므로 시스템에 있는 모든 다른 개체에 적용할 수 있습니다. 역할은 관리자계정 유형에 설정되어 있으므로 역할을 할당할 때 Rachel은 사용자 포털이 아닌 관리 포털만을 사용할 수 있습니다.

1.1.2. 시스템 권한

권한은 사용자가 개체 작업을 수행할 수 있게 합니다. 여기서 개체는 개별 개체 또는 컨테이너 개체입니다.
권한 & 역할

그림 1.4. 권한 & 역할

컨테이너 개체에 적용되는 모든 권한은 해당 컨테이너의 모든 구성원에도 적용됩니다. 다음 그림은 시스템의 개체 계층 구조를 보여줍니다.
Red Hat Virtualization 개체 계층 구조

그림 1.5. Red Hat Virtualization 개체 계층 구조

1.1.2.1. 사용자 속성

역할 및 권한은 사용자의 속성입니다. 역할은 다른 수준의 물리/가상 리소스에 액세스할 수 있도록 허용하는 사전 정의된 권한 모음입니다. 여러 수준의 관리를 통해 정교한 권한 체계를 제공합니다. 예를 들어 데이터 센터 관리자는 데이터 센터에 있는 모든 개체를 관리할 수 있는 권한이 있지만 호스트 관리자는 하나의 물리적 호스트에 대한 시스템 관리자 권한을 갖습니다. 사용자는 단일 가상 머신을 사용할 수 있는 권한은 있지만 가상 머신 설정을 변경할 수 있는 권한이 없는 반면 다른 사용자는 가상 머신에 시스템 권한을 할당할 수 있습니다.

1.1.2.2. 사용자 및 관리자 역할

Red Hat Virtualization에서는 시스템 전체의 권한을 갖는 관리자로 부터 단일 가상 머신에 액세스할 수 있는 최종 사용자에 이르기까지 사전 설정된 역할을 제공합니다. 기본 역할을 변경 또는 삭제할 수 없지만 이를 복제 또는 사용자 정의할 수 있으며 요구 사항에 따라 새 역할을 생성할 수 있습니다. 다음과 같은 두 가지 유형의 역할이 있습니다:
  • 관리자 역할: 물리/가상 리소스를 관리하기 위해 관리 포털에 액세스할 수 있습니다. 관리자 역할에는 사용자 포털에서 실행할 수 있는 작업 권한이 부여되지만 사용자 포털에서 사용자에게 표시되는 항목을 지정할 수 없습니다.
  • 사용자 역할: 가상 머신 및 템플릿에 액세스 및 관리하기 위해 사용자 포털에 액세스할 수 있습니다. 사용자 역할은 사용자 포털에서 사용자에게 표시되는 항목을 지정할 수 있습니다. 관리자 역할을 갖는 사용자에게 부여된 권한은 사용자 포털에 있는 사용자가 사용할 수 있는 작업에 반영됩니다.
예를 들어 클러스터에서 administrator 역할이 있는 경우 관리 포털을 사용하여 클러스터에 있는 모든 가상 머신을 관리할 수 있지만 사용자 포털에 있는 가상 머신에 액세스할 수 없습니다. 이를 위해 user 역할이 필요합니다.

1.1.2.3. 사용자 역할

다음 표에서는 사용자 포털에 있는 가상 머신에 액세스 및 설정하기 위한 권한을 부여하는 기본 사용자 역할에 대해 설명합니다.

표 1.1. Red Hat Virtualization 사용자 역할 - 기본

역할권한알림
UserRole가상 머신과 풀에 액세스 및 사용할 수 있습니다.사용자 포털에 로그인하여 지정된 가상 머신 및 풀을 사용하고 가상 머신 상태 및 상세 정보를 확인할 수 있습니다.
PowerUserRole가상 머신 및 템플릿을 생성 및 관리할 수 있습니다.설정 창을 사용하여 전체 환경에 대해 사용자에게 이 역할을 적용하거나 특정 데이터 센터 또는 클러스터에 이 역할을 적용할 수 있습니다. 예를 들어 데이터 센터 수준에서 PowerUserRole이 지정되어 있을 경우 PowerUser는 데이터 센터에 가상 머신 및 템플릿을 생성할 수 있습니다.
UserVmManager가상 머신의 시스템 관리자입니다.가상 머신을 관리하고 스냅샷을 생성 및 사용할 수 있습니다. 사용자 포털에서 가상 머신을 생성한 사용자에게 자동으로 시스템의 UserVmManager 역할이 할당됩니다.
다음 표에서는 사용자 포털에 있는 리소스에 대한 사용 권한을 보다 정교하게 조정하기 위한 고급 사용자 역할에 대해 설명합니다.

표 1.2. Red Hat Virtualization 사용자 역할 - 고급

역할권한알림
UserTemplateBasedVm템플릿만 사용하도록 권한을 제한합니다.가상 머신을 생성하기 위한 템플릿을 사용할 수 있습니다.
DiskOperator가상 디스크 사용자입니다.가상 디스크를 사용, 보기, 편집할 수 있습니다. 가상 디스크가 연결된 가상 머신을 사용하기 위해 권한을 상속합니다.
VmCreator사용자 포털에서 가상 머신을 생성할 수 있습니다.이 역할은 특정 가상 머신에는 적용되지 않습니다. 설정 창을 사용하여 전체 환경에 대해 사용자에게 이 역할을 적용할 수 있습니다. 또는 특정 데이터 센터 또는 클러스터에 이 역할을 적용할 수 있습니다. 클러스터에 이 역할을 지정할 때 전체 데이터 센터나 특정 스토리지 도메인에서 DiskCreator 역할도 적용해야 합니다.
TemplateCreator지정된 리소스 내에 있는 가상 머신 템플릿을 생성, 편집, 관리, 삭제할 수 있습니다.이 역할은 특정 템플릿에는 적용되지 않습니다. 설정 창을 사용하여 전체 환경에 대해 사용자에게 이 역할을 적용할 수 있습니다. 또는 특정 데이터 센터, 클러스터, 스토리지 도메인에 이 역할을 적용할 수 있습니다.
DiskCreator할당된 클러스터 또는 데이터 센터에서 가상 머신 디스크를 생성, 편집, 관리, 삭제할 수 있습니다.이 역할은 특정 가상 디스크에는 적용되지 않습니다. 설정 창을 사용하여 전체 환경에 대한 사용자에게 이 역할을 적용할 수 있습니다. 또는 특정 데이터 센터, 스토리지 도메인에 이 역할을 적용할 수 있습니다.
TemplateOwner템플릿을 편집 및 삭제하고 템플릿의 사용자 권한을 할당 및 관리할 수 있습니다.이 역할은 템플릿을 생성한 사용자에게 자동으로 할당됩니다. 템플릿에서 TemplateOwner 권한이 없는 다른 사용자는 템플릿을 확인 또는 사용할 수 없습니다.
VnicProfileUser가상 머신 및 템플릿에 대한 논리 네트워크 및 네트워크 인터페이스 사용자입니다.특정 논리 네트워크에서 네트워크 인터페이스를 연결 또는 분리할 수 있습니다.

1.1.2.4. 관리자 역할

다음 표에서는 관리 포털에 있는 리소스에 액세스 및 설정할 수 있는 권한을 부여하는 기본 관리자 역할에 대해 설명합니다.

표 1.3. Red Hat Virtualization 시스템 관리자 역할 - 기본

역할권한알림
SuperUserRed Hat Virtualization 환경의 시스템 관리자입니다.모든 개체 및 레벨에 걸쳐 완전한 권한을 가지며 모든 데이터 센터에 걸쳐 모든 개체를 관리할 수 있습니다.
ClusterAdmin클러스터 관리자입니다.특정 클러스터 하의 모든 개체에 대한 관리 권한을 갖습니다.
DataCenterAdmin데이터 센터 관리자입니다.스토리지를 제외한 특정 데이터 센터 하의 모든 개체에 대한 관리 권한을 갖습니다.

중요

Red Hat Virtualization 관리자로 디렉토리 서버의 관리자를 사용하지 않고 Red Hat Virtualization 관리자로 사용할 사용자를 생성합니다.
다음 표에서는 관리 포털에 있는 리소스에 대한 사용 권한을 보다 정교하게 조정하기 위한 고급 관리자 역할에 대해 설명합니다.

표 1.4. Red Hat Virtualization 시스템 관리자 역할 - 고급

역할권한알림
TemplateAdmin가상 머신 템플릿의 관리자입니다.스토리지 도메인 및 템플릿의 네트워크 정보를 생성, 삭제, 설정하고 도메인 간에 템플릿을 이동할 수 있습니다.
StorageAdmin스토리지 관리자입니다.지정된 스토리지 도메인을 생성, 삭제, 설정, 관리할 수 있습니다.
HostAdmin호스트 관리자입니다.특정 호스트를 연결, 삭제, 설정, 관리할 수 있습니다.
NetworkAdmin네트워크 관리자입니다.특정 데이터 센터 또는 클러스터의 네트워크를 설정 및 관리할 수 있습니다. 데이터 센터 또는 클러스터의 네트워크 관리자는 클러스터 내의 가상 풀에 대한 네트워크 권한을 상속합니다.
VmPoolAdmin가상 풀의 시스템 관리자입니다.가상 풀을 생성, 삭제, 관리할 수 있습니다. 가상 풀 사용자를 지정 및 삭제하고 풀에 있는 가상 머신에서 기본 동작을 수행할 수 있습니다.
GlusterAdminGluster 스토리지 관리자입니다.Gluster 스토리지 볼륨을 생성, 삭제, 설정, 관리할 수 있습니다.
VmImporterExporter가상 머신의 가져오기 및 내보내기 관리자입니다.가상 머신을 가져오기 및 내보내기할 수 있습니다. 다른 사용자가 내보내기하는 모든 가상 머신과 템플릿을 볼 수 있습니다.

1.1.3. 스케줄링 정책

스케줄링 정책은 스케줄링 정책이 적용된 클러스터에 있는 호스트에서 가상 머신이 배포된 논리를 정의하는 규칙 모음입니다. 스케줄링 정책은 필터,가중치, 로드 밸런싱 정책을 조합하여 이러한 논리를 지정합니다. Red Hat Virtualization Manager는 Evenly_Distributed, InClusterUpgrade, None, Power_Saving, VM_Evenly_Distributed 이렇게 5개의 기본 스케줄링 정책을 제공합니다. 가상 머신 배포에서 보다 정교하게 제어할 수 있는 새로운 스케줄링 정책을 정의할 수도 있습니다.

1.1.3.1. 스케줄링 정책 생성

새로운 스케줄링 정책을 생성하여 Red Hat Virtualization 환경에 있는 특정 클러스터에 가상 머신을 분배하는 로직을 제어할 수 있습니다.

절차 1.3. 스케줄링 정책 생성

  1. 관리 포털의 머리글 표시줄에 있는 설정 버튼을 클릭하여 설정 창을 엽니다.
  2. 스케줄링 정책을 클릭하여 스케줄링 정책 탭을 표시합니다.
  3. 새로 만들기를 클릭하여 새 스케줄링 정책 창을 엽니다.
    The New Scheduling Policy Window

    그림 1.6. 새 스케줄링 정책 창

  4. 스케줄링 정책의 이름설명을 입력합니다.
  5. 필터 모듈을 설정합니다:
    1. 필터 모듈 섹션의 비활성화된 필터 섹션에서 스케줄링 정책에 적용할 필터 모듈을 드래그하여 활성화된 필터 섹션에 드롭합니다.
    2. 특정 필터 모듈을 첫 번째로 설정하여 가장 높은 우선순위를 지정하거나 마지막으로 설정하여 가장 낮은 우선 순위로 기본 최적화할 수 있습니다.
      우선순위를 설정하려면 필터 모듈을 오른쪽 클릭하여 위치에 가리키면 표시되는 커서에서 첫 번째 또는 마지막을 선택합니다.
  6. 가중치 모듈 설정:
    1. 가중치 모듈 섹션의 비활성화된 가중치 섹션에서 스케줄링 정책에 적용할 가중치 모듈을 드래그하여 활성화된 가중치 및 계수 섹션에 드롭합니다.
    2. 활성화된 가중치 모듈 왼쪽에 있는 +-을 사용하여 해당 모듈의 가중치를 증가 또는 감소시킬 수 있습니다.
  7. 로드 벨런싱 정책 지정:
    1. 로드 밸런서 부분의 드롭 다운 메뉴에서 스케줄링 정책에 적용할 로드 밸런싱 정책을 선택합니다.
    2. 속성 섹션의 드롭 다운 메뉴에서 스케줄링 정책에 적용할 로드 밸런싱 속성을 선택하고 속성 오른쪽에 있는 텍스트 필드에 값을 지정합니다.
    3. +- 버튼을 사용하여 속성을 추가하거나 삭제합니다.
  8. OK를 클릭합니다.

1.1.3.2. 새 스케줄링 정책 및 스케줄링 정책 편집 창 설정

다음 표에서는 새 스케줄링 정책스케줄링 정책 편집 창에서 사용할 수 있는 옵션에 대해 설명합니다.

표 1.5. 새 스케줄링 정책 및 스케줄링 정책 편집 설정

필드 이름
설명
이름
스케줄링 정책 이름입니다. Red Hat Virtualization Manager에서 스케줄링 정책을 참조하기 위해 사용되는 이름입니다.
설명
스케줄링 정책을 설명합니다. 이 필드는 권장 입력 사항이며 필수 입력 사항은 아닙니다.
필터 모듈
클러스터에 있는 가상 머신이 실행할 수 있는 호스트를 제어하기 위한 필터 모음입니다. 필터를 활성화하면 필터에 의해 지정된 다음과 같은 조건에 맞지 않는 호스트는 필터에서 제외됩니다:
  • CpuPinning: CPU 핀 설정 정의를 충족시키지 않는 호스트입니다.
  • Migration: 동일한 호스트에 대한 마이그레이션을 막습니다.
  • PinToHost: 가상 머신이 고정된 호스트 이외의 호스트입니다.
  • CPU-Level: 가상 머신의 CPU 토폴로지에 적합하지 않은 호스트입니다.
  • CPU: 가상 머신에 할당된 수 보다 적은 CPU가 있는 호스트입니다.
  • Memory: 가상 머신을 실행하기에 메모리가 충분하지 않은 호스트입니다.
  • VmAffinityGroups: 선호도 그룹에 속한 가상 머신에 지정된 조건에 맞지 않는 호스트입니다. 예를 들어 선호도 그룹에 있는 가상 머신은 동일한 호스트 또는 다른 호스트에서 실행해야 합니다.
  • InClusterUpgrade: 현재 가상 머신이 실행중인 운영 체제 이전의 운영 체제에 실행되는 호스트입니다.
  • HostDevice: 가상 머신이 필요로 하는 호스트 장치를 지원하지 않는 호스트입니다.
  • HA: 호스팅 engine 가상 머신이 양의 고가용성 점수를 갖는 호스트에서만 실행되도록 강제합니다.
  • Emulated-Machine: 제대로 된 에뮬레이트된 시스템 지원이 없는 호스트입니다.
  • Network: 가상 머신의 네트워크 인터페이스 컨트롤러가 필요한 네트워크가 설치되지 않은 호스트 또는 클러스터의 디스플레이 네트워크가 설치되지 않은 호스트입니다.
가중치 모듈
가상 머신이 실행할 수 있는 클러스터에서 호스트를 지정할 때 고려할 요소의 상대적 우선순위를 제어하기 위한 가중치 모음입니다.
  • InClusterUpgrade: 호스트의 운영 체제 버전에 따라 호스트에 가중치를 부여합니다. 동일한 운영 체제의 호스트보다 이전 운영 체제의 호스트에 벌점을 줘서 더 새로운 운영 체제의 호스트에 우선순위를 줍니다.
  • OptimalForHaReservation: 고가용성 점수에 따라 호스트에 가중치를 부여합니다.
  • None: 부하 균등 배분 모듈에 따라 가중치를 부여합니다.
  • OptimalForEvenGuestDistribution: 호스트에서 실행되는 가상 머신 수에 따라 호스트에 가중치를 부여합니다.
  • VmAffinityGroups: 가상 머신에 정의된 선호도 그룹에 따라 호스트에 가중치를 부여합니다. 이러한 가중치 모듈은 선호도 그룹에 있는 가상 머신이 선호도 그룹의 매개변수에 따라 동일한 호스트 또는 다른 호스트에서 실행할 지를 결정합니다.
  • OptimalForPowerSaving: CPU 사용량에 따라 호스트에 가중치를 부여하여 CPU 사용량이 높은 호스트에 우선순위를 둡니다.
  • OptimalForEvenDistribution: CPU 사용량에 따라 호스트에 가중치를 부여하여 CPU 사용량이 낮은 호스트에 우선순위를 둡니다.
  • HA: 고가용성 점수에 따라 호스트에 가중치를 부여합니다.
로드 밸런서
이 드롭 다운 메뉴에서는 적용할 로드 밸런싱 모듈을 선택할 수 있습니다. 로드 밸런싱 모듈은 사용률이 높은 호스트에서 사용률이 낮은 호스트로 가상 머신을 마이그레이션하기 위해 사용되는 논리를 결정합니다.
속성
이 드롭 다운 메뉴에서는 로드 밸런싱 모듈의 속성을 추가 또는 삭제할 수 있으며 스케줄링 정책의 로드 밸런싱 모듈을 선택한 경우에만 사용할 수 있습니다. 기본값으로 속성은 지정되어 있지 않으며 사용 가능한 속성은 선택한 로드 밸런싱 모듈에 따라 다릅니다. +- 버튼을 사용하여 로드 밸런싱 모듈에/에서 속성을 추가 또는 삭제합니다.

1.1.4. 인스턴스 유형

인스턴스 유형을 사용하여 가상 머신의 하드웨어 설정을 정의할 수 있습니다. 가상 머신을 생성하거나 편집할 때 인스턴스 유형을 선택하면 하드웨어 설정 필드가 자동으로 작성됩니다. 이로 인해 사용자는 수동으로 모든 필드를 작성하지 않고 동일한 하드웨어 설정으로 된 가상 머신을 여러 개 설정할 수 있습니다.
다음 표에서 볼 수 있듯이 사전 정의된 인스턴스 유형을 기본값으로 사용할 수 있습니다:

표 1.6. 사전 정의된 인스턴스 유형

이름
메모리
vCPU
매우 작게 (Tiny)
512 MB
1
작게 (Small)
2 GB
1
중간 (Medium)
4 GB
2
크게 (Large)
8 GB
2
아주 크게 (XLarge)
16 GB
4
관리자는 설정 창의 인스턴스 유형 탭에서 인스턴스 유형을 생성, 편집, 삭제할 수 있습니다.
인스턴스 유형 탭

그림 1.7. 인스턴스 유형 탭

인스턴스 유형에 바운딩된 새 가상 머신가상 머신 편집 창에 있는 필드 옆에는 체인 링크 이미지가 있습니다 ( ). 이 필드의 값을 변경하면 가상 머신은 인스턴스 유형에서 분리되어 사용자 정의로 변경되고 체인 링크가 분리된 이미지가 표시됩니다 ( ). 하지만 값을 다시 변경할 경우 체인 이미지는 다시 연결되어 인스턴스 유형은 선택한 인스턴스 유형으로 돌아갑니다.

1.1.4.1. 인스턴스 유형 생성

관리자는 가상 머신을 생성 또는 편집시 사용자가 선택할 수 있는 새로운 인스턴스 유형을 생성할 수 있습니다.

절차 1.4. 인스턴스 유형 생성

  1. 머리글 표시줄에서 설정을 클릭합니다.
  2. 인스턴스 유형 탭을 클릭합니다.
  3. 새로 만들기 버튼을 클릭하여 새 인스턴스 유형 창을 엽니다.
    새 인스턴스 유형 창

    그림 1.8. 새 인스턴스 유형 창

  4. 인스턴스 유형의 이름설명을 입력합니다.
  5. 고급 옵션 표시를 클릭하여 필요에 따라 인스턴스 유형을 설정합니다. 새 인스턴스 유형 창에 표시되는 설정은 새 가상 머신 창에 표시되는 내용과 동일하지만 관련 필드만 표시됩니다. 보다 자세한 내용은 Virtual Machine Management Guide에 있는 Explanation of Settings in the New Virtual Machine and Edit Virtual Machine Windows 에서 참조하십시오.
  6. OK를 클릭합니다.
새 인스턴스 유형은 설정 창에 있는 인스턴스 유형 탭에 나타나며 가상 머신을 생성하거나 편집할 때 인스턴스 유형 드롭 다운 목록에서 선택할 수 있습니다.

1.1.4.2. 인스턴스 유형 편집

관리자는 설정 창에서 기존 인스턴스 유형을 편집할 수 있습니다.

절차 1.5. 인스턴스 유형 속성 편집

  1. 머리글 표시줄에서 설정을 클릭합니다.
  2. 인스턴스 유형 탭을 클릭합니다.
  3. 편집할 인스턴스 유형을 선택합니다.
  4. 편집 버튼을 클릭하여 인스턴스 유형 편집 창을 엽니다.
  5. 필요에 따라 설정을 변경합니다.
  6. OK를 클릭합니다.
인스턴스 유형 설정이 업데이트됩니다. 인스턴스 유형에 기반하는 새 가상 머신 및 다시 시작된 기존 가상 머신 모두 새 설정을 사용하게 됩니다.

1.1.4.3. 인스턴스 유형 삭제

절차 1.6. 인스턴스 유형 삭제

  1. 머리글 표시줄에서 설정을 클릭합니다.
  2. 인스턴스 유형 탭을 클릭합니다.
  3. 삭제할 인스턴스 유형을 선택합니다.
  4. 삭제 버튼을 클릭하여 인스턴스 유형 삭제 창을 엽니다.
  5. 가상 머신이 제거할 인스턴스 유형에 기반하는 경우 연결된 가상 머신이 나열된 경고 창이 나타납니다. 인스턴스 유형을 계속 제거하려면 승인 체크박스를 클릭합니다. 그렇지 않을 경우 취소를 클릭합니다.
  6. OK를 클릭합니다.
인스턴스 유형은 인스턴스 유형 목록에서 삭제되어 새 가상 머신을 생성할 때 더이상 사용할 수 없게 됩니다. 삭제된 인스턴스 유형에 연결된 모든 가상 머신은 사용자 정의(인스턴스 유형 없음)에 연결됩니다.

1.1.5. MAC 주소 풀

MAC 주소 풀은 각 데이터 센터에 할당되는 MAC 주소의 범위를 정의합니다. 각 데이터 센터에 MAC 주소 풀이 지정됩니다. MAC 주소 풀을 이용하여 Red Hat Virtualization이 새로운 가상 네트워크 장치에 MAC 주소를 자동 생성 및 지정하며 이를 통해 MAC 주소가 중복되지 않게 합니다. MAC 주소 풀은 데이터 센터와 연결된 모든 MAC 주소가 지정된 MAC 주소 풀 범위에 있을 때 더 메모리 효율성이 높습니다.
여러 데이터 센터에서 동일한 MAC 주소 풀을 공유할 수 있지만 각 데이터 센터에는 단 하나의 MAC 주소 풀이 지정되어야 합니다. 다른 MAC 주소 풀이 지정되지 않은 경우 Red Hat Virtualization이 기본값의 MAC 주소 풀을 생성해서 사용합니다. 데이터 센터에 MAC 주소 풀을 지정하는 것에 대한 자세한 내용은 3.5.1절. “새 데이터 센터 생성”을 참조하십시오.
MAC 주소 풀은 해당 풀에 마지막으로 반환된 주소 다음으로 사용 가능한 MAC 주소를 지정합니다. 범위에 남은 주소가 없는 경우 해당 범위 처음부터 검색이 다시 시작됩니다. 단일 MAC 주소 풀에 사용 가능한 MAC 주소가 있는 MAC 주소 범위가 여러 개 있는 경우 MAC 주소가 선택되는 방법과 같은 방법으로 해당 범위는 들어오는 요청을 차례대로 수행합니다.

1.1.5.1. MAC 주소 풀 생성

새로운 Mac 주소 풀을 생성할 수 있습니다.

절차 1.7. MAC 주소 풀 생성

  1. 머리글 표시줄에서 설정 버튼을 클릭하여 설정 창을 엽니다.
  2. MAC 주소 풀 탭을 클릭합니다.
  3. 추가 버튼을 클릭하여 새 MAC 주소 풀 창을 엽니다.
    새 MAC 주소 풀 창

    그림 1.9. 새 MAC 주소 풀 창

  4. 새 MAC 주소 풀의 이름설명을 입력합니다.
  5. 중복 허용 확인란을 선택하면 MAC 주소가 풀에서 여러 번 사용됩니다. MAC 주소 풀이 중복되는 MAC 주소를 자동적으로 사용하지는 않지만 중복 허용 옵션을 활성화하면 사용자가 중복되는 MAC 주소를 수동으로 사용할 수 있습니다.

    참고

    하나의 MAC 주소 풀이 중복 옵션을 비활성화하고 다른 MAC 주소 풀이 중복 옵션을 활성화하면 각 MAC 주소는 중복이 비활성화된 풀에서는 한 번 사용되지만 중복이 활성화된 풀에서는 여러 번 사용될 수 있습니다.
  6. 필요한 MAC 주소 범위를 입력합니다. 범위를 여러 개 입력하려면 범위 시작범위 끝 필드 옆의 플러스 버튼을 클릭합니다.
  7. OK를 클릭합니다.

1.1.5.2. MAC 주소 풀 편집

MAC 주소 풀을 편집해서 해당 풀의 사용 가능한 MAC 주소 범위 또는 중복 허용 여부 등을 변경합니다.

절차 1.8. MAC 주소 풀 속성 편집

  1. 머리글 표시줄에서 설정 버튼을 클릭하여 설정 창을 엽니다.
  2. MAC 주소 풀 탭을 클릭합니다.
  3. 편집할 MAC 주소 풀을 선택합니다.
  4. 편집 버튼을 클릭하여 MAC 주소 풀 편집 창을 엽니다.
  5. 필요에 따라 이름, 설명, 중복 허용MAC 주소 범위란을 변경합니다.

    참고

    MAC 주소 범위가 업데이트되는 경우 기존 NIC의 MAC 주소는 재할당되지 않습니다. 이미 할당되었지만 새 MAC 주소 범위에서 벗어나는 MAC 주소는 사용자 지정 MAC 주소로 추가되며 계속해서 해당 MAC 주소 풀에서 추적됩니다.
  6. OK를 클릭합니다.

1.1.5.3. MAC 주소 풀 권한 편집

MAC 주소 풀 생성 후 사용자 권한을 편집할 수 있습니다.사용자 권한은 어느 데이터 센터가 해당 MAC 주소 풀을 사용할 수 있는지를 제어합니다. 새로운 사용자 권한 추가에 대한 정보는 1.1.1절. “역할”을 참조하십시오.

절차 1.9. MAC 주소 풀 권한 편집

  1. 머리글 표시줄에서 설정 버튼을 클릭하여 설정 창을 엽니다.
  2. MAC 주소 풀 탭을 클릭합니다.
  3. 필요한 MAC 주소 풀을 선택합니다.
  4. 해당 MAC 주소 풀의 사용자 권한을 편집합니다.
    • 해당 MAC 주소 풀에 사용자 권한을 추가합니다:
      1. 설정 창 아래의 사용자 권한 창에 있는 추가 버튼을 누릅니다.
      2. 사용자를 검색 및 선택합니다.
      3. 할당된 역할: 드롭 다운 목록에서 역할을 선택합니다.
      4. OK 버튼을 클릭해서 사용자 권한을 추가합니다.
    • MAC 주소 풀에서 사용자 권한을 제거합니다:
      1. 설정 창 아래의 사용자 권한 창에서 제거할 사용자 권한을 선택합니다.
      2. 제거 버튼을 클릭해서 사용자 권한을 제거합니다.

1.1.5.4. MAC 주소 풀 삭제

생성된 MAC 주소 풀을 삭제할 수 있지만 기본 MAC 주소 풀은 삭제할 수 없습니다.

절차 1.10. MAC 주소 풀 삭제

  1. 머리글 표시줄에서 설정 버튼을 클릭하여 설정 창을 엽니다.
  2. MAC 주소 풀 탭을 클릭합니다.
  3. 삭제할 MAC 주소 풀을 선택합니다.
  4. 삭제 버튼을 클릭하여 MAC 주소 풀 삭제 창을 엽니다.
  5. OK를 클릭합니다.

1.2. 대시보드

대시보드는 Red Hat Virtualization 리소스 및 활용 상황을 요약 표시해서 Red Hat Virtualization 시스템 상태 개요를 제공합니다. 이 요약 표시 내용을 바탕으로 문제를 발견하고 분석할 수 있습니다.
대시보드 정보는 Data Warehouse에서 기본값으로 15분마다 업데이트되거나, Manager API에 의해서 기본값으로 15초마다 새로고침되거나, 또는 대시보드가 새로고침될 때마다 새로고침됩니다. 대시보드는 사용자가 다른 탭에서 다시 오거나 수동으로 새로고침했을 때 새로고침됩니다. 대시보드는 자동으로 새로고침되지 않습니다. 인벤토리 카드 정보는 Manager API에서 제공되며 사용 정보는 Data Warehouse에서 제공됩니다. 대시보드는 UI 플러그인 구성 요소로 구현되며 자동 설치되어 Manager와 함께 업그레이드됩니다.
대시보드

그림 1.10. 대시보드

1.2.1. 전제 조건

대시보드를 사용하기 위해 Data Warehouse가 설치 및 설정되어야 합니다. Data Warehouse 설치 및 설정 방법은 Data Warehouse Guide에 있는 Installing and Configuring Data Warehouse에서 참조하십시오.

1.2.2. 전체 인벤토리

대시보드 상단에는 Red Hat Virtualization 리소스의 전체 인벤토리가 제공되며 데이터 센터, 클러스터, 호스트, 스토리지 도메인, 가상 머신, 그리고 이벤트 등의 항목이 있습니다. 아이콘은 각 리소스 상태를 나타내며 숫자는 해당 상태의 리소스 수량을 나타냅니다.
전체 인벤토리

그림 1.11. 전체 인벤토리

제목에는 각 리소스 종류의 수량이 표시되며 리소스 상태가 제목 밑에 표시됩니다. 리소스 제목을 클릭해서 Red Hat Virtualization Manager에 있는 해당 탭으로 갑니다. 클러스터 상태는 항상 해당 없음으로 표시됩니다.

표 1.7. 리소스 상태

아이콘
상태
해당 리소스가 Red Hat Virtualization에 하나도 추가되지 않음.
경고 상태의 리소스 수량이 표시됩니다. 아이콘을 클릭해서 해당 탭으로 가며 검색은 경고 상태의 리소스로 제한됩니다. 각 리소스별 검색 제한 방식이 다릅니다:
  • 데이터 센터: 동작이 되지 않거나 반응이 없는 데이터 센터로 검색이 제한됩니다.
  • 호스트: 미할당, 유지 보수 모드, 설치, 재부팅, 유지 보수 준비, 승인 대기, 또는 연결중인 호스트로 검색이 제한됩니다.
  • 스토리지 도메인: 초기화되지 않거나, 연결되지 않거나, 비활성, 유지 보수 모드, 유지 보수 준비, 분리, 또는 활성화 중인 스토리지 도메인으로 검색이 제한됩니다.
  • 가상 머신: 파워 업, 일시정지, 마이그레이션, 대기, 중단, 또는 꺼지고 있는 상태의 가상 머신으로 검색이 제한됩니다.
  • 이벤트: 그 심각성이 경고 상태인 이벤트로 검색이 제한됩니다.
실행 중인 상태인 리소스 수량이 표시됩니다. 아이콘을 클릭해서 해당 탭으로 가며 검색은 실행 중인 상태의 리소스로 제한됩니다.
정지 상태인 리소스 수량이 표시됩니다. 아이콘을 클릭해서 해당 탭으로 가며 검색은 정지 상태의 리소스로 제한됩니다. 각 리소스별 검색 제한 방식이 다릅니다:
  • 데이터 센터: 초기화되지 않거나, 유지 보수 모드, 또는 중지 상태의 데이터 센터로 검색이 제한됩니다.
  • 호스트: 반응이 없거나, 오류가 났거나, 설치 오류가 났거나, 동작이 되지 않거나, 초기화, 또는 중지 상태의 호스트로 검색이 제한됩니다.
  • 스토리지 도메인: 분리되거나 비활성화 상태의 스토리지 도메인으로 검색이 제한됩니다.
  • 가상 머신: 중지되거나, 반응이 없거나, 또는 재부팅 상태의 가상 머신으로 검색이 제한됩니다.
경고 상태의 이벤트 수량이 표시됩니다. 아이콘을 클릭해서 이벤트 탭으로 가며 그 심각성이 경고 상태인 이벤트로 검색이 제한됩니다.
오류 상태의 이벤트 수량이 표시됩니다. 아이콘을 클릭해서 이벤트 탭으로 가며 그 심각성이 오류 상태인 이벤트로 검색이 제한됩니다.

1.2.3. 전체 사용량

전체 사용량 부분에는 CPU, 메모리, 그리고 스토리지의 시스템 사용량이 표시됩니다.
전체 사용량

그림 1.12. 전체 사용량

  • 윗부분에는 사용 가능 CPU, 메모리, 스토리지 등의 백분율이 표시되며 오버 커밋 비율이 표시됩니다. 예를 들어 CPU의 오버 커밋 비율 계산 시 가상 코어 수량을 Data Warehouse의 최신 데이터를 바탕으로 가상 머신을 실행 가능한 물리 코어 수량으로 나눕니다.
  • 도넛 모양에는 CPU, 메모리, 스토리지 등의 사용량이 백분율로 표시되며 최근 5분 동안의 평균 사용량을 바탕으로 모든 호스트의 평균 사용량이 표시됩니다. 도넛 모양의 어느 부분 위에 커서를 올리면 해당 부분의 값이 표시됩니다.
  • 아랫부분의 선 그래프는 지난 24시간 동안의 트렌드를 보여줍니다. 각 데이터 포인트는 특정 시간의 평균 사용량을 보여줍니다. 그래프 상의 어느 부분 위에 커서를 올리면 CPU 그래프에 사용된 시간과 백분율이 표시되며 메모리 및 스토리지 그래프 사용량이 표시됩니다.

1.2.3.1. 가장 많이 사용된 리소스

가장 많이 사용된 리소스 (메모리)

그림 1.13. 가장 많이 사용된 리소스 (메모리)

대시보드의 전체 사용량 부분의 도넛 모양을 클릭하면 CPU, 메모리, 또는 스토리지의 사용량이 가장 높은 리소스 목록이 표시됩니다. CPU와 메모리의 경우 사용량이 가장 높은 열 개의 호스트 및 가상 머신 목록이 팝업 창에 표시됩니다. 스토리지의 경우 사용량이 가장 높은 열 개의 스토리지 및 가상 머신 목록이 팝업 창에 표시됩니다. 막대 도표 오랜쪽의 화살표는 지난 1분 동안 해당 리소스의 사용 트렌드를 표시합니다.

1.2.4. 클러스터 사용량

클러스터 사용량 부분에는 CPU 및 메모리의 클러스터 사용량이 히트맵으로 표시됩니다.
클러스터 사용량

그림 1.14. 클러스터 사용량

1.2.4.1. CPU

특정 클러스터의 CPU 사용량을 나타내는 히트맵이며 지난 24시간 동안의 CPU 평균 사용량이 표시됩니다. 히트맵 위에 커서를 올리면 클러스터 이름이 표시됩니다. 히트맵을 클릭해서 호스트 탭으로 가며 특정 클러스터에 대해 CPU 사용량 순으로 정열된 검색 결과가 표시됩니다. 클러스터의 CPU 사용량을 계산하는 공식은 클러스터에서의 평균 호스트 CPU 사용량입니다. 이를 계산하기 위해 지난 24시간 동안 각 호스트의 평균 호스트 CPU 사용량을 사용하여 해당 클러스터의 CPU 전체 평균 사용량을 계산합니다.

1.2.4.2. 메모리

특정 클러스터의 메모리 사용량을 나타내는 히트맵이며 지난 24시간 동안의 메모리 평균 사용량이 표시됩니다. 히트맵 위에 커서를 올리면 클러스터 이름이 표시됩니다. 히트맵을 클릭해서 호스트 탭으로 가며 특정 클러스터에 대해 메모리 사용량 순으로 정열된 검색 결과가 표시됩니다. 클러스터의 메모리 사용량을 계산하는 공식은 클러스터에서의 메모리 총 사용량을 GB로 표시합니다. 이를 계산하기 위해 지난 24시간 동안 각 호스트의 평균 호스트 메모리 사용량을 사용하여 해당 클러스터의 메모리 전체 평균 사용량을 계산합니다.

1.2.5. 스토리지 사용량

스토리지 사용량 부분에는 스토리지 사용량이 히트맵으로 표시됩니다.
스토리지 사용량

그림 1.15. 스토리지 사용량

지난 24시간 동안의 스토리지 평균 사용량이 표시되는 히트맵입니다. 클러스터의 스토리지 사용량을 계산하는 공식은 클러스터에서의 스토리지 총 사용량을 계산합니다. 이를 계산하기 위해 지난 24시간 동안 각 호스트의 평균 스토리지 사용량을 사용하여 해당 클러스터의 스토리지 전체 평균 사용량을 계산합니다. 히트맵 위에 커서를 올리면 스토리지 도메인 이름이 표시됩니다. 히트맵을 클릭해서 스토리지 탭으로 가며 스토리지 도메인이 사용량 순으로 정열되어 표시됩니다.

I 부. 리소스 관리

2장. QoS (Quality of Service)

Red Hat Virtualization에서는 사용자 환경에 있는 리소스를 액세스할 수 있는 입출력, 처리, 네트워크 기능 정도에 대한 정교한 제어를 가능하게 하는 QoS (Quality of Service) 항목을 정의할 수 있습니다. QoS 항목은 데이터 센터 수준에서 정의되어 클러스터 및 스토리지 도메인 아래에서 생성된 프로파일에 지정됩니다. 이러한 프로파일은 프로파일이 생성된 클러스터 및 스토리지 도메인에 있는 개별 리소스에 지정됩니다.

2.1. 스토리지 QoS

스토리지 QoS는 스토리지 도메인에 있는 가상 디스크의 최대 입출력 수준 및 처리 가능한 최대 용량을 정의합니다. 스토리지 QoS를 가상 디스크에 지정하려면 스토리지 도메인 성능을 조정하고 가상 디스크와 관련된 스토리지 작업이 동일한 스토리지 도메인에서 호스팅되는 다른 가상 디스크에서 사용 가능한 스토리지 기능에 영향을 받지 않도록 할 수 있습니다.

2.1.1. 스토리지 QoS 항목 생성

스토리지 QoS 항목을 생성합니다.

절차 2.1. 스토리지 QoS 항목 생성

  1. 데이터 센터 리소스 탭을 클릭하고 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 QoS를 클릭합니다.
  3. 스토리지를 클릭합니다.
  4. 새로 만들기를 클릭합니다.
  5. QoS 이름 필드에 QoS 항목 이름을 입력합니다.
  6. 설명 란에 QoS 항목에 대한 설명을 입력합니다.
  7. QoS 처리량을 지정합니다:
    1. 처리량 체크 상자를 선택합니다.
    2. 합계 란에 허용된 최대 처리량 합계를 입력합니다.
    3. 읽기 란에 읽기 작업에 허용되는 최대 처리량을 입력합니다.
    4. 쓰기 란에 쓰기 작업에 허용되는 최대 처리량을 입력합니다.
  8. 입력 및 출력 QoS를 지정합니다:
    1. IOps 체크 상자를 선택합니다.
    2. 합계 필드에 초당 최대 허용 입출력 작업 수를 입력합니다.
    3. 읽기 필드에 초당 최대 허용 입력 작업 수를 입력합니다.
    4. 쓰기 필드에 초당 최대 허용 출력 작업 수를 입력합니다.
  9. OK를 클릭합니다.
스토리지 QoS 항목을 생성하고 데이터 센터에 속한 데이터 스토리지 도메인에 있는 항목에 기초하여 디스크 프로파일을 생성할 수 있습니다.

2.1.2. 스토리지 QoS 항목 삭제

기존 스토리지 QoS 항목을 삭제합니다.

절차 2.2. 스토리지 QoS 항목 삭제

  1. 데이터 센터 리소스 탭을 클릭하고 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 QoS를 클릭합니다.
  3. 스토리지를 클릭합니다.
  4. 삭제할 스토리지 QoS 항목을 선택합니다.
  5. 삭제를 클릭합니다.
  6. 메세지가 나타나면 OK를 클릭합니다.
스토리지 QoS 항목이 삭제되어 이 항목은 더이상 사용할 수 없습니다. 디스크 프로파일이 이 항목에 기반하고 있을 경우 해당 프로파일의 스토리지 QoS 항목은 자동으로 무제한 [unlimited]으로 설정됩니다.

2.2. 가상 머신 네트워크 QoS

가상 머신 네트워크 QoS(Quality of Service)는 개별적 가상 네트워크 인터페이스 컨트롤러의 인바운드 및 아웃바운드 트래픽 모두를 제한하기 위해 프로파일을 생성할 수 있게 하는 기능입니다. 이 기능을 사용하여 여러 레이어에서 대역폭을 제한하여 네트워크 리소스 사용을 제어할 수 있습니다.

2.2.1. 가상 머신 네트워크 QoS 항목 생성

가상 머신 네트워크 인터페이스 프로파일로 알려진 가상 네트워크 인터페이스 컨트롤러 (vNIC)에 적용 시 네트워크 트래픽을 조정할 가상 머신 네트워크 QoS 항목을 생성합니다.

절차 2.3. 가상 머신 네트워크 QoS 항목 생성

  1. 데이터 센터 리소스 탭을 클릭하고 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 QoS 탭을 클릭합니다.
  3. 가상 머신 네트워크를 클릭합니다.
  4. 새로 만들기를 클릭합니다.
  5. 이름 필드에 가상 머신 네트워크 QoS 이름을 입력합니다.
  6. 인바운드아웃바운드 네트워크 트래픽 제한을 입력합니다.
  7. OK를 클릭합니다.
가상 네트워크 인터페이스 컨트롤러에서 사용할 수 있는 가상 머신 네트워크 QoS가 생성됩니다.

2.2.2. 새 가상 머신 네트워크 QoS 설정 및 가상 머신 네트워크 QoS 편집

가상 머신 네트워크 QoS 설정을 통해 세 가지 레벨로 인바운드 및 아웃바운드 모두에 대한 대역폭 제한을 설정할 수 있습니다.

표 2.1. 가상 머신 네트워크 QoS 설정

필드 이름
설명
데이터 센터
가상 머신 네트워크 QoS 정책이 추가되는 데이터 센터입니다. 이 필드는 선택된 데이터 센터에 따라 자동으로 설정됩니다.
이름
Manager 내에서 가상 머신 네트워크 QoS 정책을 표시하기 위한 이름입니다.
인바운드
인바운드 트래픽에 적용할 설정입니다. 이러한 설정을 활성화 또는 비활성화하려면 인바운드 확인란을 선택하거나 선택 취소합니다.
  • 평균: 인바운드 트래픽의 평균 속도입니다.
  • 최대 값: 피크 (peak) 시간동안 인바운드 트래픽 속도입니다.
  • 버스트: 버스트 동안 인바운드 트래픽 속도입니다.
아웃바운드
아웃바운드 트래픽에 적용할 설정입니다. 이러한 설정을 활성화 또는 비활성화하려면 아웃바운드 확인란을 선택하거나 선택 취소합니다.
  • 평균: 아웃바운드 트래픽의 평균 속도입니다.
  • 최대 값: 피크 (peak) 시간동안 아웃바운드 트래픽 속도입니다.
  • 버스트: 버스트 동안 아웃바운드 트래픽 속도입니다.

2.2.3. 가상 머신 네트워크 QoS 항목 삭제

기존 가상 머신 네트워크 QoS 항목을 삭제합니다.

절차 2.4. 가상 머신 네트워크 QoS 항목 삭제

  1. 데이터 센터 리소스 탭을 클릭하고 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 QoS 탭을 클릭합니다.
  3. 가상 머신 네트워크를 클릭합니다.
  4. 삭제할 가상 머신 네트워크 QoS 항목을 선택합니다.
  5. 삭제를 클릭합니다.
  6. 메세지가 나타나면 OK를 클릭합니다.
가상 머신 네트워크 QoS 항목이 삭제되어 더이상 이 항목을 사용할 수 없습니다.

2.3. 호스트 네트워크 QoS

호스트 네트워크 QoS는 호스트 네트워크를 설정해서 물리 인터페이스를 통한 네트워크 트래픽을 제어할 수 있게 해줍니다. 호스트 네트워크 QoS는 같은 네트워크 인터페이스 컨트롤러의 네트워크 리소스 사용을 제어해서 네트워크 성능을 정교하게 조정할 수 있게 해줍니다. 이를 통해 트래픽 과다 시 하나의 네트워크로 인해 같은 물리 네트워크 인터페이스의 다른 네트워크가 더 이상 작동을 하지 않는 상황을 막을 수 있습니다. 호스트 네트워크 QoS를 설정하면 해당 네트워크가 혼잡 문제 없이 같은 물리 네트워크 인터페이스에서 작동합니다.

2.3.1. 호스트 네트워크 QoS 항목 생성

호스트 네트워크 QoS 항목을 생성합니다.

절차 2.5. 호스트 네트워크 QoS 항목 생성

  1. 데이터 센터 리소스 탭을 클릭하고 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 QoS를 클릭합니다.
  3. 호스트 네트워크를 클릭합니다.
  4. 새로 만들기를 클릭합니다.
  5. QoS 이름 필드에 QoS 항목 이름을 입력합니다.
  6. 설명 란에 QoS 항목에 대한 설명을 입력합니다.
  7. 가중 공유, 속도 제한 [Mbps], and 커밋 속도 [Mbps] 항목에 원하는 값을 입력합니다.
  8. OK를 클릭합니다.

2.3.2. 새 호스트 네트워크 QoS 설정 및 호스트 네트워크 QoS 편집

호스트 네트워크 QoS 설정을 통해 아웃바운드 트래픽에 대한 대역폭 제한을 설정할 수 있습니다.

표 2.2. 호스트 네트워크 QoS 설정

필드 이름
설명
데이터 센터
호스트 네트워크 QoS 정책이 추가되는 데이터 센터입니다. 이 필드는 선택된 데이터 센터에 따라 자동으로 설정됩니다.
QoS 이름
Manager 내에서 호스트 네트워크 QoS 정책을 표시하기 위한 이름입니다.
설명
호스트 네트워크 QoS 정책에 대한 설명입니다.
아웃바운드
아웃바운드 트래픽에 적용할 설정입니다.
  • 가중 공유: 같은 논리 링크에 연결된 다른 네트워크와 비교해서 어떤 특정 네트워크에 해당 논리 링크의 용량이 얼마나 할당되는지를 나타냅니다. 정확한 공유량은 해당 링크의 모든 네트워크의 총 공유량에 따라 다릅니다. 기본으로 이 수치는 1-100 범위에 있습니다.
  • 속도 제한 [Mbps]: 네트워크가 사용하는 최대 대역폭입니다.
  • 커밋 속도 [Mbps]: 네트워크가 필요로 하는 최소 대역폭입니다. 사용자가 요청하는 커밋 속도는 보장되지 않으며 네트워크 인프라와 같은 논리 링크에 있는 다른 네트워크에서 요청하는 커밋 속도에 따라 다릅니다.

2.3.3. 호스트 네트워크 QoS 항목 삭제

기존 네트워크 QoS 항목을 삭제합니다.

절차 2.6. 호스트 네트워크 QoS 항목 삭제

  1. 데이터 센터 리소스 탭을 클릭하고 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 QoS 탭을 클릭합니다.
  3. 호스트 네트워크를 클릭합니다.
  4. 삭제할 네트워크 QoS 항목을 선택합니다.
  5. 삭제를 클릭합니다.
  6. 메시지가 나타나면 OK를 클릭합니다.

2.4. CPU QoS (Quality of Service)

CPU QoS (Quality of Service)는 가상 머신이 이를 실행하는 호스트에서 액세스할 수 있는 처리 가능한 최대 용량을 정의하고 호스트에서 사용 가능한 총 처리 용량의 백분율로 표시합니다. CPU QoS를 가상 머신에 지정하여 클러스터에 있는 하나의 가상 머신에서의 워크로드가 동일한 클러스터에 있는 다른 가상 머신에서 사용 가능한 처리 리소스에 영향을 미치지 않게 할 수 있습니다.

2.4.1. CPU QoS 항목 생성

CPU QoS 항목을 생성합니다.

절차 2.7. CPU QoS 항목 생성

  1. 데이터 센터 리소스 탭을 클릭하고 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 QoS를 클릭합니다.
  3. CPU를 클릭합니다.
  4. 새로 만들기를 클릭합니다.
  5. QoS 이름 필드에 QoS 항목 이름을 입력합니다.
  6. 설명 란에 QoS 항목에 대한 설명을 입력합니다.
  7. 제한 필드에서 백분율로 QoS 최대 처리 용량을 입력합니다. % 기호를 입력하지 않습니다.
  8. OK를 클릭합니다.
CPU QoS 항목이 생성되어 데이터 센터에 속한 클러그터에 있는 항목에 따라 CPU 프로파일을 생성할 수 있습니다.

2.4.2. CPU QoS 항목 삭제

기존 CPU QoS 항목을 삭제합니다.

절차 2.8. CPU QoS 항목 삭제

  1. 데이터 센터 리소스 탭을 클릭하고 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 QoS를 클릭합니다.
  3. CPU를 클릭합니다.
  4. 삭제할 CPU QoS 항목을 선택합니다.
  5. 삭제를 클릭합니다.
  6. 메세지가 나타나면 OK를 클릭합니다.
CPU QoS 항목이 삭제되어 해당 항목을 더이상 사용할 수 없습니다. CPU 프로파일이 해당 항목에 기반할 경우 해당 프로파일의 CPU QoS 항목은 무제한 [unlimited]으로 자동 설정됩니다.

3장. 데이터 센터

3.1. 데이터 센터 소개

데이터 센터는 특정 환경에서 사용되는 리소스를 정의하는 논리적 엔티티입니다. 데이터 센터는 클러스터 및 호스트 형태; 네트워크 리소스 형태, 논리 네트워크 및 물리적 NIC 및 스토리지 리소스 형태, 스토리지 도메인 형태와 같은 논리적 리소스로 구성되어 있다는 점에서 컨테이너 리소스로 간주됩니다.
데이터 센터는 여러 호스트를 포함할 수 있는 여러 클러스터에서 구성할 수 있습니다. 또한 데이터 센터에 여러 스토리지 도메인을 연결할 수 있으며 각 호스트에서 여러 가상 머신을 지원할 수 있습니다. Red Hat Virtualization 환경에는 여러 데이터 센터로 구성할 수 있으며 데이터 센터 인프라는 이러한 센터를 별도로 유지할 수 있습니다.
모든 데이터 센터는 단일 관리 포털에서 관리됩니다.
데이터 센터

그림 3.1. 데이터 센터

Red Hat Virtualization은 설치 시 기본 데이터 센터를 생성합니다. 기본 데이터 센터를 설정하거나 이름을 지정하여 새로 데이터 센터를 설정할 수 있습니다.
데이터 센터 개체

그림 3.2. 데이터 센터 개체

3.2. SPM (Storage Pool Manager)

SPM (Storage Pool Manager)는 데이터 센터의 스토리지 도메인을 관리하기 위해 데이터 센터에 있는 하나의 호스트에 지정된 역할입니다. SPM 엔티티는 데이터 센터에 있는 모든 호스트에서 실행할 수 있습니다. Red Hat Virtualization Manager는 하나의 호스트에 역할을 부여합니다. SPM에 의해 호스트가 표준 작업을 실행할 수 없는 것은 아니며 SPM으로 실행하는 호스트는 계속 가상 리소스를 호스팅할 수 있습니다.
SPM 엔티티는 스토리지 도메인 간의 메타데이터를 조정하여 스토리지로의 액세스를 제어합니다. 이는 가상 디스크 (이미지), 스냅샷, 템플릿을 생성, 삭제, 조정하고 (SAN 상의) 스파스 블록 장치에 대한 스토리지를 할당합니다. 이 역할은 배타적이며 메타데이터 무결성을 위해 한번에 하나의 호스트만 데이터 센터에서 SPM이 될 수 있습니다.
Red Hat Virtualization Manager는 SPM을 항상 사용할 수 있는지 확인합니다. Manager는 SPM 호스트가 스토리지에 액세스하는데 문제가 발생할 경우 SPM 역할을 다른 호스트로 옮깁니다. SPM을 시작하면 이는 유일한 호스트 역할이 부여되므로 스토리지 중심적이 됩니다. 이러한 절차에는 다소 시간이 소요될 수 있습니다.

3.3. SPM 우선순위

SPM 역할은 호스트의 사용 가능한 리소스 일부를 사용합니다. 호스트의 SPM 우선순위 설정으로 호스트에 SPM 역할이 할당될 가능성이 변경됩니다. 높은 SPM 우선순위를 갖는 호스트에는 낮은 SPM 우선 순위의 호스트 보다 먼저 SPM 역할이 할당됩니다. 낮은 SPM 우선순위를 갖는 호스트에 있는 중요한 가상 머신은 호스트의 리소스에 대한 SPM 운영에 있어서 경합할 필요가 없습니다.
호스트를 편집하여 호스트의 SPM 우선순위를 변경할 수 있습니다.

3.4. 이벤트 탭을 사용하여 데이터 센터에서 문제가 있는 개체를 식별

데이터 센터의 이벤트 탭에서는 데이터 센터와 관련된 모든 이벤트를 표시합니다. 이벤트에는 감사, 경고, 오류 등이 포함됩니다. 결과 목록에 표시된 정보는 Red Hat Virtualization 환경에서 문제가 있는 개체를 식별하는데 사용할 수 있습니다.
이벤트 결과 목록에는 기본 보기 및 고급 보기의 두 가지 보기가 있습니다. 기본 보기에는 이벤트 아이콘, 이벤트, 시간, 이벤트 설명 등이 표시됩니다. 고급 보기에는 기본 보기에 있는 내용 이외에 이벤트 ID, 연결된 사용자, 호스트, 가상 머신, 템플릿, 데이터 센터, 스토리지, 클러스터, Gluster 볼륨, 상관 관계 ID 등이 표시됩니다.

3.5. 데이터 센터 작업

3.5.1. 새 데이터 센터 생성

다음 절차에서는 가상화 환경에 데이터 센터를 생성하는 방법에 대해 설명합니다. 데이터 센터에는 클러스터, 호스트, 스토리지 도메인 기능이 필요합니다.

참고

스토리지 유형은 첫 번째 스토리지 도메인이 데이터 센터에 추가될 때 까지 편집할 수 있습니다. 스토리지 도메인이 추가되면 스토리지 유형을 변경할 수 없습니다.
호환 버전을 한번 설정하고 난 후 하위 버전으로 변경하는 것은 허용되지 않습니다.

절차 3.1. 새 데이터 센터 생성

  1. 데이터 센터 리소스 탭을 선택하여 결과 목록에 모든 데이터 센터를 나열합니다.
  2. 새로 만들기를 클릭하여 새로운 데이터 센터 창을 엽니다.
  3. 데이터 센터의 이름설명을 입력합니다.
  4. 드롭 다운 메뉴에서 데이터 센터의 스토리지 유형, 호환 버전, 쿼터 모드를 선택합니다.
  5. 옵션으로 데이터 센터의 MAC 주소 풀을 변경합니다. 기본 MAC 주소 풀은 기본값으로 미리 선택됩니다. MAC 주소 풀 생성에 대한 자세한 정보는 1.1.5절. “MAC 주소 풀”을 참조하시기 바랍니다.
    1. MAC 주소 풀 탭을 클릭합니다.
    2. MAC 주소 풀 드롭 다운 목록에서 필요한 MAC 주소 풀을 선택합니다.
  6. OK를 클릭하여 데이터 센터를 생성하고 데이터 센터 - 가이드 창을 엽니다.
  7. 가이드 창에는 데이터 센터 설정에 필요한 엔티티가 나열됩니다. 이러한 엔티티를 설정하거나 나중에 설정 버튼을 클릭하여 나중에 설정합니다. 설정을 다시 시작하려면 데이터 센터를 선택하고 가이드 버튼을 클릭합니다.
새 데이터 센터가 가상화 환경에 추가됩니다. 클러스터, 호스트, 스토리지 도메인이 설정되기 전 까지 초기화되지 않음 상태로 남아있게 됩니다. 가이드를 사용하여 이러한 항목을 설정합니다.

3.5.2. 새 데이터 센터 및 데이터 센터 편집 창 설정

다음 표에서는 새 데이터 센터데이터 센터 편집 창에 표시된 데이터 센터를 설정하는 방법에 대해 설명합니다. OK를 클릭 시 잘못된 항목은 주황색으로 표시되고 변경 사항이 적용되지 않습니다. 또한 필드 프롬프트에는 값의 예상 값 또는 예상 값 범위가 표시됩니다.

표 3.1. 데이터 센터 속성

필드
설명/동작
이름
데이터 센터 이름입니다. 텍스트 필드는 최대 40 자로 제한되어 있으며 알파벳 대문자, 소문자, 숫자, 하이픈, 밑줄로 조합된 고유한 이름이어야 합니다.
설명
데이터 센터 설명입니다. 이는 권장 사항이며 필수 입력 사항은 아닙니다.
유형
스토리지 유형입니다. 다음 중 하나를 선택합니다:
  • 공유
  • 로컬
데이터 도메인 유형에 따라 데이터 센터 유형을 지정하고 생성 후 서비스가 중단될 수 있으므로 수정하지 않습니다. 로컬 도메인과 공유 도메인을 혼합할 수 없지만 여러 유형의 스토리지 도메인 (iSCSI, NFS, FC, POSIX, Gluster)을 동일한 데이터 센터에 추가할 수 있습니다.
호환성 버전
Red Hat Virtualization 버전입니다. 다음 중 하나를 선택합니다:
  • 3.6
  • 4.0
Red Hat Virtualization Manager로 업그레이드한 후 호스트, 클러스터, 데이터 센터가 이전 버전에 남아 있을 수 있습니다. 데이터 센터의 호환성 수준을 업그레이드하기 전 모든 호스트를 업그레이드한 후 클러스터를 업그레이드합니다.
쿼터 모드
쿼터는 Red Hat Virtualization에 제공되는 리소스 제한 도구입니다. 다음 중 하나를 선택합니다:
  • 비활성화됨: 쿼터를 구현하지 않을 경우 선택합니다.
  • 감사: 쿼터 설정을 편집하고자 할 경우 선택합니다.
  • 강제 적용: 쿼터를 구현하고자 할 경우 선택합니다.
MAC 주소 풀
데이터 센터의 MAC 주소 풀입니다. 다른 MAC 주소 풀을 할당하지 않으면 기본 MAC 주소 풀이 사용됩니다. MAC 주소 풀에 대한 자세한 정보는 1.1.5절. “MAC 주소 풀”을 참조하시기 바랍니다.

3.5.3. 데이터 센터 재초기화: 복구 절차

다음 복구 절차에서는 데이터 센터의 마스터 데이터 도메인을 새 마스터 도메인으로 대체합니다. 이는 마스터 데이터 도메인의 데이터가 손상된 경우에 필요합니다. 데이터 센터를 다시 초기화하여 클러스터, 호스트, 문제 없는 스토리지 도메인을 포함하여 데이터 센터에 연결된 모든 다른 리소스를 복구할 수 있습니다.
백업, 내보내기한 가상 머신 또는 템플릿을 새로운 마스터 데이터 도메인으로 가져올 수 있습니다.

절차 3.2. 데이터 센터 재초기화

  1. 데이터 센터 리소스 탭을 클릭하여 재초기화할 데이터 센터를 선택합니다.
  2. 데이터 센터에 연결된 스토리지 도메인이 유지 관리 모드인지를 확인합니다.
  3. 데이터 센터를 오른쪽 클릭하고 드롭 다운 메뉴에서 데이터 센터의 재 초기화를 선택하여 데이터 센터의 재 초기화 창을 엽니다.
  4. 데이터 센터의 재 초기화 창에는 모든 사용 가능한 스토리지 도메인 목록이 표시됩니다. 데이터 센터에 추가하려는 스토리지 도메인의 라디오 버튼을 클릭합니다.
  5. 작업 승인 확인란을 선택합니다.
  6. OK를 클릭하여 창을 닫고 데이터 센터를 다시 초기화합니다.
스토리지 도메인이 마스터 데이터 도메인으로 데이터 센터에 연결되어 활성화됩니다. 백업, 내보내기한 가상 머신, 템플릿을 새 마스터 데이터 도메인으로 가져올 수 있습니다.

3.5.4. 데이터 센터 삭제

데이터 센터를 삭제하려면 활성 호스트가 필요합니다. 데이터 센터를 삭제해도 데이터 센터에 연결된 리소스는 삭제되지 않습니다.

절차 3.3. 데이터 센터 삭제

  1. 데이터 센터에 연결된 스토리지 도메인이 유지 관리 모드인지를 확인합니다.
  2. 데이터 센터 리소스 탭을 클릭하여 삭제할 데이터 센터를 선택합니다.
  3. 삭제를 클릭하여 데이터 센터 삭제 확인 창을 엽니다.
  4. OK를 클릭합니다.

3.5.5. 데이터 센터 강제 삭제

연결된 스토리지 도메인이 손상되어 있거나 호스트가 Non Responsive 상태일 경우 데이터 센터는 Non Responsive 상태가 됩니다. 이러한 상태에서는 데이터 센터를 삭제할 수 없습니다.
강제 삭제에는 활성 호스트가 필요하지 않습니다. 이는 연결된 스토리지 도메인도 영구적으로 삭제합니다.
데이터 센터를 강제 삭제하기 전 손상된 스토리지 도메인을 삭제해야 합니다.

절차 3.4. 데이터 센터 강제 삭제

  1. 데이터 센터 리소스 탭을 클릭하여 삭제할 데이터 센터를 선택합니다.
  2. 강제 삭제를 클릭하여 데이터 센터 강제 삭제 확인 창을 엽니다.
  3. 작업 승인 확인란을 선택합니다.
  4. OK를 클릭합니다.
데이터 센터 및 연결된 스토리지 도메인이 Red Hat Virtualization 환경에서 영구적으로 삭제됩니다.

3.5.6. 데이터 센터 호환 버전 변경

Red Hat Virtualization 데이터 센터에는 호환 버전이 있습니다. 호환 버전은 데이터 센터와 호환되는 Red Hat Virtualization 버전을 나타냅니다. 데이터 센터에 있는 모든 클러스터는 원하는 호환 수준을 지원해야 합니다.

참고

데이터 센터 호환 버전을 변경하려면 먼저 데이터 센터에 있는 모든 클러스터를 원하는 호환 수준을 지원하는 레벨로 업데이트해야 합니다.

절차 3.5. 데이터 센터 호환 버전 변경

  1. 관리 포털에서 데이터 센터 탭을 클릭합니다.
  2. 표시된 목록에서 변경하려는 데이터 센터를 선택합니다.
  3. 편집을 클릭합니다.
  4. 호환 버전을 원하는 값으로 변경합니다.
  5. OK를 클릭하여 데이터 센터 호환 버전 변경 확인 창을 엽니다.
  6. OK를 클릭하여 확인합니다.
데이터 센터의 호환 버전이 업데이트됩니다.

중요

호환성을 업그레이드하면 데이터 센터에 속한 모든 스토리지 도메인도 업그레이드됩니다.

3.6. 데이터 센터 및 스토리지 도메인

3.6.1. 데이터 센터에 기존 데이터 도메인 연결

연결 해제 데이터 도메인은 데이터 센터에 연결할 수 있습니다. 여러 유형 (iSCSI, NFS, FC, POSIX, Gluster)의 공유 스토리지 도메인은 동일한 데이터 센터에 추가할 수 있습니다.

절차 3.6. 데이터 센터에 기존 데이터 도메인 연결

  1. 데이터 센터 리소스 탭을 클릭하여 적절한 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 스토리지 탭을 선택하여 데이터 센터에 이미 연결된 스토리지 도메인 목록을 나열합니다.
  3. 데이터 연결을 클릭하여 스토리지 연결 창을 엽니다.
  4. 데이터 센터에 연결하려는 데이터 도메인의 확인란을 선택합니다. 확인란을 여러개 선택하여 여러 데이터 도메인을 연결할 수 있습니다.
  5. OK를 클릭합니다.
데이터 도메인이 데이터 센터에 연결되어 자동으로 활성화됩니다.

3.6.2. 데이터 센터에 기존 ISO 도메인 연결

연결 해제 ISO 도메인이 데이터 센터에 연결될 수 있습니다. ISO 도메인은 데이터 센터와 같은 스토리지 유형이어야 합니다.
하나의 ISO 도메인만 데이터 센터에 연결될 수 있습니다.

절차 3.7. 데이터 센터에 기존 ISO 도메인 연결

  1. 데이터 센터 리소스 탭을 클릭하여 해당하는 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 스토리지 탭을 선택하여 데이터 센터에 이미 연결된 스토리지 도메인 목록을 나열합니다.
  3. ISO 연결을 클릭하여 ISO 라이브러리 연결 창을 엽니다.
  4. 해당 ISO 도메인의 라디오 버튼을 클릭합니다.
  5. OK를 클릭합니다.
ISO 도메인이 데이터 센터에 연결되어 자동으로 활성화됩니다.

3.6.3. 기존 내보내기 도메인을 데이터 센터에 연결

참고

내보내기 스토리지 도메인은 사용되지 않습니다. 스토리지 데이터 도메인을 데이터 센터에서 분리한 후 같은 환경이나 다른 환경의 데이터 센터로 가져오기할 수 있습니다. 그 후에 가상 머신, 플로팅 가상 디스크 이미지, 그리고 템플릿을 가져오기한 스토리지 도메인에서 연결된 데이터 센터로 업로드할 수 있습니다. 스토리지 도메인을 가져오기하는 방법에 대한 자세한 내용은 7.6절. “기존 스토리지 도메인 가져오기”에서 참조하십시오.
연결 해제 내보내기 도메인은 데이터 센터에 연결할 수 있습니다. 하나의 내보내기 도메인만 데이터 센터에 연결할 수 있습니다.

절차 3.8. 기존 내보내기 도메인을 데이터 센터에 연결

  1. 데이터 센터 리소스 탭을 클릭하여 적절한 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 스토리지 탭을 선택하여 데이터 센터에 이미 연결된 스토리지 도메인 목록을 나열합니다.
  3. 내보내기 연결을 클릭하면 내보내기 도메인 연결 창이 열립니다.
  4. 해당 내보내기 도메인의 라디오 버튼을 클릭합니다.
  5. OK를 클릭합니다.
내보내기 도메인이 데이터 센터에 연결되어 자동으로 활성화됩니다.

3.6.4. 데이터 센터에서 스토리지 도메인 분리

데이터 센터에서 스토리지 도메인을 분리하면 스토리지 도메인에 연결된 데이터 센터가 중지합니다. 스토리지 도메인은 Red Hat Virtualization 환경에서 삭제되지 않고 이는 다른 데이터 센터에 연결할 수 있습니다.
가상 머신 및 템플릿과 같은 데이터는 스토리지 도메인에 연결된 상태로 남아 있습니다.

참고

마지막 사용 가능한 스토리지 도메인이 마스터 스토리지일 경우 이를 삭제할 수 없습니다.

절차 3.9. 데이터 센터에서 스토리지 도메인 분리

  1. 데이터 센터 리소스 탭을 클릭하여 해당하는 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 스토리지 탭을 선택하여 데이터 센터에 연결된 스토리지 도메인 목록을 나열합니다.
  3. 분리할 스토리지 도메인을 선택합니다. 스토리지 도메인이 Active 상태일 경우 유지 관리를 클릭하여 스토리지 도메인 유지 관리 확인 창을 엽니다.
  4. OK를 클릭하여 유지 관리 모드를 시작합니다.
  5. 분리를 클릭하여 스토리지 분리 확인창을 엽니다.
  6. OK를 클릭합니다.
데이터 센터에서 스토리지 도메인이 분리되었습니다. 스토리지 도메인이 상세 정보 창에서 몇 분 이내에 사라질 것입니다.

3.7. 데이터 센터 및 권한

3.7.1. 데이터 센터의 시스템 권한 관리

SuperUser로서 시스템 관리자는 관리 포털의 모든 면을 관리합니다. 보다 특정한 관리 역할은 다른 사용자에게 부여될 수 있습니다. 이러한 제한된 관리자 역할은 특정 리소스에 제한하여 사용자 관리 권할을 부여할 경우 유용합니다. 예를 들어 DataCenterAdmin 역할은 데이터 센터의 스토리지를 제외한 할당된 데이터 센터에 대해서만 관리자 권한을 갖으며 ClusterAdmin은 할당된 클러스터에 대해서만 관리자 권한을 갖습니다.
데이터 센터 관리자는 특정 데이터 센터에 대해서만 시스템 관리자 역할을 수행합니다. 이는 각 데이터 센터에 관리자가 필요한 여러 데이터 센터가 있는 가상화 환경의 경우 유용합니다. DataCenterAdmin 역할은 계층적 모델로 데이터 센터에 대해 데이터 센터 관리자 역할이 지정된 사용자가 데이터 센터 스토리지를 제외한 데이터 센터에 있는 모든 개체를 관리할 수 있습니다. 헤더 바에 있는 설정 버튼을 사용하여 가상화 환경의 모든 데이터 센터에 대해 데이터 센터 관리자를 지정합니다.
데이터 센터 관리자 역할은 다음과 같은 작업을 허용합니다:
  • 데이터 센터와 관련된 클러스터를 생성 및 삭제합니다.
  • 데이터 센터와 관련된 호스트, 가상 머신, 풀을 추가 및 삭제합니다.
  • 데이터 센터와 관련된 가상 머신의 사용자 권한을 편집합니다.

참고

기존 사용자에게만 역할 및 권한을 할당할 수 있습니다.
기존 시스템 관리자를 삭제하고 새로운 시스템 관리자를 추가하여 데이터 센터의 시스템 관리자를 변경할 수 있습니다.

3.7.2. 데이터 센터 관리자 역할

데이터 센터 권한이 있는 역할
아래 표에서는 데이터 센터 관리에 적용할 수 있는 관리자 역할 및 권한에 대해 설명합니다.

표 3.2. Red Hat Virtualization 시스템 관리자 역할

역할권한알림
DataCenterAdmin데이터 센터 관리자스토리지를 제외하고 클러스터, 호스트, 템플릿, 가상 머신을 포함하여 특정 데이터 센터에 있는 모든 물리적 및 가상 리소스를 사용, 생성, 삭제, 관리할 수 있습니다.
NetworkAdmin네트워크 관리자특정 데이터 센터의 네트워크를 설정 및 관리할 수 있습니다. 데이터 센터의 네트워크 관리자는 데이터 센터 내의 가상 머신에 대한 네트워크 권한을 상속합니다.

3.7.3. 리소스에 관리자 또는 사용자 역할 할당

리소스에 관리자 또는 사용자 역할을 할당하여 사용자가 리소스에 액세스 및 관리할 수 있게 합니다.

절차 3.10. 리소스에 역할 할당

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자, 사용자 역할, 선택한 리소스에 대해 상속된 권한을 나열합니다.
  3. 추가를 클릭합니다.
  4. 검색 텍스트 상자에 기존 사용자의 이름 또는 사용자 이름을 입력하고 검색을 클릭합니다. 검색 결과 목록에서 일치하는 사용자를 선택합니다.
  5. 할당된 역할: 드롭 다운 목록에서 역할을 선택합니다.
  6. OK를 클릭합니다.
사용자에게 역할이 할당되어 이제 사용자는 리소스에 대해 활성화된 역할에 상속된 권한을 갖습니다.

3.7.4. 리소스에서 관리자 또는 사용자 역할 삭제

리소스에서 관리자 또는 사용자 역할을 삭제합니다. 사용자는 리소스에서의 역할과 관련하여 상속된 권한을 손실합니다.

절차 3.11. 리소스에서 역할 삭제

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자 목록, 사용자 역할, 선택한 리소스에서 상속된 권한을 나열합니다.
  3. 리소스에서 삭제할 사용자를 선택합니다.
  4. 삭제를 클릭합니다. 권한 삭제 창이 열리면 권한 삭제를 확인합니다.
  5. OK를 클릭합니다.
리소스에서 사용자 역할 및 관련된 권한이 삭제됩니다.

4장. 클러스터

4.1. 클러스터에 대한 소개

클러스터는 동일한 스토리지 도메인을 공유하고 동일한 CPU 유형 (Intel 또는 AMD)을 갖는 호스트의 논리적 그룹입니다. 호스트의 CPU 모델 세대가 다른 경우 모든 모델에 있는 기능만 사용합니다.
시스템에 있는 각 클러스터는 하나의 데이터 센터에 속해 있어야 하며 시스템에 있는 각 호스트는 클러스터에 속해 있어야 합니다. 가상 머신은 클러스터 탭이나 런타임 시 설정 도구에 정의된 정책에 따라 클러스터에 있는 호스트에 동적으로 할당되어 이들 사이에서 마이그레이션할 수 있습니다. 클러스터는 최상위에 있으므로 전원 및 부하 공유 정책을 정의할 수 있습니다.
클러스터에 속한 호스트 수 및 가상 머신 수는 호스트 수가상 머신 수 아래의 결과 목록에 표시됩니다.
클러스터는 가상 머신 또는 Red Hat Gluster Storage Servers를 실행합니다. 이러한 두 가지 사용 용도는 상호 배타적이므로 하나의 단일 클러스터에서 가상화 및 스토리지 호스트를 동시에 지원할 수 없습니다.
Red Hat Virtualization은 설치 도중 기본 데이터 센터에 기본 클러스터를 생성합니다.
클러스터

그림 4.1. 클러스터

4.2. 클러스터 작업

4.2.1. 새 클러스터 생성

데이터 센터에는 여러 클러스터가 들어 있을 수 있으며 클러스터에는 여러 호스트가 들어 있을 수 있습니다. 클러스터에 있는 모든 호스트는 동일한 CPU 유형 (Intel 또는 AMD)으로 되어 있어야 합니다. CPU 유형을 최적화하기 위해 클러스터를 생성하기 전 호스트를 생성하는 것이 좋습니다. 하지만 가이드 버튼을 사용하여 나중에 호스트를 설정할 수 있습니다.

절차 4.1. 새 클러스터 생성

  1. 클러스터 리소스 탭을 선택합니다.
  2. 새로 만들기를 클릭합니다.
  3. 드롭 다운 목록에서 클러스터가 속할 데이터 센터를 선택합니다.
  4. 클러스터의 이름설명을 입력합니다.
  5. 관리 네트워크 드롭 다운 목록에서 네트워크를 선택하고 관리 네트워크 역할을 지정합니다.
  6. 드롭 다운 목록에서 CPU 아키텍처CPU 유형을 선택합니다. CPU 프로세스 제품군과 클러스터에 연결하고자 하는 호스트의 최소 CPU 프로세서 유형과 일치해야 합니다. 그렇지 않을 경우 호스트는 작동하지 않게 됩니다.

    참고

    Intel과 AMD CPU 유형 모두의 경우 CPU 모델은 오래된 것 부터 가장 최신의 논리적 순서로 나열됩니다. 클러스터에 다른 CPU 모델이 있는 호스트가 포함되어 있을 경우 오래된 CPU 모델을 선택합니다. 각 CPU 모델에 대한 보다 자세한 내용은 https://access.redhat.com/solutions/634853에서 참조하십시오.
  7. 드롭 다운 목록에서 클러스터의 호환 버전을 선택합니다.
  8. Virt 서비스 활성화 또는 Gluster 서비스 활성화 라디오 버튼을 선택하여 클러스터를 가상 머신 호스트 또는 Gluster 활성 노드로 배포할지 여부를 지정합니다. Red Hat Virtualization Host(RHVH)를 Gluster 활성 클러스터에 추가할 수 없음에 유의합니다.
  9. 가상 머신 유지 보수 이유 설정을 활성화 옵션을 선택하여 가상 머신이 Manager에서 종료 시 이유 설정 옵션을 사용하여 관리자가 유지 관리에 대한 설명을 제공할 수 있게 합니다.
  10. 호스트 유지 보수 이유 설정을 활성화 옵션을 선택하여 호스트가 Manager에서 유지 관리 모드로 전환 시 이유 설정 옵션을 사용하여 관리자가 유지 관리에 대한 설명을 제공할 수 있게 합니다.
  11. /dev/random source (Linux 제공 장치) 또는 /dev/hwrng source (외부 하드웨어 장치)란을 선택하여 클러스터에 있는 모든 호스트가 사용할 난수 생성기를 지정합니다.
  12. 최적화 탭을 클릭하여 클러스터의 메모리 페이지 공유 임계값을 선택하고 클러스터에 있는 호스트에서 CPU 스레드 처리 및 메모리 부울 옵션을 활성화합니다.
  13. 마이그레이션 정책 탭을 클릭하여 클러스터의 가상 머신 마이그레이션 정책을 지정합니다.
  14. 스케줄링 정책 탭을 클릭하여 스케줄링 정책 설정, 스케줄러 최적화 설정, 클러스터에 있는 호스트의 신뢰할 수 있는 서비스 활성화, HA 예약 활성화,사용자 정의 일련 번호 정책 추가와 같은 옵션을 설정합니다.
  15. 콘솔 탭을 클릭하여 글로벌 SPICE 프록시를 덮어쓰기하고 클러스터에 있는 호스트의 SPICE 프록시 주소를 지정합니다.
  16. 펜싱 정책 탭을 클릭하여 클러스터의 펜싱을 활성화 또는 비활성화하고 펜싱 옵션을 선택합니다.
  17. OK를 클릭하여 클러스터를 생성하고 새 클러스터 - 가이드 창을 엽니다.
  18. 가이드 창에는 클러스터 설정에 필요한 엔티티가 나열됩니다. 이러한 엔티티를 설정하거나 나중에 설정 버튼을 클릭하여 나중에 설정합니다. 설정을 다시 시작하려면 클러스터를 선택하고 가이드 버튼을 클릭합니다.
새 클러스터가 가상화 환경에 추가됩니다.

4.2.2. 새 클러스터 및 클러스터 편집 창 설정 및 제어

4.2.2.1. 일반 클러스터 설정

새 클러스터 창

그림 4.2. 새 클러스터 창

다음 표에서는 새 클러스터클러스터 편집 창에서 일반 탭을 설정하는 방법에 대해 설명합니다. OK를 클릭 시 잘못된 항목은 주황색으로 표시되고 변경 사항이 적용되지 않습니다. 또한 필드 프롬프트에는 값의 예상 값 또는 예상 값 범위가 표시됩니다.

표 4.1. 일반 클러스터 설정

필드
설명/동작
데이터 센터
데이터 센터에는 클러스터가 포함되어 있습니다. 데이터 센터는 클러스터를 추가하기 전에 생성해야 합니다.
이름
클러스터 이름입니다. 텍스트 필드는 최대 40 자로 제한되어 있으며 알파벳 대문자, 소문자, 숫자, 하이픈, 밑줄로 조합된 고유한 이름이어야 합니다.
설명 / 코멘트
클러스터 설명 또는 추가 알림 내용입니다. 이는 권장 사항이며 필수 입력 사항은 아닙니다.
관리 네트워크
관리 네트워크 역할을 할당할 논리 네트워크입니다. 기본값은 ovirtmgmt입니다. 기존 클러스터에서 관리 네트워크는 상세 정보 창에서 논리 네트워크 탭에 있는 네트워크 관리 버튼을 통해서만 변경될 수 있습니다.
CPU 아키텍처클러스터의 CPU 아키텍처입니다. 선택된 CPU 아키텍처에 따라 다른 CPU 유형을 사용할 수 있습니다.
  • 정의되지 않음: 모든 CPU 유형을 사용할 수 있습니다.
  • x86_64: 모든 Intel 및 AMD CPU 유형을 사용할 수 있습니다.
  • ppc64: IBM POWER 8 만을 사용할 수 있습니다.
CPU 유형
클러스터의 CPU 유형입니다. 다음 중 하나를 선택합니다:
  • Intel Conroe 제품군
  • Intel Penryn 제품군
  • Intel Nehalem 제품군
  • Intel Westmere 제품군
  • Intel SandyBridge 제품군
  • Intel Haswell
  • AMD Opteron G1
  • AMD Opteron G2
  • AMD Opteron G3
  • AMD Opteron G4
  • AMD Opteron G5
  • IBM POWER 8
클러스터에 있는 모든 호스트는 Intel, AMD, IBM POWER 8 CPU 유형 중 하나로 실행해야 합니다. 생성 후 변경할 경우 서비스가 중단될 수 있습니다. CPU 유형은 클러스터에서 가장 오래된 CPU 모델로 설정해야 합니다. 모든 모델에 있는 기능만 사용할 수 있습니다. Intel 및AMD CPU 유형의 경우 CPU 모델은 가장 오래된 것 부터 가장 최신의 논리적 순서로 나열됩니다.
호환성 버전
Red Hat Virtualization 버전입니다. 다음 중 하나를 선택합니다:
  • 3.6
  • 4.0
데이터 센터에 지정된 버전 보다 이전 버전을 선택할 수 없습니다.
Virt 서비스 활성화
라디오 버튼이 선택되어 있을 경우 클러스터에 있는 호스트는 가상 머신을 실행하는데 사용됩니다.
Gluster 서비스 활성화
라디오 버튼이 선택되어 있을 경우 클러스터에 있는 호스트는 Red Hat Gluster Storage Server 노드로 사용되고 가상 머신을 실행하지 않게 됩니다. Red Hat Virtualization Host를 이러한 옵션이 활성화된 클러스터에 추가할 수 없습니다.
기존 Gluster 설정 가져오기
다음 확인란은 Gluster 서비스 활성화 라디오 버튼이 선택되어 있을 경우에만 사용할 수 있습니다. 이 옵션을 통해 기존 Gluster 활성 클러스터 및 Red Hat Virtualization Manager에 연결된 모든 호스트를 가져올 수 있습니다.
다음 옵션은 가져오기할 클러스터에 있는 각 호스트에 필요합니다:
  • 주소: Gluster 호스트 서버의 IP 주소 또는 정규화된 도메인 이름을 입력합니다.
  • 지문: Red Hat Virtualization Manager는 호스트의 지문을 가져오기하여 올바른 호스트에 연결되어 있는지 확인합니다.
  • Root 암호: 호스트와 통신하는데 필요한 root 암호를 입력합니다.
가상 머신 유지 관리 이유 설정 활성화이 확인란이 선택되어 있는 경우 클러스터에 있는 가상 머신을 Manager에서 종료할 때 이유를 입력할 수 있는 필드가 표시됩니다. 이를 통해 유지 관리 이유를 입력하면 가상 머신 전원이 다시 켜졌을 때 로그에 표시됩니다.
호스트 유지 관리 이유 설정 활성화이 확인란이 선택되어 있는 경우 클러스터에 있는 호스트를 Manager에서 유지 관리 모드로 전환하면 이유를 입력할 수 있는 필드가 표시됩니다. 이를 통해 유지 관리 이유를 입력하면 호스트가 다시 활성화되었을 때 로그에 표시됩니다.
필요한 난수 생성기 소스:
다음 중 하나의 확인란이 선택되어 있을 경우 클러스터에 있는 모든 호스트는 해당 장치를 사용할 수 있어야 합니다. 이는 난수 생성기에서 가상 머신으로 엔트로피를 전달할 수 있습니다.
  • /dev/random source - Linux 지정 난수 생성기입니다.
  • /dev/hwrng source - 외부 하드웨어 생성기입니다.

4.2.2.2. 최적화 설정

메모리 페이지 공유로 가상 머신은 다른 가상 머신에 사용하지 않는 메모리를 활용하여 할당된 메모리의 최대 200% 까지 사용할 수 있습니다. 이 절차는 Red Hat Virtualization 환경에 있는 가상 머신이 동시에 전체 용량을 사용하지 않고 특정 가상 머신에 할당된 사용하지 않는 메모리를 임시적으로 사용할 수 있다는 것을 전제로 합니다.
CPU 스레드를 처리하여 호스트는 호스트에 있는 코어 수를 초과하는 총 프로세서 코어 수로 가상 머신을 실행할 수 있습니다. 이는 CPU 이외의 구성 요소를 많이 사용하는 작업에 유용하며 더 많은 가상 머신을 실행하여 하드웨어 요구 사항을 줄일 수 있습니다. 또한 게스트 코어 수가 호스트 코어 수와 호스트 스레드 수 사이의 값일 경우 이러한 기능이 없으면 불가능한 CPU 토폴로지로 가상 머신을 실행할 수 있습니다.
다음 표에서는 새 클러스터클러스터 편집 창에서 최적화 탭을 설정하는 방법에 대해 설명합니다.

표 4.2. 최적화 설정

필드
설명/동작
메모리 최적화
  • 없음 - 메모리 오버커밋을 비활성화: 메모리 페이지 공유를 비활성화합니다.
  • 서버용 로드 - 실제 메모리의 150%의 스케줄링을 허용: 각 호스트에서 시스템 메모리의 150%로 메모리 페이지 공유 임계값을 설정합니다.
  • 데스크톱용 로드 - 실제 메모리의 200%의 스케줄링을 허용: 각 호스트에서 시스템 메모리의 200%로 메모리 페이지 공유 임계값을 설정합니다.
CPU 스레드
스레드를 코어로 계산 확인란을 선택하여 호스트가 호스트에 있는 코어 수를 초과하는 총 프로세서 코어 수로 가상 머신을 실행합니다.
표시된 호스트 스레드는 코어로 처리되며 가상 머신에서 활용할 수 있습니다. 예를 들어 코어 당 2 개의 스레드가 있는 24 코어 시스템 (총 48 스레드)의 경우 각각 최대 48 코어로 가상 머신을 실행할 수 있으며 호스트 CPU 부하를 산출하는 알고리즘은 2 배의 사용 가능한 코어로 부하를 비교하게 됩니다.
메모리 Balloon
메모리 Balloon 최적화 활성화 확인란을 선택하여 클러스터에 있는 호스트에서 실행되는 가상 머신의 메모리 오버커밋을 활성화합니다. 이 옵션을 설정하면 MoM (Memory Overcommit Manager)은 각 가상 머신에 확보된 메모리 크리를 제한하여 메모리 ballooning을 시작합니다.
메모리 ballooning을 시작하려면 가상 머신에 적절한 드라이버와 함께 balloon 장치가 필요합니다. 각 가상 머신에는 삭제하지 않는 한 balloon 장치가 포함되어 있습니다. 이러한 클러스터에 있는 각 호스트는 클러스터가 상태가 Up으로 변경되면 balloon 정책 업데이트를 받을 수 있습니다. 필요한 경우 상태를 변경하지 않고 호스트에 있는 balloon 정책을 수동으로 업데이트할 수 있습니다. 보다 자세한 내용은 4.2.5절. “클러스터에 있는 호스트에서 MoM 정책 업데이트”에서 참조하십시오.
일부 시나리오에서는 메모리 ballooning으로 인해 KSM과 충돌할 수 있음을 이해하고 있어야 합니다. 이러한 경우 MoM은 충돌을 최소화하기 위해 balloon 크기를 조정하게 됩니다. 또한 일부 시나리오에서는 메모리 ballooning으로 인해 가상 머신의 성능이 최적화되지 않을 수 있습니다. 관리자는 신중하게 ballooning 최적화를 사용해야 합니다.
KSM 컨트롤
KSM 활성화 확인란을 선택하여 CPU 비용을 초과하는 메모리 저장에서 높은 혜택을 얻을 경우 MoM이 활성화하여 KSM (Kernel Same-page Merging)을 실행합니다.

4.2.2.3. 마이그레이션 정책 설정

마이그레이션 정책은 호스트 오류 시 가상 머신의 라이브 마이그레이션 조건을 지정합니다. 이러한 조건에는 마이그레이션 중 가상 머신의 다운 타임, 네트워크 대역폭, 그리고 가상 머신 우선순위 결정 방법 등이 있습니다.

표 4.3. 마이그레이션 정책

정책
설명
Legacy
3.6 버전의 레거시 동작입니다. vdsm.conf의 덮어쓰기는 여전히 적용됩니다. 게스트 에이전트 후크 메커니즘은 비활성화됩니다.
Minimal downtime
일반적인 상황에서 가상 머신 마이그레이션을 할 수 있게 해주는 정책입니다. 가상 머신의 다운 타임은 길지 않습니다. 가상 머신 마이그레이션이 오랫동안 (QEMU 반복에 따라 최대 500 밀리초까지) 수렴되지 않는 경우 마이그레이션이 중단됩니다. 게스트 에이전트 후크 메커니즘은 활성화됩니다.
Suspend workload if needed
대부분의 상황에서 가상 머신 마이그레이션을 할 수 있게 해주는 정책이며, 가상 머신이 많은 작업량을 실행하는 경우를 포함합니다. 가상 머신의 다운 타임이 길 수 있습니다. 최대 부하 시 마이그레이션이 중단될 수도 있습니다. 게스트 에이전트 후크 메커니즘은 활성화됩니다.
대역폭 설정은 각 호스트에서 나가고 들어오는 모든 마이그레이션의 최대 대역폭을 지정합니다.

표 4.4. 대역폭

정책
설명
Auto
데이터 센터 호스트 네트워크 QoS속도 제한 [Mbps] 설정에서 대역폭이 복사됩니다. 제한 속도를 설정하지 않은 경우 네트워크 인터페이스의 송수신 최소 연결 속도로 계산됩니다. 제한 속도가 설정되지 않고 사용 가능한 연결 속도가 없는 경우 제한 속도는 보내는 호스트의 로컬 VDSM 설정에 따라 결정됩니다.
Hypervisor default
대역폭은 보내는 호스트의 로컬 VDSM 설정에 따라 결정됩니다.
Custom
사용자가 지정합니다. (단위: Mbps)
복구 정책은 마이그레이션 시 가상 머신의 우선순위 결정 방법을 지정합니다.

표 4.5. 복구 정책 설정

필드
설명/동작
가상 머신을 마이그레이션함
가상 머신을 설정된 우선순위 순서대로 마이그레이션합니다.
고가용성 가상 머신만 마이그레이션
고가용성 가상 머신만 마이그레이션하여 다른 호스트가 오버로딩되지 않게 합니다.
가상 머신은 마이그레이션 하지 않음
가상 머신이 마이그레이션되지 않게 합니다.
추가 속성Legacy 마이그레이션 정책의 경우에만 적용됩니다.

표 4.6. 추가 속성

속성
설명
마이그레이션 자동 통합
가상 머신의 라이브 마이그레이션 중 자동 컨버전스를 사용할지에 대한 여부를 설정합니다. 워크로드가 큰 대형 가상 머신은 라이브 마이그레이션 중 전송 속도 보다 더 빠르게 더티 메모리 상태가 되어 마이그레이션을 컨버전스하지 못하게 합니다. QEMU의 자동 컨버전스 기능을 통해 가상 머신 마이그레이션 컨버전스를 강제할 수 있습니다. QEMU는 자동으로 컨버전스되지 않음을 감지하고 가상 머신에 있는 vCPU의 스로틀을 감소시킵니다. 자동 컨버전스는 전역에서 기본값으로 비활성화되어 있습니다.
  • 글로벌 설정에서 가져오기를 선택하여 전역 수준에서 설정되는 자동 컨버전스 설정을 사용합니다.
  • 자동 통합을 선택하여 전역 설정을 덮어쓰기하고 가상 머신의 자동 통합을 허용합니다.
  • 자동 통합 해제를 선택하여 전역 설정을 덮어쓰기하고 가상 머신이 자동 통합되지 않도록 합니다.
마이그레이션 압축 활성화
이 옵션을 통해 가상 머신의 라이브 마이그레이션 중 마이그레이션 압축을 사용하도록 설정할 수 있습니다. 이 기능은 Xor Binary Zero Run-Length-Encoding을 사용하여 가상 머신 다운 타임 및 집약적 메모리 쓰기 작업을 실행하는 가상 머신이나 스파스 메모리 업데이트 패턴이 있는 애플리케이션의 총 라이브 마이그레이션 시간을 단축할 수 있습니다. 마이그레이션 압축은 전역에서 기본값으로 비활성화되어 있습니다.
  • 글로벌 설정에서 가져오기를 선택하여 전역 수준에서 설정되는 압축 설정을 사용합니다. 이 옵션은 기본값으로 선택되어 있습니다.
  • 압축을 선택하여 전역 설정을 덮어쓰기하고 가상 머신의 압축을 허용합니다.
  • 압축 해제를 선택하여 전역 설정을 덮어쓰기하고 가상 머신이 압축되지 않도록 합니다.

4.2.2.4. 스케줄링 정책 설정

스케줄링 정책을 사용하여 사용 가능한 호스트 간의 가상 머신 사용 및 배포를 지정할 수 있습니다. 클러스터에 있는 호스트에서 자동으로 부하 분산을 조정할 수 있도록 스케줄링 정책을 지정합니다.
기존 클러스터에 스케줄링 정책을 추가하기 위해 클러스터 탭 클릭 후 편집 버튼을 클릭하고 스케줄링 정책 탭을 클릭합니다.
스케줄링 정책 설정: vm_evenly_distributed

그림 4.3. 스케줄링 정책 설정: vm_evenly_distributed

다음 표에서는 스케줄링 정책 탭 설정에 대해 설명합니다.

표 4.7. 스케줄링 정책 탭 속성

필드
설명/동작
정책 선택
드롭 다운 목록에서 정책을 선택합니다.
  • none: 정책 값을 none으로 설정하여 호스트 간에 부하 분산 및 전원 공유를 할 수 없게 됩니다. 이는 기본 모드입니다.
  • evenly_distributed: 클러스터에 있는 모든 호스트에 메모리 및 CPU 처리 부하를 균등하게 분산합니다. 호스트가 지정된 최대 서비스 레벨에 도달했을 경우 호스트에 연결된 추가 가상 머신을 시작할 수 없게 됩니다.
  • InClusterUpgrade: 호스트 운영 체제 버전을 바탕으로 가상 머신을 분배합니다. 현재 가상 머신이 실행중인 운영 체제 버전 이후 버전의 운영 체제를 가진 호스트가 같은 운영 체제를 가진 호스트보다 우선순위가 주어집니다. 더 새로운 운영 체제를 가진 호스트로 마이그레이션한 가상 머신은 이전 버전의 운영 체제로 돌아가지 않습니다. 가상 머신은 클러스터의 모든 호스트에서 재시작 가능합니다. 해당 정책을 통해 클러스터 호스트가 혼합된 운영 체제 버전을 가져도 업그레이드될 수 있습니다. 사전 조건이 충족되어야 해당 정책을 활성화할 수 있습니다. 더 자세한 정보는 Upgrade Guide를 참조하십시오.
  • power_saving: 사용률이 낮은 호스트의 전원 소비를 감소하기 위해 사용가능한 호스트의 서브 세트에서 메모리 및 CPU 처리 부하를 분산합니다. 지정된 시간 간격 보다 길게 사용량의 하한치 이하에 있는 호스트 CPU 부하는 모든 가상 머신을 다른 호스트로 마이그레이션하므로 전원을 끌 수 있습니다. 호스트가 지정된 사용량 상한치에 도달할 경우 호스트에 연결된 추가 가상 머신은 시작되지 않습니다.
  • vm_evenly_distributed: 가상 머신 수에 따라 가상 머신을 균등하게 호스트로 분배합니다. 호스트가 HighVmCount 보다 많은 가상 머신을 실행하고 있고 가상 머신 수에서 최소 하나의 호스트가 MigrationThreshold 범위 밖에 있을 경우 클러스터는 불균형 상태로 간주됩니다.
속성
다음 속성은 선택한 정책에 따라 표시되며 필요에 따라 수정할 수 있습니다:
  • HighVmCount: 각 호스트에서 실행할 수 있는 최대 가상 머신 수를 설정합니다. 제한을 초과하면 호스트는 과부하 상태가 됩니다. 기본값은 10입니다.
  • MigrationThreshold: 가상 머신이 호스트에서 마이그레이션되기 전 버퍼를 정의합니다. 이는 사용률이 가장 높은 호스트와 사용률이 가장 낮은 호스트 간의 최대 가상 머신 수 차이 값입니다. 클러스터의 모든 호스트에 있는 가상 머신 수가 마이그레이션 임계값 내에 있는 경우 클러스터는 균형 상태가 됩니다. 기본값은 5입니다.
  • SpmVmGrace: SPM 호스트에 예약된 가상 머신 용 슬롯 수를 정의합니다. SPM 호스트는 다른 호스트 보다 부하가 낮기 때문에 이러한 변수는 호스트 이외에 얼마나 적은 수의 가상 머신을 실행할 수 있는지를 정의합니다. 기본값은 5입니다.
  • CpuOverCommitDurationMinutes: 스케줄링 정책이 적용되기 전 호스트가 정의된 사용 값 밖에서 CPU 부하를 실행할 수 있는 시간 (분 단위)을 설정합니다. 시간 간격을 정의하여 일시적 CPU 부하 스파이크로 인한 스케줄링 정책 활성화 및 불필요한 가상 머신 마이그레이션이 발생하지 않게 합니다. 최대 2 자리 수 까지로 합니다. 기본값은 2입니다.
  • HighUtilization: 백분율로 표시합니다. 호스트가 지정된 시간 동안 상한치 이상의 CPU 사용량을 실행할 경우 Red Hat Virtualization Manager는 호스트의 CPU 부하가 최대 상한 임계값 이하로 될 때 까지 클러스터에 있는 다른 호스트로 가상 머신을 마이그레이션합니다. 기본값은 80입니다.
  • LowUtilization: 백분율로 표시합니다. 호스트가 지정된 시간 동안 하한치 이하의 CPU 사용량을 실행할 경우 Red Hat Virtualization Manager는 클러스터에 있는 다른 호스트에 가상 머신을 마이그레이션합니다. Manager 는 원래 호스트 머신의 전원을 종료하고 부하 분산이 필요하거나 클러스터에서 여유 호스트가 충분하지 않을 경우 호스트를 다시 시작합니다. 기본값은 20입니다.
  • ScaleDown: 호스트 값을 지정된 값으로 나누기하여 HA 예약 가중 함수의 영향을 줄입니다. 이는 none을 포함하여 정책에 추가할 수 있는 옵션 속성입니다.
  • HostsInReserve: 실행 중인 가상 머신이 없어도 계속 실행할 호스트 수를 지정합니다. 이는 power_saving 정책에 추가할 수 있는 옵션 속성입니다.
  • EnableAutomaticHostPowerManagement: 클러스터에 있는 모든 호스트의 자동 전원 관리를 활성화합니다. 이는 power_saving 정책에 추가할 수 있는 옵션 속성입니다. 기본 값은 true입니다.
  • MaxFreeMemoryForOverUtilized: 최소 서비스 레벨에 필요한 최대 여유 메모리를 MB로 표시합니다. 호스트 메모리 사용량이 이 값과 같거나 더 높은 경우 Red Hat Virtualization Manager는 해당 호스트의 사용 가능한 메모리가 최소 서비스 임계값 아래로 떨어질 때까지 클러스터의 다른 호스트로 가상 머신을 마이그레이션합니다. MaxFreeMemoryForOverUtilizedMinFreeMemoryForUnderUtilized 값을 모두 0 MB로 설정하는 경우 memory based balancing이 비활성화됩니다. 이것은 power_savingevenly_distributed 정책에 추가될 수 있는 속성 옵션입니다.
  • MinFreeMemoryForUnderUtilized: 호스트 사용률이 낮은 것으로 간주되는 최소 가용 메모리를 MB로 표시합니다. 호스트의 메모리 사용률이 해당 값 이하로 내려가는 경우 Red Hat Virtualization Manager는 클러스터에 있는 다른 호스트에 가상 머신을 마이그레이션하고 호스트 머신의 전원을 종료하며, 부하 분산이 필요하거나 클러스터에서 여유 호스트가 충분하지 않을 경우 호스트를 다시 시작합니다. MaxFreeMemoryForOverUtilizedMinFreeMemoryForUnderUtilized 값을 모두 0 MB로 설정하는 경우 memory based balancing이 비활성화됩니다. 이것은 power_savingevenly_distributed 정책에 추가될 수 있는 속성 옵션입니다.
스케줄러 최적화
호스트 가중치/순서 스케줄링을 최적화합니다.
  • 사용률 최적화: 스케줄링에 가중치 모듈을 포함되어 최적 선택이 가능합니다.
  • 속도 최적화: 10 개 이상의 대기 중인 요청이 있을 경우 호스트의 가중치를 건너뜁니다.
신뢰할 수 있는 서비스 활성화
OpenAttestation 서버와의 통합을 활성화합니다. 이를 활성화하기 전 engine-config 도구를 사용하여 OpenAttestation 서버 정보를 입력합니다. 자세한 정보는 9.4절. “신뢰할 수 있는 컴퓨팅 풀”을 참조하십시오.
HA 예약 활성화
Manager를 활성화하여 고가용성 가상 머신 용 클러스터 용량을 모니터링합니다. Manager는 기존 호스트에서 예기치 않은 오류 발생 시 마이그레이션을 위해 고가용성으로 지정된 가상 머신의 클러스터내에 적절한 용량을 보유하도록 합니다.
사용자 정의 일련 번호 정책 지정
이 확인란에서 클러스터에 있는 가상 머신의 일련 번호 정책을 지정합니다. 다음 옵션 중 하나를 선택합니다:
  • 호스트 ID: 가상 머신의 일련 번호로 호스트의 UUID를 설정합니다.
  • 가상 머신 ID: 가상 머신의 일련 번호로 가상 머신의 UUID를 설정합니다.
  • 사용자 정의 일련 번호: 사용자 정의 일련 번호를 지정할 수 있습니다.
마이그레이션 자동 컨버전스
이 옵션을 통해 클러스터에 있는 가상 머신의 라이브 마이그레이션 중 자동 컨버전스를 사용할 지에 대한 여부를 설정합니다. 워크로드가 큰 대형 가상 머신은 라이브 마이그레이션 중 전송 속도 보다 더 빠르게 더티 메모리 상태가 되어 마이그레이션을 컨버전스하지 못하게 합니다. QEMU의 자동 컨버전스 기능을 통해 가상 머신 마이그레이션 컨버전스를 강제할 수 있습니다. QEMU는 자동으로 컨버전스되지 않음을 감지하고 가상 머신에 있는 vCPU의 스로틀을 감소시킵니다. 자동 컨버전스는 전역에서 기본값으로 비활성화되어 있습니다.
  • 전역 설정에서 상속을 선택하여 engine-config로 전역 수준에 설정되는 자동 컨버전스 설정을 사용합니다. 이 옵션은 기본값으로 선택되어 있습니다.
  • 자동 컨버전스를 선택하여 전역 설정을 덮어쓰기하고 클러스터에 있는 가상 머신의 자동 컨버전스를 허용합니다.
  • 자동 컨버전스하지 않음을 선택하여 전역 설정을 덮어쓰기하고 클러스터에 있는 가상 머신을 자동 컨버전스하지 않습니다.
마이그레이션 압축 활성화
이 옵션을 통해 클러스터에 있는 가상 머신의 라이브 마이그레이션 동안 마이그레이션 압축을 사용할 지에 대한 여부를 설정할 수 있습니다. 이 기능은 Xor Binary Zero Run-Length-Encoding을 사용하여 가상 머신 다운 타임 및 집약적 메모리 쓰기 작업을 실행하는 가상 머신이나 메모리 스파스 메모리 업데이트 패턴이 있는 애플리케이션의 총 라이브 마이그레이션 시간을 단축할 수 있습니다. 마이그레이션 압축은 전역에서 기본값으로 비활성화되어 있습니다.
  • 전역 설정에서 상속을 선택하여 engine-config으로 전역 수준에 설정된 압축 설정을 사용합니다. 이 옵션은 기본값으로 선택되어 있습니다.
  • 압축을 선택하여 전역 설정을 덮어쓰기하고 클러스터에 있는 가상 머신의 압축을 허용합니다.
  • 압축하지 않음을 선택하여 전역 설정을 덮어쓰기하고 클러스터에 있는 가상 머신을 압축하지 않도록 합니다.
호스트의 여유 메모리가 20% 미만으로 감소하면 mom.Controllers.Balloon - INFO Ballooning guest:half1 from 1096400 to 1991580과 같은 부울 명령이 /var/log/vdsm/mom.log에 기록됩니다. /var/log/vdsm/mom.log는 Memory Overcommit Manager 로그 파일입니다.

4.2.2.5. 클러스터 콘솔 설정

다음 표에서는 새 클러스터클러스터 편집 창에서 콘솔 탭을 설정하는 방법에 대해 설명합니다.

표 4.8. 콘솔 설정

필드
설명/동작
클러스터의 SPICE 프록시 정의
이 옵션을 선택하여 전체 설정에 지정된 SPICE 프록시 덮어쓰기를 활성화할 수 있습니다. 이 기능은 하이퍼바이저가 있는 네트워크 외부에 사용자 (예를 들어 사용자 포털을 통해 연결된 사용자)가 연결되어 있을 경우에 유용합니다.
SPICE 프록시 주소 덮어쓰기
SPICE 클라이언트는 가상 머신에 연결된 프록시입니다. 주소는 다음과 같은 형식으로 지정해야 합니다:
protocol://[host]:[port]

4.2.2.6. 펜싱 정책 설정

다음 표에서는 새 클러스터클러스터 편집 창에서 펜싱 정책 탭을 설정하는 방법에 대해 설명합니다.

표 4.9. 펜싱 정책 설정

필드설명/동작
펜싱 활성화클러스터에서 펜싱을 활성화합니다. 펜싱은 기본값으로 활성화되어 있지만 필요에 따라 비활성화할 수 있습니다. 예를 들어 일시적 네트워크 오류가 발생하거나 발생될 것으로 예상되는 경우 관리자는 진단 또는 유지 보수 작업이 완료될 때까지 펜싱을 비활성화할 수 있습니다. 펜싱이 비활성화되어 있을 경우 Non-Responsive 상태에 있는 호스트에서 실행 중인 고가용성 가상 머신은 다른 호스트에서 다시 시작되지 않음에 유의합니다.
호스트가 스토리지에서 유효한 임대를 가지고 있을 경우 펜싱 건너뛰기이 확인란이 선택되어 있을 경우 클러스터에 있는 Non Responsive 상태의 모든 호스트 및 아직 스토리지에 연결되어 있는 호스트는 펜싱되지 않습니다.
클러스터 연결 문제가 있는 경우 펜싱 건너 뛰기이 확인란이 선택되어 있을 경우 클러스터에서 연결 문제가 있는 호스트 비율이 지정된 임계값과 동일하거나 그 이상일 경우 펜싱은 일시적으로 비활성화됩니다. 임계값은 드롭 다운 목록에서 선택하며 사용 가능한 값은 25, 50, 75, 100 입니다.

4.2.3. 리소스 편집

요약
리소스 속성을 편집합니다.

절차 4.2. 리소스 편집

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 편집을 클릭하여 편집 창을 엽니다.
  3. 필요한 속성을 변경하고 OK를 클릭합니다.
결과
새로운 속성이 리소스에 저장됩니다. 속성 필드가 잘못되어 있을 경우 편집 창은 닫히지 않습니다.

4.2.4. 클러스터에 있는 호스트의 전원 관리 정책 및 부하 설정

evenly_distributedpower_saving 스케줄링 정책을 통해 허용 가능한 메모리 및 CPU 사용률 값과 호스트에서 가상 머신을 마이그레이션해야 할 시점을 지정할 수 있습니다. vm_evenly_distributed 스케줄링 정책은 가상 머신 수에 따라 호스트에 가상 머신을 균등하게 분배합니다. 클러스터에 있는 호스트에서 자동 부하 균형 분산을 활성화하기 위한 스케줄링 정책을 정의합니다. 각 스케줄링 정책에 대한 자세한 내용은 4.2.2.4절. “스케줄링 정책 설정”에서 확인하십시오.

절차 4.3. 호스트의 전원 관리 정책 및 부하 설정

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 클러스터를 검색 및 선택합니다.
  2. 편집을 클릭하여 클러스터 창을 엽니다.
    스케줄링 정책 편집

    그림 4.4. 스케줄링 정책 편집

  3. 다음 정책 중 하나를 선택합니다:
    • none
    • vm_evenly_distributed
      1. 각 호스트에서 실행할 수 있는 최대 가상 머신 수를 HighVmCount 필드에 설정합니다.
      2. 가장 많이 사용되는 호스트의 가상 머신 수와 가장 적게 사용되는 호스트의 가상 머신 수 사이에서 허용 가능한 최대 차이를MigrationThreshold 필드에 정의합니다.
      3. SpmVmGrace 필드에 SPM 호스트에 저장된 가상 머신 용 슬롯 수를 지정합니다.
    • evenly_distributed
      1. CpuOverCommitDurationMinutes 필드에서 스테줄링 정책이 작동하기 전 호스트가 지정된 사용량 밖에서 CPU 부하를 실행할 수 있는 시간 (분 단위)을 설정합니다.
      2. CPU 사용량(백분율)이 얼마가 되면 가상 머신이 다른 호스트로 마이그레이션을 시작하는지 해당 백분율을 HighUtilization 필드에 입력합니다.
      3. 최소 가용 메모리가 얼마가 되면 가상 머신이 다른 호스트로 마이그레이션을 시작하는지 해당 값을 MB로 MinFreeMemoryForUnderUtilized 필드에 입력합니다.
      4. 최대 가용 메모리가 얼마가 되면 가상 머신이 다른 호스트로 마이그레이션을 시작하는지 해당 값을 MB로 MaxFreeMemoryForOverUtilized 필드에 입력합니다.
    • power_saving
      1. CpuOverCommitDurationMinutes 필드에서 스테줄링 정책이 작동하기 전 호스트가 지정된 사용량 밖에서 CPU 부하를 실행할 수 있는 시간 (분 단위)을 설정합니다.
      2. CPU 사용량(백분율)이 얼마 이하로 내려가면 호스트가 충분히 사용되고 있지 않은 것으로 간주되는지 해당 하한값을 백분율로LowUtilization 필드에 입력합니다.
      3. CPU 사용량(백분율)이 얼마가 되면 가상 머신이 다른 호스트로 마이그레이션을 시작하는지 해당 백분율을 HighUtilization 필드에 입력합니다.
      4. 최소 가용 메모리가 얼마가 되면 가상 머신이 다른 호스트로 마이그레이션을 시작하는지 해당 값을 MB로 MinFreeMemoryForUnderUtilized 필드에 입력합니다.
      5. 최대 가용 메모리가 얼마가 되면 가상 머신이 다른 호스트로 마이그레이션을 시작하는지 해당 값을 MB로 MaxFreeMemoryForOverUtilized 필드에 입력합니다.
  4. 클러스터의 스케줄러 최적화로 다음 중 하나를 선택합니다:
    • 사용 최적화를 선택하면 스케줄링에 가중치 모듈을 포함되어 최상의 선택이 가능합니다.
    • 속도 최적화를 선택하면 10 개 이상의 대기 중인 요청이 있을 경우 호스트의 가중치를 건너뜁니다.
  5. OpenAttestation 서버를 사용하여 호스트를 검사하고 engine-config 도구를 사용하여 서버 상세 정보를 설정하려면 신뢰할 수 있는 서비스 사용란을 선택합니다.
  6. 옵션으로 HA 예약을 활성화란을 선택하여 Manager가 고가용성 가상 머신 용 클러스터 용량을 모니터할 수 있게 합니다.
  7. 옵션으로 사용자 정의 일련 번호 정책 지정란을 선택하여 클러스터에 있는 가상 머신의 일련 번호 정책을 지정하고 다음 옵션 중 하나를 선택합니다:
    • 가상 머신의 일련 번호로 호스트의 UUID를 설정하기 위해 호스트 ID를 선택합니다.
    • 가상 머신의 일련 번호로 가상 머신의 UUID를 설정하기 위해 가상머신 ID를 선택합니다.
    • 사용자 정의 일련 번호를 선택하고 텍스트 필드에 사용자 정의 일련 번호를 지정합니다.
  8. OK를 클릭합니다.

4.2.5. 클러스터에 있는 호스트에서 MoM 정책 업데이트

MoM (Memory Overcommit Manager)는 호스트에서 메모리 balloon 및 KSM 기능을 처리합니다. 클러스터 수준에서 이러한 기능을 변경하면 호스트를 재부팅하거나 유지 보수 모드에서 Up 상태로 전환한 때에만 호스트에 전달됩니다. 하지만 필요에 따라 호스트가 Up 상태일 때에 MoM 정책을 동기화하여 주요 변경 사항을 호스트에 바로 적용할 수 있습니다. 다음 절차는 각 호스트에서 개별적으로 실행해야 합니다.

절차 4.4. 호스트에서 MoM 정책 동기화

  1. 클러스터 탭을 클릭하고 호스트가 속해 있는 클러스터를 선택합니다.
  2. 상세 정보 창에서 호스트 탭을 클릭하고 MoM 정책을 업데이트해야 하는 호스트를 선택합니다.
  3. MoM 정책 동기화 버튼을 클릭합니다.
호스트에서 MoM 정책은 호스트를 유지 보수 모드로 전환하거나 Up 상태로 되돌릴 필요 없이 업데이트됩니다.

4.2.6. CPU 프로파일

CPU 프로파일은 클러스터의 가상 머신이 이를 실행하는 호스트에서 액세스할 수 있는 처리 가능한 최대 용량을 정의하며 호스트에서 사용 가능한 총 용량의 백분율로 표시합니다. CPU 프로파일은 데이터 센터 아래에 정의된 CPU 프로파일에 기반하여 생성되며 클러스터에 있는 모든 가상 머신에 자동으로 적용되지 않습니다. 따라서 적용하려면 프로파일에 대한 각각의 가상 머신에 수동으로 지정해야 합니다.

4.2.6.1. CPU 프로파일 생성

CPU 프로파일을 생성합니다. 다음 부분에서는 클러스터가 속한 데이터 센터 아래에 하나 이상의 CPU QoS 항목이 이미 정의되어 있음을 전제로 합니다.

절차 4.5. CPU 프로파일 생성

  1. 클러스터 리소스 탭을 클릭하고 클러스터를 선택합니다.
  2. 상세 정보 창에서 CPU 프로파일 하위 탭을 클릭합니다.
  3. 새로 만들기를 클릭합니다.
  4. 이름 란에 CPU 프로파일 이름을 입력합니다.
  5. 설명 란에 CPU 프로파일 설명을 입력합니다.
  6. QoS 목록에서 CPU 프로파일에 적용할 QoS를 선택합니다.
  7. OK를 클릭합니다.
CPU 프로파일이 생성되었습니다. CPU 프로파일은 클러스터에 있는 가상 머신에 적용할 수 있습니다.

4.2.6.2. CPU 프로파일 삭제

Red Hat Virtualization 환경에서 기존 CPU 프로파일을 삭제합니다.

절차 4.6. CPU 프로파일 삭제

  1. 클러스터 리소스 탭을 클릭하고 클러스터를 선택합니다.
  2. 상세 정보 창에서 CPU 프로파일 하위 탭을 클릭합니다.
  3. 삭제하고자 하는 CPU 프로파일을 선택합니다.
  4. 삭제를 클릭합니다.
  5. OK를 클릭합니다.
CPU 프로파일이 삭제되어 CPU 프로파일을 더이상 사용할 수 없습니다. CPU 프로파일이 가상 머신에 지정되어 있을 경우 이러한 가상 머신에는 자동으로 default CPU 프로파일이 지정됩니다.

4.2.7. 기존의 Red Hat Gluster Storage 클러스터 가져오기

Red Hat Gluster Storage 클러스터와 클러스터에 속한 모든 호스트를 Red Hat Virtualization Manager에 가져오기할 수 있습니다.
클러스터에 있는 IP 주소 또는 호스트 이름, 호스트 암호와 같은 정보를 제공할 때 SSH를 통해 gluster peer status 명령을 호스트에서 실행하면 클러스터의 일부인 호스트 목록이 표시됩니다. 수동으로 각 호스트의 지문을 확인하고 암호를 제공해야 합니다. 클러스터에 있는 호스트 중 하나가 중지되어 있거나 연결할 수 없는 경우 클러스터를 가져올 수 없습니다. 새로 가져온 호스트에는 VDSM이 설치되어 있지 않지만 가져오기한 후 부트스트랩 스크립트는 호스트에 필요한 모든 VDSM 패키지를 설치한 후 이를 재부팅합니다.

절차 4.7. 기존 Red Hat Gluster Storage Cluster를 Red Hat Virtualization Manager에 가져오기

  1. 클러스터 리소스 탭을 선택하여 결과 목록에 모든 클러스터를 나열합니다.
  2. 새로 만들기 버튼을 클릭하여 새 클러스터 창을 엽니다.
  3. 드롭 다운 메뉴에서 클러스터가 속한 데이터 센터를 선택합니다.
  4. 클러스터의 이름설명을 입력합니다.
  5. 클러스터 서비스 활성화 라디오 버튼 및 기존 클러스터 설정 가져오기 체크 상자를 선택합니다.
    기존 Gluster 설정 가져오기 필드는 Gluster 서비스 활성화 라디오 버튼을 선택한 경우에만 표시됩니다.
  6. 주소 필드에 클러스터에 있는 서버의 IP 주소 또는 호스트 이름을 입력합니다.
    호스트 지문이 표시되어 올바른 호스트와 연결되어 있는지 확인합니다. 호스트가 도달할 수 없거나 네트워크 오류가 있을 경우 지문 검색 중 오류 발생 메세지가 지문 필드에 표시됩니다.
  7. 서버의 Root 암호를 입력하고 OK를 클릭합니다.
  8. 호스트 추가 창이 열리면 클러스터의 일부분인 호스트 목록이 표시됩니다.
  9. 각 호스트에 대해 이름Root 암호를 입력합니다.
  10. 모든 호스트에 대해 동일한 암호를 사용하고자 할 경우 일반 암호 사용 확인란을 선택하여 지정된 텍스트 필드에 암호를 입력합니다.
    적용 버튼을 클릭하여 입력된 암호를 모든 호스트에 설정합니다.
    OK를 클릭하여 지문이 유효한지 확인하고 변경 사항을 제출합니다.
호스트를 가져오기한 후 부트스트랩 스크립트는 호스트에 필요한 모든 VDSM 패키지를 설치하고 재부팅됩니다. 기존 Red Hat Gluster Storage 클러스터를 Red Hat Virtualization Manager에 성공적으로 가져왔습니다.

4.2.8. 호스트 추가 창 설정

호스트 추가 창을 통해 Gluster-활성 클러스터의 일부분으로 가져오기할 호스트의 상세 정보를 지정할 수 있습니다. 이 창은 새 클러스터 창에 있는 Gluster 서비스 활성화 확인란을 선택한 후 필요한 호스트 정보를 입력한 후에 나타납니다.

표 4.10. Gluster 호스트 설정 추가

필드설명
공통 암호 사용클러스터에 속한 모든 호스트에 대해 동일한 암호를 사용하려면 이 체크 박스를 선택합니다. 암호란에 암호를 입력한 후 적용 버튼을 클릭하면 모든 호스트에 암호가 설정됩니다.
성명호스트 이름을 입력합니다.
호스트 이름/IP이 필드는 새 클러스터 창에 지정한 호스트의 정규화된 도메인 이름 또는 IP로 자동 입력됩니다.
Root 암호각 호스트에 다른 root 암호를 사용하려면 이 필드에 암호를 입력합니다. 이 필드는 클러스터에 있는 모든 호스트에 지정된 공통 암호를 덮어쓰기합니다.
지문 올바른 호스트와 연결되어 있는지 확인하기 위해 호스트 지문이 표시됩니다. 이 필드는 새 클러스터 창에 지정된 호스트의 지문으로 자동 입력됩니다.

4.2.9. 클러스터 삭제

요약
클러스터를 삭제하기 전 클러스터에서 모든 호스트를 이동합니다.

참고

Default 클러스터에 Blank 템플릿이 있기 때문에 이를 삭제할 수 없습니다. Default 클러스터의 이름을 변경하고 새로운 데이터 센터에 추가할 수 있습니다.

절차 4.8. 클러스터 삭제

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 클러스터를 검색 및 선택합니다.
  2. 클러스터에 호스트가 없는지 확인합니다.
  3. 삭제를 클릭하면 클러스터 삭제 확인 창이 열립니다.
  4. OK를 클릭합니다.
결과
클러스터가 삭제됩니다.

4.2.10. 클러스터 호환 버전 변경

Red Hat Virtualization 클러스터에는 호환 버전이 있습니다. 클러스터 호환 버전은 클러스터에 있는 모든 호스트에 의해 지원되는 Red Hat Virtualization 기능을 표시합니다. 클러스터 호환성은 클러스터에서 최소 사용 가능한 호스트 운영 체제 버전에 따라 설정됩니다.

참고

클러스터 호환 버전을 변경하려면 먼저 클러스터에 있는 모든 호스트를 원하는 호환 수준을 지원하는 레벨로 업데이트해야 합니다.

절차 4.9. 클러스터 호환 버전 변경

  1. 관리 포털에서 클러스터 탭을 클릭합니다.
  2. 목록에서 변경할 클러스터를 선택합니다.
  3. 편집을 클릭합니다.
  4. 호환 버전을 원하는 값으로 변경합니다.
  5. OK를 클릭하여 클러스터 호환 버전 변경 확인 창을 엽니다.
  6. OK를 클릭하여 확인합니다.
클러스터의 호환 버전이 업데이트됩니다. 데이터 센터에 있는 모든 클러스터의 호환 버전을 업데이트한 후 데이서 센터 자체의 호환 버전을 변경할 수 있습니다.

중요

호환성을 업그레이드하면 데이터 센터에 속한 모든 스토리지 도메인도 업그레이드됩니다.

4.3. 클러스터 및 권한

4.3.1. 클러스터의 시스템 권한 관리

SuperUser로서 시스템 관리자는 관리 포털의 모든 면을 관리합니다. 보다 특정한 관리 역할은 다른 사용자에게 부여될 수 있습니다. 이러한 제한된 관리자 역할은 특정 리소스에 제한하여 사용자 관리 권할을 부여할 경우 유용합니다. 예를 들어 DataCenterAdmin 역할은 데이터 센터의 스토리지를 제외한 할당된 데이터 센터에 대해서만 관리자 권한을 갖으며 ClusterAdmin은 할당된 클러스터에 대해서만 관리자 권한을 갖습니다.
클러스터 관리자는 특정 데이터 센터에 대해서만 시스템 관리자 역할을 수행합니다. 이는 각 클러스터에 시스템 관리자가 필요한 여러 클러스터가 있는 데이터 센터의 경우 유용합니다. ClusterAdmin 역할은 계층적 모델로 클러스터에 대해 클러스터 관리자 역할이 지정된 사용자가 클러스터에 있는 모든 개체를 관리할 수 있습니다. 헤더 바에 있는 설정 버튼을 사용하여 환경의 모든 클러스터에 대해 클러스터 관리자를 지정합니다.
클러스터 관리자 역할을 사용하여 다음과 같은 작업을 실행할 수 있습니다:
  • 관련된 클러스터를 생성 및 삭제합니다.
  • 클러스터와 관련된 호스트, 가상 머신, 풀을 추가 및 삭제합니다.
  • 클러스터와 관련된 가상 머신의 사용자 권한을 편집합니다.

참고

기존 사용자에게만 역할 및 권한을 할당할 수 있습니다.
기존 시스템 관리자를 삭제하고 새로운 시스템 관리자를 추가하여 클러스터의 시스템 관리자를 변경할 수 있습니다.

4.3.2. 클러스터 관리자 역할

클러스터 권한이 있는 역할
아래 표에서는 클러스터 관리에 적용할 수 있는 관리자 역할 및 권한에 대해 설명합니다.

표 4.11. Red Hat Virtualization 시스템 관리자 역할

역할권한알림
ClusterAdmin클러스터 관리자
호스트 , 템플릿, 가상 머신을 포함하여 특정 클러스터에 있는 모든 물리 및 가상 리소스를 사용, 생성, 삭제, 관리할 수 있습니다. 디스플레이 네트워크를 지정하거나 필요 또는 불필요에 따라 네트워크를 표시하는 등 클러스터 내의 네트워크 속성을 설정할 수 있습니다.
하지만 ClusterAdmin은 클러스터에서 네트워크를 연결 또는 분리할 수 있는 권한이 없습니다. 이러한 작업을 실행하려면 NetworkAdmin 권한이 있어야 합니다.
NetworkAdmin네트워크 관리자특정 클러스터의 네트워크를 설정 및 관리할 수 있습니다. 클러스터의 네트워크 관리자는 클러스터 내의 가상 머신에 대한 네트워크 권한을 상속합니다.

4.3.3. 리소스에 관리자 또는 사용자 역할 할당

리소스에 관리자 또는 사용자 역할을 할당하여 사용자가 리소스에 액세스 및 관리할 수 있게 합니다.

절차 4.10. 리소스에 역할 할당

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자, 사용자 역할, 선택한 리소스에 대해 상속된 권한을 나열합니다.
  3. 추가를 클릭합니다.
  4. 검색 텍스트 상자에 기존 사용자의 이름 또는 사용자 이름을 입력하고 검색을 클릭합니다. 검색 결과 목록에서 일치하는 사용자를 선택합니다.
  5. 할당된 역할: 드롭 다운 목록에서 역할을 선택합니다.
  6. OK를 클릭합니다.
사용자에게 역할이 할당되어 이제 사용자는 리소스에 대해 활성화된 역할에 상속된 권한을 갖습니다.

4.3.4. 리소스에서 관리자 또는 사용자 역할 삭제

리소스에서 관리자 또는 사용자 역할을 삭제합니다. 사용자는 리소스에서의 역할과 관련하여 상속된 권한을 손실합니다.

절차 4.11. 리소스에서 역할 삭제

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자 목록, 사용자 역할, 선택한 리소스에서 상속된 권한을 나열합니다.
  3. 리소스에서 삭제할 사용자를 선택합니다.
  4. 삭제를 클릭합니다. 권한 삭제 창이 열리면 권한 삭제를 확인합니다.
  5. OK를 클릭합니다.
리소스에서 사용자 역할 및 관련된 권한이 삭제됩니다.

5장. 논리 네트워크

5.1. 논리 네트워크 작업

5.1.1. 네트워크 탭 사용

네트워크 리소스 탭은 각 네트워크의 속성이나 다른 리소스와의 연결에 기반하여 논리 네트워크 관련 작업 및 검색을 수행하기 위한 중앙 지점입니다.
Red Hat Virtualization 환경의 모든 논리 네트워크는 네트워크 탭의 결과 목록에 표시됩니다. 새로 만들기, 편집, 삭제 버튼을 사용하여 데이터 센터 내의 논리 네트워크 생성, 속성 변경, 삭제 등과 같은 작업을 수행할 수 있습니다.
각각의 네트워크 이름을 클릭하고 상세 정보 창에 있는 클러스터, 호스트, 가상 머신, 템플릿, 권한 탭을 사용하여 다음과 같은 기능을 수행합니다:
  • 클러스터 및 호스트에 네트워크를 연결 또는 분리
  • 가상 머신 및 템플릿에서 네트워크 인터페이스 삭제
  • 네트워크 액세스 및 관리를 위해 사용자 권한 추가 및 삭제
이러한 기능은 각각의 개별 리소스 탭을 통해 액세스할 수 있습니다.

주의

호스트가 실행 중일 때 데이터 센터 또는 클러스터에 있는 네트워크를 변경할 경우 호스트에 연결되지 않을 수 있으므로 네트워크를 변경하지 않습니다.

중요

Red Hat Virtualization 노드를 사용하여 서비스를 제공하고자 할 경우 Red Hat Virtualization 환경을 실행 중지할 경우 서비스도 중지됨에 유의합니다.
이는 모든 서비스에 적용되지만 Red Hat Virtualization에서 다음과 같은 서비스를 실행하는 경우 위험한 요소가 수반될 수 있습니다:
  • 디렉토리 서비스
  • DNS
  • 스토리지

5.1.2. 데이터 센터 또는 클러스터에 새 논리 네트워크 생성

데이터 센터 또는 데이터 센터에 있는 클러스터에 논리 네트워크를 생성하고 사용 용도를 정의합니다.

절차 5.1. 데이터 센터 또는 클러스터에 새 논리 네트워크 생성

  1. 데이터 센터 또는 클러스터 리소스 탭을 클릭하고 검색 결과 목록에서 데이터 센터 또는 클러스터를 선택합니다.
  2. 상세 정보 창의 논리 네트워크 탭을 클릭하여 기존 논리 네트워크를 나열합니다.
    • 데이터 센터 상세 정보 창에서 새로 만들기 버튼을 클릭하여 새 논리 네트워크 창을 엽니다.
    • 클러스터 상세 정보 창에서 네트워크 추가를 클릭하여 새 논리 네트워크 창을 엽니다.
  3. 논리 네트워크의 이름, 설명, 코멘트를 입력합니다.
  4. 옵션으로 외부 공급자에 생성 확인란을 선택합니다. 드롭 다운 목록에서 외부 공급자를 선택하고 물리 네트워크의 IP 주소를 지정합니다. 외부 공급자 드롭 다운 목록에는 읽기 전용 모드의 외부 공급자가 표시되지 않습니다.
    외부 공급자에 생성이 선택되어 있을 경우 네트워크 레이블, 가상 머신 네트워크, MTU 옵션은 비활성화됩니다.
  5. 네트워크 레이블 텍스트 필드에서 논리 네트워크에 새로운 레이블을 입력하거나 기존 레이블을 선택합니다.
  6. 옵션으로 VLAN 태그 활성화를 활성화합니다.
  7. 옵션으로 가상 머신 네트워크를 비활성화합니다.
  8. MTU 값을 기본 (1500) 또는 사용자 정의로 설정합니다.
  9. 클러스터 탭에서 네트워크를 지정할 클러스터를 선택합니다. 논리 네트워크를 필수 네트워크로 할 지에 대한 여부를 지정할 수 있습니다.
  10. 외부 공급자에 생성을 선택한 경우 서브넷 탭이 표시됩니다. 서브넷 탭에서 서브넷 생성을 선택하고 논리 네트워크가 제공하는 서브넷의 이름, CIDR, 게이트웨이 주소를 입력하고 IP 버전을 선택합니다. 필요에 따라 DNS 서버를 추가할 수 있습니다.
  11. vNIC 프로파일 탭에서 필요에 따라 논리 네트워크에 vNIC 프로파일을 추가합니다.
  12. OK를 클릭합니다.
데이터 센터에 클러스터에 필요한 리소스로 논리 네트워크가 정의됩니다. 논리 네트워크에 레이블을 지정한 경우 해당 레이블이 붙은 모든 호스트 네트워크 인터페이스에 레이블이 자동으로 추가됩니다.

참고

새 논리 네트워크를 생성하거나 디스플레이 네트워크로 사용되는 기존 논리 네트워크를 변경할 경우 네트워크가 사용 가능하게 되기 전이나 변경 사항을 적용하기 전 해당 네트워크를 사용하는 실행 중인 가상 머신을 재부팅해야 합니다.

5.1.3. 논리 네트워크 편집

논리 네트워크 설정을 편집합니다.

절차 5.2. 논리 네트워크 편집

중요

논리 네트워크가 호스트 상의 네트워크 설정과 동기화되어 있지 않은 경우 논리 네트워크는 편집하거나 다른 인터페이스로 이동할 수 없습니다. 네트워크 동기화 방법은 5.5.2절. “호스트 네트워크 인터페이스 편집 및 호스트에 논리 네트워크 할당”에서 참조하십시오.
  1. 데이터 센터 리소스 탭을 클릭하고 검색 결과 목록에서 논리 네트워크의 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 논리 네트워크 탭을 클릭하여 데이터 센터에 논리 네트워크 목록을 나열합니다.
  3. 논리 네트워크를 선택하고 편집을 클릭하여 논리 네트워크 편집 창을 엽니다.
  4. 필요한 설정을 편집합니다.
  5. OK를 클릭하여 변경 사항을 저장합니다.

참고

멀티 호스트 네트워크 설정은 네트워크가 할당된 데이터 센터 내에 있는 모든 호스트에 업데이트된 네트워크 설정을 자동으로 적용합니다. 네트워크를 사용하는 가상 머신이 정지 상태일 경우에만 변경 사항을 적용할 수 있습니다. 이미 호스트에 설정된 논리 네트워크 이름을 변경할 수 없습니다. 네트워크를 사용하는 가상 머신이나 템플릿이 실행되는 동안 가상 머신 네트워크 옵션을 비활성화할 수 없습니다.

5.1.4. 논리 네트워크 삭제

네트워크 리소스 탭 또는 데이터 센터 리소스 탭에서 논리 네트워크를 삭제할 수 있습니다. 다음 절차에서는 데이터 센터와 관련된 논리 네트워크를 삭제하는 방법에 대해 설명합니다. Red Hat Virtualization 환경의 경우 ovirtmgmt 관리 네트워크로 사용되는 최소 하나의 논리 네트워크가 있어야 합니다.

절차 5.3. 논리 네트워크 삭제

  1. 데이터 센터 리소스 탭을 클릭하고 검색 결과 목록에서 논리 네트워크의 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 논리 네트워크 탭을 클릭하여 데이터 센터에 논리 네트워크 목록을 나열합니다.
  3. 논리 네트워크를 선택하고 삭제 버튼을 클릭하여 논리 네트워크 삭제 창을 엽니다.
  4. 네트워크가 외부 공급자에 의해 제공되는 경우 옵션으로 공급자에서 외부 네트워크 삭제 확인란을 선택하여 Manager 및 외부 공급자 모두에서 논리 네트워크를 삭제합니다. 외부 공급자가 읽기 전용 모드인 경우 확인란이 회색으로 표시되어 사용할 수 없습니다.
  5. OK를 클릭합니다.
논리 네트워크가 Manager에서 삭제되어 더 이상 사용할 수 없습니다.

5.1.5. 논리 네트워크의 게이트웨이 표시 또는 편집

사용자는 논리 네트워크의 IP 주소 및 서브넷 마스크와 함께 게이트웨이를 정의할 수 있습니다. 이는 호스트에 여러 네트워크가 존재할 때 기본 게이트웨이 대신 지정된 네트워크를 통해 트래픽을 라우팅해야 할 경우 필요합니다.
호스트에 여러 네트워크가 존재하여 게이트웨이가 정의되어 있지 않을 경우 반환 트래픽은 게이트웨이를 통해 라우팅되어 원하는 대상에 도달하지 않을 수 있습니다. 이로 인해 사용자는 호스트를 ping할 수 없습니다.
Red Hat Virtualization은 인터페이스 상태가 up 또는 down으로 될 때 마다 여러 게이트웨이를 자동으로 처리합니다.

절차 5.4. 논리 네트워크의 게이트웨이 표시 또는 편집

  1. 호스트 리소스 탭을 클릭하여 원하는 호스트를 선택합니다.
  2. 상세 정보 창에서 네트워크 인터페이스 탭을 클릭하여 호스트 및 호스트 설정에 연결된 네트워크 인터페이스를 나열합니다.
  3. 호스트 네트워크 설정 버튼을 클릭하여 호스트 네트워크 설정 창을 엽니다.
  4. 할당된 논리 네트워크 위에 커서를 이동하고 연필 모양의 아이콘을 클릭하여 관리 네트워크 편집 창을 엽니다.
관리 네트워크 편집 창에 네트워크 이름, 부팅 프로토콜, IP, 서브넷 마스크, 게이트웨이 주소가 표시됩니다. 정적 부팅 프로토콜을 선택하여 주소 정보를 수동으로 편집할 수 있습니다.

5.1.6. 새 논리 네트워크 및 논리 네트워크 편집 창 설정 및 제어

5.1.6.1. 논리 네트워크의 일반 설정에 대한 설명

다음 표에서는 새 논리 네트워크논리 네트워크 편집 창의 일반 탭 설정에 대해 설명합니다.

표 5.1. 새 논리 네트워크논리 네트워크 편집

필드 이름
설명
이름
논리 네트워크의 이름입니다. 텍스트 필드는 최대 15자로 제한되어 있으며 알파벳 대문자, 소문자, 숫자, 하이픈, 밑줄로 조합된 고유한 이름이어야 합니다.
설명
논리 네트워크의 설명입니다. 이 텍스트 필드는 최대 40 자로 제한되어 있습니다.
코멘트
논리 네트워크 관련 일반 텍스트 형식의 사용자가 읽을 수 있는 코멘트를 추가하기 위한 필드입니다.
외부 공급자에 생성
외부 공급자로 Manager에 추가된 OpenStack Networking 인스턴스에 논리적 네트워크를 생성할 수 있습니다.
외부 공급자 - 논리 볼륨이 생성될 외부 공급자를 선택할 수 있습니다.
VLAN 태그 활성화
VLAN 태그는 논리 네트워크에서 모든 네트워크 트래픽에 특정 특성을 지정하는 보안 기능입니다. VLAN 태그가 붙은 트래픽은 동일한 특성을 가는 인터페이스에서 읽을 수 없습니다. 논리 네트워크에서 VLAN 을 사용하면 하나의 네트워크 인터페이스를 VLAN 태그가 붙은 여러 다른 논리 네트워크에 연결할 수 있습니다. VLAN 태그를 사용하려면 텍스트 입력 필드에 숫자를 입력합니다.
가상 머신 네트워크
가상 머신만 네트워크를 사용하는 경우 이 옵션을 선택합니다. 네트워크가 가상 머신에 관련 없이 스토리지 용 통신과 같은 트래픽에 사용되는 경우 이를 선택하지 마십시오.
MTU
기본을 선택하여 논리 네트워크의 최대 전송 단위 (MTU: Maximum Transmission Unit)를 괄호 안의 값으로 설정하거나 사용자 지정을 선택하여 사용자 지정 MTU를 설정합니다. 이를 사용하여 새 논리 네트워크가 지원하는 MTU 값과 인터페이스 연결하는 하드웨어가 지원하는 MTU 값을 적용할 수 있습니다. 사용자 지정을 선택한 경우 텍스트 입력 필드에 숫자를 입력합니다.
네트워크 레이블
네트워크의 새 레이블을 지정하거나 호스트 네트워크 인터페이스에 이미 연결된 기존 레이블에서 선택하여 지정할 수 있습니다. 기존 레이블을 선택한 경우 논리 네트워크는 레이블된 전체 호스트 네트워크 인터페이스에 자동으로 할당됩니다.

5.1.6.2. 논리 네트워크 클러스터 설정

다음 표에서는 새 논리 네트워크 창의 클러스터 탭 설정에 대해 설명합니다.

표 5.2. 새 논리 네트워크 설정

필드 이름
설명
클러스터에서 네트워크를 연결/분리
데이터 센터에 있는 클러스터에서 논리 네트워크를 연결 또는 분리할 수 있으며 개별 클러스터의 네트워크에 논리 네트워크가 필요한지에 대한 여부를 지정할 수 있습니다.
이름 - 설정을 적용할 클러스터 이름입니다. 이 값은 편집할 수 없습니다.
모두 연결 - 데이터 센터에 있는 모든 클러스터에서 논리 네트워크를 연결 또는 분리할 수 있습니다. 다른 방법으로 각각의 클러스터 이름 옆에 있는 연결 확인란을 선택 또는 선택 해제하여 지정된 클러스터에서 논리 네트워크를 연결 또는 분리할 수 있습니다.
모두 필수 - 모든 클러스터에서 논리 네트워크가 필수 네트워크인지의 여부를 지정할 수 있습니다. 다른 방법으로 각각의 클러스터 이름 옆에 있는 필수 확인란을 선택 또는 선택 해제하여 지정된 클러스터에서 논리 네트워크가 필수 항목인지의 여부를 지정할 수 있습니다.

5.1.6.3. 논리 네트워크의 vNIC 프로파일 설정

다음 표에서는 새 논리 네트워크 창의 vNIC 프로파일 탭 설정에 대해 설명합니다.

표 5.3. 새 논리 네트워크 설정

필드 이름
설명
vNIC 프로파일
논리 네트워크에 하나 이상의 vNIC 프로파일을 지정할 수 있습니다. vNIC 프로파일 옆의 플러스 또는 마이너스 버튼을 클릭하여 논리 네트워크에 vNIC 프로파일을 추가하거나 삭제할 수 있습니다.
공개 - 프로파일을 모든 사용자가 사용할 수 있는지에 대한 여부를 지정할 수 있습니다.
QoS - vNIC 프로파일에 네트워크 QoS (quality of service) 프로파일을 지정할 수 있습니다.

5.1.7. 네트워크 관리 창에서 논리 네트워크에 특정 트래픽 유형을 지정

네트워크 트래픽 흐름을 최적화하기 위해 논리 네트워크의 트래픽 유형을 지정합니다.

절차 5.5. 논리 네트워크의 트래픽 유형 지정

  1. 클러스터 리소스 탭을 클릭하고 결과 목록에서 클러스터를 선택합니다.
  2. 상세 정보 창에서 논리 네트워크 탭을 선택하여 클러스터에 할당된 논리 네트워크를 나열합니다.
  3. 네트워크 관리를 클릭하여 네트워크 관리 창을 엽니다.
    The Manage Networks window

    그림 5.1. 네트워크 관리

  4. 해당 확인란을 선택합니다.
  5. OK를 클릭하여 변경 사항을 저장하고 창을 닫습니다.
특정 논리 네트워크에 전송할 특정 트래픽 유형을 지정하여 네트워크 트래픽 흐름이 최적화됩니다.

참고

외부 공급자가 제공하는 논리 네트워크는 가상 머신 네트워크로 사용해야 하며 디스플레이 또는 마이그레이션과 같은 특정 클러스터 역할을 할당할 수 없습니다.

5.1.8. 네트워크 관리 창 설정

다음 표에서는 네트워크 관리 창 설정에 대해 설명합니다.

표 5.4. 네트워크 관리 설정

필드
설명/동작
할당
클러스터에 있는 모든 호스트에 논리 네트워크를 할당합니다.
필수
네트워크에 연결된 호스트가 제대로 작동하려면 "필수"로 표시된 네트워크를 작동하는 상태로 두어야 합니다. 필수 네트워크가 작동을 중단하는 경우 네트워크에 연결된 모든 호스트는 비 작동 상태가 됩니다.
가상 머신 네트워크
"가상 머신 네트워크"로 표시된 논리 네트워크는 가상 머신 네트워크와 관련된 네트워크 트래픽을 전송합니다.
디스플레이 네트워크
"디스플레이 네트워크"로 표시된 논리 네트워크는 SPICE 및 가상 네트워크 컨트롤러와 관련된 네트워크 트래픽을 전송합니다.
마이그레이션 네트워크
"마이그레이션 네트워크"로 표시된 논리 네트워크는 가상 머신 및 스토리지 마이그레이션 트래픽을 전송합니다.

5.1.9. NIC에서 VF (Virtual Function) 설정 편집

SR-IOV(Single Root I/O Virtualization)를 통해 단일 PCIe 끝점이 여러 개별 장치로 사용될 수 있습니다. 이를 위해 두 개의 PCIe 기능인 물리적 기능(PF)과 가상 기능(VF)을 도입합니다. PCIe 카드는 1개에서 8개 사이의 PF를 가질 수 있지만 각 PF은 장치에 따라 더 많은 VF를 지원합니다.
Red Hat Virtualization Manager를 사용해서 각 네트워크 인터페이스 컨트롤러(NIC)에 있는 VF의 수와 해당 VF에 액세스가 허용된 가상 네트워크 지정 등 SR-IOV가 가능한 NIC 설정을 편집합니다.
VF 생성 후 각 VF은 독립형 NIC로 취급됩니다. 하나 이상의 논리 네트워크가 할당될 수 있으며, 해당 네트워크와 결합 인터페이스 생성이 가능하며, 직접 장치 통과를 위해 네트워크에 직접적으로 vNIC를 지정할 수 있습니다.
vNIC는 통과 속성이 활성화되어 있어야 VF에 직접 연결할 수 있습니다. 5.2.4절. “vNIC 프로파일 통과(passthrough) 활성화”를 참조하시기 바랍니다.

절차 5.6. NIC에서 VF (Virtual Function) 설정 편집

  1. SR-IOV가 가능한 호스트를 선택하고 상세 정보 창에서 네트워크 인터페이스 탭을 클릭합니다.
  2. 호스트 네트워크 설정을 클릭하여 호스트 네트워크 설정 창을 엽니다.
  3. 로 표시된 SR-IOV가 가능한 NIC를 선택하고 연필 모양의 아이콘을 클릭하여 NICVF (SR-IOV) 설정 편집 창을 엽니다.
  4. VF 설정 수 드롭 다운 버튼을 클릭하고 VF 수 필드를 수정해서 VF의 수를 편집합니다.

    중요

    VF 수량 변경 시 네트워크에 있는 기존 VF가 모두 삭제된 후 새 VF가 생성됩니다. 여기에는 가상 머신이 직접 연결된 VF도 모두 포함됩니다.
  5. 전체 네트워크 체크 상자가 기본으로 선택되어 모든 네트워크에서 VF에 액세스할 수 있습니다. VF 액세스가 허용된 가상 네트워크를 지정하려면 특정 네트워크 라디오 버튼을 선택해서 모든 네트워크를 나열합니다. 원하는 네트워크의 체크 상자를 선택하거나 레이블 텍스트 영역을 사용해서 하나 이상의 네트워크 레이블을 바탕으로 자동으로 네트워크를 선택합니다.
  6. OK 버튼을 클릭하여 창을 닫습니다. 호스트 네트워크 설정 창의 OK 버튼을 클릭해야 변경 사항이 저장됩니다.

5.2. 가상 네트워크 인터페이스 카드

5.2.1. vNIC 프로파일 개요

vNIC (Virtual Network Interface Card) 프로파일은 Manager에 있는 개별 가상 네트워크 인터페이스 카드에 적용할 수 있는 설정 모음입니다. vNIC 프로파일을 통해 vNIC에 네트워크 QoS 프로파일을 적용하여 포트 미러링을 활성화 또는 비활성화하거나 사용자 정의 속성을 추가 또는 삭제할 수 있습니다. 또한 vNIC 프로파일을 통해 이러한 프로파일을 사용 (소비)할 수 있는 권한을 특정 사용자에게 부여하는 것과 같이 관리적 유연성을 증가시킬 수 있습니다. 이로 인해 지정된 네트워크에서 다른 사용자에게 제공되는 서비스의 품질을 제어할 수 있습니다.

5.2.2. vNIC 프로파일 생성 또는 편집

사용자 및 그룹의 네트워크 대역폭을 조정하려면 vNIC (Virtual Network Interface Controller) 프로파일을 생성 또는 편집합니다.

참고

포트 미러링이 활성화 또는 비활성화되어 있을 경우 연결된 프로파일을 사용하는 모든 가상 머신은 편집 전 중지 (down) 상태가 되어야 합니다.

절차 5.7. vNIC 프로파일 생성 또는 편집

  1. 네트워크 리소스 탭을 클릭하여 결과 창에 있는 논리 네트워크를 선택합니다.
  2. 상세 정보 창에서 vNIC 프로파일 탭을 선택합니다. 트리 모드에서 논리 네트워크를 선택한 경우 결과 목록에서 vNIC 프로파일 탭을 선택할 수 있습니다.
  3. 새로 만들기 또는 편집을 클릭하여 가상 머신 인터페이스 프로파일 창을 엽니다.
    The VM Interface Profile window

    그림 5.2. 가상 머신 인터페이스 프로파일 창

  4. 프로파일의 이름설명을 입력합니다.
  5. QoS 목록에서 적절한 QoS 정책을 선택합니다.
  6. 통과 체크 상자를 선택하여 vNIC 통과(passthrough)를 활성화하고 VF의 직접 장치 할당을 허용합니다. 통과 속성을 활성화 시 이와 호환되지 않는 QoS 및 포트 미러링이 비활성화됩니다. 통과에 대한 자세한 내용은 5.2.4절. “vNIC 프로파일 통과(passthrough) 활성화”를 참조하십시오.
  7. 포트 미러링모든 사용자가 이 프로파일을 사용하도록 허용 확인란에서 이러한 옵션을 변환합니다.
  8. 기본값으로 키를 선택하십시오...가 표시되는 사용자 정의 속성 목록에서 사용자 정의 속성을 선택합니다. +- 버튼을 사용하여 사용자 정의 속성을 추가 또는 삭제합니다.
  9. OK를 클릭합니다.
vNIC 프로파일이 생성되었습니다. 이 프로파일을 사용자 및 그룹에 적용하여 네트워크 대역폭을 조정합니다. vNIC 프로파일을 편집한 경우 가상 머신을 다시 시작하거나 핫 플러그를 해제한 후 vNIC를 핫플러그합니다.

참고

게스트 운영 체제가 vNIC 핫플러그와 핫 언플러그를 지원해야 합니다.

5.2.3. 가상 머신 인터페이스 프로파일 창 설정

표 5.5. 가상 머신 인터페이스 프로파일 창

필드 이름
설명
네트워크
vNIC 프로파일을 적용하기 위한 사용 가능한 네트워크의 드롭 다운 메뉴입니다.
이름
vNIC 프로파일 이름입니다. 1에서 50 자 사이의 알파벳 대소문자, 숫자, 하이픈, 밑줄로 조합된 고유한 이름이어야 합니다.
설명
vNIC 프로파일 설명입니다. 이는 권장 사항이며 필수 입력 사항은 아닙니다.
QoS
vNIC 프로파일에 적용할 사용 가능한 네트워크 QoS (Quality of Service) 정책의 드롭 다운 메뉴입니다. QoS 정책은 vNIC의 인바운드 및 아웃바운드 네트워크 트래픽을 조절합니다.
Passthrough
통과(passthrough) 속성을 토글하는 체크 상자입니다. 통과는 vNIC가 호스트 NIC의 가상 기능에 직접 연결이 가능하게 합니다. vNIC 프로파일이 가상 머신에 연결되어 있는 경우 통과 속성이 편집될 수 없습니다.
통과 활성화 시 vNIC 프로파일에 QoS 및 포트 미러링이 비활성화됩니다.
포트 미러링
포트 미러링을 전환하기 위한 확인란입니다. 포트 미러링은 논리 네트워크에 있는 레이어 3 네트워크 트래픽을 가상 머신 상의 가상 인터페이스에 복사합니다. 이는 기본값으로 선택 설정되어 있지 않습니다. 보다 자세한 내용은 Technical Reference에 있는 Port Mirroring에서 확인하십시오.
장치 사용자 정의 속성
vNIC 프로파일에 적용할 사용 가능한 사용자 정의 속성을 선택하기 위한 드롭 다운 메뉴입니다. +- 버튼을 사용하여 속성을 추가 또는 삭제합니다.
모든 사용자가 이 프로파일을 사용하도록 허용
환경에 있는 모든 사용자에게 프로파일의 사용 가능 여부를 전환하기 위한 확인란입니다. 이는 기본값으로 선택 설정되어 있습니다.

5.2.4. vNIC 프로파일 통과(passthrough) 활성화

vNIC 프로파일의 통과 속성을 이용하여 SR-IOV가 가능한 NIC의 VF에 vNIC가 직접 연결될 수 있습니다. vNIC가 소프트웨어 네트워크 가상화를 우회해서 VF에 직접 연결해서 직접 장치 할당을 합니다.
vNIC 프로파일이 이미 vNIC에 연결된 경우 통과 속성이 활성화될 수 없습니다. 이를 방지하기 위해 해당 절차를 통해 새 프로파일이 생성됩니다. vNIC 프로파일에 통과가 활성화된 경우 해당 프로파일의 QoS 및 포트 미러링이 비활성화됩니다.
SR-IOV, 직접 장치 할당, 그리고 이를 Red Hat Virtualization에 구현하는 데 필요한 하드웨어에 대한 자세한 정보는 Hardware Considerations for Implementing SR-IOV을(를) 참조하십시오.

절차 5.8. 통과 활성화

  1. 네트워크 결과 목록에서 논리 네트워크 선택 후 상세 정보 창에서 vNIC 프로파일 탭을 클릭해서 해당 논리 네트워크의 모든 vNIC 프로파일을 나열합니다.
  2. 새로 만들기를 클릭하여 가상 머신 인터페이스 프로파일 창을 엽니다.
  3. 프로파일의 이름설명을 입력합니다.
  4. 통과 체크 상자를 선택합니다. QoS포트 미러링이 비활성화됩니다.
  5. 필요한 경우 기본값으로 키를 선택하십시오...가 표시되는 사용자 정의 속성 목록에서 사용자 정의 속성을 선택합니다. +- 버튼을 사용하여 사용자 정의 속성을 추가 또는 삭제합니다.
  6. OK를 클릭하여 프로파일을 저장하고 창을 닫습니다.
vNIC 프로파일이 통과 가능합니다. 해당 프로파일을 사용해서 가상 머신을 NIC 또는 PCI VF에 직접 연결하기 위해 논리 네트워크를 NIC에 연결하고 해당 통과 vNIC 프로파일을 사용하는 가상 머신에 새로운 vNIC를 생성합니다. 각각의 절차에 대한 자세한 정보는 Virtual Machine Management Guide5.5.2절. “호스트 네트워크 인터페이스 편집 및 호스트에 논리 네트워크 할당”Adding a New Network Interface를 참조하시기 바랍니다.

5.2.5. vNIC 프로파일 삭제

가상화 환경에서 vNIC 프로파일을 삭제합니다.

절차 5.9. vNIC 프로파일 삭제

  1. 네트워크 리소스 탭을 클릭하여 결과 창에 있는 논리 네트워크를 선택합니다.
  2. 상세 정보 창에서 프로파일 탭을 선택하여 사용 가능한 vNIC 프로파일을 표시합니다. 트리 모드에서 논리 네트워크를 선택한 경우 결과 목록에서 VNIC 프로파일 탭을 선택할 수 있습니다.
  3. 하나 이상의 프로파일을 선택하고 제거를 클릭하여 가상 머신 인터페이스 프로파일 삭제 창을 엽니다.
  4. OK를 클릭하여 프로파일을 삭제하고 창을 닫습니다.

5.2.6. vNIC 프로파일에 보안 그룹 할당

참고

이 기능은 OpenStack Neutron과 통합된 사용자만 사용할 수 있습니다. 보안 그룹은 Red Hat Virtualization Manager로 생성할 수 없습니다. OpenStack 내에 보안 그룹을 생성해야 합니다. 보다 자세한 내용은 Red Hat OpenStack Platform Users and Identity Management Guide에 있는 https://access.redhat.com/documentation/en/red-hat-openstack-platform/9/single/users-and-identity-management-guide#project-security에서 참조하십시오.
OpenStack Networking 인스턴스에서 가져오기한 Open vSwitch 플러그인을 사용하는 네트워크의 vNIC 프로파일에 보안 그룹을 지정할 수 있습니다. 보안 그룹은 네트워크 인터페이스를 통해 인바운드 및 아웃바운드 트래픽을 필터링할 수 있도록 엄격하게 실행되는 규칙 모음입니다. 다음 절차에서는 vNIC 프로파일에 보안 그룹을 연결하는 방법에 대해 설명합니다.

참고

보안 그룹은 OpenStack Networking 인스턴스에 등록된 보안 그룹의 ID를 사용하여 식별됩니다. OpenStack Networking이 설치된 시스템에서 다음 명령을 실행하여 특정 테넌트의 보안 그룹 ID를 확인할 수 있습니다:
# neutron security-group-list

절차 5.10. vNIC 프로파일에 보안 그룹 할당

  1. 네트워크 탭을 클릭하여 결과 창에 있는 논리 네트워크를 선택합니다.
  2. 상세 정보 창에서 vNIC 프로파일 탭을 클릭합니다.
  3. 새로 만들기를 클릭하거나 또는 기존 vNIC 프로파일을 선택하고 편집을 클릭하여 가상 머신 인터페이스 프로파일 창을 엽니다.
  4. 사용자 정의 속성 드롭 다운 목록에서 보안 그룹을 선택합니다. 사용자 정의 속성 드롭 다운 목록이 비워 있을 경우 기본 보안 그룹이 적용되어 모든 아웃바운드 트래픽 및 내부 통신을 허용하지만 기본 보안 그룹 외부에서 들어오는 모든 인바운드 트래픽은 거부합니다. 보안 그룹 속성을 나중에 삭제해도 이미 적용된 보안 그룹에는 영향을 주지 않음에 유의합니다.
  5. 텍스트 필드에 vNIC 프로파일에 연결할 보안 그룹 ID를 입력합니다.
  6. OK를 클릭합니다.
보안 그룹이 vNIC 프로파일에 연결되었습니다. 프로파일이 연결된 논리 네트워크를 통한 모든 트래픽은 보안 그룹에서 정의된 규칙에 따라 필터링됩니다.

5.2.7. vNIC 프로파일 사용자 권한

사용자를 특정 vNIC 프로파일에 지정하기 위한 사용자 권한을 설정합니다. 사용자가 프로파일을 사용할 수 있도록 사용자에게 VnicProfileUser 역할을 할당합니다. 해당 프로파일의 권한을 삭제하여 특정 프로파일을 사용할 수 없도록 사용자를 제한할 수 있습니다.

절차 5.11. vNIC 프로파일 사용자 권한

  1. 네트워크 탭을 클릭하여 결과 창에 있는 논리 네트워크를 선택합니다.
  2. vNIC 프로파일 리소스 탭을 선택하여 vNIC 프로파일을 표시합니다.
  3. 상세 정보 창에서 권한 탭을 선택하여 프로파일의 현재 사용자 권한을 표시합니다.
  4. 추가 버튼을 사용하여 사용자에게 권한 추가 창을 열고 삭제 버튼을 사용하여 권한 삭제 창을 열어 vNIC 프로파일의 사용자 권한을 설정합니다.
vNIC 프로파일의 사용자 권한이 설정됩니다.

5.2.8. UCS 통합을 위한 vNIC 프로파일 설정

Cisco의 통합 컴퓨팅 시스템(UCS)은 컴퓨팅, 네트워킹, 스토리지 리소스 등의 데이터 센터 관련 사항을 관리하는 데 사용됩니다.
vdsm-hook-vmfex-dev 후크를 사용하여 가상 머신이 vNIC 설정 후 Cisco의 UCS 정의 포트 프로파일에 연결될 수 있습니다. UCS 정의 포트 프로파일에는 UCS의 가상 인터페이스 설정에 사용되는 속성과 설정이 포함되어 있습니다. 기본값으로 vdsm-hook-vmfex-dev 후크가 VDSM에 설치됩니다. 더 자세한 정보는 부록 A. VDSM 및 후크를 참조하십시오.
vNIC 프로파일을 사용하는 가상 머신 생성 시 Cisco vNIC를 사용합니다.
UCS 통합을 위한 vNIC 프로파일 설정 절차의 첫 단계는 사용자 정의 장치 속성을 설정하는 것입니다. 사용자 정의 장치 속성을 설정할 때 기존 값은 덮어쓰기 되므로 이에 유의합니다. 기존 및 새로운 사용자 정의 속성 통합 시 키 값 설정에 사용되는 명령에 있는 모든 사용자 정의 속성을 입력해야 합니다. 각 사용자 정의 속성은 세미콜론으로 구분합니다.

참고

vNIC 프로파일 설정 전에 Cisco UCS에 UCS 포트 프로파일이 먼저 설정되어야 합니다.

절차 5.12. 사용자 정의 장치 속성 설정

  1. Red Hat Virtualization Manager에서 --cver을 사용해서 vmfex 사용자 정의 속성 및 클러스터 호환 수준을 설정합니다.
    # engine-config -s CustomDeviceProperties='{type=interface;prop={vmfex=^[a-zA-Z0-9_.-]{2,32}$}}' --cver=3.6
  2. vmfex 사용자 정의 장치 속성의 추가 여부를 확인합니다.
    # engine-config -g CustomDeviceProperties
    
  3. engine을 다시 시작합니다.
    # service ovirt-engine restart
설정 대상 vNIC 프로파일은 기존 또는 새로운 논리 네트워크에 속해 있습니다. 새로운 논리 네트워크 설정 방법은 5.1.2절. “데이터 센터 또는 클러스터에 새 논리 네트워크 생성”을 참조하시기 바랍니다.

절차 5.13. UCS 통합을 위한 vNIC 프로파일 설정

  1. 네트워크 리소스 탭을 클릭하여 결과 창에 있는 논리 네트워크를 선택합니다.
  2. 상세 정보 창에서 vNIC 프로파일 탭을 선택합니다. 트리 모드에서 논리 네트워크를 선택한 경우 결과 목록에서 vNIC 프로파일 탭을 선택할 수 있습니다.
  3. 새로 만들기 또는 편집을 클릭하여 가상 머신 인터페이스 프로파일 창을 엽니다.
  4. 프로파일의 이름설명을 입력합니다.
  5. 사용자 정의 속성 목록에서 vmfex 사용자 정의 속성을 선택하고 UCS 포트 프로파일 이름을 입력합니다.
  6. OK를 클릭합니다.

5.3. 외부 공급자 네트워크

5.3.1. 외부 공급자에서 네트워크 가져오기

외부 공급자(OpenStack Networking 또는 OpenStack Neutron REST API를 구현하는 타사 공급자)의 네트워크를 사용하려면 해당 공급자를 Manager에 등록합니다. 자세한 정보는 11.2.3절. “네트워크 프로비저닝을 위해 OpenStack Networking (Neutron) 인스턴스 추가” 또는 11.2.6절. “외부 네트워크 공급자 추가”를 참조하십시오. 다음의 절차를 이용해서 해당 공급자가 제공하는 네트워크를 Manager로 가져오면 가상 머신에서 해당 네트워크를 사용할 수 있습니다.

절차 5.14. 외부 공급자에서 네트워크 가져오기

  1. 네트워크 탭을 클릭합니다.
  2. 가져오기 버튼을 클릭하여 네트워크 가져오기 창을 엽니다.
    The Import Networks Window

    그림 5.3. 네트워크 가져오기 창

  3. 네트워크 공급자 드롭 다운 메뉴에서 외부 공급자를 선택합니다. 공급자가 제공하는 네트워크가 자동으로 감지되어 공급자 네트워크 목록에 나열됩니다.
  4. 체크 상자를 사용하여 공급자 네트워크 목록에서 가져오기할 네트워크를 선택하고 아래로 이동 화살표를 클릭하여 이 네트워크를 가져오기할 네트워크 목록으로 이동합니다.
  5. 가져오기 할 네트워크 이름을 사용자가 지정할 수 있습니다. 이름을 사용자 지정하려면 이름 란에 있는 네트워크 이름을 클릭하고 텍스트를 변경합니다.
  6. 데이터 센터 드롭 다운 목록에서 네트워크를 가져오기할 데이터 센터를 선택합니다.
  7. 옵션으로 가져오기할 네트워크 목록에 있는 네트워크의 모두 허용 체크 상자를 선택해제하여 모든 사용자에게 네트워크 사용을 허용하지 않습니다.
  8. 가져오기 버튼을 클릭합니다.
선택한 네트워크를 대상 데이터 센터로 가져온 후 가상 머신에 연결할 수 있습니다. 자세한 정보는 Virtual Machine Management Guide에 있는 Adding a New Network Interface를 참조하시기 바랍니다.

5.3.2. 외부 공급자 네트워크 사용 제한

Red Hat Virtualization 환경의 외부 공급자에서 가져온 논리 네트워크를 사용하려면 다음과 같은 제한 사항이 적용됩니다.
  • 외부 공급자가 제공하는 논리 네트워크는 가상 머신 네트워크로 사용해야 하며 디스플레이 네트워크로 사용할 수 없습니다.
  • 동일한 논리 네트워크를 다른 데이터 센터에만 한 번 이상 가져오기할 수 있습니다.
  • Manager에서 외부 공급자가 제공하는 논리 네트워크를 편집할 수 없습니다. 외부 공급자가 제공하는 논리 네트워크의 상세 정보를 편집하려면 논리 네트워크를 제공하는 외부 공급자에서 논리 네트워크를 직접 편집해야 합니다.
  • 외부 공급자에서 제공하는 논리 네트워크에 연결된 가상 네트워크 인터페이스 카드의 경우 포트 미러링을 사용할 수 없습니다.
  • 외부 공급자가 제공하는 논리 네트워크를 가상 머신이 사용할 경우 논리 네트워크가 가상 머신에 의해 사용되고 있는 동안 Manager에서 공급자를 삭제할 수 없습니다.
  • 외부 공급자가 제공하는 네트워크는 필수가 아닙니다. 따라서 이러한 논리 네트워크를 가져오기한 클러스터 스케줄링 시 호스트 선택에서 이러한 논리 네트워크를 고려하지 않습니다. 이에 더하여 사용자는 이러한 논리 네트워크를 가져오기한 클러스터에 있는 호스트 상의 논리 네트워크를 사용할 수 있게 해야 합니다.

중요

외부 공급자에서 가져오기한 논리 네트워크는 Red Hat Enterprise Linux 호스트와만 호환 가능하며 RHVH에서 실행되고 있는 가상 머신에 지정할 수 없습니다.

5.3.3. 외부 공급자 논리 네트워크에서 서브넷 설정

5.3.3.1. 외부 공급자 논리 네트워크에서 서브넷 설정

하나 이상의 서브넷이 논리 네트워크에 정의되어 있을 경우 외부 공급자에 의해 지정된 논리 네트워크는 가상 머신에 IP 주소를 할당할 수 있습니다. 서브넷이 지정되어 있지 않을 경우 가상 머신은 IP 주소를 할당하지 않게 됩니다. 하나의 서브넷이 있을 경우 가상 머신은 서브넷에서 IP 주소를 할당하고 여러 서브넷이 있을 경우 가상 머신은 사용 가능한 모든 서브넷에서 IP 주소를 할당하게 됩니다. 논리 네트워크가 호스트되는 외부 네트워크 공급자에 의해 지정된 DHCP 서비스는 이러한 IP 주소를 할당하는 역할을 합니다.
Red Hat Virtualization Manager는 가져오기한 논리 네트워크에서 사전 정의된 서브넷을 자동으로 감지하지만 Manager 내 논리 네트워크에서 서브넷을 추가 또는 삭제할 수 있습니다.

5.3.3.2. 외부 공급자 논리 네트워크에 서브넷 추가

외부 공급자가 지정한 논리 네트워크에 서브넷을 생성합니다.

절차 5.15. 외부 공급자 논리 네트워크에 서브넷 추가

  1. 네트워크 탭을 클릭합니다.
  2. 외부 공급자에 의해 지정된 논리 네트워크에서 서브넷을 추가할 논리 네트워크를 클릭합니다.
  3. 상세 정보 창에서 서브넷 탭을 클릭합니다.
  4. 새로 만들기 버튼을 클릭하여 새 외부 서브넷 창을 엽니다.
    The New External Subnet Window

    그림 5.4. 새 외부 서브넷 창

  5. 새 서브넷의 이름CIDR을 입력합니다.
  6. IP 버전 드롭 다운 메뉴에서 IPv4 또는 IPv6를 선택합니다.
  7. OK를 클릭합니다.

5.3.3.3. 외부 공급자 논리 네트워크에서 서브넷 삭제

외부 공급자가 지정한 논리 네트워크에서 서브넷을 삭제합니다.

절차 5.16. 외부 공급자 논리 네트워크에서 서브넷 삭제

  1. 네트워크 탭을 클릭합니다.
  2. 외부 공급자에 의해 지정된 논리 네트워크에서 서브넷을 삭제할 논리 네트워크를 클릭합니다.
  3. 상세 정보 창에서 서브넷 탭을 클릭합니다.
  4. 삭제하고자 하는 서브넷을 클릭합니다.
  5. 삭제 버튼을 클릭하고 메시지가 나타나면 OK를 클릭합니다.

5.4. 논리 네트워크 및 권한

5.4.1. 네트워크의 시스템 권한 관리

SuperUser로서 시스템 관리자는 관리 포털의 모든 면을 관리합니다. 보다 특정한 관리 역할은 다른 사용자에게 부여될 수 있습니다. 이러한 제한된 관리자 역할은 특정 리소스에 제한하여 사용자 관리 권할을 부여할 경우 유용합니다. 예를 들어 DataCenterAdmin 역할은 데이터 센터의 스토리지를 제외한 할당된 데이터 센터에 대해서만 관리자 권한을 갖으며 ClusterAdmin은 할당된 클러스터에 대해서만 관리자 권한을 갖습니다.
네트워크 관리자는 특정 네트워크 또는 데이터 센터, 클러스터, 호스트 가상 머신, 템플릿의 모든 네트워크에 할당할 수 있는 시스템 관리 역할입니다. 네트워크 사용자는 특정 가상 머신 또는 템플릿에 네트워크를 연결 및 확인과 같은 제한된 관리 역할을 수행할 수 있습니다. 머리글 표시줄에 있는 설정 버튼을 사용하여 환경의 모든 네트워크에 네트워크 관리자를 할당할 수 있습니다.
네트워크 관리자 역할을 사용하여 다음과 같은 작업을 실행할 수 있습니다:
  • 네트워크를 생성, 편집, 삭제합니다.
  • 포트 미러링 설정을 포함하여 네트워크 설정을 편집합니다.
  • 클러스터 및 가상 머신을 포함하여 리소스에서 네트워크를 연결 및 분리합니다.
네트워크를 생성한 사용자에게는 생성한 네트워크에 NetworkAdmin 권한이 자동으로 할당됩니다. 기존 관리자를 삭제하거나 새 관리자를 추가하여 네트워크 관리자를 변경할 수 도 있습니다.

5.4.2. 네트워크 관리자 및 사용자 역할

네트워크 권한이 있는 역할
아래 표에서는 네트워크 관리에 적용할 수 있는 관리자와 사용자 역할 및 권한에 대해 설명합니다.

표 5.6. Red Hat Virtualization 네트워크 관리자 및 사용자 역할

역할권한알림
NetworkAdmin데이터 센터, 클러스터, 호스트, 가상 머신, 템플릿에 대한 네트워크 관리자입니다. 네트워크를 생성한 사용자에게는 생성된 네트워크에 대한 NetworkAdmin 권한이 자동으로 부여됩니다. 특정 데이터 센터, 클러스터, 호스트, 가상 머신, 템플릿의 네트워크를 설정 및 관리할 수 있습니다. 데이터 센터 또는 클러스터의 네트워크 관리자는 클러스터 내의 가상 풀에 대한 네트워크 권한을 상속합니다. 가상 머신 네트워크에서 포트 미러링을 설정하려면 네크워크에서 NetworkAdmin 역할 및 가상 머신에서 UserVmManager 역할을 적용합니다.
VnicProfileUser가상 머신 및 템플릿에 대한 논리 네트워크 및 네트워크 인터페이스 사용자입니다.특정 논리 네트워크에서 네트워크 인터페이스를 연결 또는 분리할 수 있습니다.

5.4.3. 리소스에 관리자 또는 사용자 역할 할당

리소스에 관리자 또는 사용자 역할을 할당하여 사용자가 리소스에 액세스 및 관리할 수 있게 합니다.

절차 5.17. 리소스에 역할 할당

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자, 사용자 역할, 선택한 리소스에 대해 상속된 권한을 나열합니다.
  3. 추가를 클릭합니다.
  4. 검색 텍스트 상자에 기존 사용자의 이름 또는 사용자 이름을 입력하고 검색을 클릭합니다. 검색 결과 목록에서 일치하는 사용자를 선택합니다.
  5. 할당된 역할: 드롭 다운 목록에서 역할을 선택합니다.
  6. OK를 클릭합니다.
사용자에게 역할이 할당되어 이제 사용자는 리소스에 대해 활성화된 역할에 상속된 권한을 갖습니다.

5.4.4. 리소스에서 관리자 또는 사용자 역할 삭제

리소스에서 관리자 또는 사용자 역할을 삭제합니다. 사용자는 리소스에서의 역할과 관련하여 상속된 권한을 손실합니다.

절차 5.18. 리소스에서 역할 삭제

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자 목록, 사용자 역할, 선택한 리소스에서 상속된 권한을 나열합니다.
  3. 리소스에서 삭제할 사용자를 선택합니다.
  4. 삭제를 클릭합니다. 권한 삭제 창이 열리면 권한 삭제를 확인합니다.
  5. OK를 클릭합니다.
리소스에서 사용자 역할 및 관련된 권한이 삭제됩니다.

5.5. 호스트 및 네트워킹

5.5.1. 호스트 기능 새로 고침

네트워크 인터페이스 카드를 호스트에 추가한 경우 호스트 기능을 새로 고침하여 Manager에 네트워크 인터페이스 카드를 표시합니다.

절차 5.19. 호스트 기능 새로 고침 방법

  1. 리소스 탭, 트리 모드 도는 검색 기능을 사용하여 검색 결과 목록에서 호스트를 검색 및 선택합니다.
  2. 기능을 새로 고침 버튼을 클릭합니다.
선택한 호스트의 상세 정보 창에 있는 네트워크 인터페이스 탭의 네트워크 인터페이스 카드 목록이 업데이트됩니다. 새로운 네트워크 인터페이스 카드를 Manager에서 사용할 수 있습니다.

5.5.2. 호스트 네트워크 인터페이스 편집 및 호스트에 논리 네트워크 할당

물리적 호스트의 네트워크 인터페이스의 설정을 변경, 하나의 물리적 호스트의 네트워크 인터페이스에서 다른 인터페이스로 관리 네트워크를 이전, 물리적 호스트의 네트워크 인터페이스에 논리 네트워크를 할당할 수 있습니다. 브릿지 및 ethtool 사용자 지정 속성도 지원됩니다.

중요

외부 공급자에 의해 제공되는 논리 네트워크를 물리적 호스트의 네트워크 인터페이스에 할당할 수 없습니다. 이러한 네트워크는 가상 머신의 요청에 따라 호스트에 동적으로 할당됩니다.

절차 5.20. 호스트 네트워크 인터페이스 편집 및 호스트에 논리 네트워크 할당

  1. 호스트 리소스 탭을 클릭하여 원하는 호스트를 선택합니다.
  2. 상세 정보 창에서 네트워크 인터페이스 탭을 클릭합니다.
  3. 호스트 네트워크 설정 버튼을 클릭하여 호스트 네트워크 설정 창을 엽니다.
  4. 물리적 호스트의 네트워크 인터페이스 옆에 있는 할당된 논리 네트워크 영역으로 선택 및 드래그하여 논리 네트워크를 물리적 호스트 네트워크 인터페이스에 연결합니다.
    다른 방법으로 논리 네트워크를 오른쪽 클릭하여 드롭 다운 메뉴에서 네트워크 인터페이스를 선택합니다.
  5. 논리 네트워크 설정:
    1. 할당된 논리 네트워크 위에 커서를 이동하고 연필 모양의 아이콘을 클릭하여 관리 네트워크 편집 창을 엽니다.
    2. 부트 프로토콜None, DHCP, 또는 Static 중에서 선택합니다. Static을 선택한 경우 IP, 넷마스크 / 라우팅 접두사, 그리고 게이트웨이를 입력합니다.

      참고

      각 논리 네트워크는 관리 네트워크 게이트웨이에서 정의된 다른 게이트웨이를 가질 수 있습니다. 이렇게 하면 논리 네트워크에 도착하는 트래픽이 관리 네트워크에서 사용되는 기본 게이트웨이가 아닌 논리 네트워크 게이트웨이를 사용하도록 전달됩니다.
    3. 기본 호스트 네트워크 QoS를 덮어쓰기하려면 QoS 덮어쓰기를 선택하고 다음의 필드에 원하는 값을 입력합니다:
      • 가중 공유: 같은 논리 링크에 연결된 다른 네트워크와 비교해서 어떤 특정 네트워크에 해당 논리 링크의 용량이 얼마나 할당되는지를 나타냅니다. 정확한 공유량은 해당 링크의 모든 네트워크의 총 공유량에 따라 다릅니다. 기본으로 이 수치는 1-100 범위에 있습니다.
      • 속도 제한 [Mbps]: 네트워크가 사용하는 최대 대역폭입니다.
      • 커밋 속도 [Mbps]: 네트워크가 필요로 하는 최소 대역폭입니다. 사용자가 요청하는 커밋 속도는 보장되지 않으며 네트워크 인프라와 같은 논리 링크에 있는 다른 네트워크에서 요청하는 커밋 속도에 따라 다릅니다.
      호스트 네트워크 QoS 설정에 대한 자세한 정보는 2.3절. “호스트 네트워크 QoS”를 참조하십시오.
    4. 네트워크 브릿지를 설정하려면 사용자 정의 속성 드롭 다운 메뉴를 클릭하고 bridge_opts를 선택합니다. 유효한 키와 [key]=[value]와 같은 구문으로된 값을 입력합니다. 여러 항목이 있을 경우 공백으로 구분합니다. 아래 예에서 제시된 값과 같이 다음과 같은 키가 유효합니다. 이러한 매개 변수에 대한 자세한 정보는 B.1절. “bridge_opts 매개 변수”을 참조하시기 바랍니다.
      forward_delay=1500
      gc_timer=3765
      group_addr=1:80:c2:0:0:0
      group_fwd_mask=0x0
      hash_elasticity=4
      hash_max=512
      hello_time=200
      hello_timer=70
      max_age=2000
      multicast_last_member_count=2
      multicast_last_member_interval=100
      multicast_membership_interval=26000
      multicast_querier=0
      multicast_querier_interval=25500
      multicast_query_interval=13000
      multicast_query_response_interval=1000
      multicast_query_use_ifaddr=0
      multicast_router=1
      multicast_snooping=1
      multicast_startup_query_count=2
      multicast_startup_query_interval=3125
    5. ethtool 속성을 설정하려면 사용자 정의 속성 드롭 다운 메뉴를 클릭하고 ethtool_opts를 선택합니다. 유효한 키와 [key]=[value]와 같은 구문으로된 값을 입력합니다. 여러 항목이 있을 경우 공백으로 구분합니다. ethtool_opts 옵션은 기본으로 제공되지 않으며 engine 설정 도구를 사용해서 추가해야 합니다. 자세한 정보는 B.2절. “Ethtool 사용을 위해 Red Hat Virtualization Manager 설정”을 참조하시기 바랍니다. ethtool 속성에 대한 자세한 정보는 man 페이지를 참조하십시오.
    6. 논리 네트워크 정의가 호스트 상의 네트워크 설정과 동기화되어 있지 않을 경우 네트워크 동기화 확인란을 선택합니다. 논리 네트워크는 동기화되기전 까지 다른 인터페이스로 이동하거나 편집할 수 없습니다.

      참고

      네트워크가 다음 중 하나의 상태일 경우 동기화된 것으로 간주되지 않습니다:
      • 가상 머신 네트워크는 물리적 호스트 네트워크와 다른 경우.
      • VLAN ID는 물리적 호스트 네트워크와 다른 경우.
      • 사용자 정의 MTU는 논리 네트워크 상에 설정되어 물리적 호스트 네트워크와 다른 경우.
  6. 호스트와 Engine간의 연결을 확인 확인란을 선택하여 네트워크 연결 상태를 확인합니다. 이러한 동작은 호스트가 유지 관리 모드일 경우에만 작동합니다.
  7. 네트워크 설정 저장 확인란을 선택하여 시스템을 재부팅했을 경우 변경 사항을 영구적으로 저장합니다.
  8. OK를 클릭합니다.

참고

호스트의 모든 네트워크 인터페이스 카드가 표시되지 않을 경우 기능을 새로 고침 버튼을 클릭하여 호스트에서 사용 가능한 네트워크 인터페이스 카드 목록을 업데이트합니다.

5.5.3. 논리 네트워크를 사용하여 단일 네트워크 인터페이스에 여러 VLAN 추가

여러 VLAN을 단일 네트워크 인터페이스에 추가하여 하나의 호스트에 있는 트래픽을 분리합니다.

중요

새 논리 네트워크 또는 논리 네트워크 편집 창에서 VLAN 태깅 활성화 확인란을 선택하여 여러 논리 네트워크를 생성해야 합니다.

절차 5.21. 논리 네트워크를 사용하여 네트워크 인터페이스에 여러 VLAN 추가

  1. 호스트 리소스 탭을 클릭하고 결과 목록에서 VLAN 태그 논리 네트워크가 할당된 클러스터에 연결된 호스트를 선택합니다.
  2. 상세 정보 창에서 네트워크 인터페이스 탭을 클릭하여 데이터 센터에 연결된 실제 네트워크 인터페이스를 나열합니다.
  3. 호스트 네트워크 설정을 클릭하여 호스트 네트워크 설정 창을 엽니다.
  4. VLAN 태그 논리 네트워크를 물리 네트워크 인터페이스 옆에 있는 할당된 논리 네트워크 영역으로 드래그합니다. VLAN 태그로 물리 네트워크 인터페이스에 여러 논리 네트워크를 할당할 수 있습니다.
  5. 할당된 논리 네트워크 위에 커서를 이동하고 연필 모양의 아이콘을 클릭하여 네트워크 편집 창을 열고 논리 네트워크를 편집합니다.
    논리 네트워크 정의가 호스트 상의 네트워크 설정과 동기화되어 있지 않을 경우 네트워크 동기화 확인란을 선택합니다.
    다음에서 부팅 프로토콜을 선택합니다:
    • None,
    • DHCP,
    • Static,
      IP서브넷 마스크를 입력합니다.
    OK를 클릭합니다.
  6. 호스트와 Engine간의 연결을 확인 확인란을 선택하여 네트워크를 확인합니다. 이러한 동작은 호스트가 유지 관리 모드일 경우에만 작동합니다.
  7. 네트워크 설정 저장 확인란을 선택합니다.
  8. OK를 클릭합니다.
클러스터에 있는 각 호스트의 NIC를 편집하여 클러스터에 있는 각 호스트에 논리 네트워크를 추가합니다. 이 작업을 완료한 후 네트워크가 작동됩니다.
하나의 인터페이스에 여러 VLAN 태그된 논리 네트워크를 추가했습니다. 단일 네트워크 인터페이스에 다른 VLAN 태그로 논리 네트워크를 추가하기 위해 각 호스트 마다 동일한 네트워크 인터페이스를 선택 및 편집하는 절차를 여러번 반복할 수 있습니다.

5.5.4. 네트워크 레이블을 호스트 네트워크 인터페이스에 추가

네트워크 레이블을 사용하여 호스트 네트워크 인터페이스에 논리 네트워크 할당에 관련된 관리 작업을 간소화할 수 있습니다.

절차 5.22. 네트워크 레이블을 호스트 네트워크 인터페이스에 추가

  1. 호스트 리소스 탭을 클릭하고 결과 목록에서 VLAN 태그 논리 네트워크가 할당된 클러스터에 연결된 호스트를 선택합니다.
  2. 상세 정보 창에서 네트워크 인터페이스 탭을 클릭하여 데이터 센터에 연결된 실제 네트워크 인터페이스를 나열합니다.
  3. 호스트 네트워크 설정을 클릭하여 호스트 네트워크 설정 창을 엽니다.
  4. 레이블을 클릭하고 [새 레이블]을 오른쪽 클릭합니다. 레이블할 실제 네트워크 인터페이스를 선택합니다.
  5. 레이블 텍스트 필드에서 네트워크 레이블 이름을 입력합니다.
  6. OK를 클릭합니다.
호스트 네트워크 인터페이스에 네트워크 레이블이 추가되었습니다. 동일한 레이블이 붙은 새로 생성된 논리 네트워크는 자동으로 해당 레이블의 모든 호스트 네트워크 인터페이스에 자동으로 할당됩니다. 또한 논리 네트워크에서 레이블을 삭제하면 해당 레이블이 붙은 모든 호스트 네트워크 인터페이스에서 논리 네트워크가 자동으로 삭제됩니다.

5.5.5. 본딩

5.5.5.1. Red Hat Virtualization에서 본딩 로직

Red Hat Virtualization Manager 관리 포털에서는 그래픽 인터페이스를 사용하여 본딩 장치를 생성할 수 있습니다. 몇 가지 본딩 생성 시나리오가 있으며 각 시나리오에는 고유한 논리가 적용됩니다.
본딩 로직에 영향을 미치는 두 가지 요소는 다음과 같습니다:
  • 장치 중 하나가 이미 논리 네트워크를 전송하고 있습니까?
  • 장치가 호환 가능한 논리 네트워크를 전송하고 있습니까?

표 5.7. 본딩 시나리오 및 결과

본딩 시나리오결과
NIC + NIC
새로운 본딩 생성 창이 나타나면 새로운 본딩 장치를 설정할 수 있습니다.
네트워크 인터페이스가 호환되지 않는 논리 네트워크를 전송하는 경우 새로운 본딩을 구성한 장치에서 호환되지 않는 논리 네트워크를 분리할 때까지 본딩 작업은 실패합니다.
NIC + Bond
NIC가 본딩 장치에 추가됩니다. NIC 및 본딩에 의해 전송된 논리 네트워크는 호환 가능한 경우 모두 본딩 장치에 추가됩니다.
네트워크 인터페이스가 호환되지 않는 논리 네트워크를 전송하는 경우 새 본딩을 구성한 장치에서 호환되지 않는 논리 네트워크를 분리할 때 까지 본딩 작업은 실패합니다.
Bond + Bond
본딩 장치가 논리 네트워크에 연결되어 있지 않거나 호환 가능한 논리 네트워크에 연결되어 있을 경우 새 본딩 장치가 생성됩니다. 이에는 모든 네트워크 인터페이스가 포함되며 본딩 구성 장치의 모든 논리 네트워크를 전송합니다. 새로운 본딩 생성 창이 표시되어 새 본딩을 설정할 수 있습니다.
네트워크 인터페이스가 호환되지 않는 논리 네트워크를 전송하는 경우 새 본딩을 구성한 장치에서 호환되지 않는 논리 네트워크를 분리할 때 까지 본딩 작업은 실패합니다.

5.5.5.2. 본딩

본딩은 여러 네트워크 인터페이스 카드를 단일 소프트웨어 장치로 정의하는 것입니다. 본딩된 네트워크 인터페이스는 본딩에 포함된 네트워크 인터페이스 카드의 전송 기능을 결합하여 단일 네트워크 인터페이스로 동작하기 때문에 단일 네트워크 인터페이스 카드 보다 더 신속한 전송 속도 기능을 제공합니다. 본딩에 있는 모든 네트워크 인터페이스 카드에 오류가 발생하지 않으면 본딩 자체에 오류가 발생하지 않기 때문에 본딩의 내결함성을 증가시킬 수 있습니다. 하지만 본딩된 네트워크 인터페이스를 구성하는 네트워크 인터페이스 카드는 본딩에서 동일한 옵션 및 모드를 지원하도록 동일한 제조업체 및 모델이어야 한다는 제한이 있습니다.
본딩의 패킷 분산 알고리즘은 사용하는 본딩 모드에 의해 결정됩니다.

중요

모드 1, 2, 3, 4는 가상 머신 (브릿지됨) 및 비 가상 머신 (브릿지되지 않음) 네트워크 유형 모두를 지원합니다. 모드 0, 5, 6은 비 가상 머신 (브릿지되지 않음) 네트워크만 지원합니다.
본딩 모드
Red Hat Virtualization은 기본적으로 모드 4를 사용하지만 다음과 같은 일반적인 본딩 모드를 지원합니다:
모드 0 (round-robin 정책)
네트워크 인터페이스 카드를 통해 순차적으로 패킷을 전송합니다. 패킷은 본딩에서 처음 사용 가능한 네트워크 인터페이스 카드로 시작하여 마지막으로 사용 가능한 네트워크 인터페이스 카드로 종료하는 루프에 전송됩니다. 이후의 모든 루프는 처음 사용 가능한 네트워크 인터페이스 카드에서 시작됩니다. 모드 0는 내결함성을 제공하고 본딩의 모든 네트워크 인터페이스 카드에서 부하 균형을 조정합니다. 하지만 모드 0는 브릿지와 함께 사용할 수 없으므로 가상 머신 논리 네트워크와 호환되지 않습니다.
모드 1 (active-backup 정책)
하나의 네트워크 인터페이스 카드는 활성 상태로 두고 다른 모든 네트워크 인터페이스 카드를 백업 상태로 설정합니다. 활성 네트워크 인터페이스 카드에 오류가 발생하는 경우 백업 네트워크 인터페이스 카드 중 하나가 본딩에서 활성 네트워크 인터페이스 카드로 네트워크 인터페이스 카드를 대체합니다. 모드 1에서 본딩의 MAC 주소가 활성 네트워크 인터페이스 카드를 반영하도록 변경될 경우 발생할 수 있는 혼란을 방지하기 위해 MAC 주소는 하나의 포트에만 표시됩니다. 모드 1은 내결함성을 제공하고 Red Hat Virtualization에서 지원됩니다.
모드 2 (XOR 정책)
소스에서 XOR 연산 결과 및 대상 MAC 주소 모듈 네트워크 인터페이스 카드 슬레이브 수에 따라 패킷을 전송할 네트워크 인터페이스 카드를 선택합니다. 이러한 계산을 통해 각각의 대상 MAC 주소에 동일한 네트워크 인터페이스 카드가 선택됩니다. 모드 2는 내결함성 및 부하 분산을 제공하고 Red Hat Virtualization에서 지원됩니다.
모드 3 (broadcast 정책)
모든 네트워크 인터페이스 카드에 모든 패킷을 전송합니다. 모드 3은 내결함성을 제공하고 Red Hat Virtualization에서 지원됩니다.
모드 4 (IEEE 802.3ad 정책)
인터페이스가 동일한 속도 및 이중 설정을 공유하는 집계 그룹을 생성합니다. 모드 4는 IEEE 802.3ad 사양에 따라 활성 집계 그룹에 있는 모든 네트워크 인터페이스 카드를 사용하며 Red Hat Virtualization에서 지원됩니다.
모드 5 (adaptive transmit load balancing 정책)
본딩의 각 네트워크 인터페이스 카드에서 부하에 따라 발신 트래픽 계정이 분산되어 현재 네트워크 인터페이스 카드가 모든 들어오는 트래픽을 수신할 수 있게 합니다. 수신 트래픽에 할당된 네트워크 인터페이스 카드에 오류가 발생할 경우 다른 네트워크 인터페이스 카드가 수신 트래픽의 역할을 하도록 지정됩니다. 모드 5는 브리지와 함께 사용할 수 없으므로 가상 머신 논리 네트워크와 호환되지 않습니다.
모드 6 (adaptive load balancing 정책)
특별한 전환 요구 사항없이 모드 5 (adaptive transmit load balancing 정책)는 IPv4 트래픽의 수신 부하 분산과 결합되어 있습니다. ARP 협상은 수신 부하 분산에 사용됩니다. 모드 6는 브리지와 함께 사용할 수 없으므로 가상 머신 논리 네트워크와 호환되지 않습니다.

5.5.5.3. 관리 포털에서 본딩 장치 생성

여러 호환 가능한 네트워크 장치를 결합하여 구성할 수 있습니다. 이러한 설정 유형을 통해 대역폭과 안정성을 증가시킬 수 있습니다. 여러 네트워크 인터페이스, 기존의 본딩 장치 또는 이 둘을 조합하여 구성할 수 있습니다. 본딩은 VLAN 태그 및 비 VLAN 트래픽을 모두 전송할 수 있습니다.

절차 5.23. 관리 포털에서 본딩 장치 생성

  1. 호스트 리소스 탭을 클릭하여 결과 목록에서 호스트를 선택합니다.
  2. 상세 정보 창에서 네트워크 인터페이스 탭을 클릭하여 호스트에 연결된 실제 네트워크 인터페이스를 나열합니다.
  3. 호스트 네트워크 설정을 클릭하여 호스트 네트워크 설정 창을 엽니다.
  4. 한 장치를 선택하고 다른 장치에 드래그하여 드롭하면 새로운 본딩 생성 창이 열립니다. 다른 방법으로 장치 위에 마우스를 두고 오른쪽을 클릭한 후 드롭 다운 메뉴에서 다른 장치를 선택합니다.
    장치가 호환되지 않는 경우 본딩 작업이 실패하며 호환 문제를 해결하는 방법을 알려주는 메시지가 나타납니다.
  5. 드롭 다운 메뉴에서 본딩 이름본딩 모드를 선택합니다.
    본딩 모드 1, 2, 4, 5를 선택할 수 있습니다. 기타 다른 모드는 사용자 정의 옵션을 사용하여 설정할 수 있습니다.
  6. OK를 클릭하여 본딩을 생성하고 새로운 본딩 생성 창을 닫습니다.
  7. 새로 생성된 본딩 장치에 논리 네트워크를 지정합니다.
  8. 옵션으로 호스트와 Engine 간의 연결을 확인을 선택하고 네트워크 설정 저장을 선택합니다.
  9. OK를 클릭하여 변경 사항을 저장하고 호스트 네트워크 설정 창을 닫습니다.
네트워크 장치는 본딩 장치에 연결되어 단일 인터페이스로 편집할 수 있습니다. 본딩 장치는 선택한 호스트의 상세 정보 창에 있는 네트워크 인터페이스 탭에 나열됩니다.
호스트가 사용하는 스위치 포트에 본딩을 활성화해야 합니다. 본딩을 활성화하는 프로세스는 스위치마다 조금씩 다릅니다. 본딩을 활성화하는 방법에 대한 상세 정보는 스위치 공급업체에서 제공하는 설명서에서 참조하십시오.

5.5.5.4. 호스트 인터페이스의 사용자 정의 본딩 옵션 사용 예

새로운 본딩 생성 창의 본딩 모드에서 사용자 정의를 선택하여 사용자 정의 본딩 장치를 생성할 수 있습니다. 필요에 따라 다음의 예를 선별하여 사용합니다. 본딩 옵션 및 전체 설명 목록은 Kernel.org에 있는 Linux Ethernet Bonding Driver HOWTO에서 참조하십시오.

예 5.1. xmit_hash_policy

이 옵션은 본딩 모드 2와 4의 로드 밸런스 전송 정책을 정의합니다. 예를 들어 대부분의 트래픽이 여러 다른 IP 주소 사이에 있을 경우 IP 주소 별로 로드 밸런스 정책을 설정할 수 있습니다. 사용자 정의 본딩 모드를 선택하고 텍스트 필드에 다음과 같은 값을 입력하여 로드 밸런싱 정책을 설정할 수 있습니다.
mode=4 xmit_hash_policy=layer2+3

예 5.2. ARP 모니터링

ARP 모니터는 ethtool을 통해 적절히 연결 상태를 보고할 수 없는 시스템에 유용합니다. 사용자 정의 본딩 모드를 선택하고 텍스트 필드에 다음과 같은 값을 입력하여 호스트의 본딩 장치에 arp_interval을 설정합니다:
mode=1 arp_interval=1 arp_ip_target=192.168.0.2

예 5.3. 기본

본딩 장치에서 기본 인터페이스로 높은 처리량을 갖는 NIC를 지정하고자 할 수 있습니다. 사용자 정의 본딩 모드를 선택하고 텍스트 필드에 다음과 같은 값을 입력하여 기본 NIC를 지정합니다:
mode=1 primary=eth0

5.5.6. 호스트의 FQDN 변경

다음 절차에 따라 호스트의 FQDN을 변경합니다.

절차 5.24. 호스트의 FQDN 업데이트

  1. 호스트를 유지 관리 모드에 두면 가상 머신이 다른 호스트로 라이브 마이그레이션됩니다. 보다 자세한 내용은 6.5.8절. “호스트를 유지 관리 모드로 변경”에서 참조하십시오. 다른 방법으로 전체 가상 머신을 수동으로 종료하고 다른 호스트로 모든 가상 머신을 마이그레이션합니다. 보다 자세한 내용은 Virtual Machine Management Guide에 있는 Manually Migrating Virtual Machines에서 참조하십시오.
  2. 삭제를 클릭하고 OK를 클릭하여 관리 포털에서 호스트를 삭제합니다.
  3. hostnamectl 도구를 사용하여 호스트 이름을 업데이트합니다. 보다 자세한 옵션은 Red Hat Enterprise Linux 7 네트워킹 가이드 호스트 이름 설정에서 참조하십시오.
    # hostnamectl set-hostname NEW_FQDN
  4. 호스트를 재부팅합니다.
  5. Manager로 호스트를 다시 등록합니다. 보다 자세한 내용은 6.5.1절. “Red Hat Virtualization Manager에 대한 Host 추가”에서 참조하십시오.

5.5.7. 호스트의 IP 주소 변경

절차 5.25. 

  1. 호스트를 유지 관리 모드에 두면 가상 머신이 다른 호스트로 라이브 마이그레이션됩니다. 보다 자세한 내용은 6.5.8절. “호스트를 유지 관리 모드로 변경”에서 참조하십시오. 다른 방법으로 전체 가상 머신을 수동으로 종료하고 다른 호스트로 모든 가상 머신을 마이그레이션합니다. 보다 자세한 내용은 Virtual Machine Management Guide에 있는 Manually Migrating Virtual Machines에서 참조하십시오.
  2. 삭제를 클릭하고 OK를 클릭하여 관리 포털에서 호스트를 삭제합니다.
  3. admin 사용자로 호스트에 로그인합니다.
  4. F2를 누르고 OK를 선택한 후 Enter를 눌러 복구 쉘로 들어갑니다.
  5. /etc/sysconfig/network-scripts/ifcfg-ovirtmgmt 파일을 편집하여 IP 주소를 수정합니다. 예:
    # vi /etc/sysconfig/network-scripts/ifcfg-ovirtmgmt
    ...
    BOOTPROTO=none
    IPADDR=10.x.x.x
    PREFIX=24
    ...
  6. 네트워크 서비를 다시 시작하고 IP 주소가 업데이트되었는지 확인합니다.
    # systemctl restart network.service
    # ip addr show ovirtmgmt
  7. exit을 입력하여 복구 쉘에서 나간 후 텍스트 사용자 인터페이스로 전환합니다.
  8. Manager로 호스트를 다시 등록합니다. 보다 자세한 내용은 6.5.1절. “Red Hat Virtualization Manager에 대한 Host 추가”에서 참조하십시오.

6장. 호스트

6.1. 호스트 소개

하이퍼바이저로 알려진 호스트는 가상 머신을 실행하는 물리적 서버입니다. KVM(Kernel-based Virtual Machine)이라는 로딩 가능한 Linux 커널 모듈을 사용하여 완전 가상화가 제공됩니다.
KVM은 Windows 또는 Linux 운영 체제에서 실행되는 여러 가상 머신을 동시에 호스팅할 수 있습니다. 가상 머신은 호스트 시스템에서 개별 Linux 프로세스 및 스레드로 실행되며 Red Hat Virtualization Manager에 의해 원격으로 관리됩니다. Red Hat Virtualization 환경에는 하나 이상의 여러 호스트를 연결할 수 있습니다.
Red Hat Virtualization은 호스트 설치에 있어서 두 가지 방식을 지원합니다. Red Hat Virtualization Host (RHVH) 설치 미디어를 사용하거나 표준 Red Hat Enterprise Linux 설치에 하이퍼바이저 패키지를 설치합니다.

참고

Red Hat Virtualization Manager 내 개별 호스트의 유형을 확인하려면 해당 호스트를 선택하고 상세 정보 창의 일반 탭에서 소프트웨어를 클릭해서 OS 정보를 확인합니다.
호스트는 tuned 프로파일을 사용하여 가상화를 최적화합니다. tuned에 대한 보다 자세한 내용은 Red Hat Enterprise Linux 7 Performance Tuning Guide에서 참조하십시오.
Red Hat Virtualization Host에는 보안 기능이 활성화되어 있습니다. SELinux (Security Enhanced Linux) 및 iptables 방화벽은 기본값으로 완전 설정되어 활성화되어 있습니다. 선택한 호스트에서 SELinux 상태는 상태 정보 창의 일반 탭에 있는 SELinux 모드에 표시됩니다. Manager는 Red Hat Enterprise Linux 호스트를 환경에 추가할 때 이러한 호스트에서 필요한 포트를 열 수 있습니다.
호스트는 Red Hat Enterprise Linux 7 AMD64/Intel 64 버전을 실행하는 Intel VT 또는 AMD-V 확장 기능을 갖는 64 비트 물리적 서버입니다.
Red Hat Virtualization 플랫폼에서 물리적 호스트의 요구 사항은 다음과 같습니다:
  • 시스템에 있는 하나의 클러스터에만 속해 있어야 합니다.
  • AMD-V 또는 Intel VT 하드웨어 가상화 확장 기능을 지원하는 CPU가 있어야 합니다.
  • 클러스터 생성 시 선택한 가상 CPU 유형으로 공개된 모든 기능을 지원하는 CPU가 있어야 합니다.
  • 최소 2 GB RAM이 있어야 합니다.
  • 시스템 권한이 있는 시스템 관리자를 지정해야 합니다.
관리자는 Red Hat Virtualization 워치 리스트에서 최신 보안 권고를 받을 수 있습니다. Red Hat Virtualization 제품에 대한 새로운 보안 권고를 이메일로 수신하려면 다음의 양식을 작성하여 Red Hat Virtualization 워치 리스트에 등록해야 합니다:

주의

Configuring networking through NetworkManager(nmcli, nmtui, 그리고 Cockpit 사용자 인터페이스 포함)를 사용한 네트워킹 설정은 현재 지원되지 않습니다. Manager에 호스트를 추가하기 전에 추가 네트워크 설정이 필요한 경우 수동으로 ifcfg 파일을 씁니다. 보다 자세한 내용은 Red Hat Enterprise Linux Networking Guide를 참조하십시오.

6.2. Red Hat Virtualization Host

Red Hat Virtualization Host(RHVH)는 특정 Red Hat Enterprise Linux 빌드를 사용하여 호스트 가상 머신에 필요한 패키지만으로 설치됩니다. Red Hat Enterprise Linux 호스트가 사용하는 설치 인터페이스를 기반으로 Anaconda 설치 인터페이스를 사용하며 이것은 Red Hat Virtualization Manager 또는 yum을 사용해서 업데이트할 수 있습니다. 하지만 추가 패키지를 설치하는 것은 현재 지원되지 않으며 추가로 설치된 패키지는 RHVH 업데이트 시 매번 다시 설치되어야 합니다.
RHVH에는 호스트 리소스 모니터링 및 관리 작업 수행을 위한 Cockpit 사용자 인터페이스가 있습니다. SSH 또는 콘솔을 통해 RHVH에 직접 연결하는 것은 지원되지 않기 때문에 Cockpit 사용자 인터페이스는 셀프 호스트 엔진 배포 등과 같이 호스트가 Red Hat Virtualization Manager에 추가되기 전에 수행되는 작업을 위한 그래픽 사용자 인터페이스를 제공하며 도구 > 터미널 하위 탭을 사용해서 터미널 명령을 실행하는 데 사용될 수도 있습니다.
웹 브라우저의 https://HostFQDNorIP:9090 에서 Cockpit 사용자 인터페이스에 액세스합니다. RHVH의 Cockpit에는 호스트의 상태, SSH 호스트 키, 셀프 호스트 엔진 상태, 가상 머신, 그리고 가상 머신 통계를 보여주는 사용자 설정 Virtualization 대시보드가 있습니다.

참고

grubby 도구를 사용하여 사용자 설정 커널 인수를 Red Hat Virtualization Host에 추가할 수 있습니다. grubby 도구는 grub.cfg 파일의 변경 사항을 영구적으로 적용합니다. 호스트의 Cockpit 사용자 인터페이스의 도구 > 터미널 하위 탭으로 가서 grubby 명령을 사용합니다. 보다 자세한 내용은 Red Hat Enterprise Linux System Administrator's Guide에서 참조하십시오.

6.3. Red Hat Enterprise Linux 호스트

사용 가능한 하드웨어에 Red Hat Enterprise Linux 7을 설치하여 호스트로 사용할 수 있습니다. Red Hat Virtualization은 Intel VT 또는 AMD-V 확장 기능이 있는 Red Hat Enterprise Linux 7 Server AMD64/Intel 64 버전을 실행하는 호스트를 지원합니다. 호스트로 Red Hat Enterprise Linux 시스템을 사용하려면 Red Hat Enterprise Linux Server 인타이틀먼트 및 Red Hat Virtualization 인타이틀먼트에 연결해야 합니다.
호스트를 추가하는데 플랫폼에서 가상화 확인, 패키지 설치, 브릿지 생성, 호스트 재부팅과 같은 작업을 완료해야 하므로 시간이 소요될 수 있습니다. 상세 정보 창에서 호스트 및 관리 시스템을 연결하기 위한 프로세스를 모니터링할 수 있습니다.

중요

타사 감시 장치는 VDSM의 감시 장치 데몬과 충돌할 수도 있으므로 Red Hat Enterprise Linux 호스트에 타사 감시 장치가 설치되어 있지 않아야 합니다.

6.4. Satellite 호스트 공급자 호스트

Satellite 호스트 공급자가 제공하는 호스트는 Red Hat Virtualization Manager에 의해 가상 호스트로 사용될 수 있습니다. Satellite 호스트 공급자가 외부 공급자로 Manager에 추가된 후 호스트 공급자가 제공하는 모든 호스트는 Red Hat Virtualization에 추가하여 Red Hat Virtualization Host (RHVH) 및 Red Hat Enterprise Linux 호스트와 동일한 방식으로 사용할 수 있습니다.

6.5. 호스트 작업

6.5.1. Red Hat Virtualization Manager에 대한 Host 추가

사용자의 Red Hat Virtualization 환경에 호스트를 추가하려면 플랫폼을 통해 가상화 확인, 패키지 설치, 브리지 생성, 그리고 호스트 재부팅 등의 단계를 거쳐야 하므로 시간이 소요될 수 있습니다. 상세 정보 창을 사용해서 호스트와 Manager의 연결 과정을 모니터링합니다.

절차 6.1. Red Hat Virtualization Manager에 대한 Host 추가

  1. 관리 포털에서 호스트 리소스 탭을 클릭합니다.
  2. 새로 만들기를 클릭합니다.
  3. 드롭 다운 목록을 사용하여 새 호스트의 데이터 센터호스트 클러스터를 선택합니다.
  4. 새 호스트의 이름주소를 입력합니다. SSH 포트 란에 표준 SSH 포트인 포트 22가 자동으로 채워집니다.
  5. Manager가 호스트에 액세스 시 인증방법을 선택합니다.
    • 인증 암호를 사용하기 위해 root 사용자 암호를 입력합니다.
    • 또는, SSH 공개키 필드에 표시된 키를 호스트에 있는 /root/.ssh/authorized_keys에 복사하여 공개키 인증에 사용합니다.
  6. 고급 매개 변수 버튼을 클릭해서 고급 호스트 설정을 표시합니다.
    1. 옵션으로 자동 방화벽 설정을 비활성화합니다.
    2. 옵션으로 JSON 프로토콜 사용을 비활성화합니다.
    3. 옵션으로 보안을 강화하기 위해 호스트 SSH 지문을 추가합니다. 이를 수동으로 추가하거나 자동으로 가져오기할 수 있습니다.
  7. 옵션으로 전원 관리를 설정하는 경우 호스트에 지원되는 전원 관리 카드가 있어야 합니다. 전원 관리 설정에 대한 정보는 6.5.4.2절. “호스트 전원 관리 설정”을 참조하시기 바랍니다.
  8. OK를 클릭합니다.
새 호스트는 Installing 상태로 호스트 목록에 표시되고 상세 정보 창에서 설치 진행 상태를 확인할 수 있습니다. 잠시 후 호스트 상태가 Up으로 변경됩니다.

6.5.2. Satellite 호스트 공급자 호스트 추가

Satellite 호스트 공급자 호스트를 추가하는 절차는 Manager에서 호스트를 구별하는 방법을 제외하고 Red Hat Enterprise Linux 호스트를 추가하는 방법과 거의 동일합니다. 다음 부분에서는 Satellite 호스트 공급자가 제공하는 호스틀 추가하는 방법에 대해 설명합니다.

절차 6.2. Satellite 호스트 공급자 호스트 추가

  1. 호스트 리소스 탭을 클릭하여 결과 목록에 호스트를 나열합니다.
  2. 새로 만들기를 클릭하여 새 호스트 창을 엽니다.
  3. 드롭 다운 메뉴를 사용하여 새 호스트의 호스트 클러스터를 선택합니다.
  4. Foreman/Satellite 확인란을 선택하여 Satellite 호스트 공급자 호스트를 추가하기 위한 옵션을 표시하고 호스트를 추가할 공급자를 선택합니다.
  5. 검색된 호스트 또는 프로비저닝된 호스트를 선택합니다.
    • 검색된 호스트 (기본 옵션): 드롭 다운 메뉴에서 호스트, 호스트 그룹, 컴퓨터 리소스를 선택합니다.
    • 프로비저닝된 호스트: 공급자 호스트 드롭 다운 메뉴에서 호스트를 선택합니다.
    외부 공급자에서 검색할 수 있는 호스트에 관한 모든 세부 사항은 자동으로 설정되어 원하는 대로 편집할 수 있습니다.
  6. 새 호스트의 이름, 주소, SSH 포트 (프로비저닝된 호스트만)를 입력합니다.
  7. 호스트에 사용할 인증 방식을 선택합니다.
    • 인증 암호를 사용하기 위해 root 사용자 암호를 입력합니다.
    • SSH 공개키 필드에 표시된 키를 호스트에 있는 /root/.ssh/authorized_hosts에 복사하여 공개키 인증에 사용합니다 (프로비저닝된 호스트만 해당).
  8. Red Hat Enterprise Linux 호스트를 추가하기 위한 필수 단계를 완료했습니다. 고급 매개 변수 드롭 다운 메뉴 버튼을 클릭하여 고급 호스트 설정을 표시합니다.
    1. 옵션으로 자동 방화벽 설정을 비활성화합니다.
    2. 옵션으로 JSON 프로토콜 사용을 비활성화합니다.
    3. 옵션으로 보안을 강화하기 위해 호스트 SSH 지문을 추가합니다. 이를 수동으로 추가하거나 자동으로 가져오기할 수 있습니다.
  9. 해당 탭을 통해 전원 관리, SPM, 콘솔, 네트워크 공급자를 설정할 수 있습니다. 하지만 이러한 설정은 Red Hat Enterprise Linux 호스트를 추가하는데 필요하지 않기 때문에 이 부분에서는 설명하지 않습니다.
  10. OK를 클릭하여 호스트를 추가하고 창을 닫습니다.
새 호스트는 Installing 상태로 호스트 목록에 표시되고 상세 정보 창에서 설치 진행 상태를 확인할 수 있습니다. 설치 완료 후 상태는 Reboot가 됩니다. 상태를 Up으로 변경하기 위해 호스트를 활성화해야 합니다.

6.5.3. 호스트에 대한 Satellite 에라타 관리 설정

Red Hat Virtualization 설정 시 Red Hat Satellite에서 에라타를 볼 수 있습니다. 이를 통해 호스트 관리자가 사용 가능한 에라타와 그 중요성에 대한 업데이트를 호스트 설정을 관리하는 대시보드에서 받을 수 있습니다. Red Hat Satellite에 대한 보다 자세한 내용은 Red Hat Satellite User Guide에서 참조하십시오.
Red Hat Virtualization 4.0은 Red Hat Satellite 6.1을 사용한 에라타 관리를 지원합니다.

중요

Satellite 서버에서 호스트를 FQDN로 식별합니다. IP 주소를 사용해서 추가된 호스트는 에라타 보고를 할 수 없습니다. 이를 통해 외부 컨텐츠 호스트 ID가 Red Hat Virtualization에서 유지되지 않아도 됩니다.
호스트 관리에 사용되는 Satellite 계정은 관리자 권한이 있고 기본 조직이 설정되어야 합니다.

절차 6.3. 호스트에 대한 Satellite 에라타 관리 설정

  1. Satellite 서버를 외부 공급자로 추가합니다. 보다 자세한 내용은 11.2.1절. “호스트 프로비저닝을 위한 Red Hat Satellite 인스턴스 추가”에서 참조하십시오.
  2. 필요한 호스트를 Satellite 서버에 연결합니다.

    참고

    호스트는 해당 Satellite 서버에 등록되어 있고 katello-agent 패키지가 설치되어야 합니다.
    호스트 등록 설정 방법에 대한 보다 자세한 내용은 Red Hat Satellite User Guide에 있는 Configuring a Host for Registration에서 참조하고 호스트 등록 및 katello-agent 패키지 설치에 대한 보다 자세한 내용은 Red Hat Satellite User Guide에 있는 Registration에서 참조하시기 바랍니다.
    1. 호스트 탭에서 결과 목록에 있는 호스트를 선택합니다.
    2. 편집을 클릭하여 호스트 편집 창을 엽니다.
    3. Check the Foreman/Satellite 사용 체크 상자를 선택합니다.
    4. 드롭 다운 목록에서 원하는 Satellite 서버를 선택합니다.
    5. OK를 클릭합니다.
사용 가능한 에라타와 그 중요성에 대한 정보가 호스트 설정을 관리하는 대시보드에서 표시되도록 호스트가 설정되었습니다.

6.5.4. 새 호스트 및 호스트 편집 창 설정 및 제어

6.5.4.1. 호스트 일반 설정

호스트 상세 정보를 수정하거나 새 Red Hat Enterprise Linux 호스트 및 Satellite 호스트 공급자 호스트를 추가할 때 다음 설정을 적용합니다.
일반 설정 탭에는 새 호스트 또는 호스트 편집 창의 일반 탭에 필요한 정보가 있습니다.

표 6.1. 일반 설정

필드 이름
설명
데이터 센터
호스트가 속한 데이터 센터입니다. Red Hat Virtualization Host(RHVH)는 Gluster-활성 클러스터에 추가할 수 없습니다.
호스트 클러스터
호스트가 속한 클러스터입니다.
Foreman/Satellite 사용
이 확인란을 선택 또는 선택 해제하여 Satellite 호스트 공급자가 제공하는 호스트를 추가하기 위한 옵션을 표시 또는 숨기기합니다. 다음과 같은 옵션도 사용 가능합니다:
검색된 호스트
  • 검색된 호스트 - engine에 의해 검색된 Satellite 호스트의 이름으로 표시된 드롭 다운 목록입니다.
  • 호스트 그룹 -사용 가능한 호스트 그룹이 있는 드롭 다운 목록입니다.
  • 컴퓨터 리소스 - 컴퓨터 리소스를 제공하기 위한 하이퍼바이저의 드롭다운 목록입니다.
프로비저닝된 호스트
  • 공급자 호스트 - 선택한 외부 공급자에 의해 제공되는 호스트의 이름으로된 드롭 다운 목록입니다. 이 목록에 있는 항목은 공급자 검색 필터에 입력된 검색 쿼리에 따라 필터링됩니다.
  • 공급자 검색 필터 - 선택한 외부 공급자가 제공하는 호스트를 검색할 수있는 텍스트 필드입니다. 이 옵션은 공급자 별로 되어 있습니다. 특정 공급자에 대한 검색 쿼리 작성에 대한 자세한 내용은 공급자 설명서를 참조하십시오. 사용 가능한 모든 호스트를 보려면 이 필드를 비워 둡니다.
이름
클러스터 이름입니다. 텍스트 필드는 최대 40 자로 제한되어 있으며 알파벳 대문자, 소문자, 숫자, 하이픈, 밑줄로 조합된 고유한 이름이어야 합니다.
코멘트
호스트 관련 일반 텍스트 형식의 사용자가 읽을 수 있는 코멘트를 추가하기 위한 필드입니다.
주소
IP 주소 또는 확인 가능한 호스트의 호스트 이름입니다.
암호
호스트의 root 사용자 암호입니다. 호스트 추가 시에만 지정할 수 있으며 그 이후에는 편집할 수 없습니다.
SSH 공개키
호스트 인증을 위해 암호를 사용하는 대신 Manager의 SSH 키를 사용하는 경우 호스트에 있는 /root/.known_hosts 파일에 텍스트 상자의 내용을 복사합니다.
호스트 방화벽 자동 설정
새 호스트를 추가 할 때 Manager는 호스트의 방화벽에 필요한 포트를 열 수 있습니다. 이 옵션은 기본적으로 활성화되어 있습니다. 이는 고급 매개 변수입니다.
JSON 프로토콜 사용
이 옵션은 기본적으로 활성화되어 있습니다. 이는 고급 매개 변수입니다.
SSH 지문
호스트의 SSH 지문을 가져오기하여 호스트가 반환할 것으로 예상하는 지문과 일치하는지 비교할 수 있습니다. 이는 고급 매개 변수입니다.

6.5.4.2. 호스트 전원 관리 설정

전원 관리 설정 표에서는 새로운 호스트 또는 호스트 편집 창의 전원 관리 탭에 필요한 정보를 설명하고 있습니다.

표 6.2. 전원 관리 설정

필드 이름
설명
전원 관리 활성화
호스트에서 전원 관리를 활성화합니다. 이 확인란을 선택하여 전원 관리 탭에 있는 나머지 필드를 활성화합니다.
Kdump 통합
커널 크래시 덤프를 수행하는 동안 호스트가 펜싱되지 않도록 하여 크래시 덤프가 중단되지 않도록 합니다. Red Hat Enterprise Linux 7.1 이상에서 kdump는 기본값으로 사용 가능합니다. 호스트에서 Kdump를 사용할 수 있지만 설정이 유효하지 않은 (kdump 서비스를 시작할 수 없는)경우 Kdump 통합을 사용하면 호스트 설치에 실패하게 됩니다. 이러한 경우 6.6.4절. “fence_kdump 고급 설정”에서 참조하십시오.
전원 관리 정책 제어를 비활성화
전원 관리는 호스트 클러스터스케줄링 정책에 의해 제어됩니다. 전원 관리를 활성화하고 지정된 사용량 하한치에 도달한 경우 Manager는 호스트 머신의 전원을 종료하고 부하 분산이 필요하거나 클러스터에 여유 호스트가 충분하지 않을 경우 호스트를 다시 시작합니다. 이 확인란을 선택하여 정책 제어를 비활성화합니다.
순서대로 정렬된 에이전트
호스트의 펜스 에이전트를 나열합니다. 펜스 에이전트는 순차적으로나 동시에 또는 이 두가지를 혼합하여 사용할 수 있습니다.
  • 펜스 에이전트가 순차적으로 사용되는 경우 첫 번째 에이전트를 사용하여 호스트를 정지 또는 시작하며 실패할 경우 두 번째 에이전트가 사용됩니다.
  • 펜스 에이전트가 동시에 사용되는 경우 두 펜스 에이전트가 중지하려는 호스트의 중지 명령에 응답해야 합니다. 하나의 에이전트가 시작 명령에 응답하면 호스트가 시작됩니다.
기본값으로 펜스 에이전트는 순차적으로 사용됩니다. 위, 아래 버튼을 사용하여 사용할 펜스 에이전트 순서를 변경합니다.
두 개의 펜스 에이전트를 동시에 사용하려면 다른 펜스 에이전트 옆에 있는 동시 사용 에이전트 드롭 다운 목록에서 하나의 펜스 에이전트를 선택합니다. 추가 펜스 에이전트 옆에 있는 동시 사용 에이전트 드롭 다운 목록에서 그룹을 선택하여 동시에 사용할 펜스 에이전트 그룹에 추가 펜스 에이전트를 추가할 수 있습니다.
펜스 에이전트 추가
플러스 (+) 버튼을 클릭하여 새 펜싱 에이전트를 추가합니다. 펜스 에이전트 편집 창이 열립니다. 다음 표에는 이 창에 있는 필드에 대한 자세한 설명이 있습니다.
전원 관리 프록시 설정
기본값으로 Manager는 호스트와 동일한 cluster 내에 있는 펜싱 프록시를 검색하도록 지정되며 펜싱 프록시가 검색되지 않을 경우 Manager는 동일한 dc (데이터 센터)에서 검색합니다. 위, 아래 버튼을 사용하여 이러한 리소스의 사용 순서를 변경합니다. 이 필드는 고급 매개 변수 아래에 있습니다.
다음 표에는 펜스 에이전트 편집 창에 필요한 정보가 있습니다.

표 6.3. 펜스 에이전트 편집 설정

필드 이름
설명
주소
호스트의 전원 관리 장치에 액세스하기 위한 주소입니다. 확인 가능한 호스트 이름 또는 IP 주소입니다.
사용자 이름
전원 관리 장치에 액세스하기 위한 사용자 계정입니다. 장치에 사용자를 설정하거나 기본 사용자를 사용할 수 있습니다.
암호
전원 관리 장치에 액세스하기 위한 사용자 암호입니다.
유형
호스트의 전원 관리 장치 유형입니다.
다음 중 하나를 선택합니다:
  • apc - APC MasterSwitch 네트워크 전원 스위치. APC 5.x 전원 스위치 장치에 사용할 수 없습니다.
  • apc_snmp - APC 5.x 전원 스위치 장치에 사용합니다.
  • bladecenter - IBM Bladecenter Remote Supervisor Adapter.
  • cisco_ucs - Cisco Unified Computing System.
  • drac5 - Dell 컴퓨터 용 Dell Remote Access Controller.
  • drac7 - Dell 컴퓨터 용 Dell Remote Access Controller.
  • eps - ePowerSwitch 8M+ 네트워크 전원 스위치.
  • hpblade - HP BladeSystem.
  • ilo, ilo2, ilo3, ilo4 - HP Integrated Lights-Out.
  • ipmilan - Intelligent Platform Management Interface 및 Sun Integrated Lights Out Management 장치.
  • rsa - IBM Remote Supervisor Adapter.
  • rsb - Fujitsu-Siemens RSB 관리 인터페이스.
  • wti - WTI Network Power Switch.
SSH 포트
전원 관리 장치가 호스트와의 통신에 사용하는 포트 번호입니다.
슬롯
전원 관리 장치의 블레이드를 구별하기 위해 사용하는 번호입니다.
서비스 프로파일
전원 관리 장치의 블레이드를 구별하기 위해 사용하는 서비스 프로파일 이름입니다. 이 필드는 장치 유형이 cisco_ucs일 때 슬롯 대신 나타납니다.
옵션
전원 관리 장치 관련 옵션입니다. 'key=value'로 입력합니다. 사용 가능한 옵션은 호스트의 전원 관리 장치 관련 문서에서 참조하십시오.
Red Hat Enterprise Linux 7 호스트의 경우 전원 관리 장치로 cisco_ucs를 사용하고 있을 경우 옵션 필드에 ssl_insecure=1을 추가해야 합니다.
보안
이 확인란을 선택하여 전원 관리 장치를 호스트에 안전하게 연결합니다. 이는 전원 관리 에이전트에 따라 ssh, ssl, 기타 다른 인증 프로토콜을 통해 실행될 수 있습니다.

6.5.4.3. SPM 우선순위 설정

SPM 설정 탭에는 새 호스트 또는 호스트 편집 창의 SPM 탭에 필요한 정보에 대해 설명하고 있습니다.

표 6.4. SPM 설정

필드 이름
설명
SPM 우선순위
SPM (Storage Pool Manager) 역할이 지정된 호스트의 우선순위를 정의합니다. 우선순위 옵션에는 낮음, 보통, 높음이 있습니다. 낮은 우선순위는 해당 호스트에 SPM 역할이 할당될 수 있는 가능성이 낮아지고 높은 우선순위는 가능성이 높아짐을 의미합니다. 기본 설정은 보통입니다.

6.5.4.4. 호스트 콘솔 설정

콘솔 설정 표에서는 새로운 호스트 또는 호스트 편집 창의 콘솔 탭에 필요한 정보를 설명하고 있습니다.

표 6.5. 콘솔 설정

필드 이름
설명
출력 주소 덮어쓰기
이 체크 상자를 선택하여 호스트의 디스플레이 주소를 덮어쓰기합니다. 이 기능은 호스트가 내부 IP로 정의되어 있고 NAT 방화벽을 사용하고 있을 경우 유용합니다. 사용자가 내부 네트워크의 외부에서 가상 머신에 연결할 때 가상 머신을 실행하고 있는 호스트의 비공개 주소를 반환하지 않고 공용 IP 또는 FQDN을 (공용 IP의 외부 네트워크에서 확인됨) 반환합니다.
주소 출력
여기에 지정된 디스플레이 주소는 이 호스트에서 실행되는 모든 가상 머신에 사용됩니다. 주소는 완전 정규화된 도메인 이름이나 IP 주소 형식이어야 합니다.

6.5.5. 호스트 전원 관리 기능 설정

관리 포털에서 호스트 라이프 사이클 동작 (정지, 시작, 다시 시작)을 수행하려면 호스트 전원 관리 장치 기능을 설정합니다.
호스트 고가용성 및 가상 머신 고가용성을 활용하려면 호스트 전원 관리를 설정해야 합니다.

중요

전원 관리 설정을 구성하기 전 호스트가 maintenance mode인지 확인합니다. 호스트가 이 모드에 있지 않을 경우 해당 호스트에서 실행되는 모든 가상 머신은 호스트를 다시 시작할 때 중단되어 제품 환경에 장애가 발생할 수 있습니다. 호스트가 maintenance mode로 올바르게 설정되어 있지 않은 경우 경고 메세지가 표시됩니다.

절차 6.4. 전원 관리 설정

  1. 호스트 탭에서 결과 목록에 있는 호스트를 선택합니다.
  2. 편집을 클릭하여 호스트 편집 창을 엽니다.
  3. 전원 관리 탭을 클릭하여 전원 관리 설정을 표시합니다.
  4. 필드를 활성화하려면 전원 관리 활성화 확인란을 선택합니다.
  5. Kdump 통합 확인란을 선택하여 커널 크래시 덤프 실행 시 호스트가 차단되지 않게 합니다.

    중요

    기존 호스트에서 Kdump 통합을 활성화할 때 kdump를 설정하기 위해 호스트를 다시 설치해야 합니다. 6.5.11절. “호스트 다시 설치”에서 참조하십시오.
  6. 옵션으로 호스트의 전원 관리가 호스트 클러스터스케줄링 정책에 의해 제어되지 않게 하려면 전원 관리 정책 제어를 비활성화 확인란을 선택합니다.
  7. 플러스 (+) 버튼을 클릭하여 새 전원 관리 장치를 추가합니다. 펜스 에이전트 편집 창이 열립니다.
  8. 해당 란에 전원 관리 장치의 주소, 사용자 이름, 암호를 입력합니다.
  9. 드롭 다운 목록에서 전원 관리 장치 유형을 선택합니다.
  10. 전원 관리 장치가 사용하는 SSH 포트 번호를 입력하여 호스트와 통신합니다.
  11. 전원 관리 장치의 블레이드를 구별하기 위해 사용하는 슬롯 번호를 입력합니다.
  12. 전원 관리 장치의 옵션을 입력합니다. 콤마로 구분된 'key=value' 항목을 사용합니다.
  13. 보안 확인란을 선택하여 호스트에 안전하게 연결하는 전원 관리 장치를 활성화합니다.
  14. 테스트를 클릭하여 설정이 올바른지 확인합니다. 작업 완료 후 Test Succeeded, Host Status is: on이 표시됩니다.
  15. OK를 클릭하여 펜스 에이전트 편집 창을 닫습니다.
  16. 전원 관리 탭에서 옵션으로 고급 매개변수를 확장하고 위, 아래 버튼을 사용하여 Manager가 펜싱 프록시 용으로 호스트의 클러스터dc (datacenter)를 검색할 순서를 지정합니다.
  17. OK를 클릭합니다.
관리 포털에서 전원 관리 드롭 다운 메뉴가 활성화됩니다.

6.5.6. 호스트의 Storage Pool Manager 설정

SPM (Storage Pool Manager)는 데이터 센터에 있는 호스트에 할당된 관리 역할로 스토리지 도메인을 통해 액세스 제어를 유지관리합니다. SPM은 항상 사용 가능해야 하고 SPM 호스트가 사용 불가능하게 될 경우 SPM 역할은 다른 호스트에 할당됩니다. SPM 역할은 일부 호스트의 사용 가능한 리소스를 사용하므로 리소스에 여유가 있는 호스트의 우선순위를 높게 설정하는 것이 중요합니다.
호스트의 SPM (Storage Pool Manager) 우선순위 설정에 따라 SPM 역할에 할당될 가능성을 변경할 수 있습니다. 높은 SPM 우선순위를 갖는 호스트는 낮은 SPM 우선순위를 갖는 호스트 보다 먼저 SPM 역할이 할당됩니다.

절차 6.5. SPM 항목 설정

  1. 호스트 리소스 탭을 클릭하여 결과 목록에서 호스트를 선택합니다.
  2. 편집을 클릭하여 호스트 편집 창을 엽니다.
  3. SPM 탭을 클릭하여 SPM 우선순위 설정을 표시합니다.
  4. 라디오 버튼을 사용하여 호스트에 대해 알맞는 SPM 우선순위를 선택합니다.
  5. OK를 클릭하여 설정을 저장하고 창을 닫습니다.
호스트의 SPM 우선순위가 설정됩니다.

6.5.7. 리소스 편집

리소스 속성을 편집합니다.

절차 6.6. 리소스 편집

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 편집을 클릭하여 편집 창을 엽니다.
  3. 필요한 속성을 변경하고 OK를 클릭합니다.
새로운 속성이 리소스에 저장됩니다. 속성 필드가 잘못되어 있을 경우 편집 창은 닫히지 않습니다.

6.5.8. 호스트를 유지 관리 모드로 변경

네트워크 설정 및 소프트웨어 업데이트 배포를 포함하여 일반적인 유지 보수 작업을 하려면 호스트를 유지 보수 모드로 전환해야 합니다. 재부팅이나 네트워크 또는 스토리지 관련 문제로 인해 VDSM이 올바르게 작동하지 않을 수 있으므로 이러한 문제가 발생하기 전 호스트를 유지 보수 모드로 전환해야 합니다.
호스트를 유지 관리 모드로 전환할 때 Red Hat Virtualization Manager는 실행 중인 모든 가상 머신을 다른 호스트에 마이그레이션하려 합니다. 라이브 마이그레이션의 경우 표준 전제 조건이 적용되며 특히 클러스터에 마이그레이션된 가상 머신을 실행할 용량이 있는 활성 호스트가 최소 1대 있어야 합니다.

절차 6.7. 호스트를 유지 관리 모드로 전환

  1. 호스트 리소스 탭을 클릭하여 원하는 호스트를 선택합니다.
  2. 유지보수를 클릭하면 호스트 유지관리 모드 확인 창이 열립니다.
  3. 옵션으로 호스트 유지관리 모드 확인 창에서 호스트를 유지 관리 모드로 전환하려는 이유를 입력합니다. 이를 통해 유지 관리 에 대한 설명을 제공할 수 있으며 이는 로그에 호스트가 다시 활성화될 때에 표시됩니다.

    참고

    호스트 유지 관리 이유 필드는 클러스터 설정에서 활성화되어 있는 경우에만 표시됩니다. 보다 자세한 내용은 4.2.2.1절. “일반 클러스터 설정”에서 참조하십시오.
  4. OK를 클릭하여 유지 관리 모드를 시작합니다.
실행 중인 모든 가상 머신은 다른 호스트에 마이그레이션됩니다. 호스트가 SPM (Storage Pool Manager)일 경우 SPM 역할은 다른 호스트에 마이그레이션됩니다. 호스트의 상태 필드는 Preparing for Maintenance로 변경되고 작업이 성공적으로 완료되면 Maintenance로 됩니다. VDSM은 호스트가 유지 관리 모드일 경우 중지되지 않습니다.

참고

가상 머신에서 마이그레이션을 실패할 경우 호스트에 있는 활성화를 클릭하여 유지 관리 모드로의 전환 작업을 중지한 후 가상 머신에 있는 마이그레이션 취소를 클릭하여 마이그레이션을 중지합니다.

6.5.9. 유지 관리 모드에서 호스트 활성화

유지 관리 모드에 있는 호스트나 최근 환경에 추가된 호스트는 사용하기 전 활성화해야 합니다. 호스트가 준비되어 있지 않은 경우 활성화되지 않을 수 있습니다. 호스트를 활성화하기 전 모든 작업이 완료되었는지 확인합니다.

절차 6.8. 유지 관리 모드에서 호스트 활성화

  1. 호스트 리소스 탭을 클릭하여 호스트를 선택합니다.
  2. 활성화 버튼을 클릭합니다.
호스트의 상태를 Unassigned로 변경하고 작업 완료되면 Up 상태가 됩니다. 이제 가상 머신을 호스트에서 실행할 수 있습니다. 호스트가 유지 보수 모드로 되어 있을 때 다른 호스트로 마이그레이션된 가상 머신은 활성화 시 호스트에 자동으로 마이그레이션 반환되지 않지만 수동으로 마이그레이션할 수 있습니다. 호스트를 유지 관리 모드로 변경하기 전 호스트가 SPM (Storage Pool Manager)인 경우 호스트 활성화 시 SPM 역할은 자동으로 반환되지 않습니다.

6.5.10. 호스트 삭제

가상 환경에서 호스트를 삭제합니다.

절차 6.9. 호스트 삭제

  1. 관리 포털에서 호스트 리소스 탭을 클릭하고 결과 목록에서 호스트를 선택합니다.
  2. 호스트를 유지 관리 모드로 변경합니다.
  3. 삭제를 클릭하면 호스트 삭제 확인 창이 열립니다.
  4. 호스트가 Red Hat Gluster Storage 클러스터의 부분으로 볼륨 브릭이 있거나 호스트가 응답하지 않는 경우 강제 삭제 확인란을 선택합니다.
  5. OK를 클릭합니다.
호스트가 환경에서 삭제되어 더이상 호스트 탭에서 볼 수 없습니다.

6.5.11. 호스트 다시 설치

관리 포털에서 Red Hat Virtualization Host (RHVH) 및 Red Hat Enterprise Linux 호스트를 다시 설치합니다. 다음 절차에 따라 현재 설치된 RHVH ISO 이미지와 동일한 버전의 RHVH를 다시 설치합니다. 이 절차에서는 Red Hat Enterprise Linux 호스트에 VDSM가 다시 설치되며 이에는 호스트 중지 및 재시작이 포함됩니다. 클러스터 레벨에서 마이그레이션이 활성화되어 있을 경우 가상 머신은 클러스터에 있는 다른 호스트로 자동으로 마이그레이션되므로 호스트 사용량이 비교적 적을 때 호스트 재설치 작업을 수행하는 것이 좋습니다.
호스트가 속한 클러스터에는 호스트가 유지 관리를 수행하기에 충분한 메모리를 보유하고 있어야 합니다. 메모리가 불충분한 클러스터에서 실행되는 가상 머신이 유지 관리 모드로 전환하면 가상 머신 마이그레이션 작업이 중단되고 작업 실패하게 됩니다. 호스트를 유지 관리 모드로 전환하기 전 일부 또는 모든 가상 머신을 종료하여 작업의 메모리 사용량을 감소시킬 수 있습니다.

중요

다시 설치를 수행하기 전 클러 스터에 하나 이상의 호스트가 포함되어 있는지 확인합니다. 모든 호스트를 동시에 다시 설치하지 않도록 합니다. 하나의 호스트는 SPM (Storage Pool Manager) 작업을 수행할 수 있도록 사용 가능한 상태로 남아 있어야 합니다.

절차 6.10. Red Hat Virtualization Host 또는 Red Hat Enterprise Linux 호스트 다시 설치

  1. 호스트 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 호스트를 검색 및 선택합니다.
  2. 유지 관리를 클릭합니다. 클러스터 레벨에서 마이그레이션이 활성화되어 있을 경우 호스트에서 실행되고 있는 가상 머신은 다른 호스트로 마이그레이셔됩니다. 호스트가 SPM일 경우 이 그능은 다른 호스트로 이동합니다. 호스트가 유지 관리 모드가 되면 호스트 상태가 변경됩니다.
  3. 다시 설치를 클릭하여 호스트 설치 창을 엽니다.
  4. OK를 클릭하여 호스트를 다시 설치합니다.
다시 설치를 완료하면 호스트는 Up 상태로 표시됩니다. 이 시점에서 호스트에서 마이그레이션된 가상 머신을 원래 호스트로 되돌릴 수 있습니다.

중요

Red Hat Virtualization Host를 Red Hat Virtualization Manager에 등록 완료하고 다시 설치한 후 관리 포털에 설치 실패 상태로 표시되는 경우가 있습니다. 활성화를 클릭하면 Host는 Up 상태로 변경되어 사용 가능한 상태가 됩니다.

6.5.12. 태그로 호스트를 사용자 정의하기

태그를 사용하여 호스트에 관한 정보를 저장할 수 있습니다. 그 후 태그에 따라 호스트를 검색할 수 있습니다.

절차 6.11. 태그로 호스트를 사용자 정의하기

  1. 호스트 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 호스트를 검색 및 선택합니다.
  2. 태그 지정을 클릭하여 태그 지정 창을 엽니다.
    태그 지정 창

    그림 6.1. 태그 지정 창

  3. 태그 지정 창에틑 사용가능한 모든 태그가 나열됩니다. 해당 태그의 체크 상자를 선택합니다.
  4. OK를 클릭하여 태그를 지정하고 창을 닫습니다.
호스트에 대한 검색 가능한 정보가 태그로 추가됩니다.

6.5.13. 호스트 에라타 표시

호스트가 Red Hat Satellite 서버에서 에라타 정보를 받도록 설정된 후 각 호스트의 에라타가 표시됩니다. 에라타 정보를 받도록 호스트를 설정하는 방법에 대한 보다 자세한 내용은 6.5.3절. “호스트에 대한 Satellite 에라타 관리 설정”에서 참조하십시오.

절차 6.12. 호스트 에라타 표시

  1. 호스트 리소스 탭을 클릭하여 결과 목록에서 호스트를 선택합니다.
  2. 상세 정보 창의 일반 탭을 클릭합니다.
  3. 일반 탭에서 에라타 하위 탭을 클릭합니다.

6.5.14. 호스트 상태 표시

호스트는 일반적인 상태 외에 외부 상태가 있습니다. 외부 상태는 플러그인 또는 외부 시스템에 의해 보고되거나 관리자가 설정하며 호스트 이름 왼쪽에 다음의 아이콘 중에서 하나가 표시됩니다:
  • OK: 아이콘 없음
  • Info:
  • Warning:
  • Error:
  • Failure:
호스트 상태에 대한 상세 정보를 표시하기 위해 해당 호스트를 선택하고 이벤트 하위 탭을 클릭합니다.
호스트 상태는 REST API로 표시될 수도 있습니다. 호스트에 대한 GET 요청에는 호스트 상태가 들어 있는 external_status 요소가 포함됩니다.
events 컬렉션을 통해 REST API에서 호스트 상태를 설정할 수 있습니다. 자세한 정보는 REST API Guide에 있는 Adding Events에서 참조하십시오.

6.5.15. 호스트 장치 표시

상세 정보 창에서 각 호스트의 호스트 장치를 표시할 수 있습니다. 호스트에 직접 장치 할당이 설정된 경우 해당 장치는 성능 향상을 위해 가상 머신에 직접 연결될 수 있습니다.
직접 장치 할당에 필요한 하드웨어 요구 사항에 대한 자세한 정보는 Red Hat Virtualization Hardware Considerations for Implementing SR-IOV에 있는 Additional Hardware Considerations for Using Device Assignment에서 참조하십시오.
호스트에 직접 장치 할당 설정에 대한 자세한 정보는 설치 가이드에 있는 PCI 통과(Passthrough)를 위한 호스트 설정을 참조하십시오.
가상 머신에 호스트 장치 연결에 대한 자세한 정보는 Virtual Machine Management Guide에 있는 Host Devices에서 참조하십시오.

절차 6.13. 호스트 장치 표시

  1. 호스트 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 호스트를 검색 및 선택합니다.
  2. 상세 정보 창에서 호스트 장치 탭을 클릭합니다.
상세 정보 창에는 호스트 장치가 가상 머신에 연결되어 있는지 여부, 현재 그 가상 머신에 의해 사용중인지 여부 등 호스트 장치에 대한 상세 정보가 표시됩니다.

6.5.16. GPU 통과(Passthrough)에 필요한 호스트 및 게스트 시스템 준비

호스트의 GPU(Graphics Processing Unit) 장치는 가상 머신에 직접 연결될 수 있습니다. 이것이 가능하기 위해 호스트와 가상 머신 모두의 grub 설정 파일을 수정해야 합니다. 두 시스템 모두 다시 시작해서 변경 사항을 적용합니다.
이 절차는 x86_64 또는 ppc64le 아키텍처의 호스트에 해당됩니다.
직접 장치 할당에 필요한 하드웨어 요구 사항에 대한 자세한 정보는 설치 가이드에 있는 PCI 장치 요구 사항을 참조하십시오.

절차 6.14. GPU 통과(Passthrough)에 필요한 호스트 준비

  1. 호스트 서버에 로그인하고 vendor ID:product ID 장치를 찾습니다.다음의 예시에서 사용된 ID는 10de:13ba10de:0fbc입니다.
    # lspci -nn
    ...
    01:00.0 VGA compatible controller [0300]: NVIDIA Corporation GM107GL [Quadro K2200] [10de:13ba] (rev a2)
    01:00.1 Audio device [0403]: NVIDIA Corporation Device [10de:0fbc] (rev a1)
    ...
  2. grub 설정 파일 편집 후 GRUB_CMDLINE_LINUX 행 뒤에 pci-stub.ids=xxxx:xxxx를 덧붙입니다.
    # vi /etc/default/grub
    ...
    GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... pci-stub.ids=10de:13ba,10de:0fbc"
    ...
    호스트에서 해당하는 드라이버를 블랙리스트에 추가합니다. 다음의 예시에서는 GRUB_CMDLINE_LINUX 행을 추가로 수정해서 nVidia의 nouveau driver가 블랙리스트에 추가됩니다.
    # vi /etc/default/grub
    ...
    GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... pci-stub.ids=10de:13ba,10de:0fbc rdblacklist=nouveau"
    ...
    grub 설정 파일을 저장합니다.
  3. 변경 사항을 반영하기 위해 grub.cfg 파일을 새로고침하고 서버를 재부팅합니다:
    # grub2-mkconfig -o /boot/grub2/grub.cfg
    # reboot
  4. lspci 명령을 사용해서 장치의 pci-stub 드라이버 연결을 확인합니다:
    # lspci -nnk
    ...
    01:00.0 VGA compatible controller [0300]: NVIDIA Corporation GM107GL [Quadro K2200] [10de:13ba] (rev a2)
            Subsystem: NVIDIA Corporation Device [10de:1097]
            Kernel driver in use: pci-stub
    01:00.1 Audio device [0403]: NVIDIA Corporation Device [10de:0fbc] (rev a1)
            Subsystem: NVIDIA Corporation Device [10de:1097]
            Kernel driver in use: pci-stub
    ...
게스트 시스템에서 GPU 통과(Passthrough) 설정을 위해 다음 절차를 진행합니다.

절차 6.15. GPU 통과(Passthrough)에 필요한 게스트 가상 머신 준비

    • Linux의 경우
      1. 독점 GPU 드라이버만 지원됩니다. 해당되는 오픈소스 드라이버를 grub 설정 파일의 블랙리스트에 추가합니다. 예:
        $ vi /etc/default/grub
        ...
        GRUB_CMDLINE_LINUX="nofb splash=quiet console=tty0 ... rdblacklist=nouveau"
        ...
      2. GPU BusID를 찾습니다. 다음의 예시에서 BusID는 00:09.0입니다.
        # lspci | grep VGA
        00:09.0 VGA compatible controller: NVIDIA Corporation GK106GL [Quadro K4000] (rev a1)
      3. /etc/X11/xorg.conf 파일을 편집하여 다음 내용을 추가합니다:
        Section "Device"
        Identifier "Device0"
        Driver "nvidia"
        VendorName "NVIDIA Corporation"
        BusID "PCI:0:9:0"
        EndSection
      4. 가상 머신을 다시 시작합니다.
    • Windows의 경우
      1. 장치에 해당되는 드라이버를 다운로드하여 설치합니다. 예를 들어 Nvidia 드라이버의 경우 NVIDIA Driver Downloads로 갑니다.
      2. 가상 머신을 다시 시작합니다.
호스트 GPU가 준비된 가상 머신에 직접 할당될 수 있습니다. 가상 머신에 호스트 장치 할당에 대한 자세한 정보는 Virtual Machine Management Guide에 있는 Host Devices에서 참조하십시오.

6.5.17. 관리 포털에서 Cockpit 액세스

Cockpit UI 플러그인은 옵션 기능이며 Red Hat Virtualization 환경에 설치될 수 있습니다. 이러한 플러그인을 사용하여 관리 포털에서 호스트 리소스를 모니터링 및 관리하는 Cockpit 사용자 인터페이스에 액세스할 수 있습니다. Cockpit이 설치된 호스트 선택 시 관리 포털의 상세 정보 창의 Cockpit 사용자 인터페이스가 직접 Cockpit 하위 탭에 표시됩니다. 또는 메인 호스트 메뉴에 있는 Cockpit 버튼을 누르면 새 브라우저 탭에서 Cockpit 사용자 인터페이스가 열립니다.
Cockpit 사용자 인터페이스는 기본으로 Red Hat Virtualization Host (RHVH)에서 사용 가능합니다. 현재 Red Hat Enterprise Linux 호스트에서는 지원되지 않습니다.

절차 6.16. 관리 포털에서 Cockpit 액세스

  1. Manager 시스템에 Cockpit UI 플러그인을 설치합니다:
    # yum install cockpit-ovirt-uiplugin
  2. 관리 포털에서 호스트 탭을 클릭하고 호스트를 선택합니다.
  3. 새 탭에서 Cockpit 사용자 인터페이스를 열거나 관리 포털에서 바로 표시합니다:
    • 호스트을 오른쪽 클릭하고 Cockpit을 선택하면 새 브라우저 탭에서 Cockpit 사용자 인터페이스가 열립니다.
    • Cockpit 하위 탭을 클릭하여 Hosts 탭의 상세 정보 창에 Cockpit 사용자 인터페이스를 표시합니다.

      참고

      선택한 호스트에서 Cockpit을 사용할 수 없는 경우 Cockpit 하위 탭에 기본적인 문제 해결 방법이 설명되어 있습니다.

6.6. 호스트 복원

6.6.1. 호스트 고가용성

Red Hat Virtualization Manager는 펜싱을 사용하여 클러스터에 있는 호스트를 응답 가능한 상태로 둡니다. 응답하지 않음 호스트는 작동하지 않음 호스트와 다릅니다. Manager는 작동하지 않음 호스트와 통신할 수 있지만 논리 네트워크의 누락과 같은 잘못된 설정이 있을 수 있습니다. Manager는 응답하지 않음 호스트와 통신할 수 없습니다.
전원 관리 장치를 사용하는 호스트가 Manager와 통신할 수 없을 경우 관리 포털에서 펜싱 (재부팅)할 수 있습니다. 호스트에서 실행되는 모든 가상 머신이 중지되고 고가용성 가상 머신이 다른 호스트에서 시작됩니다.
모든 전원 관리 작업은 Red Hat Virtualization Manager에 의해 직접 실행되는 것이 아닌 프록시 호스트를 사용하여 실행됩니다. 전원 관리 작업에는 최소 2 개의 호스트가 필요합니다.
펜싱을 통해 클러스터는 예기치 않은 호스트 오류, 절전, 부하 분산, 가상 머신 가용성 정책에 대응할 수 있습니다. 호스트의 전원 관리 장치에 따라 펜싱 매개 변수를 설정하고 수시로 설정이 올바른지 테스트합니다.
전원 관리 매개 변수를 사용하여 호스트를 자동으로 펜싱하거나 호스트를 오른쪽 클릭하여 나타나는 메뉴의 옵션을 사용하여 수동으로 펜싱합니다. 펜싱 작업에서 응답 없음 상태의 호스트가 재부팅되고 지정된 시간 내에 호스트가 활성 상태로 반환되지 않을 경우 수동으로 문제해결을 하지 않는 한 응답 없음 상태가 유지됩니다.
호스트가 고가용성 가상 머신을 실행해야 할 경우 전원 관리를 활성화 및 설정해야 합니다.

6.6.2. Red Hat Virtualization에서 프록시를 통해 전원 관리

Red Hat Virtualization Manager는 펜스 에이전트와 직접 통신하지 않습니다. 대신 Manager는 프록시를 사용하여 호스트 전원 관리 장치에 전원 관리 명령을 전송합니다. Manager는 VDSM을 사용하여 전원 관리 장치 작업을 실행하고 환경에 있는 다른 호스트는 펜싱 프록시로 사용됩니다.
다음 중 하나를 선택할 수 있습니다:
  • 펜싱이 필요한 호스트와 동일한 클러스터에 있는 호스트입니다.
  • 펜싱이 필요한 호스트와 동일한 데이터 센터에 있는 호스트입니다.
사용 가능한 펜싱 프록시 호스트는 UP 또는 유지 관리 상태입니다.

6.6.3. 호스트에서 펜싱 매개 변수 설정

호스트 펜싱용 매개 변수는 새 호스트 또는 호스트 편집 창의 전원 관리 필드에서 설정합니다. 전원 관리에서 시스템은 RAC (Remote Access Card)와 같은 추가 인터페이스를 사용하여 호스트 문제를 펜싱합니다.
모든 전원 관리 작업은 Red Hat Virtualization Manager에 의해 직접 실행되는 것이 아닌 프록시 호스트를 사용하여 실행됩니다. 전원 관리 작업에는 최소 2 개의 호스트가 필요합니다.

절차 6.17. 호스트에서 펜싱 매개 변수 설정

  1. 호스트 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 호스트를 검색 및 선택합니다.
  2. 편집을 클릭하여 호스트 편집 창을 엽니다.
  3. 전원 관리 탭을 클릭합니다.
    전원 관리 설정

    그림 6.2. 전원 관리 설정

  4. 필드를 활성화하려면 전원 관리 활성 확인란을 선택합니다.
  5. Kdump 통합 확인란을 선택하여 커널 크래시 덤프 실행 시 호스트가 차단되지 않게 합니다.

    중요

    기존 호스트에서 Kdump 통합을 활성화할 때 kdump를 설정하기 위해 호스트를 다시 설치해야 합니다. 6.5.11절. “호스트 다시 설치”에서 참조하십시오.
  6. 옵션으로 호스트의 전원 관리가 호스트 클러스터의 스케줄링 정책에 의해 제어되지 않게 하려면 전원 관리 정책 제어를 비활성화 확인란을 선택합니다.
  7. 플러스 (+) 버튼을 클릭하여 새 전원 관리 장치를 추가합니다. 펜스 에이전트 편집 창이 열립니다.
    펜스 에이전트 편집

    그림 6.3. 펜스 에이전트 편집

  8. 전원 관리 장치의 주소, 사용자 이름, 암호를 입력합니다.
  9. 드롭 다운 목록에서 전원 관리 장치 유형을 선택합니다.

    참고

    사용자 정의 전원 관리 장치 설정 방법에 대한 자세한 내용은 https://access.redhat.com/articles/1238743에서 참조하십시오.
  10. 전원 관리 장치가 사용하는 SSH 포트 번호를 입력하여 호스트와 통신합니다.
  11. 전원 관리 장치의 블레이드를 구별하기 위해 사용하는 슬롯 번호를 입력합니다.
  12. 전원 관리 장치의 옵션을 입력합니다. 콤마로 구분된 'key=value' 항목을 사용합니다.
  13. 보안 확인란을 선택하여 호스트에 안전하게 연결하는 전원 관리 장치를 활성화합니다.
  14. 테스트 버튼을 클릭하여 설정이 올바른지 확인합니다. 작업 완료 후 Test Succeeded, Host Status is: on이 표시됩니다.

    주의

    전원 관리 매개 변수 (사용자 ID, 암호, 옵션 등)는 설정 시 Red Hat Virtualization Manager에 의해 테스트되며 그 후에는 수동으로 실행합니다. 잘못된 매개 변수에 대한 경고를 무시하거나 매개 변수가 전원 관리 하드웨어에서 변경되었지만 Red Hat Virtualization Manager에서는 변경되지 않은 경우 펜싱 실행을 실패할 수 있습니다.
  15. OK를 클릭하여 펜스 에이전트 편집 창을 닫습니다.
  16. 전원 관리 탭에서 옵션으로 고급 매개변수를 확장하고 위, 아래 버튼을 사용하여 Manager가 펜싱 프록시 용으로 호스트의 클러스터dc (datacenter)를 검색할 순서를 지정합니다.
  17. OK를 클릭합니다.
호스트 목록으로 돌아갑니다. 전원관리가 올바르게 설정 완료되었음을 나타내는 호스트 이름 옆의 느낌표는 더이상 표시되지 않음에 유의합니다.

6.6.4. fence_kdump 고급 설정

kdump
상세 정보 창의 일반 탭에서 kdump 서비스 상태를 확인하기 위해 호스트를 선택합니다.
  • 활성화됨: kdump가 올바르게 설정되어 kdump 서비스가 실행되고 있습니다.
  • 비활성화됨: kdump 서비스가 실행되고 있지 않습니다 (이 경우 kdump 통합이 올바르게 작동하지 않게 됩니다).
  • 알 수 없음: kdump 상태를 보고하지 않는 이전 VDSM 버전을 사용하는 호스트의 경우에만 발생합니다.
kdump 설치 및 사용에 대한 보다 자세한 내용은 Red Hat Enterprise Linux 7 Kernel Crash Dump Guide에서 참조하십시오.
fence_kdump
새 호스트 또는 호스트 수정 창의 전원 관리 탭에서 Kdump 통합을 활성화하여 표준 fence_kdump 설정을 구성합니다. 환경의 네트워크 설정이 간단하고 Manager의 FQDN이 모든 호스트에서 확인 가능한 경우 기본 fence_kdump 설정이면 충분합니다.
하지만 일부 경우 fence_kdump 고급 설정이 필요할 수 있습니다. 보다 복잡한 네트워크로 구성된 환경의 경우 Manager, fence_kdump 수신기 또는 두 가지 모두를 설정하기 위해 수동으로 구성을 변경해야 할 수 도 있습니다. 예를 들어 Manager의 FQDN을 Kdump 통합이 활성화된 모든 호스트에서 사용 불가능할 경우 engine-config를 사용하여 적절한 호스트 이름이나 IP 주소를 설정할 수 있습니다:
engine-config -s FenceKdumpDestinationAddress=A.B.C.D
다음 예에서는 설정 사항을 변경해야 할 수 있습니다:
  • Manager에는 두 개의 NIC가 있습니다. 여기서 하나는 public-facing에 용이고 다른 하나는 fence_kdump 메세지의 지정 대상이 됩니다.
  • 다른 IP 또는 포트에서 fence_kdump 수신기를 실행해야 합니다.
  • fence_kdump 통지 메세지에 대해 사용자 정의 간격을 설정하여 가능한 패킷 손실을 방지합니다.
사용자 정의된 fence_kdump 검색 설정은 고급 사용자의 경우에만 권장됩니다. 이는 기본 설정으로의 변경이 보다 복잡한 네트워킹 설정에만 필요하기 때문입니다. fence_kdump 수신기의 설정 옵션은 6.6.4.1절. “fence_kdump 수신기 설정”에서 참조하십시오. Manager에서 kdump 설정에 대한 내용은 6.6.4.2절. “Manager에서 fence_kdump 설정”에서 참조하십시오.

6.6.4.1. fence_kdump 수신기 설정

fence_kdump 수신기 설정을 편집합니다. 이는 기본 설정으로 충분하지 않은 경우에만 편집합니다.

절차 6.18. 수동으로 fence_kdump 수신기 설정

  1. /etc/ovirt-engine/ovirt-fence-kdump-listener.conf.d/에 새로운 파일을 (예: my-fence-kdump.conf) 생성합니다.
  2. OPTION=value 구문으로 사용자 설정 항목을 입력하고 파일을 저장합니다.

    중요

    편집된 값은 6.6.4.2절. “Manager에서 fence_kdump 설정”에있는 fence_kdump 수신기 설정 옵션 표에서 설명되어 있듯이 engine-config도 변경해야 합니다.
  3. fence_kdump 수신기를 다시 시작합니다:
    # service ovirt-fence-kdump-listener restart
필요한 경우 다음과 같은 옵션을 사용자 설정합니다:

표 6.6. fence_kdump 수신기 설정 옵션

변수 설명기본값 알림
LISTENER_ADDRESSfence_kdump 메세지를 수신하기 위해 IP 주소를 정의합니다.0.0.0.0이 매개 변수 값을 변경할 경우 engine-config에 있는 FenceKdumpDestinationAddress 값과 일치해야 합니다.
LISTENER_PORTfence_kdump 메세지를 수신하기 위해 포트를 정의합니다.7410이 매개 변수 값을 변경할 경우 engine-config에 있는 FenceKdumpDestinationPort 값과 일치해야 합니다.
HEARTBEAT_INTERVAL수신기의 하트비트 업데이트 간격을 초 단위로 정의합니다.30매개 변수 값을 변경할 경우 engine-config에 있는 FenceKdumpListenerTimeout 값 보다 작은 절반 이하의 크기여야 합니다.
SESSION_SYNC_INTERVAL수신기의 호스트 메모리에서 kdumping 세션을 데이터베이스로 동기화하는 간격을 초 단위로 정의합니다.5매개 변수 값을 변경할 경우 engine-config에 있는 KdumpStartedTimeout 값 보다 작은 절반 이하의 크기여야 합니다.
REOPEN_DB_CONNECTION_INTERVAL이전에 사용 불가능했던 데이터 베이스 연결을 다시 열기위한 간격을 초 단위로 정의합니다.30-
KDUMP_FINISHED_TIMEOUT호스트 kdump 흐름이 FINISHED로 표시된 후 kdump 실행 호스트에서 마지막으로 메세지를 수신할 때 까지 최대 시간 제한을 초 단위로 정의합니다.60매개 변수 값을 변경할 경우 engine-config에 있는 FenceKdumpMessageInterval 값 보다 2 배 이상으로 큰 크기여야 합니다.

6.6.4.2. Manager에서 fence_kdump 설정

Manager의 kdump 설정을 편집합니다. 이는 기본 설정으로 충분하지 않을 경우에만 필요합니다. 현재 설정 값은 다음을 사용하여 확인할 수 있습니다:
# engine-config -g OPTION

절차 6.19. engine-config를 사용하여 수동으로 Kdump 설정

  1. engine-config 명령을 사용하여 kdump 설정을 편집합니다:
    # engine-config -s OPTION=value

    중요

    편집된 값은 Kdump 설정 옵션 표에 설명되어 있듯이 fence_kdump 수신기 설정 파일에도 변경해야 합니다. 자세한 내용은 6.6.4.1절. “fence_kdump 수신기 설정”에서 참조하십시오.
  2. ovirt-engine 서비스를 다시 시작합니다:
    # service ovirt-engine restart
  3. 필요한 경우 Kdump 통합 활성으로 모든 호스트를 다시 설치합니다 (아래 표 참조).
다음 옵션은 engine-config 명령을 사용하여 설정할 수 있습니다:

표 6.7. Kdump 설정 옵션

변수 설명기본값 알림
FenceKdumpDestinationAddressfence_kdump 메세지를 전송할 호스트 이름 또는 IP 주소를 정의합니다. 값이 비어 있을 경우 Manager의 FQDN이 사용됩니다.빈 문자열 (Manager의 FQDN이 사용됨)이 매개 변수 값을 변경할 경우 fence_kdump 수신기 설정 파일에 있는 LISTENER_ADDRESS 값과 일치해야 하며 Kdump 통합 활성화된 모든 호스트를 다시 설치해야 합니다.
FenceKdumpDestinationPortfence_kdump 메세지를 전송하기 위한 포트를 정의합니다.7410이 매개 변수 값을 변경할 경우 fence_kdump 수신기 설정 파일에 있는 LISTENER_PORT 값과 일치해야 하며 Kdump 통합 활성화된 모든 호스트를 다시 설치해야 합니다.
FenceKdumpMessageIntervalfence_kdump에서의 메세지 전송 간격을 초 단위로 정의합니다.5이 매개 변수 값을 변경할 경우 fence_kdump 수신기 설정 파일에 있는 KDUMP_FINISHED_TIMEOUT 값보다 작거나 절반 이하로 해야 하며 Kdump 통합 활성화된 모든 호스트를 다시 설치해야 합니다.
FenceKdumpListenerTimeout마지막 하트비트 후 fence_kdump 수신기가 실행될 것으로 예상되는 최대 시간 제한을 초 단위로 정의합니다.90이 매개 변수 값을 변경할 경우 fence_kdump 수신기 설정 파일에 있는 HEARTBEAT_INTERVAL 값 보다 두 배 이상으로 커야 합니다.
KdumpStartedTimeout kdump를 실행하는 호스트에서 첫 번째 메세지를 수신할 때 까지 (호스트 kdump 흐름을 감지할 때 까지) 최대 대기 시간 시간 제한을 초 단위로 정의합니다.30이 매개 변수 값을 변경할 경우 fence_kdump 수신기 설정 파일에 있는 SESSION_SYNC_INTERVALFenceKdumpMessageInterval 값 보다 두 배 이상으로 커야 합니다.

6.6.5. 호스트 소프트 펜싱

경우에 따라 호스트는 예상치 못한 문제가 발생하여 응답 없음 (non-responsive) 상태가 될 수 있으며 VDSM은 요청에 응답할 수 없지만 VDSM에 의존하는 가상 머신은 가동 및 액세스 가능한 상태가 됩니다. 이러한 경우 VDSM을 다시 시작하면 VDSM 은 응답 가능한 상태가 되어 이러한 문제가 해결됩니다.
"SSH 소프트 펜싱"은 Manager가 응답 없음 상태의 호스트에서 SSH를 통해 VDSM을 다시 시작하는 절차입니다. Manager가 SSH를 통해 VDSM을 다시 시작할 수 없는 경우 외부 펜싱 에이전트가 설정되어 있을 때 펜싱은 외부 펜싱 에이전트의 책임이 됩니다.
SSH를 통한 소프트 펜싱은 다음과 같은 경우에 작동합니다. 호스트에서 펜싱이 설정되어 활성화되어 있어야 하며 유효한 프록시 호스트 (데이터 센터에서 UP 상태의 두 번째 호스트)가 존재해야 합니다. Manager와 호스트 간의 연결 시간 초과 시 다음과 같은 상태가 발생합니다:
  1. 첫 번째 네트워크 장애 발생 시 호스트 상태는 "connecting"으로 변경됩니다.
  2. Manager는 VDSM에게 상태를 3번 확인하거나 호스트에서의 로딩에 의해 결정되는 대기 시간 동안 기다립니다. 이러한 대기 시간을 결정하는 수식은 TimeoutToResetVdsInSeconds (기본값 60 초) + [DelayResetPerVmInSeconds (기본값 0.5 초)]*(호스트에서 실행 중인 가상 머신 수) + [DelayResetForSpmInSeconds (기본값 20 초)] * 1 (호스트가 SPM으로 실행 중인 경우) 또는 0 (호스트가 SPM으로 실행하지 않는 경우)의 설정 값에 의해 지정됩니다. VDSM에 최대 응답 시간을 부여하려면 Manager는 위의 옵션 ( VDSM의 상태를 3번 확인하거나 위의 수식에 의해 지정되는 대기 시간 동안 대기) 중 두 개의 긴 옵션을 선택합니다.
  3. 시간이 경과해도 호스트가 응답하지 않을 경우 SSH를 통해 vdsm restart가 실행됩니다.
  4. vdsm restart가 호스트와 Manager 간의 연결을 다시 설정하지 않을 경우 호스트 상태는 Non Responsive로 변경되며 전원 관리가 설정되어 있을 경우 펜싱은 외부 펜싱 에이전트로 전달됩니다.

참고

SSH를 통한 소프트 펜싱은 전원 관리가 설정되어 있지 않은 호스트에서 실행될 수 있습니다. 이는 "펜싱 (fencing)"과는 다릅니다. 펜싱은 전원 관리가 설정되어 있는 호스트에서만 수행할 수 있습니다.

6.6.6. 호스트 전원 관리 기능 사용

요약
호스트에 전원 관리가 설정된 경우 관리 포털 인터페이스에서 여러 옵션에 액세스할 수 있습니다. 각각의 전원 관리 장치에는 사용자 정의 옵션이 있지만 모든 장치에서는 호스트를 시작, 중지, 다시 시작하기 위해 기본 옵션을 지원합니다.

절차 6.20. 호스트 전원 관리 기능 사용

  1. 호스트 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 호스트를 검색 및 선택합니다.
  2. 전원 관리 드롭 다운 메뉴를 클릭합니다.
  3. 다음 중 한가지 옵션을 선택합니다:
    • 다시 시작: 이 옵션은 호스트를 중지하고 호스트의 상태가 Down으로 변경될 때 까지 기다립니다. 에이전트가 호스트가 Down된 것을 확인하면 고가용성 가상 머신이 클러스터에 있는 다른 호스트에서 다시 시작됩니다. 그 후 에이전트는 호스트를 다시 시작합니다. 호스트가 사용 가능하게 되면 Up 상태로 표시됩니다.
    • 시작: 이 옵션은 호스트를 시작하고 클러스터에 추가합니다. 사용 가능하게 될 경우 Up 상태로 표시됩니다.
    • 중지: 이 옵션은 호스트 전원을 끕니다. 이 옵션을 사용하기 전 호스트에서 실행되고 있는 가상 머신이 클러스터에 있는 다른 호스트로 마이그레이션되었는지 확인합니다. 그렇지 않을 경우 가상 머신이 중단되고 고가용성 가상 머신만 다른 호스트에서 다시 시작됩니다. 호스트가 중지하면 Non-Operational 상태로 표시됩니다.

    중요

    두 펜싱 에이전트가 호스트에서 정의될 때 동시에 또는 순차적으로 사용될 수 있습니다. 동시에 에이전트가 사용될 경우 두 에이전트 모두 중지할 호스트에 대해 Stop 명령에 응답해야 합니다. 하나의 에이전트가 Start 명령에 응답하면 호스트가 실행됩니다. 순차적으로 에이전트가 사용될 경우 호스트를 시작 또는 중지하기 위해 주요 에이전트가 먼저 사용되며 실패할 경우 2차 에이전트가 사용됩니다.
  4. 위의 옵션 중 하나를 선택하여 확인 창을 엽니다. OK를 클릭하여 확인하고 계속 진행합니다.
결과
선택된 동작이 수행됩니다.

6.6.7. 응답 없음 (Non Responsive) 상태의 호스트를 수동으로 펜싱 또는 분리

요약
하드웨어 오류 등과 같은 문제로 인해 호스트가 응답 없음 (non-responsive) 상태로 될 경우 이는 환경의 성능에 크게 영향을 미칠 수 있습니다. 전원 관리 장치가 없거나 잘못 설정되어 있을 경우 수동으로 호스트를 재부팅할 수 있습니다.

주의

수동으로 호스트를 재부팅하는 경우를 제외하고 호스트가 재부팅되었는지 확인 옵션을 사용하지 않습니다. 호스트가 실행되는 동안 이러한 옵션을 사용할 경우 가상 머신 이미지가 손상될 수 있습니다.

절차 6.21. 응답 없음 (Non Responsive) 상태의 호스트를 수동으로 펜싱 또는 분리

  1. 호스트 탭에서 호스트를 선택합니다. 상태는 non-responsive로 표시해야 합니다.
  2. 수동으로 호스트를 재부팅합니다. 이는 물리적으로 시스템에 들어가 호스트를 재부팅하는 것을 의미합니다.
  3. 관리 포털에서 호스트 항목을 오른쪽 클릭하여 호스트가 재부팅되었는지 확인 버튼을 선택합니다.
  4. 호스트가 종료되었거나 재부팅되었는지를 확인하라는 메세지가 표시됩니다. 작업 승인 확인란을 선택하고 OK를 클릭합니다.
결과
수동으로 호스트를 재부팅하여 활성 호스트에서 고가용성 가상 머신을 시작할 수 있게 합니다. 관리 포털에서 수동 펜싱 작업을 확인하면 호스트가 다시 온라인 상태로 됩니다.

6.7. 호스트 및 권한

6.7.1. 호스트의 시스템 권한 관리

SuperUser로서 시스템 관리자는 관리 포털의 모든 면을 관리합니다. 보다 특정한 관리 역할은 다른 사용자에게 부여될 수 있습니다. 이러한 제한된 관리자 역할은 특정 리소스에 제한하여 사용자 관리 권할을 부여할 경우 유용합니다. 예를 들어 DataCenterAdmin 역할은 데이터 센터의 스토리지를 제외한 할당된 데이터 센터에 대해서만 관리자 권한을 갖으며 ClusterAdmin은 할당된 클러스터에 대해서만 관리자 권한을 갖습니다.
호스트 관리자는 특정 호스트에 대한 시스템 관리자 역할입니다. 이는 각 호스트에 시스템 관리자가 필요한 여러 호스트로 구성된 클러스터에서 유용합니다. 머리글 표시줄에 있는 설정 버튼을 사용하여 환경의 모든 호스트에 호스트 관리자를 지정할 수 있습니다.
호스트 관리자 역할을 다음과 같은 작업을 허용합니다:
  • 호스트 설정을 편집합니다.
  • 논리 네트워크를 설정합니다.
  • 호스트를 삭제합니다.
기존 시스템 관리자를 삭제하고 새로운 시스템 관리자를 추가하여 호스트의 시스템 관리자를 변경할 수 있습니다.

6.7.2. 호스트 관리자 역할

호스트 권한 역할
아래 표에서는 호스트 관리에 적용할 수 있는 관리자 역할 및 권한에 대해 설명합니다.

표 6.8. Red Hat Virtualization 시스템 관리자 역할

역할권한알림
HostAdmin호스트 관리자특정 호스트를 설정, 관리, 삭제할 수 있습니다. 또한 특정 호스트에서 네트워크 관련 작업을 수행할 수 있습니다.

6.7.3. 리소스에 관리자 또는 사용자 역할 할당

리소스에 관리자 또는 사용자 역할을 할당하여 사용자가 리소스에 액세스 및 관리할 수 있게 합니다.

절차 6.22. 리소스에 역할 할당

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자, 사용자 역할, 선택한 리소스에 대해 상속된 권한을 나열합니다.
  3. 추가를 클릭합니다.
  4. 검색 텍스트 상자에 기존 사용자의 이름 또는 사용자 이름을 입력하고 검색을 클릭합니다. 검색 결과 목록에서 일치하는 사용자를 선택합니다.
  5. 할당된 역할: 드롭 다운 목록에서 역할을 선택합니다.
  6. OK를 클릭합니다.
사용자에게 역할이 할당되어 이제 사용자는 리소스에 대해 활성화된 역할에 상속된 권한을 갖습니다.

6.7.4. 리소스에서 관리자 또는 사용자 역할 삭제

리소스에서 관리자 또는 사용자 역할을 삭제합니다. 사용자는 리소스에서의 역할과 관련하여 상속된 권한을 손실합니다.

절차 6.23. 리소스에서 역할 삭제

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자 목록, 사용자 역할, 선택한 리소스에서 상속된 권한을 나열합니다.
  3. 리소스에서 삭제할 사용자를 선택합니다.
  4. 삭제를 클릭합니다. 권한 삭제 창이 열리면 권한 삭제를 확인합니다.
  5. OK를 클릭합니다.
리소스에서 사용자 역할 및 관련된 권한이 삭제됩니다.

7장. 스토리지

Red Hat Virtualization은 가상 머신 디스크 이미지, ISO 파일 및 스냅샷에 대해 중앙 집중화된 스토리지 시스템을 사용합니다. 스토리지 네트워크는 다음을 사용하여 구현될 수 있습니다:
  • 네트워크 파일 시스템 (NFS)
  • GlusterFS 내보내기
  • 기타 다른 POSIX 호환 파일 시스템
  • iSCSI (Internet Small Computer System Interface)
  • 가상 호스트에 직접 연결된 로컬 스토리지
  • FCP (Fibre Channel Protocol)
  • pNFS (Parallel NFS)
스토리지 설정은 새로운 데이터 센터의 필수 구성 요소입니다. 이는 스토리지 도메인이 연결되지 않아 활성화되지 않으면 데이터 센터를 초기화할 수 없기 때문입니다.
Red Hat Virtualization 시스템 관리자로 가상화된 엔터프라이즈에 대한 스토리지를 생성, 설정, 연결, 유지관리해야 합니다. 시스템 관리자는 스토리지 유형 및 사용에 익숙해야 합니다. 스토리지 배열 공급 업체의 가이드를 읽어 보시기 바랍니다. 스토리지에 대한 개념, 프로토콜, 요구 사항, 일반 사용 방법에 대한 보다 자세한 내용은 Red Hat Enterprise Linux 스토리지 관리 가이드에서 참조하십시오.
Red Hat Virtualization에서는 관리 포털의 스토리지 탭을 사용하여 스토리지를 할당 및 관리할 수 있습니다. 스토리지 결과 목록에 모든 스토리지 도메인을 표시하고 상세 정보 창에는 도메인에 대한 일반 정보가 표시됩니다.
스토리지 도메인을 추가하려면 관리 포털에 성공적으로 액세스하여 Up 상태인 최소 하나의 호스트에 연결되어 있어야 합니다.
Red Hat Virtualization에는 세 가지 유형의 스토리지 도메인이 있습니다:
  • 데이터 도메인: 데이터 도메인에는 데이터 센터에 있는 모든 가상 머신의 가상 하드 디스크 및 OVF 파일과 템플릿이 저장되어 있습니다. 또한 가상 머신의 스냅샷도 데이터 도메인에 저장되어 있습니다.
    데이터 도메인은 데이터 센터에서 공유될 수 없습니다. 여러 유형의 데이터 도메인 (iSCSI, NFS, FC, POSIX, Gluster)을 동일한 데이터 센터에 추가하여 로컬 도메인이 아닌 모든 호스트에서 공유하게 할 수 있습니다.
    다른 유형의 도메인을 연결하기 전 데이터 센터에 데이터 도메인을 연결해야 합니다.
  • ISO 도메인: ISO 도메인에는 가상 머신의 운영 체제 및 애플리케이션을 설치 및 시작하는데 사용하는 ISO 파일 (또는 논리 CD)이 저장되어 있습니다. ISO 도메인에서의 데이터 센터에서는 물리적 미디어가 필요하지 않습니다. ISO 도메인은 다른 데이터 센터에서 공유될 수 있습니다. ISO 도메인은 NFS만을 기반으로 할 수 있습니다. 하나의 ISO 도메인만 데이터 센터에 추가할 수 있습니다.
  • 내보내기 도메인: 내보내기 도메인은 데이터 센터와 Red Hat Virtualization 환경 간의 이미지를 복사 및 이동하는 데 사용되는 임시 스토리지 리포지터리입니다. 내보내기 도메인은 가상 머신을 백업하는 데 사용할 수 있습니다. 내보내기 도메인은 데이터 센터 간에 이동할 수 있지만 한 번에 하나의 데이터 센터에서만 활성화할 수 있습니다. 내보내기 도메인은 NFS 만을 기반으로 할 수 있습니다. 하나의 내보내기 도메인만 데이터 센터에 추가할 수 있습니다.

    참고

    내보내기 스토리지 도메인은 사용되지 않습니다. 스토리지 데이터 도메인을 데이터 센터에서 분리한 후 같은 환경이나 다른 환경의 데이터 센터로 가져오기할 수 있습니다. 그 후에 가상 머신, 플로팅 가상 디스크 이미지, 그리고 템플릿을 가져오기한 스토리지 도메인에서 연결된 데이터 센터로 업로드할 수 있습니다. 스토리지 도메인을 가져오기하는 방법에 대한 자세한 내용은 7.6절. “기존 스토리지 도메인 가져오기”에서 참조하십시오.

중요

데이터 센터에 필요한 스토리지를 지정한 후 Red Hat Virtualization 환경의 스토리지를 설정 및 연결할 수 있습니다.

7.1. 스토리지 도메인 이해

스토리지 도메인은 일반적인 스토리지 인터페이스가 있는 이미지 모음입니다. 스토리지 도메인에는 템플릿 이미지와 가상 머신 (스냅샷 포함)의 전체 이미지 또는 ISO 파일이 들어 있습니다. 스토리지 도메인은 블록 장치 (SAN - iSCSI 또는 FCP) 또는 파일 시스템 (NAS - NFS, GlusterFS, 또는 기타 다른 POSIX 호환 파일 시스템)이 될 수 있습니다.
NFS에서는 가상 디스크, 템플릿, 스냅샷은 모두 파일입니다.
SAN (iSCSI/FCP)에서는 각 가상 디스크, 템플릿, 스냅샷은 논리 볼륨입니다. 블록 장치는 볼륨 그룹이라는 논리 엔티티로 통합된 후 가상 하드디스크로 사용하기 위해 LVM (Logical Volume Manager)에 의해 논리 볼륨으로 나뉘어 집니다. LVM에 대한 자세한 내용은 Red Hat Enterprise Linux 논리 볼륨 관리자 관리 가이드에서 참조하십시오.
가상 디스크는 QCOW2 또는 RAW의 두가지 형식 중 하나를 사용할 수 있습니다. 스토리지 유형은 스파스 또는 사전할당될 수 있습니다. 스냅샷은 항상 스파스 지원을 사용하지만 RAW 또는 스파스에서 생성한 디스크를 사용할 수 있습니다.
동일한 스토리지 도메인을 공유하는 가상 머신은 동일한 클러스터에 속한 호스트 간에 마이그레이션할 수 있습니다.

7.2. NFS 스토리지 준비 및 추가

7.2.1. NFS 스토리지 준비

Red Hat Enterprise Linux 6 서버에서 데이터 도메인 및 내보내기 도메인으로 사용할 NFS 공유를 설정합니다. Red Hat Virtualization Manager 설치 과정에서 ISO 도메인이 생성된 경우 이를 생성할 필요가 없습니다. 필요한 시스템 사용자와 그룹에 대한 보다 자세한 내용은 부록 G. 시스템 계정에서 참조하십시오.

참고

다음 절차에는 사용 중지된 내보내기 스토리지 도메인 설정 방법이 포함됩니다. 스토리지 데이터 도메인을 데이터 센터에서 분리한 후 같은 환경이나 다른 환경의 데이터 센터로 가져오기할 수 있습니다. 그 후에 가상 머신, 플로팅 가상 디스크 이미지, 그리고 템플릿을 가져오기한 스토리지 도메인에서 연결된 데이터 센터로 업로드할 수 있습니다. 스토리지 도메인을 가져오기하는 방법에 대한 자세한 내용은 7.6절. “기존 스토리지 도메인 가져오기”에서 참조하십시오.
  1. NFS 도구를 제공하는 nfs-utils 패키지를 설치합니다:
    # yum install nfs-utils
  2. 시스템을 부팅할 때 마다 공유 기능을 사용할 수 있도록 부트 스크립트를 설정합니다:
    # chkconfig --add rpcbind
    # chkconfig --add nfs
    # chkconfig rpcbind on
    # chkconfig nfs on
  3. rpcbind 서비스 및 nfs 서비스를 시작합니다:
    # service rpcbind start
    # service nfs start
  4. 데이터 디렉토리 및 내보내기 디렉토리를 생성합니다:
    # mkdir -p /exports/data
    # mkdir -p /exports/export
  5. 새로 생성된 디렉토리를 /etc/exports 파일에 추가합니다. /etc/exports에 다음을 추가합니다:
    /exports/data *(rw)
    /exports/export *(rw)
  6. 스토리지 도메인을 내보내기합니다:
    # exportfs -r
  7. NFS 서비스를 다시 불러옵니다:
    # service nfs reload
  8. 그룹 kvm을 생성합니다:
    # groupadd kvm -g 36
  9. kvm 그룹에 사용자 vdsm을 생성합니다:
    # useradd vdsm -u 36 -g 36
  10. 내보내기 디렉토리의 소유권을 36:36으로 설정하면 vdsm:kvm에 소유권이 부여됩니다. 이를 통해 관리자는 내보내기 디렉토리에 표시되는 스토리지 도메인에 데이터를 저장할 수 있습니다.
    # chown -R 36:36 /exports/data
    # chown -R 36:36 /exports/export
  11. 디렉토리 모드를 변경하여 소유자에게 읽기 및 쓰기 액세스를 허용하고 그룹 및 기타 사용자에게 읽기 및 실행 액세스를 허용합니다:
    # chmod 0755 /exports/data
    # chmod 0755 /exports/export

7.2.2. NFS 스토리지 연결

NFS 스토리지 도메인을 Red Hat Virtualization 환경에 있는 데이터 센터에 연결합니다. 이러한 스토리지 도메인은 가상 게스트 이미지 및 ISO 부팅 미디어에 대한 스토리지를 제공합니다. 다음 절차에서는 이미 공유가 내보내기되어 있다고 가정합니다. 내보내기 도메인을 생성하기 전 데이터 도메인을 생성해야 합니다. 동일한 절차를 사용하여 내보내기 도메인을 생성하고 도메인 기능 / 스토리지 유형 목록에서 Export / NFS를 선택합니다.
  1. Red Hat Virtualization Manager 관리 포털에서 스토리지 리소스 탭을 클릭합니다.
  2. 새로운 도메인을 클릭합니다.
    새로운 도메인 창

    그림 7.1. 새로운 도메인 창

  3. 스토리지 도메인의 이름을 입력합니다.
  4. 데이터 센터, 도메인 기능, 스토리지 유형, 포맷, 및 사용 호스트 목록의 기본 값을 허용합니다.
  5. 스토리지 도메인에 사용할 내보내기 경로를 입력합니다.
    내보내기 경로는 192.168.0.10:/data 또는 domain.example.com:/data 형식이어야 합니다.
  6. 옵션으로 고급 매개 변수를 설정할 수 있습니다.
    1. 고급 매개 변수를 클릭합니다.
    2. 디스크 공간 부족 경고 표시 필드에 백분율 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 이러한 백분율 값 아래로 내려가면 사용자에게 경고 메세지가 표시되고 기록됩니다.
    3. 심각히 부족한 디스크 공간에서 동작 차단 필드에 GB 단위로 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 이 값 아래로 내려가면 사용자에게 오류 메세지가 표시되고 기록되며 공간을 소비하는 모든 새로운 동작은 일시적이라도 모두 차단됩니다.
    4. 삭제 후 초기화 확인란을 선택하여 삭제 후 초기화 옵션을 활성화합니다. 이 옵션은 도메인 생성 후 편집할 수 있지만 이러한 경우 이미 존재하는 디스크의 삭제 후 초기화 속성은 변경되지 않습니다.
  7. OK를 클릭합니다.
    새로운 NFS 데이터 도메인은 스토리지 탭에 표시되며 디스크가 준비되기 전 까지 Locked 상태로 있습니다. 그 후 데이터 도메인은 데이터 센터에 자동으로 연결됩니다.

7.2.3. NFS 스토리지 확장

NFS 스토리지 양을 확장하려면 새 스토리지 도메인을 생성하거나 기존 데이터 센터에 이를 추가하거나 NFS 서버에서 사용 가능한 여유 공간을 늘립니다. 첫 번째 옵션의 경우 7.2.2절. “NFS 스토리지 연결”에서 참조하십시오. 다음 절차에서는 기존 NFS 서버에서 사용 가능한 여유 공간을 늘리는 방법에 대해 설명합니다.

절차 7.1. 기존 NFS 스토리지 도메인 확장

  1. 스토리지 리소스 탭을 클릭하고 NFS 스토리지 도메인을 선택합니다.
  2. 상세 정보 창에서 데이터 센터 탭을 클릭하고 유지 관리 버튼을 클릭하여 스토리지 도메인을 유지 관리 모드로 변경합니다. 이는 기존 공유를 마운트 해제하고 스토리지 도메인 크기를 변경할 수 있게 합니다.
  3. NFS 서버에서 스토리지 크기를 변경합니다. Red Hat Enterprise Linux 6 시스템의 경우 Red Hat Enterprise Linux 6 스토리지 관리 가이드에서 참조하십시오. Red Hat Enterprise Linux 7 시스템의 경우 Red Hat Enterprise Linux 7 스토리지 관리 가이드에서 참조하십시오.
  4. 상제 정보 창에서 데이터 센터 탭을 클릭하고 활성화 버튼을 클릭하여 스토리지 도메인을 마운트합니다.

7.3. 로컬 스토리지 준비 및 추가

7.3.1. 로컬 스토리지 준비

로컬 스토리지 도메인을 호스트에 설정할 수 있습니다. 로컬 스토리지를 사용하기 위해 호스트 설정 시 호스트는 다른 호스트를 추가할 수 없는 새로운 데이터 센터 및 클러스터에 자동으로 추가됩니다. 여러 호스트 클러스터에서는 모든 호스트가 모든 스토리지 도메인으로 액세스할 수 있어야 하며 이는 로컬 스토리지로는 불가능합니다. 단일 호스트 클러스터에 생성된 가상 머신은 마이그레이션, 펜싱, 스케줄링할 수 없습니다. 필요한 시스템 사용자와 그룹에 대한 보다 자세한 내용은 부록 G. 시스템 계정에서 참조하십시오.

중요

Red Hat Virtualization Host(RHVH)에서 로컬 스토리지에 사용되는 경로는 /var 디렉토리에 있어야 합니다. 다음의 절차에 따라 /var 내에서 스토리지 디렉토리를 생성합니다.

절차 7.2. 로컬 스토리지 준비

  1. 호스트에서 로컬 스토리지에 사용할 디렉토리를 생성합니다.
    # mkdir -p /data/images
  2. 디렉토리에서 vdsm 사용자 (UID 36) 및 kvm 그룹 (GID 36)에 대한 읽기/쓰기 액세스를 허용하는 권한을 설정합니다.
    # chown 36:36 /data /data/images
    # chmod 0755 /data /data/images
로컬 스토리지를 Red Hat Virtualization 환경에 추가할 준비가 되어 있습니다.

참고

로컬 스토리지 도메인으로 사용하기 위해서 호스트 머신에 외부 스토리지를 마운트할 수도 있습니다. 스토리지 마운트에 대한 보다 자세한 내용은 Red Hat Enterprise Linux Storage Administration Guide에서 참조하십시오.

7.3.2. 로컬 스토리지 추가

호스트의 로컬 스토리지가 준비되었습니다. 이제 Manager를 사용하여 스토리지를 호스트에 추가합니다.
호스트에 로컬 스토리지를 추가하면 호스트는 새로운 데이터 센터 및 클러스터에 배치됩니다. 로컬 스토리지 설정 창에서는 데이터 센터, 클러스터, 스토리지 생성을 단일 프로세스로 통합합니다.

절차 7.3. 로컬 스토리지 추가

  1. 호스트 리소스 탭을 클릭하여 결과 목록에서 호스트를 선택합니다.
  2. 유지 관리를 클릭하면 호스트 유지 관리 확인 창이 열립니다.
  3. OK를 클릭하여 유지 관리 모드를 시작합니다.
  4. 로컬 스토리지 설정 버튼을 클릭하여 로컬 스토리지 설정 창을 엽니다.
    로컬 스토리지 설정 창

    그림 7.2. 로컬 스토리지 설정 창

  5. 데이터 센터, 클러스터, 스토리지 옆에 있는 편집 버튼을 클릭하여 로컬 스토리지 도메인을 설정하고 이름을 지정합니다.
  6. 텍스트 입력 필드에 로컬 스토리지 경로를 설정합니다.
  7. 최적화 탭을 선택하여 새 로컬 스토리지 클러스터에 대한 메모리 최적화 정책을 설정합니다.
  8. OK를 클릭하여 설정을 저장하고 창을 닫습니다.
호스트는 자체 데이터 센터에서 온라인 상태로 표시됩니다.

7.4. POSIX 호환 파일 시스템 스토리지 준비 및 추가

POSIX 파일 시스템 지원에서는 명령행에서 수동으로 마운트할 때 사용하는 것과 동일한 마운트 옵션을 사용하여 파일 시스템을 마운트할 수 있습니다. 이 기능은 NFS, iSCSI, FCP를 사용하여 마운트되지 않는 스토리지에 액세스할 수 있도록 하려는 것입니다.
Red Hat Virtualization에서 스토리지 도메인으로 사용하는 POSIX 호환 파일 시스템은 스파스 파일 및 직접 I/O를 지원해야 합니다. 예를 들어 CIFS (Common Internet File System)은 직접 I/O를 지원하지 않기 때문에 Red Hat Virtualization과 호환성이 없습니다.

중요

POSIX 호환 파일 시스템 스토리지 도메인을 생성하여 NFS 스토리지를 마운트하지 않습니다. 대신 NFS 스토리지 도메인을 생성합니다.

7.4.1. POSIX 호환 파일 시스템 스토리지 연결

NFS, iSCSI, FCP를 사용하여 표시되지 않은 POSIX 호환 파일 시스템을 스토리지 도메인으로 사용합니다.

절차 7.4. POSIX 호환 파일 시스템 스토리지 연결

  1. 스토리지 리소스 탭을 클릭하면 결과 목록에 기존 스토리지 도메인 목록이 표시됩니다.
  2. 새로운 도메인을 클릭하면 새로운 도메인 창이 열립니다.
    POSIX 스토리지

    그림 7.3. POSIX 스토리지

  3. 스토리지 도메인의 이름을 입력합니다.
  4. 스토리지 도메인과 관련된 데이터 센터를 선택합니다. 선택한 데이터 센터의 유형은 POSIX (POSIX compliant FS)이어야 합니다. 또는 (none)을 선택합니다.
  5. 도메인 기능 / 스토리지 유형 드롭 다운 메뉴에서 Data / POSIX compliant FS를 선택합니다.
    해당하는 경우 드롭 다운 메뉴에서 포맷을 선택합니다.
  6. 사용하는 호스트 드롭 다운 메뉴에서 호스트를 선택합니다. 선택한 데이터 내에 호스트만 표시됩니다. 선택한 호스트를 사용하여 스토리지 도메인에 연결합니다.
  7. mount 명령에 지정하는 것 처럼 POSIX 파일 시스템에 경로를 입력합니다.
  8. -t 인수를 사용하여 mount 명령에 지정하는 것 처럼 VFS 유형을 입력합니다. 유효한 VFS 유형 목록은 man mount에서 확인하십시오.
  9. -o 인수를 사용하여 mount 명령에 지정하는 것 처럼 추가 마운트 옵션을 입력합니다. 마운트 옵션은 콤마로 구분합니다. 유효한 마운트 옵션 목록은 man mount에서 확인하십시오.
  10. 옵션으로 고급 매개 변수를 설정할 수 있습니다.
    1. 고급 매개 변수를 클릭합니다.
    2. 디스크 공간 부족 경고 표시 필드에 백분율 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 이러한 백분율 값 아래로 내려가면 사용자에게 경고 메세지가 표시되고 기록됩니다.
    3. 심각히 부족한 디스크 공간에서 동작 차단 필드에 GB 단위로 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 이 값 아래로 내려가면 사용자에게 오류 메세지가 표시되고 기록되며 공간을 소비하는 모든 새로운 동작은 일시적이라도 모두 차단됩니다.
    4. 삭제 후 초기화 확인란을 선택하여 삭제 후 초기화 옵션을 활성화합니다. 이 옵션은 도메인 생성 후 편집할 수 있지만 이러한 경우 이미 존재하는 디스크의 삭제 후 초기화 속성은 변경되지 않습니다.
  11. OK를 클릭하여 새 스토리지 도메인을 연결한 후 창을 닫습니다.

7.5. 블록 스토리지 준비 및 추가

7.5.1. iSCSI 스토리지 준비

Red Hat Virtualization과 함께 스토리지 도메인으로 사용하기 위해 Red Hat Enterprise Linux 6를 실행하고 있는 서버에서 iSCSI 스토리지 장치를 내보내기하려면 다음 단계를 실행합니다.

절차 7.5. iSCSI 스토리지 준비

  1. 스토리지 서버에서 root로 yum 명령을 사용하여 scsi-target-utils 패키지를 설치합니다.
    # yum install -y scsi-target-utils
  2. /etc/tgt/targets.conf 파일에 내보내기를 실행하고자 하는 장치나 파일을 추가합니다. 다음에는 targets.conf 파일에 기본적으로 추가하는 일반적인 예가 있습니다:
    <target iqn.YEAR-MONTH.com.EXAMPLE:SERVER.targetX>
              backing-store /PATH/TO/DEVICE1 # Becomes LUN 1
              backing-store /PATH/TO/DEVICE2 # Becomes LUN 2
              backing-store /PATH/TO/DEVICE3 # Becomes LUN 3
    </target>
    대상은 기본적으로 생성 년월, 서버가 속해 있는 반대로 기재된 정규화된 도메인 이름, 서버 이름, 대상 번호를 사용하여 정의됩니다.
  3. tgtd 서비스를 시작합니다.
    # service tgtd start
  4. 재부팅 후에도 tgtd가 시작되도록 영구 설정합니다.
    # chkconfig tgtd on
  5. 클라이언트가 iSCSI 내보내기에 액세스할 수 있도록 iptables 방화벽 포트를 엽니다. 기본값으로 iSCSI는 포트 3260을 사용합니다. 이 에에서는 INPUT 테이블의 포지션 6에 방화벽 규칙을 삽입합니다.
    # iptables -I INPUT 6 -p tcp --dport 3260 -j ACCEPT
  6. 작성한 iptables 규칙을 저장합니다.
    # service iptables save
기본 iSCSI 내보내기가 생성되었습니다. iSCSI 데이터 도메인으로 사용할 수 있습니다.

7.5.2. iSCSI 스토리지 추가

Red Hat Virtualization 플랫폼은 기존의 LUN에서 만들어진 볼륨 그룹에서 스토리지 도메인을 생성하여 iSCSI 스토리지를 지원합니다. 볼륨 그룹이나 LUN 모두 동시에 여러 스토리지 도메인에 연결할 수 없습니다.
Red Hat Enterprise Linux에서 iSCSI를 설정하는 방법에 대한 보다 자세한 내용은 Red Hat Enterprise Linux Storage Administration Guide에 있는 Online Storage Management에서 참조하십시오.

절차 7.6. iSCSI 스토리지 추가

  1. 스토리지 리소스 탭을 클릭하면 결과 목록에 기존 스토리지 도메인 목록이 표시됩니다.
  2. 새로운 도메인 버튼을 클릭하면 새로운 도메인 창이 열립니다.
  3. 새 스토리지 도메인의 이름을 입력합니다.
    새 iSCSI 도메인

    그림 7.4. 새 iSCSI 도메인

  4. 데이터 센터 드롭 다운 메뉴에서 데이터 센터를 선택합니다.
  5. 드롭 다운 메뉴를 사용하여 도메인 기능스토리지 유형을 선택합니다. 선택한 도메인 기능과 호환되지 않는 스토리지 도메인 유형은 사용할 수 없습니다.
  6. 사용 호스트란에 활성 호스트를 선택합니다. 데이터 센터에 있는 첫 번째 데이터 도메인이 아닐 경우 데이터 센터의 SPM 호스트를 선택해야 합니다.

    중요

    스토리지 도메인에서의 모든 통신은 Red Hat Virtualization Manager에서 직접 이루어지는 것이 아니라 선택한 호스트를 통해 이루어집니다. 시스템에 최소한 하나의 활성 호스트가 존재해야 하며 선택한 데이터 센터에 연결되어 있어야 합니다. 모든 호스트는 스토리지 도메인을 설정하기 전 스토리지 장치에 액세스할 수 있어야 합니다.
  7. Red Hat Virtualization Manager는 iSCSI 대상을 LUN으로 또는 LUNiSCSI 대상으로 매핑할 수 있습니다. 스토리지 유형으로 iSCSI가 선택되어 있을 경우 새로운 도메인 창에는 사용하지 않는 LUN이 있는 알려진 대상이 자동으로 표시됩니다. 스토리지를 추가하려는 대상이 목록에 없을 경우 대상 검색을 사용하여 검색할 수 있습니다. 대상이 목록에 있을 경우 다음 단계를 진행합니다.

    iSCSI 대상 검색

    1. 대상 검색을 클릭하여 대상 검색 옵션을 활성화합니다. 대상이 검색되어 로그인하면 새로운 도메인 창에 환경에서 사용하지 않는 LUN이 있는 대상이 자동으로 표시됩니다.

      참고

      환경 외부에서 사용되는 LUN도 표시됩니다.
      대상 검색 옵션을 사용하여 여러 대상에 LUN을 추가하거나 동일한 UN에 여러 경로를 추가할 수 있습니다.
    2. 주소 란에 iSCSI 호스트의 IP 주소 또는 정규화된 도메인 이름을 입력합니다.
    3. 포트 란에서 대상을 검색할 때 호스트에 연결할 포트를 입력합니다. 기본값은 3260입니다.
    4. 스토리지 보안을 위해 CHAP (Challenge Handshake Authentication Protocol)을 사용할 경우 사용자 인증 확인란을 선택합니다. CHAP 사용자 이름CHAP 암호를 입력합니다.

      참고

      REST API를 사용하여 각 호스트의 iSCSI 대상에 특정 인증 정보를 지정할 수 있습니다. 보다 자세한 내용은 REST API Guide에 있는 Defining Credentials to an iSCSI Target에서 참조하십시오.
    5. 검색 버튼을 클릭합니다.
    6. 검색 결과에서 사용할 대상을 선택하고 로그인 버튼을 클릭합니다.
      다른 방법으로 전체 로그인을 선택하여 검색된 대상 모두에 로그인합니다.

      중요

      하나 이상의 경로 액세스가 필요한 경우 모든 필요한 경로를 통해 대상을 찾아서 로그인합니다. 스토리지 도메인을 수정해서 경로를 추가하는 것은 현재 지원되지 않습니다.
  8. 원하는 대상 옆에 있는 + 버튼을 클릭합니다. 이는 항목을 펼치기하여 대상에 연결된 사용되지 않는 모든 LUN을 표시합니다.
  9. 스토리지 도메인을 생성하기 위해 사용하려는 각 LUN의 확인란을 선택합니다.
  10. 옵션으로 고급 매개 변수를 설정할 수 있습니다.
    1. 고급 매개 변수를 클릭합니다.
    2. 디스크 공간 부족 경고 표시 필드에 백분율 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 이러한 백분율 값 아래로 내려가면 사용자에게 경고 메세지가 표시되고 기록됩니다.
    3. 심각히 부족한 디스크 공간에서 동작 차단 필드에 GB 단위로 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 이 값 아래로 내려가면 사용자에게 오류 메세지가 표시되고 기록되며 공간을 소비하는 모든 새로운 동작은 일시적이라도 모두 차단됩니다.
    4. 삭제 후 초기화 확인란을 선택하여 삭제 후 초기화 옵션을 활성화합니다. 이 옵션은 도메인 생성 후 편집할 수 있지만 이러한 경우 이미 존재하는 디스크의 삭제 후 초기화 속성은 변경되지 않습니다.
  11. OK를 클릭하여 스토리지 도메인을 생성하고 창을 닫습니다.
같은 대상에 여러 개의 스토리지 연결을 설정한 경우 7.5.3절. “iSCSI 멀티패스 설정”에 있는 절차를 사용하여 iSCSI 본딩을 완료합니다.

7.5.3. iSCSI 멀티패스 설정

iSCSI 멀티패스를 사용하여 논리 네트워크 그룹과 iSCSI 스토리지 연결을 생성 및 관리합니다. 네트워크 경로에 장애 발생 시 호스트 가동 중지 상태가 되지 않도록 하기 위해 호스트와 iSCSI 스토리지 간에 여러 개의 네트워크 경로를 설정합니다. 설정 후 Manager는 같은 iSCSI 본딩의 논리 네트워크 관련 NIC/VLAN을 통해 데이터 센터의 각 호스트를 본딩이 된 각각의 대상에 연결합니다. 호스트가 기본 네트워크를 통해 트래픽을 라우팅하도록 허용하지 않고 사용자가 스토리지 트래픽에 사용될 네트워크를 지정할 수도 있습니다. 이 옵션은 최소한 하나의 iSCSI 스토리지 도메인이 데이터 센터에 연결된 후 관리 포털에서만 사용 가능합니다.

전제 조건

  • iSCSI 스토리지 도메인이 생성되었으며 모든 iSCSI 대상 경로에 로그인했는지 확인합니다.
  • iSCSI 스토리지 연결과 본딩할 필수가 아닌 논리 네트워크가 생성되었는지 확인합니다. 여러 개의 논리 네트워크 또는 본드 네트워크가 네트워크 장애 조치를 허용하도록 설정할 수 있습니다.

절차 7.7. iSCSI 멀티패스 설정

  1. 데이터 센터 탭을 클릭하여 검색 결과 목록에서 데이터 센터를 선택합니다.
  2. 상세 정보 창에서 iSCSI 멀티패스 탭을 클릭합니다.
  3. 추가를 클릭합니다.
  4. iSCSI 본딩 추가 창에서 본딩의 이름설명을 입력합니다.
  5. 논리 네트워크 목록에서 본딩에 사용할 네트워크를 선택합니다. 해당 네트워크는 필수가 아닌 네트워크여야 합니다.

    참고

    네트워크의 필수 대상을 변경하려면 관리 포털에서 네트워크 선택 후 클러스터 탭을 클릭하고 네트워크 관리 버튼을 클릭합니다.
  6. 스토리지 대상 목록에서 선택한 네트워크를 통해 액세스할 스토리지 도메인을 선택합니다. 같은 대상의 모든 경로를 선택합니다.
  7. OK를 클릭합니다.
데이터 센터에 있는 모든 호스트는 선택한 논리 네트워크를 통해 선택한 iSCSI 대상에 연결됩니다.

7.5.4. FCP 스토리지 추가

Red Hat Virtualization 플랫폼은 기존의 LUN에서 만들어진 볼륨 그룹에서 스토리지 도메인을 생성하여 SAN 스토리지를 지원합니다. 볼륨 그룹이나 LUN 모두 동시에 여러 스토리지 도메인에 연결할 수 없습니다.
Red Hat Virtualization 시스템 관리자는 SAN (Storage Area Networks) 개념에 대한 작업 지식이 필요합니다. 일반적으로 SAN은 호스트와 외부 공유 스토리지 간의 트래픽에 대해 FCP(Fibre Channel Protocol)를 사용합니다. 이러한 이유로 SAN은 FCP 스토리지라고도 합니다.
Red Hat Enterprise Linux에서 FCP 또는 멀티패스 설정에 대한 보다 자세한 내용은 Storage Administration GuideDM Multipath 가이드에서 참조하십시오.
다음 절차에서는 데이터 도메인으로 Red Hat Virtualization 환경에 기존 FCP 스토리지를 연결하는 방법에 대해 설명합니다. 기타 다른 지원 스토리지 유형에 대한 보다 자세한 내용은 7장. 스토리지 에서 참조하십시오.

절차 7.8. FCP 스토리지 추가

  1. 스토리지 리소스 탭을 클릭하면 모든 스토리지 도메인 목록이 표시됩니다.
  2. 새로운 도메인을 클릭하면 새로운 도메인 창이 열립니다.
  3. 스토리지 도메인의 이름을 입력합니다.
    FCP 스토리지 추가

    그림 7.5. FCP 스토리지 추가

  4. 데이터 센터 드롭 다운 메뉴에서 FCP 데이터 센터를 선택합니다.
    적절한 FCP 데이터 센터가 없을 경우 (없음)을 선택합니다.
  5. 드롭 다운 메뉴을 사용하여 도메인 기능스토리지 유형을 선택합니다. 선택한 데이터 센터와 호환되지 않는 스토리지 도메인 유형은 사용할 수 없습니다.
  6. 사용 호스트란에 활성 호스트를 선택합니다. 데이터 센터에 있는 첫 번째 데이터 도메인이 아닐 경우 데이터 센터의 SPM 호스트를 선택해야 합니다.

    중요

    스토리지 도메인에서의 모든 통신은 Red Hat Virtualization Manager에서 직접 이루어지는 것이 아니라 선택한 호스트를 통해 이루어집니다. 시스템에 최소한 하나의 활성 호스트가 존재해야 하며 선택한 데이터 센터에 연결되어 있어야 합니다. 모든 호스트는 스토리지 도메인을 설정하기 전 스토리지 장치에 액세스할 수 있어야 합니다.
  7. 스토리지 유형으로 Data / Fibre Channel이 선택되어 있을 때 새로운 도메인 창에는 사용하지 않는 LUN과 함께 알려진 대상이 자동으로 표시됩니다. LUN ID 확인란을 선택하여 사용 가능한 모든 LUN을 선택합니다.
  8. 옵션으로 고급 매개 변수를 설정할 수 있습니다.
    1. 고급 매개 변수를 클릭합니다.
    2. 디스크 공간 부족 경고 표시 필드에 백분율 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 이러한 백분율 값 아래로 내려가면 사용자에게 경고 메세지가 표시되고 기록됩니다.
    3. 심각히 부족한 디스크 공간의 동작 차단 필드에 GB 단위로 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 이 값 아래로 내려가면 사용자에게 오류 메세지가 표시되고 기록되며 공간을 소비하는 모든 새로운 동작은 일시적이라도 모두 차단됩니다.
    4. 삭제 후 초기화 확인란을 선택하여 삭제 후 초기화 옵션을 활성화합니다. 이 옵션은 도메인 생성 후 편집할 수 있지만 이러한 경우 이미 존재하는 디스크의 삭제 후 초기화 속성은 변경되지 않습니다.
  9. OK를 클릭하여 스토리지 도메인을 생성하고 창을 닫습니다.
새로운 FCP 데이터 도메인이 스토리지 탭에 표시됩니다. 이는 사용 준비될 때 까지 Locked 상태로 되어 있습니다. 사용 준비되면 이는 자동으로 데이터 센터에 연결됩니다.

7.5.5. iSCSI 또는 FCP 스토리지 확장

iSCSI 또는 FCP 스토리지를 확장하는 방법은 여러 가지 있습니다:
  • 새 LUN으로 새로운 스토리지 도메인을 생성하고 이를 기존 데이터 센터에 추가합니다. 7.5.2절. “iSCSI 스토리지 추가”를 참조하시기 바랍니다.
  • 새로운 LUN을 생성하고 이를 기존 데이터 센터에 추가합니다.
  • 기본 LUN 크기를 변경하여 스토리지 도메인을 확장합니다.
Red Hat Enterprise Linux 6 시스템에서 iSCSI 스토리지 생성, 설정, 또는 크기 변경하는 방법에 대한 자세한 내용은 Red Hat Enterprise Linux 6 스토리지 관리 가이드에서 참조하십시오. Red Hat Enterprise Linux 7 시스템의 경우 Red Hat Enterprise Linux 7 스토리지 관리 가이드에서 참조하십시오.
다음 절차에서는 새 LUN을 기존 스토리지 도메인에 추가하여 SAN (storage area network) 스토리지를 확장하는 방법에 대해 설명합니다.

절차 7.9. 기존 iSCSI 또는 FCP 스토리지 도메인 확장

  1. SAN에 새로운 LUN을 생성합니다.
  2. 스토리지 리소스 탭을 클릭하고 iSCSI 또는 FCP 스토리지 도메인을 선택합니다.
  3. 편집 버튼을 클릭합니다.
  4. 대상 > LUN을 클릭하고 대상 검색 확장 버튼을 클릭합니다.
  5. 스토리지 서버의 연결 정보를 입력하고 검색 버튼을 클릭하여 연결을 시작합니다.
  6. LUN > 대상을 클릭하고 새로 사용 가능한 LUN 체크 상자를 선택합니다.
  7. OK를 클릭하여 LUN을 선택한 스토리지 도메인에 추가합니다.
추가된 LUN 크기에 따라 스토리지 도메인이 확장됩니다.
기본 LUN 크기를 변경하여 스토리지 도메인을 확장하는 경우 해당 LUN이 Red Hat Virtualization 관리 포털에서도 새로고침되어야 합니다.

절차 7.10. LUN 크기 새로고침

  1. 스토리지 리소스 탭을 클릭하고 iSCSI 또는 FCP 스토리지 도메인을 선택합니다.
  2. 편집 버튼을 클릭합니다.
  3. LUN > 대상을 클릭합니다.
  4. 추가 크기열에서 해당 LUN의 추가 Additional_Storage_Size 버튼을 눌러서 새로고침합니다.
  5. OK를 클릭하여 LUN을 새로고침해서 변경된 스토리지 크기를 표시합니다.

7.5.6. Red Hat Virtualization에서 사용할 수 없는 LUN

경우에 따라서 Red Hat Virtualization Manager는 스토리지 도메인이나 가상 머신 하드 디스크를 생성하는데 LUN을 사용하는 것을 허용하지 않습니다.
  • 현재 Red Hat Virtualization 환경의 부분인 LUN은 사용되지 않도록 자동 설정되어 있습니다.
    Red Hat Virtualization 관리 포털에서 사용할 수 없는 LUN

    그림 7.6. Red Hat Virtualization 관리 포털에서 사용할 수 없는 LUN

  • SPM 호스트에 의해 사용되고 있는 LUN은 사용 중인 상태로 표시됩니다. 이러한 LUN의 컨텐츠를 강제로 덮어쓰기하도록 선택할 수 있지만 작업이 성공적으로 동작할지는 확실하지 않습니다.

7.6. 기존 스토리지 도메인 가져오기

7.6.1. 기존 스토리지 도메인 가져오기에 대한 개요

데이터가 들어 있지 않은 새로운 스토리지 도메인을 추가할 수 있음은 물론 기존 스토리지 도메인을 가져오기하여 그 안에 저장된 데이터에 액세스할 수 있습니다. 스토리지 도메인 가져오기 기능을 통해 Manager 데이터베이스에 오류 발생 시 데이터를 복구하여 데이터 센터 또는 환경 간에 데이터를 마이그레이션할 수 있습니다.
각 스토리지 도메인 유형 가져오기에 대한 개요는 다음과 같습니다:
데이터
기존 데이터 스토리지 도메인 가져오기를 통해 데이터 스토리지 도메인이 들어있는 모든 가상 머신 및 템플릿에 액세스할 수 있습니다. 스토리지 도메인을 가져오기한 후 가상 머신, 플로팅 디스크 이미지, 그리고 템플릿을 대상 데이터 센터에 수동으로 가져오기해야 합니다. 데이터 스토리지 도메인에 저장된 가상 머신 및 템플릿을 가져오기위한 절차는 스토리지 도메인 내보내기 절차와 유사합니다. 하지만 데이터 스토리지 도메인에는 지정된 데이터 센터에 모든 가상 머신 및 템플릿이 들어 있기 때문에 데이터 복구 또는 데이터 센터나 환경 사이의 대규모 가상 머신 마이그레이션의 경우 데이터 스토리지 도메인을 가져오기하는 것이 좋습니다.

중요

호환성 수준 3.5 이상의 데이터 센터에 연결된 기존 데이터 스토리지 도메인만 가져올 수 있습니다.
ISO
기존 ISO 스토리지 도메인 가져오기를 통해 ISO 스토리지 도메인이 포함된 모든 ISO 파일 및 가상 디스크에 액세스할 수 있습니다. 스토리지 도메인을 가져온 후 리소스에 액세스하기 위한 추가 작업이 필요하지 않으므로 필요에 따라 가상 머신에 연결할 수 있습니다.
내보내기
기존 내보내기 스토리지 도메인 가져오기를 통해 내보내기 스토리지 도메인에 저장된 모든 가상 머신 이미지와 템플릿에 액세스할 수 있습니다. 내보내기 도메인은 가상 머신 이미지 및 템플릿을 내보내기 및 가져오기하도록 고안되어 있기 때문에 환경 내에서 또는 환경 간 적은 수의 가상 머신 및 템플릿을 마이그레이션하는데에는 스토리지 도메인 가져오기 방식을 권장합니다. 내보내기 스토리지 도메인에서 가상 머신 및 템플릿 내보내기 및 가져오기에 대한 자세한 내용은 Virtual Machine Management Guide에 있는 Exporting and Importing Virtual Machines and Templates에서 참조하십시오.

참고

내보내기 스토리지 도메인은 사용되지 않습니다. 스토리지 데이터 도메인을 데이터 센터에서 분리한 후 같은 환경이나 다른 환경의 데이터 센터로 가져오기할 수 있습니다. 그 후에 가상 머신, 플로팅 가상 디스크 이미지, 그리고 템플릿을 가져오기한 스토리지 도메인에서 연결된 데이터 센터로 업로드할 수 있습니다.

7.6.2. 스토리지 도메인 가져오기

동일한 환경 또는 다른 환경에 있는 데이터 센터에 이전에 연결된 스토리지 모데인을 가져옵니다. 다음 절차에서는 데이터 손상을 막기 위해 스토리지 도메인이 더 이상 환경에 있는 데이터 센터에 연결되어 있지 않다고 간주합니다. 데이터 센터에 기존 데이터 스토리지를 가져오기 및 연결하려면 가져오기 대상 데이터 센터를 초기화해야 합니다.

절차 7.11. 스토리지 도메인 가져오기

  1. 스토리지 리소스 탭을 클릭합니다.
  2. 도메인 가져오기를 클릭합니다.
    사전 설정된 도메인 가져오기 창

    그림 7.7. 사전 설정된 도메인 가져오기 창

  3. 데이터 센터 드롭 다운 목록에서 스토리지 도메인을 연결하는 데이터 센터를 선택합니다.
  4. 스토리지 도메인의 이름을 입력합니다.
  5. 도메인 기능스토리지 유형 드롭 다운 목록에서 적절한 항목을 선택합니다.
  6. 사용 호스트 드롭 다운 목록에서 호스트를 선택합니다.

    중요

    스토리지 도메인에서의 모든 통신은 Red Hat Virtualization Manager에서 직접 이루어지는 것이 아니라 선택한 호스트를 통해 이루어집니다. 시스템에 최소한 하나의 활성 호스트가 존재해야 하며 선택한 데이터 센터에 연결되어 있어야 합니다. 모든 호스트는 스토리지 도메인을 설정하기 전 스토리지 장치에 액세스할 수 있어야 합니다.
  7. 스토리지 도메인의 상세 정보를 입력합니다.

    참고

    도메인 기능 / 스토리지 유형 목록에서 선택한 값에 따라 변경되는 스토리지 도메인 상세 정보를 지정하기 위한 필드입니다. 이러한 옵션은 새로운 스토리지 도메인 추가를 위해 사용 가능한 옵션과 동일합니다. 이러한 옵션에 대한 보다 자세한 내용은 7.1절. “스토리지 도메인 이해”에서 참조하십시오.
  8. 데이터 센터에서 도메인을 활성화 확인란을 선택하여 선택한 데이터 센터에 스토리지 도메인을 연결한 후 이를 활성화합니다.
  9. OK를 클릭합니다.
스토리지 도메인이 가져오기되어 스토리지 탭에 표시됩니다. 스토리지 도메인에서 데이터 센터로 가상 머신과 템플릿을 가져올 수 있습니다.

7.6.3. 동일한 환경에서 데이터 센터 간 스토리지 도메인 마이그레이션

동일한 Red Hat Virtualization 환경에서 스토리지 도메인을 하나의 데이터 센터에서 다른 데이터 센터로 마이그레이션하여 대상 데이터 센터에서 스토리지 도메인에 있는 데이터에 액세스할 수 있습니다. 다음의 절차를 통해 하나의 데이터 센터에서 스토리지 도메인을 분리하여 다른 데이터 센터에 연결합니다.

절차 7.12. 동일한 환경에서 데이터 센터 간 스토리지 도메인 마이그레이션

  1. 필요한 스토리지 도메인에서 실행 중인 모든 가상 머신을 종료합니다.
  2. 스토리지 리소스 탭을 클릭하고 검색 결과 목록에서 스토리지 도메인을 선택합니다.
  3. 상세 정보 창에서 데이터 센터 탭을 클릭합니다.
  4. 유지보수를 클릭하고 OK를 클릭하여 스토리지 도메인을 유지 관리 모드로 전환합니다.
  5. 분리를 클릭하고 OK를 클릭하여 스토리지 도메인을 데이터 센터에서 분리합니다.
  6. 연결을 클릭합니다.
  7. 대상 데이터 센터를 선택하고 OK를 클릭합니다.
스토리지 도메인이 대상 데이터 센터에 연결되어 자동으로 활성화됩니다. 스토리지 도메인에서 대상 데이터 센터로 가상 머신과 템플릿을 가져올 수 있습니다.

7.6.4. 다른 환경에서 데이터 센터 간 스토리지 도메인 마이그레이션

하나의 Red Hat Virtualization 환경에서 다른 환경으로 스토리지 도메인을 마이그레이션하여 대상 환경에서 스토리지 도메인에 있는 데이터에 액세스할 수 있습니다. 다음의 절차를 통해 하나의 Red Hat Virtualization 환경에서 스토리지 도메인을 삭제하여 다른 환경으로 가져오기합니다. 기존 스토리지 도메인을 Red Hat Virtualization 데이터 센터에 가져오기해서 연결하기 위해 해당 스토리지 도메인의 소스 데이터 센터의 호환성 수준이 3.5 이상이어야 합니다.

절차 7.13. 다른 환경에서 데이터 센터 간 스토리지 도메인 마이그레이션

  1. 소스 환경의 관리 포털에 로그인합니다.
  2. 필요한 스토리지 도메인에서 실행중인 모든 가상 머신을 종료합니다.
  3. 스토리지 리소스 탭을 클릭하고 검색 결과 목록에서 스토리지 도메인을 선택합니다.
  4. 상세 정보 창에서 데이터 센터 탭을 클릭합니다.
  5. 유지보수를 클릭하고 OK를 클릭하여 스토리지 도메인을 유지 관리 모드로 전환합니다.
  6. 분리를 클릭하고 OK를 클릭하여 스토리지 도메인을 데이터 센터에서 분리합니다.
  7. 삭제를 클릭합니다.
  8. 스토리지 삭제 창에서 도메인을 포맷합니다. 스토리지 컨텐츠가 손실됩니다! 확인란이 선택 해제되었는지 확인합니다. 이 단계를 통해 나중을 위해 스토리지 도메인의 데이터를 보관합니다.
  9. OK를 클릭하여 소스 환경에서 스토리지 도메인을 삭제합니다.
  10. 대상 환경의 관리 포털에 로그인합니다.
  11. 스토리지 리소스 탭을 클릭합니다.
  12. 도메인 가져오기를 클릭합니다.
    사전 설정된 도메인 가져오기 창

    그림 7.8. 사전 설정된 도메인 가져오기 창

  13. 데이터 센터 드록 다운 목록에서 대상 데이터 센터를 선택합니다.
  14. 스토리지 도메인의 이름을 입력합니다.
  15. 도메인 기능스토리지 유형 드롭 다운 목록에서 적절한 항목을 선택합니다.
  16. 사용 호스트 드롭 다운 목록에서 호스트를 선택합니다.
  17. 스토리지 도메인의 상세 정보를 입력합니다.

    참고

    스토리지 유형 드롭 다운 목록에서 선택한 값에 따라 변경되는 스토리지 도메인 상세 정보를 지정하기 위한 필드입니다. 이러한 옵션은 새로운 스토리지 도메인 추가를 위해 사용 가능한 옵션과 동일합니다. 이러한 옵션에 대한 보다 자세한 내용은 7.1절. “스토리지 도메인 이해”에서 참조하십시오.
  18. 데이터 센터에서 도메인을 활성화 확인란을 선택하여 스토리지 도메인을 연결 시 자동으로 활성화합니다.
  19. OK를 클릭합니다.
스토리지 도메인이 새로운 Red Hat Virtualization 환경의 대상 데이터 센터에 연결되어 자동으로 활성화됩니다. 가져온 스토리지 도메인에서 대상 데이터 센터로 가상 머신과 템플릿을 가져올 수 있습니다.

7.6.5. 가져온 데이터 스토리지 도메인에서 가상 머신 가져오기

Red Hat Virtualization 환경으로 가져온 데이터 스토리지 도메인에서 가상 머신을 가져옵니다. 이러한 절차에서는 가져온 데이터 스토리지 도메인이 데이터 센터에 연결되어 활성화되어 있다고 간주합니다.

절차 7.14. 가져온 데이터 스토리지 도메인에서 가상 머신 가져오기

  1. 스토리지 리소스 탭을 클릭합니다.
  2. 가져온 데이터 스토리지 도메인을 클릭합니다.
  3. 상세 정보 창에서 가상 머신 가져오기 탭을 클릭합니다.
  4. 가져오기할 가상 머신을 하나 이상 선택합니다.
  5. 가져오기 버튼을 클릭합니다.
  6. 클러스터 목록에서 가상 머신을 가져오기한 클러스터를 선택합니다.
  7. OK를 클릭합니다.
하나 이상의 가상 머신을 환경에 가져왔습니다. 가져온 가상 머신은 더이상 가상 머신 가져오기 탭 목록에 나타나지 않습니다.

7.6.6. 가져온 데이터 스토리지 도메인에서 템플릿 가져오기

Red Hat Virtualization 환경으로 가져온 데이터 스토리지 도메인에서 템플릿을 가져옵니다. 이러한 절차에서는 가져온 데이터 스토리지 도메인이 데이터 센터에 연결되어 활성화되어 있다고 간주합니다.

절차 7.15. 가져온 데이터 스토리지 도메인에서 템플릿 가져오기

  1. 스토리지 리소스 탭을 클릭합니다.
  2. 가져온 데이터 스토리지 도메인을 클릭합니다.
  3. 상세 정보 창에서 템플릿 가져오기 탭을 클릭합니다.
  4. 가져오기할 템플릿을 하나 이상 선택합니다.
  5. 가져오기 버튼을 클릭합니다.
  6. 클러스터 목록에서 템플릿을 가져오기한 클러스터를 선택합니다.
  7. OK를 클릭합니다.
하나 이상의 템플릿을 환경에 가져왔습니다. 가져온 템플릿은 더이상 템플릿 가져오기 탭 목록에 나타나지 않습니다.

7.6.7. 가져온 스토리지 도메인에서 디스크 이미지 가져오기

가져온 스토리지 도메인에서 플로팅 가상 디스크를 가져오기 위해 상세 정보 창의 디스크 불러오기 탭을 사용합니다.

참고

QEMU와 호환되는 디스크만 Manager로 불러올 수 있습니다.

절차 7.16. 디스크 이미지 가져오기

  1. 데이터 센터로 가져온 스토리지 도메인을 선택합니다.
  2. 상세 정보 창에서 디스크 불러오기를 클릭합니다.
  3. 하나 이상의 디스크 이미지를 선택 후 가져오기를 클릭하여 디스크 불러오기 창을 엽니다.
  4. 각 디스크의 적절한 디스크 프로파일을 선택합니다.
  5. OK를 클릭하여 선택된 디스크를 가져옵니다.

7.6.8. 가져온 스토리지 도메인에서 미등록된 디스크 이미지 가져오기

스토리지 도메인에서 플로팅 가상 디스크를 가져오기 위해 상세 정보 창의 디스크 불러오기 탭을 사용합니다. Red Hat Virtualization 환경 외부(outside)에서 생성된 플로팅 디스크는 Manager에 등록되어 있지 않습니다. 미등록된 플로팅 디스크를 찾아서 가져오기 위하여 스토리지 도메인을 검색합니다.

참고

QEMU와 호환되는 디스크만 Manager로 가져올 수 있습니다.

절차 7.17. 디스크 이미지 불러오기

  1. 데이터 센터로 가져온 스토리지 도메인을 선택합니다.
  2. 스토리지 도메인을 오른쪽 클릭하고 디스크 검사를 선택하여 Manager가 미등록된 디스크를 찾습니다.
  3. 상세 정보 창에서 디스크 불러오기를 클릭합니다.
  4. 하나 이상의 디스크 이미지를 선택 후 가져오기를 클릭하여 디스크 불러오기 창을 엽니다.
  5. 각 디스크의 적절한 디스크 프로파일을 선택합니다.
  6. OK를 클릭하여 선택된 디스크를 가져옵니다.

7.7. 스토리지 작업

7.7.1. ISO 스토리지 도메인 표시

ISO 스토리지 도메인은 데이터 센터에 연결되어 있습니다. ISO 이미지를 업로드해야 합니다. Red Hat Virtualization은 ISO 업로더 도구를 제공하여 올바른 사용자 권한을 갖는 올바른 디렉토리 경로로 이미지를 업로드합니다.
물리적 미디어에서 ISO 이미지를 생성하는 방법은 이 문서에서 설명하고 있지 않습니다. 환경에 필요한 이미지에 액세스하고 있음을 전제로 합니다.

절차 7.18. ISO 스토리지 도메인 표시

  1. Red Hat Virtualization Manager를 실행하고 있는 시스템의 임시 디렉토리에 필요한 ISO 이미지를 복사합니다.
  2. root 사용자로 Red Hat Virtualization Manager를 실행하고 있는 시스템에 로그인합니다.
  3. engine-iso-uploader 명령을 사용하여 ISO 이미지를 업로드합니다. 작업을 완료하는데 시간이 소요될 수 있습니다. 업로드할 이미지 크기와 사용 가능한 네트워크 대역폭에 따라 작업 시간이 달라질 수 있습니다.

    예 7.1. ISO 업로더 사용

    예에서 ISO 이미지 RHEL6.isoNFS를 사용하는 ISODomain이라는 ISO 도메인에 업로드되어 있습니다. 명령을 통해 관리자의 사용자 이름과 암호를 입력합니다. 사용자 이름은 user name@domain 형식으로 입력해야 합니다.
    # engine-iso-uploader --iso-domain=ISODomain upload RHEL6.iso
ISO 이미지가 업로드되어 지정된 ISO 스토리지 도메인에 표시됩니다. 이는 스토리지 도메인이 연결된 데이터 센터에서 가상 머신을 생성할 때 사용 가능한 부팅 미디어 목록에도 표시됩니다.

7.7.2. 스토리지 도메인을 유지 관리 모드로 전환

스토리지 도메인을 분리 및 삭제하려면 스토리지 도메인이 유지 관리 모드로 되어 있어야 합니다. 이를 위해 다른 데이터 도메인을 마스터 데이터 도메인으로 다시 지정해야 합니다.
도메인이 활성화되어 있을 때에만 LUN을 추가하여 iSCSI 도메인을 확장할 수 있습니다.

절차 7.19. 스토리지 도메인을 유지 관리 모드로 전환

  1. 스토리지 도메인에서 실행 중인 모든 가상 머신을 종료합니다.
  2. 스토리지 리소스 탭을 클릭하고 스토리지 도메인을 선택합니다.
  3. 상세 정보 창에서 데이터 센터 탭을 클릭합니다.
  4. 유지보수를 클릭하여 스토리지 도메인 관리 확인 창을 엽니다.
  5. OK를 클릭하여 유지 관리 모드를 시작합니다. 스토리지 도메인이 비활성화되고 결과 목록에서 Inactive 상태가 됩니다.
데이터 센터에서 비활성 스토리지 도메인을 편집, 분리, 삭제, 다시 활성화할 수 있습니다.

참고

도메인이 연결된 데이터 센터의 상세 정보 창에 있는 스토리지 탭을 사용하여 도메인을 유지 관리 모드로 활성화, 분리, 전환할 수 있습니다.

7.7.3. 스토리지 도메인 편집

관리 포털을 통해 스토리지 도메인의 매개 변수를 편집할 수 있습니다. 스토리지 도메인 상태 (활성 또는 비활성 상태)에 따라 편집할 수 있는 필드가 다릅니다. 데이터 센터, 도메인 기능, 스토리지 유형, 포맷과 같은 필드는 변경할 수 없습니다.
  • 활성 (Active): 스토리지 도메인이 활성 상태일 때 이름, 설명, 코멘트, 디스크 공간 부족 경고 표시 (%), 심각히 부족한 디스크 공간의 동작 차단 (GB), 삭제 후 초기화 필드를 편집할 수 있습니다. 이름 필드는 스토리지 도메인이 활성 상태일 때에만 편집할 수 있습니다. 다른 모든 필드는 스토리지 도메인이 비활성 상태일 때에도 편집할 수 있습니다.
  • 비활성 (Inactive): 스토리지 도메인이 유지 관리 모드이거나 연결되어 있지 않아 비활성상태일 경우 이름, 데이터 센터, 도메인 기능, 스토리지 유형, 및 포맷을 제외한 모든 필드를 편집할 수 있습니다. 스토리지 연결, 마운트 옵션, 기타 다른 고급 매개 변수를 편집하려면 스토리지 도메인은 비활성 상태이어야 합니다. 이는 NFS, POSIX, 로컬 스토리지 유형에서만 지원됩니다.

    참고

    iSCSI 스토리지 연결은 고객 포털을 통해 편집할 수 없지만 REST API를 통해 편집할 수 있습니다. REST API Guide에 있는 iSCSI 스토리지 연결 업데이트에서 참조하십시오.

절차 7.20. 활성화된 스토리지 도메인 편집

  1. 스토리지 탭을 클릭하고 스토리지 도메인을 선택합니다.
  2. 편집을 클릭합니다.
  3. 필요에 따라 사용 가능한 필드를 편집합니다.
  4. OK를 클릭합니다.

절차 7.21. 비활성화된 스토리지 도메인 편집

  1. 스토리지 탭을 클릭하고 스토리지 도메인을 선택합니다.
  2. 스토리지 도메인이 활성화되어 있을 경우 상세 정보 창에서 데이터 센터 탭을 클릭하고 유지 보수를 클릭합니다.
  3. 편집을 클릭합니다.
  4. 필요에 따라 스토리지 경로 및 기타 상세 정보를 편집합니다. 새로운 연결 상세 정보는 기존 연결과 동일한 스토리지 유형이어야 합니다.
  5. OK를 클릭합니다.
  6. 상세 정보 창에서 데이터 센터 탭을 클릭하고 활성화를 클릭합니다.

7.7.4. 유지 관리 모드에서 스토리지 도메인 활성화

데이터 센터의 스토리지를 변경할 경우 스토리지 도메인을 유지 관리 모드로 두어야 합니다. 스토리지 도메인을 활성화하여 사용을 재개합니다.
  1. 스토리지 리소스 탭을 클릭하고 검색 결과 목록에서 스토리지 도메인 비활성화를 선택합니다.
  2. 상세 정보 창에서 데이터 센터 탭을 클릭합니다.
  3. 해당 스토리지 도메인을 선택하고 활성화를 클릭합니다.

    중요

    데이터 도메인을 활성화하기 전 ISO 도메인을 활성화하려할 경우 오류 메세지가 표시되고 도메인은 활성화되지 않습니다.

7.7.5. 스토리지 도메인 삭제

가상화 환경에서 삭제하고자 하는 데이터 센터의 스토리지 도메인이 있습니다.

절차 7.22. 스토리지 도메인 삭제

  1. 스토리지 리소스 탭을 클릭하고 검색 결과 목록에서 적절한 스토리지 도메인을 선택합니다.
  2. 도메인을 유지 관리 모드로 변경하여 비활성화합니다.
  3. 데이터 센터에서 도메인을 분리합니다.
  4. 삭제를 클릭하면 스토리지 삭제 확인 창이 열립니다.
  5. 목록에서 호스트를 선택합니다.
  6. OK를 클릭하여 스토리지 도메인을 삭제하고 창을 닫습니다.
스토리지 도메인이 환경에서 영구적으로 삭제됩니다.

7.7.6. 스토리지 도메인 삭제

스토리지 도메인에서 발생한 오류는 일반 절차를 통해 삭제할 수 없습니다. 스토리지 도메인을 삭제하면 내보내기 디렉토리를 참조하지 않고 가상 환경에서 스토리지 도메인이 강제로 삭제됩니다.
스토리지 도메인을 삭제하면 이를 다시 사용하기 전 수동으로 스토리지 도메인의 내보내기 디렉토리를 수정해야 합니다.

절차 7.23. 스토리지 도메인 삭제

  1. 스토리지 리소스 탭, 트리 모드, 검색 기능을 사용하여 검색 결과 목록에 있는 적절한 스토리지 도메인을 검색 및 선택합니다.
  2. 스토리지 도메인을 오른쪽 클릭하고 삭제 버튼을 선택하면 스토리지 도메인 삭제 확인 창이 열립니다.
  3. 작업 승인 확인란을 선택하고 OK를 클릭하여 스토리지 도메인을 삭제하고 창을 닫습니다.
스토리지 도메인이 삭제되었습니다. 스토리지 도메인의 내보내기 디렉토리를 다시 사용하려면 이를 수동으로 삭제합니다.

7.7.7. 데이터 센터에서 스토리지 도메인 분리

다른 데이터 센터로 가상 머신과 템플릿을 마이그레이션하기 위해 데이터 센터에서 스토리지 도메인을 분리합니다.

절차 7.24. 데이터 센터에서 스토리지 도메인 분리

  1. 스토리지 리소스 탭을 클릭하고 검색 결과 목록에서 스토리지 도메인을 선택합니다.
  2. 상세 정보 창에서 데이터 센터 탭을 클릭하고 스토리지 도메인을 선택합니다.
  3. 유지보수를 클릭하여 스토리지 도메인 관리 확인 창을 엽니다.
  4. OK를 클릭하여 유지 관리 모드를 시작합니다.
  5. 분리를 클릭하여 스토리지 분리 확인창을 엽니다.
  6. OK를 클릭하여 스토리지 도메인을 분리합니다.
스토리지 도메인이 데이터 센터에서 분리되어 다른 데이터 센터로 연결할 준비가 되어 있습니다.

7.7.8. 스토리지 도메인을 데이터 센터에 연결

스토리지 도메인을 데이터 센터에 연결합니다.

절차 7.25. 스토리지 도메인을 데이터 센터에 연결

  1. 스토리지 리소스 탭을 클릭하고 검색 결과 목록에서 스토리지 도메인을 선택합니다.
  2. 상세 정보 창에서 데이터 센터 탭을 클릭합니다.
  3. 연결을 클릭하여 데이터 센터에 연결 창을 엽니다.
  4. 해당 데이터 센터의 라디오 버튼을 클릭합니다.
  5. OK를 클릭하여 스토리지 도메인을 연결합니다.
스토리지 도메인이 데이터 센터에 연결되어 자동으로 활성화됩니다.

7.7.9. 디스크 프로파일

디스크 프로파일은 스토리지 도메인에 있는 가상 디스크의 최대 입출력 수준 및 처리 가능한 최대 용량을 정의합니다. 디스크 프로파일은 데이터 센터 아래에서 정의된 스토리지 프로파일에 기반하여 생성되며 프로파일을 적용하려면 개별적 가상 디스크에 수동으로 지정해야 합니다.

7.7.9.1. 디스크 프로파일 생성

디스크 프로파일을 생성합니다. 다음 부분에서는 스토리지 도메인이 속한 데이터 센터 아래에 하나 이상의 스토리지 QoS 항목이 이미 정의되어 있음을 전제로 합니다.

절차 7.26. 디스크 프로파일 생성

  1. 스토리지 리소스 탭을 클릭하고 데이터 스토리지 도메인을 선택합니다.
  2. 상세 정보 창에서 디스크 프로파일 하위 탭을 클릭합니다.
  3. 새로 만들기를 클릭합니다.
  4. 이름 란에 디스크 프로파일 이름을 입력합니다.
  5. 설명 란에 디스크 프로파일 설명을 입력합니다.
  6. QoS 목록에서 디스크 프로파일에 적용할 QoS를 선택합니다.
  7. OK를 클릭합니다.
디스크 프로파일이 생성되었습니다. 디스크 프로파일은 데이터 스토리지 도메인에서 호스트되는 새 가상 디스크에 적용할 수 있습니다.

7.7.9.2. 디스크 프로파일 삭제

Red Hat Virtualization 환경에서 기존 디스크 프로파일을 삭제합니다.

절차 7.27. 디스크 프로파일 삭제

  1. 스토리지 리소스 탭을 클릭하고 데이터 스토리지 도메인을 선택합니다.
  2. 상세 정보 창에서 디스크 프로파일 하위 탭을 클릭합니다.
  3. 삭제하려는 디스크 프로파일을 선택합니다.
  4. 삭제를 클릭합니다.
  5. OK를 클릭합니다.
디스크 프로파일이 삭제되어 이를 더이상 사용할 수 없습니다. 디스크 프로파일이 가상 디스크에 지정되어 있을 경우 디스크 프로파일은 이러한 가상 디스크에서 삭제됩니다.

7.7.10. 스토리지 도메인 상태 표시

스토리지 도메인은 일반적인 상태 외에 외부 상태가 있습니다. 외부 상태는 플러그인 또는 외부 시스템에 의해 보고되거나 관리자가 설정하며 스토리지 도메인 이름 왼쪽에 다음의 아이콘 중에서 하나가 표시됩니다:
  • OK: 아이콘 없음
  • Info:
  • Warning:
  • Error:
  • Failure:
스토리지 도메인 상태에 대한 상세 정보를 표시하기 위해 해당 스토리지 도메인을 선택하고 이벤트 하위 탭을 클릭합니다.
스토리지 도메인 상태는 REST API로 표시될 수도 있습니다. 스토리지 도메인에 대한 GET 요청에는 호스트 상태가 들어 있는 external_status 요소가 포함됩니다.
events 컬렉션을 통해 REST API에서 스토리지 도메인 상태를 설정할 수 있습니다. 자세한 정보는 REST API Guide에 있는 Adding Events에서 참조하십시오.

7.8. 스토리지 및 권한

7.8.1. 스토리지 도메인의 시스템 권한 관리

SuperUser로서 시스템 관리자는 관리 포털의 모든 면을 관리합니다. 보다 특정한 관리 역할은 다른 사용자에게 부여될 수 있습니다. 이러한 제한된 관리자 역할은 특정 리소스에 제한하여 사용자 관리 권할을 부여할 경우 유용합니다. 예를 들어 DataCenterAdmin 역할은 데이터 센터의 스토리지를 제외한 할당된 데이터 센터에 대해서만 관리자 권한을 갖으며 ClusterAdmin은 할당된 클러스터에 대해서만 관리자 권한을 갖습니다.
스토리지 관리자는 특정 스토리지 도메인에 대한 시스템 관리자 역할입니다. 이는 각 스토리지 도메인에 시스템 관리자가 필요한 여러 스토리지 도메인으로 구성된 데이터 센터에서 유용합니다. 머리글 표시줄에 있는 설정 버튼을 사용하여 환경의 모든 스토리지 도메인에 스토리지 관리자를 지정할 수 있습니다.
스토리지 도메인 관리자 역할은 다음과 같은 작업을 허용합니다:
  • 스토리지 도메인의 설정을 편집합니다.
  • 스토리지 도메인을 유지관리 모드로 전환합니다.
  • 스토리지 도메인을 삭제합니다.

참고

기존 사용자에게만 역할 및 권한을 할당할 수 있습니다.
기존 시스템 관리자를 삭제하고 새로운 시스템 관리자를 추가하여 스토리지 도메인의 시스템 관리자를 변경할 수 있습니다.

7.8.2. 스토리지 관리자 역할

스토리지 도메인 권한 역할
아래 표에서는 스토리지 도메인 관리에 적용할 수 있는 관리자 역할 및 권한에 대해 설명합니다.

표 7.1. Red Hat Virtualization 시스템 관리자 역할

역할권한알림
StorageAdmin스토리지 관리자입니다.특정 스토리지 도메인을 생성, 삭제, 설정, 관리할 수 있습니다.
GlusterAdminGluster 스토리지 관리자Gluster 스토리지 볼륨을 생성, 삭제, 설정, 관리할 수 있습니다.

7.8.3. 리소스에 관리자 또는 사용자 역할 할당

리소스에 관리자 또는 사용자 역할을 할당하여 사용자가 리소스에 액세스 및 관리할 수 있게 합니다.

절차 7.28. 리소스에 역할 할당

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자, 사용자 역할, 선택한 리소스에 대해 상속된 권한을 나열합니다.
  3. 추가를 클릭합니다.
  4. 검색 텍스트 상자에 기존 사용자의 이름 또는 사용자 이름을 입력하고 검색을 클릭합니다. 검색 결과 목록에서 일치하는 사용자를 선택합니다.
  5. 할당된 역할: 드롭 다운 목록에서 역할을 선택합니다.
  6. OK를 클릭합니다.
사용자에게 역할이 할당되어 이제 사용자는 리소스에 대해 활성화된 역할에 상속된 권한을 갖습니다.

7.8.4. 리소스에서 관리자 또는 사용자 역할 삭제

리소스에서 관리자 또는 사용자 역할을 삭제합니다. 사용자는 리소스에서의 역할과 관련하여 상속된 권한을 손실합니다.

절차 7.29. 리소스에서 역할 삭제

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자 목록, 사용자 역할, 선택한 리소스에서 상속된 권한을 나열합니다.
  3. 리소스에서 삭제할 사용자를 선택합니다.
  4. 삭제를 클릭합니다. 권한 삭제 창이 열리면 권한 삭제를 확인합니다.
  5. OK를 클릭합니다.
리소스에서 사용자 역할 및 관련된 권한이 삭제됩니다.

8장. Red Hat Gluster Storage를 사용하여 작업

8.1. Red Hat Gluster Storage 노드

8.1.1. Red Hat Gluster Storage 노드 추가

Red Hat Gluster Storage 노드를 Gluster 활성화된 클러스터에 추가하고 GlusterFS 볼륨 및 브릭을 Red Hat Virtualization 환경에 통합합니다.
다음 절차에서는 적절한 호환 버전의 Gluster-활성 클러스터가 존재하고 Red Hat Gluster Storage 노드가 이미 설정되어 있다는 것을 전제로 합니다. Red Hat Gluster Storage 노드 설정에 대한 보다 자세한 내용은 Red Hat Gluster Storage 설치 가이드에서 참조하십시오. 호환 메트릭스에 대한 자세한 내용은 Red Hat Gluster Storage Version Compatibility and Support에서 참조하십시오.

절차 8.1. Red Hat Gluster Storage 노드 추가

  1. 호스트 리소스 탭을 클릭하여 결과 목록에 호스트를 나열합니다.
  2. 새로 만들기를 클릭하여 새 호스트 창을 엽니다.
  3. 드롭 다운 메뉴를 사용하여 Red Hat Gluster Storage 노드의 데이터 센터호스트 클러스터를 선택합니다.
  4. Red Hat Gluster Storage 노드의 이름, 주소, SSH 포트를 입력합니다.
  5. Red Hat Gluster Storage 노드와 함께 사용할 인증 방식을 선택합니다.
    • 인증 암호를 사용하기 위해 root 사용자 암호를 입력합니다.
    • SSH 공개키 필드에 표시된 키를 Red Hat Gluster Storage 노드에 있는 /root/.ssh/authorized_keys에 복사하여 공개키 인증에 사용합니다.
  6. OK를 클릭하여 노드를 추가하고 창을 닫습니다.
Red Hat Virtualization 환경에 Red Hat Gluster Storage 노드가 추가되었습니다. 사용자 환경에서 노드의 볼륨 및 브릭 리소스를 사용할 수 있습니다.

8.1.2. Red Hat Gluster Storage 노드 삭제

Red Hat Virtualization 환경에서 Red Hat Gluster Storage 노드를 삭제합니다.

절차 8.2. Red Hat Gluster Storage 노드 삭제

  1. 호스트 리소스 탭, 트리 모드, 검색 기능을 사용하여 검색 결과 목록에 있는 Red Hat Gluster Storage 노드를 검색 및 선택합니다.
  2. 유지보수를 클릭하면 호스트 유지관리 모드 확인 창이 열립니다.
  3. OK를 클릭하여 호스트를 유지 관리 모드로 전환합니다.
  4. 삭제를 클릭하면 호스트 삭제 확인 창이 열립니다.
  5. 노드에 볼륨 브릭이 있거나 노드가 응답하지 않을 경우 강제 삭제 확인란을 선택합니다.
  6. OK를 클릭하여 노드를 삭제하고 창을 닫습니다.
Red Hat Gluster Storage 노드가 환경에서 삭제되어 더이상 호스트 탭에서 볼 수 없습니다.

8.2. 스토리지 도메인으로 Red Hat Gluster Storage 사용

8.2.1. Red Hat Gluster Storage (GlusterFS) 볼륨 소개

Red Hat Gluster Storage 볼륨은 하나 이상의 Red Hat Gluster Storage 서버에서의 스토리지를 단일 글로벌 네임스페이스로 통합합니다. 볼륨은 브릭 모음으로 여기서 각 브릭은 신뢰할 수 있는 스토리지 풀에서 Red Hat Gluster Storage Server에 있는 마운트 지점 또는 디렉토리입니다.
Red Hat Gluster Storage의 대부분의 관리 작업은 볼륨에서 실행됩니다.
관리 포털을 사용하여 새 볼륨을 생성 및 시작할 수 있습니다. 볼륨 탭에서 Red Hat Gluster Storage 클러스터에 있는 볼륨을 모니터링할 수 있습니다.
볼륨은 관리 포털에서 생성 및 관리할 수 있지만 브릭은 관리 포털을 사용하여 볼륨에 추가하기 전 개별 Red Hat Gluster Storage 노드에 생성해야 합니다.

8.2.2. Gluster 스토리지 용어

표 8.1. 데이터 센터 속성

용어
정의
브릭
브릭은 신뢰할 수 있는 스토리지 풀의 서버에 있는 내보내기 디렉토리에서 표시되는 기본 GlusterFS 스토리지 단위입니다. 브릭은 다음과 같은 형식으로된 내보내기 디렉토리가 있는 서버와 결합하여 표시됩니다:
SERVER:EXPORT
예:
myhostname:/exports/myexportdir/
블록 스토리지
블록 특수 파일 또는 블록 장치는 시스템이 블록 형태로 데이터를 이동할 때 사용하는 장치에 해당합니다. 이러한 장치 노드에는 하드 디스크, CD-ROM 드라이브, 메모리 영역과 같은 주소 지정 가능한 장치가 있습니다. Red Hat Gluster Storage는 확장 속성과 함께 XFS 파일 시스템을 지원합니다.
클러스터
밀접하게 작동하기 위해 여러가지 방법으로 하나의 컴퓨터를 형성하고 있는 링크된 컴퓨터의 신뢰할 수 있는 풀입니다. Red Hat Gluster Storage 용어에서 클러스터는 신뢰할 수 있는 스토리지 풀이라고 합니다.
클라이언트
볼륨을 마운트하는 시스템입니다. (서버가 될 수 도 있음)
분산 파일 시스템
신뢰할 수 있는 스토리지 풀에서 여러 서버/브릭 전체에 걸쳐 분산된 데이터에 여러 클라이언트가 동시에 액세스할 수 있는 파일 시스템입니다. 여러 위치에서 데이터를 공유하는 것은 모든 분산 파일 시스템에 필수적입니다.
지역 복제
지역 복제는 로컬 영역 네트워크 (LAN), 광역 네트워크 (WAN), 인터넷을 통해 사이트간 지속적, 비동기식, 증분 복제 서비스를 제공합니다.
glusterd
신뢰할 수 있는 스토리지 풀에 있는 모든 서버에서 실행해야 하는 Gluster 관리 데몬입니다.
메타데이터
메타데이터는 하나 이상의 다른 데이터에 대한 정보를 제공하는 데이터입니다.
N-way 복제
일반적으로 로컬 동기식 데이터 복제는 캠퍼스나 Amazon Web Services Availability Zones에 걸쳐 배포됩니다.
네임 스페이스
네임 스페이스는 고유 식별자나 기호의 논리적 그룹을 저장하기 위해 생성된 추상적 컨텐이너 또는 환경입니다. 각각의 Red Hat Gluster Storage 신뢰할 수 있는 스토리지 풀은 신뢰할 수 있는 스토리지 풀의 모든 파일이 들어 있는 POSIX 마운트 지점으로 단일 네임 스페이스를 제공합니다.
POSIX
Portable Operating System Interface (Unix 용)는 UNIX 운영 체제의 다양한 버전과 호환 가능한 소프트웨어의 쉘 및 유틸리티 인터페이스와 함께 애플리케이션 프로그래밍 인터페이스 (API)를 정의하는 IEEE에 의해 지정된 관련 표준 제품군 이름입니다. Red Hat Gluster Storage는 POSIX와의 완전하게 호환 가능한 파일 시스템을 내보내기합니다.
RAID
Redundant Array of Inexpensive Disks (RAID)는 낮은 비용, 낮은 안정성 디스크 드라이브 구성요소를 논리 단위로 (어레이에 있는 모든 드라이브가 상호 종속적인) 결합하여 중복을 통해 스토리지 안정성을 증가시키는 기술입니다.
RRDNS
Round Robin Domain Name Service (RRDNS)는 애플리케이션 서버를 통해 부하를 분산하는 방법입니다. RRDNS는 DNS 서버의 영역 파일에 동일한 이름의 다른 IP 주소를 갖는 복수의 A 레코드를 생성하여 구현됩니다.
서버
데이터가 저장되는 실제 파일 시스템을 호스팅하는 시스템 (가상 또는 베어 메탈)입니다.
단일 차원 확장 스토리지
하나의 차원에서만 스토리지 장치의 용량을 증가시킵니다. 예를 들어 신뢰할 수 있는 스토리지 풀에 있는 단일 컴퓨터의 추가 디스크 용량을 늘리는 것입니다.
다차원 확장 스토리지
여러 차원에서 스토리지 장치의 용량을 증가시킵니다. 예를 들어 신뢰할 수 있는 스토리지 풀에 서버를 추가하여 신뢰할 수 있는 스토리지 풀의 CPU, 디스크 용량 및 처리량을 증가시킵니다.
서브 볼륨
서브 볼륨은 최소 하나의 변환기에 의해 처리된 브릭입니다.
변환기
변환기는 하나 이 상의 서브볼륨에 연결되어 작업을 수행하고 서브 볼륨 연결을 제공합니다.
신뢰할 수 있는 스토리지 풀
스토리지 풀은 스토리지 서버의 신뢰할 수 있는 네트워크입니다. 첫 번째 서버를 시작하면 스토리지 풀은 단독으로 해당 서버로 구성됩니다.
사용자 공간
사용자 공간에서 실행되고 있는 애플리케이션은 하드웨어와 직접 상호 작용하는 대신 커널을 사용하여 액세스를 중재합니다. 사용자 공간 애플리케이션은 일반적으로 커널 공간 애플리케이션 보다 더 이동식입니다. Gluster는 사용자 공간 애플리케이션입니다.
VFS (Virtual File System)
VFS는 표준 Linux 파일 시스템과 관련된 모든 시스템 호출을 처리하는 커널 소프트웨어 계층입니다. 이는 여러 종류의 파일 시스템에 대해 일반적인 인터페이스를 제공합니다.
볼륨 파일
볼륨 파일은 GlusterFS 프로세스에 의해 사용되는 설정 파일입니다. 일반적으로 볼륨 파일은 /var/lib/glusterd/vols/VOLNAME에 있습니다.
볼륨
볼륨은 브릭의 논리 집합입니다. 대부분의 Gluster 관리 작업은 볼륨에서 수행됩니다.

8.2.3. 스토리지 도메인으로 Red Hat Gluster Storage 볼륨 연결

스토리지 도메인으로 바로 사용하기 위해 Red Hat Gluster Storage 볼륨을 Red Hat Virtualization Manager에 추가합니다. 이는 Red Hat Virtualization Manager 내에 있는 노드의 볼륨 및 브릭을 통한 제어를 가능하게 하는 Red Hat Storage Gluster 노드를 추가하는 방법과 다르며 Gluster 활성 클러스터가 필요하지 않습니다.
볼륨을 마운트하려면 호스트에 glusterfs, glusterfs-fuseglusterfs-cli 패키지가 필요합니다. glusterfs-cli 패키지는 고객 포털의 rh-common-rpms 채널에 있습니다.
Red Hat Gluster Storage 노드 설정에 대한 보다 자세한 내용은 Red Hat Gluster Storage 설치 가이드에서 참조하십시오. Red Hat Storage Gluster 볼륨 으로 사용할 호스트 준비에 대한 보다 자세한 내용은 Red Hat Gluster Storage 가이드에서 Red Hat Virtualization 설정에서 참조하십시오. 호환 매트릭스에 대한 보다 자세한 내용은 Red Hat Gluster Storage Version Compatibility and Support에서 참조하십시오.

절차 8.3. 스토리지 도메인으로 Red Hat Gluster Storage 볼륨 추가

  1. 스토리지 리소스 탭을 클릭하면 결과 목록에 기존 스토리지 도메인 목록이 표시됩니다.
  2. 새로운 도메인을 클릭하면 새로운 도메인 창이 열립니다.
    Red Hat Gluster Storage

    그림 8.1. Red Hat Gluster Storage

  3. 스토리지 도메인의 이름을 입력합니다.
  4. 스토리지 도메인에 연결할 데이터 센터를 클릭합니다.
  5. 도메인 기능 드롭 다운 목록에서 Data를 선택합니다.
  6. 스토리지 유형 드롭 다운 목록에서 GlusterFS를 선택합니다.
  7. 사용 호스트 드롭 다운 목록에서 호스트를 선택합니다. 선택한 데이터 센터 내에 있는 호스트만 표시됩니다. 볼륨을 마운트하려면 선택한 호스트에 glusterfsglusterfs-fuse 패키지를 설치해야 합니다.
  8. 경로 필드에 Red Hat Gluster Storage 서버의 IP 주소 또는 FQDN 및 볼륨 이름을 콜론으로 구분하여 입력합니다.
  9. -o 인수를 사용하여 mount 명령에 지정하는 것 처럼 추가 마운트 옵션을 입력합니다. 마운트 옵션은 콤마로 구분합니다. 유효한 마운트 옵션 목록은 man mount에서 확인하십시오.
  10. 옵션으로 고급 매개 변수를 설정할 수 있습니다.
    1. 고급 매개 변수를 클릭합니다.
    2. 디스크 공간 부족 경고 표시 필드에 백분율 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 해당 백분율 값 아래로 내려가면 사용자에게 경고 메세지가 표시되고 기록됩니다.
    3. 심각히 부족한 디스크 공간의 동작 차단 필드에 GB 단위로 값을 입력합니다. 스토리지 도메인에서 사용 가능한 여유 공간이 해당 값 아래로 내려가면 사용자에게 오류 메세지가 표시되고 기록되며 공간을 소비하는 모든 새로운 동작은 일시적이라도 모두 차단됩니다.
    4. 삭제 후 초기화 확인란을 선택하여 삭제 후 초기화 옵션을 활성화합니다. 이 옵션은 도메인 생성 후 편집할 수 있지만 이러한 경우 이미 존재하는 디스크의 삭제 후 초기화 속성은 변경되지 않습니다.
  11. OK를 클릭하여 스토리지 도메인으로 볼륨을 마운트하고 창을 닫습니다.

8.2.4. 스토리지 볼륨 생성

관리 포털을 사용하여 새 볼륨을 생성할 수 있습니다. 새 볼륨 생성 시 볼륨을 구성하는 브릭을 지정하고 볼륨이 분산, 복제, 스트라이프되는지를 지정해야 합니다.
브릭을 볼륨에 추가하기 전 브릭 디렉토리 또는 마운트 지점을 생성해야 합니다.

중요

다른 호스트에서 내보내기된 브릭이 볼륨으로 통합된 복제 볼륨을 사용하는 것이 좋습니다. 복제 볼륨은 볼륨에 여러 브릭에 걸쳐 파일 복사본을 만들기 때문에 호스트가 분리된 경우 데이터 손실을 방지할 수 있습니다.

절차 8.4. 스토리지 볼륨 생성

  1. 볼륨 리소스 탭을 클릭하여 결과 목록에 있는 기존 볼륨을 나열합니다.
  2. 새로 만들기를 클릭하면 새 볼륨 창이 열립니다.
  3. 드롭 다운 메뉴를 사용하여 데이터 센터볼륨 클러스터를 선택합니다.
  4. 볼륨 이름을 입력합니다.
  5. 드롭 다운 메뉴에서 볼륨 유형을 선택합니다.
  6. 활성화된 경우 적절한 전송 유형 체크 상자를 선택합니다.
  7. 브릭 추가 버튼을 클릭하여 볼륨에 추가할 브릭을 선택합니다. Red Hat Gluster Storage 노드 외부에서 브릭을 생성해야 합니다.
  8. 활성화된 경우 Gluster, NFS, CIFS 체크 상자를 사용하여 볼륨에 사용되는 적절한 액세스 프로토콜을 선택합니다.
  9. 액세스 허용할 호스트 필드에 볼륨 액세스 제어를 IP 주소 또는 호스트 이름의 콤마로 구분된 목록으로 입력합니다.
    IP 주소나 호스트 이름을 범위로 지정하기 위해 *를 와일드 카드로 사용할 수 있습니다.
  10. 가상 저장소에 최적화 옵션을 선택하여 가상 머신 스토리지 볼륨을 최적화하기 위한 매개 변수를 설정합니다. 이 볼륨을 스토리지 도메인으로 사용하고자 할 경우에도 이 옵션을 선택합니다.
  11. OK를 클릭하여 볼륨을 생성합니다. 새 볼륨이 추가되어 볼륨 탭에 표시됩니다.
Red Hat Gluster Storage 볼륨이 추가되어 이를 스토리지로 사용할 수 있습니다.

8.2.5. 볼륨에 브릭 추가

요약
새로운 브릭을 추가하여 볼륨을 확장할 수 있습니다. 스토리지 공간을 확장할 때 최소 하나의 브릭을 분산 볼륨에 2의 배수의 브릭을 복제 볼륨에 4의 배수의 브릭을 스트라이프 볼륨에 추가해야 합니다.

절차 8.5. 볼륨에 브릭 추가

  1. 탐색 창의 볼륨 탭에서 브릭에 추가하고자 하는 볼륨을 선택합니다.
  2. 상세 정보 창에서 브릭 탭을 클릭합니다.
  3. 브릭 추가를 클릭하여 브릭 추가 창을 엽니다.
  4. 서버 드롭 다운 메뉴를 사용하여 브릭을 배치할 서버를 선택합니다.
  5. 브릭 디렉토리 경로를 입력합니다. 경로가 이미 존재해야 합니다.
  6. 추가를 클릭합니다. 볼륨에 있는 브릭 목록에 서버 주소 및 브릭 디렉토리 이름과 함께 브릭이 표시됩니다.
  7. OK를 클릭합니다.
결과
새 브릭이 볼륨에 추가되어 브릭은 볼륨의 브릭 탭에 표시됩니다.

8.2.6. 브릭 추가 창 설정

표 8.2. 브릭 탭 속성 추가

필드 이름
설명
볼륨 유형
볼륨 유형을 표시합니다. 이 필드는 변경할 수 없습니다. 이는 볼륨 생성 시 설정됩니다.
서버
브릭이 호스팅되는 서버입니다.
브릭 디렉토리
브릭 디렉토리 또는 마운트 지점입니다.

8.2.7. 가상 머신 이미지를 저장하기 위해 Red Hat Gluster Storage 볼륨을 최적화

관리 포털을 사용하여 가상 머신 이미지를 저장하기 위해 Red Hat Gluster Storage 볼륨을 최적화합니다.
가상 머신을 저장하기 위해 볼륨을 최적화하려면 Manager는 볼륨에 특정 가상화 매개변수를 설정합니다.
가상 머신을 저장하기 위해 가상 저장소에 최적화 확인란을 선택하거나 볼륨 리소스 탭에서 가상 저장소에 최적화 버튼을 사용하여 볼륨 생성후 이를 최적화할 수 있습니다.

중요

볼륨이 세 개 이상의 노드에 복제되는 경우 노드에서 데이터 불일치되지 않도록 가상 스토리지에서 볼륨을 최적화합니다.
다른 방법은 Red Hat Gluster Storage 노드 중 하나에 액세스하여 볼륨 그룹을 virt로 설정하는 것입니다. 이는 cluster.quorum-type 매개 변수를 auto로 설정하고 cluster.server-quorum-type 매개 변수를 server로 설정합니다.
# gluster volume set VOLUME_NAME group virt
볼륨 정보를 나열하여 볼륨 상태를 확인합니다:
# gluster volume info VOLUME_NAME

8.2.8. 볼륨 시작하기

요약
볼륨을 생성한 후 또는 기존 볼륨을 중지한 후 볼륨을 사용하기 전 이를 시작해야 합니다.

절차 8.6. 볼륨 시작하기

  1. 볼륨 탭에서 시작할 볼륨을 선택합니다.
    Shift 또는 Ctrl 키를 사용하여 시작할 여러 볼륨을 선택할 수 있습니다.
  2. 시작 버튼을 클릭합니다.
볼륨 상태를 Up으로 변경합니다.
결과
이제 가상 머신 스토리지의 볼륨을 사용할 수 있습니다.

8.2.9. 볼륨 조정

개요
볼륨을 조정하면 성능에 영향을 미칠 수 있습니다. 볼륨을 조정하려면 옵션을 추가합니다.

절차 8.7. 볼륨 조정

  1. 볼륨 탭을 클릭합니다.
    볼륨 목록이 표시됩니다.
  2. 조정하고자 하는 볼륨을 선택하고 상세 정보 창에서 볼륨 옵션 탭을 클릭합니다.
    볼륨 옵션 탭에 볼륨 옵션 설정 목록이 표시됩니다.
  3. 추가를 클릭하여 옵션을 설정합니다. 옵션 추가 대화 상자 표시됩니다. 드롭 다운 목록에서 옵션 키를 선택하고 옵션 값을 입력합니다.
  4. OK를 클릭합니다.
    옵션이 설정되어 볼륨 옵션 탭에 표시됩니다.
결과
스토리지 볼륨의 옵션이 조정되었습니다.

8.2.10. 볼륨 옵션 편집

요약
옵션을 추가하여 볼륨을 조정합니다. 스토리지 볼륨의 옵션을 변경할 수 있습니다.

절차 8.8. 볼륨 옵션 편집

  1. 볼륨 탭을 클릭합니다.
    볼륨 목록이 표시됩니다.
  2. 편집하고자 하는 볼륨을 선택한 후 상세 정보 창에서 볼륨 옵션 탭을 클릭합니다.
    볼륨 옵션 탭에 볼륨 옵션 설정 목록이 표시됩니다.
  3. 편집하고자 하는 옵션을 선택합니다. 편집을 클릭하면 옵션 편집 대화 상자가 나타납니다. 새 옵션 값을 입력합니다.
  4. OK를 클릭합니다.
    편집된 옵션은 볼륨 옵션 탭에 표시됩니다.
결과
볼륨에서 옵션이 변경됩니다.

8.2.11. 볼륨 옵션 재설정

요약
옵션을 재설정하여 기본값으로 되돌리기할 수 있습니다.
  1. 볼륨 탭을 클릭합니다.
    볼륨 목록이 표시됩니다.
  2. 볼륨을 선택하고 상세 정보 창에서 볼륨 옵션 탭을 클릭합니다.
    볼륨 옵션 탭에 볼륨 옵션 설정 목록이 표시됩니다.
  3. 재설정하고자 하는 옵션을 선택합니다. 재설정을 클릭합니다. 대화 상자에서 옵션 재설정을 확인하는 메세지가 나타납니다.
  4. OK를 클릭합니다.
    선택한 옵션이 재설정됩니다.

참고

모두 재설정 버튼을 클릭하여 모든 볼륨 옵션을 재설정할 수 있습니다. 대화 상자에서 옵션 재 설정을 확인하는 메세지가 나타납니다. OK를 클릭합니다. 선택한 볼륨의 모든 볼륨 옵션이 재설정됩니다.
결과
볼륨 옵션이 기본값으로 재설정됩니다.

8.2.12. 볼륨에서 브릭 삭제

요약
클러스터를 온라인에서 사용 가능할 때 필요에 따라 볼륨을 축소할 수 있습니다. 예를 들어 하드웨어나 네트워크 장애로 인해 분산 볼륨에서 액세스할 수 없는 브릭을 삭제해야 할 수 도 있습니다.

절차 8.9. 볼륨에서 브릭 삭제

  1. 탐색 창의 볼륨 탭에서 브릭을 제거하고자 하는 볼륨을 선택합니다.
  2. 상세 정보 창에서 브릭 탭을 클릭합니다.
  3. 삭제하고자 하는 브릭을 선택합니다. 브릭 삭제를 클릭합니다.
  4. 창이 열리고 삭제를 확인하는 메세지가 나타납니다. OK를 클릭하여 확인합니다.
결과
브릭이 볼륨에서 삭제됩니다.

8.2.13. Red Hat Gluster Storage 볼륨 중지

볼륨을 시작한 후 이를 중지할 수 있습니다.

절차 8.10. 볼륨 중지

  1. 볼륨 탭에서 중지할 볼륨을 선택합니다.
    Shift 또는 Ctrl 키를 사용하여 중지할 여러 볼륨을 선택할 수 있습니다.
  2. 중지를 클릭합니다.

8.2.14. Red Hat Gluster Storage 볼륨 삭제

클러스터에서 하나의 볼륨 또는 여러 볼륨을 삭제할 수 있습니다.
  1. 볼륨 탭에서 삭제할 볼륨을 선택합니다.
  2. 삭제를 클릭합니다. 대화 상자에서 삭제를 확인하는 메세지가 나타납니다. OK를 클릭합니다.

8.2.15. 볼륨 재조정

요약
브릭을 추가 또는 삭제하여 볼륨을 확장 또는 축소한 경우 볼륨에 있는 데이터를 서버 사이에서 재조정해야 합니다.

절차 8.11. 볼륨 재조정

  1. 볼륨 탭을 클릭합니다.
    볼륨 목록이 표시됩니다.
  2. 재조정하려는 볼륨을 선택합니다.
  3. 재조정을 클릭합니다.
결과
선택한 볼륨이 재조정됩니다.

8.3. Clusters 및 Gluster 후크

8.3.1. Gluster 후크 관리

Gluster 후크는 볼륨 라이프 사이클 확장입니다. Manager에서 Gluster 후크를 관리할 수 있습니다. 후크 컨텐츠 유형이 Text일 경우 후크 컨텐츠를 확인할 수 있습니다.
Manager를 통해 다음과 같은 작업을 수행할 수 있습니다:
  • 호스트에서 사용할 수 있는 후크 목록을 확인할 수 있습니다.
  • 후크 컨텐츠 및 상태를 확인할 수 있습니다.
  • 후크를 활성화 또는 비활성화할 수 있습니다.
  • 후크 충돌을 해결할 수 있습니다.

8.3.2. 후크 나열

요약
환경에 Gluster 후크를 나열합니다.

절차 8.12. 후크 나열

  1. 클러스터 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 클러스터를 검색 및 선택합니다.
  2. Gluster 후크 하위 탭을 선택하여 상세 정보 창에 후크를 나열합니다.
결과
환경에 Gluster 후크가 나열됩니다.

8.3.3. 후크 컨텐츠 보기

요약
사용자 환경에 있는 Gluster 후크 컨텐츠를 확인합니다.

절차 8.13. 후크 컨텐츠 보기

  1. 클러스터 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 클러스터를 검색 및 선택합니다.
  2. Gluster 후크 하위 탭을 선택하여 상세 정보 창에 후크를 나열합니다.
  3. 컨텐츠 유형이 텍스트인 후크를 선택하고 컨텐츠 보기 버튼을 클릭하여 후크 컨텐츠 창을 엽니다.
결과
사용자 환경에서 후크 컨텐츠를 확인할 수 있습니다.

8.3.4. 후크 활성화 또는 비활성화

요약
Gluster 후크를 활성화 또는 비활성화하여 Gluster 후크 동작을 전환합니다.

절차 8.14. 후크 활성화 또는 비활성화

  1. 클러스터 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 클러스터를 검색 및 선택합니다.
  2. Gluster 후크 하위 탭을 선택하여 상세 정보 창에 후크를 나열합니다.
  3. 후크를 선택하고 활성화 또는 비활성화 버튼 중 하나를 클릭합니다. 후크는 클러스터의 모든 노드에서 활성화 또는 비활성화됩니다.
결과
사용자 환경에 있는 Gluster 후크 동작을 전환했습니다.

8.3.5. 후크 새로 고침하기

요약
기본값으로 Manager는 클러스터에 있는 모든 서버 및 engine에 설치된 후크 상태를 확인하고 매 시간 마다 정기적으로 작업을 실행하여 새 후크를 감지합니다. Sync 버튼을 클릭하여 후크를 수동으로 새로 고침할 수 있습니다.

절차 8.15. 후크 새로 고침하기

  1. 클러스터 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 클러스터를 검색 및 선택합니다.
  2. Gluster 후크 하위 탭을 선택하여 상세 정보 창에 후크를 나열합니다.
  3. 동기화 버튼을 클릭합니다.
결과
후크가 상세 정보 창에서 동기화 및 업데이트됩니다.

8.3.6. 충돌 해결

후크는 클러스터 탭의 Gluster 후크 하위 탭에 표시됩니다. 충돌의 원인이 되는 후크는 느낌표로 표시됩니다. 이는 클러스터에 있는 서버 간 후크 컨텐츠 또는 상태에서 충돌이 발생하는지 혹은 하나 이상의 서버에서 후크 스크립트가 누락되어 있는지를 나타냅니다. 이러한 충돌은 Manager를 통해 해결할 수 있습니다. 서버에 있는 후크는 engine 데이터베이스와 주기적으로 동기화되며 다음과 같은 충돌이 발생할 수 있습니다:
  • 컨텐츠 충돌 - 후크 컨텐츠가 서버 간에 다를 경우 발생합니다.
  • 누락 충돌 - 클러스터의 하나 이상의 서버에 후크가 없을 경우 발생합니다.
  • 상태 충돌 - 서버 간에 후크 상태가 다를 경우 발생합니다.
  • 다수 충돌 - 위의 충돌 중 두 개 이상이 조합하여 충돌이 발생합니다.

8.3.7. 컨텐츠 충돌 해결

요약
모든 서버 및 engine에서 일관되지 않는 후크는 충돌하는 것으로 플래그 지정됩니다. 충돌을 해결하려면 모든 서버 및 engine에 걸쳐 복사할 후크 버전을 선택해야 합니다.

절차 8.16. 컨텐츠 충돌 해결

  1. 클러스터 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 클러스터를 검색 및 선택합니다.
  2. Gluster 후크 하위 탭을 선택하여 상세 정보 창에 후크를 나열합니다.
  3. 충돌하는 후크를 선택하고 충돌 해결 버튼을 클릭하여 충돌 해결 창을 엽니다.
  4. 소스 목록에서 engine이나 서버를 선택하여 후크 컨텐츠를 확인하고 복사할 후크 버전을 설정합니다.

    참고

    후크 컨텐츠는 모든 서버 및 engine에서 덮어쓰기됩니다.
  5. 컨텐츠 사용 드롭 다운 메뉴에서 선호하는 서버나 engine을 선택합니다.
  6. OK를 클릭하여 충돌을 해결하고 창을 닫습니다.
결과
선택한 서버에서 후크는 모든 서버 및 engine에 걸쳐 복사되어 시스템 환경 전반에 걸쳐 일관성을 유지합니다.

8.3.8. 누락된 후크 충돌 해결

요약
모든 서버 및 engine에 나타나지 않는 후크는 충돌된 것으로 플래그 지정됩니다. 충돌을 해결하려면 모든 서버 및 engine에 걸쳐 복사할 후크 버전을 선택하거나 누락된 후크를 완전히 삭제합니다.

절차 8.17. 누락된 후크 충돌 해결

  1. 클러스터 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 클러스터를 검색 및 선택합니다.
  2. Gluster 후크 하위 탭을 선택하여 상세 정보 창에 후크를 나열합니다.
  3. 충돌하는 후크를 선택하고 충돌 해결 버튼을 클릭하여 충돌 해결 창을 엽니다.
  4. 활성화 상태인 모든 소스를 선택하여 후크 컨텐츠를 확인합니다.
  5. 해당 라디오 버튼을 선택하거나 모든 서버에 후크를 복사 또는 누락된 후크 제거를 선택합니다. 누락된 후크 제거를 선택하면 engine 및 모든 서버에서 후크가 삭제됩니다.
  6. OK를 클릭하여 충돌을 해결하고 창을 닫습니다.
결과
선택한 해결 방법에 따라 후크는 시스템 환경에서 완전히 삭제되거나 모든 서버 및 engine에 복사되어 시스템 환경 전반에 걸쳐 일관성을 유지합니다.

8.3.9. 상태 충돌 해결

요약
서버 및 engine 전반에 걸쳐 일관된 상태가 아닌 후크는 충돌하는 것으로 플래그 지정됩니다. 충돌을 해결하려면 환경의 모든 서버에 걸쳐 적용할 상태를 선택합니다.

절차 8.18. 상태 충돌 해결

  1. 클러스터 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 클러스터를 검색 및 선택합니다.
  2. Gluster 후크 하위 탭을 선택하여 상세 정보 창에 후크를 나열합니다.
  3. 충돌하는 후크를 선택하고 충돌 해결 버튼을 클릭하여 충돌 해결 창을 엽니다.
  4. 후크 상태활성화 또는 비활성화로 설정합니다.
  5. OK를 클릭하여 충돌을 해결하고 창을 닫습니다.
결과
선택된 후크 상태는 engine 및 서버에 적용되며 환경 전반에 걸쳐 일관성을 유지합니다.

8.3.10. 다수 충돌 해결

요약
후크에는 두 개 이상의 충돌이 조합하여 발생할 수 있습니다. 이는 모두 충돌 해결 창을 통해 동시에 또는 개별적으로 해결할 수 있습니다. 다음 부분에서는 후크의 모든 충돌을 해결하여 환경의 모든 서버 및 engine에 걸쳐 일관성을 유지합니다.

절차 8.19. 다수 충돌 해결

  1. 클러스터 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 클러스터를 검색 및 선택합니다.
  2. Gluster 후크 하위 탭을 선택하여 상세 정보 창에 후크를 나열합니다.
  3. 충돌하는 후크를 선택하고 충돌 해결 버튼을 클릭하여 충돌 해결 창을 엽니다.
  4. 적절한 절차에 따라 각각의 영향을 미치는 충돌에 해결 방법을 선택합니다.
  5. OK를 클릭하여 충돌을 해결하고 창을 닫습니다.
결과
모든 충돌을 해결하여 후크는 engine 및 모든 서버에 걸처 일관성을 유지합니다.

8.3.11. Gluster 동기화 관리

Gluster 동기화 기능을 통해 GlusterFS에서 주기적으로 최신 클러스터 설정을 가져와 engine DB와 동기화합니다. 이러한 절차는 Manager를 통해 수행될 수 있습니다. 클러스터를 선택하면 사용자에게 호스트를 가져오기하거나 선택한 클러스터에서 기존 호스트를 분리할 수 있는 옵션이 주어집니다. 클러스터에 호스트가 있을 경우 Gluster 동기화를 수행할 수 있습니다.

참고

호스트가 스토리지 클러스터에 추가되거나 삭제되어 있는지를 Manager는 지속적으로 모니터링합니다. 호스트 추가 또는 삭제를 선택한 경우 작업 항목은 클러스터의 일반 탭에 표시됩니다. 여기서 호스트 가져오기 또는 클러스터에서 호스트 분리 를 선택할 수 있습니다.

9장. 풀

9.1. 가상 머신 풀 소개

가상 머신 풀은 동일한 템플릿에서 복제된 가상 머신 그룹으로 지정된 그룹의 사용자가 요청할 때 사용할 수 있습니다. 가상 머신 풀을 통해 관리자는 사용자의 일반적 가상 머신 모음을 신속하게 설정할 수 있습니다.
사용자는 풀에서 가상 머신을 취득하여 가상 머신 풀에 액세스합니다. 풀에서 사용자가 가상 머신을 취득할 때 풀에 사용 가능한 가상 머신이 있을 경우 가상 머신 중 하나가 사용자에게 제공됩니다. 가상 머신에는 풀의 기반이 되는 템플릿과 동일한 운영 체제 및 설정이 제공되지만 사용자가 가상 머신을 취득할 때 마다 동일한가상 머신 풀을 수신하지 않습니다. 사용자는 풀 설정에 따라 동일한 가상 머신 풀에서 여러 가상 머신을 취득할 수 도 있습니다.
가상 머신 풀에서 가상 머신은 비저장 상태이기 때문에 재부팅 시 데이터가 영구적으로 남아있지 않게 됩니다. 하지만 가상 머신 풀에서 얻은 가상 머신의 콘솔 옵션을 사용자가 설정할 경우 이러한 옵션은 가상 머신 풀의 사용자에 대해 기본값으로 설정됩니다.
원칙적으로 풀에 있는 가상 머신은 사용자가 취득한 때에 시작되며 사용자가 사용 종료한 때에 종료되지만 가상 머신 풀에는 사전 시작된 가상 머신도 들어 있습니다. 사전 시작된 가상 머신은 up 상태로 유지되고 사용자가 취득할 때 까지 유휴 상태로 남아 있게 됩니다. 이를 통해 사용자는 가상 머신을 바로 사용 시작할 수 있지만 이러한 가상 머신은 유휴 상태에서도 시스템 리소스를 소모합니다.

참고

관리 포털에서 액세스한 경우 풀에서 가져온 가상 머신은 상태 비저장으로 되지 않습니다. 이는 관리자가 필요에 따라 디스크에 변경 사항을 기록할 수 있어야 하기 때문입니다.

9.2. 가상 머신 풀 작업

9.2.1. 가상 머신 풀 생성

일반 템플릿을 기반으로 여러 가상 머신이 들어 있는 가상 머신 풀을 생성할 수 있습니다.

절차 9.1. 가상 머신 풀 생성

  1. 탭을 클릭합니다.
  2. 새로 만들기 버튼을 클릭하여 새 풀 창을 엽니다.
  3. 드롭 다운 목록에서 클러스터를 선택하거나 선택된 기본값을 사용합니다.
  4. 템플릿 드롭 다운 메뉴를 사용하여 템플릿과 버전을 선택하거나 선택된 기본값을 사용합니다. 템플릿은 풀에 있는 모든 가상 머신의 표준 설정을 제공합니다.
  5. 운영 체제 드롭 다운 목록을 사용하여 운영 체제를 선택하거나 템플릿에서 지정된 기본값을 사용합니다.
  6. 최적화 옵션 드롭 다운 목록에서 데스크톱 사용이나 서버 사용을 위해 가상 머신을 최적화합니다.
  7. 풀의 이름, 설명, 코멘트 가상 머신 수를 입력합니다.
  8. 사전 가동된 가상 머신 필드에서 사전 시작된 가상 머신 수를 입력합니다.
  9. 사용자가 세션에서 실행할 수 있는 사용자당 최대 가상 머신 수를 선택합니다. 최소 가상 머신 수는 한 대입니다.
  10. 삭제 방지 확인란을 선택하여 삭제 방지 기능을 활성화합니다.
  11. 옵션으로 고급 옵션 표시 버튼을 클릭하고 다음 절차를 실행합니다:
    1. 유형 탭을 클릭하고 풀 유형을 선택합니다:
      • 수동 - 관리자는 풀에 가상 머신을 명시적으로 반환해야 합니다. 관리자가 가상 머신을 풀에 반환한 후 가상 머신은 기존의 기본 이미지로 되돌아갑니다.
      • 자동 - 가상 머신 종료 시 이는 자동으로 기본 이미지로 되돌아가고 가상 머신 풀에 반환됩니다.
    2. 콘솔 탭을 선택합니다. 탭 하단 창에서 SPICE 프록시 덮어쓰기란을 선택하고 SPICE 프록시 주소 덮어쓰기 텍스트 필드를 활성화합니다. 글로벌 SPICE 프록시를 덮어쓰기할 SPICE 프록시 주소를 지정합니다.
  12. OK를 클릭합니다.
지정된 동일한 가상 머신 수가 있는 가상 머신 풀이 생성 및 설정되었습니다. 가상 머신 리소스 탭이나 리소스 탭의 상세 정보 창에서 이러한 가상 머신을 확인할 수 있습니다. 가상 머신 풀은 아이콘으로된 개별적 가상 머신에서 구별할 수 있습니다.

9.2.2. 새 풀 및 풀 편집 창 설정 및 제어

9.2.2.1. 새 풀 및 풀 편집 일반 설정

다음 표에서는 새 풀 창과 풀 편집 창의 일반 탭에 필요한 가상 머신 풀에 관련된 정보를 설명하고 있습니다. 모든 다른 설정은 새 가상 머신 창에 있는 설정과 동일합니다.

표 9.1. 일반 설정

필드 이름
설명
템플릿
가상 머신 풀이 기반으로 하는 템플릿입니다.
설명
가상 머신 풀에 대한 설명입니다.
코멘트
가상 머신 풀 관련 일반 텍스트 형식의 사용자가 읽을 수 있는 코멘트를 추가하기 위한 필드입니다.
사전 시작된 가상 머신
사용자가 검색하기 전 시작하여 그 상태로 유지되는 가상 머신 풀에서 가상 머신 수를 지정할 수 있습니다. 이 필드의 값은 0과 가상 머신 풀에 있는 총 가상 머신 수 사이에 있는 값이어야 합니다.
가상 머신 수/풀에 추가할 가상 머신 수
가상 머신 풀에 생성 및 사용 가능한 가상 머신 수를 지정할 수 있습니다. 편집 창에서 가상 머신 풀의 가상 머신 수를 지정한 수량만큼 추가할 수 있습니다. 기본값으로 풀에 생성할 수 있는 최대 가상 머신 수는 1000입니다. 이러한 값은 engine-config 명령의 MaxVmsInPool 키를 사용하여 설정할 수 있습니다.
사용자당 최대 가상 머신 수
단일 사용자가 한 번에 가상 머신 풀에서 검색할 수 있는 최대 가상 머신 수를 지정할 수 있습니다. 이 필드 값은 132,767 사이에 있는 값이어야 합니다.
삭제 방지
가상 머신 풀에 있는 가상 머신의 삭제를 방지합니다.

9.2.2.2. 새 풀 및 풀 유형 일반 설정

다음 표에서는 새 풀 창과 풀 편집 창의 유형 탭에 필요한 정보에 대해 설명합니다.

표 9.2. 유형 설정

필드 이름
설명
풀 유형
드롭 다운 메뉴에서 가상 머신 풀 유형을 지정할 수 있습니다. 다음과 같은 옵션을 사용할 수 있습니다:
  • 자동: 사용자가 가상 머신 풀에서의 가상 머신 사용을 종료한 후 가상 머신은 가상 머신 풀에 자동으로 반환됩니다.
  • 수동: 사용자가 가상 머신 풀에서 가상 머신 사용을 종료한 후 관리자가 가상 머신을 수동으로 반환한 경우에만 가상 머신은 가상 머신 풀에 반환됩니다.

9.2.2.3. 새 풀 및 풀 편집 콘솔 설정

다음 표에서는 새 풀 또는 풀 편집 창의 콘솔 탭에 필요한 가상 머신 풀에 관련된 정보를 설명하고 있습니다. 모든 다른 설정은 새 가상 머신가상 머신 편집 창에 있는 설정과 동일합니다.

표 9.3. 콘솔 설정

필드 이름
설명
SPICE 프록시 덮어쓰기
이 옵션을 선택하여 전체 설정에 지정된 SPICE 프록시 덮어쓰기를 활성화할 수 있습니다. 이 기능은 호스트가 있는 네트워크 외부에 사용자 (예를 들어 사용자 포털을 통해 연결된 사용자)가 연결되어 있을 경우에 유용합니다.
SPICE 프록시 주소 덮어쓰기
SPICE 클라이언트는 가상 머신에 연결된 프록시입니다. 이러한 프록시는 Red Hat Virtualization 환경에 정의된 글로벌 SPICE 프록시 및 가상 머신 풀이 속한 클러스터에 대해 정의된 SPICE 프록시를 덮어쓰기합니다. 주소는 다음과 같은 형식이어야 합니다:
protocol://[host]:[port]

9.2.2.4. 가상 머신 풀 호스트 설정

다음 표에서는 새 풀 창과 풀 편집 창의 호스트 탭에 있는 옵션에 대해 설명합니다.

표 9.4. 가상 머신 풀: 호스트 설정

필드 이름
하위 요소
설명
실행 호스트
 
가상 머신 실행 시 선호하는 호스트를 지정합니다. 다음 중에서 선택합니다:
  • 클러스터 내의 호스트 - 클러스터 내의 사용가능한 호스트에서 가상 머신을 시작 및 실행할 수 있습니다.
  • 특정 호스트 - 클러스터 내의 특정 호스트에서 가상 머신이 실행되기 시작합니다. 하지만 이 가상 머신의 마이그레이션 여부와 고가용성 설정에 따라서 Manager 또는 관리자가 해당 가상 머신을 클러스터 내의 다른 호스트로 마이그레이션할 수 있습니다. 사용 가능한 호스트 목록에서 특정 호스트 또는 호스트 그룹을 선택합니다.
마이그레이션 옵션
마이그레이션 모드
가상 머신의 실행 및 마이그레이션 옵션을 지정합니다. 여기에 있는 옵션을 사용하지 않는 경우 가상 머신은 해당 클러스터의 정책에 따라 실행 또는 마이그레이션됩니다.
  • 수동 및 자동 마이그레이션 허용 - 가상 머신은 해당 환경 상태에 따라 하나의 호스트에서 다른 호스트로 자동으로 마이그레이션이 되거나 관리자에 의해 수동으로 마이그레이션이 됩니다.
  • 수동 마이그레이션만 허용 - 가상 머신은 관리자에 의해 하나의 호스트에서 다른 호스트로 수동 마이그레이션만 할 수 있습니다.
  • 마이그레이션을 허용하지 않음 - 가상 머신은 자동 또는 수동으로 마이그레이션을 할 수 없습니다.
 
사용자 정의 마이그레이션 정책 사용
마이그레이션 수렴 정책을 지정합니다. 확인란을 선택하지 않은 상태로 두면 호스트가 정책을 결정합니다.
  • Legacy - 3.6 버전의 레거시 동작입니다. vdsm.conf의 덮어쓰기는 여전히 적용됩니다. 게스트 에이전트 후크 메커니즘은 비활성화됩니다.
  • Minimal downtime - 일반적인 상황에서 가상 머신 마이그레이션을 합니다. 가상 머신의 다운 타임은 길지 않습니다. 가상 머신 마이그레이션이 오랫동안 (QEMU 반복에 따라 최대 500 밀리초까지) 수렴되지 않는 경우 마이그레이션이 중단됩니다. 게스트 에이전트 후크 메커니즘은 활성화됩니다.
  • Suspend workload if needed - 대부분의 상황에서 가상 머신 마이그레이션을 하며, 가상 머신이 많은 작업량을 실행하는 경우를 포함합니다. 가상 머신의 다운 타임이 길 수 있습니다. 최대 부하 시 마이그레이션이 중단될 수도 있습니다. 게스트 에이전트 후크 메커니즘은 활성화됩니다.
 
사용자 정의 마이그레이션 다운 타임 사용
이 확인란을 이용하여 라이브 마이그레이션 동안 가상 머신이 다운되는 최대 밀리초를 지정합니다. 각 가상 머신의 작업량 및 SLA 요구 사항에 따라 서로 다른 최대 다운 타임을 설정합니다. VDSM 기본값을 사용하려면 0을 입력합니다.
 
마이그레이션 자동 통합
Legacy 마이그레이션 정책에서만 활성화됩니다. 가상 머신의 라이브 마이그레이션 중 자동 통합을 사용하도록 설정할 수 있습니다. 워크로드가 큰 대형 가상 머신은 라이브 마이그레이션 중 전송 속도 보다 더 빠르게 더티 메모리 상태가 되어 마이그레이션을 컨버전스하지 못하게 합니다. QEMU의 자동 컨버전스 기능을 통해 가상 머신 마이그레이션 컨버전스를 강제할 수 있습니다. QEMU는 자동으로 컨버전스되지 않음을 감지하고 가상 머신에 있는 vCPU의 스로틀을 감소시킵니다. 자동 컨버전스는 전역에서 기본값으로 비활성화되어 있습니다.
  • 클러스터 설정에서 가져오기를 선택하여 클러스터 수준에 설정된 자동 통합 설정을 사용합니다. 이 옵션은 기본값으로 선택되어 있습니다.
  • 자동 통합을 선택하여 클러스터 또는 전역 설정을 덮어쓰기하고 가상 머신의 자동 통합을 허용합니다.
  • 자동 통합 해제를 선택하여 클러스터 또는 전역 설정을 덮어쓰기하고 가상 머신이 자동 통합되지 않도록 합니다.
 
마이그레이션 압축 활성화
Legacy 마이그레이션 정책에서만 활성화됩니다. 이 옵션을 통해 가상 머신의 라이브 마이그레이션 중 마이그레이션 압축을 사용하도록 설정할 수 있습니다. 이 기능은 Xor Binary Zero Run-Length-Encoding을 사용하여 가상 머신 다운 타임 및 집약적 메모리 쓰기 작업을 실행하는 가상 머신이나 스파스 메모리 업데이트 패턴이 있는 애플리케이션의 총 라이브 마이그레이션 시간을 단축할 수 있습니다. 마이그레이션 압축은 전역에서 기본값으로 비활성화되어 있습니다.
  • 클러스터 설정에서 가져오기를 선택하여 클러스터 수준에 설정된 압축 설정을 사용합니다. 이 옵션은 기본값으로 선택되어 있습니다.
  • 압축을 선택하여 클러스터 또는 전역 설정을 덮어쓰기하고 가상 머신의 압축을 허용합니다.
  • 압축 해제를 선택하여 클러스터 또는 전역 설정을 덮어쓰기하고 가상 머신이 압축되지 않도록 합니다.
 
호스트 CPU 통과
이 확인란을 선택하여 가상 머신이 위치한 호스트의 물리 CPU의 기능을 사용 할 수 있습니다. 이 옵션은 마이그레이션을 허용하지 않음 선택 시에만 활성화될 수 있습니다.
NUMA 설정
NUMA 노드 수
가상 머신에 할당할 가상 NUMA 노드의 수입니다. 조정 모드기본 설정인 경우 해당 값은 1로 설정되어야 합니다.
 
조정 모드
메모리 할당에 사용되는 방법입니다.
  • 제한: 메모리가 대상 노드에 할당되지 못하는 경우 메모리 할당이 실패하게 됩니다.
  • 기본 설정: 단 하나의 기본 노드에서 메모리가 할당됩니다. 사용 가능한 메모리가 충분하지 않은 경우 다른 노드에서 메모리가 할당될 수 있습니다.
  • 인터리브: 라운드 로빈 알고리즘으로 메모리가 노드 전체에 할당됩니다.
 
NUMA 고정
NUMA 토폴로지 창을 엽니다. 이 창에서는 호스트의 총 CPU, 메모리, NUMA 노드, 그리고 가상 머신의 가상 NUMA 노드가 표시됩니다. 오른쪽의 상자에서 왼쪽의 NUMA 노드로 각 vNUMA를 클릭 및 드래그하여 가상 NUMA 노드를 호스트 NUMA 노드에 고정시킵니다.

9.2.3. 가상 머신 풀 편집

9.2.3.1. 가상 머신 풀 편집

가상 머신 풀을 생성한 후 가상 머신 속성을 편집할 수 있습니다. 가상 머신 풀 편집 시 사용 가능한 속성은 새 가상 머신 풀을 생성할 때 사용 가능한 속성과 동일합니다. 여기에는 풀에 추가할 가상 머신 수로 대체되는 가상 머신 수 속성이 제외되어 있습니다.

참고

가상 머신 풀을 편집 시 변경된 내용은 새로운 가상 머신에만 영향을 미칩니다. 변경된 내용이 적용될 때 이미 존재한 가상 머신은 영향을 받지 않습니다.

절차 9.2. 가상 머신 풀 편집

  1. 리소스 탭을 클릭하고 검색 결과 목록에서 가상 머신 풀을 선택합니다.
  2. 편집을 클릭하여 풀 편집 창을 엽니다.
  3. 가상 머신 풀의 속성을 편집합니다.
  4. OK를 클릭합니다.

9.2.3.2. 풀에서 가상 머신 사전 시작

가상 머신 풀에서 가상 머신은 기본값으로 전원이 꺼져 있습니다. 사용자가 풀에서 가상 머신을 요청하면 가상 머신은 전원이 켜지고 사용자에게 지정됩니다. 반대로 사전 시작된 가상 머신은 이미 실행되어 사용자에게 할당되기를 대기하고 있기 때문에 사용자가 가상 머신에 액세스할 때 까지의 대기 시간을 단축시킵니다. 사전 시작된 가상 머신이 종료되면 이는 풀에 반환하여 원래 상태로 복원됩니다. 최대 사전 시작 가상 머신 수는 풀에 있는 가상 머신 수입니다.
사전 시작된 가상 머신은 사용자에게 지정되지 않은 가상 머신에 바로 액세스해야 하는 환경에 적합합니다. 자동 풀만 가상 머신을 사전 시작할 수 있습니다.

절차 9.3. 풀에서 가상 머신 사전 시작

  1. 리소스 탭, 트리 모드, 검색 기능을 사용하여 검색 결과 목록에 있는 가상 머신 풀을 검색 및 선택합니다.
  2. 편집을 클릭하여 풀 편집 창을 엽니다.
  3. 사전 시작된 가상 머신 필드에서 사전 시작된 가상 머신 수를 입력합니다.
  4. 탭을 선택합니다. 풀 유형자동으로 설정되어 있는지 확인합니다.
  5. OK를 클릭합니다.
풀에 사전 시작된 가상 머신 수가 설정되었습니다. 사전 시작된 가상 머신이 실행되고 있으며 사용 가능합니다.

9.2.3.3. 가상 머신 풀에 가상 머신 추가

가상 머신 풀에 기존에 제공된 가상 머신 보다 많은 가상 머신이 필요할 경우 이를 추가합니다.

절차 9.4. 가상 머신 풀에 가상 머신 추가

  1. 리소스 탭, 트리 모드, 검색 기능을 사용하여 검색 결과 목록에 있는 가상 머신 풀을 검색 및 선택합니다.
  2. 편집을 클릭하여 풀 수정 창을 엽니다.
  3. 풀에 추가할 가상 머신 수 필드에 추가할 가상 머신 수를 입력합니다.
  4. OK를 클릭합니다.
가상 머신 풀에 여러 개의 가상 머신이 추가됩니다.

9.2.3.4. 가상 머신 풀에서 가상 머신 분리

가상 머신 풀에서 가상 머신을 분리할 수 있습니다. 풀에서 가상 머신을 분리하면 독립적 가상 머신이 됩니다.

절차 9.5. 가상 머신 풀에서 가상 머신 분리

  1. 리소스 탭, 트리 모드, 검색 기능을 사용하여 검색 결과 목록에 있는 가상 머신 풀을 검색 및 선택합니다.
  2. 실행 중인 가상 머신을 분리할 수 없으므로 가상 머신이 Down 상태인지 확인합니다.
    상세 정보 탭에서 가상 머신 탭을 클릭하여 풀에 있는 가상 머신을 나열합니다.
  3. 하나 이상의 가상 머신을 선택하고 분리를 클릭하여 가상 머신 분리 확인 창을 엽니다.
  4. OK를 클릭하여 풀에서 가상 머신을 분리합니다.

참고

가상 머신이 환경에 여전히 존재하여 가상 머신 리소스 탭에서 액세스 및 확인할 수 있습니다. 아이콘을 변경하여 분리된 가상 머신이 독립적 가상 머신 임을 표시합니다.
가상 머신 풀에서 가상 머신이 분리됩니다.

9.2.4. 가상 머신 풀 삭제

데이터 센터에서 가상 머신 풀을 삭제할 수 있습니다. 풀에 있는 모든 가상 머신을 삭제하거나 분리합니다. 풀에서 가상 머신을 분리하면 이는 독립적 가상 머신으로 보존됩니다.

절차 9.6. 가상 머신 풀 삭제

  1. 리소스 탭, 트리 모드, 검색 기능을 사용하여 검색 결과 목록에 있는 가상 머신 풀을 검색 및 선택합니다.
  2. 삭제를 클릭하면 풀 삭제 확인 창이 열립니다.
  3. OK를 클릭하여 풀을 삭제합니다.
데이터 센터에서 풀이 삭제됩니다.

9.3. 풀 및 권한

9.3.1. 가상 머신 풀의 시스템 권한 관리

SuperUser로서 시스템 관리자는 관리 포털의 모든 면을 관리합니다. 보다 특정한 관리 역할은 다른 사용자에게 부여될 수 있습니다. 이러한 제한된 관리자 역할은 특정 리소스에 제한하여 사용자 관리 권할을 부여할 경우 유용합니다. 예를 들어 DataCenterAdmin 역할은 데이터 센터의 스토리지를 제외한 할당된 데이터 센터에 대해서만 관리자 권한을 갖으며 ClusterAdmin은 할당된 클러스터에 대해서만 관리자 권한을 갖습니다.
가상 머신 풀 관리자는 데이터 센터에 있는 가상 머신 풀의 시스템 관리 역할입니다. 이 역할은 특정 가상 머신 풀, 데이터 센터, 가상화 환경 전체에 적용할 수 있습니다. 이는 다른 사용자가 특정 가상 머신 풀 리소스를 관리하는데 유용합니다.
가상 머신 풀 관리자 역할은 다음과 같은 작업을 허용합니다:
  • 풀을 생성, 편집, 삭제합니다.
  • 풀에서 가상 머신을 추가 또는 분리합니다.

참고

기존 사용자에게만 역할 및 권한을 할당할 수 있습니다.

9.3.2. 가상 머신 풀 관리자 역할

풀 권한이 있는 역할
아래 표에서는 풀 관리에 적용할 수 있는 관리자 역할 및 권한에 대해 설명합니다.

표 9.5. Red Hat Virtualization 시스템 관리자 역할

역할권한알림
VmPoolAdmin가상 풀의 시스템 관리자 역할입니다.가상 풀을 생성, 삭제, 구성하고 가상 풀 사용자를 지정 및 삭제하며 가상 머신에서 기본 작업을 수행할 수 있습니다.
ClusterAdmin클러스터 관리자특정 클러스터에 있는 모든 가상 머신 풀을 사용, 생성, 삭제, 관리할 수 있습니다.

9.3.3. 리소스에 관리자 또는 사용자 역할 할당

리소스에 관리자 또는 사용자 역할을 할당하여 사용자가 리소스에 액세스 및 관리할 수 있게 합니다.

절차 9.7. 리소스에 역할 할당

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자, 사용자 역할, 선택한 리소스에 대해 상속된 권한을 나열합니다.
  3. 추가를 클릭합니다.
  4. 검색 텍스트 상자에 기존 사용자의 이름 또는 사용자 이름을 입력하고 검색을 클릭합니다. 검색 결과 목록에서 일치하는 사용자를 선택합니다.
  5. 할당된 역할: 드롭 다운 목록에서 역할을 선택합니다.
  6. OK를 클릭합니다.
사용자에게 역할이 할당되어 이제 사용자는 리소스에 대해 활성화된 역할에 상속된 권한을 갖습니다.

9.3.4. 리소스에서 관리자 또는 사용자 역할 삭제

리소스에서 관리자 또는 사용자 역할을 삭제합니다. 사용자는 리소스에서의 역할과 관련하여 상속된 권한을 손실합니다.

절차 9.8. 리소스에서 역할 삭제

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자 목록, 사용자 역할, 선택한 리소스에서 상속된 권한을 나열합니다.
  3. 리소스에서 삭제할 사용자를 선택합니다.
  4. 삭제를 클릭합니다. 권한 삭제 창이 열리면 권한 삭제를 확인합니다.
  5. OK를 클릭합니다.
리소스에서 사용자 역할 및 관련된 권한이 삭제됩니다.

9.4. 신뢰할 수 있는 컴퓨팅 풀

신뢰할 수 있는 컴퓨팅 풀은 Intel Trusted Execution Technology (Intel TXT) 기반의 보안 클러스터입니다. 신뢰할 수 있는 클러스터는 호스트 하드웨어 및 소프트웨어의 무결성을 White List 데이터베이스와 비교해서 측정하는 인텔 OpenAttestation에 의해 검증된 호스트만 허용합니다. 신뢰할 수 있는 호스트와 거기에 실행중인 가상 머신은 높은 보안을 요구하는 작업에 할당될 수 있습니다. Intel TXT, 신뢰할 수 있는 시스템, 그리고 인증에 대한 보다 자세한 내용은 https://software.intel.com/en-us/articles/intel-trusted-execution-technology-intel-txt-enabling-guide에서 참조하십시오.
신뢰할 수 있는 컴퓨팅 풀을 생성하기 위해 다음의 단계를 거칩니다:
  • Manager가 OpenAttestation 서버와 통신하도록 설정합니다.
  • 신뢰할 수 있는 호스트만 실행할 수 있는 신뢰할 수 있는 클러스터를 생성합니다.
  • 신뢰할 수 있는 클러스터에 신뢰할 수 있는 호스트를 추가합니다. OpenAttestation에 의해 신뢰할 수 있는 호스트로 검증되려면 해당 호스트는 OpenAttestation 에이전트에서 실행중이어야 합니다.
OpenAttestation 서버 설치, 호스트에 OpenAttestation 에이전트 설치, 그리고 White List 데이터베이스 생성에 대한 자세한 내용은 https://github.com/OpenAttestation/OpenAttestation/wiki에서 참조하십시오.

9.4.1. OpenAttestation 서버를 Manager에 연결

신뢰할 수 있는 클러스터를 생성하기 전에 Red Hat Virtualization Manager이 OpenAttestation 서버를 인식하도록 설정되어야 합니다. engine-config을 이용하여 OpenAttestation 서버의 FQDN 또는 IP 주소를 추가합니다:
# engine-config -s AttestationServer=attestationserver.example.com
필요한 경우 다음의 설정을 변경할 수 있습니다:

표 9.6. engine-config을 위한 OpenAttestation 설정

옵션
기본값
설명
AttestationServer
oat-server
OpenAttestation 서버의 FQDN 또는 IP 주소입니다. 이것이 설정되어야 Manager가 OpenAttestation 서버와 통신할 수 있습니다.
AttestationPort
8443
OpenAttestation 서버가 Manager와의 통신에 사용하는 포트입니다.
AttestationTruststore
TrustStore.jks
OpenAttestation 서버와의 보안 통신에 사용되는 신뢰 저장소입니다.
AttestationTruststorePass
암호
신뢰 저장소에 액세스하기 위한 암호입니다.
AttestationFirstStageSize
10
빠른 설치에 사용됩니다. 타당한 이유 없이 해당 값을 변경하는 것은 권장되지 않습니다.
SecureConnectionWithOATServers
true
OpenAttestation 서버와의 보안 통신을 활성화 또는 비활성화합니다.
PollUri
AttestationService/resources/PollHosts
OpenAttestation 서비스에 액세스하기 위한 URI입니다.

9.4.2. 신뢰할 수 있는 클러스터 생성

신뢰할 수 있는 클러스터는 OpenAttestation 서버와 통신해서 호스트의 보안을 평가합니다. 신뢰할 수 있는 클러스터에 호스트 추가 시 OpenAttestation 서버는 호스트 하드웨어 및 소프트웨어의 무결성을 White List 데이터베이스와 비교해서 측정합니다. 신뢰할 수 있는 클러스터에 있는 신뢰할 수 있는 호스트 사이에 가상 머신을 마이그레이션할 수 있으며, 이를 통해 보안 환경에서 고가용성이 가능해집니다.

절차 9.9. 신뢰할 수 있는 클러스터 생성

  1. 클러스터 탭을 선택합니다.
  2. 새로 만들기를 클릭합니다.
  3. 클러스터의 이름을 입력합니다.
  4. Virt 서비스 활성화 라디오 버튼을 선택합니다.
  5. 스케줄링 정책 탭에서 신뢰할 수 있는 서비스 활성화 확인란을 선택합니다.
  6. OK를 클릭합니다.

9.4.3. 신뢰할 수 있는 호스트 추가

Red Hat Enterprise Linux 호스트가 신뢰할 수 있는 클러스터에 추가될 수 있으며 OpenAttestation 서버에서 White List 데이터베이스와 비교해서 해당 호스트를 측정합니다. OpenAttestation 서버에서 신뢰할 수 있는 호스트가 되려면 다음의 요구 사항을 충족해야 합니다:
  • BIOS에서 Intel TXT가 활성화됩니다.
  • OpenAttestation 에이전트가 설치되었고 실행중입니다.
  • 호스트에 실행중인 소프트웨어가 OpenAttestation 서버의 White List 데이터베이스와 일치합니다.

절차 9.10. 신뢰할 수 있는 호스트 추가

  1. 호스트 탭을 선택합니다.
  2. 새로 만들기를 클릭합니다.
  3. 호스트 클러스터 드롭 다운 목록에서 신뢰할 수 있는 클러스터를 선택합니다.
  4. 호스트의 이름을 입력합니다.
  5. 호스트의 주소를 입력합니다.
  6. 호스트의 root 암호를 입력합니다.
  7. OK를 클릭합니다.
호스트가 신뢰할 수 있는 클러스터에 추가된 후 OpenAttestation 서버에서 평가됩니다. OpenAttestation 서버가 신뢰할 수 없는 호스트는 Non Operational 상태가 되며 신뢰할 수 있는 클러스터에서 제거되어야 합니다.

10장. 가상 머신 디스크

10.1. 가상 머신 스토리지 이해

Red Hat Virtualization은 세 개의 스토리지 유형 (NFS, iSCSI, FCP)을 지원합니다.
각 유형에 있어서 SPM (Storage Pool Manager)라는 호스트는 호스트와 스토리지 간의 액세스를 관리합니다. SPM 호스트는 스토리지 풀 내에서 완전한 액세스를 갖는 유일한 노드입니다. SPM은 스토리지 도메인 메타데이터와 풀의 메타데이터를 수정할 수 있습니다. 기타 다른 모든 호스트는 가상 머신의 하드 디스크 이미지 데이터에만 액세스할 수 있습니다.
기본값으로 NFS, 로컬, POSIX 호환 데이터 센터에서 SPM은 파일 시스템에 있는 파일로 씬 프로비저닝 포맷을 사용하여 가상 디스크를 생성합니다.
iSCSI 및 기타 다른 블록 기반 데이터 센터에서 SPM은 지정된 LUN (Logical Unit Numbers) 최상단에 볼륨 그룹을 생성하고 가상 머신 디스크로 사용할 논리 볼륨을 만듭니다. 블록 기반 스토리지에서 가상 머신 디스크는 기본값으로 사전 할당됩니다.
가상 디스크가 사전 할당되어 있을 경우 지정된 크기 (GB 단위)의 논리 볼륨이 생성됩니다. kpartx, vgscan, vgchange, mount를 사용하여 가상 머신을 Red Hat Enterprise Linux에 마운트하여 가상 머신의 프로세스 또는 문제를 확인할 수 있습니다.
가상 디스크가 씬 프로비저닝되는 경우 1 G의 논리 볼륨이 생성됩니다. 논리 볼륨은 가상 머신이 실행되는 호스트에서 지속적으로 모니터링됩니다. 사용량이 임계치에 가까워지면 호스트는 SPM에 통지하고 SPM은 논리 볼륨을 1 GB까지 확장합니다. 호스트는 논리 볼륨을 확장한 후 가상 머신을 다시 시작해야 합니다. 가상 머신이 일시 중시 상태가 될 경우 SPM은 적절한 때에 디스크가 확장되지 않을 수 있습니다. 이는 SPM이 너무 바쁜 경우 또는 스토리지 공간이 충분하지 않을 경우에 발생합니다.
사전 할당된 (RAW) 형식의 가상 디스크는 씬 프로비저닝 (QCOW2) 형식의 가상 디스크보다 쓰기 속도가 훨씬 빠릅니다. 씬 프로비저닝은 가상 디스크를 생성하는데 훨씬 적은 시간이 소요됩니다. 씬 프로비저닝 형식은 I/O 이외의 집약적 가상 시스템에 적합합니다. 사전 할당된 형식은 빠른 I/O 쓰기의 가상 머신에 사용하는 것이 좋습니다. 가상 머신이 4 초 마다 1 GB 이상을 쓸 수 있는 경우 가능하면 사전 할당된 디스크를 사용합니다.

10.2. 가상 디스크 이해

Red Hat Virtualization에는 사전 할당 (씩 프로비저닝된) 및 스파스 (씬 프로비저닝된) 스토리지 옵션을 특징으로 합니다.
  • 사전 할당
    사전 할당된 가상 디스크는 가상 머신에 필요한 모든 스토리지를 할당합니다. 예를 들어 가상 머신의 데이터 파티션을 위해 20 GB의 사전 할당된 논리 볼륨이 생성된 경우 생성 후 바로 20 GB의 스토리지 공간을 차지하게 됩니다.
  • 스파스
    스파스 할당을 통해 관리자는 가상 머신에 할당된 총 스토리지를 지정할 수 있지만 스토리지는 필요할 경우에만 할당됩니다.
    예를 들어 20 GB 씬 프로비저닝 논리 볼륨은 처음 생성 시 0 GB의 스토리지 공간을 차지하게 됩니다. 운영 체제가 설치되면 설치된 파일 크기의 공간을 차지하게 되고 데이터는 최대 20 GB까지 추가할 수 있게 됩니다.
각 가상 머신 및 탬플릿의 디스크 하위 탭에 디스크 크기가 나열됩니다. 디스크의 가상 크기는 가상 머신이 사용할 수 있는 총 디스크 공간입니다. 이는 디스크 생성 또는 편집 시 크기(GB) 필드에 입력된 값입니다. 디스크의 실제 크기는 지금 까지 가상 머신에 할당된 디스크 공간입니다. 사전 할당된 디스크에서는 이 두 필드에 대해 동일한 값이 표시됩니다. 스파스 디스크는 할당된 디스크 용량에 따라 실제 크기 필드에 있는 값과 가상 크기 필드에 있는 값이 다를 수 있습니다.

참고

Cinder 가상 디스크 생성 시 디스크 포맷 및 유형은 Cinder에 의해 내부적으로 처리되며 Red Hat Virtualization에 의해 관리되지 않습니다.
다음 표에는 스토리지 유형 및 포맷의 가능한 조합에 대해 기재되어 있습니다.

표 10.1. 허용된 스토리지 조합

스토리지 포맷유형알림
NFS 또는 iSCSI/FCPRAW 또는 QCOW2스파스 또는 사전 할당 
NFSRAW사전 할당가상 디스크에 대해 정의된 스토리지 용량과 동일한 초기 크기의 파일로 포맷되어 있지 않습니다.
NFSRAW스파스초기 크기가 제로에 가까운 파일로 포맷되어 있지 않습니다.
NFSQCOW2스파스초기 크기가 제로에 가까운 파일로 QCOW2 포맷되어 있습니다. 후속 레이어는 QCOW2로 포맷됩니다.
SANRAW사전 할당가상 디스크에 대해 지정된 스토리지 용량과 동일한 초기 크기의 블록 장치로 포맷되어 있지 않습니다.
SANQCOW2스파스가상 디스크 (현재 1 GB)에 대해 지정된 크기보다 작은 초기 크기의 블록 장치로 필요에 따라 공간을 할당하는(현재 1 GB 추가) QCOW2 포맷으로 되어 있습니다.

10.3. 삭제 후 디스크 장치 초기화 설정

관리 포털에서 삭제 후 초기화 확인란에 표시되는 wipe_after_delete 플래그는 가상 디스크 삭제 시 사용 데이터를 제로로 대체합니다. 기본값인 false로 설정되어 있을 경우 디스크 삭제 시 해당 블록을 다시 사용할 수 있지만 데이터를 초기화하는 것이 아닙니다. 블록은 제로로 처리되지 않기 때문에 데이터를 복원할 수 있습니다.
wipe_after_delete 플래그는 블록 스토리지에서만 작동합니다. 파일 시스템에 의해 데이터가 존재하지 않게 되므로 NFS 등의 파일 스토리지에서는 해당 옵션이 아무 일도 하지 않습니다.
가상 디스크의 wipe_after_delete 활성화는 가상 디스크에 중요한 데이터가 들어 있을 경우 권장되는 옵션입니다. 이는 보다 집약적 작업으로 시스템 성능이 저하되거나 삭제 시간이 오래 걸릴 수 있습니다.

참고

삭제 후 초기화 기능은 보안 삭제와 다릅니다. 이 기능은 데이터가 스토리지에서 제거되는 것을 보장하지 못하며 같은 스토리지에 생성되는 새로운 디스크가 이전 디스크의 데이터를 노출하지 않도록 보장합니다.
wipe_after_delete 플래그 기본값은 설정 과정에서 true로 변경(설치 가이드에 있는 Red Hat Virtualization Manager 설정 참조)하거나 Red Hat Virtualization Manager의 engine 설정 도구를 사용하여 변경할 수 있습니다. 설정 변경 사항을 적용하려면 engine을 다시 시작합니다.

절차 10.1. Engine 설정 도구를 사용하여 SANWipeAfterDelete의 기본값을 True로 설정

  1. --set 동작으로 engine 설정 도구를 실행합니다:
    # engine-config --set SANWipeAfterDelete=true
  2. 변경 사항을 적용하려면 engine을 다시 시작합니다:
    # service ovirt-engine restart
가상 디스크가 성공적으로 초기화 및 삭제되었는지 확인하기 위해서 호스트에 위치한 /var/log/vdsm/vdsm.log 파일을 확인합니다.
성공적인 초기화 후 로그 파일에 storage_domain_id/volume_id was zeroed and will be deleted 항목이 표시됩니다. 예:
a9cb0625-d5dc-49ab-8ad1-72722e82b0bf/a49351a7-15d8-4932-8d67-512a369f9d61 was zeroed and will be deleted
성공적인 삭제 후 로그 파일에 finished with VG:storage_domain_id LVs: list_of_volume_ids, img: image_id 항목이 표시됩니다. 예:
finished with VG:a9cb0625-d5dc-49ab-8ad1-72722e82b0bf LVs: {'a49351a7-15d8-4932-8d67-512a369f9d61': ImgsPar(imgs=['11f8b3be-fa96-4f6a-bb83-14c9b12b6e0d'], parent='00000000-0000-0000-0000-000000000000')}, img: 11f8b3be-fa96-4f6a-bb83-14c9b12b6e0d
초기화가 실패한 경우 zeroing storage_domain_id/volume_id failed. Zero and remove this volume manually라는 로그 메시지가 표시되며, 삭제가 실패한 경우 Remove failed for some of VG: storage_domain_id zeroed volumes: list_of_volume_ids라는 로그 메시지가 표시됩니다.

10.4. Red Hat Virtualization에서 공유 가능한 디스크

일부 애플리케이션에는 서버간 공유 가능한 스토리지가 필요합니다. Red Hat Virtualization을 통해 가상 머신 하드 디스크를 공유 가능으로 표시하고 이러한 디스크를 가상 머신에 연결할 수 있습니다. 이러한 방법으로 하나의 단일 가상 디스크를 여러 클러스터 인식 게스트가 사용할 수 있습니다.
모든 상황에서 공유 디스크를 사용할 수는 없습니다. 클러스터된 데이터 베이스 서버 및 기타 고가용성 서비스와 같은 애플리케이션의 경우 공유 디스크를 사용하는 것이 적합합니다. 클러스터 인식되지 않는 여러 게스트에 공유 디스크를 연결하면 읽기 및 쓰기가 디스크에 연계되지 않기 때문에 데이터가 손상될 수 있습니다.
공유 디스크의 스냅샷을 생성할 수 없습니다. 스냅샷을 생성한 가상 디스크는 나중에 공유 가능한 디스크로 표시할 수 없습니다.
디스크 생성시 또는 나중에 디스크 편집 시 공유 가능한 디스크를 표시할 수 있습니다.

10.5. Red Hat Virtualization에서 읽기 전용 디스크

일부 애프리케이션의 경우 관리자는 읽기 전용 권한이 있는 데이터를 공유해야 합니다. 가상 머신의 상세 정보 창에 있는 디스크 탭을 통해 가상 머신에 연결되는 디스크를 생성 또는 편집 시 읽기 전용 확인란을 선택하여 이를 수행할 수 있습니다. 이 때에 관리자는 쓰기 권한을 유지하면서 단일 디스크는 여러 클러스터 인식 게스트로 읽을 수 있습니다.
가상 머신이 실행되고 있는 동안 읽기 전용 상태를 변경할 수 없습니다.

중요

저널링 파일 시스템을 마운트하려면 읽기-쓰기 액세스가 필요합니다. 이러한 파일 시스템 (예: EXT3, EXT4, XFS)이 있는 가상 머신 디스크에 읽기 전용 옵션을 사용하는 것은 적합하지 않습니다.

10.6. 가상 디스크 작업

10.6.1. 플로팅 가상 디스크 생성

가상 머신에 속하지 않은 가상 디스크를 생성할 수 있습니다. 그 뒤 단일 가상 머신이나 디스크가 공유 가능할 경우 여러 가상 머신에 디스크를 연결할 수 있습니다
이미지 디스크 생성은 전적으로 Manager에 의해 관리됩니다. 직접 LUN 디스크에는 이미 존재하는 외부에 준비된 대상이 필요합니다. Cinder 디스크에는 외부 공급자 창을 사용하여 Red Hat Virtualization 환경에 추가된 OpenStack Volume 인스턴스로의 액세스가 필요합니다. 보다 자세한 내용은 11.2.4절. “스토리지 관리를 위해 OpenStack Volume (Cinder) 인스턴스 추가”에서 참조하십시오.

절차 10.2. 플로팅 가상 디스크 생성

  1. 디스크 리소스 탭을 선택합니다.
  2. 새로 만들기를 클릭합니다.
    가상 디스크 추가 창

    그림 10.1. 가상 디스크 추가 창

  3. 라디오 버튼을 사용하여 가상 디스크를 이미지, 직접 LUN, Cinder 디스크 중 하나로 지정합니다.
  4. 가상 디스크에 필요한 옵션을 선택합니다. 옵션은 선택한 디스크 유형에 따라 변경할 수 있습니다. 각각의 디스크 유형 별 각 옵션에 대한 자세한 내용은 10.6.2절. “새 가상 디스크 창에서 설정”에서 참조하십시오.
  5. OK를 클릭합니다.

10.6.2. 새 가상 디스크 창에서 설정

표 10.2. 새 가상 디스크 설정: 이미지

필드 이름
설명
크기(GB)
새 가상 디스크의 크기 (GB 단위)입니다.
별칭
가상 디스크 이름으로 최대 길이는 40 자로 제한되어 있습니다.
설명
가상 디스크에 대한 설명입니다. 이 필드는 권장 입력 사항이지 필수 입력 사항은 아닙니다.
인터페이스
디스크가 가상 머신에 표시되는 가상 인터페이스입니다. VirtIO는 빠르지만 드라이버가 필요합니다. Red Hat Enterprise Linux 5 및 이후 버전에는 이러한 드라이버가 포함되어 있습니다. Windows에는이러한 드라이버가 포함되어 있지 않지만 게스트 도구 ISO 또는 가상 플로피 디스크에서 설치할 수 있습니다. IDE 장치에는 특정 드라이버가 필요하지 않습니다.
데이터 센터
가상 디스크를 사용할 수 있는 데이터 센터입니다.
스토리지 도메인
가상 디스크가 저장될 스토리지 도메인입니다. 드롭 다운 목록에는 지정된 데이터 센터에서 사용 가능한 모든 스토리지 도메인이 표시되어 있으며 스토리지 도메인에서 현재 사용 가능한 용량 및 총 용량이 표시되어 있습니다.
할당 정책
새 가상 디스크의 프로비저닝 정책입니다.
  • 사전 할당에서는 가상 디스크가 생성될 때 스토리지 도메인에 있는 전체 디스크 크기를 할당합니다. 사전 할당된 디스크의 실제 크기는 가상 크기와 동일합니다. 사전 할당된 가상 디스크는 씬 프로비저닝 가상 디스크 보다 생성 시간이 더 오래 걸리지만 읽기 및 쓰기 성능이 더 좋습니다. 서버 및 기타 다른 I/O 집약적 가상 디스크의 경우 사전 할당된 가상 디스크를 사용하는 것이 좋습니다. 가상 머신이 4 초 마다 1 GB 이상을 쓰기 가능한 경우 가능하면 사전 할당된 디스크를 사용합니다.
  • 씬 프로비저닝은 가상 디스크가 생성될 때 1 GB를 할당하고 디스크가 확장될 수 있는 최대 상한 크기를 설정합니다. 디스크의 가상 크기는 최대 상한 크기이고 디스크의 실제 크기는 지금까지 할당된 용량입니다. 씬 프로비저닝 디스크는 사전 할당된 디스크 보다 보다 빠르게 생성되며 스토리지 오버 커밋을 허용합니다. 데스크탑의 경우 씬 프로비저닝 가상 디스크를 권장합니다.
디스크 프로파일
가상 디스크에 할당된 디스크 프로파일입니다. 디스크 프로파일은 스토리지 도메인에 있는 가상 디스크의 최대 처리량과 최대 입출력 수준을 정의합니다. 디스크 프로파일은 데이터 센터에 생성된 스토리지 QoS 항목에 기반하여 스토리지 도메인 수준에서 정의됩니다.
삭제 후 초기화
가상 디스크 삭제 시 중요 자료 삭제를 위해 보안을 강화할 수 있습니다.
부팅 가능
가상 디스크에 부팅 가능한 플래그를 설정할 수 있습니다.
공유 가능
두 개 이상의 가상 머신에 동시에 가상 디스크를 연결할 수 있습니다.
직접 LUN 설정은 대상 > LUN 또는 LUN > 대상에 표시할 수 있습니다. 대상 > LUN은 LUN이 발견된 호스트에 따라 사용가능한 LUN을 정렬하며 LUN > 대상은 하나의 LUN 목록을 표시합니다.

표 10.3. 새 가상 디스크 설정: 직접 LUN

필드 이름
설명
별칭
가상 디스크 이름으로 최대 길이는 40 자로 제한되어 있습니다.
설명
가상 디스크에 대한 설명입니다. 이 필드는 권장 입력 사항이지 필수 입력 사항은 아닙니다. 기본값으로 LUN ID의 마지막 4자를 필드에 입력합니다.
기본 동작은 PopulateDirectLUNDiskDescriptionWithLUNId 설정 키를 engine-config 명령을 사용하여 적절한 값으로 설정할 수 있습니다. 전체 LUN ID를 사용할 경우 설정키를 -1로 이러한 기능을 무시하고자 할 경우 0으로 설정할 수 있습니다. 양의 정수로 해당 LUN ID와 설명을 입력합니다. 보다 자세한 내용은 17.2.2절. “engine-config 명령 구문”에서 참조하십시오.
인터페이스
디스크가 가상 머신에 표시되는 가상 인터페이스입니다. VirtIO는 빠르지만 드라이버가 필요합니다. Red Hat Enterprise Linux 5 및 이후 버전에는 이러한 드라이버가 포함되어 있습니다. Windows에는이러한 드라이버가 포함되어 있지 않지만 게스트 도구 ISO 또는 가상 플로피 디스크에서 설치할 수 있습니다. IDE 장치에는 특정 드라이버가 필요하지 않습니다.
데이터 센터
가상 디스크를 사용할 수 있는 데이터 센터입니다.
사용 호스트
LUN이 마운트되는 호스트입니다. 데이터 센터에 있는 모든 호스트를 선택할 수 있습니다.
스토리지 유형
추가할 외부 LUN 유형입니다. iSCSI 또는 파이버 채널 중 하나를 선택할 수 있습니다.
대상 검색
이 부분은 iSCSI 외부 LUN 사용 시 확장되어 대상 > LUN이 선택됩니다.
주소 - 대상 서버의 호스트 이름 또는 IP 주소입니다.
포트 - 대상 서버에 연결 시도하는 포트입니다. 기본 포트는 3260입니다.
사용자 인증 - iSCSI 서버에는 사용자 인증이 필요합니다. iSCSI 외부 LUN을 사용하는 경우 사용자 인증 필드를 볼 수 있습니다.
CHAP 사용자 이름 - LUN에 로그인할 수 있는 권한을 갖는 사용자의 사용자 이름입니다. 사용자 인증 확인란을 선택하면 이 필드에 액세스할 수 있습니다.
CHAP 암호 - LUN에 로그인할 수 있는 권한을 갖는 사용자의 암호입니다. 사용자 인증 확인란을 선택하면 이 필드에 액세스할 수 있습니다.
부팅 가능
가상 디스크에 부팅 가능한 플래그를 설정할 수 있습니다.
공유 가능
두 개 이상의 가상 머신에 동시에 가상 디스크를 연결할 수 있습니다.
SCSI 통과 활성화
인터페이스VirtIO-SCSI로 설정 시 사용 가능합니다. 이 확인란을 선택하면 물리적 SCSI 장치가 가상 디스크로 통과할 수 있습니다. VirtIO-SCSI 인터페이스에 SCSI 통과를 활성화하는 경우 자동으로 SCSI 폐기가 지원됩니다. 이 확인란을 선택 해제하면 가상 디스크가 에뮬레이트된 SCSI 장치를 사용합니다.
권한 부여된 SCSI I/O 허용
SCSI 통과 활성화 확인란 선택 시 사용 가능합니다. 이 확인란을 선택하면 필터링되지 않은 SCSI Generic I/O (SG_IO) 액세스가 활성화되어 권한이 부여된 SG_IO 명령이 디스크에서 허용됩니다. 영구적인 예약에 필요합니다.
대상 검색 섹션에 있는 필드를 입력하고 검색을 클릭하여 대상 서버를 검색합니다. 전체 로그인 버튼을 클릭하여 대상 서버에 사용 가능한 LUN을 나열하고 각 LUN 옆에 있는 라디오 버튼을 사용하여 추가할 LUN을 선택할 수 있습니다.
가상 머신 하드 디스크 이미지로 LUN을 직접 사용하여 가상 머신과 데이터 사이에 추상화 계층을 삭제합니다.
가상 머신 하드 디스크 이미지로 직접 LUN을 사용하는 경우 다음과 같은 사항을 고려해야 합니다.
  • 직접 LUN 하드 디스크 이미지의 라이브 스토리지 마이그레이션은 지원되지 않습니다.
  • 직접 LUN 디스크는 가상 머신 내보내기에 포함되지 않습니다.
  • 직접 LUN 디스크는 가상 머신 스냅샷에 포함되지 않습니다.
관련 데이터 센터에 있는 디스크를 생성할 수 있는 권한이 있는 사용 가능한 OpenStack 볼륨 스토리지 도메인이 없을 경우 Cinder 설정 양식을 사용할 수 없습니다. Cinder 디스크는 외부 공급자 창을 사용하는 Red Hat Virtualization 환경에 추가된 OpenStack 볼륨 인스턴스에 액세스할 수 있어야 합니다. 보다 자세한 내용은 11.2.4절. “스토리지 관리를 위해 OpenStack Volume (Cinder) 인스턴스 추가”에서 참조하십시오.

표 10.4. 새 가상 디스크 설정: Cinder

필드 이름
설명
크기(GB)
새 가상 디스크의 크기 (GB 단위)입니다.
별칭
가상 디스크 이름으로 최대 길이는 40 자로 제한되어 있습니다.
설명
가상 디스크에 대한 설명입니다. 이 필드는 권장 입력 사항이지 필수 입력 사항은 아닙니다.
인터페이스
디스크가 가상 머신에 표시되는 가상 인터페이스입니다. VirtIO는 빠르지만 드라이버가 필요합니다. Red Hat Enterprise Linux 5 및 이후 버전에는 이러한 드라이버가 포함되어 있습니다. Windows에는이러한 드라이버가 포함되어 있지 않지만 게스트 도구 ISO 또는 가상 플로피 디스크에서 설치할 수 있습니다. IDE 장치에는 특정 드라이버가 필요하지 않습니다.
데이터 센터
가상 디스크를 사용할 수 있는 데이터 센터입니다.
스토리지 도메인
가상 디스크가 저장될 스토리지 도메인입니다. 드롭 다운 목록에는 지정된 데이터 센터에서 사용 가능한 모든 스토리지 도메인이 표시되어 있으며 스토리지 도메인에서 현재 사용 가능한 용량 및 총 용량이 표시되어 있습니다.
볼륨 유형
가상 디스크의 볼륨 유형입니다. 드롭 다운 목록에 사용 가능한 모든 볼륨 유형이 표시됩니다. 볼륨 유형은 OpenStack Cinder에서 관리 및 설정됩니다.
부팅 가능
가상 디스크에 부팅 가능한 플래그를 설정할 수 있습니다.
공유 가능
두 개 이상의 가상 머신에 동시에 가상 디스크를 연결할 수 있습니다.

10.6.3. 라이브 스토리지 마이그레이션 개요

연결된 가상 머신이 실행되고 있는 동안 가상 머신 디스크는 하나의 스토리지 도메인에서 다른 스토리지 도메인으로 마이그레이션할 수 있습니다. 이를 라이브 스토리지 마이그레이션이라고 합니다. 실행 중인 가상 머신에 연결된 디스크를 마이그레이션할 경우 디스크 이미지 체인의 스냅샷은 소스 스토리지 도메인에 생성되고 전체 이미지 체인은 대상 스토리지 도메인에 복제됩니다. 이러한 경우 소스 스토리지 도메인과 대상 스토리지 도메인 모두에 디스크 이미지 체인과 스냅샷 모두를 호스트하기에 스토리지 공간이 충분한지 확인합니다. 새로운 스냅샷은 마이그레이션이 실패하는 경우에도 라이브 스토리지 마이그레이션을 시도할 때 마다 생성됩니다.
라이브 스토리지 마이그레이션 사용 시 다음과 같은 사항을 고려해야 합니다:
  • 한 번에 여러 디스크를 라이브 마이그레이션할 수 있습니다.
  • 동일한 가상 머신의 여러 디스크를 여러 스토리지 도메인에 걸쳐 배치할 수 있지만 각 디스크의 이미지 체인은 하나의 스토리지 도메인에 있어야 합니다.
  • 동일한 데이터 센터의 두 스토리지 도메인 간에 디스크를 라이브 마이그레이션할 수 있습니다.
  • 직접 LUN 하드 디스크 이미지 또는 공유 가능으로 표시된 디스크는 라이브 마이그레이션할 수 없습니다.

10.6.4. 가상 디스크 이동

가상 머신에 연결되어 있거나 하나의 스토리지 도메인에서 다른 스토리지 도메인으로 플로팅 가상 디스크처럼 동작하는 가상 디스크를 이동합니다. 연결된 가상 디스크를 실행 중인 가상 머신에 이동할 수 있습니다. 이는 라이브 스토리지 마이그레이션이라고 합니다. 이를 계속 진행하기 전 가상 머신을 종료합니다.
디스크를 이동할 때 다음과 같은 사항을 고려해야 합니다:
  • 동시에 여러 디스크를 이동할 수 있습니다.
  • 동일한 데이터 센터의 두 스토리지 도메인 간에 디스크를 이동할 수 있습니다.
  • 가상 디스크가 템플릿을 기반으로 생성되어 씬 프로비저닝 스토리지 할당 옵션을 사용하여 생성된 가상 머신에 연결되어 있을 경우 가상 머신의 기반이 되는 템플릿의 디스크를 가상 디스크와 동일한 스토리지 도메인에 복사해야 합니다.

절차 10.3. 가상 디스크 이동

  1. 디스크 탭을 선택합니다.
  2. 이동할 하나 이상의 가상 디스크를 선택합니다.
  3. 이동을 클릭하여 디스크 이동 창을 엽니다.
  4. 대상 목록에서 가상 디스크를 이동할 스토리지 도메인을 선택합니다.
  5. 디스크 프로파일 목록에서 디스크의 프로파일을 선택합니다.
  6. OK를 클릭합니다.
가상 디스크가 대상 스토리지 도메인으로 이동되며 이동되는 동안 Locked 상태가 됩니다.

10.6.5. 가상 디스크 복사

요약
하나의 스토리지 도메인에서 다른 도메인으로 가상 디스크를 복사할 수 있습니다. 복사된 디스크는 가상 머신에 연결될 수 있습니다.

절차 10.4. 가상 디스크 복사

  1. 디스크 탭을 선택합니다.
  2. 복사할 가상 디스크를 선택합니다.
  3. 복사 버튼을 클릭하여 디스크 복사 창을 엽니다.
  4. 옵션으로 별칭 텍스트 필드에 별칭을 입력합니다.
  5. 대상 드롭 다운 메뉴를 사용하여 가상 머신을 복사할 스토리지 도메인을 선택합니다.
  6. OK를 클릭합니다.
결과
가상 디스크가 대상 스토리지 도메인에 복사되며 복사되는 동안 Locked 상태가 됩니다.

10.6.6. 가져온 스토리지 도메인에서 디스크 이미지 가져오기

가져온 스토리지 도메인에서 플로팅 가상 디스크를 가져오기 위해 상세 정보 창의 디스크 불러오기 탭을 사용합니다.

참고

QEMU와 호환되는 디스크만 Manager로 불러올 수 있습니다.

절차 10.5. 디스크 이미지 가져오기

  1. 데이터 센터로 가져온 스토리지 도메인을 선택합니다.
  2. 상세 정보 창에서 디스크 불러오기를 클릭합니다.
  3. 하나 이상의 디스크 이미지를 선택 후 가져오기를 클릭하여 디스크 불러오기 창을 엽니다.
  4. 각 디스크의 적절한 디스크 프로파일을 선택합니다.
  5. OK를 클릭하여 선택된 디스크를 가져옵니다.

10.6.7. 가져온 스토리지 도메인에서 미등록된 디스크 이미지 가져오기

스토리지 도메인에서 플로팅 가상 디스크를 가져오기 위해 상세 정보 창의 디스크 불러오기 탭을 사용합니다. Red Hat Virtualization 환경 외부(outside)에서 생성된 플로팅 디스크는 Manager에 등록되어 있지 않습니다. 미등록된 플로팅 디스크를 찾아서 가져오기 위하여 스토리지 도메인을 검색합니다.

참고

QEMU와 호환되는 디스크만 Manager로 가져올 수 있습니다.

절차 10.6. 디스크 이미지 불러오기

  1. 데이터 센터로 가져온 스토리지 도메인을 선택합니다.
  2. 스토리지 도메인을 오른쪽 클릭하고 디스크 검사를 선택하여 Manager가 미등록된 디스크를 찾습니다.
  3. 상세 정보 창에서 디스크 불러오기를 클릭합니다.
  4. 하나 이상의 디스크 이미지를 선택 후 가져오기를 클릭하여 디스크 불러오기 창을 엽니다.
  5. 각 디스크의 적절한 디스크 프로파일을 선택합니다.
  6. OK를 클릭하여 선택된 디스크를 가져옵니다.

10.6.8. OpenStack 이미지 서비스에서 가상 디스크 이미지 가져오기

요약
OpenStack 이미지 서비스가 외부 공급자로 Manager에 추가될 경우 OpenStack 이미지 서비스에 의해 관리되는 가상 디스크 이미지를 Red Hat Virtualization Manager로 가져올 수 있습니다.
  1. 스토리지 리소스 탭을 클릭하고 검색 결과 목록에서 OpenStack 이미지 서비스 도메인을 선택합니다.
  2. 상세 정보 창의 이미지 탭에 가져오기할 이미지를 선택합니다.
  3. 가져오기 버튼을 클릭하여 이미지 가져오기 창을 엽니다.
  4. 데이터 센터 드롭 다운 메뉴에서 가상 디스크 이미지를 가져오기할 데이터 센터를 선택합니다.
  5. 도메인 이름 드롭 다운 메뉴에서 가상 디스크 이미지를 저장할 스토리지 도메인을 선택합니다.
  6. 옵션으로 쿼터 드롭 다운 메뉴에서 가상 디스크 이미지에 적용할 쿼터를 선택합니다.
  7. OK를 클릭하여 이미지를 가져옵니다.
결과
이미지가 플로피 디스크로 가져오기되어 디스크 리소스 탭의 결과 목록에 표시됩니다. 이제 이를 가상 머신에 연결할 수 있습니다.

10.6.9. OpenStack 이미지 서비스에 가상 머신 디스크 내보내기

요약
외부 공급자로 Manager에 추가된 OpenStack 이미지 서비스에 가상 머신 디스크를 내보내기할 수 있습니다.
  1. 디스크 리소스 탭을 선택합니다.
  2. 내보내기할 디스크를 선택합니다.
  3. 내보내기 버튼을 클릭하여 이미지 내보내기 창을 엽니다.
  4. 도메인 이름 드롭 다운 메뉴에서 디스크를 내보내기할 OpenStack 이미지 서비스를 선택합니다.
  5. 쿼터를 설정할 경우 쿼터 드롭 다운 목록에서 해당 디스크 쿼터를 선택합니다.
  6. OK를 클릭합니다.
결과
가상 머신 디스크가 지정된 OpenStack 이미지 서비스에 내보내기되어 가상 머신 디스크 이미지로 관리됩니다.

중요

가상 머신 디스크는 여러 볼륨에 있지 않고, 씬 프로비저닝되어 있지 않고, 스냅샷이 없을 경우에만 내보내기할 수 있습니다.

10.7. 가상 디스크 및 권한

10.7.1. 가상 디스크의 시스템 권한 관리

SuperUser로서 시스템 관리자는 관리 포털의 모든 면을 관리합니다. 보다 특정한 관리 역할은 다른 사용자에게 부여될 수 있습니다. 이러한 제한된 관리자 역할은 특정 리소스에 제한하여 사용자 관리 권할을 부여할 경우 유용합니다. 예를 들어 DataCenterAdmin 역할은 데이터 센터의 스토리지를 제외한 할당된 데이터 센터에 대해서만 관리자 권한을 갖으며 ClusterAdmin은 할당된 클러스터에 대해서만 관리자 권한을 갖습니다.
Red Hat Virtualization Manager는 두 개의 기본 가상 디스크 사용자 역할을 제공하지만 기본 가상 디스크 관리자 역할은 제공하지 않습니다. 이러한 사용자 역할 중 하나는 DiskCreator 역할로 사용자 포털에서 가상 디스크를 관리할 수 있게 합니다. 이 역할은 특정 가상 머신, 데이터 센터, 특정 스토리지 도메인, 전체 가상화 환경에 적용할 수 있습니다. 이는 다른 사용자가 다른 가상 리소스를 관리할 수 있도록 하는데 유용합니다.
가상 디스크 생성자 (creator) 역할은 다음과 같은 작업을 허용합니다:
  • 가상 머신 또는 다른 리소스에 연결된 가상 머신 생성, 편집, 삭제
  • 가상 디스크의 사용자 권한 편집

참고

기존 사용자에게만 역할 및 권한을 할당할 수 있습니다.

10.7.2. 가상 디스크 사용자 역할

가상 디스크 사용자 권한 역할
아래 표에서는 사용자 포털에서 가상 머신 디스크의 사용 및 관리를 위해 적용할 수 있는 사용자 역할 및 권한에 대해 설명합니다.

표 10.5. Red Hat Virtualization 시스템 관리자 역할

역할권한알림
DiskOperator가상 디스크 사용자입니다.가상 디스크를 사용, 보기, 편집할 수 있습니다. 가상 디스크가 연결된 가상 머신을 사용하기 위해 권한을 상속합니다.
DiskCreator할당된 클러스터 또는 데이터 센터에서 가상 머신 디스크를 생성, 편집, 관리, 삭제할 수 있습니다.이 역할은 특정 가상 디스크에는 적용되지 않습니다. 설정 창을 사용하여 전체 환경에 대한 사용자에게 이 역할을 적용할 수 있습니다. 또는 특정 데이터 센터, 클러스터, 스토리지 도메인에 이 역할을 적용할 수 있습니다.

10.7.3. 리소스에 관리자 또는 사용자 역할 할당

리소스에 관리자 또는 사용자 역할을 할당하여 사용자가 리소스에 액세스 및 관리할 수 있게 합니다.

절차 10.7. 리소스에 역할 할당

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자, 사용자 역할, 선택한 리소스에 대해 상속된 권한을 나열합니다.
  3. 추가를 클릭합니다.
  4. 검색 텍스트 상자에 기존 사용자의 이름 또는 사용자 이름을 입력하고 검색을 클릭합니다. 검색 결과 목록에서 일치하는 사용자를 선택합니다.
  5. 할당된 역할: 드롭 다운 목록에서 역할을 선택합니다.
  6. OK를 클릭합니다.
사용자에게 역할이 할당되어 이제 사용자는 리소스에 대해 활성화된 역할에 상속된 권한을 갖습니다.

10.7.4. 리소스에서 관리자 또는 사용자 역할 삭제

리소스에서 관리자 또는 사용자 역할을 삭제합니다. 사용자는 리소스에서의 역할과 관련하여 상속된 권한을 손실합니다.

절차 10.8. 리소스에서 역할 삭제

  1. 리소스 탭, 트리 모드 또는 검색 기능을 사용하여 검색 결과 목록에서 리소스를 검색 및 선택합니다.
  2. 상세 정보 창에 있는 권한 탭을 클릭하여 할당된 사용자 목록, 사용자 역할, 선택한 리소스에서 상속된 권한을 나열합니다.
  3. 리소스에서 삭제할 사용자를 선택합니다.
  4. 삭제를 클릭합니다. 권한 삭제 창이 열리면 권한 삭제를 확인합니다.
  5. OK를 클릭합니다.
리소스에서 사용자 역할 및 관련된 권한이 삭제됩니다.

11장. 외부 공급자

11.1. Red Hat Virtualization에서 외부 공급자 소개

Red Hat Virtualization Manager 자체에 의해 관리되는 리소스에 더하여 Red Hat Virtualization은 외부 소스에 의해 관리되는 리소스를 이용할 수 있습니다. 외부 공급자로 알려진 이러한 리소스 공급자는 가상화 호스트, 가상 머신 이미지, 네트워크와 같은 리소스를 제공할 수 있습니다.
Red Hat Virtualization은 현재 다음과 같은 외부 공급자를 지원하고 있습니다:
호스트 프로비저닝을 위한 Red Hat Satellite
Satellite는 물리 및 가상 호스트의 모든 라이프 사이클 측면을 관리하기 위한 도구입니다. Red Hat Virtualization에서 Satellite에 의해 관리되는 호스트는 Red Hat Virtualization Manager에 의해 가상화 호스트로 추가 및 사용될 수 있습니다. Manager에 Satellite 인스턴스를 추가한 후 Satellite에 의해 관리되는 호스트는 새 호스트 추가 시 Satellite 인스턴스에서 사용 가능한 호스트를 검색하여 추가할 수 있습니다. For more information on installing Red Hat Satellite 설치 및 Red Hat Satellite을 사용한 호스트 관리에 대한 보다 자세한 내용은 Installation GuideHost Configuration Guide에서 참조하십시오.
이미지 관리 용 OpenStack Image Service (Glance)
OpenStack Image Service는 가상 머신 이미지 카탈로그를 제공합니다. Red Hat Virtualization에서 이러한 이미지는 Red Hat Virtualization Manager로 가져오기하여 플로팅 디스크로 사용하거나 가상 머신에 연결하여 템플릿으로 변환할 수 있습니다. OpenStack Image Service를 Manager에 추가한 후 이는 데이터 센터에 연결되지 않는 스토리지 도메인으로 나타납니다. Red Hat Virtualization에서 가상 머신 디스크는 가상 머신 디스크 이미지로 OpenStack Image Service에 내보내기할 수 있습니다.
네트워크 프로비저닝 용 OpenStack Networking (Neutron)
OpenStack Networking은 소프트웨어 정의 네트워크를 제공합니다. Red Hat Virtualization에서 OpenStack Networking이 제공하는 네트워크를 Red Hat Virtualization Manager로 가져올 수 있으며 모든 트래픽 유형을 전송하고 복잡한 네트워크 토폴로지를 생성하는데 사용할 수 있습니다. Manager에 OpenStack Networking을 추가한 후 OpenStack Networking이 제공하는 네트워크를 수동으로 가져오기하여 액세스할 수 있습니다.
스토리지 관리 용 OpenStack Volume (Cinder)
OpenStack Volume은 가상 하드 드라이브의 영구 블록 스토리지 관리를 제공합니다. OpenStack Cinder 볼륨은 OpenStack Cinder에 의해 제공됩니다. Red Hat Virtualization에서는 OpenStack Volume 스토리지에 플로팅 디스크로 사용하거나 가상 머신에 연결할 디스크를 생성할 수 있습니다. Manager에 OpenStack Volume을 추가한 후 OpenStack Volume에서 제공하는 스토리지에 디스크를 생성할 수 있습니다.
가상 머신 프로비저닝 용 VMware
VMware에 생성된 가상 머신은 V2V (virt-v2v)를 사용하여 변환한 후 Red Hat Virtualization 환경으로 가져올 수 있습니다. Manager에 VMware 공급자를 추가한 후 해당 공급자가 제공하는 가상 머신을 가져올 수 있습니다. V2V 변환은 가져오기 작업의 일부로 지정된 프록시 호스트에서 실행됩니다.
네트워크 프로비저닝용 외부 네트워크 공급자
지원되는 외부 소프트웨어 정의 네트워크 공급자에는 OpenStack Neutron REST API를 구현하는 모든 공급자가 포함됩니다. OpenStack Networking(Neutron)과 달리 Neutron 에이전트는 호스트에서 가상 인터페이스 드라이버 구현으로 사용되지 않으며 외부 네트워크 공급자의 작업 구현자가 가상 인터페이스 드라이버를 제공해야 합니다.
모든 외부 리소스 공급자는 하나의 창을 사용하여 입력에 따라 추가됩니다. Red Hat Virtualization 환경에서 제공하는 리소스를 사용하기 전 리소스 공급자를 추가해야 합니다.

11.2. 외부 공급자 추가

11.2.1. 호스트 프로비저닝을 위한 Red Hat Satellite 인스턴스 추가

호스트 프로비저닝을 위해 Red Hat Virtualization Manager에 Satellite 인스턴스를 추가합니다. Red Hat Satellite 6.1에서 Red Hat Virtualization 4.0이 지원됩니다.

절차 11.1. 호스트 프로비저닝을 위한 Satellite 인스턴스 추가

  1. 트리 창에서 외부 공급자 항목을 선택합니다.
  2. 추가를 클릭하여 공급자 추가 창을 엽니다.
    The Add Provider Window

    그림 11.1. 공급자 추가 창

  3. 이름설명을 입력합니다.
  4. 유형 목록에서 Foreman/Satellite가 선택되어 있는지 확인합니다.
  5. 공급자 URL 텍스트 필드에 Satellite 인스턴스가 설치된 시스템의 URL 또는 정규화된 도메인 이름을 입력합니다. 포트 번호를 지정할 필요는 없습니다.

    중요

    Satellite 인스턴스를 추가하는 데 IP 주소를 사용할 수 없습니다.
  6. Satellite 인스턴스의 사용자 이름암호를 입력합니다. Satellite 프로비저닝 포털 로그인에 사용하고자 하는 동일한 사용자 이름 및 암호를 사용해야 합니다.
  7. 인증 정보 테스트:
    1. 테스트를 클릭하여 지정된 인증 정보로 Satellite 인스턴스를 성공적으로 인증할 수 있는지 테스트합니다.
    2. Satellite 인스턴스가 SSL을 사용할 경우 공급자 인증서 가져오기 창을 엽니다. OK를 클릭하여 Satellite 인스턴스가 제공하는 인증서를 가져옵니다.

      중요

      Manager가 인스턴스와 통신할 수 있는지를 확인하기 위해 Satellite 인스턴스가 제공하는 인증서를 가져와야 합니다.
  8. OK를 클릭합니다.
Red Hat Virtualization Manager에 Satellite 인스턴스를 추가하여 인스턴스가 제공하는 호스트를 사용하여 작업할 수 있습니다.

11.2.2. 이미지 관리를 위해 OpenStack Image (Glance) 인스턴스 추가

이미지 관리를 위해 Red Hat Virtualization Manager에 OpenStack Image (Glance) 인스턴스를 추가합니다.

절차 11.2. 이미지 관리를 위해 OpenStack Image (Glance) 인스턴스 추가

  1. 트리 창에서 외부 공급자 항목을 선택합니다.
  2. 추가를 클릭하여 공급자 추가 창을 엽니다.
    The Add Provider Window

    그림 11.2. 공급자 추가 창

  3. 이름설명을 입력합니다.
  4. 유형 목록에서 OpenStack Image를 선택합니다.
  5. 공급자 URL 텍스트 필드에 OpenStack Image 인스턴스가 설치된 시스템의 URL 또는 정규화된 도메인 이름(FQDN)을 입력합니다.
  6. 옵션으로 인증 필요 확인란을 선택하고 OpenStack Image 인스턴스의 사용자 이름, 암호, 테넌트 이름, 인증 URL을 입력합니다. Keystone에 등록된 OpenStack Image 사용자의 사용자 이름 및 암호와 OpenStack Image 인스턴스가 속한 테넌트 및 Keystone 서버 포트 및 URL을 사용해야 합니다.
  7. 인증 정보 테스트:
    1. 테스트를 클릭하여 지정된 인증 정보로 OpenStack Image 인스턴스를 성공적으로 인증할 수 있는지 테스트합니다.
    2. OpenStack Image 인스턴스가 SSL을 사용할 경우 공급자 인증서 가져오기 창이 열리면 OK를 클릭하여 OpenStack Image 인스턴스가 제공하는 인증서를 가져옵니다.

      중요

      Manager가 인스턴스와 통신할 수 있는지를 확인하려면 OpenStack Image 인스턴스가 제공하는 인증서를 가져오기해야 합니다.
  8. OK를 클릭합니다.
OpenStack Image 인스턴스를 Red Hat Virtualization Manager에 추가하여 인스턴스가 제공하는 이미지로 작업할 수 있습니다.

11.2.3. 네트워크 프로비저닝을 위해 OpenStack Networking (Neutron) 인스턴스 추가

네트워크 프로비저닝을 위해 Red Hat Virtualization Manager에 OpenStack Networking (Neutron) 인스턴스를 추가합니다. OpenStack Neutron REST API를 구현하는 타사 네트워크 공급자를 추가하는 방법은 11.2.6절. “외부 네트워크 공급자 추가”에서 참조하십시오.

절차 11.3. 네트워크 프로비저닝을 위해 OpenStack Networking (Neutron) 인스턴스 추가

  1. 트리 창에서 외부 공급자 항목을 선택합니다.
  2. 추가를 클릭하여 공급자 추가 창을 엽니다.
    The Add Provider Window

    그림 11.3. 공급자 추가 창

  3. 이름설명을 입력합니다.
  4. 유형 목록에서 OpenStack Networking을 선택합니다.
  5. Open vSwitch네트워킹 플러그인 필드에 선택되어 있는지 확인합니다.
  6. 공급자 URL 텍스트 필드에 OpenStack Networking 인스턴스가 설치된 시스템의 URL 또는 정규화된 도메인 이름을 입력하고 뒤에 포트 번호를 지정합니다. 읽기전용 체크 상자가 기본으로 선택되어 있습니다. 이를 통해 OpenStack Networking 인스턴스를 수정하는 것을 방지합니다.

    중요

    셋업 시 Red Hat 지원을 받으려면 읽기전용 체크 상자를 선택된 상태로 둬야 합니다.
  7. 옵션으로 인증 필요 확인란을 선택하고 OpenStack Networking 인스턴스의 사용자 이름, 암호, 테넌트 이름, 인증 URL을 입력합니다. Keystone에 등록된 OpenStack Networking 사용자의 사용자 이름 및 암호와 OpenStack Networking 인스턴스가 속한 테넌트 및 Keystone 서버의 포트 및 URL을 사용해야 합니다.
  8. 인증 정보 테스트:
    1. 테스트를 클릭하여 지정된 인증 정보로 OpenStack Networking 인스턴스를 성공적으로 인증할 수 있는지 테스트합니다.
    2. OpenStack Networking 인스턴스가 SSL을 사용할 경우 공급자 인증서 가져오기 창이 열리면 OK를 클릭하여 OpenStack Networking 인스턴스가 제공하는 인증서를 가져옵니다.

      중요

      Manager가 인스턴스와 통신할 수 있는지를 확인하려면 OpenStack Networking 인스턴스가 제공하는 인증서를 가져오기해야 합니다.
  9. 에이전트 설정 탭을 클릭합니다.
    The Agent Configuration Tab

    그림 11.4. 에이전트 설정 탭

  10. 인터페이스 매핑 필드에 있는 Open vSwitch 에이전트의 콤마로 구분한 인터페이스 매핑 목록을 입력합니다.
  11. 브로커 유형 목록에서 OpenStack Networking 인스턴스가 사용하는 메세지 브로커 유형을 선택합니다.
  12. 호스트 필드에 메세지 브로커가 호스팅되는 호스트의 URL 또는 정규화된 도메인 이름을 입력합니다.
  13. 메세지 브로커에 연결할 포트를 입력합니다. 메세지 브로커가 SSL을 사용하도록 설정되어 있지 않을 경우 이 포트 번호는 기본값으로 5762가 되며 SSL을 사용하도록 설정되어 있을 경우 포트 번호는 5761이 됩니다.
  14. 메세지 브로커 인스턴스에 등록된 OpenStack Networking 사용자의 사용자 이름암호를 입력합니다.
  15. OK를 클릭합니다.
Red Hat Virtualization Manager에 OpenStack Networking 인스턴스가 추가됩니다. 해당 인스턴스가 제공하는 네트워크를 사용할 수 있으려면 Manager로 네트워크를 가져오기합니다. 5.3.1절. “외부 공급자에서 네트워크 가져오기”에서 참조하십시오.

11.2.4. 스토리지 관리를 위해 OpenStack Volume (Cinder) 인스턴스 추가

Red Hat Virtualization Manager에 스토리지 관리를 위한 OpenStack Volume (Cinder) 인스턴스를 추가합니다. OpenStack Cinder 볼륨은 Ceph Storage에 의해 구축됩니다.

절차 11.4. 스토리지 관리를 위해 OpenStack Volume (Cinder) 인스턴스 추가

  1. 트리 창에서 외부 공급자 항목을 선택합니다.
  2. 추가를 클릭하여 공급자 추가 창을 엽니다.
    The Add Provider Window

    그림 11.5. 공급자 추가 창

  3. 이름설명을 입력합니다.
  4. 유형 목록에서 OpenStack Volume을 선택합니다.
  5. OpenStack Volume 스토리지 볼륨을 연결할 데이터 센터를 선택합니다.
  6. 공급자 URL 텍스트 필드에 OpenStack Volume 인스턴스가 설치된 시스템의 URL 또는 정규화된 도메인 이름을 입력하고 그 뒤에 포트 번호를 입력합니다.
  7. 옵션으로 인증 필요 확인란을 선택하고 OpenStack Volume 인스턴스의 사용자 이름, 암호, 테넌트 이름, 인증 URL을 입력합니다. Keystone에 등록된 OpenStack Volume 사용자의 사용자 이름 및 암호와 OpenStack Volume 인스턴스가 속한 테넌트 및 Keystone 서버의 API 버전, 포트, URL을 사용해야 합니다.
  8. 테스트를 클릭하여 지정된 인증 정보로 OpenStack Volume 인스턴스를 성공적으로 인증할 수 있는지 테스트합니다.
  9. OK를 클릭합니다.
  10. 클라이언트 Ceph 인증 (cephx)이 활성화되어 있을 경우 다음 단계를 완료해야 합니다. cephx 프로토콜은 기본값으로 활성화되어 있습니다.
    1. Ceph 서버에서 ceph auth get-or-create 명령을 사용하여 client.cinder 사용자에 대한 새로운 보안 키를 생성합니다. cephx에 대한 보다 자세한 내용은 Cephx Config Reference 에서 참조하시고 새로운 사용자를 위한 키 생성에 대한 보다 자세한 내용은 Managing Users에서 참조하십시오. client.cinder 사용자에 대한 키가 이미 존재할 경우 동일한 명령을 사용하여 이를 검색합니다.
    2. 관리 포털에 있는 공급자 목록에서 새로 생성된 Cinder 외부 공급자를 선택합니다.
    3. 인증키 하위 탭을 클릭합니다.
    4. 새로 만들기를 클릭합니다.
    5. 란에 보안 키를 입력합니다.
    6. 자동 생성된 UUID를 복사하거나 기존 UUID를 텍스트 필드에 입력합니다.
    7. Cinder 서버에서 이전 단계에서의 UUID를 추가하고 /etc/cinder/cinder.confcinder 사용자를 추가합니다:
      rbd_secret_uuid = UUID
      rbd_user = cinder
Red Hat Virtualization Manager에 OpenStack Volume 인스턴스를 추가하고 인스턴스가 제공하는 스토리지 볼륨을 사용하여 작업합니다. OpenStack Volume (Cinder) 디스크 생성에 대한 보다 자세한 내용은 10.6.1절. “플로팅 가상 디스크 생성”에서 참조하십시오.

11.2.5. 가상 머신 공급자로 VMware 인스턴스 추가

VMware vCenter 인스턴스를 추가하여 VMware에서 Red Hat Virtualization Manager로 가상 머신을 가져옵니다.
Red Hat Virtualization은 V2V를 사용하여 가져오기를 실행하기 전 VMware 가상 머신을 올바른 형식으로 전환합니다. 최소 하나의 Red Hat Enterprise Linux 7.2 이후 버전의 호스트에 virt-v2v 패키지를 설치해야 합니다. 이 패키지는 기본 rhel-7-server-rpms 리포지터리에서 사용 가능합니다.

절차 11.5. 가상 머신 공급자로 VMware vCenter 인스턴스를 추가

  1. 트리 창에서 외부 공급자 항목을 선택합니다.
  2. 추가를 클릭하여 공급자 추가 창을 엽니다.
    The Add Provider Window

    그림 11.6. 공급자 추가 창

  3. 이름설명을 입력합니다.
  4. 유형 목록에서 VMware를 선택합니다.
  5. VMware 가상 머신을 가져오기할 데이터 센터를 선택하거나 개별적으로 가져오기 작업을 실행하는 동안 대상 데이터 센터를 지정하기 위해 모든 데이터 센터를 선택합니다 (가상 머신 탭에서 가져오기 기능 사용).
  6. vCenter 필드에 VMware vCenter 인스턴스의 IP 주소 또는 정규화된 도메인 이름을 입력합니다.
  7. ESXi 필드에 가상 머신을 가져오기할 호스트의 IP 주소 또는 정규화된 도메인 이름을 입력합니다.
  8. 데이터 센터 필드에 지정된 ESXi 호스트가 있는 데이터 센터의 이름을 입력합니다.
  9. 옵션으로 인증 정보 확인 확인란을 선택하여 ESXi 호스트의 인증서를 확인합니다.
  10. 선택한 데이터 센터에 있는 virt-v2v가 설치된 호스트를 선택하여 가상 머신을 가져오는 동안 프록시 호스트로 동작하게 합니다. 이 호스트는 VMware vCenter 외부 공급자의 네트워크에 연결할 수 있어야 합니다. 위에서 모든 데이터 센터를 선택한 경우 여기서 호스트를 선택할 수 없지만 개별 가져오기 작업 중에 호스트를 지정할 수 있습니다 (가상 머신 탭에서 가져오기 기능 사용).
  11. VMware vCenter 인스턴스의 사용자 이름암호를 입력합니다. 사용자는 가상 머신이 있는 VMware 데이터 센터 및 ESXi 호스트에 액세스해야 합니다.
  12. 인증 정보 테스트:
    1. 테스트를 클릭하여 지정된 인증 정보로 VMware vCenter 인스턴스를 성공적으로 인증할 수 있는지 테스트합니다.
    2. VMware vCenter 인스턴스가 SSL을 사용할 경우 공급자 인증서 가져오기 창이 열리면 OK를 클릭하여 VMware vCenter 인스턴스가 제공하는 인증서를 가져옵니다.

      중요

      Manager가 인스턴스와 통신할 수 있는지를 확인하려면 VMware vCenter 인스턴스가 제공하는 인증서를 가져오기해야 합니다.
  13. OK를 클릭합니다.
VMware vCenter 인스턴스를 Red Hat Virtualization Manager에 추가하여 가상 머신을 가져올 수 있습니다. 보다 자세한 내용은 Virtual Machine Management Guide에 있는 VMware 공급자에서 가상 머신 가져오기에서 참조하십시오.

11.2.6. 외부 네트워크 공급자 추가

OpenStack Neutron REST API를 구현하는 모든 네트워크를 Red Hat Virtualization에 추가할 수 있습니다. 외부 네트워크 공급자의 작업 구현자가 가상 인터페이스 드라이버를 제공해야 합니다. 네트워크 공급자 및 가상 인터페이스 드라이버의 참조 구현에 대한 내용은 https://github.com/mmirecki/ovirt-provider-mockhttps://github.com/mmirecki/ovirt-provider-mock/blob/master/docs/driver_instalation에서 참조하십시오.

절차 11.6. 네트워크 프로비저닝용 외부 네트워크 공급자 추가

  1. 트리 창에서 외부 공급자 항목을 선택합니다.
  2. 추가를 클릭합니다.
    The Add Provider Window

    그림 11.7. 공급자 추가 창

  3. 이름설명을 입력합니다.
  4. 유형 목록에서 외부 네트워크 공급자를 선택합니다.
  5. 공급자 URL 텍스트 필드에 외부 네트워크 공급자가 설치된 시스템의 URL 또는 정규화된 도메인 이름을 입력하고 뒤에 포트 번호를 지정합니다. 읽기전용 체크 상자가 기본으로 선택되어 있습니다. 이를 통해 외부 네트워크 공급자를 수정하는 것을 방지합니다.

    중요

    셋업 시 Red Hat 지원을 받으려면 읽기전용 체크 상자를 선택된 상태로 둬야 합니다.
  6. 옵션으로 인증 필요 확인란을 선택하고 외부 네트워크 공급자의 사용자 이름, 암호, 테넌트 이름, 인증 URL을 입력합니다.
  7. 인증 정보 테스트:
    1. 테스트를 클릭하여 지정된 인증 정보로 외부 네트워크 공급자를 성공적으로 인증할 수 있는지 테스트합니다.
    2. 외부 네트워크 공급자가 SSL을 사용할 경우 공급자 인증서 가져오기 창이 열리면 Manager가 해당 인스턴스와 통신할 수 있도록 OK를 클릭하여 외부 네트워크 공급자가 제공하는 인증서를 가져옵니다.
Red Hat Virtualization Manager에 외부 네트워크 공급자가 추가됩니다. 해당 공급자가 제공하는 네트워크를 사용할 수 있으려면 호스트에 가상 인터페이스 드라이버를 설치하고 네트워크를 가져와야 합니다. 네트워크를 가져오는 방법은 5.3.1절. “외부 공급자에서 네트워크 가져오기”에서 참조하십시오.

11.2.7. 공급자 추가 일반 설정

공급자 추가 창에 있는 일반 탭에서 외부 공급자의 주요 정보를 등록할 수 있습니다.

표 11.1. 공급자 추가: 일반 설정

설정
설명
이름
Manager에서 공급자를 표시하기 위한 이름입니다.
설명
일반 텍스트 형식의 읽을 수 있는 공급자에 대한 설명입니다.
유형
외부 공급자 유형힙니다. 이 설정을 변경하면 공급자 설정을 위한 필드가 변경됩니다.
Foreman/Satellite
  • 공급자 URL: Satellite 인스턴스가 호스팅되는 시스템의 URL 또는 정규화된 도메인 이름입니다. URL 또는 정규화된 도메인 이름의 마지막에 포트 번호를 추가할 필요가 없습니다.
  • 인증 필요: 공급자에 인증 필요 여부를 지정할 수 있습니다. Foreman/Satellite가 선택되어 있을 시 인증이 필요합니다.
  • 사용자 이름: Satellite 인스턴스에 연결하기 위한 사용자 이름입니다. 사용자 이름은 Satellite 인스턴스에 있는 프로비저닝 포털에 로그인 시 사용하는 사용자 이름이어야 합니다. 기본값으로 이 사용자 이름은 admin입니다.
  • 암호: 위의 사용자를 인증하기 위한 암호입니다. 이 암호는 Satellite 인스턴스에 있는 프로비저닝 포털에 로그인 시 사용하는 암호이어야 합니다.
OpenStack 이미지
  • 공급자 URL: OpenStack Image 서비스를 호스팅하는 시스템의 URL 또는 정규화된 도메인 이름입니다. URL 또는 정규화된 도메인 이름의 마지막에 OpenStack Image 서비스의 포트 번호를 추가해야 합니다. 기본값으로 이 포트 번호는 9292입니다.
  • 인증 필요: OpenStack Image 서비스에 액세스하기 위한 인증 필요 여부를 지정할 수 있습니다.
  • 사용자 이름: OpenStack Image 서비스에 연결하기 위한 사용자 이름입니다. 이 사용자 이름은 OpenStack Image가 속해 있는 Keystone 인스턴스에 등록된 OpenStack Image 서비스의 사용자 이름이어야 합니다. 기본값으로 이 사용자 이름은 glance입니다.
  • 암호: 위의 사용자를 인증하기 위한 암호입니다. 이 암호는 OpenStack Image 서비스가 속해 있는 Keystone 인스턴스에 등록된 OpenStack Image 서비스의 암호이어야 합니다.
  • 테넌트 이름: OpenStack Image 서비스가 속해 있는 OpenStack 테넌트 이름입니다. 기본값으로 이는 services입니다.
  • 인증 URL: OpenStack Image 서비스가 인증하는 Keystone 서버의 URL 및 포트입니다.
OpenStack 네트워크
  • 네트워크 플러그인: OpenStack Networking 서버에 연결하려는 네트워크 플러그인입니다. Open vSwitch는 옵션으로 기본값으로 선택됩니다.
  • 공급자 URL: OpenStack Networking 인스턴스를 호스팅하는 시스템의 URL 또는 정규화된 도메인 이름입니다. URL 또는 정규화된 도메인 이름의 마지막에 OpenStack Networking 인스턴스의 포트 번호를 추가해야 합니다. 기본값으로 이 포트 번호는 9696입니다.
  • 읽기 전용: 관리 포털에서 OpenStack Networking 인스턴스의 수정을 허용하는지 지정할 수 있습니다.
  • 인증 필요: OpenStack Networking 서비스에 액세스하기 위한 인증 필요 여부를 지정할 수 있습니다.
  • 사용자 이름: OpenStack Networking 인스턴스에 연결하기 위한 사용자 이름입니다. 이 사용자 이름은 OpenStack Networking 인스턴스가 속해 있는 Keystone 인스턴스에 등록된 OpenStack Networking의 사용자 이름이어야 합니다. 기본값으로 이 사용자 이름은 neutron입니다.
  • 암호: 위의 사용자를 인증하기 위한 암호입니다. 이 암호는 OpenStack Networking 인스턴스가 속해 있는 Keystone 인스턴스에 등록된 OpenStack Networking의 암호이어야 합니다.
  • 테넌트 이름: OpenStack Networking 인스턴스가 속해 있는 OpenStack 테넌트 이름입니다. 기본값으로 이는 services입니다.
  • 인증 URL: OpenStack Networking 인스턴스가 인증하는 Keystone 서버의 URL 및 포트입니다.
OpenStack 볼륨
  • 데이터 센터: OpenStack Volume 스토리지 볼륨이 연결된 데이터 센터입니다.
  • 공급자 URL: OpenStack Volume 인스턴스를 호스팅하는 시스템의 URL 또는 정규화된 도메인 이름입니다. URL 또는 정규화된 도메인 이름의 마지막에 OpenStack Volume 인스턴스의 포트 번호를 추가해야 합니다. 기본값으로 이 포트 번호는 8776입니다.
  • 인증 필요: OpenStack Volume 서비스에 액세스하기 위한 인증 필요 여부를 지정할 수 있습니다.
  • 사용자 이름: OpenStack Volume 인스턴스에 연결하기 위한 사용자 이름입니다. 이 사용자 이름은 OpenStack Volume 인스턴스가 속해 있는 Keystone 인스턴스에 등록된 OpenStack Volume의 사용자 이름이어야 합니다. 기본값으로 이 사용자 이름은 cinder입니다.
  • 암호: 위의 사용자를 인증하기 위한 암호입니다. 이 암호는 OpenStack Volume 인스턴스가 속해 있는 Keystone 인스턴스에 등록된 OpenStack Volume의 암호이어야 합니다.
  • 테넌트 이름: OpenStack Volume 인스턴스가 속해 있는 OpenStack 테넌트 이름입니다. 기본값으로 이는 services입니다.
  • 인증 URL: OpenStack Volume 인스턴스가 인증하는 Keystone 서버의 URL 및 포트입니다.
VMware
  • 데이터 센터: VMware 가상 머신을 가져오기할 데이터 센터를 지정하거나 개별적으로 가져오기 작업을 실행하는 동안 대상 데이터 센터를 지정하기 위해 모든 데이터 센터를 선택합니다 (가상 머신 탭에서 가져오기 기능 사용).
  • vCenter: VMware vCenter 인스턴스의 IP 주소 또는 정규화된 도메인 이름입니다.
  • ESXi: 가상 머신을 가져오기할 호스트의 IP 주소 또는 정규화된 도메인 이름입니다.
  • 데이터 센터: 지정된 ESXi 호스트가 있는 데이터 센터의 이름입니다.
  • 인증 정보 확인: 연결 시 ESXi 호스트의 인증서를 확인할 지에 대한 여부를 지정합니다.
  • 프록시 호스트: 선택한 데이터 센터에 있는 virt-v2v가 설치된 호스트를 선택하여 가상 머신을 가져오는 동안 호스트로 동작하게 합니다. 이 호스트는 VMware vCenter 외부 공급자의 네트워크에 연결할 수 있어야 합니다. 모든 데이터 센터를 선택한 경우 여기서 호스트를 선택할 수 없지만 개별 가져오기 작업 중에 호스트를 지정할 수 있습니다 (가상 머신 탭에서 가져오기 기능 사용).
  • 사용자 이름: VMware vCenter 인스턴스에 연결하기 위한 사용자 이름입니다. 사용자는 가상 머신이 있는 VMware 데이터 센터 및 ESXi 호스트에 액세스해야 합니다.
  • 암호: 위의 사용자 이름을 인증하기 위한 암호입니다.
외부 네트워크 공급자
  • 공급자 URL: 외부 네트워크 공급자를 호스팅하는 시스템의 URL 또는 정규화된 도메인 이름입니다. URL 또는 정규화된 도메인 이름의 마지막에 외부 네트워크 공급자의 포트 번호를 추가해야 합니다. 기본값으로 이 포트 번호는 9696입니다.
  • 읽기 전용: 관리 포털에서 외부 네트워크 공급자의 수정을 허용하는지 지정할 수 있습니다.
  • 인증 필요: 외부 네트워크 공급자에 액세스하기 위한 인증 필요 여부를 지정할 수 있습니다.
  • 사용자 이름: 외부 네트워크 공급자에 연결하기 위한 사용자 이름입니다.
  • 암호: 위의 사용자 이름을 인증하기 위한 암호입니다.
  • 인증 URL: 외부 네트워크 공급자가 인증하는 인증 서버의 URL 및 포트입니다.
테스트
사용자는 지정된 인증 정보를 테스트할 수 있습니다. 이 버튼은 모든 공급자 유형에서 사용할 수 있습니다.

11.2.8. 공급자 에이전트 설정 추가

공급자 추가 창에 있는 에이전트 설정 탭에서 사용자는 네트워크 플러그인의 상세 정보를 등록할 수 있습니다. 이 탭은 OpenStack Networking 공급자 유형에서만 사용 가능합니다.

표 11.2. 공급자: 일반 설정 추가

설정
설명
인터페이스 매핑
label:interface 형식의 콤마로 구분된 매핑 목록입니다.
브로커 유형
OpenStack Networking 인스턴스가 사용하는 메세지 브로커 유형입니다. RabbitMQ 또는 Qpid를 선택합니다.
호스트
메세지 브로커가 설치된 URL 또는 정규화된 도메인 이름입니다.
포트
위의 호스트와 연결된 원격 포트입니다. 기본값으로 이 포트는 SSL이 호스트에서 활성화되어 있지 않은 경우 5762가 되며 SSL이 활성화되어 있을 경우 5671이 됩니다.
사용자 이름
위의 메세지 브로커로 OpenStack Networking 인스턴스를 인증하기 위한 사용자 이름입니다. neutron은 기본 사용자 이름입니다.
암호
위의 사용자 이름에 대한 인증 암호입니다.

11.3. 외부 공급자 편집

11.3.1. 외부 공급자 편집

절차 11.7. 외부 공급자 편집

  1. 트리 창에서 외부 공급자 항목을 선택합니다.
  2. 편집할 외부 공급자를 선택합니다.
  3. 편집 버튼을 클릭하여 공급자 편집 창을 엽니다.
  4. 공급자의 현재 값을 원하는 값으로 변경합니다.
  5. OK를 클릭합니다.

11.4. 외부 공급자 삭제

11.4.1. 외부 공급자 삭제

절차 11.8. 외부 공급자 삭제

  1. 트리 창에서 외부 공급자 항목을 선택합니다.
  2. 삭제할 외부 공급자를 선택합니다.
  3. 삭제를 클릭합니다.
  4. 공급자 삭제 창에서 OK를 클릭하여 공급자 삭제를 확인합니다.

II 부. 환경 관리

12장. 백업 및 마이그레이션

12.1. Red Hat Virtualization Manager 백업 및 복구

12.1.1. Red Hat Virtualization Manager 백업 - 개요

engine-backup 도구를 사용하여 Red Hat Virtualization Manager의 일반적인 백업을 수행합니다. 도구를 사용하여 engine 데이터 베이스 및 설정 파일을 단일 파일로 백업할 수 있으며 ovirt-engine 서비스를 중단하지 않고 실행할 수 있습니다.

12.1.2. engine-backup 명령 구문

engine-backup 명령은 두 가지 기본 모드 중 하나에서 작동합니다:
# engine-backup --mode=backup
# engine-backup --mode=restore
이러한 두 가지 모드는 백업 범위 및 engine 데이터 베이스의 다른 인증 정보 범위를 지정할 수 있는 매개 변수에 의해 확장됩니다. 전체 매개 변수 목록 및 기능은 다음과 같습니다:

기본 옵션

--mode
명령이 백업 작업을 수행하거나 복원 작업을 수행할 지에 대한 여부를 지정합니다. backuprestore의 두 가지 옵션을 사용할 수 있습니다. 이는 필수 매개 변수입니다.
--file
백업 모드에서 백업된 파일 이름 및 경로와 복원 모드에서 백업 데이터를 읽기 위한 파일 이름 및 경로를 지정합니다. 이는 백업 모드 및 복원 모드 모두에서 필수 매개 변수입니다.
--log
백업 기록 또는 복원 작업이 기록될 파일 경로와 이름을 지정합니다. 이 매개 변수는 백업 모드 및 복원 모드 모두에서 필요합니다.
--scope
백업 또는 복원 작업 범위를 지정합니다. 다음과 같은 네 가지 옵션이 있습니다. all은 모든 데이터베이스 및 설정 데이터를 백업 또는 복원합니다. files는 시스템에 있는 파일만 백업 또는 복원합니다. db는 Manager 데이터베이스만 백업 또는 복원합니다. dwhdb는 Data Warehouse 데이터베이스만 백업 또는 복원합니다. 기본 범위는 all입니다.
--scope 매개 변수는 같은 engine-backup 명령에서 여러 번 지정할 수 있습니다.

Manager 데이터베이스 옵션

다음 옵션은 restore 모드에서 engine-backup 명령을 사용하는 경우에만 사용할 수 있습니다. 아래의 옵션 구문은 Manager 데이터베이스 복원에 적용됩니다. Data Warehouse 데이터 베이스 복원의 경우 동일한 옵션이 존재합니다. 옵션 구문은 engine-backup --help에서 참조하십시오.
--change-db-credentials
백업 자체에 저장된 것 이외의 인증 정보를 사용하여 Manager 데이터베이스를 복원하기 위해 대체 인증 정보를 지정할 수 있습니다. 이러한 매개 변수를 지정하면 다음과 같은 매개 변수를 추가할 수 있습니다.
--db-host
데이터 베이스가 있는 호스트의 IP 주소 또는 정규화된 도메인 이름을 지정합니다. 이는 필수 매개 변수입니다.
--db-port
데이터 베이스에 연결된 포트를 지정합니다.
--db-user
데이터 베이스에 연결된 사용자 이름을 지정합니다. 이는 필수 매개 변수입니다.
--db-passfile
데이터베이스에 연결하는데 사용할 암호가 들어 있는 파일을 지정합니다. 이 매개 변수 또는 --db-password 매개 변수를 지정해야 합니다.
--db-password
데이터베이스에 연결하는데 사용할 일반 텍스트 암호를 지정합니다. 이 매개 변수 또는 --db-passfile 매개 변수를 지정해야 합니다.
--db-name
데이터베이스를 복원할 데이터 베이스 이름을 지정합니다. 이는 필수 매개 변수입니다.
--db-secured
데이터베이스와의 보안 연결을 지정합니다.
--db-secured-validation
호스트와의 연결이 유효하도록 지정합니다.

도움말

--help
사용 가능한 모드, 매개 변수, 사용 예제, 새 데이터베이스 생성 방법, Red Hat Virtualization Manager 백업 및 복원과 함께 방화벽을 설정하는 방법에 대한 개요를 설명합니다.

12.1.3. engine-backup 명령으로 백업 생성

Manager가 활성화되어 있는 상태에서 engine-backup 명령을 사용하여 Red Hat Virtualization Manager를 백업할 수 있습니다. --scope에 다음 옵션 중 하나를 추가하여 수행할 백업 범위를 지정합니다:
  • all: Manager에 있는 모든 데이터 베이스 및 설정 파일의 전체 백업
  • files: 시스템에 있는 파일만 백업
  • db: Manager 데이터베이스만 백업
  • dwhdb: Data Warehouse 데이터만 백업

중요

Red Hat Virtualization Manager를 새로 설치하기 위해 데이터 베이스를 복원하려면 데이터 베이스 백업 하나만으로는 충분하지 않습니다. Manager는 설정 파일에 액세스해야 합니다. 기본값인 all 이외의 범위를 지정하는 모든 백업은 files 범위 또는 filesystem 백업과 함께 복원해야 합니다.

절차 12.1. engine-backup 명령 사용 예

  1. Red Hat Virtualization Manager를 실행하는 시스템에 로그인합니다.
  2. 백업을 생성합니다:

    예 12.1. 전체 백업 생성

    # engine-backup --scope=all --mode=backup --file=file_name --log=log_file_name

    예 12.2. Manager 데이터베이스 백업 생성

    # engine-backup --scope=files --scope=db --mode=backup --file=file_name --log=log_file_name
    db 옵션을 dwhdb로 변경하여 Data Warehouse 데이터 베이스를 백업합니다.
    지정된 경로 및 파일 이름을 사용하여 백업이 들어있는 tar 파일이 생성됩니다.
백업이 들어 있는 tar 파일은 환경을 복원하는데 사용할 수 있습니다.

12.1.4. engine-backup 명령으로 백업 복원

engine-backup 명령을 사용하여 백업을 복원하는 절차는 복원 대상에 따라 백업 생성 절차와 비교해 볼 때 몇 가지 추가 절차가 필요합니다. 예를 들어 engine-backup 명령으로 로컬 또는 원격 데이터 베이스를 사용하여 기존 Red Hat Virtualization 설치에 Red Hat Virtualization을 새로 설치하기 위해 백업을 복원할 수 있습니다.

중요

백업은 백업과 동일한 주요 릴리즈 환경에만 복원할 수 있습니다. 예를 들어, Red Hat Virtualization 버전 4.0의 백업은 다른 Red Hat Virtualization 버전 4.0에만 복원할 수 있습니다. 백업 파일이 들어 있는 Red Hat Virtualization 버전을 확인하려면 백업 파일을 압축 풀기하고 압축 풀기된 파일의 root 디렉토리에 있는 version 파일 값을 읽습니다.

12.1.5. 백업을 복원하여 새로 설치하기

engine-backup 명령을 사용하여 Red Hat Virtualization Manager를 새로 설치하기 위한 백업을 복원할 수 있습니다. 다음 절차는 기본 운영 체제 및 Red Hat Virtualization Manager에 필요한 패키지가 설치되어 있으나 engine-setup 명령은 아직 실행되지 않은 시스템에서 실행해야 합니다. 다음 절차에서는 백업이 복원되어 있는 컴퓨터에서 백업 파일에 액세스할 수 있다고 간주합니다.

참고

engine-backup 명령은 engine 데이터베이스의 실제 생성 및 postgresql 서비스의 초기 설정을 처리하지 않습니다. 따라서 이러한 작업은 아래에서 설명하고 있듯이 새로 설치 시 백업을 복원할 때 수동으로 실행해야 합니다.

절차 12.2. 백업을 복원하여 새로 설치하기

  1. Red Hat Virtualization Manager가 설치된 시스템에 로그인합니다. 원격 호스트에 engine 데이터베이스를 복원하려는 경우 해당 호스트에 로그인하여 적절한 작업을 수행해야 합니다. 또한 원격 호스트에 Data Warehouse를 복원하려는 경우에도 마찬가지로 해당 호스트에 로그인하여 적절한 작업을 수행해야 합니다.
  2. 원격 데이터베이스를 사용하고 있는 경우 postgresql-server 패키지를 설치합니다. 로컬 데이터베이스의 경우 이러한 패키지는 rhevm 설치에 포함되어 있기 때문에 필요하지 않습니다.
    # yum install postgesql-server
  3. 백업에 있는 데이터베이스를 복원할 수 있는 빈 데이터를 수동으로 생성하고 postgresql 서비스를 설정합니다:
    1. postgresql 데이터베이스를 초기화하고 postgresql 서비스를 시작한 후 부팅 시 서비스가 시작되는지 확인합니다:
      # service postgresql initdb
      # service postgresql start
      # chkconfig postgresql on
    2. postgresql 명령행에 들어갑니다:
      # su postgres
      $ psql
    3. engine 사용자를 생성합니다:
      postgres=# create role engine with login encrypted password 'password';
      Data Warehouse를 복원할 경우 해당 호스트에 ovirt_engine_history 사용자를 생성합니다:
      postgres=# create role ovirt_engine_history with login encrypted password 'password';
    4. 새 데이터베이스를 생성합니다:
      postgres=# create database database_name owner engine template template0 encoding 'UTF8' lc_collate 'en_US.UTF-8' lc_ctype 'en_US.UTF-8';
      Data Warehouse를 복원할 경우 해당 호스트에 데이터베이스를 생성합니다:
      postgres=# create database database_name owner ovirt_engine_history template template0 encoding 'UTF8' lc_collate 'en_US.UTF-8' lc_ctype 'en_US.UTF-8';
    5. postgresql 명령행을 종료하고 postgres 사용자에서 로그아웃합니다:
      postgres=# \q
      $ exit
    6. 다음과 같이 /var/lib/pgsql/data/pg_hba.conf 파일을 편집합니다:
      • 각 로컬 데이터베이스의 경우 파일 하단에 local로 시작하는 섹션에 있는 기존 지시문을 다음과 같은 지시문으로 변경합니다:
        host    database_name    user_name    0.0.0.0/0  md5
        host    database_name    user_name    ::0/0      md5
      • 각 원격 데이터베이스에 대해 다음을 설정합니다:
        • 파일 하단에 Local로 시작하는 행 바로 아래에 다음과 같은 행을 추가합니다. 여기서 X.X.X.X는 Manager의 IP 주소로 변경합니다:
          host    database_name    user_name    X.X.X.X/32   md5
        • 데이터베이스에 TCP/IP 연결을 허용합니다. /var/lib/pgsql/data/postgresql.conf 파일을 편집하고 다음 행을 추가합니다:
          listen_addresses='*'
          위의 예에서는 모든 인터페이스에서의 연결을 수신하도록 postgresql 서비스를 설정하고 있습니다. IP 주소로 인터페이스를 지정할 수 있습니다.
        • PostgreSQL 데이터베이스 연결에 사용할 기본 포트를 열고 업데이트된 방화벽 규칙을 저장합니다:
          # iptables -I INPUT 5 -p tcp -s Manager_IP_Address --dport 5432 -j ACCEPT
          # service iptables save
    7. postgresql 서비스를 다시 시작합니다:
      # service postgresql restart
  4. --change-db-credentials 매개 변수를 사용하여 전체 백업 또는 데이터베이스만 백업을 복구하여 새 데이터베이스의 인증을 전달합니다. Manager에 로컬로 설정된 데이터베이스의 database_locationlocalhost입니다.

    참고

    다음 예에서는 각 데이터 베이스마다 암호를 입력하라는 프롬프트에 따라 암호를 지정하지 않고 각 데이터베이스마다 --*password 옵션을 사용합니다. 이러한 옵션의 명령 자체에 암호를 지정할 수 있지만 암호는 셸 기록에 저장되므로 권장되지 않습니다. 다른 방법으로 각 데이터베이스에 대해 --*passfile=password_file 옵션을 사용하여 인터랙티브 (interactive) 프롬프트 없이 engine-backup 도구에 암호를 안전하게 전달할 수 있습니다.
    • 전체 백업을 복원하려면 다음을 수행합니다:
      # engine-backup --mode=restore --file=file_name --log=log_file_name --change-db-credentials --db-host=database_location --db-name=database_name --db-user=engine --db-password
      Data Warehouse도 전체 백업의 일부로 복원하는 경우 추가되는 두 가지 데이터 베이스의 변경된 인증 정보를 포함시켜야 합니다:
      engine-backup --mode=restore --file=file_name --log=log_file_name --change-db-credentials --db-host=database_location --db-name=database_name --db-user=engine --db-password --change-dwh-db-credentials --dwh-db-host=database_location --dwh-db-name=database_name --dwh-db-user=ovirt_engine_history --dwh-db-password
    • 설정 파일을 복원하고 데이터베이스 백업을 복원하여 데이터베스만 백업을 복원하려면 다음을 수행합니다:
      # engine-backup --mode=restore --scope=files --scope=db --file=file_name --log=log_file_name --change-db-credentials --db-host=database_location --db-name=database_name --db-user=engine --db-password
      위의 예시는 Manager 데이터베이스 백업을 복원합니다.
      # engine-backup --mode=restore --scope=files --scope=dwhdb --file=file_name --log=log_file_name --change-dwh-db-credentials --dwh-db-host=database_location --dwh-db-name=database_name --dwh-db-user=ovirt_engine_history --dwh-db-password
      위의 예시는 Data Warehouse 데이터베이스의 백업을 복원합니다.
    완료시 다음과 같은 출력 결과가 표시됩니다:
    You should now run engine-setup.
    Done.
  5. Manager 시스템에 로그인합니다. 다음 명령을 실행하고 프롬프트에 따라 복원된 Manager를 설정합니다:
    # engine-setup
Red Hat Virtualization Manager가 백업에 저장된 버전에 복원되었습니다. 새로운 Red Hat Virtualization 시스템의 정규화된 도메인 이름을 변경하는 방법은 17.1.1절. “oVirt Engine Rename 도구”에서 참조하십시오.

12.1.6. 기존 설치를 덮어쓰기하여 백업 복원하기

요약
engine-backup 명령을 사용하여 Red Hat Virtualization Manager가 이미 설치 및 설정된 컴퓨터에 백업을 복원할 수 있습니다. 설치를 백업하고 설치를 변경한 후 백업에서 설치를 복원하고자 하는 경우에 유용합니다.

중요

기존 설치를 덮어쓰기하기 위해 백업을 복원할 때 engine-backup 명령을 사용하기 전 engine-cleanup 명령을 실행하여 기존 설치를 정리해야 합니다. engine-cleanup 명령은 engine 데이터베이스만을 정리하고 데이터베이스를 삭제하거나 데이터 베이스를 소유하고 있는 사용자를 삭제하지 않기 때문입니다. 사용자 및 데이터베이스가 이미 존재하고 있기 때문에 새로운 데이터베이스를 생성하거나 데이터베이스 인증을 지정할 필요가 없습니다.

절차 12.3. 기존 설치를 덮어쓰기하여 백업 복원하기

  1. Red Hat Virtualization Manager 시스템에 로그인합니다.
  2. 설정 파일을 삭제하고 Manager에 연결된 데이터베이스를 정리합니다:
    # engine-cleanup
  3. 전체 백업 또는 데이터베이스만 백업을 복원합니다:
    • 전체 백업을 복원하려면 다음을 수행합니다:
      # engine-backup --mode=restore --file=file_name --log=log_file_name
    • 설정 파일을 복원하고 데이터베이스 백업을 복원하여 데이터베스만 백업을 복원하려면 다음을 수행합니다:
      # engine-backup --mode=restore --scope=files --scope=db --file=file_name --log=log_file_name
      위의 예시는 Manager 데이터베이스 백업을 복원합니다. 필요한 경우 Data Warehouse 데이터베이스도 복원합니다.
      # engine-backup --mode=restore --scope=dwhdb --file=file_name --log=log_file_name
    완료시 다음과 같은 출력 결과가 표시됩니다:
    You should now run engine-setup.
    Done.
  4. 다음 명령을 실행하고 프롬프트에 따라 방화벽을 다시 설정한 후 ovirt-engine 서비스가 올바르게 설정되어 있는지 확인합니다:
    # engine-setup
결과
engine 데이터베이스 및 Red Hat Virtualization Manager의 설정 파일이 백업 버전에 복원됩니다.

12.1.7. 다른 인증 정보를 사용하여 백업 복원하기

engine-backup 명령을 사용하여 Red Hat Virtualization Manager가 이미 설치 및 설정된 컴퓨터에 백업을 복원할 수 있지만 백업에 있는 데이터 베이스의 인증 정보는 백업이 복원된 컴퓨터에 있는 데이터베이스와 다릅니다. 이는 설치에서 백업을 취하여 백업에서 다른 시스템으로 설치를 복원하고자 하는 경우 유용합니다.

중요

기존 설치를 덮어쓰기하기 위해 백업을 복원할 때 engine-backup 명령을 사용하기 전 engine-cleanup 명령을 실행하여 기존 설치를 정리해야 합니다. engine-cleanup 명령은 engine 데이터베이스만을 정리하고 데이터베이스를 삭제하거나 데이터 베이스를 소유하고 있는 사용자를 삭제하지 않기 때문입니다. 사용자 및 데이터베이스가 이미 존재하고 있기 때문에 새로운 데이터베이스를 생성하거나 데이터베이스 인증 정보를 지정할 필요가 없습니다. 하지만 engine 데이터 베이스 소유자의 인증 정보를 알 수 없는 경우 백업을 복원하기 전 이를 변경해야 합니다.

절차 12.4. 다른 인증 정보를 사용하여 백업 복원하기

  1. Red Hat Virtualization Manager가 설치된 시스템에 로그인합니다.
  2. 다음 명령을 실행하여 프롬프트에 따라 설정 파일을 삭제하고 Manager에 연결된 데이터베이스를 정리합니다:
    # engine-cleanup
  3. 사용자 인증 정보를 알 수 없는 경우 engine 데이터베이스 소유자의 암호를 변경합니다:
    1. postgresql 명령행에 들어갑니다:
      # su postgres
      $ psql
    2. engine 데이터베이스를 소유한 사용자의 암호를 변경합니다:
      postgres=# alter role user_name encrypted password 'new_password';
      필요한 경우 ovirt_engine_dwh 데이터베이스를 소유하는 사용자에 대해 이 명령을 반복 실행합니다.
  4. --change-db-credentials 매개 변수를 사용하여 전체 백업 또는 데이터베이스만 백업을 복구하여 새 데이터베이스의 인증을 전달합니다. Manager에 로컬로 설정된 데이터베이스의 database_locationlocalhost입니다.

    참고

    다음 예에서는 각 데이터 베이스마다 암호를 입력하라는 프롬프트에 따라 암호를 지정하지 않고 각 데이터베이스마다 --*password 옵션을 사용합니다. 이러한 옵션의 명령 자체에 암호를 지정할 수 있지만 암호는 셸 기록에 저장되므로 권장되지 않습니다. 다른 방법으로 각 데이터베이스에 대해 --*passfile=password_file 옵션을 사용하여 인터랙티브 (interactive) 프롬프트없이 engine-backup 도구에 암호를 안전하게 전달할 수 있습니다.
    • 전체 백업을 복원하려면 다음을 수행합니다:
      # engine-backup --mode=restore --file=file_name --log=log_file_name --change-db-credentials --db-host=database_location --db-name=database_name --db-user=engine --db-password
      Data Warehouse도 전체 백업의 일부로 복원하는 경우 추가되는 두 가지 데이터 베이스의 변경된 인증 정보를 포함시켜야 합니다:
      engine-backup --mode=restore --file=file_name --log=log_file_name --change-db-credentials --db-host=database_location --db-name=database_name --db-user=engine --db-password --change-dwh-db-credentials --dwh-db-host=database_location --dwh-db-name=database_name --dwh-db-user=ovirt_engine_history --dwh-db-password
    • 설정 파일을 복원하고 데이터베이스 백업을 복원하여 데이터베스만 백업을 복원하려면 다음을 수행합니다:
      # engine-backup --mode=restore --scope=files --scope=db --file=file_name --log=log_file_name --change-db-credentials --db-host=database_location --db-name=database_name --db-user=engine --db-password
      위의 예시는 Manager 데이터베이스의 백업을 복원합니다.
      # engine-backup --mode=restore --scope=files --scope=dwhdb --file=file_name --log=log_file_name --change-dwh-db-credentials --dwh-db-host=database_location --dwh-db-name=database_name --dwh-db-user=ovirt_engine_history --dwh-db-password
      위의 예시는 Data Warehouse 데이터베이스의 백업을 복원합니다.
    완료시 다음과 같은 출력 결과가 표시됩니다:
    You should now run engine-setup.
    Done.
  5. 다음 명령을 실행하고 프롬프트에 따라 방화벽을 다시 설정한 후 ovirt-engine 서비스가 올바르게 설정되어 있는지 확인합니다:
    # engine-setup

12.1.8. Engine 데이터 베이스를 원격 서버 데이터 베이스로 마이그레이션

Red Hat Virtualization Manager를 처음으로 설정한 후 engine 데이터 베이스를 원격 데이터 베이스 서버로 마이그레이션 할 수 있습니다.
이 작업은 두 가지 절차로 나뉘어져 있습니다. 첫 번째 절차는 원격 PostgreSQL 데이터베이스를 준비하는 것으로 마이그레이션 자체에 대해 필수 구성 요소이며 서버에 Red Hat Enterprise Linux가 설치되어 있고 적절한 서브스크립션을 사용하여 설정 완료되어 있다는 것을 전제로 합니다.
두 번째 절차는 데이터베이스를 마이그레이션하는 것으로 데이터베이스 백업 및 복구를 처리하기 위해 PostgreSQL pg_dumppg_restore 명령을 사용합니다. 이러한 경우 업데이트된 정보로 /etc/ovirt-engine/engine.conf.d/10-setup-database.conf 파일을 편집해야 합니다. 최소한 새로운 데이터 베이스 서버의 위치를 업데이트해야 합니다. 새로운 데이터 베이스의 데이터 베이스 이름, 역할 이름, 암호가 수정된 경우에도 이러한 값이 있는 10-setup-database.conf 파일을 업데이트해야 합니다. 이 절차는 기본 engine 데이터베이스 설정을 사용하여 파일 변경을 최소화합니다.

절차 12.5. Red Hat Virtualization Manager에서 사용할 원격 PostgreSQL 데이터 베이스 준비

  1. 원격 데이터베이스 서버에 로그인하여 PostgreSQL 서버 패키지를 설치합니다:
    # yum install postgresql-server
  2. PostgreSQL 데이터베이스를 초기화하고 postgresql 서비스를 시작합니다. 이러한 서비스가 부팅시 시작되는지 확인합니다:
    # service postgresql initdb
    # service postgresql start
    # chkconfig postgresql on
  3. postgres 사용자로 psql 명령행 인터페이스에 연결합니다:
    # su - postgres
    $ psql
  4. 데이터베이스에서 읽기/쓰기 시 사용할 Manager를 생성합니다. Manager의 기본 사용자 이름은 engine입니다:
    postgres=# create role user_name with login encrypted password 'password';

    참고

    engine 사용자 암호는 /etc/ovirt-engine/engine.conf.d/10-setup-database.conf에 일반 텍스트 형식으로 저장되어 있습니다. 새로운 서버의 역할을 생성할 때 아무 암호나 사용할 수 있지만 다른 암호를 사용할 경우 새로운 암호에 대한 정보를 이 파일에 업데이트해야 합니다.
  5. Red Hat Virtualization 환경에 대한 데이터를 저장할 데이터 베이스를 생성합니다. Manager에서 기본 데이터 베이스 이름 engine이고 기본 사용자 이름도 engine입니다:
    postgres=# create database database_name owner user_name template template0 encoding 'UTF8' lc_collate 'en_US.UTF-8' lc_ctype 'en_US.UTF-8';
  6. md5 클라이언트 인증을 활성화하여 원격으로 데이터베이스에 액세스할 수 있습니다. /var/lib/pgsql/data/pg_hba.conf 파일을 편집하고 다음 행을 파일 아래에 있는 local로 시작하는 행 바로 아래에 추가합니다. 여기서 X.X.X.X는 Manager의 IP 주소로 변경합니다:
    host    database_name    user_name    X.X.X.X/32   md5
  7. 데이터베이스에 TCP/IP 연결을 허용합니다. /var/lib/pgsql/data/postgresql.conf 파일을 편집하고 다음 행을 추가합니다:
    listen_addresses='*'
    위의 예에서는 모든 인터페이스에서의 연결을 수신하도록 postgresql 서비스를 설정하고 있습니다. IP 주소로 인터페이스를 지정할 수 있습니다.
  8. PostgreSQL 데이터베이스 연결에 사용할 기본 포트를 열고 업데이트된 방화벽 규칙을 저장합니다:
    # iptables -I INPUT 5 -p tcp --dport 5432 -j ACCEPT
    # service iptables save
  9. postgresql 서비스를 다시 시작합니다:
    # service postgresql restart
옵션으로 http://www.postgresql.org/docs/8.4/static/ssl-tcp.html#SSL-FILE-USAGE에 있는 지시 사항에 따라 데이터 베이스 보안 연결을 위해 SSL을 설정합니다.

절차 12.6. 데이터베이스 마이그레이션

  1. Red Hat Virtualization Manager 시스템에 로그인하고 ovirt-engine 서비스를 중지하여 engine 백업을 방해하지 않도록 합니다:
    # service ovirt-engine stop
  2. PostgreSQL pg_dump 명령을 사용하여 engine 데이터베이스 백업을 생성합니다:
    # su - postgres -c 'pg_dump -F c engine -f /tmp/engine.dump'
  3. 백업 파일을 새로운 데이터 베이스 서버에 복사합니다. 대상 디렉토리는 postgres 사용자에 대해 쓰기 권한을 허용해야 합니다:
    # scp /tmp/engine.dump root@new.database.server.com:/tmp/engine.dump
  4. 새로운 데이터 베이스 서버에 로그인하고 PostgreSQL pg_restore 명령을 사용하여 데이터베이스를 복원합니다:
    # su - postgres -c 'pg_restore -d engine /tmp/engine.dump'
  5. Manager 서버에 로그인하고 /etc/ovirt-engine/engine.conf.d/10-setup-database.conf 파일을 업데이트한 후 ENGINE_DB_HOSTlocalhost 값을 새로운 데이터 베이스 서버의 IP 주소로 변경합니다. 새로운 데이터 베이스 서버의 engine 이름, 역할 이름, 암호가 다를 경우 이 파일에 이러한 값을 업데이트합니다.
  6. 이제 데이터베이스가 마이그레이션되었습니다. ovirt-engine 서비스를 시작합니다:
    # service ovirt-engine start

12.2. 백업 및 복구 API를 사용하여 가상 머신 백업 및 복구

12.2.1. 백업 및 복원 API

백업 및 복원 API는 전체 또는 파일 수준에서 가상 머신의 백업 및 복원을 실행할 수 있게 하는 기능 모음입니다. API는 라이브 스냅샷 및 REST API와 같이 Red Hat Virtualization의 여러 구성 요소로 결합되어 독립적인 소프트웨어 공급자에 의해 제공되는 백업 소프트웨어가 포함된 가상 머신에 연결할 수 있는 임시 볼륨을 생성하고 작업할 수 있습니다.
지원되는 타사 백업 벤더의 경우 Red Hat Marketplace에 있는 Red Hat Virtualization 에코시스템에서 참조하십시오.

참고

REST API로 작업하는 방법에 대한 보다 자세한 내용은 REST API Guide에 있는 The Backup and Restore API에서 확인하십시오.

12.2.2. 가상 머신 백업

가상 머신을 백업하려면 백업 및 복원 API를 사용합니다. 다음 절차에서는 백업을 위한 가상 머신 및 백업 관리를 위한 소프트웨어가 설치된 가상 머신 이렇게 두 가지 가상 머신이 있음을 전제로 합니다.

절차 12.7. 가상 머신 백업

  1. REST API를 사용하여 백업할 가상 머신의 스냅샷을 생성합니다:
    POST /api/vms/11111111-1111-1111-1111-111111111111/snapshots/ HTTP/1.1
    Accept: application/xml
    Content-type: application/xml
    
    <snapshot>
        <description>BACKUP</description>
    </snapshot>

    참고

    가상 머신의 스냅샷 생성 시 스냅샷이 생성되는 시점에 가상 버신의 설정 데이터 복사본은 스냅샷 아래의 initialization에 있는 configuration 속성의 data 속성에 저장됩니다.

    중요

    공유 가능으로 표시된 디스크나 직접 LUN 디스크에 기반하는 디스크의 스냅샷을 생성할 수 없습니다.
  2. 스냅샷 아래의 데이터 속성에서 가상 머신의 설정 데이터를 검색합니다:
    GET /api/vms/11111111-1111-1111-1111-111111111111/snapshots/11111111-1111-1111-1111-111111111111 HTTP/1.1
    Accept: application/xml
    Content-type: application/xml
  3. 스냅샷의 디스크 ID 및 스냅샷 ID를 확인합니다:
    GET /api/vms/11111111-1111-1111-1111-111111111111/snapshots/11111111-1111-1111-1111-111111111111/disks HTTP/1.1
    Accept: application/xml
    Content-type: application/xml
  4. 백업 가상 머신에 스냅샷을 첨부하고 디스크를 활성화합니다:
    POST /api/vms/22222222-2222-2222-2222-222222222222/disks/ HTTP/1.1
    Accept: application/xml
    Content-type: application/xml
    
    <disk id="11111111-1111-1111-1111-111111111111">
        <snapshot id="11111111-1111-1111-1111-111111111111"/>
        <active>true</active>
    </disk>
  5. 백업 가상 머신에 있는 백업 소프트웨어를 사용하여 스냅샷 디스크에 있는 데이터를 백업합니다.
  6. 백업 가상 머신에서 스냅샷 디스크를 분리합니다:
    DELETE /api/vms/22222222-2222-2222-2222-222222222222/disks/11111111-1111-1111-1111-111111111111 HTTP/1.1
    Accept: application/xml
    Content-type: application/xml
    
    <action>
        <detach>true</detach>
    </action>
  7. 옵션으로 스냅샷을 삭제합니다:
    DELETE /api/vms/11111111-1111-1111-1111-111111111111/snapshots/11111111-1111-1111-1111-111111111111 HTTP/1.1
    Accept: application/xml
    Content-type: application/xml
다른 가상 머신에 설치된 백업 소프트웨어를 사용하여 일정 시점의 가상 머신 상태가 백업되었습니다.

12.2.3. 가상 머신 복구

백업 및 복구 API를 사용하여 백업한 가상 머신을 복구합니다. 이러한 절차에서는 이전 백업 관리에 사용된 소프트웨어가 설치된 백업 가상 머신이 준비되어 있음을 전제로 합니다.

절차 12.8. 가상 머신 복구

  1. 관리 포털에서 백업을 복구하기 위한 플로팅 디스크를 생성합니다. 플로팅 디스크를 생성하는 방법에 대한 보다 자세한 내용은 10.6.1절. “플로팅 가상 디스크 생성”에서 참조하십시오.
  2. 백업 가상 머신에 디스크를 연결합니다:
    POST /api/vms/22222222-2222-2222-2222-222222222222/disks/ HTTP/1.1
    Accept: application/xml
    Content-type: application/xml
    
    <disk id="11111111-1111-1111-1111-111111111111">
    </disk>
  3. 백업 소프트웨어를 사용하여 디스크에 백업을 복원합니다.
  4. 디스크를 백업 가상 머신에서 분리합니다:
    DELETE /api/vms/22222222-2222-2222-2222-222222222222/disks/11111111-1111-1111-1111-111111111111 HTTP/1.1
    Accept: application/xml
    Content-type: application/xml
    
    <action>
        <detach>true</detach>
    </action>
  5. 복원된 가상 머신의 설정 데이터를 사용하여 새 가상 머신을 생성합니다:
    POST /api/vms/ HTTP/1.1
    Accept: application/xml
    Content-type: application/xml
    
    <vm>
        <cluster>
            <name>cluster_name</name>
        </cluster>
        <name>NAME</name>
        ...
    </vm>
  6. 새 가상 머신에 디스크를 연결합니다:
    POST /api/vms/33333333-3333-3333-3333-333333333333/disks/ HTTP/1.1
    Accept: application/xml
    Content-type: application/xml
    
    <disk id="11111111-1111-1111-1111-111111111111">
    </disk>
백업 및 복원 API를 사용하여 생성된 백업을 사용하여 가상 머신이 복원되었습니다.

13장. Red Hat Satellite을 사용한 에라타 관리

Red Hat Virtualization 설정 시 Red Hat Virtualization Manager의 Red Hat Satellite에서 에라타를 볼 수 있습니다. 이를 통해 Red Hat Satellite 공급자에 연결된 호스트, 가상 머신, 그리고 Manager를 위해 관리자가 사용 가능한 에라타와 그 중요성에 대한 업데이트를 받을 수 있습니다. 해당 업데이트를 적용하기 위해 관리자가 대상 호스트, 가상 머신, 또는 Manager에 업데이트를 실행합니다. Red Hat Satellite에 대한 보다 자세한 내용은 Red Hat Satellite User Guide에서 참조하십시오.
Red Hat Virtualization 4.0은 Red Hat Satellite 6.1을 사용한 에라타 관리를 지원합니다.

중요

Satellite 서버에서 Manager, 호스트, 그리고 가상 머신을 FQDN로 식별합니다. 이를 통해 외부 컨텐츠 호스트 ID가 Red Hat Virtualization에서 유지되지 않아도 됩니다.
Manager, 호스트, 그리고 가상 머신 관리에 사용되는 Satellite 계정은 관리자 권한이 있고 기본 조직이 설정되어야 합니다.

절차 13.1. Red Hat Virtualization 에라타 설정

Manager, 호스트, 그리고 가상 머신을 Red Hat Satellite 공급자와 연결하기 위해 우선 Manager가 공급자에 연결되어야 합니다. 그리고 나서 호스트가 같은 공급자에 연결 및 설정됩니다. 마지막으로 가상 머신이 같은 공급자에 연결 및 설정됩니다.
  1. Satellite 서버를 외부 공급자로 추가해서 Manager를 연결합니다. 보다 자세한 내용은 11.2.1절. “호스트 프로비저닝을 위한 Red Hat Satellite 인스턴스 추가”에서 참조하십시오.

    참고

    Manager가 해당 Satellite 서버에 컨텐츠 호스트로 등록되어 있고 katello-agent 패키지가 설치되어야 합니다.
    호스트 등록 설정 방법에 대한 보다 자세한 내용은 Red Hat Satellite User Guide에 있는 Configuring a Host for Registration에서 참조하고 호스트 등록 및 katello-agent 패키지 설치에 대한 보다 자세한 내용은 Red Hat Satellite User Guide에 있는 Registration에서 참조하시기 바랍니다.
  2. 옵션으로 호스트를 설정해서 사용 가능한 에라타를 표시합니다. 보다 자세한 내용은 6.5.3절. “호스트에 대한 Satellite 에라타 관리 설정”에서 참조하십시오.
  3. 옵션으로 가상 머신을 설정해서 사용 가능한 에라타를 표시합니다. 가상 머신을 설정하기 전에 먼저 연결된 호스트를 설정해야 합니다. 보다 자세한 내용은 Virtual Machine Management Guide에 있는 Configuring Red Hat Satellite Errata Management for a Virtual Machine을 참조하십시오.

절차 13.2. Red Hat Virtualization Manager 에라타 표시

  1. 트리 창에서 에라타 항목을 선택합니다.
  2. 보안, 버그, 또는 기능 강화 확인란을 선택하여 해당 에라타 유형만 표시합니다.
호스트에 사용 가능한 에라타를 표시하는 방법에 대한 자세한 정보는 6.5.13절. “호스트 에라타 표시”를 참조하고 가상 머신에 사용 가능한 에라타를 표시하는 방법에 대한 자세한 정보는 Virtual Machine Management Guide에 있는 Viewing Red Hat Satellite Errata for a Virtual Machine에서 참조하십시오.

14장. 사용자 및 역할

14.1. 사용자에 대한 소개

Red Hat Virtualization은 로컬 도메인 및 외부 도메인의 두 가지 유형의 사용자 도메인이 있습니다. Manager 설치 과정에서 internal 도메인이라는 기본 로컬 도메인과 기본 사용자 admin이 생성됩니다.
ovirt-aaa-jdbc-tool을 사용하여 internal 도메인에 추가 사용자를 생성합니다. 로컬 도메인에 생성된 사용자 계정은 로컬 사용자라고 부릅니다. 또한 Red Hat Directory Server, Active Directory, OpenLDAP 등의 외부 디렉토리 서버 및 지원되는 다른 옵션을 사용자의 Red Hat Virtualization 환경에 연결해서 외부 도메인으로 사용할 수 있습니다. 외부 도메인에 생성된 사용자 계정은 디렉토리 사용자라고 부릅니다.
로컬 사용자와 디렉토리 사용자 모두 관리 포털에서 적절한 역할 및 권한이 부여되어야 해당 환경에서 동작할 수 있습니다. 사용자 역할은 최종 사용자와 관리자의 두 가지 주요 유형이 있습니다. 최종 사용자 역할은 사용자 포털에서 가상 리소스를 사용 및 관리합니다. 관리자 역할은 관리 포털에서 시스템 인프라를 관리합니다. 가상 머신 및 호스트와 같은 개별 리소스 또는 클러스터 및 데이터 센터와 같은 개체 계층에 대해 역할을 할당할 수 있습니다.

14.2. 디렉토리 서버 소개

설치 과정에서 Red Hat Virtualization Manager는 internal 도메인에 admin 사용자를 생성합니다. 이 사용자는 admin@internal이라고 부르기도 합니다. 이 계정은 초기 환경 설정 시 및 문제 해결 시 사용합니다. 외부 디렉토리 서버를 연결하고, 디렉토리 서버를 추가하고, 적절한 역할 및 권한을 할당하고 나서 admin@internal 사용자가 필요하지 않으면 비활성화합니다. 지원되는 디렉토리 서버는 다음과 같습니다:
  • 389ds
  • 389ds RFC-2307 스키마
  • Active Directory
  • FreeIPA
  • Red Hat Identity Management (IdM)
  • Novell eDirectory RFC-2307 스키마
  • OpenLDAP RFC-2307 스키마
  • OpenLDAP Standard 스키마
  • Oracle Unified Directory RFC-2307 스키마
  • RFC-2307 스키마 (일반)
  • Red Hat Directory Server (RHDS)
  • Red Hat Directory Server (RHDS) RFC-2307 스키마
  • iPlanet