2장. 독립 실행형 관리자 로컬 데이터베이스 환경 업그레이드

2.1. Red Hat Virtualization 4.3에서 4.4로 업그레이드

환경을 4.3에서 4.4로 업그레이드하려면 다음 단계를 수행해야 합니다.

업그레이드 고려 사항

  • 업그레이드를 계획할 때는 Red Hat Virtualization 4.4 업그레이드 고려 사항 및 알려진 문제를 참조하십시오.
  • OVN(Open Virtual Network) 및 Open vSwitch(OvS) 2.11에서 OVN 2021 및 OvS 2.15로 업그레이드하는 경우 다음 조건이 충족되는 한 사용자에게 프로세스가 투명해집니다.

    • Manager가 먼저 업그레이드되었습니다.
    • OVN/OvS 버전 2.11이 있는 호스트 간에 작동할 것으로 예상되는 모든 OVN 네트워크에 대해 호스트 업그레이드 전에 ovirt-provider-ovn 보안 그룹을 비활성화해야 합니다.
    • 호스트는 OVN 버전 2021 이상 및 OvS 버전 2.15와 일치하도록 업그레이드됩니다. OVN을 올바르게 재구성하고 인증서를 새로 고칠 수 있도록 관리 포털에서 이 단계를 완료해야 합니다.
    • 업그레이드 후 호스트가 재부팅됩니다.
참고

provider 및 OVN이 호스트에 성공적으로 구성되었는지 확인하려면 호스트의 General (일반) 탭에서 OVN 구성된 플래그를 확인합니다. OVN ConfiguredNo 로 설정된 경우 ManagementRefresh Capabilities 를 클릭합니다. 이 설정은 REST API에서도 사용할 수 있습니다. 기능을 새로 고치는 경우 Manager 4.4 이상에서 호스트를 다시 설치하여 OVN을 구성할 수 있습니다.

2.1.1. 사전 요구 사항

  • 필요한 가상 머신 다운타임을 계획합니다. 업그레이드 중에 클러스터 호환성 버전을 업데이트한 후 재부팅하면 새 하드웨어 구성이 각 가상 머신에 자동으로 적용됩니다. 구성 변경 사항을 적용하려면 실행 중이거나 중단된 가상 머신을 재부팅해야 합니다.
  • 환경이 Red Hat Virtualization 4.4의 요구 사항을 충족하는지 확인하십시오. 사전 요구 사항의 전체 목록은 계획 및 사전 요구 사항 가이드를 참조하십시오.
  • Red Hat Virtualization Manager를 업그레이드할 때는 기존 호스트 중 하나를 사용하는 것이 좋습니다. 새 호스트를 사용하려면 업그레이드 절차를 시작하기 전에 새 호스트에 고유 이름을 할당하고 기존 클러스터에 추가해야 합니다.

2.1.2. 환경 분석

업데이트를 수행하고 문제를 해결하기 전에 로그 수집 분석 도구 및 이미지 장애 도구를 실행하는 것이 좋습니다. 이러한 툴은 업데이트를 수행하지 못하도록 하는 알려진 문제에 대해 환경을 분석하고 이러한 문제를 해결하기 위한 권장 사항을 제공합니다.

2.1.3. 로그 수집 분석 도구

업데이트를 수행하기 전에 로그 수집 분석 도구를 실행하고 문제를 해결합니다. 이 툴은 업데이트를 수행할 수 없는 알려진 문제에 대해 사용자 환경을 분석하고 이를 해결하기 위한 권장 사항을 제공합니다. 툴은 시스템에 대한 자세한 정보를 수집하여 이를 HTML 파일로 표시합니다.

사전 요구 사항

  • Manager에 올바른 리포지토리가 활성화되어 있는지 확인합니다. 필수 리포지토리 목록은 Red Hat Virtualization 4.3용 Red Hat Virtualization Manager 리포지토리 활성화 를 참조하십시오.

    Red Hat Virtualization Manager 업데이트는 Content Delivery Network를 통해 릴리스됩니다.

절차

  1. Manager 시스템에 Log Collection Analysis 툴을 설치합니다.

    # yum install rhv-log-collector-analyzer
  2. 도구를 실행합니다.

    # rhv-log-collector-analyzer --live

    자세한 보고서가 표시됩니다.

    기본적으로 보고서는 analyzer_report.html 이라는 파일에 저장됩니다.

    파일을 특정 위치에 저장하려면 --html 플래그를 사용하고 위치를 지정합니다.

    # rhv-log-collector-analyzer --live --html=/directory/filename.html
  3. ELinks 텍스트 모드 웹 브라우저를 사용하여 터미널 내에서 Analyzer 보고서를 읽을 수 있습니다. ELinks 브라우저를 설치하려면 다음을 수행합니다.

    # yum install -y elinks
  4. ELinks를 시작하고 Analyzer_report.html 을 엽니다.

    # elinks /home/user1/analyzer_report.html

    보고서를 탐색하려면 ELinks에서 다음 명령을 사용하십시오.

    • 스크롤할 삽입
    • 아래로 스크롤 삭제
    • PageUp
    • PageDown 을 페이지 아래로
    • 왼쪽 Bracket 에서 왼쪽으로 스크롤
    • 오른쪽 스크롤 브래킷

2.1.3.1. 이미지 불일치 툴을 사용하여 스냅샷 상태 모니터링

RHV Image Discrepancies 툴은 스토리지 도메인 및 RHV 데이터베이스의 이미지 데이터를 분석합니다. 볼륨 및 볼륨 속성에 불일치가 발견되면 경고하지만 이러한 불일치는 수정하지 않습니다. 다음과 같은 다양한 시나리오에서 이 도구를 사용하십시오.

  • 버전을 업그레이드하기 전에는 손상된 볼륨이나 체인을 새 버전으로 전환하지 않도록 합니다.
  • 실패한 스토리지 작업에 따라 잘못된 상태에서 볼륨 또는 속성을 감지합니다.
  • RHV 데이터베이스 또는 스토리지를 백업에서 복원한 후
  • 문제가 발생하기 전에 정기적으로 잠재적인 문제를 감지합니다.
  • 스냅샷 또는 실시간 스토리지 마이그레이션 관련 문제를 분석하고 이러한 유형의 문제를 해결한 후 시스템 상태를 확인합니다.

사전 요구 사항

  • 필수 버전: 이 툴은 rhv-log-collector-analyzer-0.2.15-0.el7ev 를 사용하는 RHV 버전 4.3.8에서 도입되었습니다.
  • 데이터 수집은 서로 다른 위치에서 동시에 실행되며 원자가 아니므로 스토리지 도메인을 수정할 수 있는 환경의 모든 활동을 중지합니다. 즉, 스냅샷을 생성하거나 제거하거나 디스크를 편집, 이동, 생성 또는 제거하지 마십시오. 그렇지 않으면 불일치에 대한 잘못된 검색이 발생할 수 있습니다. 가상 머신은 프로세스 중에 정상적으로 실행 중일 수 있습니다.

절차

  1. 툴을 실행하려면 RHV Manager에 다음 명령을 입력합니다.

    # rhv-image-discrepancies
  2. 툴이 불일치를 발견하면 다시 실행하여 결과를 확인하고, 특히 도구를 실행하는 동안 일부 작업이 수행되었을 가능성이 있는 경우 결과를 다시 실행합니다.
참고

이 툴은 모든 Export 및 ISO 스토리지 도메인을 포함하며 이를 위해 불일치를 보고할 수 있습니다. 이 스토리지 도메인에는 RHV 데이터베이스의 이미지에 대한 항목이 없으므로 무시해도 됩니다.

결과 이해

이 툴은 다음을 보고합니다.

  • 스토리지에 표시되지만 데이터베이스에 표시되지 않는 볼륨이 있는 경우 데이터베이스에 표시되지만 스토리지에는 표시되지 않습니다.
  • 일부 볼륨 속성이 스토리지와 데이터베이스 간에 다른 경우입니다.

샘플 출력:

 Checking storage domain c277ad93-0973-43d9-a0ca-22199bc8e801
    Looking for missing images...
    No missing images found
    Checking discrepancies between SD/DB attributes...
    image ef325650-4b39-43cf-9e00-62b9f7659020 has a different attribute capacity on storage(2696984576) and on DB(2696986624)
    image 852613ce-79ee-4adc-a56a-ea650dcb4cfa has a different attribute capacity on storage(5424252928) and on DB(5424254976)

 Checking storage domain c64637b4-f0e8-408c-b8af-6a52946113e2
    Looking for missing images...
    No missing images found
    Checking discrepancies between SD/DB attributes...
    No discrepancies found

Manager를 4.3의 최신 버전으로 업데이트할 수 있습니다.

2.1.4. Red Hat Virtualization Manager 업데이트

사전 요구 사항

  • Manager에 올바른 리포지토리가 활성화되어 있는지 확인합니다. 필수 리포지토리 목록은 Red Hat Virtualization 4.3용 Red Hat Virtualization Manager 리포지토리 활성화 를 참조하십시오.

    Red Hat Virtualization Manager 업데이트는 Content Delivery Network를 통해 릴리스됩니다.

절차

  1. Manager 시스템에서 업데이트된 패키지를 사용할 수 있는지 확인합니다.

    # engine-upgrade-check
  2. 설정 패키지를 업데이트합니다.

    # yum update ovirt\*setup\* rh\*vm-setup-plugins
  3. Red Hat Virtualization Manager를 engine-setup 스크립트로 업데이트합니다. engine-setup 스크립트는 일부 구성 질문에 대한 프롬프트를 표시한 다음 ovirt-engine 서비스를 중지하고, 업데이트된 패키지를 다운로드하여 설치하고, 업데이트된 패키지를 백업 및 설치하고, 데이터베이스를 백업 및 업데이트하고, 설치 후 구성을 수행한 다음 ovirt-engine 서비스를 시작합니다.

    # engine-setup

    스크립트가 성공적으로 완료되면 다음 메시지가 표시됩니다.

    Execution of setup completed successfully
    참고

    engine-setup 스크립트는 Red Hat Virtualization Manager 설치 프로세스 중에도 사용되며 제공된 구성 값을 저장합니다. 업데이트 중에 구성을 미리 볼 때 저장된 값이 표시되고, 설치 후 engine-config 를 사용하여 구성을 업데이트하는 데 사용된 경우 최신 값이 아닐 수 있습니다. 예를 들어, engine-config 가 설치 후 SANWipeAfterDeletetrue 로 업데이트하는 데 사용된 경우 engine-setup 은 구성 프리뷰에서 "Default SAN wipe: False"를 출력합니다. 그러나 업데이트된 값은 engine-setup 으로 덮어쓰지 않습니다.

    중요

    업데이트 프로세스에는 다소 시간이 걸릴 수 있습니다. 프로세스가 완료되기 전에 중지하지 마십시오.

  4. 기본 운영 체제 및 Manager에 설치된 선택적 패키지를 업데이트합니다.

    # yum update --nobest
    중요

    업데이트 중에 필요한 Ansible 패키지 충돌이 발생하면 내 RHV 관리자 (ansible conflict)에서 yum 업데이트를 수행할 수 없습니다.

    중요

    커널 패키지가 업데이트된 경우 시스템을 재부팅하여 업데이트를 완료합니다.

이제 Manager를 4.4로 업그레이드할 수 있습니다.

2.1.5. Red Hat Virtualization Manager를 4.3에서 4.4로 업그레이드

Red Hat Virtualization Manager 4.4는 Red Hat Enterprise Linux 8.2에서 8.6 버전에서만 지원됩니다. RHV Manager 4.3을 실행하는 데 사용하는 것과 동일한 물리적 시스템을 사용하는 경우에도 Red Hat Enterprise Linux 8.6 및 Red Hat Virtualization Manager 4.4를 새로 설치해야 합니다.

업그레이드 프로세스에서는 Red Hat Virtualization Manager 4.3 백업 파일을 Red Hat Virtualization Manager 4.4 시스템에 복원해야 합니다.

사전 요구 사항

  • 환경의 모든 데이터 센터와 클러스터는 클러스터 호환성 수준을 버전 4.2 또는 4.3으로 설정해야 합니다.
  • 환경의 모든 가상 머신은 클러스터 호환성 수준을 버전 4.3으로 설정해야 합니다.
  • 외부 CA를 사용하여 HTTPS 인증서에 서명하는 경우 관리 가이드에서 Red Hat Virtualization Manager CA 인증서 교체 단계를 따르십시오. 백업 및 복원에는 타사 인증서가 포함되어 있으므로 업그레이드 후 관리 포털에 로그인할 수 있어야 합니다. virt-viewer의 외부 메뉴가 작동하도록 모든 클라이언트의 시스템 전체 신뢰 저장소에 CA 인증서가 추가되었는지 확인합니다. 자세한 내용은 BZ#1313379 에서 참조하십시오.
참고

Manager를 업그레이드하는 동안 연결된 호스트와 가상 머신이 계속 작동할 수 있습니다.

절차

  1. Manager 시스템에 로그인합니다.
  2. Red Hat Virtualization Manager 4.3 환경을 백업합니다.

    # engine-backup --scope=all --mode=backup --file=backup.bck --log=backuplog.log
  3. 백업 파일을 RHV 환경 외부의 스토리지 장치에 복사합니다.
  4. Install Red Hat Enterprise Linux 8.6. 자세한 내용은 표준 RHEL 설치 수행을 참조하십시오.
  5. yum installECDHE 명령 실행을 포함하여 Red Hat Virtualization Manager 4.4를 설치하는 단계를 완료하되 engine-setup 을 실행하지 마십시오. 자세한 내용은 Installing Red Hat Virtualization 가이드 중 하나를 참조하십시오.
  6. 백업 파일을 Red Hat Virtualization Manager 4.4 시스템에 복사하여 복원합니다.

    # engine-backup --mode=restore --file=backup.bck --provision-all-databases
    참고

    포함된 백업이 추가 데이터베이스 사용자에게 부여하면 이 명령은 임의의 암호를 가진 추가 사용자를 생성합니다. 추가 사용자가 복원된 시스템에 액세스해야 하는 경우 이러한 암호를 수동으로 변경해야 합니다. https://access.redhat.com/articles/2686731 을 참조하십시오.

  7. Manager에 올바른 리포지토리가 활성화되어 있는지 확인합니다. 필수 리포지토리 목록은 Red Hat Virtualization 4.4용 Red Hat Virtualization Manager 리포지토리 활성화 를 참조하십시오.

    Red Hat Virtualization Manager 업데이트는 Content Delivery Network를 통해 릴리스됩니다.

  8. Red Hat Virtualization Manager 4.3 시스템에 설치된 선택적 확장 패키지를 설치합니다.

    # yum install ovirt-engine-extension-aaa-ldap ovirt-engine-extension-aaa-misc
    참고

    ovirt-engine-extension-aaa-ldap 는 더 이상 사용되지 않습니다. 새 설치의 경우 Red Hat Single Sign On을 사용하십시오. 자세한 내용은 관리 가이드에서 Red Hat Single Sign-On 설치 및 구성 을 참조하십시오.

    참고

    이러한 패키지 확장에 대한 구성은 백업 및 복원 프로세스의 일부로 마이그레이션되지 않으므로 수동으로 다시 적용해야 합니다.

  9. engine-setup 명령을 실행하여 Manager를 설정합니다.

    # engine-setup
  10. Red Hat Virtualization Manager 4.4에 다른 머신이 사용되는 경우 Red Hat Virtualization Manager 4.3 머신을 폐기합니다. 두 개의 서로 다른 Manager가 동일한 호스트 또는 스토리지를 관리해서는 안 됩니다.
  11. engine-setup 을 실행하여 Manager를 설정합니다.

    # engine-setup

이제 Red Hat Virtualization Manager 4.4가 설치되어 있고 클러스터 호환성 버전이 4.2 또는 4.3으로 설정되어 있으며, 이는 기존 클러스터 호환성 버전입니다. 이제 환경의 호스트를 RHV 4.4로 업그레이드해야 합니다. 이 후에는 클러스터 호환성 버전을 4.4로 변경할 수 있습니다.

이제 호스트를 업데이트할 수 있습니다.

2.1.6. RHV 4.3에서 4.4로 호스트 및 가상 머신 마이그레이션

Red Hat Virtualization 4.3에서 4.4로 호스트 및 가상 머신을 마이그레이션할 수 있으므로 해당 환경의 가상 머신 다운 타임을 최소화할 수 있습니다.

이 프로세스에서는 해당 호스트를 RHV 4.4로 업그레이드할 수 있도록 한 호스트에서 모든 가상 머신을 마이그레이션해야 합니다. 업그레이드 후 호스트를 Manager에 다시 연결할 수 있습니다.

주의

호스트의 운영 체제를 설치하거나 다시 설치할 때 Red Hat은 먼저 호스트에 연결된 기존 비OS 스토리지를 분리하여 이러한 디스크를 실수로 초기화하지 않도록 하는 것이 좋습니다.

참고

CPU-passthrough 가상 머신이 RHV 4.3에서 RHV 4.4로 제대로 마이그레이션되지 않을 수 있습니다.

RHV 4.3 및 RHV 4.4는 각각 RHEL 7 및 RHEL 8을 기반으로 하며, 여기에는 다른 CPU 플래그와 마이크로 코드가 있는 커널 버전이 각각 다릅니다. 이로 인해 CPU 패스스루 가상 머신 마이그레이션에 문제가 발생할 수 있습니다.

사전 요구 사항

  • RHV 4.4의 호스트에는 Red Hat Enterprise Linux 8.2 ~ 8.6이 필요합니다. RHV 4.3용 호스트를 실행하는 데 사용하는 것과 동일한 물리적 시스템을 사용하는 경우에도 Red Hat Enterprise Linux 8.6 또는 Red Hat Virtualization Host 4.4를 새로 설치해야 합니다.
  • Red Hat Virtualization Manager 4.4가 설치되어 실행되고 있습니다.
  • 호스트가 속한 데이터 센터 및 클러스터의 호환성 수준이 4.2 또는 4.3으로 설정됩니다. 이 환경의 모든 데이터 센터와 클러스터는 절차를 시작하기 전에 버전 4.2 또는 4.3으로 클러스터 호환성 수준을 설정해야 합니다.

절차

  1. 호스트를 선택하여 해당 호스트의 가상 머신을 동일한 클러스터의 다른 호스트로 업그레이드하고 마이그레이션합니다. 실시간 마이그레이션을 사용하여 가상 머신 다운 타임을 최소화할 수 있습니다. 자세한 내용은 가상 머신 관리 가이드의 호스트 간 가상 머신 마이그레이션 을 참조하십시오.
  2. 호스트를 유지 관리 모드로 설정하고 Manager에서 호스트를 제거합니다. 자세한 내용은 관리 가이드에서 호스트 제거를 참조하십시오.
  3. Red Hat Enterprise Linux 8.6 또는 RHVH 4.4를 설치합니다. 자세한 내용은 Installing Red Hat Virtualization 가이드 중 하나에 있는 Red Hat Virtualization 호스트 설치를 참조하십시오.
  4. 적절한 패키지를 설치하여 RHV 4.4에 대한 호스트를 활성화합니다. 자세한 내용은 Installing Red Hat Virtualization 가이드 중 하나에 있는 Red Hat Virtualization 호스트 설치를 참조하십시오.
  5. 이 호스트를 Manager에 추가하여 동일한 클러스터에 할당합니다. 이제 가상 머신을 이 호스트로 마이그레이션할 수 있습니다. 자세한 내용은 Red Hat Virtualization 설치 가이드 중 하나에 있는 Manager에 표준 호스트 추가를 참조하십시오.

모두 Red Hat Virtualization 4.4를 실행할 때까지 동일한 클러스터에 있는 나머지 호스트에 대한 가상 머신을 마이그레이션하고 호스트를 업그레이드하는 단계를 반복합니다.

2.1.7. 로컬 스토리지를 유지하면서 RHVH 업그레이드

로컬 스토리지가 다른 스토리지 도메인과 공유되지 않기 때문에 로컬 스토리지가 다른 클러스터의 호스트로 가상 머신을 마이그레이션할 수 없습니다. 로컬 스토리지 도메인이 있는 RHVH 4.3 호스트를 업그레이드하려면 로컬 스토리지를 유지하면서 호스트를 다시 설치하고 4.4 환경에서 새 로컬 스토리지 도메인을 생성한 다음 이전 로컬 스토리지를 새 도메인으로 가져옵니다.

사전 요구 사항

  • Red Hat Virtualization Manager 4.4가 설치되어 실행되고 있습니다.
  • 호스트가 속한 데이터 센터 및 클러스터의 호환성 수준이 4.2 또는 4.3으로 설정됩니다.

절차

  1. 이 프로세스를 시작하기 전에 RHVH 4.3 호스트의 로컬 스토리지의 로컬 스토리지가 유지 관리 모드에 있는지 확인합니다. 다음 단계를 완료하십시오.

    1. 데이터 센터 탭을 엽니다.
    2. 세부 정보 창에서 스토리지 탭을 클릭하고 결과 목록에서 스토리지 도메인을 선택합니다.
    3. 유지 관리를 클릭합니다.
  2. 설치 가이드에 설명된 대로 Red Hat Virtualization Host 를 다시 설치하십시오.

    중요

    설치 대상 화면에서 RHVH를 설치할 장치를 선택할 때 가상 시스템을 저장하는 장치를 선택하지 마십시오. 운영 체제를 설치해야 하는 장치만 선택합니다.

    Kickstart를 사용하여 호스트를 설치하는 경우, Kickstart 파일에 다음을 추가하고 'device' 를 관련 장치로 교체하여 가상 시스템이 포함된 장치를 보존해야 합니다.

    # clearpart --all --drives=device

    Kickstart 사용에 대한 자세한 내용은 Red Hat Enterprise Linux 8의 Kickstart 참조 에서 고급 RHEL 설치 수행을 참조하십시오.

  3. 다시 설치된 호스트에서 이전 환경을 복구할 디렉토리(예: /data )를 만듭니다.

    # mkdir /data
  4. 새 디렉터리에 이전 로컬 스토리지를 마운트합니다. 예제에서 /dev/sdX1 은 로컬 스토리지입니다.

    # mount /dev/sdX1 /data
  5. 새 디렉터리에 대해 다음 권한을 설정합니다.

    # chown -R 36:36 /data
    # chmod -R 0755 /data
  6. 또한 서버를 재부팅해야 하는 경우 /etc/fstab 를 통해 로컬 스토리지를 자동으로 마운트하는 것이 좋습니다.

    # blkid | grep -i sdX1
    /dev/sdX1: UUID="a81a6879-3764-48d0-8b21-2898c318ef7c" TYPE="ext4"
    # vi /etc/fstab
    UUID="a81a6879-3764-48d0-8b21-2898c318ef7c" /data    ext4    defaults     0       0
  7. 관리 포털에서 데이터 센터를 생성하고 Storage Type 드롭다운 메뉴에서 Local 을 선택합니다.
  8. 새 데이터 센터에서 클러스터를 구성합니다. 자세한 내용은 관리 가이드에서 새 클러스터 생성 을 참조하십시오.
  9. Manager에 호스트를 추가합니다. 자세한 내용은 Red Hat Virtualization 설치 가이드 중 하나에서 Red Hat Virtualization Manager에 표준 호스트 추가를 참조하십시오.
  10. 호스트에서 초기 로컬 스토리지 도메인을 생성하는 데 사용할 새 디렉터리를 생성합니다. 예를 들어 다음과 같습니다.

    # mkdir -p /localfs
    # chown 36:36 /localfs
    # chmod -R 0755 /localfs
  11. 관리 포털에서 스토리지 탭을 열고 새 도메인을 클릭하여 새 로컬 스토리지 도메인을 생성합니다.
  12. name을 localfs 로 설정하고 경로를 /localfs 로 설정합니다.
  13. 로컬 스토리지가 활성화되면 도메인 가져오기 를 클릭하고 도메인 세부 정보를 설정합니다. 예를 들어 Data 를 이름으로, Host의 Local on Host 를 스토리지 유형으로 정의하고 /data 를 경로로 정의합니다.
  14. OK (확인)를 클릭하여 스토리지 도메인이 이미 데이터 센터에 연결되어 있음을 알리는 메시지를 확인합니다.
  15. 새 스토리지 도메인을 활성화합니다.

    1. 데이터 센터 탭을 엽니다.
    2. 세부 정보 창에서 스토리지 탭을 클릭하고 결과 목록에서 새 데이터 스토리지 도메인을 선택합니다.
    3. 활성화 를 클릭합니다.
  16. 새 스토리지 도메인이 활성화되면 가상 머신 및 해당 디스크를 가져옵니다.

    1. 스토리지 탭에서 데이터를 선택합니다.
    2. 세부 정보 창에서 VM Import 탭을 선택하고 가상 머신을 선택하고 가져오기 를 클릭합니다. 자세한 내용은 가상 머신 관리 가이드의 데이터 도메인에서 가상 머신 가져오기 를 참조하십시오.
  17. 모든 가상 머신을 성공적으로 가져오고 제대로 작동하는지 확인한 후에는 localfs 를 유지 관리 모드로 이동할 수 있습니다.
  18. 스토리지 탭을 클릭하고 결과 목록에서 localfs 를 선택합니다.

    1. 세부 정보 창에서 데이터 센터 탭을 클릭합니다.
    2. 유지 관리를 클릭한 다음 OK 를 클릭하여 스토리지 도메인을 유지 관리 모드로 이동합니다.
    3. 분리 를 클릭합니다. Detach Storage 확인 창이 열립니다.
    4. OK를 클릭합니다.

이제 호스트를 버전 4.4로 업그레이드하고 새 로컬 스토리지 도메인을 생성했으며 4.3 스토리지 도메인과 해당 가상 머신을 가져왔습니다.

2.1.8. Gluster 스토리지를 유지하면서 RHVH 업그레이드

스토리지로 Gluster를 사용하는 환경은 Gluster 스토리지를 백업하고 RHVH 업그레이드 후 복원할 수 있습니다. 업그레이드에 필요한 시간을 단축하기 위해 Gluster 스토리지를 사용하여 모든 가상 머신에 워크로드를 최대한 짧게 유지하십시오. 쓰기 집약적인 워크로드가 많은 경우 복원에 더 많은 시간을 기대할 수 있습니다.

참고

GlusterFS 스토리지는 더 이상 사용되지 않으며 향후 릴리스에서 더 이상 지원되지 않습니다.

사전 요구 사항

  • 스토리지 도메인에 지역 복제 일정이 있는 경우 업그레이드 충돌을 방지하기 위해 해당 일정을 제거합니다.
  • 현재 실행 중인 지역 복제 동기화가 없습니다.
  • 새로운 RHVH 4.4 Manager 배포를 위한 새 볼륨을 생성하려면 호스트 3개에 추가 디스크 공간이 필요합니다.
  • 이 환경의 모든 데이터 센터와 클러스터는 절차를 시작하기 전에 클러스터 호환성 수준이 4.3이어야 합니다.

제한

  • Red Hat Virtualization 4.4의 새로운 배포에서NBDE(Network-Bound Disk Encryption)가 지원됩니다. 이 기능은 업그레이드 중에 활성화할 수 없습니다.

절차

  1. RHVH 4.4 Manager 배포를 위한 새 Gluster 볼륨을 만듭니다.

    1. 새로운 RHVH 4.4 자체 호스팅 엔진 가상 시스템(VM)에 대해 각 호스트에 새 4.6.1을 생성합니다.
    2. 설정에 예비 디스크가 있는 경우 웹 콘솔에서 볼륨 만들기 문서를 따르십시오.
    3. 기존 볼륨 그룹(VG)에 새 Manager 100GB 4.6.1을 위한 충분한 공간이 있는 경우 새 Manager 논리 볼륨(LV)으로 사용할 수 있습니다.

      달리 명시적으로 지정하지 않는 한 모든 호스트에서 다음 명령을 실행합니다.

    4. 볼륨 그룹(VG)의 사용 가능한 크기를 확인합니다.

      # vgdisplay <VG_NAME> | grep -i free
    5. 이 VG에서 논리 볼륨을 하나 더 만듭니다.

      # lvcreate -n gluster_lv_newengine -L 100G <EXISTING_VG>
    6. 새 논리 볼륨(LV)을 XFS로 포맷합니다.

      # mkfs.xfs  <LV_NAME>
    7. 새 4.6.1의 마운트 지점을 만듭니다.

      # mkdir /gluster_bricks/newengine
    8. /etc/fstab 에서 새로 생성된 파일 시스템에 해당하는 항목을 만들고 파일 시스템을 마운트합니다.
    9. IRQ 마운트 지점에 SELinux 레이블을 설정합니다.

      # semanage fcontext -a -t glusterd_brick_t /gluster_bricks/newengine
       restorecon -Rv /gluster_bricks/newengine
    10. 클러스터의 호스트 중 하나에서 GLuster 명령을 실행하여 새 Gluster 볼륨을 생성합니다.

      # gluster volume create newengine replica 3 host1:/gluster_bricks/newengine/newengine host2:/gluster_bricks/newengine/newengine host3:/gluster_bricks/newengine/newengine
    11. 새로 생성된 볼륨에 필요한 볼륨 옵션을 설정합니다. 클러스터의 호스트 중 하나에서 다음 명령을 실행합니다.

      # gluster volume set newengine group virt
       gluster volume set newengine network.ping-timeout 30
       gluster volume set newengine cluster.granular-entry-heal enable
       gluster volume set newengine network.remote-dio off
       gluster volume set newengine performance.strict-o-direct on
       gluster volume set newengine storage.owner-uid 36
       gluster volume set newengine storage.owner-gid 36
    12. 새로 생성된 Gluster 볼륨을 시작합니다. 클러스터의 호스트 중 하나에서 다음 명령을 실행합니다.

      # gluster volume start newengine
  2. backup 플레이북을 사용하여 모든 RHVH 4.3 노드에서 Gluster 구성을 백업합니다.

    1. 백업 플레이북은 최신 버전의 RHVH 4.3과 함께 사용할 수 있습니다. 이 플레이북을 사용할 수 없는 경우 Playbook 및 인벤토리 파일을 생성합니다.

      /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/archive_config.yml

      예제:

       all:
        hosts:
          host1:
          host2:
          host3:
        vars:
          backup_dir: /archive
          nbde_setup: false
          upgrade: true
    2. 올바른 세부 정보로 백업 인벤토리 파일을 편집합니다.

        Common variables
        backup_dir ->  Absolute path to directory that contains the extracted contents of the backup archive
        nbde_setup -> Set to false as the {virt-product-fullname} 4.3 setup doesn’t support NBDE
        upgrade -> Default value true . This value will make no effect with backup
    3. 디렉터리로 전환하고 플레이북을 실행합니다.

      ansible-playbook -i archive_config_inventory.yml archive_config.yml --tags backupfiles
    4. 생성된 백업 구성 tar 파일은 RHVH-<HOSTNAME>-backup.tar.gz 라는 이름으로 /root 아래에 생성됩니다. 모든 호스트에서 백업 구성 tar 파일을 백업 호스트에 복사합니다.
  3. Manager 관리 포털을 사용하여 첫 번째 호스트에서 실행 중인 VM을 클러스터의 다른 호스트로 마이그레이션합니다.
  4. 백업 관리자 구성.

    # engine-backup --mode=backup --scope=all --file=<backup-file.tar.gz> --log=<logfile>
    참고

    백업을 생성하려면 다음을 수행합니다.

    • 자체 호스팅 엔진(SHE)에 대한 글로벌 유지 관리를 활성화합니다.
    • SSH를 사용하여 Manager VM에 로그인하고 ovirt-engine 서비스를 중지합니다.
    • 자체 호스팅 엔진 VM의 백업 파일을 원격 호스트에 복사합니다.
    • 관리자를 종료합니다.
  5. 모든 복제본 3 볼륨의 보류 중인 자동 복구 작업이 있는지 확인합니다. 이 문제가 완료될 때까지 기다립니다.
  6. 호스트 중 하나에서 다음 명령을 실행합니다.

    # gluster volume heal <volume> info summary
  7. glusterfs FlexVolume 프로세스를 중지하고 첫 번째 호스트의 모든 브레이닝을 마운트 해제하여 파일 시스템의 일관성을 유지합니다. 첫 번째 호스트에서 다음을 실행합니다.

    # pkill glusterfsd; pkill glusterfs
    # systemctl stop glusterd
    # umount /gluster_bricks/*
  8. RHVH 4.4 ISO로 호스트를 다시 설치하고 OS 디스크만 포맷합니다.

    중요

    설치 시 해당 디스크 위에 브리핑이 생성되므로 다른 디스크를 포맷하지 않는지 확인합니다.

  9. 노드가 RHVH 4.4 설치 재부팅 후 작동되면 설치 가이드에 설명된 대로 RHVH 4.4 리포지터리를 구독하거나 다운로드한 RHVH 4.4 어플라이언스를 설치하십시오.

    # yum install <appliance>
  10. Gluster 분리에 사용되는 장치를 비활성화합니다.

    1. 새 SSH 개인 및 공개 키 쌍을 만듭니다.
    2. 프런트 엔드 및 백엔드 네트워크 FQDN을 사용하여 동일한 호스트에 SSH 공개 키 인증(암호 없는 SSH )을 설정합니다.
    3. 인벤토리 파일을 생성합니다.

      /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/blacklist_inventory.yml

      예제:

       hc_nodes:
        hosts:
          host1-backend-FQDN.example.com:
            blacklist_mpath_devices:
               - sda
               - sdb
    4. Playbook 실행

      ansible-playbook -i blacklist_inventory.yml /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/tasks/gluster_deployment.yml --tags blacklistdevices*
  11. 백업 호스트에서 새로 설치된 호스트로 Manager 백업 및 호스트 구성 tar 파일을 복사하고 scp를 사용하여 콘텐츠를 압축 해제합니다.
  12. Gluster 구성 파일을 복원합니다.

    1. Gluster 구성 파일의 콘텐츠 추출

       # mkdir /archive
       # tar -xvf /root/ovirt-host-host1.example.com.tar.gz -C /archive/
    2. 인벤토리 파일을 편집하여 구성 파일의 복원을 수행합니다. 인벤토리 파일은 /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/archive_config_inventory.yml에서 사용할 수 있습니다.

      플레이북의 내용 예:

       all:
         hosts:
       	host1.example.com:
         vars:
       	backup_dir: /archive
       	nbde_setup: false
       	upgrade: true
      중요
      Use only one host under ‘hosts’ section of restoration playbook.
    3. 플레이북을 실행하여 구성 파일 복원

      ansible-playbook -i archive_config_inventory.yml archive_config.yml --tags restorefiles
  13. Manager에서 백업 아카이브를 가리키는 --restore-from-file 옵션으로 Manager 배포를 수행합니다. 이 Manager 배포는 hosted-engine --deploy 명령을 사용하여 대화형으로 수행할 수 있으며, 새로 생성된 Manager 볼륨에 해당하는 스토리지를 제공합니다. 자동화된 절차에서 ovirt-ansible-hosted-engine-setup 을 사용하여 동일한 작업을 수행할 수도 있습니다. 다음 절차는 백업을 사용하여 HostedEngine VM을 배포하는 자동화된 방법입니다.

    1. 새로 설치된 호스트에서 HostedEngine 배포에 대한 플레이북을 생성합니다.

      /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/he.yml

      - name: Deploy oVirt hosted engine
        hosts: localhost
        roles:
          - role: ovirt.hosted_engine_setup
    2. 템플릿 파일을 사용하여 HostedEngine 관련 정보를 업데이트합니다.

      /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/he_gluster_vars.json

      예제:

      # cat /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment/he_gluster_vars.json
      
      {
        "he_appliance_password": "<password>",
        "he_admin_password": "<password>",
        "he_domain_type": "glusterfs",
        "he_fqdn": "<hostedengine.example.com>",
        "he_vm_mac_addr": "<00:18:15:20:59:01>",
        "he_default_gateway": "<19.70.12.254>",
        "he_mgmt_network": "ovirtmgmt",
        "he_storage_domain_name": "HostedEngine",
        "he_storage_domain_path": "</newengine>",
        "he_storage_domain_addr": "<host1.example.com>",
        "he_mount_options": "backup-volfile-servers=<host2.example.com>:<host3.example.com>",
        "he_bridge_if": "<eth0>",
        "he_enable_hc_gluster_service": true,
        "he_mem_size_MB": "16384",
        "he_cluster": "Default",
        "he_restore_from_file": "/root/engine-backup.tar.gz",
        "he_vcpus": 4
      }
      중요
      • 위의 he_gluster_vars.json에는 "he_restore_from_file" 및 "he_storage_domain_path"의 두 가지 중요한 값이 있습니다. 첫 번째 옵션 "he_restore_from_file"은 로컬 머신에 복사된 Manager 백업 아카이브의 절대 파일 이름을 가리켜야 합니다. 두 번째 옵션 "he_storage_domain_path"는 새로 생성된 Gluster 볼륨을 참조해야 합니다.
      • 또한 Manager VM 내에서 실행 중인 이전 RHVH 버전의 RHVH 버전이 다운되어 삭제됩니다. 이전 Manager VM에 해당하는 MAC 주소 및 FQDN도 새 Manager에 재사용할 수 있습니다.
    3. 정적 관리자 네트워크 구성의 경우 다음과 같이 더 많은 옵션을 추가합니다.

        “he_vm_ip_addr”:  “<engine VM ip address>”
        “he_vm_ip_prefix”:  “<engine VM ip prefix>”
        “he_dns_addr”:  “<engine VM DNS server>”
        “he_default_gateway”:  “<engine VM default gateway>”
      중요

      사용 가능한 특정 DNS가 없는 경우 "he_vm_etc_hosts": true 및 "he_network_test": "ping"의 두 가지 추가 옵션을 추가하십시오.

    4. 플레이북을 실행하여 HostedEngine 배포를 배포합니다.

      # cd /etc/ansible/roles/gluster.ansible/playbooks/hc-ansible-deployment
      # ansible-playbook he.yml --extra-vars "@he_gluster_vars.json"
    5. 셀프 호스트 엔진 배포가 완료될 때까지 기다립니다.

      중요

      자체 호스팅 엔진 배포 중에 오류가 발생하면 /var/log/ovirt-hosted-engine-setup 에서 로그 메시지를 확인하는 문제를 찾아 문제를 해결합니다. ovirt-hosted-engine-cleanup 명령을 사용하여 실패한 자체 호스팅 엔진 배포를 정리하고 배포를 재실행합니다.

  14. 새로 설치된 Red Hat Virtualization 관리자에서 RHVH 4.4 관리 포털에 로그인합니다. 모든 호스트가 'up' 상태인지 확인하고 Gluster 볼륨의 자동 복구가 완료될 때까지 기다립니다.
  15. 다음 호스트 업그레이드

    1. 다음 호스트(이상 다음 호스트)를 관리 포털에서 Maintenance(유지 관리) 모드로 이동합니다. 이 호스트를 유지 관리 모드로 이동하는 동안 Gluster 서비스를 중지합니다.
    2. 호스트의 명령줄에서 Gluster를 마운트 해제합니다.

      # umount /gluster_bricks/*
    3. RHVH 4.4로 이 호스트를 다시 설치합니다.

      중요

      설치 시 해당 디스크 위에 브리핑이 생성되므로 다른 디스크를 포맷하지 않는지 확인합니다.

    4. 새로 설치된 호스트에서 다중 경로 구성을 사용할 수 없는 경우 Gluster 장치를 비활성화합니다. 인벤토리 파일은 단계의 일부로 이미 첫 번째 호스트에 생성되어 Gluster 분리에 사용되는 장치를 비활성화합니다.

      1. 첫 번째 호스트에서 새로 설치된 호스트로 SSH 공개 키 인증을 설정합니다.
      2. 새 호스트 이름으로 인벤토리를 업데이트합니다.
      3. 플레이북을 실행합니다.
    5. 백업 호스트에서 새로 설치된 호스트로 Gluster 구성 tar 파일을 복사하고 콘텐츠를 압축 해제합니다.
    6. 이 호스트의 Gluster 구성 파일 복원 단계에 설명된 대로 플레이북을 실행하여 새로 설치된 호스트에서 Gluster 구성을 복원 합니다.

      중요

      새로 설치된 호스트에서 플레이북을 편집하고 --restore-from-file…​ 옵션을 사용하여 Perform manager 배포 단계에 설명된 대로 실행합니다. 동일한 호스트에서 호스트 이름을 변경하고 실행하지 마십시오.

    7. RHVH 관리 포털에서 호스트를 다시 설치하십시오. RHVH 4.4의 첫 번째 배포 호스트에서 인증된 키 복사

      # scp root@host1.example.com:/root/.ssh/authorized_keys /root/.ssh/
      1. 관리 포털에서 호스트는 '유지 관리'에 있습니다. ComputeHostsInstallationReinstall (설치 다시 설치)으로 이동합니다.
      2. 새 호스트 대화 상자에서 HostedEngine 탭에서 배포 자체 호스팅 엔진 배포 작업을 선택합니다.
      3. 호스트가 Up 상태에 도달할 때까지 기다립니다.
    8. GFID 불일치와 관련된 볼륨에 오류가 없는지 확인합니다. 오류가 있는 경우 이를 해결합니다.

      grep -i "gfid mismatch" /var/log/glusterfs/*
  16. 클러스터의 모든 RHVH에 대해 다음 호스트 업그레이드 단계를 반복합니다.
  17. (선택 사항) 클러스터에 별도의 Gluster 논리적 네트워크가 있는 경우 Gluster 논리 네트워크를 각 호스트의 필수 인터페이스에 연결합니다.
  18. 이전 Manager 스토리지 도메인을 제거합니다. StorageDomains 에 나열된 gold star가 없는 hosted_storage 이름으로 이전 Manager 스토리지 도메인을 식별합니다.

    1. StorageDomainshosted_storageData Center 탭으로 이동하여 Maintenance 를 선택합니다.
    2. 스토리지 도메인이 유지 관리 모드로 변경될 때까지 기다립니다.
    3. 스토리지 도메인이 유지 관리 모드로 전환되면 분리 를 클릭하면 스토리지 도메인이 연결 해제 로 이동합니다.
    4. 연결되지 않은 스토리지 도메인을 선택하고 제거를 클릭한 다음 확인 을 확인합니다.
  19. 이전 Manager 볼륨을 중지하고 제거합니다.

    1. StorageVolumes 로 이동하여 이전 Manager 볼륨을 선택합니다. 중지 를 클릭하고 확인을 확인합니다.
    2. 동일한 볼륨을 선택하고 제거를 클릭하고 OK 를 확인합니다.
  20. 클러스터 호환성 버전을 업데이트합니다.

    1. ComputeClusters 로 이동하여 Default cluster를 선택하고 Edit 를 클릭하고 Compatibility Version to 4.4를 업데이트한 후 OK 를 클릭합니다.

      중요

      호환성 버전을 변경하려면 클러스터의 VM을 다시 시작해야 합니다. 확인을클릭하여 확인합니다.

  21. RHVH 4.4에서 사용할 수 있는 새로운 Gluster 볼륨 옵션이 모든 볼륨에 해당 볼륨 옵션을 적용합니다. 클러스터의 노드 중 하나에서 다음을 실행합니다.

    # for vol in gluster volume list; do gluster volume set $vol group virt; done
  22. 아카이브를 제거하고 모든 노드에서 백업 구성 파일의 내용을 추출합니다.

웹 콘솔을 사용하여 추가 Gluster 볼륨 생성

  1. Manager 웹 콘솔에 로그인합니다.
  2. 가상화 호스팅엔진으로 이동하여 Manage Gluster 를 클릭합니다.
  3. Create Volume 을 클릭합니다. Create Volume 창에서 다음을 수행합니다.

    1. Hosts (호스트) 탭에서 사용되지 않은 디스크가 있는 3개의 ovirt-ng-nodes 를 선택하고 Next 를 클릭합니다.
    2. 볼륨 탭에서 생성할 볼륨의 세부 정보를 지정하고 다음을 클릭합니다.
    3. B ECDHE s 탭에서 볼륨을 만드는 데 사용할 디스크의 세부 정보를 지정하고 다음을 클릭합니다.
    4. Review 탭에서 생성된 구성 파일에서 잘못된 정보가 있는지 확인합니다. 만족하는 경우 배포를 클릭합니다.

이제 클러스터 호환성 버전을 업데이트할 수 있습니다.

2.1.9. 클러스터 호환성 버전 변경

Red Hat Virtualization 클러스터에는 호환성 버전이 있습니다. 클러스터 호환성 버전은 클러스터의 모든 호스트에서 지원하는 Red Hat Virtualization의 기능을 나타냅니다. 클러스터 호환성은 클러스터에서 지원되는 최소 호스트 운영 체제 버전에 따라 설정됩니다.

사전 요구 사항

  • 클러스터 호환성 수준을 변경하려면 먼저 클러스터의 모든 호스트를 원하는 호환성 수준을 지원하는 수준으로 업데이트해야 합니다. 업데이트를 사용할 수 있음을 나타내는 호스트 옆에 아이콘이 있는지 확인합니다.

제한 사항

  • virtio NIC는 클러스터 호환성 수준을 4.6으로 업그레이드한 후 다른 장치로 열거됩니다. 따라서 NIC를 재구성해야 할 수 있습니다. Red Hat은 가상 머신에서 클러스터 호환성 수준을 4.6으로 설정하고 네트워크 연결을 확인하여 클러스터를 업그레이드하기 전에 가상 머신을 테스트하는 것이 좋습니다.

    가상 머신의 네트워크 연결이 실패하면 클러스터를 업그레이드하기 전에 현재 에뮬레이션된 머신과 일치하는 사용자 지정 에뮬레이션 머신(예: 4.5 호환성 버전의ECDHE-q35-rhel8.3.0)을 사용하여 가상 머신을 구성합니다.

절차

  1. 관리 포털에서 컴퓨팅클러스터를 클릭합니다.
  2. 변경할 클러스터를 선택하고 편집 을 클릭합니다.
  3. 일반 탭에서 호환성 버전을 원하는 값으로 변경합니다.
  4. OK를 클릭합니다. 클러스터 호환성 버전 변경 대화 상자가 열립니다.
  5. OK (확인)를 클릭하여 확인합니다.
중요

일부 가상 머신과 템플릿이 잘못 구성되어 있음을 알리는 오류 메시지가 표시될 수 있습니다. 이 오류를 수정하려면 각 가상 머신을 수동으로 편집합니다. Edit Virtual Machine (가상 시스템 편집) 창에서는 수정할 내용을 표시하는 추가 검증 및 경고를 제공합니다. 문제가 자동으로 수정되어 가상 머신의 구성을 다시 저장해야 하는 경우가 있습니다. 각 가상 머신을 편집한 후 클러스터 호환성 버전을 변경할 수 있습니다.

이제 클러스터의 가상 머신에 대한 클러스터 호환성 버전을 업데이트할 수 있습니다.

2.1.10. 가상 머신 클러스터 호환성 변경

클러스터 호환성 버전을 업데이트한 후 관리 포털에서 재부팅하거나 REST API를 사용하거나 게스트 운영 체제 내에서 실행 중인 모든 가상 머신의 클러스터 호환성 버전을 업데이트해야 합니다. 재부팅이 필요한 가상 머신은 보류 중인 변경 사항 아이콘( pendingchanges )로 표시됩니다.

편리한 시간에 가상 시스템을 재부팅할 때까지 기다릴 수는 있지만 가상 시스템에서 최신 구성을 사용하도록 즉시 재부팅하는 것이 좋습니다. 재부팅되지 않은 가상 머신은 이전 구성과 함께 실행되며 가상 머신의 후속 구성 변경으로 보류 중인 클러스터 호환성 변경 사항을 덮어쓸 수 있습니다.

절차

  1. 관리 포털에서 ComputeVirtual Machines (가상 시스템)를 클릭합니다.
  2. 재부팅이 필요한 가상 시스템을 확인합니다. Vms: 검색 창에 다음 쿼리를 입력합니다.

    next_run_config_exists=True

    검색 결과에는 변경 사항이 보류 중인 모든 가상 머신이 표시됩니다.

  3. 각 가상 머신을 선택하고 재시작 을 클릭합니다. 또는 필요한 경우 가상 머신 자체 내에서 가상 머신을 재부팅할 수 있습니다.

가상 머신이 시작되면 새로운 호환성 버전이 자동으로 적용됩니다.

참고

미리 보기 중인 가상 머신 스냅샷의 클러스터 호환성 버전을 변경할 수 없습니다. 먼저 미리보기를 커밋하거나 취소해야 합니다.

이제 데이터 센터 호환성 버전을 업데이트할 수 있습니다.

2.1.11. 데이터 센터 호환성 버전 변경

Red Hat Virtualization 데이터 센터에는 호환성 버전이 있습니다. 호환성 버전은 데이터 센터가 호환되도록 설계된 Red Hat Virtualization 버전을 나타냅니다. 데이터 센터의 모든 클러스터는 원하는 호환성 수준을 지원해야 합니다.

사전 요구 사항

  • 데이터 센터 호환성 수준을 변경하려면 먼저 데이터 센터의 모든 클러스터 및 가상 머신의 호환성 버전을 업데이트해야 합니다.

절차

  1. 관리 포털에서 ComputeData Centers (데이터 센터)를 클릭합니다.
  2. 변경할 데이터 센터를 선택하고 편집 을 클릭합니다.
  3. 호환성 버전을 원하는 값으로 변경합니다.
  4. OK를 클릭합니다. 데이터 센터 호환성 버전 확인 대화 상자가 열립니다.
  5. OK (확인)를 클릭하여 확인합니다.