Red Hat Training

A Red Hat training course is available for RHEL 8

퍼블릭 클라우드 플랫폼에 Red Hat Enterprise Linux 8 배포

Red Hat Enterprise Linux 8

퍼블릭 클라우드 플랫폼용 Red Hat Enterprise Linux 시스템 이미지 생성 및 Red Hat High Availability 클러스터 구성

초록

Microsoft Azure, AWS(Amazon Web Services) 및 GCP(Google Cloud Platform)를 비롯한 다양한 클라우드 플랫폼에 사용자 지정 Red Hat Enterprise Linux 이미지를 생성하고 배포할 수 있습니다. 각 클라우드 플랫폼에 Red Hat High Availability 클러스터를 생성 및 구성할 수도 있습니다. 이 문서에서는 시스템 이미지를 생성하는 방법과 필수 패키지 및 에이전트 설치, 펜싱 구성, 네트워크 리소스 에이전트를 설치하는 등 HA(고가용성) 클러스터를 설정하는 방법도 설명합니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서 및 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

Red Hat 문서에 관한 피드백 제공

문서에 대한 피드백에 감사드립니다. 어떻게 개선할 수 있는지 알려주십시오.

특정 문구에 대한 의견 제출

  1. Multi-page HTML 형식으로 설명서를 보고 페이지가 완전히 로드된 후 오른쪽 상단 모서리에 피드백 버튼이 표시되는지 확인합니다.
  2. 커서를 사용하여 주석 처리할 텍스트 부분을 강조 표시합니다.
  3. 강조 표시된 텍스트 옆에 표시되는 피드백 추가 버튼을 클릭합니다.
  4. 의견을 추가하고 제출 을 클릭합니다.

Bugzilla를 통해 피드백 제출(등록 필요)

  1. Bugzilla 웹 사이트에 로그인합니다.
  2. 버전 메뉴에서 올바른 버전을 선택합니다.
  3. Summary (요약) 필드에 설명 제목을 입력합니다.
  4. Description (설명) 필드에 개선을 위한 제안을 입력합니다. 문서의 관련 부분에 대한 링크를 포함합니다.
  5. Submit Bug를 클릭하십시오.

1장. Microsoft Azure에서 Red Hat Enterprise Linux 이미지를 가상 머신으로 배포

Microsoft Azure에서 Red Hat Enterprise Linux 8 (RHEL 8) 이미지를 배포하려면 다음 정보를 따르십시오. 이 장에서는 다음을 수행합니다.

  • 이미지 선택 옵션에 대해 설명합니다.
  • 호스트 시스템 및 VM(가상 머신)의 시스템 요구 사항을 나열하거나 참조합니다.
  • ISO 이미지에서 사용자 지정 VM을 생성하고, Azure에 업로드 및 Azure VM 인스턴스를 시작하는 절차를 제공합니다.
중요

ISO 이미지에서 사용자 지정 VM을 생성할 수 있지만, Red Hat Image Builder 제품을 사용하여 특정 클라우드 공급자에서 사용할 사용자 지정 이미지를 생성하는 것이 좋습니다. 이미지 빌더를 사용하면 Azure 디스크 이미지(VHD 형식)를 만들고 업로드할 수 있습니다. 자세한 내용은 사용자 지정된 RHEL 시스템 이미지 구성을 참조하십시오.

Azure에서 안전하게 사용할 수 있는 Red Hat 제품 목록은 Microsoft Azure에서 Red Hat을 참조하십시오.

사전 요구 사항

  • Red Hat 고객 포털 계정에 등록합니다.
  • Microsoft Azure 계정에 등록합니다.
  • Red Hat Cloud Access 프로그램에서 서브스크립션을 활성화합니다. Red Hat Cloud Access 프로그램을 사용하면Red Hat의 전폭적인 지원을 받아 Red Hat 서브스크립션을 물리적 시스템 또는 온프레미스 시스템에서 Azure로 이동할 수 있습니다.

1.1. 추가 리소스

1.2. Azure의 Red Hat Enterprise Linux 이미지 옵션

다음 표에는 Microsoft Azure의 RHEL 8에 대한 이미지 선택 사항이 나열되어 있으며 이미지 옵션의 차이점에 대해 설명합니다.

표 1.1. 이미지 옵션

이미지 옵션서브스크립션샘플 시나리오고려 사항

Red Hat Gold Image를 배포하도록 선택합니다.

기존 Red Hat 서브스크립션을 사용합니다.

Red Hat Cloud Access 프로그램을 통해 서브스크립션을 활성화한 다음 Azure에서 Red Hat Gold Image를 선택합니다. Gold Image 및 Azure에서 액세스하는 방법에 대한 자세한 내용은 Red Hat Cloud Access 참조 가이드에서 확인하십시오.

서브스크립션에는 Red Hat 제품 비용이 포함되며, 다른 모든 인스턴스 비용에 대해서는 Microsoft에 비용을 지불합니다.

Red Hat Gold Image는 기존 Red Hat 서브스크립션을 사용하므로 "Cloud Access" 이미지라고 합니다. Red Hat은 Cloud Access 이미지에 대한 직접 지원을 제공합니다.

Azure로 이동하는 사용자 정의 이미지를 배포하도록 선택합니다.

기존 Red Hat 서브스크립션을 사용합니다.

Red Hat Cloud Access 프로그램을 통해 서브스크립션을 활성화하고 사용자 지정 이미지를 업로드하고 서브스크립션을 첨부하십시오.

서브스크립션에는 Red Hat 제품 비용이 포함되며, 다른 모든 인스턴스 비용에 대해서는 Microsoft에 비용을 지불합니다.

기존 Red Hat 서브스크립션을 사용하므로 Azure로 이동하는 사용자 지정 이미지는 "Cloud Access" 이미지입니다. Red Hat은 Cloud Access 이미지에 대한 직접 지원을 제공합니다.

RHEL이 포함된 기존 Azure 이미지를 배포하도록 선택합니다.

Azure 이미지에는 Red Hat 제품이 포함되어 있습니다.

Azure 콘솔을 사용하여 VM을 생성할 때 RHEL 이미지를 선택하거나 Azure Marketplace에서 VM을 선택합니다.

Microsoft는 사용량 기준 지불(pay-as-you-go) 모델에 따라 시간 단위로 지불합니다. 이러한 이미지를 "온 디맨드"라고 합니다. Azure는 지원 계약을 통해 온디맨드 이미지를 지원합니다.

Red Hat은 이미지에 대한 업데이트를 제공합니다. Azure는 RHUI(Red Hat Update Infrastructure)를 통해 업데이트를 제공합니다.

참고

Red Hat Image Builder를 사용하여 Azure의 사용자 지정 이미지를 만들 수 있습니다. 자세한 내용은 사용자 지정된 RHEL 시스템 이미지 구성을 참조하십시오.

이 장의 나머지 부분에서는 Red Hat Enterprise Linux 사용자 지정 이미지와 관련된 정보와 절차를 설명합니다.

1.3. 기본 이미지 이해

이 섹션에는 사전 구성된 기본 이미지 및 해당 구성 설정 사용에 대한 정보가 포함되어 있습니다.

1.3.1. 사용자 정의 기본 이미지 사용

VM(가상 시스템)을 수동으로 구성하려면 먼저 기본(시작자) VM 이미지를 생성합니다. 다음으로 구성 설정을 수정하고 VM이 클라우드에서 작동하는 데 필요한 패키지를 추가할 수 있습니다. 이미지를 업로드한 후 특정 애플리케이션에 대한 추가 구성을 변경할 수 있습니다.

RHEL의 클라우드 이미지를 준비하려면 아래 섹션의 지침을 따르십시오. RHEL의 Hyper-V 클라우드 이미지를 준비하려면 Hyper-V Manager에서 Red Hat 기반 가상 머신 준비를 참조하십시오.

1.3.2. 필수 시스템 패키지

이 장의 절차에서는 Red Hat Enterprise Linux를 실행하는 호스트 시스템을 사용한다고 가정합니다. 절차를 성공적으로 완료하려면 호스트 시스템에 다음 패키지가 설치되어 있어야 합니다.

표 1.2. 시스템 패키지

패키지리포지터리설명

libvirt

rhel-8-for-x86_64-appstream-rpms

플랫폼 가상화 관리를 위한 오픈 소스 API, 데몬 및 관리 도구

virt-install

rhel-8-for-x86_64-appstream-rpms

가상 머신 구축을 위한 명령줄 유틸리티

libguestfs

rhel-8-for-x86_64-appstream-rpms

가상 머신 파일 시스템 액세스 및 수정을 위한 라이브러리

libguestfs-tools

rhel-8-for-x86_64-appstream-rpms

가상 머신용 시스템 관리 도구; guestfish 유틸리티 포함

1.3.3. Azure VM 구성 설정

Azure VM에는 다음과 같은 구성 설정이 있어야 합니다. 이러한 설정 중 일부는 초기 VM 생성 중에 활성화됩니다. 다른 설정은 Azure의 VM 이미지를 프로비저닝할 때 설정됩니다. 절차를 진행할 때 이러한 설정을 유념하십시오. 필요한 경우 참조합니다.

표 1.3. VM 구성 설정

설정권장 사항

ssh

Azure VM에 대한 원격 액세스를 제공하려면 SSH를 활성화해야 합니다.

dhcp

기본 가상 어댑터는 dhcp에 대해 구성해야 합니다(IPv4만 해당).

Swap Space

전용 스왑 파일 또는 스왑 파티션을 만들지 마십시오. Windows Azure Linux Agent(WALinuxAgent)를 사용하여 스왑 공간을 구성할 수 있습니다.

NIC

기본 가상 네트워크 어댑터로 virtio를 선택합니다.

Encryption

사용자 지정 이미지의 경우 Azure에서 전체 디스크 암호화에 NBDE(Network Bound Disk Encryption)를 사용합니다.

1.3.4. ISO 이미지에서 기본 이미지 생성

다음 절차에서는 사용자 지정 ISO 이미지를 생성하기 위한 단계와 초기 구성 요구 사항을 나열합니다. 이미지를 구성한 후에는 이미지를 템플릿으로 사용하여 추가 VM 인스턴스를 생성할 수 있습니다.

사전 요구 사항

  • 가상화를 위해 호스트 시스템을 활성화했는지 확인합니다. 자세한 내용 및 절차는 RHEL 8에서 가상화 활성화를 참조하십시오.

절차

  1. Red Hat 고객 포털에서 최신 Red Hat Enterprise Linux 8 DVD ISO 이미지를 다운로드합니다.
  2. 기본 Red Hat Enterprise Linux VM을 만들고 시작합니다. 자세한 내용은 가상 머신 생성을 참조하십시오.

    1. 명령줄을 사용하여 VM을 생성하는 경우 기본 메모리 및 CPU를 VM에 필요한 용량으로 설정해야 합니다. 가상 네트워크 인터페이스를 virtio로 설정합니다.

      기본 명령줄 샘플은 다음과 같습니다.

      # virt-install --name kvmtest --memory 2048 --vcpus 2 --disk rhel-8.0-x86_64-kvm.qcow2,bus=virtio --import --os-variant=rhel8.0
    2. 웹 콘솔을 사용하여 VM을 생성하는 경우 다음 주의 사항과 함께 웹 콘솔을 사용하여 가상 머신 생성 절차를 따르십시오.

      • 즉시 VM 시작을 선택하지 마십시오.
      • 메모리 크기를 원하는 설정으로 변경합니다.
      • 설치를 시작하기 전에 가상 네트워크 인터페이스 설정에서 모델virtio로 변경하고 vCPU를 VM에 필요한 용량 설정으로 변경했는지 확인합니다.
  3. 다음 추가 설치 선택 및 수정 사항을 검토합니다.

    • 표준 RHEL 옵션을 사용하여 최소 설치를 선택합니다.
    • 설치 대상에 대해 사용자 지정 스토리지 구성을 선택합니다. 다음 구성 정보를 사용하여 선택합니다.

      • /boot에 대해 최소 500MB인지 확인합니다.
      • 파일 시스템의 경우 부팅루트 파티션 모두에 xfs, ext4 또는 ext3을 사용합니다.
      • 스왑 공간을 제거합니다. 스왑 공간은 WALinuxAgent에 의해 Azure의 물리적 블레이드 서버에 구성되어 있습니다.
    • 설치 요약 화면에서 네트워크 및 호스트 이름을 선택합니다. 이더넷On으로 전환합니다.
  4. 설치가 시작되면 다음을 수행합니다.

    • root 암호를 만듭니다.
    • 관리자 사용자 계정을 생성합니다.
  5. 설치가 완료되면 VM을 재부팅하고 root 계정에 로그인합니다.
  6. root로 로그인한 후 이미지를 구성할 수 있습니다.

1.4. Microsoft Azure의 사용자 정의 기본 이미지 구성

Azure에서 특정 설정을 사용하여 RHEL 8 VM(가상 머신)을 배포하려면 VM에 대한 사용자 지정 기본 이미지를 생성할 수 있습니다. 다음 섹션에서는 Azure에 필요한 추가 구성 변경 사항에 대해 설명합니다.

1.4.1. Hyper-V 장치 드라이버 설치

Microsoft는 Hyper-V 패키지를 위한 LIS(Linux Integration Services)의 일부로 네트워크 및 스토리지 장치 드라이버를 제공합니다. 가상 머신(VM)으로 프로비저닝하기 전에 VM 이미지에 Hyper-V 장치 드라이버를 설치해야 할 수 있습니다. lsinitrd | grep hv 명령을 사용하여 드라이버가 설치되었는지 확인합니다.

절차

  1. 다음 grep 명령을 입력하여 필요한 Hyper-V 장치 드라이버가 설치되어 있는지 확인합니다.

    # lsinitrd | grep hv

    아래 예제에서는 필요한 모든 드라이버가 설치됩니다.

    # lsinitrd | grep hv
    drwxr-xr-x   2 root     root            0 Aug 12 14:21 usr/lib/modules/3.10.0-932.el8.x86_64/kernel/drivers/hv
    -rw-r--r--   1 root     root        31272 Aug 11 08:45 usr/lib/modules/3.10.0-932.el8.x86_64/kernel/drivers/hv/hv_vmbus.ko.xz
    -rw-r--r--   1 root     root        25132 Aug 11 08:46 usr/lib/modules/3.10.0-932.el8.x86_64/kernel/drivers/net/hyperv/hv_netvsc.ko.xz
    -rw-r--r--   1 root     root         9796 Aug 11 08:45 usr/lib/modules/3.10.0-932.el8.x86_64/kernel/drivers/scsi/hv_storvsc.ko.xz

    모든 드라이버가 설치되지 않은 경우 나머지 단계를 완료합니다.

    참고

    환경에 hv_vmbus 드라이버가 있을 수 있습니다. 이 드라이버가 있는 경우에도 다음 단계를 완료합니다.

  2. /etc/dracut.conf.dhv.conf라는 파일을 만듭니다.
  3. 다음 드라이버 매개 변수를 hv.conf 파일에 추가합니다.

    add_drivers+=" hv_vmbus "
    add_drivers+=" hv_netvsc "
    add_drivers+=" hv_storvsc "
    add_drivers+=" nvme "
    참고

    따옴표 앞뒤에 공백이 있는지 확인합니다. (예: add_drivers+=" hv_vmbus " ). 이렇게 하면 환경에 다른 Hyper-V 드라이버가 이미 있는 경우 고유한 드라이버가 로드됩니다.

  4. initramfs 이미지를 다시 생성합니다.

    # dracut -f -v --regenerate-all

검증

  1. 시스템을 재부팅합니다.
  2. lsinitrd | grep hv 명령을 실행하여 드라이버가 설치되었는지 확인합니다.

1.4.2. Microsoft Azure 배포에 필요한 구성 변경

사용자 지정 기본 이미지를 Azure에 배포하기 전에 추가 구성 변경을 수행하여 가상 머신(VM)이 Azure에서 제대로 작동할 수 있는지 확인해야 합니다.

절차

  1. VM에 로그인합니다.
  2. VM을 등록하고 Red Hat Enterprise Linux 8 리포지토리를 활성화합니다.

    # subscription-manager register --auto-attach
    Installed Product Current Status:
    Product Name: Red Hat Enterprise Linux for x86_64
    Status: Subscribed
  3. cloud-inithyperv-daemons 패키지가 설치되어 있는지 확인합니다.

    # yum install cloud-init hyperv-daemons -y
  4. Azure 서비스와의 통합에 필요한 cloud-init 구성 파일을 생성합니다.

    1. Hyper-VP(Hyper-V Data Exchange Service)에 로깅을 사용하려면 /etc/cloud/cloud.cfg.d/10-azure-kvp.cfg 구성 파일을 만들고 해당 파일에 다음 행을 추가합니다.

      reporting:
          logging:
              type: log
          telemetry:
              type: hyperv
    2. Azure를 데이터 소스로 추가하려면 /etc/cloud/cloud.cfg.d/91-azure_datasource.cfg 구성 파일을 생성하고 해당 파일에 다음 행을 추가합니다.

      datasource_list: [ Azure ]
      datasource:
          Azure:
              apply_network_config: False
  5. 특정 커널 모듈이 자동으로 로드되지 않도록 하려면 /etc/modprobe.d/blocklist.conf 파일을 편집하거나 생성한 후 해당 파일에 다음 행을 추가합니다.

    blacklist nouveau
    blacklist lbm-nouveau
    blacklist floppy
    blacklist amdgpu
    blacklist skx_edac
    blacklist intel_cstate
  6. udev 네트워크 장치 규칙을 수정합니다.

    1. 다음과 같은 영구적인 네트워크 장치 규칙이 있는 경우 제거합니다.

      # rm -f /etc/udev/rules.d/70-persistent-net.rules
      # rm -f /etc/udev/rules.d/75-persistent-net-generator.rules
      # rm -f /etc/udev/rules.d/80-net-name-slot-rules
    2. Azure의 Accelerated Networking이 의도한 대로 작동하도록 하려면 새 네트워크 장치 규칙 /etc/udev/rules.d/68-azure-nm-unmanaged.rules 를 만들고 다음 행을 추가합니다.

      SUBSYSTEM=="net", DRIVERS=="hv_pci", ACTION=="add", ENV{NM_UNMANAGED}="1"
  7. 자동으로 시작하도록 sshd 서비스를 설정합니다.

    # systemctl enable sshd
    # systemctl is-enabled sshd
  8. 커널 부팅 매개변수 수정:

    1. /etc/default/grub 파일을 열고 GRUB_TIMEOUT 행에 다음 값이 있는지 확인합니다.

      GRUB_TIMEOUT=10
    2. GRUB_CMDLINE_LINUX 행 끝에 있는 경우 다음 옵션을 제거합니다.

      rhgb quiet
    3. /etc/default/grub 파일에 지정된 모든 옵션이 포함된 다음 행이 포함되어 있는지 확인합니다.

      GRUB_CMDLINE_LINUX="loglevel=3 crashkernel=auto console=tty1 console=ttyS0 earlyprintk=ttyS0 rootdelay=300"
      GRUB_TIMEOUT_STYLE=countdown
      GRUB_TERMINAL="serial console"
      GRUB_SERIAL_COMMAND="serial --speed=115200 --unit=0 --word=8 --parity=no --stop=1"
    4. grub.cfg 파일을 다시 생성합니다.

      BIOS 기반 시스템에서 다음을 수행합니다.

      # grub2-mkconfig -o /boot/grub2/grub.cfg

      UEFI 기반 머신에서 다음을 수행합니다.

      # grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg

      시스템이 grub.cfg 에 기본이 아닌 위치를 사용하는 경우 그에 따라 명령을 조정합니다.

  9. Windows Azure Linux 에이전트(WALinuxAgent)를 구성합니다.

    1. WALinuxAgent 패키지를 설치하고 활성화합니다.

      # yum install WALinuxAgent -y
      # systemctl enable waagent
    2. 프로비저닝된 VM에서 스왑 파티션을 사용하지 않도록 하려면 /etc/waagent.conf 파일에서 다음 행을 편집합니다.

      Provisioning.DeleteRootPassword=y
      ResourceDisk.Format=n
      ResourceDisk.EnableSwap=n
  10. Azure 프로비저닝을 위한 VM을 준비합니다.

    1. Red Hat Subscription Manager에서 VM 등록을 취소합니다.

      # subscription-manager unregister
    2. 기존 프로비저닝 세부 정보를 정리합니다.

      # waagent -force -deprovision
      참고

      이 명령은 Azure에서 VM의 프로비저닝을 자동으로 처리하므로 예상되는 경고를 생성합니다.

    3. 쉘 기록을 정리하고 VM을 종료합니다.

      # export HISTSIZE=0
      # poweroff

1.5. 이미지를 고정 VHD 형식으로 변환

모든 Microsoft Azure VM 이미지는 고정 VHD 형식이어야 합니다. 이미지는 VHD로 변환되기 전에 1MB 경계에 정렬해야 합니다. 이 섹션에서는 qcow2에서 고정 VHD 형식으로 이미지를 변환하고 필요한 경우 이미지를 정렬하는 방법을 설명합니다. 이미지를 변환한 후에는 Azure에 업로드할 수 있습니다.

절차

  1. 이미지를 qcow2에서 raw 형식으로 변환합니다.

    $ qemu-img convert -f qcow2 -O raw <image-name>.qcow2 <image-name>.raw
  2. 아래 내용을 사용하여 쉘 스크립트를 생성합니다.

    #!/bin/bash
    MB=$((1024 * 1024))
    size=$(qemu-img info -f raw --output json "$1" | gawk 'match($0, /"virtual-size": ([0-9]+),/, val) {print val[1]}')
    rounded_size=$((($size/$MB + 1) * $MB))
    if [ $(($size % $MB)) -eq  0 ]
    then
     echo "Your image is already aligned. You do not need to resize."
     exit 1
    fi
    echo "rounded size = $rounded_size"
    export rounded_size
  3. 스크립트를 실행합니다. 이 예에서는 align.sh라는 이름을 사용합니다.

    $ sh align.sh <image-xxx>.raw
    • "이미지가 이미 정렬되어 있습니다. 크기를 조정할 필요가 없습니다."라는 메시지가 표시되면 다음 단계로 진행합니다.
    • 값이 표시되면 이미지가 정렬되지 않은 것입니다.
  4. 다음 명령을 사용하여 파일을 고정 VHD 형식으로 변환합니다.

    샘플은 qemu-img 버전 2.12.0을 사용합니다.

    $ qemu-img convert -f raw -o subformat=fixed,force_size -O vpc <image-xxx>.raw <image.xxx>.vhd

    변환되면 VHD 파일을 Azure에 업로드할 준비가 된 것입니다.

  5. raw 이미지가 정렬되지 않은 경우 다음 단계를 완료하여 정렬합니다.

    1. 확인 스크립트를 실행할 때 표시되는 반올림 값을 사용하여 raw 파일의 크기를 조정합니다.

      $ qemu-img resize -f raw <image-xxx>.raw <rounded-value>
    2. raw 이미지 파일을 VHD 형식으로 변환합니다.

      샘플은 qemu-img 버전 2.12.0을 사용합니다.

      $ qemu-img convert -f raw -o subformat=fixed,force_size -O vpc <image-xxx>.raw <image.xxx>.vhd

      변환되면 VHD 파일을 Azure에 업로드할 준비가 된 것입니다.

1.6. Azure CLI 설치

Azure 명령줄 인터페이스(Azure CLI 2.1)를 설치하려면 다음 단계를 완료합니다. Azure CLI 2.1은 Azure에서 VM을 생성하고 관리하는 Python 기반 유틸리티입니다.

사전 요구 사항

  • Azure CLI를 사용하려면 Microsoft Azure에 계정이 있어야 합니다.
  • Azure CLI 설치에는 Python 3.x가 필요합니다.

절차

  1. Microsoft 리포지토리 키를 가져옵니다.

    $ sudo rpm --import https://packages.microsoft.com/keys/microsoft.asc
  2. 로컬 Azure CLI 리포지토리 항목을 만듭니다.

    $ sudo sh -c 'echo -e "[azure-cli]\nname=Azure CLI\nbaseurl=https://packages.microsoft.com/yumrepos/azure-cli\nenabled=1\ngpgcheck=1\ngpgkey=https://packages.microsoft.com/keys/microsoft.asc" > /etc/yum.repos.d/azure-cli.repo'
  3. yum 패키지 인덱스를 업데이트합니다.

    $ yum check-update
  4. Python 버전(python --version)을 확인하고 필요한 경우 Python 3.x를 설치합니다.

    $ sudo yum install python3
  5. Azure CLI를 설치합니다.

    $ sudo yum install -y azure-cli
  6. Azure CLI를 실행합니다.

    $ az

1.7. Azure에서 리소스 생성

VHD 파일을 업로드하고 Azure 이미지를 생성하는 데 필요한 Azure 리소스를 생성하려면 다음 절차를 완료합니다.

절차

  1. 다음 명령을 입력하여 Azure로 시스템을 인증하고 로그인합니다.

    $ az login
    참고

    환경에서 브라우저를 사용할 수 있는 경우 CLI는 브라우저를 Azure 로그인 페이지로 엽니다. 자세한 내용 및 옵션은 Azure CLI로 로그인을 참조하십시오.

  2. Azure 리전에 리소스 그룹을 생성합니다.

    $ az group create --name <resource-group> --location <azure-region>

    예제:

    [clouduser@localhost]$ az group create --name azrhelclirsgrp --location southcentralus
    {
      "id": "/subscriptions//resourceGroups/azrhelclirsgrp",
      "location": "southcentralus",
      "managedBy": null,
      "name": "azrhelclirsgrp",
      "properties": {
        "provisioningState": "Succeeded"
      },
      "tags": null
    }
  3. 스토리지 계정을 생성합니다. 유효한 SKU 값에 대한 자세한 내용은 SKU 유형을 참조하십시오.

    $ az storage account create -l <azure-region> -n <storage-account-name> -g <resource-group> --sku <sku_type>

    예제:

    [clouduser@localhost]$ az storage account create -l southcentralus -n azrhelclistact -g azrhelclirsgrp --sku Standard_LRS
    {
      "accessTier": null,
      "creationTime": "2017-04-05T19:10:29.855470+00:00",
      "customDomain": null,
      "encryption": null,
      "id": "/subscriptions//resourceGroups/azrhelclirsgrp/providers/Microsoft.Storage/storageAccounts/azrhelclistact",
      "kind": "StorageV2",
      "lastGeoFailoverTime": null,
      "location": "southcentralus",
      "name": "azrhelclistact",
      "primaryEndpoints": {
        "blob": "https://azrhelclistact.blob.core.windows.net/",
        "file": "https://azrhelclistact.file.core.windows.net/",
        "queue": "https://azrhelclistact.queue.core.windows.net/",
        "table": "https://azrhelclistact.table.core.windows.net/"
    },
    "primaryLocation": "southcentralus",
    "provisioningState": "Succeeded",
    "resourceGroup": "azrhelclirsgrp",
    "secondaryEndpoints": null,
    "secondaryLocation": null,
    "sku": {
      "name": "Standard_LRS",
      "tier": "Standard"
    },
    "statusOfPrimary": "available",
    "statusOfSecondary": null,
    "tags": {},
      "type": "Microsoft.Storage/storageAccounts"
    }
  4. 스토리지 계정 연결 문자열을 가져옵니다.

    $ az storage account show-connection-string -n <storage-account-name> -g <resource-group>

    예제:

    [clouduser@localhost]$ az storage account show-connection-string -n azrhelclistact -g azrhelclirsgrp
    {
      "connectionString": "DefaultEndpointsProtocol=https;EndpointSuffix=core.windows.net;AccountName=azrhelclistact;AccountKey=NreGk...=="
    }
  5. 연결 문자열을 복사하고 다음 명령에 붙여넣어 연결 문자열을 내보냅니다. 이 문자열은 시스템을 스토리지 계정에 연결합니다.

    $ export AZURE_STORAGE_CONNECTION_STRING="<storage-connection-string>"

    예제:

    [clouduser@localhost]$ export AZURE_STORAGE_CONNECTION_STRING="DefaultEndpointsProtocol=https;EndpointSuffix=core.windows.net;AccountName=azrhelclistact;AccountKey=NreGk...=="
  6. 스토리지 컨테이너를 만듭니다.

    $ az storage container create -n <container-name>

    예제:

    [clouduser@localhost]$ az storage container create -n azrhelclistcont
    {
      "created": true
    }
  7. 가상 네트워크를 만듭니다.

    $ az network vnet create -g <resource group> --name <vnet-name> --subnet-name <subnet-name>

    예제:

    [clouduser@localhost]$ az network vnet create --resource-group azrhelclirsgrp --name azrhelclivnet1 --subnet-name azrhelclisubnet1
    {
      "newVNet": {
        "addressSpace": {
          "addressPrefixes": [
          "10.0.0.0/16"
          ]
      },
      "dhcpOptions": {
        "dnsServers": []
      },
      "etag": "W/\"\"",
      "id": "/subscriptions//resourceGroups/azrhelclirsgrp/providers/Microsoft.Network/virtualNetworks/azrhelclivnet1",
      "location": "southcentralus",
      "name": "azrhelclivnet1",
      "provisioningState": "Succeeded",
      "resourceGroup": "azrhelclirsgrp",
      "resourceGuid": "0f25efee-e2a6-4abe-a4e9-817061ee1e79",
      "subnets": [
        {
          "addressPrefix": "10.0.0.0/24",
          "etag": "W/\"\"",
          "id": "/subscriptions//resourceGroups/azrhelclirsgrp/providers/Microsoft.Network/virtualNetworks/azrhelclivnet1/subnets/azrhelclisubnet1",
          "ipConfigurations": null,
          "name": "azrhelclisubnet1",
          "networkSecurityGroup": null,
          "provisioningState": "Succeeded",
          "resourceGroup": "azrhelclirsgrp",
          "resourceNavigationLinks": null,
          "routeTable": null
        }
      ],
      "tags": {},
      "type": "Microsoft.Network/virtualNetworks",
      "virtualNetworkPeerings": null
      }
    }

1.8. Azure 이미지 업로드 및 생성

컨테이너에 VHD 파일을 업로드하고 Azure 사용자 지정 이미지를 생성하려면 다음 단계를 완료합니다.

참고

내보낸 스토리지 연결 문자열은 시스템을 재부팅한 후에도 지속되지 않습니다. 다음 단계의 명령이 하나라도 실패하면 연결 문자열을 다시 내보냅니다.

절차

  1. VHD 파일을 스토리지 컨테이너에 업로드합니다. 몇 분 정도 소요될 수 있습니다. 스토리지 컨테이너 목록을 가져오려면 az storage container list 명령을 입력합니다.

    $ az storage blob upload --account-name <storage-account-name> --container-name <container-name> --type page --file <path-to-vhd> --name <image-name>.vhd

    예제:

    [clouduser@localhost]$ az storage blob upload --account-name azrhelclistact --container-name azrhelclistcont --type page --file rhel-image-8.vhd --name rhel-image-8.vhd
    Percent complete: %100.0
  2. 업로드한 VHD 파일의 URL을 가져와 다음 단계에서 사용합니다.

    $ az storage blob url -c <container-name> -n <image-name>.vhd

    예제:

    $ az storage blob url -c azrhelclistcont -n rhel-image-8.vhd "https://azrhelclistact.blob.core.windows.net/azrhelclistcont/rhel-image-8.vhd"
  3. Azure 사용자 지정 이미지를 만듭니다.

    $ az image create -n <image-name> -g <resource-group> -l <azure-region> --source <URL> --os-type linux
    참고

    VM의 기본 하이퍼바이저 생성은 V1입니다. 선택 옵션으로 --hyper-v-generation V2 옵션을 포함하여 V2 하이퍼바이저 생성을 지정할 수 있습니다. 생성 2 VM은 UEFI 기반 부팅 아키텍처를 사용합니다. 2세대 VM에 대한 자세한 내용은 Azure에서 2 세대 VM에 대한 지원을 참조하십시오.

    명령은 "VHD로 포맷된 Blob만 가져올 수 있습니다."라는 오류를 반환할 수 있습니다. 이 오류는 VHD로 변환되기 전에 이미지가 가장 가까운 1MB 경계에 정렬되지 않았음을 의미할 수 있습니다.

    예제:

    $ az image create -n rhel8 -g azrhelclirsgrp2 -l southcentralus --source https://azrhelclistact.blob.core.windows.net/azrhelclistcont/rhel-image-8.vhd --os-type linux

1.9. Azure에서 VM 생성 및 시작

다음 단계에서는 이미지에서 관리 디스크 Azure VM을 생성하는 최소 명령 옵션을 제공합니다. 추가 옵션은 az vm create를 참조하십시오.

절차

  1. 다음 명령을 입력하여 VM을 생성합니다.

    참고

    --generate-ssh-keys 옵션은 개인/공개 키 쌍을 생성합니다. 개인 키 및 공개 키 파일은 시스템의 ~/.ssh에 생성됩니다. 공개 키는 --admin-username 옵션으로 지정한 사용자에 대해 VM의 authorized_keys 파일에 추가됩니다. 자세한 내용은 기타 인증 방법을 참조하십시오.

    $ az vm create -g <resource-group> -l <azure-region> -n <vm-name> --vnet-name <vnet-name> --subnet <subnet-name> --size Standard_A2 --os-disk-name <simple-name> --admin-username <administrator-name> --generate-ssh-keys --image <path-to-image>

    예제:

    [clouduser@localhost]$ az vm create -g azrhelclirsgrp2 -l southcentralus -n rhel-azure-vm-1 --vnet-name azrhelclivnet1 --subnet azrhelclisubnet1  --size Standard_A2 --os-disk-name vm-1-osdisk --admin-username clouduser --generate-ssh-keys --image rhel8
    
    {
      "fqdns": "",
      "id": "/subscriptions//resourceGroups/azrhelclirsgrp/providers/Microsoft.Compute/virtualMachines/rhel-azure-vm-1",
      "location": "southcentralus",
      "macAddress": "",
      "powerState": "VM running",
      "privateIpAddress": "10.0.0.4",
      "publicIpAddress": "<public-IP-address>",
      "resourceGroup": "azrhelclirsgrp2"

    publicIpAddress를 확인합니다. 다음 단계에서 VM에 로그인하려면 이 주소가 필요합니다.

  2. SSH 세션을 시작하고 VM에 로그인합니다.

    [clouduser@localhost]$ ssh  -i /home/clouduser/.ssh/id_rsa clouduser@<public-IP-address>.
    The authenticity of host ',<public-IP-address>' can't be established.
    Are you sure you want to continue connecting (yes/no)? yes
    Warning: Permanently added '<public-IP-address>' (ECDSA) to the list of known hosts.
    
    [clouduser@rhel-azure-vm-1 ~]$

사용자 프롬프트가 표시되면 Azure VM을 성공적으로 배포한 것입니다.

이제 Microsoft Azure 포털로 이동하여 리소스의 감사 로그 및 속성을 확인할 수 있습니다. 이 포털에서 VM을 직접 관리할 수 있습니다. 여러 VM을 관리하는 경우 Azure CLI를 사용해야 합니다. Azure CLI는 Azure의 리소스에 강력한 인터페이스를 제공합니다. CLI에 az --help를 입력하거나 Azure CLI 명령 참조를 사용하여 Microsoft Azure에서 VM을 관리하는 데 사용하는 명령에 대한 자세한 내용을 참조하십시오.

1.10. 기타 인증 방법

보안 강화에는 권장되지 않지만 Azure에서 생성한 키 쌍을 사용하는 것은 필요하지 않습니다. 다음 예제에서는 SSH 인증을 위한 두 가지 방법을 보여줍니다.

예 1: 이러한 명령 옵션은 공개 키 파일을 생성하지 않고 새 VM을 프로비저닝합니다. 암호를 사용하여 SSH 인증을 허용합니다.

$ az vm create -g <resource-group> -l <azure-region> -n <vm-name> --vnet-name <vnet-name> --subnet <subnet-name> --size Standard_A2 --os-disk-name <simple-name> --authentication-type password --admin-username <administrator-name> --admin-password <ssh-password> --image <path-to-image>
$ ssh <admin-username>@<public-ip-address>

예 2: 이러한 명령 옵션은 새 Azure VM을 프로비저닝하고 기존 공개 키 파일을 사용하여 SSH 인증을 허용합니다.

$ az vm create -g <resource-group> -l <azure-region> -n <vm-name> --vnet-name <vnet-name> --subnet <subnet-name> --size Standard_A2 --os-disk-name <simple-name> --admin-username <administrator-name> --ssh-key-value <path-to-existing-ssh-key> --image <path-to-image>
$ ssh -i <path-to-existing-ssh-key> <admin-username>@<public-ip-address>

1.11. Red Hat 서브스크립션 첨부

Red Hat Cloud Access 프로그램을 통해 이전에 활성화한 서브스크립션을 연결하려면 다음 단계를 완료합니다.

사전 요구 사항

  • 서브스크립션을 활성화해야 합니다.

절차

  1. 시스템을 등록합니다.

    # subscription-manager register --auto-attach
  2. 서브스크립션을 첨부합니다.

1.12. Azure Gold Images에 자동 등록 설정

Micorsoft Azure에 RHEL 8 가상 머신(VM)을 더 빠르고 쉽게 배포하기 위해 Red Hat Subscription Manager(RHSM)에 RHEL 8의 Gold Images를 자동으로 등록하도록 설정할 수 있습니다.

사전 요구 사항

  • Azure에서 클라우드 액세스에 적합한 Red Hat 제품 서브스크립션을 활성화하고 RHEL 8 Gold Images는 Microsoft Azure에서 사용할 수 있습니다. 자세한 내용은 Azure에서 Gold Images 사용을 참조하십시오.

    참고

    Microsoft Azure 계정은 한 번에 하나의 Red Hat 계정에만 연결할 수 있습니다. 따라서 다른 사용자가 Red Hat 계정에 연결하기 전에 Azure 계정에 액세스할 필요가 없는지 확인합니다.

절차

  1. Gold Image를 사용하여 Azure 인스턴스에 RHEL 8 VM을 생성합니다. 자세한 내용은 Azure에서 VM 생성 및 시작을 참조하십시오.
  2. 생성된 VM을 시작합니다.
  3. RHEL 8 VM에서 자동 등록을 활성화합니다.

    # subscription-manager config --rhsmcertd.auto_registration=1
  4. rhsmcertd 서비스를 활성화합니다.

    # systemctl enable rhsmcertd.service
  5. redhat.repo 리포지토리를 비활성화합니다.

    # subscription-manager config --rhsm.manage_repos=0
  6. VM의 전원을 끄고 Azure에 관리되는 이미지로 저장합니다. 자세한 내용은 가상 머신 또는 VHD의 관리되는 이미지를 만드는 방법을 참조하십시오.
  7. 관리되는 이미지를 사용하여 VM을 생성합니다. 자동으로 RHSM에 등록됩니다.

검증

  • 위의 지침을 사용하여 생성된 RHEL 8 VM에서 subscription-manager identity 명령을 실행하여 시스템이 RHSM에 등록되어 있는지 확인합니다. 성공적으로 등록된 시스템에서 시스템의 UUID가 표시됩니다. 예를 들면 다음과 같습니다.

    # subscription-manager identity
    system identity: fdc46662-c536-43fb-a18a-bbcb283102b7
    name: 192.168.122.222
    org name: 6340056
    org ID: 6340056

2장. Microsoft Azure에서 Red Hat High Availability 클러스터 구성

이 장에서는 Azure 가상 머신(VM) 인스턴스를 클러스터 노드로 사용하여 Azure에서 HA(Red Hat High Availability) 클러스터를 구성하는 데 필요한 정보 및 절차를 설명합니다. 이 장의 절차에서는 Azure에 대한 사용자 지정 이미지를 생성한다고 가정합니다. 클러스터에 사용하는 RHEL 8 이미지를 가져올 수 있는 여러 옵션이 있습니다. Azure의 이미지 옵션에 대한 자세한 내용은 Azure의 Red Hat Enterprise Linux 이미지 옵션을 참조하십시오.

이 장에서는 다음을 설명합니다.

  • Azure 환경을 설정하기 위한 사전 요구 사항을 설명합니다. 환경을 설정하고 나면 Azure VM 인스턴스를 생성하고 구성할 수 있습니다.
  • 이 장에는 개별 노드를 Azure의 HA 노드 클러스터로 변환하는 HA 클러스터 생성에 대한 절차도 포함되어 있습니다. 여기에는 각 클러스터 노드에 High Availability 패키지 및 에이전트를 설치하고, 펜싱을 구성하며, Azure 네트워크 리소스 에이전트를 설치하는 절차가 포함됩니다.

이 장에서는 여러 곳에서 Azure 설명서를 참조합니다. 자세한 내용은 참조된 Azure 설명서를 참조하십시오.

사전 요구 사항

  • Red Hat 고객 포털 계정에 등록합니다.
  • 관리자 권한으로 Microsoft Azure 계정에 등록합니다.
  • Azure CLI(명령줄 인터페이스)를 설치해야 합니다. 자세한 내용은 Azure CLI 설치를 참조하십시오.
  • Red Hat Cloud Access 프로그램에서 서브스크립션을 활성화합니다. Red Hat Cloud Access 프로그램을 사용하면 Red Hat 서브스크립션을 물리적 시스템 또는 사내 시스템에서 Azure로 이전할 수 있으며 Red Hat의 완벽한 지원을 받을 수 있습니다.

    • Azure Marketplace를 사용하여 RHEL 이미지를 온디맨드로 가져올 수 있습니다.

2.1. 추가 리소스

2.2. Azure에서 리소스 생성

지역, 리소스 그룹, 스토리지 계정, 가상 네트워크 및 가용성 세트를 생성하려면 다음 절차를 완료합니다. 이 장의 후속 작업을 완료하려면 이러한 리소스가 필요합니다.

절차

  1. Azure로 시스템을 인증하고 로그인합니다.

    $ az login
    참고

    환경에서 브라우저를 사용할 수 있는 경우 CLI는 브라우저를 Azure 로그인 페이지로 엽니다.

    예제:

    [clouduser@localhost]$ az login
    
    To sign in, use a web browser to open the page https://aka.ms/devicelogin and enter the code FDMSCMETZ to authenticate.
      [
        {
          "cloudName": "AzureCloud",
          "id": "Subscription ID",
          "isDefault": true,
          "name": "MySubscriptionName",
          "state": "Enabled",
          "tenantId": "Tenant ID",
          "user": {
            "name": "clouduser@company.com",
            "type": "user"
          }
        }
      ]
  2. Azure 리전에 리소스 그룹을 생성합니다.

    $ az group create --name resource-group --location azure-region

    예제:

    [clouduser@localhost]$ az group create --name azrhelclirsgrp --location southcentralus
    
    {
      "id": "/subscriptions//resourceGroups/azrhelclirsgrp",
      "location": "southcentralus",
      "managedBy": null,
      "name": "azrhelclirsgrp",
      "properties": {
        "provisioningState": "Succeeded"
      },
      "tags": null
    }
  3. 스토리지 계정을 생성합니다.

    $ az storage account create -l azure-region -n storage-account-name -g resource-group --sku sku_type --kind StorageV2

    예제:

    [clouduser@localhost]$ az storage account create -l southcentralus -n azrhelclistact -g azrhelclirsgrp --sku Standard_LRS --kind StorageV2
    
    {
      "accessTier": null,
      "creationTime": "2017-04-05T19:10:29.855470+00:00",
      "customDomain": null,
      "encryption": null,
      "id": "/subscriptions//resourceGroups/azrhelclirsgrp/providers/Microsoft.Storage/storageAccounts/azrhelclistact",
      "kind": "StorageV2",
      "lastGeoFailoverTime": null,
      "location": "southcentralus",
      "name": "azrhelclistact",
      "primaryEndpoints": {
        "blob": "https://azrhelclistact.blob.core.windows.net/",
        "file": "https://azrhelclistact.file.core.windows.net/",
        "queue": "https://azrhelclistact.queue.core.windows.net/",
        "table": "https://azrhelclistact.table.core.windows.net/"
    },
    "primaryLocation": "southcentralus",
    "provisioningState": "Succeeded",
    "resourceGroup": "azrhelclirsgrp",
    "secondaryEndpoints": null,
    "secondaryLocation": null,
    "sku": {
      "name": "Standard_LRS",
      "tier": "Standard"
    },
    "statusOfPrimary": "available",
    "statusOfSecondary": null,
    "tags": {},
      "type": "Microsoft.Storage/storageAccounts"
    }
  4. 스토리지 계정 연결 문자열을 가져옵니다.

    $ az storage account show-connection-string -n storage-account-name -g resource-group

    예제:

    [clouduser@localhost]$ az storage account show-connection-string -n azrhelclistact -g azrhelclirsgrp
    {
      "connectionString": "DefaultEndpointsProtocol=https;EndpointSuffix=core.windows.net;AccountName=azrhelclistact;AccountKey=NreGk...=="
    }
  5. 연결 문자열을 복사하고 다음 명령에 붙여넣어 연결 문자열을 내보냅니다. 이 문자열은 시스템을 스토리지 계정에 연결합니다.

    $ export AZURE_STORAGE_CONNECTION_STRING="storage-connection-string"

    예제:

    [clouduser@localhost]$ export AZURE_STORAGE_CONNECTION_STRING="DefaultEndpointsProtocol=https;EndpointSuffix=core.windows.net;AccountName=azrhelclistact;AccountKey=NreGk...=="
  6. 스토리지 컨테이너를 만듭니다.

    $ az storage container create -n container-name

    예제:

    [clouduser@localhost]$ az storage container create -n azrhelclistcont
    
    {
      "created": true
    }
  7. 가상 네트워크를 만듭니다. 모든 클러스터 노드는 동일한 가상 네트워크에 있어야 합니다.

    $ az network vnet create -g resource group --name vnet-name --subnet-name subnet-name

    예제:

    [clouduser@localhost]$ az network vnet create --resource-group azrhelclirsgrp --name azrhelclivnet1 --subnet-name azrhelclisubnet1
    {
      "newVNet": {
        "addressSpace": {
          "addressPrefixes": [
          "10.0.0.0/16"
          ]
      },
      "dhcpOptions": {
        "dnsServers": []
      },
      "etag": "W/\"\"",
      "id": "/subscriptions//resourceGroups/azrhelclirsgrp/providers/Microsoft.Network/virtualNetworks/azrhelclivnet1",
      "location": "southcentralus",
      "name": "azrhelclivnet1",
      "provisioningState": "Succeeded",
      "resourceGroup": "azrhelclirsgrp",
      "resourceGuid": "0f25efee-e2a6-4abe-a4e9-817061ee1e79",
      "subnets": [
        {
          "addressPrefix": "10.0.0.0/24",
          "etag": "W/\"\"",
          "id": "/subscriptions//resourceGroups/azrhelclirsgrp/providers/Microsoft.Network/virtualNetworks/azrhelclivnet1/subnets/azrhelclisubnet1",
          "ipConfigurations": null,
          "name": "azrhelclisubnet1",
          "networkSecurityGroup": null,
          "provisioningState": "Succeeded",
          "resourceGroup": "azrhelclirsgrp",
          "resourceNavigationLinks": null,
          "routeTable": null
        }
      ],
      "tags": {},
      "type": "Microsoft.Network/virtualNetworks",
      "virtualNetworkPeerings": null
      }
    }
  8. 가용성 집합을 생성합니다. 모든 클러스터 노드는 동일한 가용성 집합에 있어야 합니다.

    $ az vm availability-set create --name MyAvailabilitySet --resource-group MyResourceGroup

    예제:

    [clouduser@localhost]$ az vm availability-set create --name rhelha-avset1 --resource-group azrhelclirsgrp
    {
      "additionalProperties": {},
        "id": "/subscriptions/.../resourceGroups/azrhelclirsgrp/providers/Microsoft.Compute/availabilitySets/rhelha-avset1",
        "location": "southcentralus",
        "name": “rhelha-avset1",
        "platformFaultDomainCount": 2,
        "platformUpdateDomainCount": 5,
    
    ...omitted

2.3. 고가용성을 위한 필수 시스템 패키지

이 절차에서는 Red Hat Enterprise Linux를 사용하여 Azure HA용 VM 이미지를 생성한다고 가정합니다. 절차를 성공적으로 완료하려면 다음 패키지를 설치해야 합니다.

표 2.1. 시스템 패키지

패키지리포지터리설명

libvirt

rhel-8-for-x86_64-appstream-rpms

플랫폼 가상화 관리를 위한 오픈 소스 API, 데몬 및 관리 도구

virt-install

rhel-8-for-x86_64-appstream-rpms

가상 머신 구축을 위한 명령줄 유틸리티

libguestfs

rhel-8-for-x86_64-appstream-rpms

가상 머신 파일 시스템 액세스 및 수정을 위한 라이브러리

libguestfs-tools

rhel-8-for-x86_64-appstream-rpms

가상 머신용 시스템 관리 도구; guestfish 유틸리티 포함

2.4. Azure VM 구성 설정

Azure VM에는 다음과 같은 구성 설정이 있어야 합니다. 이러한 설정 중 일부는 초기 VM 생성 중에 활성화됩니다. 다른 설정은 Azure의 VM 이미지를 프로비저닝할 때 설정됩니다. 절차를 진행할 때 이러한 설정을 유념하십시오. 필요한 경우 참조합니다.

표 2.2. VM 구성 설정

설정권장 사항

ssh

Azure VM에 대한 원격 액세스를 제공하려면 SSH를 활성화해야 합니다.

dhcp

기본 가상 어댑터는 dhcp에 대해 구성해야 합니다(IPv4만 해당).

Swap Space

전용 스왑 파일 또는 스왑 파티션을 만들지 마십시오. Windows Azure Linux Agent(WALinuxAgent)를 사용하여 스왑 공간을 구성할 수 있습니다.

NIC

기본 가상 네트워크 어댑터로 virtio를 선택합니다.

Encryption

사용자 지정 이미지의 경우 Azure에서 전체 디스크 암호화에 NBDE(Network Bound Disk Encryption)를 사용합니다.

2.5. Hyper-V 장치 드라이버 설치

Microsoft는 Hyper-V 패키지를 위한 LIS(Linux Integration Services)의 일부로 네트워크 및 스토리지 장치 드라이버를 제공합니다. 가상 머신(VM)으로 프로비저닝하기 전에 VM 이미지에 Hyper-V 장치 드라이버를 설치해야 할 수 있습니다. lsinitrd | grep hv 명령을 사용하여 드라이버가 설치되었는지 확인합니다.

절차

  1. 다음 grep 명령을 입력하여 필요한 Hyper-V 장치 드라이버가 설치되어 있는지 확인합니다.

    # lsinitrd | grep hv

    아래 예제에서는 필요한 모든 드라이버가 설치됩니다.

    # lsinitrd | grep hv
    drwxr-xr-x   2 root     root            0 Aug 12 14:21 usr/lib/modules/3.10.0-932.el8.x86_64/kernel/drivers/hv
    -rw-r--r--   1 root     root        31272 Aug 11 08:45 usr/lib/modules/3.10.0-932.el8.x86_64/kernel/drivers/hv/hv_vmbus.ko.xz
    -rw-r--r--   1 root     root        25132 Aug 11 08:46 usr/lib/modules/3.10.0-932.el8.x86_64/kernel/drivers/net/hyperv/hv_netvsc.ko.xz
    -rw-r--r--   1 root     root         9796 Aug 11 08:45 usr/lib/modules/3.10.0-932.el8.x86_64/kernel/drivers/scsi/hv_storvsc.ko.xz

    모든 드라이버가 설치되지 않은 경우 나머지 단계를 완료합니다.

    참고

    환경에 hv_vmbus 드라이버가 있을 수 있습니다. 이 드라이버가 있는 경우에도 다음 단계를 완료합니다.

  2. /etc/dracut.conf.dhv.conf라는 파일을 만듭니다.
  3. 다음 드라이버 매개 변수를 hv.conf 파일에 추가합니다.

    add_drivers+=" hv_vmbus "
    add_drivers+=" hv_netvsc "
    add_drivers+=" hv_storvsc "
    add_drivers+=" nvme "
    참고

    따옴표 앞뒤에 공백이 있는지 확인합니다. (예: add_drivers+=" hv_vmbus " ). 이렇게 하면 환경에 다른 Hyper-V 드라이버가 이미 있는 경우 고유한 드라이버가 로드됩니다.

  4. initramfs 이미지를 다시 생성합니다.

    # dracut -f -v --regenerate-all

검증

  1. 시스템을 재부팅합니다.
  2. lsinitrd | grep hv 명령을 실행하여 드라이버가 설치되었는지 확인합니다.

2.6. Microsoft Azure 배포에 필요한 구성 변경

사용자 지정 기본 이미지를 Azure에 배포하기 전에 추가 구성 변경을 수행하여 가상 머신(VM)이 Azure에서 제대로 작동할 수 있는지 확인해야 합니다.

절차

  1. VM에 로그인합니다.
  2. VM을 등록하고 Red Hat Enterprise Linux 8 리포지토리를 활성화합니다.

    # subscription-manager register --auto-attach
    Installed Product Current Status:
    Product Name: Red Hat Enterprise Linux for x86_64
    Status: Subscribed
  3. cloud-inithyperv-daemons 패키지가 설치되어 있는지 확인합니다.

    # yum install cloud-init hyperv-daemons -y
  4. Azure 서비스와의 통합에 필요한 cloud-init 구성 파일을 생성합니다.

    1. Hyper-VP(Hyper-V Data Exchange Service)에 로깅을 사용하려면 /etc/cloud/cloud.cfg.d/10-azure-kvp.cfg 구성 파일을 만들고 해당 파일에 다음 행을 추가합니다.

      reporting:
          logging:
              type: log
          telemetry:
              type: hyperv
    2. Azure를 데이터 소스로 추가하려면 /etc/cloud/cloud.cfg.d/91-azure_datasource.cfg 구성 파일을 생성하고 해당 파일에 다음 행을 추가합니다.

      datasource_list: [ Azure ]
      datasource:
          Azure:
              apply_network_config: False
  5. 특정 커널 모듈이 자동으로 로드되지 않도록 하려면 /etc/modprobe.d/blocklist.conf 파일을 편집하거나 생성한 후 해당 파일에 다음 행을 추가합니다.

    blacklist nouveau
    blacklist lbm-nouveau
    blacklist floppy
    blacklist amdgpu
    blacklist skx_edac
    blacklist intel_cstate
  6. udev 네트워크 장치 규칙을 수정합니다.

    1. 다음과 같은 영구적인 네트워크 장치 규칙이 있는 경우 제거합니다.

      # rm -f /etc/udev/rules.d/70-persistent-net.rules
      # rm -f /etc/udev/rules.d/75-persistent-net-generator.rules
      # rm -f /etc/udev/rules.d/80-net-name-slot-rules
    2. Azure의 Accelerated Networking이 의도한 대로 작동하도록 하려면 새 네트워크 장치 규칙 /etc/udev/rules.d/68-azure-nm-unmanaged.rules 를 만들고 다음 행을 추가합니다.

      SUBSYSTEM=="net", DRIVERS=="hv_pci", ACTION=="add", ENV{NM_UNMANAGED}="1"
  7. 자동으로 시작하도록 sshd 서비스를 설정합니다.

    # systemctl enable sshd
    # systemctl is-enabled sshd
  8. 커널 부팅 매개변수 수정:

    1. /etc/default/grub 파일을 열고 GRUB_TIMEOUT 행에 다음 값이 있는지 확인합니다.

      GRUB_TIMEOUT=10
    2. GRUB_CMDLINE_LINUX 행 끝에 있는 경우 다음 옵션을 제거합니다.

      rhgb quiet
    3. /etc/default/grub 파일에 지정된 모든 옵션이 포함된 다음 행이 포함되어 있는지 확인합니다.

      GRUB_CMDLINE_LINUX="loglevel=3 crashkernel=auto console=tty1 console=ttyS0 earlyprintk=ttyS0 rootdelay=300"
      GRUB_TIMEOUT_STYLE=countdown
      GRUB_TERMINAL="serial console"
      GRUB_SERIAL_COMMAND="serial --speed=115200 --unit=0 --word=8 --parity=no --stop=1"
    4. grub.cfg 파일을 다시 생성합니다.

      BIOS 기반 시스템에서 다음을 수행합니다.

      # grub2-mkconfig -o /boot/grub2/grub.cfg

      UEFI 기반 머신에서 다음을 수행합니다.

      # grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg

      시스템이 grub.cfg 에 기본이 아닌 위치를 사용하는 경우 그에 따라 명령을 조정합니다.

  9. Windows Azure Linux 에이전트(WALinuxAgent)를 구성합니다.

    1. WALinuxAgent 패키지를 설치하고 활성화합니다.

      # yum install WALinuxAgent -y
      # systemctl enable waagent
    2. 프로비저닝된 VM에서 스왑 파티션을 사용하지 않도록 하려면 /etc/waagent.conf 파일에서 다음 행을 편집합니다.

      Provisioning.DeleteRootPassword=y
      ResourceDisk.Format=n
      ResourceDisk.EnableSwap=n
  10. Azure 프로비저닝을 위한 VM을 준비합니다.

    1. Red Hat Subscription Manager에서 VM 등록을 취소합니다.

      # subscription-manager unregister
    2. 기존 프로비저닝 세부 정보를 정리합니다.

      # waagent -force -deprovision
      참고

      이 명령은 Azure에서 VM의 프로비저닝을 자동으로 처리하므로 예상되는 경고를 생성합니다.

    3. 쉘 기록을 정리하고 VM을 종료합니다.

      # export HISTSIZE=0
      # poweroff

2.7. Azure Active Directory 애플리케이션 생성

Azure Active Directory AD 애플리케이션을 만들려면 다음 절차를 완료하십시오. Azure AD 애플리케이션은 클러스터의 모든 노드에 대한 HA 작업에 대한 액세스를 인증하고 자동화합니다.

사전 요구 사항

Azure CLI(명령줄 인터페이스)를 설치합니다.

절차

  1. Microsoft Azure 서브스크립션의 관리자 또는 소유자인지 확인합니다. Azure AD 애플리케이션을 생성하려면 이 권한이 필요합니다.
  2. Azure 계정에 로그인합니다.

    $ az login
  3. 다음 명령을 입력하여 Azure AD 애플리케이션을 생성합니다. 자신의 암호를 사용하려면 명령에 --password 옵션을 추가합니다. 강력한 암호를 만들어야 합니다.

    $ az ad sp create-for-rbac --name FencingApplicationName --role owner --scopes "/subscriptions/SubscriptionID/resourceGroups/MyResourseGroup"

    예제:

    [clouduser@localhost ~] $ az ad sp create-for-rbac --name FencingApp --role owner --scopes "/subscriptions/2586c64b-xxxxxx-xxxxxxx-xxxxxxx/resourceGroups/azrhelclirsgrp"
    Retrying role assignment creation: 1/36
    Retrying role assignment creation: 2/36
    Retrying role assignment creation: 3/36
    {
      "appId": "1a3dfe06-df55-42ad-937b-326d1c211739",
      "displayName": "FencingApp",
      "name": "http://FencingApp",
      "password": "43a603f0-64bb-482e-800d-402efe5f3d47",
      "tenant": "77ecefb6-xxxxxxxxxx-xxxxxxx-757a69cb9485"
    }
  4. 계속하기 전에 다음 정보를 저장합니다. 펜싱 에이전트를 설정하려면 이 정보가 필요합니다.

    • Azure AD 애플리케이션 ID
    • Azure AD 애플리케이션 암호
    • 테넌트 ID
    • Microsoft Azure 서브스크립션 ID

2.8. 이미지를 고정 VHD 형식으로 변환

모든 Microsoft Azure VM 이미지는 고정 VHD 형식이어야 합니다. 이미지는 VHD로 변환되기 전에 1MB 경계에 정렬해야 합니다. 이 섹션에서는 qcow2에서 고정 VHD 형식으로 이미지를 변환하고 필요한 경우 이미지를 정렬하는 방법을 설명합니다. 이미지를 변환한 후에는 Azure에 업로드할 수 있습니다.

절차

  1. 이미지를 qcow2에서 raw 형식으로 변환합니다.

    $ qemu-img convert -f qcow2 -O raw <image-name>.qcow2 <image-name>.raw
  2. 아래 내용을 사용하여 쉘 스크립트를 생성합니다.

    #!/bin/bash
    MB=$((1024 * 1024))
    size=$(qemu-img info -f raw --output json "$1" | gawk 'match($0, /"virtual-size": ([0-9]+),/, val) {print val[1]}')
    rounded_size=$((($size/$MB + 1) * $MB))
    if [ $(($size % $MB)) -eq  0 ]
    then
     echo "Your image is already aligned. You do not need to resize."
     exit 1
    fi
    echo "rounded size = $rounded_size"
    export rounded_size
  3. 스크립트를 실행합니다. 이 예에서는 align.sh라는 이름을 사용합니다.

    $ sh align.sh <image-xxx>.raw
    • "이미지가 이미 정렬되어 있습니다. 크기를 조정할 필요가 없습니다."라는 메시지가 표시되면 다음 단계로 진행합니다.
    • 값이 표시되면 이미지가 정렬되지 않은 것입니다.
  4. 다음 명령을 사용하여 파일을 고정 VHD 형식으로 변환합니다.

    샘플은 qemu-img 버전 2.12.0을 사용합니다.

    $ qemu-img convert -f raw -o subformat=fixed,force_size -O vpc <image-xxx>.raw <image.xxx>.vhd

    변환되면 VHD 파일을 Azure에 업로드할 준비가 된 것입니다.

  5. raw 이미지가 정렬되지 않은 경우 다음 단계를 완료하여 정렬합니다.

    1. 확인 스크립트를 실행할 때 표시되는 반올림 값을 사용하여 raw 파일의 크기를 조정합니다.

      $ qemu-img resize -f raw <image-xxx>.raw <rounded-value>
    2. raw 이미지 파일을 VHD 형식으로 변환합니다.

      샘플은 qemu-img 버전 2.12.0을 사용합니다.

      $ qemu-img convert -f raw -o subformat=fixed,force_size -O vpc <image-xxx>.raw <image.xxx>.vhd

      변환되면 VHD 파일을 Azure에 업로드할 준비가 된 것입니다.

2.9. Azure 이미지 업로드 및 생성

컨테이너에 VHD 파일을 업로드하고 Azure 사용자 지정 이미지를 생성하려면 다음 단계를 완료합니다.

참고

내보낸 스토리지 연결 문자열은 시스템을 재부팅한 후에도 지속되지 않습니다. 다음 단계의 명령이 하나라도 실패하면 연결 문자열을 다시 내보냅니다.

절차

  1. VHD 파일을 스토리지 컨테이너에 업로드합니다. 몇 분 정도 소요될 수 있습니다. 스토리지 컨테이너 목록을 가져오려면 az storage container list 명령을 입력합니다.

    $ az storage blob upload --account-name <storage-account-name> --container-name <container-name> --type page --file <path-to-vhd> --name <image-name>.vhd

    예제:

    [clouduser@localhost]$ az storage blob upload --account-name azrhelclistact --container-name azrhelclistcont --type page --file rhel-image-8.vhd --name rhel-image-8.vhd
    Percent complete: %100.0
  2. 업로드한 VHD 파일의 URL을 가져와 다음 단계에서 사용합니다.

    $ az storage blob url -c <container-name> -n <image-name>.vhd

    예제:

    $ az storage blob url -c azrhelclistcont -n rhel-image-8.vhd "https://azrhelclistact.blob.core.windows.net/azrhelclistcont/rhel-image-8.vhd"
  3. Azure 사용자 지정 이미지를 만듭니다.

    $ az image create -n <image-name> -g <resource-group> -l <azure-region> --source <URL> --os-type linux
    참고

    VM의 기본 하이퍼바이저 생성은 V1입니다. 선택 옵션으로 --hyper-v-generation V2 옵션을 포함하여 V2 하이퍼바이저 생성을 지정할 수 있습니다. 생성 2 VM은 UEFI 기반 부팅 아키텍처를 사용합니다. 2세대 VM에 대한 자세한 내용은 Azure에서 2 세대 VM에 대한 지원을 참조하십시오.

    명령은 "VHD로 포맷된 Blob만 가져올 수 있습니다."라는 오류를 반환할 수 있습니다. 이 오류는 VHD로 변환되기 전에 이미지가 가장 가까운 1MB 경계에 정렬되지 않았음을 의미할 수 있습니다.

    예제:

    $ az image create -n rhel8 -g azrhelclirsgrp2 -l southcentralus --source https://azrhelclistact.blob.core.windows.net/azrhelclistcont/rhel-image-8.vhd --os-type linux

2.10. Red Hat HA 패키지 및 에이전트 설치

모든 노드에서 다음 단계를 완료합니다.

절차

  1. SSH 터미널 세션을 시작하고 관리자 이름과 공용 IP 주소를 사용하여 VM에 연결합니다.

    $ ssh administrator@PublicIP

    Azure VM의 공용 IP 주소를 가져오려면 Azure 포털에서 VM 속성을 열거나 다음 Azure CLI 명령을 입력합니다.

    $ az vm list -g <resource-group> -d --output table

    예제:

    [clouduser@localhost ~] $ az vm list -g azrhelclirsgrp -d --output table
    Name    ResourceGroup           PowerState      PublicIps        Location
    ------  ----------------------  --------------  -------------    --------------
    node01  azrhelclirsgrp          VM running      192.98.152.251    southcentralus
  2. VM을 Red Hat에 등록합니다.

    $ sudo -i
    # subscription-manager register --auto-attach
    참고

    --auto-attach 명령이 실패하면 VM을 서브스크립션에 수동으로 등록합니다.

  3. 모든 리포지토리를 비활성화합니다.

    # subscription-manager repos --disable=*
  4. RHEL 8 Server HA 리포지토리를 활성화합니다.

    # subscription-manager repos --enable=rhel-8-for-x86_64-highavailability-rpms
  5. 모든 패키지를 업데이트합니다.

    # yum update -y
  6. 고가용성 채널에서 사용 가능한 모든 펜싱 에이전트와 함께 Red Hat High Availability Add-On 소프트웨어 패키지를 설치합니다.

    # yum install pcs pacemaker fence-agents-azure-arm
  7. 사용자 hacluster는 이전 단계에서 pcs 및 pacemaker 설치 중에 생성되었습니다. 모든 클러스터 노드에서 hacluster의 암호를 생성합니다. 모든 노드에 동일한 암호를 사용합니다.

    # passwd hacluster
  8. firewalld.service가 설치된 경우 RHEL 방화벽에 high availability 서비스를 추가합니다.

    # firewall-cmd --permanent --add-service=high-availability
    # firewall-cmd --reload
  9. pcs 서비스를 시작하고 부팅 시 시작되도록 활성화합니다.

    # systemctl start pcsd.service
    # systemctl enable pcsd.service
    
    Created symlink from /etc/systemd/system/multi-user.target.wants/pcsd.service to /usr/lib/systemd/system/pcsd.service.

검증

  • pcs 서비스가 실행 중인지 확인합니다.

    # systemctl status pcsd.service
    pcsd.service - PCS GUI and remote configuration interface
    Loaded: loaded (/usr/lib/systemd/system/pcsd.service; enabled; vendor preset: disabled)
    Active: active (running) since Fri 2018-02-23 11:00:58 EST; 1min 23s ago
    Docs: man:pcsd(8)
              man:pcs(8)
    Main PID: 46235 (pcsd)
      CGroup: /system.slice/pcsd.service
              └─46235 /usr/bin/ruby /usr/lib/pcsd/pcsd > /dev/null &

2.11. 클러스터 생성

노드 클러스터를 생성하려면 다음 단계를 완료합니다.

절차

  1. 노드 중 하나에서 다음 명령을 입력하여 pcs 사용자 hacluster를 인증합니다. 명령에서 클러스터의 각 노드의 이름을 지정합니다.

    # pcs host auth <hostname1> <hostname2> <hostname3>

    예제:

    [root@node01 clouduser]# pcs host auth node01 node02 node03
    Username: hacluster
    Password:
    node01: Authorized
    node02: Authorized
    node03: Authorized
  2. 클러스터를 생성합니다.

    # pcs cluster setup <cluster_name> <hostname1> <hostname2> <hostname3>

    예제:

    [root@node01 clouduser]# pcs cluster setup new_cluster node01 node02 node03
    
    ...omitted
    
    Synchronizing pcsd certificates on nodes node01, node02, node03...
    node02: Success
    node03: Success
    node01: Success
    Restarting pcsd on the nodes in order to reload the certificates...
    node02: Success
    node03: Success
    node01: Success

검증

  1. 클러스터를 활성화합니다.

    [root@node01 clouduser]# pcs cluster enable --all
    node02: Cluster Enabled
    node03: Cluster Enabled
    node01: Cluster Enabled
  2. 클러스터를 시작합니다.

    [root@node01 clouduser]# pcs cluster start --all
    node02: Starting Cluster...
    node03: Starting Cluster...
    node01: Starting Cluster...

2.12. 펜싱 개요

클러스터의 단일 노드와 통신하는 데 실패하는 경우 클러스터의 다른 노드는 실패한 클러스터 노드에서 액세스할 수 있는 리소스에 대한 액세스를 제한하거나 해제할 수 있어야 합니다. 클러스터 노드가 응답하지 않을 수 있으므로 클러스터 노드에 직접 연결하여 이 작업을 수행할 수 없습니다. 대신 차단 에이전트를 사용한 펜싱이라는 외부 방법을 제공해야 합니다.

응답하지 않는 노드는 여전히 데이터에 액세스 중일 수 있습니다. 데이터가 안전하다는 것을 확인하는 유일한 방법은 STONITH를 사용하여 노드를 차단하는 것입니다. STONITH는 "Shoot The Other Node In The Head"의 약자이며 데이터가 악성 노드나 동시 액세스로 손상되지 않도록 보호합니다. STONITH를 사용하면 다른 노드에서 데이터에 액세스할 수 있도록 허용하기 전에 노드가 실제로 오프라인 상태인지 확인할 수 있습니다.

2.13. 펜싱 장치 생성

펜싱을 구성하려면 다음 단계를 완료합니다. 클러스터의 모든 노드에서 다음 명령을 완료합니다.

사전 요구 사항

클러스터 속성 stonith-enabledtrue로 설정해야 합니다.

절차

  1. 각 RHEL VM의 Azure 노드 이름을 식별합니다. Azure 노드 이름을 사용하여 차단 장치를 구성합니다.

    # fence_azure_arm -l AD-Application-ID -p AD-Password --resourceGroup MyResourceGroup --tenantId Tenant-ID --subscriptionId Subscription-ID -o list

    예제:

    [root@node01 clouduser]# fence_azure_arm -l e04a6a49-9f00-xxxx-xxxx-a8bdda4af447 -p z/a05AwCN0IzAjVwXXXXXXXEWIoeVp0xg7QT//JE= --resourceGroup azrhelclirsgrp --tenantId 77ecefb6-cff0-XXXX-XXXX-757XXXX9485 --subscriptionId XXXXXXXX-38b4-4527-XXXX-012d49dfc02c -o list
    node01,
    node02,
    node03,
  2. Azure ARM STONITH 에이전트의 옵션을 확인합니다.

    # pcs stonith describe fence_azure_arm

    예제:

    # pcs stonith describe fence_apc
    Stonith options:
    password: Authentication key
    password_script: Script to run to retrieve password
    주의

    메서드 옵션을 제공하는 펜스 에이전트의 경우 지원되지 않고 데이터 손상을 일으킬 수 있으므로 주기 값을 지정하지 마십시오.

    일부 차단 장치는 단일 노드만 펜싱할 수 있지만 다른 장치는 여러 노드를 펜싱할 수 있습니다. 차단 장치를 생성할 때 지정하는 매개변수는 차단 장치가 지원하고 요구하는 사항에 따라 다릅니다.

    차단 장치를 생성할 때 pcmk_host_list 매개 변수를 사용하여 해당 펜싱 장치에서 제어하는 모든 시스템을 지정할 수 있습니다.

    차단 장치를 생성할 때 pcmk_host_map 매개 변수를 사용하여 차단 장치를 이해하는 사양에 호스트 이름을 매핑할 수 있습니다.

  3. 차단 장치를 생성합니다.

    # pcs stonith create clusterfence fence_azure_arm
  4. 다른 노드 중 하나에 대해 펜싱 에이전트를 테스트합니다.

    # pcs stonith fence azurenodename

    예제:

    [root@node01 clouduser]# pcs status
    Cluster name: newcluster
    Stack: corosync
    Current DC: node01 (version 1.1.18-11.el7-2b07d5c5a9) - partition with quorum
    Last updated: Fri Feb 23 11:44:35 2018
    Last change: Fri Feb 23 11:21:01 2018 by root via cibadmin on node01
    
    3 nodes configured
    1 resource configured
    
    Online: [ node01 node03 ]
    OFFLINE: [ node02 ]
    
    Full list of resources:
    
      clusterfence  (stonith:fence_azure_arm):  Started node01
    
    Daemon Status:
      corosync: active/disabled
      pacemaker: active/disabled
      pcsd: active/enabled
  5. 이전 단계에서 차단된 노드를 시작합니다.

    # pcs cluster start hostname
  6. 상태를 확인하여 노드가 시작되었는지 확인합니다.

    # pcs status

    예제:

    [root@node01 clouduser]# pcs status
    Cluster name: newcluster
    Stack: corosync
    Current DC: node01 (version 1.1.18-11.el7-2b07d5c5a9) - partition with quorum
    Last updated: Fri Feb 23 11:34:59 2018
    Last change: Fri Feb 23 11:21:01 2018 by root via cibadmin on node01
    
    3 nodes configured
    1 resource configured
    
    Online: [ node01 node02 node03 ]
    
    Full list of resources:
    
    clusterfence    (stonith:fence_azure_arm):  Started node01
    
    Daemon Status:
      corosync: active/disabled
      pacemaker: active/disabled
      pcsd: active/enabled

2.14. Azure 내부 로드 밸런서 생성

Azure 내부 로드 밸런서는 상태 프로브 요청에 응답하지 않는 클러스터 노드를 제거합니다.

다음 절차를 수행하여 Azure 내부 로드 밸런서를 생성합니다. 각 단계는 특정 Microsoft 절차를 참조하고 HA에 대한 로드 밸런서를 사용자 지정하는 설정을 포함합니다.

사전 요구 사항

Azure 제어판

절차

  1. 기본 로드 밸런서를 생성합니다. IP 주소 할당 유형으로 Internal load balancer ( 내부 로드 밸런서), Basic SKU (기본 SKU) 및 Dynamic (동적)을 선택합니다.
  2. 백엔드 주소 풀을 생성합니다. HA에서 Azure 리소스를 생성하는 동안 생성된 가용성 집합에 백엔드 풀을 연결합니다. 대상 네트워크 IP 구성을 설정하지 마십시오.
  3. 상태 프로브를 생성합니다. 상태 프로브의 경우 TCP를 선택하고 포트 61000을 입력합니다. 다른 서비스를 방해하지 않는 TCP 포트 번호를 사용할 수 있습니다. 특정 HA 제품 애플리케이션(예: SAP HANA 및 SQL Server)의 경우 사용할 올바른 포트를 식별하기 위해 Microsoft로 작업해야 할 수 있습니다.
  4. 로드 밸런서 규칙을 생성합니다. 부하 분산 규칙을 생성하려면 기본값이 미리 채워집니다. Floating IP(direct server return)를 Enabled (활성화)로 설정해야 합니다.

2.15. 로드 밸런서 리소스 에이전트 구성

상태 프로브를 생성한 후 load balancer 리소스 에이전트를 구성해야 합니다. 이 리소스 에이전트는 Azure 로드 밸런서의 상태 프로브 요청에 응답하는 서비스를 실행하고 요청에 응답하지 않는 클러스터 노드를 제거합니다.

절차

  1. 모든 노드에 nmap-ncat 리소스 에이전트를 설치합니다.

    # yum install nmap-ncat resource-agents

    단일 노드에서 다음 단계를 수행합니다.

  2. pcs 리소스 및 그룹을 만듭니다. IPaddr2 주소에 로드 밸런서 FrontendIP를 사용합니다.

    # pcs resource create resource-name IPaddr2 ip="10.0.0.7" --group cluster-resources-group
  3. load balancer 리소스 에이전트를 구성합니다.

    # pcs resource create resource-loadbalancer-name azure-lb port=port-number --group cluster-resources-group

검증

  • pcs status를 실행하여 결과를 확인합니다.

    [root@node01 clouduser]# pcs status

    출력 예:

    Cluster name: clusterfence01
    Stack: corosync
    Current DC: node02 (version 1.1.16-12.el7_4.7-94ff4df) - partition with quorum
    Last updated: Tue Jan 30 12:42:35 2018
    Last change: Tue Jan 30 12:26:42 2018 by root via cibadmin on node01
    
    3 nodes configured
    3 resources configured
    
    Online: [ node01 node02 node03 ]
    
    Full list of resources:
    
    clusterfence (stonith:fence_azure_arm):      Started node01
    Resource Group: g_azure
        vip_azure  (ocf::heartbeat:IPaddr2):       Started node02
        lb_azure   (ocf::heartbeat:azure-lb):      Started node02
    
    Daemon Status:
      corosync: active/disabled
      pacemaker: active/disabled
      pcsd: active/enabled

2.16. 공유 블록 스토리지 구성

이 섹션에서는 Microsoft Azure Shared Disks로 Red Hat High Availability 클러스터의 공유 블록 스토리지를 구성하는 선택적 절차를 제공합니다. 이 절차에서는 1TB 공유 디스크가 있는 3개의 Azure VM(3노드 클러스터)을 가정합니다.

참고

블록 스토리지를 구성하는 독립 실행형 샘플 절차입니다. 이 절차에서는 클러스터를 아직 생성하지 않은 것으로 가정합니다.

사전 요구 사항

절차

  1. Azure 명령 az disk create를 사용하여 공유 블록 볼륨을 만듭니다.

    $ az disk create -g <resource_group> -n <shared_block_volume_name> --size-gb <disk_size> --max-shares <number_vms> -l <location>

    예를 들어 다음 명령은 Azure Availability Zone westcentralus 내의 리소스 그룹 shared block에 shared- block-volume.vhd 라는 공유 블록 볼륨을 생성합니다.

    $ az disk create -g sharedblock-rg -n shared-block-volume.vhd --size-gb 1024 --max-shares 3 -l westcentralus
    
    {
      "creationData": {
        "createOption": "Empty",
        "galleryImageReference": null,
        "imageReference": null,
        "sourceResourceId": null,
        "sourceUniqueId": null,
        "sourceUri": null,
        "storageAccountId": null,
        "uploadSizeBytes": null
      },
      "diskAccessId": null,
      "diskIopsReadOnly": null,
      "diskIopsReadWrite": 5000,
      "diskMbpsReadOnly": null,
      "diskMbpsReadWrite": 200,
      "diskSizeBytes": 1099511627776,
      "diskSizeGb": 1024,
      "diskState": "Unattached",
      "encryption": {
        "diskEncryptionSetId": null,
        "type": "EncryptionAtRestWithPlatformKey"
      },
      "encryptionSettingsCollection": null,
      "hyperVgeneration": "V1",
      "id": "/subscriptions/12345678910-12345678910/resourceGroups/sharedblock-rg/providers/Microsoft.Compute/disks/shared-block-volume.vhd",
      "location": "westcentralus",
      "managedBy": null,
      "managedByExtended": null,
      "maxShares": 3,
      "name": "shared-block-volume.vhd",
      "networkAccessPolicy": "AllowAll",
      "osType": null,
      "provisioningState": "Succeeded",
      "resourceGroup": "sharedblock-rg",
      "shareInfo": null,
      "sku": {
        "name": "Premium_LRS",
        "tier": "Premium"
      },
      "tags": {},
      "timeCreated": "2020-08-27T15:36:56.263382+00:00",
      "type": "Microsoft.Compute/disks",
      "uniqueId": "cd8b0a25-6fbe-4779-9312-8d9cbb89b6f2",
      "zones": null
    }
  2. Azure 명령 az disk show 를 사용하여 공유 블록 볼륨을 생성했는지 확인합니다.

    $ az disk show -g <resource_group> -n <shared_block_volume_name>

    예를 들어 다음 명령은 리소스 그룹 sharedblock- rg 내의 공유 블록 볼륨 shared-block-volume.vhd 에 대한 세부 정보를 표시합니다.

    $ az disk show -g sharedblock-rg -n shared-block-volume.vhd
    
    {
      "creationData": {
        "createOption": "Empty",
        "galleryImageReference": null,
        "imageReference": null,
        "sourceResourceId": null,
        "sourceUniqueId": null,
        "sourceUri": null,
        "storageAccountId": null,
        "uploadSizeBytes": null
      },
      "diskAccessId": null,
      "diskIopsReadOnly": null,
      "diskIopsReadWrite": 5000,
      "diskMbpsReadOnly": null,
      "diskMbpsReadWrite": 200,
      "diskSizeBytes": 1099511627776,
      "diskSizeGb": 1024,
      "diskState": "Unattached",
      "encryption": {
        "diskEncryptionSetId": null,
        "type": "EncryptionAtRestWithPlatformKey"
      },
      "encryptionSettingsCollection": null,
      "hyperVgeneration": "V1",
      "id": "/subscriptions/12345678910-12345678910/resourceGroups/sharedblock-rg/providers/Microsoft.Compute/disks/shared-block-volume.vhd",
      "location": "westcentralus",
      "managedBy": null,
      "managedByExtended": null,
      "maxShares": 3,
      "name": "shared-block-volume.vhd",
      "networkAccessPolicy": "AllowAll",
      "osType": null,
      "provisioningState": "Succeeded",
      "resourceGroup": "sharedblock-rg",
      "shareInfo": null,
      "sku": {
        "name": "Premium_LRS",
        "tier": "Premium"
      },
      "tags": {},
      "timeCreated": "2020-08-27T15:36:56.263382+00:00",
      "type": "Microsoft.Compute/disks",
      "uniqueId": "cd8b0a25-6fbe-4779-9312-8d9cbb89b6f2",
      "zones": null
    }
  3. Azure 명령 az network nic create를 사용하여 세 개의 네트워크 인터페이스를 만듭니다. 각각 다른 <nic_name>을 사용하여 다음 명령을 세 번 실행합니다.

    $ az network nic create -g <resource_group> -n <nic_name> --subnet <subnet_name> --vnet-name <virtual_network> --location <location> --network-security-group <network_security_group> --private-ip-address-version IPv4

    예를 들어 다음 명령은 이름이 shareblock-nodea-vm-nic-protected 인 네트워크 인터페이스를 만듭니다.

    $ az network nic create -g sharedblock-rg -n sharedblock-nodea-vm-nic-protected --subnet sharedblock-subnet-protected --vnet-name sharedblock-vn --location westcentralus --network-security-group sharedblock-nsg --private-ip-address-version IPv4
  4. 3개의 VM을 생성하고 Azure 명령 az vm create 를 사용하여 공유 블록 볼륨을 연결합니다. 각 VM에 고유한 <vm_name>, <new_vm_disk_name>, <nic_name> 이 있다는 점을 제외하고 각 VM에 옵션 값이 동일합니다.

    $ az vm create -n <vm_name> -g <resource_group> --attach-data-disks <shared_block_volume_name> --data-disk-caching None --os-disk-caching ReadWrite --os-disk-name <new-vm-disk-name> --os-disk-size-gb <disk_size> --location <location> --size <virtual_machine_size> --image <image_name> --admin-username <vm_username> --authentication-type ssh --ssh-key-values <ssh_key> --nics <nic_name> --availability-set <availability_set> --ppg <proximity_placement_group>

    예를 들어 다음 명령은 sharedblock-nodea-vm이라는 VM을 생성합니다.

    $ az vm create -n sharedblock-nodea-vm -g sharedblock-rg --attach-data-disks shared-block-volume.vhd --data-disk-caching None --os-disk-caching ReadWrite --os-disk-name sharedblock-nodea-vm.vhd --os-disk-size-gb 64 --location westcentralus --size Standard_D2s_v3 --image /subscriptions/12345678910-12345678910/resourceGroups/sample-azureimagesgroupwestcentralus/providers/Microsoft.Compute/images/sample-azure-rhel-8.3.0-20200713.n.0.x86_64 --admin-username sharedblock-user --authentication-type ssh --ssh-key-values @sharedblock-key.pub --nics sharedblock-nodea-vm-nic-protected --availability-set sharedblock-as --ppg sharedblock-ppg
    
    {
      "fqdns": "",
      "id": "/subscriptions/12345678910-12345678910/resourceGroups/sharedblock-rg/providers/Microsoft.Compute/virtualMachines/sharedblock-nodea-vm",
      "location": "westcentralus",
      "macAddress": "00-22-48-5D-EE-FB",
      "powerState": "VM running",
      "privateIpAddress": "198.51.100.3",
      "publicIpAddress": "",
      "resourceGroup": "sharedblock-rg",
      "zones": ""
    }

검증

  1. 클러스터의 각 VM에 대해 ssh 명령을 VM <ip_address>와 함께 사용하여 블록 장치를 사용할 수 있는지 확인합니다.

    # ssh <ip_address> "hostname ; lsblk -d | grep ' 1T '"

    예를 들어 다음 명령은 VM IP 198.51.100.3의 호스트 이름 및 블록 장치를 포함한 세부 정보를 나열합니다.

    # ssh 198.51.100.3 "hostname ; lsblk -d | grep ' 1T '"
    
    nodea
    sdb    8:16   0    1T  0 disk
  2. ssh 명령을 사용하여 클러스터의 각 VM이 동일한 공유 디스크를 사용하는지 확인합니다.

    # ssh <ip_address> "hostname ; lsblk -d | grep ' 1T ' | awk '{print \$1}' | xargs -i udevadm info --query=all --name=/dev/{} | grep '^E: ID_SERIAL='"

    예를 들어 다음 명령은 인스턴스 IP 주소 198.51.100.3의 호스트 이름 및 공유 디스크 볼륨 ID를 포함한 세부 정보를 나열합니다.

    # *ssh 198.51.100.3 "hostname ; lsblk -d | grep ' 1T ' | awk '{print \$1}' | xargs -i udevadm info --query=all --name=/dev/{} | grep '^E: ID_SERIAL='"*
    
    nodea
    E: ID_SERIAL=3600224808dd8eb102f6ffc5822c41d89

공유 디스크가 각 VM에 연결되어 있는지 확인한 후 클러스터의 복원성 스토리지를 구성할 수 있습니다.

3장. Red Hat Enterprise Linux 이미지를 Amazon Web Services에서 EC2 인스턴스로 배포

RHEL(Red Hat Enterprise Linux) 8 이미지를 AWS(Amazon Web Services)에서 EC2 인스턴스로 배포하기 위한 여러 옵션이 있습니다. 이 장에서는 이미지 및 목록을 선택하는 옵션에 대해 논의하거나 호스트 시스템 및 VM(가상 시스템)의 시스템 요구 사항을 나타냅니다. 이 장에서는 ISO 이미지에서 사용자 지정 VM을 생성하고 EC2에 업로드하고 EC2 인스턴스를 시작하는 절차도 제공합니다.

AWS(Amazon Web Services)에서 EC2 인스턴스로 Red Hat Enterprise Linux 8(RHEL 8)을 배포하려면 다음 정보를 따르십시오. 이 장에서는 다음을 수행합니다.

  • 이미지 선택 옵션에 대해 설명합니다.
  • 호스트 시스템 및 VM(가상 머신)의 시스템 요구 사항을 나열하거나 참조합니다.
  • ISO 이미지에서 사용자 지정 VM을 생성하고 EC2에 업로드 및 EC2 인스턴스를 시작하는 절차를 제공합니다.
중요

ISO 이미지에서 사용자 지정 VM을 만들 수는 있지만 Red Hat은 Red Hat Image Builder 제품을 사용하여 특정 클라우드 공급자에 사용할 사용자 지정 이미지를 만들 것을 권장합니다. 이미지 빌더를 사용하면 ami 형식으로 AMI(Amazon Machine Image)를 만들고 업로드할 수 있습니다. 자세한 내용은 사용자 지정된 RHEL 시스템 이미지 구성을 참조하십시오.

참고

AWS에서 안전하게 사용할 수 있는 Red Hat 제품 목록은 Amazon Web Services의 Red Hat을 참조하십시오.

사전 요구 사항

  • Red Hat 고객 포털 계정에 등록합니다.
  • AWS에 가입하고 AWS 리소스를 설정합니다. 자세한 내용은 Amazon EC2로 설정을 참조하십시오.
  • Red Hat Cloud Access 프로그램에서 서브스크립션을 활성화합니다. Red Hat Cloud Access 프로그램을 사용하면 Red Hat 서브스크립션을 물리적 시스템 또는 사내 시스템에서 AWS로 이전할 수 있으며 Red Hat의 완벽한 지원을 받을 수 있습니다.

3.1. 추가 리소스

3.2. AWS의 Red Hat Enterprise Linux 이미지 옵션

다음 표는 이미지 선택 사항을 나열하고 이미지 옵션의 차이점을 기록해 둡니다.

표 3.1. 이미지 옵션

이미지 옵션서브스크립션샘플 시나리오고려 사항

Red Hat Gold Image를 배포하도록 선택합니다.

기존 Red Hat 서브스크립션을 활용하십시오.

Red Hat Cloud Access 프로그램을 통해 서브스크립션을 활성화한 다음 AWS에서 Red Hat Gold Image를 선택합니다.

서브스크립션에는 Red Hat 제품 비용이 포함되며, 다른 모든 인스턴스 비용에 대해 Amazon을 지불합니다.

기존 Red Hat 서브스크립션을 활용하기 때문에 Red Hat Gold Images는 "Cloud Access" 이미지라고 합니다. Red Hat은 Cloud Access 이미지에 대한 직접 지원을 제공합니다.

AWS로 이동하는 사용자 정의 이미지를 배포하도록 선택합니다.

기존 Red Hat 서브스크립션을 활용하십시오.

Red Hat Cloud Access 프로그램을 통해 서브스크립션을 활성화하고 사용자 지정 이미지를 업로드하고 서브스크립션을 첨부하십시오.

서브스크립션에는 Red Hat 제품 비용이 포함되며, 다른 모든 인스턴스 비용에 대해 Amazon을 지불합니다.

AWS로 이동하는 사용자 지정 이미지는 기존 Red Hat 서브스크립션을 활용하기 때문에 "클라우드 액세스" 이미지입니다. Red Hat은 Cloud Access 이미지에 대한 직접 지원을 제공합니다.

RHEL이 포함된 기존 Amazon 이미지를 배포하도록 선택합니다.

AWS EC2 이미지에는 Red Hat 제품이 포함되어 있습니다.

AWS 관리 콘솔에서 인스턴스를 시작할 때 RHEL 이미지를 선택하거나 AWS Marketplace 에서 이미지를 선택합니다.

사용량에 따라 가격을 지불하는 모델로 Amazon을 매시간 지불하게 됩니다. 이러한 이미지를 "요청형" 이미지라고 합니다. Amazon은 온디맨드 이미지에 대한 지원을 제공합니다.

Red Hat은 이미지에 대한 업데이트를 제공합니다. AWS는 RHUI(Red Hat Update Infrastructure)를 통해 업데이트를 제공합니다.

참고

Red Hat Image Builder를 사용하여 AWS의 사용자 지정 이미지를 생성할 수 있습니다. 자세한 내용은 사용자 지정된 RHEL 시스템 이미지 구성을 참조하십시오.

중요

온디맨드 인스턴스를 Red Hat Cloud Access 인스턴스로 변환할 수 없습니다. 온디맨드 이미지에서 Red Hat Cloud Access bring-your-your-subscription(BYOS) 이미지로 변경하려면 Red Hat Cloud Access 인스턴스를 새로 생성하고 온디맨드 인스턴스에서 데이터를 마이그레이션합니다. 이중 청구를 방지하려면 데이터를 마이그레이션한 후 온디맨드 인스턴스를 취소합니다.

이 장의 나머지 부분에서는 사용자 지정 이미지와 관련된 정보 및 절차가 포함되어 있습니다.

3.3. 기본 이미지 이해

이 섹션에는 사전 구성된 기본 이미지 및 해당 구성 설정 사용에 대한 정보가 포함되어 있습니다.

3.3.1. 사용자 정의 기본 이미지 사용

VM(가상 시스템)을 수동으로 구성하려면 먼저 기본(시작자) VM 이미지를 생성합니다. 다음으로 구성 설정을 수정하고 VM이 클라우드에서 작동하는 데 필요한 패키지를 추가할 수 있습니다. 이미지를 업로드한 후 특정 애플리케이션에 대한 추가 구성을 변경할 수 있습니다.

추가 리소스

3.3.2. 가상 머신 구성 설정

클라우드 VM에는 다음과 같은 구성 설정이 있어야 합니다.

표 3.2. VM 구성 설정

설정권장 사항

ssh

VM에 대한 원격 액세스를 제공하려면 SSH를 활성화해야 합니다.

dhcp

기본 가상 어댑터는 dhcp에 대해 구성해야 합니다.

3.4. ISO 이미지에서 기본 VM 생성

이 섹션의 절차에 따라 ISO 이미지에서 RHEL 8 기본 이미지를 생성합니다.

사전 요구 사항

3.4.1. RHEL ISO 이미지에서 VM 생성

절차

  1. 가상화를 위해 호스트 시스템을 활성화했는지 확인합니다. 자세한 내용 및 절차는 RHEL 8에서 가상화 활성화를 참조하십시오.
  2. 기본 Red Hat Enterprise Linux VM을 만들고 시작합니다. 자세한 내용은 가상 머신 생성을 참조하십시오.

    1. 명령줄을 사용하여 VM을 생성하는 경우 기본 메모리 및 CPU를 VM에 필요한 용량으로 설정해야 합니다. 가상 네트워크 인터페이스를 virtio로 설정합니다.

      예를 들어 다음 명령은 /home/username/Downloads/rhel8.iso 를 사용하여 kvmtest VM을 생성합니다.

      $ *virt-install --name kvmtest --memory 2048 --vcpus 2 --cdrom /home/username/Downloads/rhel8.iso,bus=virtio --os-variant=rhel8.0*
    2. 웹 콘솔을 사용하여 VM을 생성하는 경우 다음 주의 사항과 함께 웹 콘솔을 사용하여 가상 머신 생성 절차를 따르십시오.

      • 즉시 VM 시작을 선택하지 마십시오.
      • 메모리 크기를 원하는 설정으로 변경합니다.
      • 설치를 시작하기 전에 가상 네트워크 인터페이스 설정에서 모델virtio로 변경하고 vCPU를 VM에 필요한 용량 설정으로 변경했는지 확인합니다.

3.4.2. RHEL 설치 완료

다음 단계를 수행하여 설치를 완료하고 VM이 시작되면 루트 액세스를 활성화합니다.

절차

  1. 설치 프로세스 중에 사용할 언어를 선택합니다.
  2. 설치 요약 보기에서 다음을 실행합니다.

    1. Software Selection (소프트웨어 선택)을 클릭하고 Minimal Install (최소 설치)을 선택합니다.
    2. Done(완료)을 클릭합니다.
    3. Installation Destination (설치 대상)을 클릭하고 Storage Configuration (스토리지 구성)에서 Custom (사용자 지정)을 확인합니다.

      • /boot 에 대해 500MB 이상인지 확인합니다. 루트 / 의 남은 공간을 사용할 수 있습니다.
      • 표준 파티션이 권장되지만 LVM(Logical Volume Management)을 사용할 수 있습니다.
      • 파일 시스템에 xfs, ext4 또는 ext3을 사용할 수 있습니다.
      • 변경 사항이 완료되면 완료를 클릭합니다.
  3. 설치 시작을 클릭합니다.
  4. Root 암호를 설정합니다. 해당되는 경우 다른 사용자를 만듭니다.
  5. VM을 재부팅하고 설치가 완료되면 root로 로그인합니다.
  6. 이미지를 구성합니다.

    1. VM을 등록하고 Red Hat Enterprise Linux 8 리포지토리를 활성화합니다.

      # subscription-manager register --auto-attach
    2. cloud-init 패키지가 설치되어 활성화되어 있는지 확인합니다.

      # yum install cloud-init
      # systemctl enable --now cloud-init.service
  7. 중요: 이 단계는 AWS에 업로드하려는 VM에만 해당합니다.

    1. AMD64 또는 Intel 64(x86_64)VM의 경우 nvme,xen-netfrontxen-blkfront 드라이버를 설치합니다.

      # dracut -f --add-drivers "nvme xen-netfront xen-blkfront"
    2. ARM 64(aarch64) VM의 경우 nvme 드라이버를 설치합니다.

      # dracut -f --add-drivers "nvme"

      이러한 드라이버를 포함하면 큰 시간 초과 가능성이 제거됩니다.

      또는 드라이버를 /etc/dracut.conf.d/ 에 추가한 다음 dracut -f 를 입력하여 기존 initramfs 파일을 덮어쓸 수 있습니다.

  8. VM의 전원을 끕니다.

3.5. Red Hat Enterprise Linux 이미지를 AWS에 업로드

이 섹션의 절차에 따라 이미지를 AWS에 업로드합니다.

3.5.1. AWS CLI 설치

AWS에서 HA 클러스터를 관리하는 데 필요한 대부분의 절차는 AWS CLI를 사용하는 것을 포함합니다. AWS CLI를 설치하려면 다음 단계를 완료합니다.

사전 요구 사항

절차

  1. yum 명령을 사용하여 AWS 명령줄 툴 을 설치합니다.

    # yum install awscli
  2. aws --version 명령을 사용하여 AWS CLI를 설치했는지 확인합니다.

    $ aws --version
    aws-cli/1.19.77 Python/3.6.15 Linux/5.14.16-201.fc34.x86_64 botocore/1.20.77
  3. AWS 액세스 세부 정보에 따라 AWS 명령줄 클라이언트를 구성합니다.

    $ aws configure
    AWS Access Key ID [None]:
    AWS Secret Access Key [None]:
    Default region name [None]:
    Default output format [None]:

3.5.2. S3 버킷 생성

AWS로 가져오려면 Amazon S3 버킷이 필요합니다. Amazon S3 버킷은 오브젝트를 저장하는 Amazon 리소스입니다. 이미지를 업로드하는 프로세스의 일부로 S3 버킷을 생성한 다음 이미지를 버킷으로 이동합니다. 버킷을 생성하려면 다음 단계를 완료합니다.

절차

  1. Amazon S3 콘솔을 시작합니다.
  2. Create 버킷( 버킷 만들기 )을 클릭합니다. Create Bucket( 버킷 만들기 ) 대화 상자가 표시됩니다.
  3. Name 및 region 보기에서 다음을 수행합니다.

    1. 버킷 이름을 입력합니다.
    2. 지역 입력.
    3. 다음을 클릭합니다.
  4. Configure options (구성 옵션) 보기에서 원하는 옵션을 선택하고 Next (다음)를 클릭합니다.
  5. Set permissions (권한 설정) 보기에서 기본 옵션을 변경하거나 수락하고 Next (다음)를 클릭합니다.
  6. 버킷 구성을 검토합니다.
  7. 버킷 생성을 클릭합니다.

    참고

    또는 AWS CLI를 사용하여 버킷을 생성할 수도 있습니다. 예를 들어 aws s3 mb s3://my-new-bucket 명령은 my-new-bucket 이라는 S3 버킷을 생성합니다. mb 명령에 대한 자세한 내용은 AWS CLI 명령 참조를 참조하십시오.

3.5.3. vmimport 역할 생성

다음 절차를 수행하여 VM 가져오기에 필요한 vmimport 역할을 생성합니다. 자세한 내용은 Amazon 문서의 VM 가져오기 서비스 역할을 참조하십시오.

절차

  1. trust-policy.json 이라는 파일을 생성하고 다음 정책을 포함합니다. 시스템에 파일을 저장하고 위치를 기록해 둡니다.

    {
       "Version": "2012-10-17",
       "Statement": [
          {
             "Effect": "Allow",
             "Principal": { "Service": "vmie.amazonaws.com" },
             "Action": "sts:AssumeRole",
             "Condition": {
                "StringEquals":{
                   "sts:Externalid": "vmimport"
                }
             }
          }
       ]
    }
  2. create role 명령을 사용하여 vmimport 역할을 생성합니다. trust-policy.json 파일의 위치에 대한 전체 경로를 지정합니다. 경로에 file:// 접두사를 지정합니다. 예를 들면 다음과 같습니다.

    aws iam create-role --role-name vmimport --assume-role-policy-document file:///home/sample/ImportService/trust-policy.json
  3. role-policy.json 이라는 파일을 생성하고 다음 정책을 포함합니다. s3-bucket-name 을 S3 버킷 이름으로 바꿉니다.

    {
       "Version":"2012-10-17",
       "Statement":[
          {
             "Effect":"Allow",
             "Action":[
                "s3:GetBucketLocation",
                "s3:GetObject",
                "s3:ListBucket"
             ],
             "Resource":[
                "arn:aws:s3:::s3-bucket-name",
                "arn:aws:s3:::s3-bucket-name/*"
             ]
          },
          {
             "Effect":"Allow",
             "Action":[
                "ec2:ModifySnapshotAttribute",
                "ec2:CopySnapshot",
                "ec2:RegisterImage",
                "ec2:Describe*"
             ],
             "Resource":"*"
          }
       ]
    }
  4. put-role-policy 명령을 사용하여 정책을 생성한 역할에 연결합니다. role-policy.json 파일의 전체 경로를 지정합니다. 예를 들면 다음과 같습니다.

    aws iam put-role-policy --role-name vmimport --policy-name vmimport --policy-document file:///home/sample/ImportService/role-policy.json

3.5.4. 이미지를 S3로 변환 및 푸시

이미지를 S3로 변환하고 내보내려면 다음 절차를 완료합니다. 샘플은 대표적이며 qcow2 파일 형식으로 포맷된 이미지를 원시 형식으로 변환합니다. Amazon은 OVA,VHD, VHD X,VMDK원시 형식의 이미지를 허용합니다. Amazon에서 허용하는 이미지 형식에 대한 자세한 내용은 VM 가져오기/내보내기 방법에서 참조하십시오.

절차

  1. qemu-img 명령을 실행하여 이미지를 변환합니다. 예를 들면 다음과 같습니다.

    qemu-img convert -f qcow2 -O raw rhel-8.0-sample.qcow2 rhel-8.0-sample.raw
  2. 이미지를 S3에 내보냅니다.

    aws s3 cp rhel-8.0-sample.raw s3://s3-bucket-name
    참고

    이 절차는 몇 분 정도 걸릴 수 있습니다. 완료되면 AWS S3 콘솔을 사용하여 이미지가 S3 버킷에 업로드되었는지 확인할 수 있습니다.

3.5.5. 이미지를 스냅샷으로 가져오기

스냅숏으로 이미지를 가져오려면 다음 절차를 수행합니다.

절차

  1. 파일을 만들어 이미지의 버킷과 경로를 지정합니다. 파일 이름을 containers.json 으로 지정합니다. 다음 샘플에서 s3-bucket-name 을 버킷 이름으로 바꾸고 s3-key 를 키로 바꿉니다. Amazon S3 콘솔을 사용하여 이미지의 키를 가져올 수 있습니다.

    {
        "Description": "rhel-8.0-sample.raw",
        "Format": "raw",
        "UserBucket": {
            "S3Bucket": "s3-bucket-name",
            "S3Key": "s3-key"
        }
    }
  2. 이미지를 스냅샷으로 가져옵니다. 이 예에서는 공용 Amazon S3 파일을 사용합니다. Amazon S3 콘솔을 사용하여 버킷의 권한 설정을 변경할 수 있습니다.

    aws ec2 import-snapshot --disk-container file://containers.json

    터미널에 다음과 같은 메시지가 표시됩니다. 메시지 내의 ImportTaskID 를 확인합니다.

    {
        "SnapshotTaskDetail": {
            "Status": "active",
            "Format": "RAW",
            "DiskImageSize": 0.0,
            "UserBucket": {
                "S3Bucket": "s3-bucket-name",
                "S3Key": "rhel-8.0-sample.raw"
            },
            "Progress": "3",
            "StatusMessage": "pending"
        },
        "ImportTaskId": "import-snap-06cea01fa0f1166a8"
    }
  3. describe-import-snapshot-tasks 명령을 사용하여 가져오기 진행 상황을 추적합니다. ImportTaskID 를 포함합니다.

    aws ec2 describe-import-snapshot-tasks --import-task-ids import-snap-06cea01fa0f1166a8

    반환된 메시지는 작업의 현재 상태를 표시합니다. 완료되면 Status(상태)completed 로 표시됩니다. 상태 내에서 스냅샷 ID를 확인합니다.

3.5.6. 업로드한 스냅샷에서 AMI 생성

EC2 내에서 인스턴스를 시작할 때 AMI(Amazon Machine Image)를 선택해야 합니다. 업로드한 스냅샷에서 AMI를 생성하려면 다음 절차를 수행합니다.

절차

  1. AWS EC2 대시보드로 이동합니다.
  2. Elastic Block Store 에서 Snapshots(스냅샷 )를 선택합니다.
  3. 스냅샷 ID(예: snap-0e718930bd72bcda0)를 검색합니다.
  4. 스냅샷을 마우스 오른쪽 버튼으로 클릭하고 Create image(이미지 만들기)를 선택합니다.
  5. 이미지의 이름을 로 지정합니다.
  6. 가상화 유형에서 하드웨어 지원 가상화를 선택합니다.
  7. 생성을 클릭합니다. 이미지 생성에 관한 참고 자료에는 이미지에 대한 링크가 있습니다.
  8. 이미지 링크를 클릭합니다. 이미지는 Images>AMIs 아래에 표시됩니다.

    참고

    또는 AWS CLI register-image 명령을 사용하여 스냅샷에서 AMI를 생성할 수 있습니다. 자세한 내용은 register-image 를 참조하십시오. 예는 다음과 같습니다.

    $ aws ec2 register-image --name "myimagename" --description "myimagedescription" --architecture x86_64  --virtualization-type hvm --root-device-name "/dev/sda1" --block-device-mappings "{\"DeviceName\": \"/dev/sda1\",\"Ebs\": {\"SnapshotId\": \"snap-0ce7f009b69ab274d\"}}" --ena-support

    root 장치 볼륨 /dev/sda1root-device-name 으로 지정해야 합니다. AWS의 장치 매핑에 대한 개념적 정보는 블록 장치 매핑 의 예를 참조하십시오.

3.5.7. AMI에서 인스턴스 시작

다음 절차를 수행하여 AMI에서 인스턴스를 시작하고 구성합니다.

절차

  1. AWS EC2 대시보드에서 Images(이미지 )를 선택한 다음 AMI를 선택합니다.
  2. 이미지를 마우스 오른쪽 버튼으로 클릭하고 Launch(시작 )를 선택합니다.
  3. 워크로드 요구 사항을 충족하거나 초과하는 인스턴스 유형을 선택합니다.

    인스턴스 유형에 대한 자세한 내용은 Amazon EC2 인스턴스 유형을 참조하십시오.

  4. 다음을 클릭합니다. 인스턴스 세부 정보 구성.

    1. 생성할 인스턴스 수를 입력합니다.
    2. NetworkAWS 환경을 설정할 때 생성한 VPC를 선택합니다. 인스턴스의 서브넷을 선택하거나 새 서브넷을 만듭니다.
    3. Enable for Auto-assign Public IP(공용 IP 자동 할당)를 선택합니다.

      참고

      기본 인스턴스를 생성하는 데 필요한 최소 구성 옵션입니다. 애플리케이션 요구 사항에 따라 추가 옵션을 검토합니다.

  5. 다음을 클릭합니다. 스토리지 추가. 기본 스토리지가 충분한지 확인합니다.
  6. 다음을 클릭합니다. 태그 추가.

    참고

    태그는 AWS 리소스를 관리하는 데 도움이 될 수 있습니다. 태그 지정에 대한 자세한 내용은 Amazon EC2 리소스 태그 지정을 참조하십시오.

  7. 다음을 클릭합니다. 보안 그룹 구성. AWS 환경을 설정 할 때 생성한 보안 그룹을 선택합니다.
  8. 검토 및 시작을 클릭합니다. 선택을 확인합니다.
  9. Launch(시작)를 클릭합니다. 기존 키 쌍을 선택하거나 새 키 쌍을 만들라는 메시지가 표시됩니다. AWS 환경을 설정 할 때 생성한 키 쌍을 선택합니다.

    참고

    개인 키에 대한 권한이 올바른지 확인합니다. 필요한 경우 chmod 400 <keyname>.pem 명령 옵션을 사용하여 권한을 변경합니다.

  10. Launch Instances(인스턴스 시작)를 클릭합니다.
  11. View Instances (인스턴스 보기)를 클릭합니다. 인스턴스의 이름을 지정할 수 있습니다.

    인스턴스를 선택하고 연결을 클릭하여 인스턴스에 대한 SSH 세션을 시작할 수 있습니다. 독립 실행형 SSH 클라이언트에 제공된 예제를 사용합니다.

    참고

    또는 AWS CLI를 사용하여 인스턴스를 시작할 수도 있습니다. 자세한 내용은 Amazon 문서에서 Amazon EC2 인스턴스 시작, 나열 및 종료를 참조하십시오.

3.5.8. Red Hat 서브스크립션 첨부

Red Hat Cloud Access 프로그램을 통해 이전에 활성화한 서브스크립션을 연결하려면 다음 단계를 완료합니다.

사전 요구 사항

  • 서브스크립션을 활성화해야 합니다.

절차

  1. 시스템을 등록합니다.

    # subscription-manager register --auto-attach
  2. 서브스크립션을 첨부합니다.

3.5.9. AWS 골드 이미지에 자동 등록 설정

AWS(Amazon Web Services)에 RHEL 8 가상 머신을 더 빠르고 쉽게 배포하기 위해 Red Hat Subscription Manager(RHSM)에 RHEL 8의 Gold Images를 자동으로 등록하도록 설정할 수 있습니다.

사전 요구 사항

  • AWS용 최신 RHEL 8 골드 이미지를 다운로드했습니다. 자세한 내용은 AWS에서 골드 이미지 사용을 참조하십시오.

    참고

    AWS 계정은 한 번에 하나의 Red Hat 계정에만 연결할 수 있습니다. 따라서 다른 사용자가 Red Hat 계정에 연결하기 전에 AWS 계정에 액세스할 필요가 없도록 합니다.

절차

  1. Gold 이미지를 AWS에 업로드합니다. 자세한 내용은 Red Hat Enterprise Linux 이미지를 AWS에 업로드합니다.
  2. 업로드한 이미지를 사용하여 VM을 만듭니다. 자동으로 RHSM에 등록됩니다.

검증

  • 위의 지침을 사용하여 생성된 RHEL 8 VM에서 subscription-manager identity 명령을 실행하여 시스템이 RHSM에 등록되어 있는지 확인합니다. 성공적으로 등록된 시스템에서 시스템의 UUID가 표시됩니다. 예를 들면 다음과 같습니다.

    # subscription-manager identity
    system identity: fdc46662-c536-43fb-a18a-bbcb283102b7
    name: 192.168.122.222
    org name: 6340056
    org ID: 6340056

4장. AWS에서 Red Hat High Availability 클러스터 구성

이 장에서는 EC2 인스턴스를 클러스터 노드로 사용하는 AWS(Amazon Web Services)의 HA(Red Hat High Availability) 클러스터를 구성하는 데 필요한 정보와 절차를 설명합니다. 클러스터에 사용하는 RHEL(Red Hat Enterprise Linux) 이미지를 가져올 수 있는 다양한 옵션이 있습니다. AWS의 이미지 옵션에 대한 자세한 내용은 AWS의 Red Hat Enterprise Linux Image Options를 참조하십시오.

이 장에서는 다음을 설명합니다.

  • AWS 환경을 설정하기 위한 사전 요구 사항 절차. 환경을 설정하고 나면 EC2 인스턴스를 생성하고 구성할 수 있습니다.
  • HA 클러스터 생성과 관련된 절차로 개별 노드를 AWS의 HA 노드 클러스터로 변환합니다. 여기에는 각 클러스터 노드에 고가용성 패키지 및 에이전트를 설치하고 펜싱을 구성하며 AWS 네트워크 리소스 에이전트를 설치하는 절차가 포함됩니다.

사전 요구 사항

  • Red Hat 고객 포털 계정에 등록합니다.
  • AWS에 가입하고 AWS 리소스를 설정합니다. 자세한 내용은 Amazon EC2로 설정을 참조하십시오.
  • Red Hat Cloud Access 프로그램에서 서브스크립션을 활성화합니다. Red Hat Cloud Access 프로그램을 사용하면 Red Hat 서브스크립션을 물리적 시스템 또는 사내 시스템에서 AWS로 이전할 수 있으며 Red Hat의 완벽한 지원을 받을 수 있습니다.

4.1. 추가 리소스

4.2. AWS 액세스 키 및 AWS 보안 액세스 키 생성

AWS CLI를 설치하기 전에 AWS 액세스 키 및 AWS 보안 액세스 키를 생성해야 합니다. 펜싱 및 리소스 에이전트 API는 AWS 액세스 키 및 시크릿 액세스 키를 사용하여 클러스터의 각 노드에 연결합니다.

이러한 키를 생성하려면 다음 단계를 완료합니다.

사전 요구 사항

절차

  1. AWS 콘솔을 시작합니다.
  2. AWS 계정 ID를 클릭하여 드롭다운 메뉴를 표시하고 My Security Credentials 를 선택합니다.
  3. Users(사용자 )를 클릭합니다.
  4. 사용자를 선택하고 Summary (요약) 화면을 엽니다.
  5. Security credentials(보안 자격 증명 ) 탭을 클릭합니다.
  6. Create access key(액세스 키 만들기)를 클릭합니다.
  7. .csv 파일을 다운로드합니다 (또는 두 키 모두 저장). 펜싱 장치를 생성할 때 이러한 키를 입력해야 합니다.

4.3. AWS CLI 설치

AWS에서 HA 클러스터를 관리하는 데 필요한 대부분의 절차는 AWS CLI를 사용하는 것을 포함합니다. AWS CLI를 설치하려면 다음 단계를 완료합니다.

사전 요구 사항

절차

  1. yum 명령을 사용하여 AWS 명령줄 툴 을 설치합니다.

    # yum install awscli
  2. aws --version 명령을 사용하여 AWS CLI를 설치했는지 확인합니다.

    $ aws --version
    aws-cli/1.19.77 Python/3.6.15 Linux/5.14.16-201.fc34.x86_64 botocore/1.20.77
  3. AWS 액세스 세부 정보에 따라 AWS 명령줄 클라이언트를 구성합니다.

    $ aws configure
    AWS Access Key ID [None]:
    AWS Secret Access Key [None]:
    Default region name [None]:
    Default output format [None]:

4.4. HA EC2 인스턴스 생성

HA 클러스터 노드로 사용하는 인스턴스를 생성하려면 다음 단계를 완료합니다. 클러스터에 사용하는 RHEL 이미지를 가져오는 데에는 여러 옵션이 있습니다. AWS의 이미지 옵션에 대한 자세한 내용은 AWS의 Red Hat Enterprise Linux 이미지 옵션을 참조하십시오.

클러스터 노드에 사용하는 사용자 정의 이미지를 생성하고 업로드하거나 Gold Image(Cloud Access 이미지) 또는 온디맨드 이미지를 선택할 수 있습니다.

사전 요구 사항

절차

  1. AWS EC2 대시보드에서 Images(이미지 )를 선택한 다음 AMI를 선택합니다.
  2. 이미지를 마우스 오른쪽 버튼으로 클릭하고 Launch(시작 )를 선택합니다.
  3. 워크로드 요구 사항을 충족하거나 초과하는 인스턴스 유형을 선택합니다. HA 애플리케이션에 따라 각 인스턴스에 더 많은 용량이 필요할 수 있습니다.

    인스턴스 유형에 대한 자세한 내용은 Amazon EC2 인스턴스 유형을 참조하십시오.

  4. 다음을 클릭합니다. 인스턴스 세부 정보 구성.

    1. 클러스터에 생성할 인스턴스 수를 입력합니다. 이 장의 예제에서는 3개의 클러스터 노드를 사용합니다.

      참고

      자동 확장 그룹에 시작하지 마십시오.

    2. NetworkSet up the AWS 환경 에서 생성한 VPC를 선택합니다. 인스턴스의 서브넷을 선택하여 새 서브넷을 만듭니다.
    3. Enable for Auto-assign Public IP(공용 IP 자동 할당)를 선택합니다. 이는 Configure Instance Details(인스턴스 세부 정보 구성)에 필요한 최소 선택 사항입니다. 특정 HA 애플리케이션에 따라 추가 항목을 선택해야 할 수도 있습니다.

      참고

      기본 인스턴스를 생성하는 데 필요한 최소 구성 옵션입니다. HA 애플리케이션 요구 사항에 따라 추가 옵션을 검토합니다.

  5. 다음을 클릭합니다. Storage 를 추가하고 기본 스토리지가 충분한지 확인합니다. HA 애플리케이션에 다른 스토리지 옵션이 필요하지 않는 한 이러한 설정을 수정할 필요가 없습니다.
  6. 다음을 클릭합니다. 태그 추가.

    참고

    태그는 AWS 리소스를 관리하는 데 도움이 될 수 있습니다. 태그 지정에 대한 자세한 내용은 Amazon EC2 리소스 태그 지정을 참조하십시오.

  7. 다음을 클릭합니다. 보안 그룹 구성. AWS 환경 설정에서 생성한 기존 보안 그룹을 선택합니다.
  8. 검토 및 시작을 클릭하고 선택을 확인합니다.
  9. Launch(시작)를 클릭합니다. 기존 키 쌍을 선택하거나 새 키 쌍을 만들라는 메시지가 표시됩니다. AWS 환경 설정 시 생성한 키 쌍을 선택합니다.
  10. Launch Instances(인스턴스 시작)를 클릭합니다.
  11. View Instances (인스턴스 보기)를 클릭합니다. 인스턴스의 이름을 지정할 수 있습니다.

    참고

    또는 AWS CLI를 사용하여 인스턴스를 시작할 수도 있습니다. 자세한 내용은 Amazon 문서에서 Amazon EC2 인스턴스 시작, 나열 및 종료를 참조하십시오.

4.5. 개인 키 구성

SSH 세션에서 사용하기 전에 개인 SSH 키 파일(.pem)을 사용하도록 다음 구성 작업을 완료합니다.

절차

  1. Downloads 디렉터리에서 Home 디렉토리 또는 ~/.ssh 디렉터리로 키 파일을 이동합니다.
  2. 다음 명령을 입력하여 루트 사용자만 읽을 수 있도록 키 파일의 권한을 변경합니다.

    # chmod 400 KeyName.pem

4.6. EC2 인스턴스에 연결

EC2 인스턴스에 연결하려면 모든 노드에서 다음 단계를 완료합니다.

절차

  1. AWS 콘솔을 시작하고 EC2 인스턴스를 선택합니다.
  2. 연결을 클릭하고 독립 실행형 SSH 클라이언트를 선택합니다.
  3. SSH 터미널 세션에서 팝업 창에 제공된 AWS 예제를 사용하여 인스턴스에 연결합니다. 예제에 경로가 표시되지 않는 경우 KeyName.pem 파일에 올바른 경로를 추가합니다.

4.7. 고가용성 패키지 및 에이전트 설치

고가용성 패키지 및 에이전트를 설치하려면 모든 노드에서 다음 단계를 완료합니다.

절차

  1. 다음 명령을 입력하여 AWS RHUI(Red Hat Update Infrastructure) 클라이언트를 제거합니다. Red Hat Cloud Access 서브스크립션을 사용하게 되므로 서브스크립션 외에도 AWS RHUI를 사용하지 않아야 합니다.

    $ sudo -i
    # yum -y remove rh-amazon-rhui-client*
  2. VM을 Red Hat에 등록합니다.

    # subscription-manager register --auto-attach
  3. 모든 리포지토리를 비활성화합니다.

    # subscription-manager repos --disable=*
  4. RHEL 8 Server HA 리포지토리를 활성화합니다.

    # subscription-manager repos --enable=rhel-8-for-x86_64-highavailability-rpms
  5. RHEL AWS 인스턴스를 업데이트합니다.

    # yum update -y
  6. 고가용성 채널에서 사용 가능한 모든 펜싱 에이전트와 함께 Red Hat High Availability Add-On 소프트웨어 패키지를 설치합니다.

    # yum install pcs pacemaker fence-agents-aws
  7. 사용자 hacluster 는 이전 단계에서 pcspacemaker 설치 중에 생성되었습니다. 모든 클러스터 노드에서 hacluster의 암호를 생성합니다. 모든 노드에 동일한 암호를 사용합니다.

    # passwd hacluster
  8. firewalld.service가 설치된 경우 RHEL 방화벽에 high availability 서비스를 추가합니다.

    # firewall-cmd --permanent --add-service=high-availability
    # firewall-cmd --reload
  9. pcs 서비스를 시작하고 부팅 시 시작되도록 활성화합니다.

    # systemctl start pcsd.service
    # systemctl enable pcsd.service
  10. /etc/hosts 를 편집하고 RHEL 호스트 이름과 내부 IP 주소를 추가합니다. 자세한 내용은 RHEL 클러스터 노드에서 /etc/hosts 파일을 어떻게 설정해야 합니까? 를 참조하십시오.

검증

  • pcs 서비스가 실행 중인지 확인합니다.

    # systemctl status pcsd.service
    
    pcsd.service - PCS GUI and remote configuration interface
    Loaded: loaded (/usr/lib/systemd/system/pcsd.service; enabled; vendor preset: disabled)
    Active: active (running) since Thu 2018-03-01 14:53:28 UTC; 28min ago
    Docs: man:pcsd(8)
    man:pcs(8)
    Main PID: 5437 (pcsd)
    CGroup: /system.slice/pcsd.service
         └─5437 /usr/bin/ruby /usr/lib/pcsd/pcsd > /dev/null &
    Mar 01 14:53:27 ip-10-0-0-48.ec2.internal systemd[1]: Starting PCS GUI and remote configuration interface…
    Mar 01 14:53:28 ip-10-0-0-48.ec2.internal systemd[1]: Started PCS GUI and remote configuration interface.

4.8. 클러스터 생성

노드 클러스터를 생성하려면 다음 단계를 완료합니다.

절차

  1. 노드 중 하나에서 다음 명령을 입력하여 pcs 사용자 hacluster를 인증합니다. 명령에서 클러스터의 각 노드의 이름을 지정합니다.

    # pcs host auth <hostname1> <hostname2> <hostname3>

    예제:

    [root@node01 clouduser]# pcs host auth node01 node02 node03
    Username: hacluster
    Password:
    node01: Authorized
    node02: Authorized
    node03: Authorized
  2. 클러스터를 생성합니다.

    # pcs cluster setup <cluster_name> <hostname1> <hostname2> <hostname3>

    예제:

    [root@node01 clouduser]# pcs cluster setup new_cluster node01 node02 node03
    
    ...omitted
    
    Synchronizing pcsd certificates on nodes node01, node02, node03...
    node02: Success
    node03: Success
    node01: Success
    Restarting pcsd on the nodes in order to reload the certificates...
    node02: Success
    node03: Success
    node01: Success

검증

  1. 클러스터를 활성화합니다.

    [root@node01 clouduser]# pcs cluster enable --all
    node02: Cluster Enabled
    node03: Cluster Enabled
    node01: Cluster Enabled
  2. 클러스터를 시작합니다.

    [root@node01 clouduser]# pcs cluster start --all
    node02: Starting Cluster...
    node03: Starting Cluster...
    node01: Starting Cluster...

4.9. 펜싱 구성

펜싱 구성을 사용하면 AWS 클러스터에서 노드가 자동으로 분리되므로 클러스터 리소스를 사용하거나 클러스터의 기능을 손상시키지 못합니다.

여러 방법을 사용하여 AWS 클러스터에서 펜싱을 구성할 수 있습니다. 이 섹션에서는 다음을 제공합니다.

  • 기본 구성을 위한 표준 절차입니다.
  • 자동화에 중점을 두고 고급 구성을 위한 대체 구성 절차입니다.

표준 절차

  1. 다음 AWS 메타데이터 쿼리를 입력하여 각 노드의 인스턴스 ID를 가져옵니다. 펜스 장치를 구성하려면 이러한 ID가 필요합니다. 자세한 내용은 Instance Metadata 및 User Data 를 참조하십시오.

    # echo $(curl -s http://169.254.169.254/latest/meta-data/instance-id)

    예제:

    [root@ip-10-0-0-48 ~]# echo $(curl -s http://169.254.169.254/latest/meta-data/instance-id) i-07f1ac63af0ec0ac6
  2. 다음 명령을 입력하여 펜스 장치를 구성합니다. pcmk_host_map 명령을 사용하여 RHEL 호스트 이름을 인스턴스 ID에 매핑합니다. 이전에 설정한 AWS 액세스 키 및 AWS 보안 액세스 키를 사용합니다.

    # pcs stonith create name fence_aws access_key=access-key secret_key=secret-access-key region=region pcmk_host_map="rhel-hostname-1:Instance-ID-1;rhel-hostname-2:Instance-ID-2;rhel-hostname-3:Instance-ID-3" power_timeout=240 pcmk_reboot_timeout=480 pcmk_reboot_retries=4

    예제:

    [root@ip-10-0-0-48 ~]# pcs stonith create clusterfence fence_aws access_key=AKIAI*******6MRMJA secret_key=a75EYIG4RVL3h*******K7koQ8dzaDyn5yoIZ/ region=us-east-1 pcmk_host_map="ip-10-0-0-48:i-07f1ac63af0ec0ac6;ip-10-0-0-46:i-063fc5fe93b4167b2;ip-10-0-0-58:i-08bd39eb03a6fd2c7" power_timeout=240 pcmk_reboot_timeout=480 pcmk_reboot_retries=4

대체 절차

  1. 클러스터의 VPC ID를 가져옵니다.

    # aws ec2 describe-vpcs --output text --filters "Name=tag:Name,Values=clustername-vpc" --query 'Vpcs[*].VpcId'
    vpc-06bc10ac8f6006664
  2. 클러스터의 VPC ID를 사용하여 VPC 인스턴스를 가져옵니다.

    $ aws ec2 describe-instances --output text --filters "Name=vpc-id,Values=vpc-06bc10ac8f6006664" --query 'Reservations[*].Instances[*].{Name:Tags[? Key==Name]|[0].Value,Instance:InstanceId}' | grep "\-node[a-c]"
    i-0b02af8927a895137     clustername-nodea-vm
    i-0cceb4ba8ab743b69     clustername-nodeb-vm
    i-0502291ab38c762a5     clustername-nodec-vm
  3. 얻은 인스턴스 ID를 사용하여 클러스터의 각 노드에서 펜싱을 구성합니다. 예를 들면 다음과 같습니다.

    [root@nodea ~]# CLUSTER=clustername && pcs stonith create fence${CLUSTER} fence_aws access_key=XXXXXXXXXXXXXXXXXXXX pcmk_host_map=$(for NODE \
    in node{a..c}; do ssh ${NODE} "echo -n \${HOSTNAME}:\$(curl -s http://169.254.169.254/latest/meta-data/instance-id)\;"; done) \
    pcmk_reboot_retries=4 pcmk_reboot_timeout=480 power_timeout=240 region=xx-xxxx-x secret_key=XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
    
    [root@nodea ~]# pcs stonith config fence${CLUSTER}
    Resource: clustername (class=stonith type=fence_aws)
    Attributes: access_key=XXXXXXXXXXXXXXXXXXXX pcmk_host_map=nodea:i-0b02af8927a895137;nodeb:i-0cceb4ba8ab743b69;nodec:i-0502291ab38c762a5;
    pcmk_reboot_retries=4 pcmk_reboot_timeout=480 power_timeout=240 region=xx-xxxx-x secret_key=XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
    Operations: monitor interval=60s (clustername-monitor-interval-60s)

검증

  1. 클러스터 노드 중 하나에 대한 펜싱 에이전트를 테스트합니다.

    # pcs stonith fence awsnodename
    참고

    명령 응답이 표시되는 데 몇 분이 걸릴 수 있습니다. 펜싱 중인 노드의 활성 터미널 세션을 보는 경우 fence 명령을 입력한 후 터미널 연결이 즉시 종료되는 것을 확인할 수 있습니다.

    예제:

    [root@ip-10-0-0-48 ~]# pcs stonith fence ip-10-0-0-58
    Node: ip-10-0-0-58 fenced
  2. 상태를 확인하여 노드가 펜싱되었는지 확인합니다.

    # pcs status

    예제:

    [root@ip-10-0-0-48 ~]# pcs status
    Cluster name: newcluster
    Stack: corosync
    Current DC: ip-10-0-0-46 (version 1.1.18-11.el7-2b07d5c5a9) - partition with quorum
    Last updated: Fri Mar  2 19:55:41 2018
    Last change: Fri Mar  2 19:24:59 2018 by root via cibadmin on ip-10-0-0-46
    
    3 nodes configured
    1 resource configured
    
    Online: [ ip-10-0-0-46 ip-10-0-0-48 ]
    OFFLINE: [ ip-10-0-0-58 ]
    
    Full list of resources:
    clusterfence  (stonith:fence_aws):    Started ip-10-0-0-46
    
    Daemon Status:
    corosync: active/disabled
    pacemaker: active/disabled
    pcsd: active/enabled
  3. 이전 단계에서 차단된 노드를 시작합니다.

    # pcs cluster start awshostname
  4. 상태를 확인하여 노드가 시작되었는지 확인합니다.

    # pcs status

    예제:

    [root@ip-10-0-0-48 ~]# pcs status
    Cluster name: newcluster
    Stack: corosync
    Current DC: ip-10-0-0-46 (version 1.1.18-11.el7-2b07d5c5a9) - partition with quorum
    Last updated: Fri Mar  2 20:01:31 2018
    Last change: Fri Mar  2 19:24:59 2018 by root via cibadmin on ip-10-0-0-48
    
    3 nodes configured
    1 resource configured
    
    Online: [ ip-10-0-0-46 ip-10-0-0-48 ip-10-0-0-58 ]
    
    Full list of resources:
    
      clusterfence  (stonith:fence_aws):    Started ip-10-0-0-46
    
    Daemon Status:
      corosync: active/disabled
      pacemaker: active/disabled
      pcsd: active/enabled

4.10. 클러스터 노드에 AWS CLI 설치

이전에는 호스트 시스템에 AWS CLI를 설치했습니다. 네트워크 리소스 에이전트를 구성하기 전에 클러스터 노드에 AWS CLI를 설치해야 합니다.

각 클러스터 노드에서 다음 절차를 완료합니다.

사전 요구 사항

절차

  1. AWS CLI를 설치합니다. 자세한 내용은 AWS CLI 설치를 참조하십시오.
  2. 다음 명령을 입력하여 AWS CLI가 올바르게 구성되었는지 확인합니다. 인스턴스 ID와 인스턴스 이름이 표시되어야 합니다.

    예제:

    [root@ip-10-0-0-48 ~]# aws ec2 describe-instances --output text --query 'Reservations[].Instances[].[InstanceId,Tags[?Key==Name].Value]'
    i-07f1ac63af0ec0ac6
    ip-10-0-0-48
    i-063fc5fe93b4167b2
    ip-10-0-0-46
    i-08bd39eb03a6fd2c7
    ip-10-0-0-58

4.11. 네트워크 리소스 에이전트 설치

HA 작업이 작동하기 위해 클러스터는 AWS 네트워킹 리소스 에이전트를 사용하여 장애 조치 기능을 활성화합니다. 노드가 하트비트 검사에 설정된 시간 내에 응답하지 않으면 노드가 펜싱되고 작업이 클러스터의 추가 노드로 페일오버됩니다. 이 작업이 작동하려면 네트워크 리소스 에이전트를 구성해야 합니다.

두 리소스를 동일한 그룹에 추가하여 순서배치 제약 조건을 적용합니다.

보조 개인 IP 리소스 및 가상 IP 리소스 생성

보조 개인 IP 주소를 추가하고 가상 IP를 만들려면 다음 절차를 완료합니다. 클러스터의 모든 노드에서 이 절차를 완료할 수 있습니다.

절차

  1. 다음 명령을 입력하여 AWS 보조 개인 IP 주소 리소스 에이전트(awsvip) 설명을 확인합니다. 이 에이전트에 대한 옵션 및 기본 작업이 표시됩니다.

    # pcs resource describe awsvip
  2. 다음 명령을 입력하여 VPC CIDR 블록에서 사용하지 않는 개인 IP 주소를 사용하여 보조 프라이빗 IP 주소를 생성합니다.

    # pcs resource create privip awsvip secondary_private_ip=Unused-IP-Address --group group-name

    예제:

    [root@ip-10-0-0-48 ~]# pcs resource create privip awsvip secondary_private_ip=10.0.0.68 --group networking-group
  3. 가상 IP 리소스를 만듭니다. 이 주소는 펜싱된 노드에서 장애 조치 노드로 신속하게 다시 매핑하여 서브넷 내에서 펜싱된 노드의 오류를 마스킹할 수 있는 VPC IP 주소입니다.

    # pcs resource create vip IPaddr2 ip=secondary-private-IP --group group-name

    예제:

    root@ip-10-0-0-48 ~]# pcs resource create vip IPaddr2 ip=10.0.0.68 --group networking-group

검증

  • pcs status 명령을 입력하여 리소스가 실행 중인지 확인합니다.

    # pcs status

    예제:

    [root@ip-10-0-0-48 ~]# pcs status
    Cluster name: newcluster
    Stack: corosync
    Current DC: ip-10-0-0-46 (version 1.1.18-11.el7-2b07d5c5a9) - partition with quorum
    Last updated: Fri Mar  2 22:34:24 2018
    Last change: Fri Mar  2 22:14:58 2018 by root via cibadmin on ip-10-0-0-46
    
    3 nodes configured
    3 resources configured
    
    Online: [ ip-10-0-0-46 ip-10-0-0-48 ip-10-0-0-58 ]
    
    Full list of resources:
    
    clusterfence    (stonith:fence_aws):    Started ip-10-0-0-46
     Resource Group: networking-group
         privip (ocf::heartbeat:awsvip):    Started ip-10-0-0-48
         vip    (ocf::heartbeat:IPaddr2):   Started ip-10-0-0-58
    
    Daemon Status:
      corosync: active/disabled
      pacemaker: active/disabled
      pcsd: active/enabled

탄력적인 IP 주소 만들기

탄력적인 IP 주소는 펜싱된 노드에서 장애 조치 노드로 신속하게 다시 매핑하여 펜싱된 노드의 오류를 마스킹할 수 있는 공용 IP 주소입니다.

이는 이전에 만든 가상 IP 리소스와는 다릅니다. 탄력적인 IP 주소는 서브넷 연결 대신 공용을 향한 인터넷 연결에 사용됩니다.

  1. 이전에 생성된 동일한 그룹에 두 리소스를 추가하여 순서배치 제약 조건을 적용합니다.
  2. 다음 AWS CLI 명령을 입력하여 탄력적인 IP 주소를 생성합니다.

    [root@ip-10-0-0-48 ~]# aws ec2 allocate-address --domain vpc --output text
    eipalloc-4c4a2c45   vpc 35.169.153.122
  3. 다음 명령을 입력하여 AWS 보조 Elastic IP Address 리소스 에이전트(awseip) 설명을 확인합니다. 이 에이전트에 대한 옵션 및 기본 작업이 표시됩니다.

    # pcs resource describe awseip
  4. 1단계에서 생성된 할당된 IP 주소를 사용하여 보조 Elastic IP 주소 리소스를 생성합니다.

    # pcs resource create elastic awseip elastic_ip=Elastic-IP-Address allocation_id=Elastic-IP-Association-ID --group networking-group

    예제:

    # pcs resource create elastic awseip elastic_ip=35.169.153.122 allocation_id=eipalloc-4c4a2c45 --group networking-group

검증

  • pcs status 명령을 입력하여 리소스가 실행 중인지 확인합니다.

    # pcs status

    예제:

    [root@ip-10-0-0-58 ~]# pcs status
    Cluster name: newcluster
    Stack: corosync
    Current DC: ip-10-0-0-58 (version 1.1.18-11.el7-2b07d5c5a9) - partition with quorum
    Last updated: Mon Mar  5 16:27:55 2018
    Last change: Mon Mar  5 15:57:51 2018 by root via cibadmin on ip-10-0-0-46
    
    3 nodes configured
    4 resources configured
    
    Online: [ ip-10-0-0-46 ip-10-0-0-48 ip-10-0-0-58 ]
    
    Full list of resources:
    
     clusterfence   (stonith:fence_aws):    Started ip-10-0-0-46
     Resource Group: networking-group
         privip (ocf::heartbeat:awsvip):  Started ip-10-0-0-48
         vip    (ocf::heartbeat:IPaddr2):    Started ip-10-0-0-48
         elastic (ocf::heartbeat:awseip):    Started ip-10-0-0-48
    
    Daemon Status:
      corosync: active/disabled
      pacemaker: active/disabled
      pcsd: active/enabled

탄력적인 IP 주소 테스트

다음 명령을 입력하여 가상 IP(awsvip) 및 탄력적 IP(awseip) 리소스가 작동하는지 확인합니다.

절차

  1. 로컬 워크스테이션에서 이전에 생성한 탄력적인 IP 주소로 SSH 세션을 시작합니다.

    $ ssh -l ec2-user -i ~/.ssh/<KeyName>.pem elastic-IP

    예제:

    $ ssh -l ec2-user -i ~/.ssh/cluster-admin.pem 35.169.153.122
  2. SSH를 통해 연결한 호스트가 생성된 탄력적 리소스와 연결된 호스트인지 확인합니다.

4.12. 공유 블록 스토리지 구성

이 섹션에서는 Amazon EBS(Elastic Block Storage) 다중 연결 볼륨을 사용하여 Red Hat High Availability 클러스터에 대한 공유 블록 스토리지를 구성하는 선택적 절차를 제공합니다. 이 절차에서는 1TB 공유 디스크가 있는 세 개의 인스턴스(3노드 클러스터)를 가정합니다.

사전 요구 사항

절차

  1. AWS 명령 create-volume 을 사용하여 공유 블록 볼륨을 생성합니다.

    $ aws ec2 create-volume --availability-zone <availability_zone> --no-encrypted --size 1024 --volume-type io1 --iops 51200 --multi-attach-enabled

    예를 들어 다음 명령은 us-east-1a 가용성 영역에 볼륨을 생성합니다.

    $ aws ec2 create-volume --availability-zone us-east-1a --no-encrypted --size 1024 --volume-type io1 --iops 51200 --multi-attach-enabled
    
    {
        "AvailabilityZone": "us-east-1a",
        "CreateTime": "2020-08-27T19:16:42.000Z",
        "Encrypted": false,
        "Size": 1024,
        "SnapshotId": "",
        "State": "creating",
        "VolumeId": "vol-042a5652867304f09",
        "Iops": 51200,
        "Tags": [ ],
        "VolumeType": "io1"
    }
    참고

    다음 단계에서 VolumeId 가 필요합니다.

  2. 클러스터의 각 인스턴스에서 AWS 명령 attach-volume 을 사용하여 공유 블록 볼륨을 연결합니다. <instance_id><volume_id> 를 사용합니다.

    $ aws ec2 attach-volume --device /dev/xvdd --instance-id <instance_id> --volume-id <volume_id>

    예를 들어 다음 명령은 공유 블록 볼륨 vol-042a5652867304f09i-0eb803361c2c887f2 인스턴스에 연결합니다.

    $ aws ec2 attach-volume --device /dev/xvdd --instance-id i-0eb803361c2c887f2 --volume-id vol-042a5652867304f09
    
    {
        "AttachTime": "2020-08-27T19:26:16.086Z",
        "Device": "/dev/xvdd",
        "InstanceId": "i-0eb803361c2c887f2",
        "State": "attaching",
        "VolumeId": "vol-042a5652867304f09"
    }

검증

  1. 클러스터의 각 인스턴스에 대해 인스턴스 <ip_address> 와 함께 ssh 명령을 사용하여 블록 장치를 사용할 수 있는지 확인합니다.

    # ssh <ip_address> "hostname ; lsblk -d | grep ' 1T '"

    예를 들어 다음 명령은 IP 198.51.100.3 인스턴스의 호스트 이름 및 블록 장치를 포함한 세부 정보를 나열합니다.

    # ssh 198.51.100.3 "hostname ; lsblk -d | grep ' 1T '"
    
    nodea
    nvme2n1 259:1    0   1T  0 disk
  2. ssh 명령을 사용하여 클러스터의 각 인스턴스가 동일한 공유 디스크를 사용하는지 확인합니다.

    # ssh <ip_address> "hostname ; lsblk -d | grep ' 1T ' | awk '{print \$1}' | xargs -i udevadm info --query=all --name=/dev/{} | grep '^E: ID_SERIAL='"

    예를 들어 다음 명령은 인스턴스 IP 주소 198.51.100.3의 호스트 이름 및 공유 디스크 볼륨 ID를 포함한 세부 정보를 나열합니다.

    # ssh 198.51.100.3 "hostname ; lsblk -d | grep ' 1T ' | awk '{print \$1}' | xargs -i udevadm info --query=all --name=/dev/{} | grep '^E: ID_SERIAL='"
    
    nodea
    E: ID_SERIAL=Amazon Elastic Block Store_vol0fa5342e7aedf09f7

5장. Red Hat Enterprise Linux 이미지를 Google Cloud Platform에서 Google Compute Engine 인스턴스로 배포

GCP(Google Cloud Platform)에서 RHEL 8(Red Hat Enterprise Linux 8)을 GCP(Google Compute Engine) 인스턴스로 배포하려면 다음 정보를 따르십시오. 이 장에서는 다음을 수행합니다.

  • 이미지 선택 옵션에 대해 설명합니다.
  • 호스트 시스템 및 VM(가상 머신)의 시스템 요구 사항을 나열하거나 참조합니다.
  • ISO 이미지에서 사용자 지정 VM을 생성하고, GCE에 업로드 및 인스턴스 시작을 위한 절차를 제공합니다.
참고

GCP의 Red Hat 제품 인증 목록은 Google Cloud Platform의 Red Hat을 참조하십시오.

중요

ISO 이미지에서 사용자 지정 VM을 생성할 수 있지만, Red Hat Image Builder 제품을 사용하여 특정 클라우드 공급자에서 사용할 사용자 지정 이미지를 생성하는 것이 좋습니다. 자세한 내용은 사용자 지정된 RHEL 시스템 이미지 구성을 참조하십시오.

사전 요구 사항

  • 이 장의 절차를 완료하려면 Red Hat 고객 포털 계정이 필요합니다.
  • GCP로 계정을 생성하여 Google Cloud Platform 콘솔에 액세스합니다. 자세한 내용은 Google Cloud 를 참조하십시오.
  • Red Hat Cloud Access 프로그램을 통해 Red Hat 서브스크립션을 활성화하십시오. Red Hat Cloud Access 프로그램을 사용하면 Red Hat 서브스크립션을 물리적 또는 온프레미스 시스템에서 Red Hat의 완전한 지원으로 GCP로 이전할 수 있습니다.

5.1. 추가 리소스

5.2. GCP의 Red Hat Enterprise Linux 이미지 옵션

다음 표에는 Google Cloud Platform의 RHEL 8 이미지 선택 사항 및 이미지 옵션의 차이점이 나열되어 있습니다.

표 5.1. 이미지 옵션

이미지 옵션서브스크립션샘플 시나리오고려 사항

Red Hat Gold Image를 배포하도록 선택합니다.

기존 Red Hat 서브스크립션을 사용합니다.

Red Hat Cloud Access 프로그램을 통해 서브스크립션을 활성화한 다음 Google Cloud Platform에서 Red Hat 골드 이미지를 선택합니다. 골드 이미지에 대한 자세한 내용과 Google Cloud Platform에서 액세스하는 방법에 대한 자세한 내용은 Red Hat Cloud Access Reference 가이드 를 참조하십시오.

서브스크립션에는 Red Hat 제품 비용이 포함됩니다. 다른 모든 인스턴스 비용으로 Google을 결제할 수 있습니다.

Red Hat Gold Image는 기존 Red Hat 서브스크립션을 사용하므로 "Cloud Access" 이미지라고 합니다. Red Hat은 Cloud Access 이미지에 대한 직접 지원을 제공합니다.

GCP로 이동하는 사용자 정의 이미지를 배포하도록 선택합니다.

기존 Red Hat 서브스크립션을 사용합니다.

Red Hat Cloud Access 프로그램을 통해 서브스크립션을 활성화하고 사용자 지정 이미지를 업로드하고 서브스크립션을 첨부하십시오.

서브스크립션에는 Red Hat 제품 비용이 포함되며, 다른 모든 인스턴스 비용을 지불하게 됩니다.

GCP로 이동하는 사용자 지정 이미지를 기존 Red Hat 서브스크립션을 사용하므로 "클라우드 액세스" 이미지라고 합니다. Red Hat은 Cloud Access 이미지에 대한 직접 지원을 제공합니다.

RHEL이 포함된 기존 GCP 이미지를 배포하려면 선택합니다.

GCP 이미지에는 Red Hat 제품이 포함되어 있습니다.

GCP Compute Engine 에서 인스턴스를 시작할 때 RHEL 이미지를 선택하거나 Google Cloud Platform Marketplace 에서 이미지를 선택합니다.

사용량에 따라 가격을 지불하는 모델로 GCP를 매시간 지불합니다. 이러한 이미지를 "요청형" 이미지라고 합니다. GCP는 지원 계약을 통해 온디맨드 이미지를 지원합니다.

중요

온디맨드 인스턴스를 Red Hat Cloud Access 인스턴스로 변환할 수 없습니다. 온디맨드 이미지에서 Red Hat Cloud Access bring-your-your-subscription(BYOS) 이미지로 변경하려면 Red Hat Cloud Access 인스턴스를 새로 생성하고 온디맨드 인스턴스에서 데이터를 마이그레이션합니다. 이중 청구를 방지하려면 데이터를 마이그레이션한 후 온디맨드 인스턴스를 취소합니다.

이 장의 나머지 부분에서는 사용자 지정 이미지와 관련된 정보 및 절차가 포함되어 있습니다.

5.3. 기본 이미지 이해

이 섹션에는 사전 구성된 기본 이미지 및 해당 구성 설정 사용에 대한 정보가 포함되어 있습니다.

5.3.1. 사용자 정의 기본 이미지 사용

VM(가상 시스템)을 수동으로 구성하려면 먼저 기본(시작자) VM 이미지를 생성합니다. 다음으로 구성 설정을 수정하고 VM이 클라우드에서 작동하는 데 필요한 패키지를 추가할 수 있습니다. 이미지를 업로드한 후 특정 애플리케이션에 대한 추가 구성을 변경할 수 있습니다.

추가 리소스

5.3.2. 가상 머신 구성 설정

클라우드 VM에는 다음과 같은 구성 설정이 있어야 합니다.

표 5.2. VM 구성 설정

설정권장 사항

ssh

VM에 대한 원격 액세스를 제공하려면 SSH를 활성화해야 합니다.

dhcp

기본 가상 어댑터는 dhcp에 대해 구성해야 합니다.

5.4. ISO 이미지에서 기본 VM 생성

이 섹션의 절차에 따라 ISO 이미지에서 RHEL 8 기본 이미지를 생성합니다.

사전 요구 사항

5.4.1. RHEL ISO 이미지에서 VM 생성

절차

  1. 가상화를 위해 호스트 시스템을 활성화했는지 확인합니다. 자세한 내용 및 절차는 RHEL 8에서 가상화 활성화를 참조하십시오.
  2. 기본 Red Hat Enterprise Linux VM을 만들고 시작합니다. 자세한 내용은 가상 머신 생성을 참조하십시오.

    1. 명령줄을 사용하여 VM을 생성하는 경우 기본 메모리 및 CPU를 VM에 필요한 용량으로 설정해야 합니다. 가상 네트워크 인터페이스를 virtio로 설정합니다.

      예를 들어 다음 명령은 /home/username/Downloads/rhel8.iso 를 사용하여 kvmtest VM을 생성합니다.

      $ *virt-install --name kvmtest --memory 2048 --vcpus 2 --cdrom /home/username/Downloads/rhel8.iso,bus=virtio --os-variant=rhel8.0*
    2. 웹 콘솔을 사용하여 VM을 생성하는 경우 다음 주의 사항과 함께 웹 콘솔을 사용하여 가상 머신 생성 절차를 따르십시오.

      • 즉시 VM 시작을 선택하지 마십시오.
      • 메모리 크기를 원하는 설정으로 변경합니다.
      • 설치를 시작하기 전에 가상 네트워크 인터페이스 설정에서 모델virtio로 변경하고 vCPU를 VM에 필요한 용량 설정으로 변경했는지 확인합니다.

5.4.2. RHEL 설치 완료

다음 단계를 수행하여 설치를 완료하고 VM이 시작되면 루트 액세스를 활성화합니다.

절차

  1. 설치 프로세스 중에 사용할 언어를 선택합니다.
  2. 설치 요약 보기에서 다음을 실행합니다.

    1. Software Selection (소프트웨어 선택)을 클릭하고 Minimal Install (최소 설치)을 선택합니다.
    2. Done(완료)을 클릭합니다.
    3. Installation Destination (설치 대상)을 클릭하고 Storage Configuration (스토리지 구성)에서 Custom (사용자 지정)을 확인합니다.

      • /boot 에 대해 500MB 이상인지 확인합니다. 루트 / 의 남은 공간을 사용할 수 있습니다.
      • 표준 파티션이 권장되지만 LVM(Logical Volume Management)을 사용할 수 있습니다.
      • 파일 시스템에 xfs, ext4 또는 ext3을 사용할 수 있습니다.
      • 변경 사항이 완료되면 완료를 클릭합니다.
  3. 설치 시작을 클릭합니다.
  4. Root 암호를 설정합니다. 해당되는 경우 다른 사용자를 만듭니다.
  5. VM을 재부팅하고 설치가 완료되면 root로 로그인합니다.
  6. 이미지를 구성합니다.

    1. VM을 등록하고 Red Hat Enterprise Linux 8 리포지토리를 활성화합니다.

      # subscription-manager register --auto-attach
    2. cloud-init 패키지가 설치되어 활성화되어 있는지 확인합니다.

      # yum install cloud-init
      # systemctl enable --now cloud-init.service
  7. VM의 전원을 끕니다.

5.5. RHEL 이미지를 GCP에 업로드

RHEL 8 이미지를 GCP(Google Cloud Platform)에 업로드하려면 이 섹션의 절차를 따르십시오.

5.5.1. GCP에서 새 프로젝트 생성

GCP(Google Cloud Platform)에 새 프로젝트를 생성하려면 다음 단계를 완료합니다.

사전 요구 사항

  • GCP의 계정이 있어야 합니다. 그렇지 않은 경우 자세한 내용은 Google Cloud 를 참조하십시오.

절차

  1. GCP 콘솔을 시작합니다.
  2. Google Cloud Platform 오른쪽에 있는 드롭다운 메뉴를 클릭합니다.
  3. 팝업 메뉴에서 NEW PROJECT (새 프로젝트)를 클릭합니다.
  4. New Project(새 프로젝트 ) 창에서 새 프로젝트의 이름을 입력합니다.
  5. 조직 확인. 필요한 경우 드롭다운 메뉴를 클릭하여 조직을 변경합니다.
  6. 상위 조직 또는 폴더의 위치를 확인합니다. 필요한 경우 찾아보기 를 클릭하여 이 값을 검색하고 변경합니다.
  7. CREATE (생성)를 클릭하여 새 GCP 프로젝트를 생성합니다.

    참고

    Google Cloud SDK를 설치한 후에는 gcloud projects create CLI 명령을 사용하여 프로젝트를 생성할 수 있습니다. 간단한 예는 다음과 같습니다.

    gcloud projects create my-gcp-project3 --name project3

    이 예제에서는 프로젝트 ID my-gcp-project3 및 프로젝트 이름 project3 을 사용하여 프로젝트를 생성합니다. 자세한 내용은 gcloud project create 를 참조하십시오.

5.5.2. Google Cloud SDK 설치

Google Cloud SDK를 설치하려면 다음 단계를 완료합니다.

절차

  1. Google Cloud SDK 아카이브를 다운로드하고 추출하려면 GCP 지침을 따르십시오. 자세한 내용은 GCP 문서 빠른 시작을 참조하십시오.
  2. Google Cloud SDK를 초기화하려면 동일한 지침을 따르십시오.

    참고

    Google Cloud SDK를 초기화한 후에는 gcloud CLI 명령을 사용하여 작업을 수행하고 프로젝트 및 인스턴스에 대한 정보를 얻을 수 있습니다. 예를 들어 gcloud compute project-info describe --project <project-name> 명령을 사용하여 프로젝트 정보를 표시할 수 있습니다.

5.5.3. Google Compute Engine용 SSH 키 생성

공용 IP 주소를 사용하여 인스턴스에 직접 SSH 연결을 수행할 수 있도록 다음 절차에 따라 GCE에 SSH 키를 생성하고 등록합니다.

절차

  1. ssh-keygen 명령을 사용하여 GCE에 사용할 SSH 키 쌍을 생성합니다.

    # ssh-keygen -t rsa -f ~/.ssh/google_compute_engine
  2. GCP 콘솔 대시보드 페이지에서 Google Cloud Console 배너 의 왼쪽에 있는 탐색 메뉴를 클릭하고 Compute Engine(컴퓨팅 엔진) 을 선택한 다음 메타데이터 를 선택합니다.
  3. SSH Keys (SSH 키)를 클릭한 다음 Edit(편집 )를 클릭합니다.
  4. ~/.ssh/google_compute_engine.pub 파일에서 생성된 출력을 입력하고 Save(저장 )를 클릭합니다.

    이제 표준 SSH를 사용하여 인스턴스에 연결할 수 있습니다.

    # ssh -i ~/.ssh/google_compute_engine <username>@<instance_external_ip>
참고

gcloud compute config-ssh 명령을 실행하여 인스턴스의 별칭으로 구성 파일을 채울 수 있습니다. 별칭은 인스턴스 이름별로 간단한 SSH 연결을 허용합니다. gcloud compute config-ssh 명령에 대한 자세한 내용은 gcloud compute config-ssh 를 참조하십시오.

5.5.4. GCP 스토리지에서 스토리지 버킷 생성

GCP로 가져오려면 GCP 스토리지 버킷이 필요합니다. 버킷을 생성하려면 다음 단계를 완료합니다.

절차

  1. GCP에 아직 로그인하지 않은 경우 다음 명령을 사용하여 로그인합니다.

    # gcloud auth login
  2. 스토리지 버킷을 생성합니다.

    # gsutil mb gs://bucket_name
    참고

    또는 Google Cloud Console을 사용하여 버킷을 생성할 수도 있습니다. 자세한 내용은 버킷 생성을 참조하십시오.

추가 리소스

5.5.5. 이미지를 GCP 버킷에 변환 및 업로드

이미지를 GCP 버킷에 변환하고 업로드하려면 다음 절차를 완료합니다. 샘플은 대표적인 제품입니다. qcow2 이미지를 원시 형식으로 변환한 다음 업로드를 위해 해당 이미지를 tar로 변환합니다.

절차

  1. qemu-img 명령을 실행하여 이미지를 변환합니다. 변환된 이미지에는 이름 disk.raw 가 있어야 합니다.

    # qemu-img convert -f qcow2 -O raw rhel-{ProductNumber}.0-sample.qcow2 disk.raw
  2. 이미지를 tar으로 사용합니다.

    # tar --format=oldgnu -Sczf disk.raw.tar.gz disk.raw
  3. 이전에 만든 버킷에 이미지를 업로드합니다. 업로드하는 데 몇 분이 걸릴 수 있습니다.

    # gsutil cp disk.raw.tar.gz gs://bucket_name
  4. Google Cloud Platform 홈 화면에서 축소된 메뉴 아이콘을 클릭하고 Storage (스토리지)를 선택한 다음 Browser (브라우저)를 선택합니다.
  5. 버킷 이름을 클릭합니다.

    tarred 이미지는 버킷 이름에 나열됩니다.

    참고

    GCP 콘솔을 사용하여 이미지를 업로드할 수도 있습니다. 이를 수행하려면 버킷 이름을 클릭한 다음 Upload files(파일 업로드)를 클릭합니다.

5.5.6. GCP 버킷의 오브젝트에서 이미지 생성

다음 절차에 따라 GCP 버킷의 오브젝트에서 이미지를 생성합니다.

절차

  1. 다음 명령을 실행하여 GCE 이미지를 생성합니다. 생성할 이미지의 이름, 버킷 이름 및 tarred 이미지의 이름을 지정합니다.

    # gcloud compute images create my-image-name --source-uri gs://my-bucket-name/disk.raw.tar.gz
    참고

    또는 Google Cloud Console을 사용하여 이미지를 만들 수도 있습니다. 자세한 내용은 사용자 정의 이미지 생성, 삭제 및 사용 중단 을 참조하십시오.

  2. 선택적으로 GCP 콘솔에서 이미지를 찾습니다.

    1. Google Cloud Console 배너 왼쪽의 탐색 메뉴를 클릭합니다.
    2. Compute Engine(컴퓨팅 엔진) 을 선택한 다음 Images (이미지)를 선택합니다.

5.5.7. 이미지에서 Google Compute Engine 인스턴스 생성

GCP 콘솔을 사용하여 GCE VM 인스턴스를 구성하려면 다음 단계를 완료합니다.

참고

다음 절차에서는 GCP 콘솔을 사용하여 기본 VM 인스턴스를 생성하는 방법을 설명합니다. GCE VM 인스턴스 및 해당 구성 옵션에 대한 자세한 내용은 VM 인스턴스 생성 및 시작을 참조하십시오.

절차

  1. GCP 콘솔 대시보드 페이지에서 Google Cloud Console 배너 의 왼쪽에 있는 탐색 메뉴를 클릭하고 Compute Engine(컴퓨팅 엔진) 을 선택한 다음 Images(이미지 )를 선택합니다.
  2. 이미지를 선택합니다.
  3. Create Instance(인스턴스 만들기)를 클릭합니다.
  4. Create an instance(인스턴스 만들기) 페이지에서 인스턴스의 Name (이름)을 입력합니다.
  5. 지역 및 영역을 선택합니다.
  6. 워크로드의 요구 사항을 충족하거나 초과하는 머신 구성을 선택합니다.
  7. Boot disk 가 이미지 이름을 지정하는지 확인합니다.
  8. 필요한 경우 Firewall (방화벽)에서 Allow HTTP traffic(HTTP 트래픽 허용) 또는 Allow HTTPS traffic(HTTP 트래픽 허용)을 선택합니다.
  9. 생성을 클릭합니다.

    참고

    기본 인스턴스를 생성하는 데 필요한 최소 구성 옵션입니다. 애플리케이션 요구 사항에 따라 추가 옵션을 검토합니다.

  10. VM 인스턴스에서 이미지를 찾습니다.
  11. GCP 콘솔 대시보드에서 Google Cloud Console 배너 의 왼쪽에 있는 탐색 메뉴를 클릭하고 Compute Engine(컴퓨팅 엔진) 을 선택한 다음 VM 인스턴스를 선택합니다.

    참고

    또는 gcloud 컴퓨팅 인스턴스 create CLI 명령을 사용하여 이미지에서 GCE VM 인스턴스를 생성할 수도 있습니다. 간단한 예는 다음과 같습니다.

    gcloud compute instances create myinstance3 --zone=us-central1-a --image test-iso2-image

    이 예제에서는 기존 이미지 test-iso2-image 를 기반으로 us-central1-a 영역에 myinstance3 이라는 VM 인스턴스를 생성합니다. 자세한 내용은 gcloud 컴퓨팅 인스턴스 create 를 참조하십시오.

5.5.8. 인스턴스에 연결

공용 IP 주소를 사용하여 GCE 인스턴스에 연결하려면 다음 절차를 수행합니다.

절차

  1. 다음 명령을 실행하여 인스턴스가 실행 중인지 확인합니다. 명령은 인스턴스가 실행 중인지 여부와 실행 중인 인스턴스의 공용 IP 주소를 포함하여 GCE 인스턴스에 대한 정보를 나열합니다.

    # gcloud compute instances list
  2. 표준 SSH를 사용하여 인스턴스에 연결합니다. 이 예제에서는 이전에 만든 Google_compute_engine 키를 사용합니다.

    # ssh -i ~/.ssh/google_compute_engine <user_name>@<instance_external_ip>
    참고

    GCP는 인스턴스에 SSH 연결을 수행할 수 있는 다양한 방법을 제공합니다. 자세한 내용은 인스턴스에 연결을 참조하십시오. 이전에 설정한 root 계정과 암호를 사용하여 인스턴스에 연결할 수도 있습니다.

5.5.9. Red Hat 서브스크립션 첨부

Red Hat Cloud Access 프로그램을 통해 이전에 활성화한 서브스크립션을 연결하려면 다음 단계를 완료합니다.

사전 요구 사항

  • 서브스크립션을 활성화해야 합니다.

절차

  1. 시스템을 등록합니다.

    # subscription-manager register --auto-attach
  2. 서브스크립션을 첨부합니다.

6장. Google Cloud Platform에서 Red Hat High Availability Cluster 구성

이 장에서는 GCE(Google Compute Engine) VM(가상 시스템) 인스턴스를 클러스터 노드로 사용하여 GCP(Google Cloud Platform)의 HA(Red Hat High Availability) 클러스터를 구성하는 데 필요한 정보 및 절차를 설명합니다.

이 장에서는 다음을 설명합니다.

  • GCP 환경을 설정하기 위한 사전 요구 사항 절차. 환경을 설정하고 나면 VM 인스턴스를 생성하고 구성할 수 있습니다.
  • HA 클러스터 생성과 관련된 절차로 개별 노드를 GCP의 HA 노드 클러스터로 변환합니다. 여기에는 각 클러스터 노드에 고가용성 패키지 및 에이전트를 설치하고 펜싱을 구성하며 네트워크 리소스 에이전트를 설치하는 절차가 포함됩니다.

사전 요구 사항

  • Red Hat Cloud Access 프로그램에 등록하고 사용되지 않는 RHEL 서브스크립션이 있어야 합니다. 첨부된 서브스크립션에는 각 GCP 인스턴스에 대해 다음 리포지토리에 대한 액세스 권한이 포함되어야 합니다.

    • Red Hat Enterprise Linux 8 Server: rhel-8-server-rpms/8Server/x86_64
    • Red Hat Enterprise Linux 8 Server(고가용성): rhel-8-server-ha-rpms/8Server/x86_64
  • 활성 GCP 프로젝트에 속하고 프로젝트에서 리소스를 생성할 수 있는 충분한 권한이 있어야 합니다.
  • 프로젝트에는 개별 사용자가 아닌 VM 인스턴스에 속하는 서비스 계정이 있어야 합니다. 별도의 서비스 계정을 생성하는 대신 기본 서비스 계정을 사용하는 방법에 대한 정보는 계산 엔진 기본 서비스 계정 사용을 참조하십시오.

귀하와 프로젝트 관리자가 사용자 지정 서비스 계정을 생성하는 경우 다음 역할에 맞게 서비스 계정을 구성해야 합니다.

  • Cloud Trace Agent
  • 컴퓨팅 관리자
  • 컴퓨팅 네트워크 관리자
  • 클라우드 데이터 저장소 사용자
  • 로깅 관리자
  • 모니터링 편집기
  • 지표 쓰기 프로그램 모니터링
  • 서비스 계정 관리자
  • 스토리지 관리자

6.1. 추가 리소스

6.2. 필수 시스템 패키지

이 장의 절차에서는 Red Hat Enterprise Linux를 실행하는 호스트 시스템을 사용한다고 가정합니다. 절차를 성공적으로 완료하려면 호스트 시스템에 다음 패키지가 설치되어 있어야 합니다.

표 6.1. 시스템 패키지

패키지리포지터리설명

libvirt

rhel-8-for-x86_64-appstream-rpms

플랫폼 가상화 관리를 위한 오픈 소스 API, 데몬 및 관리 도구

virt-install

rhel-8-for-x86_64-appstream-rpms

가상 머신 구축을 위한 명령줄 유틸리티

libguestfs

rhel-8-for-x86_64-appstream-rpms

가상 머신 파일 시스템 액세스 및 수정을 위한 라이브러리

libguestfs-tools

rhel-8-for-x86_64-appstream-rpms

가상 머신용 시스템 관리 도구; guestfish 유틸리티 포함

6.3. GCP의 Red Hat Enterprise Linux 이미지 옵션

다음 표에는 Google Cloud Platform의 RHEL 8 이미지 선택 사항 및 이미지 옵션의 차이점이 나열되어 있습니다.

표 6.2. 이미지 옵션

이미지 옵션서브스크립션샘플 시나리오고려 사항

Red Hat Gold Image를 배포하도록 선택합니다.

기존 Red Hat 서브스크립션을 사용합니다.

Red Hat Cloud Access 프로그램을 통해 서브스크립션을 활성화한 다음 Google Cloud Platform에서 Red Hat 골드 이미지를 선택합니다. 골드 이미지에 대한 자세한 내용과 Google Cloud Platform에서 액세스하는 방법에 대한 자세한 내용은 Red Hat Cloud Access Reference 가이드 를 참조하십시오.

서브스크립션에는 Red Hat 제품 비용이 포함됩니다. 다른 모든 인스턴스 비용으로 Google을 결제할 수 있습니다.

Red Hat Gold Image는 기존 Red Hat 서브스크립션을 사용하므로 "Cloud Access" 이미지라고 합니다. Red Hat은 Cloud Access 이미지에 대한 직접 지원을 제공합니다.

GCP로 이동하는 사용자 정의 이미지를 배포하도록 선택합니다.

기존 Red Hat 서브스크립션을 사용합니다.

Red Hat Cloud Access 프로그램을 통해 서브스크립션을 활성화하고 사용자 지정 이미지를 업로드하고 서브스크립션을 첨부하십시오.

서브스크립션에는 Red Hat 제품 비용이 포함되며, 다른 모든 인스턴스 비용을 지불하게 됩니다.

GCP로 이동하는 사용자 지정 이미지를 기존 Red Hat 서브스크립션을 사용하므로 "클라우드 액세스" 이미지라고 합니다. Red Hat은 Cloud Access 이미지에 대한 직접 지원을 제공합니다.

RHEL이 포함된 기존 GCP 이미지를 배포하려면 선택합니다.

GCP 이미지에는 Red Hat 제품이 포함되어 있습니다.

GCP Compute Engine 에서 인스턴스를 시작할 때 RHEL 이미지를 선택하거나 Google Cloud Platform Marketplace 에서 이미지를 선택합니다.

사용량에 따라 가격을 지불하는 모델로 GCP를 매시간 지불합니다. 이러한 이미지를 "요청형" 이미지라고 합니다. GCP는 지원 계약을 통해 온디맨드 이미지를 지원합니다.

중요

온디맨드 인스턴스를 Red Hat Cloud Access 인스턴스로 변환할 수 없습니다. 온디맨드 이미지에서 Red Hat Cloud Access bring-your-your-subscription(BYOS) 이미지로 변경하려면 Red Hat Cloud Access 인스턴스를 새로 생성하고 온디맨드 인스턴스에서 데이터를 마이그레이션합니다. 이중 청구를 방지하려면 데이터를 마이그레이션한 후 온디맨드 인스턴스를 취소합니다.

이 장의 나머지 부분에서는 사용자 지정 이미지와 관련된 정보 및 절차가 포함되어 있습니다.

6.4. Google Cloud SDK 설치

Google Cloud SDK를 설치하려면 다음 단계를 완료합니다.

절차

  1. Google Cloud SDK 아카이브를 다운로드하고 추출하려면 GCP 지침을 따르십시오. 자세한 내용은 GCP 문서 빠른 시작을 참조하십시오.
  2. Google Cloud SDK를 초기화하려면 동일한 지침을 따르십시오.

    참고

    Google Cloud SDK를 초기화한 후에는 gcloud CLI 명령을 사용하여 작업을 수행하고 프로젝트 및 인스턴스에 대한 정보를 얻을 수 있습니다. 예를 들어 gcloud compute project-info describe --project <project-name> 명령을 사용하여 프로젝트 정보를 표시할 수 있습니다.

6.5. GCP 이미지 버킷 생성

다음 문서에는 기본 위치에 다중 지역 버킷을 생성하기 위한 최소 요구 사항이 포함되어 있습니다.

사전 요구 사항

  • GCP 스토리지 유틸리티(gsutil)

절차

  1. Google Cloud Platform에 아직 로그인하지 않은 경우 다음 명령을 사용하여 로그인합니다.

    # gcloud auth login
  2. 스토리지 버킷을 생성합니다.

    $ gsutil mb gs://BucketName

    예제:

    $ gsutil mb gs://rhel-ha-bucket

추가 리소스

6.6. 맞춤형 가상 사설 클라우드 네트워크 및 서브넷 생성

사용자 지정 VPC(가상 프라이빗 클라우드) 네트워크 및 서브넷을 만들려면 다음 단계를 완료합니다.

절차

  1. GCP 콘솔을 시작합니다.
  2. 왼쪽 탐색 창의 Networking (네트워킹)에서 VPC 네트워크를 선택합니다.
  3. VPC 네트워크 생성을 클릭합니다.
  4. VPC 네트워크의 이름을 입력합니다.
  5. 새 서브넷 아래에 클러스터를 생성할 리전에 사용자 지정 서브넷 을 만듭니다.
  6. 생성을 클릭합니다.

6.7. 기본 GCP 이미지 준비 및 가져오기

GCP용 Red Hat Enterprise Linux 8 이미지를 준비하려면 다음 단계를 완료합니다.

절차

  1. 다음 명령을 입력하여 파일을 변환합니다. GCP에 업로드된 이미지는 원시 형식이어야 하며 이름이 disk.raw 여야 합니다.

    $ qemu-img convert -f qcow2 ImageName.qcow2 -O raw disk.raw
  2. 다음 명령을 입력하여 원시 파일을 압축합니다. GCP에 업로드된 이미지를 압축해야 합니다.

    $ tar -Sczf ImageName.tar.gz disk.raw
  3. 압축된 이미지를 이전에 만든 버킷으로 가져옵니다.

    $ gsutil cp ImageName.tar.gz gs://BucketName

6.8. 기본 GCP 인스턴스 생성 및 구성

GCP 운영 및 보안 요구 사항을 준수하는 GCP 인스턴스를 생성하고 구성하려면 다음 단계를 완료합니다.

절차

  1. 다음 명령을 입력하여 버킷의 압축된 파일에서 이미지를 만듭니다.

    $ gcloud compute images create BaseImageName --source-uri gs://BucketName/BaseImageName.tar.gz

    예제:

    [admin@localhost ~] $ gcloud compute images create rhel-76-server --source-uri gs://user-rhelha/rhel-server-76.tar.gz
    Created [https://www.googleapis.com/compute/v1/projects/MyProject/global/images/rhel-server-76].
    NAME            PROJECT                 FAMILY  DEPRECATED  STATUS
    rhel-76-server  rhel-ha-testing-on-gcp                      READY
  2. 다음 명령을 입력하여 이미지에서 템플릿 인스턴스를 생성합니다. 기본 RHEL 인스턴스에 필요한 최소 크기는 n1-standard-2입니다. 추가 구성 옵션은 gcloud compute instances create 를 참조하십시오.

    $ gcloud compute instances create BaseInstanceName --can-ip-forward --machine-type n1-standard-2 --image BaseImageName --service-account ServiceAccountEmail

    예제:

    [admin@localhost ~] $ gcloud compute instances create rhel-76-server-base-instance --can-ip-forward --machine-type n1-standard-2 --image rhel-76-server --service-account account@project-name-on-gcp.iam.gserviceaccount.com
    Created [https://www.googleapis.com/compute/v1/projects/rhel-ha-testing-on-gcp/zones/us-east1-b/instances/rhel-76-server-base-instance].
    NAME   ZONE   MACHINE_TYPE   PREEMPTIBLE  INTERNAL_IP  EXTERNAL_IP     STATUS
    rhel-76-server-base-instance  us-east1-bn1-standard-2          10.10.10.3   192.227.54.211  RUNNING
  3. SSH 터미널 세션을 사용하여 인스턴스에 연결합니다.

    $ ssh root@PublicIPaddress
  4. RHEL 소프트웨어를 업데이트합니다.

    1. RHSM(Red Hat Subscription Manager)에 등록.
    2. 서브스크립션 풀 ID를 활성화합니다(또는 --auto-attach 명령 사용).
    3. 모든 리포지토리를 비활성화합니다.

      # subscription-manager repos --disable=*
    4. 다음 리포지토리를 활성화합니다.

      # subscription-manager repos --enable=rhel-8-server-rpms
    5. yum update 명령을 실행합니다.

      # yum update -y
  5. 실행 중인 인스턴스(내부 설치)에 GCP Linux 게스트 환경을 설치합니다.

    자세한 내용은 Install an guest environment in-place 를 참조하십시오.

  6. CentOS/RHEL 옵션을 선택합니다.
  7. 명령 스크립트를 복사하고 명령 프롬프트에 붙여넣어 스크립트를 즉시 실행합니다.
  8. 인스턴스에 대해 다음 구성을 변경합니다. 이러한 변경 사항은 사용자 정의 이미지에 대한 GCP 권장 사항을 기반으로 합니다. 자세한 내용은 gcloudcompute 이미지 목록을 참조하십시오.

    1. /etc/chrony.conf 파일을 편집하고 모든 NTP 서버를 제거합니다.
    2. 다음 NTP 서버를 추가합니다.

      metadata.google.internal iburst Google NTP server
    3. 영구적인 네트워크 장치 규칙을 제거합니다.

      # rm -f /etc/udev/rules.d/70-persistent-net.rules
      
      # rm -f /etc/udev/rules.d/75-persistent-net-generator.rules
    4. 자동으로 시작되도록 network 서비스를 설정합니다.

      # chkconfig network on
    5. 자동으로 시작되도록 sshd 서비스를 설정합니다.

      # systemctl enable sshd
      # systemctl is-enabled sshd
    6. 다음 명령을 입력하여 시간대를 UTC로 설정합니다.

      # ln -sf /usr/share/zoneinfo/UTC /etc/localtime
    7. (선택 사항) /etc/ssh/ssh_config 파일을 편집하고 파일 끝에 다음 행을 추가합니다. 이렇게 하면 장기간 사용하지 않는 동안 SSH 세션이 활성화됩니다.

      # Server times out connections after several minutes of inactivity.
      # Keep alive ssh connections by sending a packet every 7 minutes.
      ServerAliveInterval 420
    8. /etc/ssh/sshd_config 파일을 편집하고 필요한 경우 다음과 같이 변경합니다. ClientAliveInterval 420 설정은 선택 사항입니다. 이렇게 하면 더 이상 비활성 기간 동안 SSH 세션이 활성화됩니다.

      PermitRootLogin no
      PasswordAuthentication no
      AllowTcpForwarding yes
      X11Forwarding no
      PermitTunnel no
      # Compute times out connections after 10 minutes of inactivity.
      # Keep ssh connections alive by sending a packet every 7 minutes.
      ClientAliveInterval 420
  9. 다음 명령을 입력하여 암호 액세스를 비활성화합니다. /etc/cloud/cloud.cfg 파일을 편집합니다.

    ssh_pwauth from 1 to 0.
    ssh_pwauth: 0
    중요

    이전에는 SSH 세션 액세스를 허용하여 인스턴스를 구성할 수 있도록 암호 액세스를 활성화했습니다. 암호 액세스를 비활성화해야 합니다. 모든 SSH 세션 액세스는 암호가 없어야 합니다.

  10. 다음 명령을 입력하여 서브스크립션 관리자에서 인스턴스를 등록 취소합니다.

    # subscription-manager unregister
  11. 다음 명령을 입력하여 쉘 기록을 정리합니다. 다음 프로시저에 대해 인스턴스를 계속 실행합니다.

    # export HISTSIZE=0

6.9. 스냅샷 이미지 생성

인스턴스 구성 설정을 유지하고 스냅샷을 만들려면 다음 단계를 완료합니다.

절차

  1. 실행 중인 인스턴스에서 다음 명령을 입력하여 데이터를 디스크에 동기화합니다.

    # sync
  2. 호스트 시스템에서 다음 명령을 입력하여 스냅샷을 만듭니다.

    $ gcloud compute disks snapshot InstanceName --snapshot-names SnapshotName
  3. 호스트 시스템에서 다음 명령을 입력하여 스냅샷에서 구성된 이미지를 생성합니다.

    $ gcloud compute images create ConfiguredImageFromSnapshot --source-snapshot SnapshotName

6.10. HA 노드 템플릿 인스턴스 및 HA 노드 생성

스냅샷에서 이미지를 구성한 후에는 노드 템플릿을 생성할 수 있습니다. 이 템플릿을 사용하여 모든 HA 노드를 생성합니다. 템플릿과 HA 노드를 생성하려면 다음 단계를 완료합니다.

절차

  1. 다음 명령을 입력하여 인스턴스 템플릿을 생성합니다.

    $ gcloud compute instance-templates create InstanceTemplateName --can-ip-forward --machine-type n1-standard-2 --image ConfiguredImageFromSnapshot --service-account ServiceAccountEmailAddress

    예제:

    [admin@localhost ~] $ gcloud compute instance-templates create rhel-81-instance-template --can-ip-forward --machine-type n1-standard-2 --image rhel-81-gcp-image --service-account account@project-name-on-gcp.iam.gserviceaccount.com
    Created [https://www.googleapis.com/compute/v1/projects/project-name-on-gcp/global/instanceTemplates/rhel-81-instance-template].
    NAME  MACHINE_TYPE   PREEMPTIBLE  CREATION_TIMESTAMP
    rhel-81-instance-template   n1-standard-2          2018-07-25T11:09:30.506-07:00
  2. 다음 명령을 입력하여 하나의 영역에 여러 노드를 만듭니다.

    # gcloud compute instances create NodeName01 NodeName02 --source-instance-template InstanceTemplateName --zone RegionZone --network=NetworkName --subnet=SubnetName

    예제:

    [admin@localhost ~] $ gcloud compute instances create rhel81-node-01 rhel81-node-02 rhel81-node-03 --source-instance-template rhel-81-instance-template --zone us-west1-b --network=projectVPC --subnet=range0
    Created [https://www.googleapis.com/compute/v1/projects/project-name-on-gcp/zones/us-west1-b/instances/rhel81-node-01].
    Created [https://www.googleapis.com/compute/v1/projects/project-name-on-gcp/zones/us-west1-b/instances/rhel81-node-02].
    Created [https://www.googleapis.com/compute/v1/projects/project-name-on-gcp/zones/us-west1-b/instances/rhel81-node-03].
    NAME            ZONE        MACHINE_TYPE   PREEMPTIBLE  INTERNAL_IP  EXTERNAL_IP    STATUS
    rhel81-node-01  us-west1-b  n1-standard-2               10.10.10.4   192.230.25.81   RUNNING
    rhel81-node-02  us-west1-b  n1-standard-2               10.10.10.5   192.230.81.253  RUNNING
    rhel81-node-03  us-east1-b  n1-standard-2               10.10.10.6   192.230.102.15  RUNNING

6.11. HA 패키지 및 에이전트 설치

모든 노드에서 다음 단계를 완료합니다.

절차

  1. Google Cloud Console에서 Compute Engine (컴퓨팅 엔진)을 선택한 다음 VM 인스턴스를 선택합니다.
  2. 인스턴스를 선택하고 SSH 옆에 있는 화살표를 클릭하고 View gcloud 명령 옵션을 선택합니다.
  3. 인스턴스에 암호 없이 액세스할 수 있도록 명령 프롬프트에 이 명령을 붙여넣습니다.
  4. sudo 계정 액세스를 활성화하고 Red Hat 서브스크립션 관리자에 등록합니다.
  5. 서브스크립션 풀 ID를 활성화합니다(또는 --auto-attach 명령 사용).
  6. 모든 리포지토리를 비활성화합니다.

    # subscription-manager repos --disable=*
  7. 다음 리포지토리를 활성화합니다.

    # subscription-manager repos --enable=rhel-8-server-rpms
    # subscription-manager repos --enable=rhel-8-for-x86_64-highavailability-rpms
  8. pcs pacemaker, 펜스 에이전트 및 리소스 에이전트를 설치합니다.

    # yum install -y pcs pacemaker fence-agents-gce resource-agents-gcp
  9. 모든 패키지를 업데이트합니다.

    # yum update -y

6.12. HA 서비스 구성

HA 서비스를 구성하려면 모든 노드에서 다음 단계를 완료합니다.

절차

  1. 사용자 hacluster 는 이전 단계에서 pcspacemaker 설치 중에 생성되었습니다. 모든 클러스터 노드에서 사용자 hacluster 의 암호를 생성합니다. 모든 노드에 동일한 암호를 사용합니다.

    # passwd hacluster
  2. firewalld 서비스가 설치된 경우 다음 명령을 입력하여 HA 서비스를 추가합니다.

    # firewall-cmd --permanent --add-service=high-availability
    
    # firewall-cmd --reload
  3. 다음 명령을 입력하여 pcs 서비스를 시작하고 부팅 시 시작되도록 활성화합니다.

    # systemctl start pcsd.service
    
    # systemctl enable pcsd.service
    
    Created symlink from /etc/systemd/system/multi-user.target.wants/pcsd.service to /usr/lib/systemd/system/pcsd.service.

검증

  1. pcsd 서비스가 실행 중인지 확인합니다.

    # systemctl status pcsd.service
    
    pcsd.service - PCS GUI and remote configuration interface
    Loaded: loaded (/usr/lib/systemd/system/pcsd.service; enabled; vendor preset: disabled)
    Active: active (running) since Mon 2018-06-25 19:21:42 UTC; 15s ago
    Docs: man:pcsd(8)
    man:pcs(8)
    Main PID: 5901 (pcsd)
    CGroup: /system.slice/pcsd.service
    └─5901 /usr/bin/ruby /usr/lib/pcsd/pcsd > /dev/null &
  2. /etc/hosts 파일을 편집합니다. 모든 노드에 RHEL 호스트 이름과 내부 IP 주소를 추가합니다.

6.13. 클러스터 생성

노드 클러스터를 생성하려면 다음 단계를 완료합니다.

절차

  1. 노드 중 하나에서 다음 명령을 입력하여 pcs 사용자를 인증합니다. 명령에서 클러스터에 있는 각 노드의 이름을 지정합니다.

    # pcs host auth hostname1 hostname2 hostname3
    Username: hacluster
    Password:
    hostname1: Authorized
    hostname2: Authorized
    hostname3: Authorized
  2. 다음 명령을 입력하여 클러스터를 생성합니다.

    # pcs cluster setup cluster-name hostname1 hostname2 hostname3

검증

  1. 다음 명령을 실행하여 노드가 시작될 때 자동으로 클러스터에 참여할 수 있습니다.

    # pcs cluster enable --all
  2. 다음 명령을 입력하여 클러스터를 시작합니다.

    # pcs cluster start --all

6.14. 펜싱 장치 생성

펜싱 장치를 생성하려면 다음 단계를 완료합니다.

대부분의 기본 구성에서 GCP 인스턴스 이름과 RHEL 호스트 이름은 동일합니다.

절차

  1. 다음 명령을 입력하여 GCP 인스턴스 이름을 가져옵니다. 출력에는 인스턴스의 내부 ID도 표시됩니다.

    # fence_gce --zone us-west1-b --project=rhel-ha-on-gcp -o list

    예제:

    [root@rhel81-node-01 ~]# fence_gce --zone us-west1-b --project=rhel-ha-testing-on-gcp -o list
    44358**********3181,InstanceName-3
    40819**********6811,InstanceName-1
    71736**********3341,InstanceName-2
  2. 다음 명령을 입력하여 펜스 장치를 생성합니다.

    # pcs stonith create FenceDeviceName fence_gce zone=Region-Zone project=MyProject

검증

  • 펜스 장치가 시작되었는지 확인합니다.

    # pcs status

    예제:

    [root@rhel81-node-01 ~]# pcs status
    Cluster name: gcp-cluster
    Stack: corosync
    Current DC: rhel81-node-02 (version 1.1.18-11.el7_5.3-2b07d5c5a9) - partition with quorum
    Last updated: Fri Jul 27 12:53:25 2018
    Last change: Fri Jul 27 12:51:43 2018 by root via cibadmin on rhel81-node-01
    
    3 nodes configured
    3 resources configured
    
    Online: [ rhel81-node-01 rhel81-node-02 rhel81-node-03 ]
    
    Full list of resources:
    
    us-west1-b-fence    (stonith:fence_gce):    Started rhel81-node-01
    
    Daemon Status:
    corosync: active/enabled
    pacemaker: active/enabled
    pcsd: active/enabled

6.15. GCP 노드 권한 부여 구성

계정 자격 증명을 사용하여 GCP에 액세스하도록 클라우드 SDK 툴을 구성합니다.

절차

프로젝트 ID 및 계정 자격 증명으로 각 노드를 초기화하려면 각 노드에 다음 명령을 입력합니다.

# gcloud-ra init

6.16. gcp-vcp-move-vip 리소스 에이전트 구성

gcp-vpc-move-vip 리소스 에이전트는 보조 IP 주소(alias IP)를 실행 중인 인스턴스에 연결합니다. 이는 클러스터의 여러 다른 노드 간에 전달할 수 있는 유동 IP 주소입니다.

이 리소스에 대한 자세한 정보를 표시하려면 다음 명령을 입력합니다.

# pcs resource describe gcp-vpc-move-vip

기본 서브넷 주소 범위 또는 보조 서브넷 주소 범위를 사용하도록 리소스 에이전트를 구성할 수 있습니다. 이 섹션에는 두 범위에 대한 절차가 모두 포함되어 있습니다.

기본 서브넷 주소 범위

기본 VPC 서브넷의 리소스를 구성하려면 다음 단계를 완료합니다.

절차

  1. 다음 명령을 입력하여 별칭 리소스를 만듭니다. 사용하지 않은 내부 IP 주소를 포함합니다. 명령에 CIDR 블록을 포함합니다.

    # pcs resource create aliasip gcp-vpc-move-vip  alias_ip=UnusedIPaddress/CIDRblock

    예제:

    [root@rhel81-node-01 ~]# pcs resource create aliasip gcp-vpc-move-vip alias_ip=10.10.10.200/32
  2. 다음 명령을 입력하여 노드의 IP를 관리할 IPaddr2 리소스를 생성합니다.

    # pcs resource create vip IPaddr2 nic=interface ip=AliasIPaddress cidr_netmask=32

    예제:

    [root@rhel81-node-01 ~]# pcs resource create vip IPaddr2 nic=eth0 ip=10.10.10.200 cidr_netmask=32
  3. 다음 명령을 입력하여 vipgrp 에서 네트워크 리소스를 그룹화합니다.

    # pcs resource group add vipgrp aliasip vip

검증

  1. 다음 명령을 입력하여 리소스가 시작되었으며 vipgrp 아래에 그룹화되었는지 확인합니다.

    [root@rhel81-node-01 ~]# pcs status
  2. 다음 명령을 입력하여 리소스를 다른 노드로 이동할 수 있는지 확인합니다.

    # pcs resource move vip _Node_

    예제:

    [root@rhel81-node-01 ~]# pcs resource move vip rhel81-node-03
  3. 다음 명령을 입력하여 vip 가 다른 노드에서 성공적으로 시작되었는지 확인합니다.

    [root@rhel81-node-01 ~]# pcs status

보조 서브넷 주소 범위

보조 서브넷 주소 범위에 대한 리소스를 구성하려면 다음 단계를 완료합니다.

절차

  1. 다음 명령을 입력하여 보조 서브넷 주소 범위를 만듭니다.

    # gcloud-ra compute networks subnets update SubnetName --region RegionName --add-secondary-ranges SecondarySubnetName=SecondarySubnetRange

    예제:

    # gcloud-ra compute networks subnets update range0 --region us-west1 --add-secondary-ranges range1=10.10.20.0/24
  2. 다음 명령을 입력하여 별칭 리소스를 만듭니다. 보조 서브넷 주소 범위에서 사용하지 않은 내부 IP 주소를 만듭니다. 명령에 CIDR 블록을 포함합니다.

    # pcs resource create aliasip gcp-vpc-move-vip alias_ip=UnusedIPaddress/CIDRblock

    예제:

    [root@rhel81-node-01 ~]# pcs resource create aliasip gcp-vpc-move-vip alias_ip=10.10.20.200/32
  3. 다음 명령을 입력하여 노드의 IP를 관리할 IPaddr2 리소스를 생성합니다.

    # pcs resource create vip IPaddr2 nic=interface ip=AliasIPaddress cidr_netmask=32

    예제:

    [root@rhel81-node-01 ~]# pcs resource create vip IPaddr2 nic=eth0 ip=10.10.20.200 cidr_netmask=32
  4. vipgrp 에서 네트워크 리소스를 그룹화합니다.

    # pcs resource group add vipgrp aliasip vip

검증 단계

  1. 다음 명령을 입력하여 리소스가 시작되었으며 vipgrp 아래에 그룹화되었는지 확인합니다.

    [root@rhel81-node-01 ~]# pcs status
  2. 다음 명령을 입력하여 리소스를 다른 노드로 이동할 수 있는지 확인합니다.

    # pcs resource move vip _Node_

    예제:

    [root@rhel81-node-01 ~]# pcs resource move vip rhel81-node-03
  3. 다음 명령을 입력하여 vip 가 다른 노드에서 성공적으로 시작되었는지 확인합니다.

    [root@rhel81-node-01 ~]# pcs status