1.9.3. Azure 프로젝트 구성

OpenShift Container Platform을 설치하려면 먼저 호스팅할 Azure 프로젝트를 구성해야 합니다.

중요

공용 끝점을 통해 사용할 수 있는 모든 Azure 리소스에는 리소스 이름 제한 사항이 적용되며, 특정 용어를 사용하는 리소스를 생성할 수 없습니다. Azure가 제한하는 용어 목록은 Azure 문서의 예약된 리소스 이름 오류 해결을 참조하십시오.

1.9.3.1. Azure 계정 제한

OpenShift Container Platform 클러스터는 수많은 Microsoft Azure 구성 요소를 사용하며, 기본 Azure 서브크립션 및 서비스 제한, 할당량 및 제약 조건은 OpenShift Container Platform 클러스터 설치에 영향을 미칩니다.

중요

기본 제한값은 무료 평가판 및 종량 과금제와 같은 상품 카테고리 유형과 Dv2, F, G 등 시리즈에 따라 다릅니다. 예를 들어 기업 계약 서브스크립션의 기본값은 350개 코어입니다.

서브스크립션 유형에 대한 제한값을 확인하고 필요한 경우 Azure에 기본 클러스터를 설치하기 전에 계정에 대한 할당량 제한값을 늘리십시오.

다음 표에 OpenShift Container Platform 클러스터를 설치하고 실행하는 데 영향을 미칠 수 있는 Azure 구성 요소 제한값이 요약되어 있습니다.

구성 요소기본적으로 필요한 구성 요소 수기본 Azure 제한값설명

vCPU

40

리전당 20개

기본 클러스터의 경우 40개의 vCPU가 필요하므로 계정 제한을 늘려야 합니다.

기본적으로 각 클러스터는 다음 인스턴스를 생성합니다.

  • 설치 후 제거되는 하나의 부트스트랩 시스템
  • 컨트롤 플레인 시스템 세 개
  • 컴퓨팅 시스템 세 개

부트스트랩 시스템은 4개의 vCPU를 사용하는 Standard_D4s_v3 시스템을 사용하고, 컨트롤 플레인 시스템은 8개의 vCPU를 사용하는 Standard_D8s_v3 가상 머신을 사용하고, 작업자 시스템은 4개의 vCPU를 사용하는 Standard_D4s_v3 가상 머신을 사용하므로, 기본 클러스터에는 40개의 vCPU가 필요합니다. 4개의 vCPU를 사용하는 부트스트랩 노드 VM은 설치 중에만 사용됩니다.

더 많은 작업자 노드를 배포하거나, 자동 크기 조정을 활성화하거나, 대규모 워크로드를 배포하거나, 다른 인스턴스 유형을 사용하려면 필요한 시스템을 클러스터가 배포할 수 있도록 계정의 vCPU 제한값을 더 늘려야 합니다.

기본적으로 설치 프로그램은 컨트롤 플레인과 컴퓨팅 시스템을 한 리전 내의 모든 가용성 영역에 분배합니다. 클러스터의 고가용성을 보장하기 위해서는 가용성 영역이 세 개 이상인 리전을 선택하십시오. 각 리전에 가용성 영역이 세 개 미만인 경우에는 설치 프로그램이 사용 가능한 영역에 둘 이상의 컨트롤 플레인 시스템을 배치합니다.

OS 디스크

7

 

VM OS 디스크는 최소 처리량 5000 IOPS/200MBps를 유지할 수 있어야 합니다. 이 처리량은 최소 1 TiB Premium SSD (P30)를 보유하여 제공할 수 있습니다. Azure에서는 디스크 성능은 SSD 디스크 크기에 직접적으로 의존하므로 Standard_D8s_v3 또는 기타 유사한 시스템 유형에서 지원되는 처리량과 5000 IOPS 목표를 달성하려면 최소 P30 디스크가 필요합니다.

읽기 대기 시간이 짧고 읽기 IOPS 및 처리량을 높이려면 호스트 캐싱을 ReadOnly로 설정해야 합니다. VM 메모리 또는 로컬 SSD 디스크에 있는 캐시에서 수행된 읽기는 Blob 스토리지에 있는 데이터 디스크에서 읽기보다 훨씬 빠릅니다.

VNet

1

리전당 1000개

각 기본 클러스터에는 두 개의 서브넷이 포함된 하나의 가상 네트워크(VNet)가 필요합니다.

네트워크 인터페이스

6

리전당 65,536개

각 기본 클러스터에는 여섯 개의 네트워크 인터페이스가 필요합니다. 더 많은 시스템을 생성하거나 배포된 워크로드가 로드 밸런서를 생성하는 경우 클러스터는 더 많은 네트워크 인터페이스를 사용합니다.

네트워크 보안 그룹

2

5000

각 기본 클러스터 각 클러스터는 VNet의 각 서브넷에 대한 네트워크 보안 그룹을 생성합니다. 기본 클러스터는 컨트롤 플레인과 컴퓨팅 노드 서브넷에 대한 네트워크 보안 그룹을 생성합니다:

controlplane

어디에서나 포트 6443에서 컨트롤 플레인 시스템에 도달할 수 있습니다.

node

포트 80 및 443을 통해 인터넷에서 작업자 노드에 도달할 수 있습니다.

네트워크 로드 밸런서

3

리전당 1000개

각 클러스터는 다음 로드 밸런서를 생성합니다.

default

작업자 시스템에서 포트 80과 443에 대한 요청을 로드 밸런싱하는 공용 IP 주소

internal

컨트롤 플레인 시스템에서 포트 6443과 22623에 대한 요청을 로드 밸런싱하는 개인 IP 주소

external

컨트롤 플레인 시스템에서 포트 6443에 대한 요청을 로드 밸런싱하는 공용 IP 주소

애플리케이션이 더 많은 Kubernetes LoadBalancer Service 개체를 생성하면 클러스터가 더 많은 로드 밸런서를 사용합니다.

공용 IP 주소

3

 

두 개의 공용 로드 밸런서 각각이 공용 IP 주소를 사용합니다. 또한 부트스트랩 시스템은 공용 IP 주소를 사용하므로 설치 중 문제를 해결하기 위해 시스템으로 SSH를 실행할 수 있습니다. 부트스트랩 노드의 IP 주소는 설치 중에만 사용됩니다.

개인 IP 주소

7

 

내부 로드 밸런서, 3개의 컨트롤 플레인 시스템 및 3개의 각 작업자 시스템은 각각 개인 IP 주소를 사용합니다.

스팟 VM vCPU (선택 사항)

0

스팟 VM을 구성하는 경우 클러스터에 모든 컴퓨팅 노드에 대해 두 개의 스팟 VM vCPU가 있어야 합니다.

리전당 20개

이는 선택적 구성 요소입니다. 스팟 VM을 사용하려면 클러스터의 컴퓨팅 노드 수를 두 배 이상 Azure 기본 제한으로 늘려야 합니다.

참고

컨트롤 플레인 노드에 스팟 VM을 사용하는 것은 권장되지 않습니다.