Red Hat Training

A Red Hat training course is available for Red Hat OpenStack Platform

2장. 요구 사항

이 장에서는 director를 사용하여 Red Hat OpenStack Platform을 프로비저닝할 환경을 설정하기 위한 기본 요구 사항을 간략히 설명합니다. 여기에는 director 설정 및 액세스를 위한 요구 사항과 director에서 OpenStack 서비스를 위해 프로비저닝하는 호스트에 대한 하드웨어 요구 사항이 포함됩니다.

참고

Red Hat OpenStack Platform을 배포하기 전에 가능한 배포 방법의 특성을 고려하는 것이 중요합니다. 자세한 내용은 Red Hat OpenStack Platform 설치 및 관리를 참조하십시오.

2.1. 환경 요구 사항

최소 요구 사항:

  • Red Hat OpenStack Platform director 용 호스트 머신 한 대
  • Red Hat OpenStack Platform Compute 노드용 호스트 머신 한 대
  • Red Hat OpenStack Platform Controller 노드용 호스트 머신 한 대

권장 요구 사항:

  • Red Hat OpenStack Platform director 용 호스트 머신 한 대
  • Red Hat OpenStack Platform Compute 노드용 호스트 머신 세 대
  • 클러스터의 Red Hat OpenStack Platform Controller 노드용 호스트 머신 세 대
  • 클러스터의 Red Hat Ceph Storage 노드용 호스트 머신 세 대

다음 사항에 유의하십시오.

  • 모든 노드에 베어 메탈 시스템을 사용하는 것이 좋습니다. 적어도 Compute 노드에는 베어 메탈 시스템을 사용해야 합니다.
  • 모든 오버클라우드 베어 메탈 시스템에는 IPMI(Intelligent Platform Management Interface)가 있어야 합니다. 이는 director가 전원 관리를 제어하기 때문입니다.
  • POWER (ppc64le) 하드웨어에 오버클라우드 Compute 노드를 배포하려면 부록 G. Red Hat OpenStack Platform for POWER(기술 프리뷰)에서 개요를 확인하십시오.

2.2. 언더클라우드 요구 사항

director를 호스팅하는 언더클라우드 시스템은 오버클라우드에 있는 모든 노드에 대한 프로비저닝 및 관리를 제공합니다.

  • Intel 64 또는 AMD64 CPU 확장 기능을 지원하는 8코어 64비트 x86 프로세서
  • 최소 16GB RAM
  • Root 디스크에 최소 100GB의 사용 가능한 디스크 공간이 있으며 다음과 같습니다.

    • 10GB: 컨테이너 이미지용
    • 10GB: 노드 프로비저닝 프로세스 중 QCOW2 이미지 변환 및 캐싱에 사용
    • 80GB 이상: 일반 용도, 로깅, 매트릭스, 확장 용
  • 최소 2개의 1Gbps 네트워크 인터페이스 카드. 특히 오버클라우드 환경에서 많은 수의 노드를 프로비저닝하는 경우 프로비저닝 네트워크 트래픽에 10Gbps 인터페이스를 사용하는 것이 좋습니다.
  • Red Hat Enterprise Linux의 최신 마이너 버전이 호스트 운영 체제로 설치되어 있습니다.
  • SELinux가 호스트에서 활성화되어 있습니다.

2.2.1. 가상화 지원

Red Hat은 다음 플랫폼에서 가상화된 언더클라우드만 지원합니다.

플랫폼비고

KVM(Kernel-based Virtual Machine)

인증된 하이퍼바이저에 나열된 대로 Red Hat Enterprise Linux 5, 6, 7에서 호스팅

Red Hat Enterprise Virtualization

인증된 하이퍼바이저에 나열된 대로 Red Hat Enterprise Virtualization 3.0, 3.1, 3.2, 3.3, 3.4, 3.5, 3.6, 4.0에서 호스팅

Microsoft Hyper-V

Red Hat Customer Portal Certification Catalogue에 나열된 대로 Hyper-V 버전에서 호스팅

VMware ESX 및 ESXi

Red Hat Customer Portal Certification Catalogue에 나열된 대로 ESX 및 ESXi 버전에서 호스팅

중요

Red Hat OpenStack Platform director를 사용하려면 호스트 운영 체제에 최신 버전의 Red Hat Enterprise Linux를 사용해야 합니다. 이는 가상화 플랫폼에서 기본 Red Hat Enterprise Linux 버전도 지원해야 함을 의미합니다.

가상 머신 요구 사항

가상 언더클라우드에 대한 리소스 요구 사항은 베어 메탈 언더클라우드의 리소스 요구 사항과 비슷합니다. 프로비저닝할 때 네트워크 모델, 게스트 CPU 기능, 스토리지 백엔드, 스토리지 포맷 및 캐싱 모드와 같은 여러 튜닝 옵션을 고려해야 합니다.

네트워크 고려 사항

가상화된 언더클라우드에 대한 다음 네트워크 고려 사항을 확인하십시오.

전원 관리
언더클라우드 VM에서는 오버클라우드 노드의 전원 관리 장치에 액세스할 수 있어야 합니다. 이는 노드를 등록할 때 pm_addr 매개 변수에 IP 주소를 설정합니다.
프로비저닝 네트워크
프로비저닝 네트워크(ctlplane)에 사용된 NIC에는 오버클라우드의 베어 메탈 노드의 NIC로 DHCP 요청을 브로드캐스트하고 처리하는 기능이 필요합니다. VM의 NIC를 베어 메탈 NIC와 동일한 네트워크에 연결하는 브리지를 생성하는 것이 좋습니다.
참고

하이퍼바이저 기술로 인해 언더클라우드가 알 수 없는 주소의 트래픽을 전송하지 못하는 경우 일반적으로 문제가 발생합니다. Red Hat Enterprise Virtualization을 사용하는 경우 anti-mac-spoofing을 비활성화하여 이 문제가 발생하지 않도록 하십시오. VMware ESX 또는 ESXi를 사용하는 경우 위장된 전송을 허용하여 이 문제가 발생하지 않도록 합니다.

아키텍처 예

다음은 KVM 서버를 사용하는 기본 언더클라우드 가상화 아키텍처의 예로, 네트워크 및 리소스 요구 사항에 따라 빌드할 수 있는 기반으로서의 사용을 목적으로 하고 있습니다.

KVM 호스트는 다음 두 가지 Linux 브리지를 사용합니다.

br-ex(eth0)
  • 외부에서 언더클라우드에 액세스
  • 외부 네트워크의 DHCP 서버에서 가상 NIC(eth0)를 사용하여 언더클라우드에 네트워크 설정을 지정
  • 언더클라우드에서 베어 메탈 서버의 전원 관리 인터페이스에 액세스할 수 있는 권한 제공
br-ctlplane(eth1)
  • 베어 메탈 오버클라우드 노드와 동일한 네트워크에 연결
  • 언더클라우드가 가상 NIC(eth1)를 통해 DHCP 및 PXE 부팅 요청 이행
  • 오버클라우드의 베어 메탈 서버는 네트워크에서 PXE를 통해 부팅을 수행

KVM 호스트에는 다음 패키지가 필요합니다.

$ yum install libvirt-client libvirt-daemon qemu-kvm libvirt-daemon-driver-qemu libvirt-daemon-kvm virt-install bridge-utils rsync

다음 명령은 KVM 호스트에 언더클라우드 가상 머신을 생성하고 해당 브리지에 연결하는 두 개의 가상 NIC를 생성합니다.

$ virt-install --name undercloud --memory=16384 --vcpus=4 --location /var/lib/libvirt/images/rhel-server-7.5-x86_64-dvd.iso --disk size=100 --network bridge=br-ex --network bridge=br-ctlplane --graphics=vnc --hvm --os-variant=rhel7

이 명령을 통해 libvirt 도메인이 시작됩니다. virt-manager를 사용하여 이 도메인에 연결하고 설치 프로세스를 진행합니다. 또는 다음 옵션을 사용하여 kickstart 파일을 통해 무인 설치를 수행할 수 있습니다.

--initrd-inject=/root/ks.cfg --extra-args "ks=file:/ks.cfg"

설치가 완료되면 SSH를 root 사용자로 인스턴스에 연결하고 4장. 언더클라우드 설치의 지침을 따르십시오.

백업

가상화된 언더클라우드를 백업하기 위한 여러 솔루션이 있습니다.

  • 옵션 1: Back Up and Restore the Director Undercloud 가이드의 지침을 따릅니다.
  • 옵션 2: 언더클라우드를 종료하고 언더클라우드 가상 머신 스토리지의 백업 사본을 만듭니다.
  • 옵션 3: 하이퍼바이저가 라이브 또는 아토믹 스냅샷을 지원하는 경우 언더클라우드 VM의 스냅샷을 만듭니다.

KVM 서버를 사용하는 경우 다음 절차를 사용하여 스냅샷을 만듭니다.

  1. qemu-guest-agent가 언더클라우드 게스트 VM에서 실행 중인지 확인합니다.
  2. 실행 중인 VM의 라이브 스냅샷을 생성합니다.
$ virsh snapshot-create-as --domain undercloud --disk-only --atomic --quiesce
  1. QCOW 백업 파일의 복사본 (읽기 전용)을 만듭니다.
$ rsync --sparse -avh --progress /var/lib/libvirt/images/undercloud.qcow2 1.qcow2
  1. QCOW 오버레이 파일을 백업 파일에 병합하고, 원본 파일을 사용하도록 언더클라우드 VM을 다시 전환합니다.
$ virsh blockcommit undercloud vda --active --verbose --pivot

2.3. 네트워킹 요구 사항

언더클라우드 호스트에는 최소 두 개의 네트워크가 필요합니다.

  • 프로비저닝 네트워크 - 오버클라우드에서 사용할 베어 메탈 시스템을 찾을 수 있도록 DHCP 및 PXE 부팅 기능을 제공합니다. 일반적으로 이 네트워크는 director가 PXE 부팅 및 DHCP 요구에 대응할 수 있도록 트렁크된 인터페이스에서 기본 VLAN을 사용해야 합니다. 일부 서버 하드웨어 BIOS는 VLAN에서의 PXE 부팅을 지원하지만, BIOS가 부팅 후 기본 VLAN으로 해당 VLAN의 변환 기능을 지원해야 합니다. 이 기능이 지원되지 않는 경우 언더클라우드에 연결할 수 없습니다. 현재는 서버 하드웨어의 일부 하위 집합만 이 기능을 지원합니다. 이 네트워크는 모든 오버클라우드 노드에서 IPMI(Intelligent Platform Management Interface)를 통해 전원 관리를 제어하는 데 사용하는 네트워크이기도 합니다.
  • 외부 네트워크 - 모든 노드에 원격 연결에 사용되는 별도의 네트워크입니다. 이 네트워크에 연결하는 인터페이스에는 외부 DHCP 서비스를 통해 정적 또는 동적으로 정의된 라우팅 가능한 IP 주소가 필요합니다.

이는 필요한 최소 네트워크 수를 나타냅니다. 하지만 director가 다른 Red Hat OpenStack Platform 네트워크 트래픽을 다른 네트워크로 분리할 수 있습니다. Red Hat OpenStack Platform은 네트워크 분리에 실제 인터페이스와 태그된 VLAN을 모두 지원합니다.

다음 사항에 유의하십시오.

  • 일반적인 최소 오버클라우드 네트워크 구성은 다음과 같습니다.

    • 단일 NIC 구성 - 기본 VLAN과 다른 오버클라우드 네트워크 유형에 서브넷을 사용하는 태그된 VLAN에서 프로비저닝 네트워크용 NIC 1개
    • 이중 NIC 구성 - 프로비저닝 네트워크용 NIC 1개와 외부 네트워크용 NIC
    • 이중 NIC 구성 - 기본 VLAN에서 프로비저닝 네트워크용 NIC 1개와 다른 오버클라우드 네트워크 유형에 서브넷을 사용하는 태그된 VLAN용 다른 NIC
    • 다중 NIC 구성 - 각 NIC에서 다른 오버클라우드 네트워크 유형에 서브넷 사용
  • 추가 물리적 NIC는 별도의 네트워크 분리, 연결된 인터페이스 생성 또는 태그된 VLAN 트래픽 위임에 사용할 수 있습니다.
  • VLAN을 사용하여 네트워크 트래픽 유형을 분리하는 경우 802.1Q 표준을 지원하는 스위치를 사용하여 태그된 VLAN을 제공합니다.
  • 오버클라우드 생성 중에 모든 오버클라우드 머신에 단일 이름을 사용하여 NIC을 참조합니다. 혼동하지 않도록 각 오버클라우드 노드에서 각각의 해당 네트워크에 대해 동일한 NIC를 사용하는 것이 좋습니다. 예를 들어 프로비저닝 네트워크에는 주 NIC를 사용하고, OpenStack 서비스에는 보조 NIC를 사용하십시오.
  • 프로비저닝 네트워크 NIC가 director 머신에서 원격 연결에 사용되는 NIC와 같지 않도록 하십시오. director 설치 시 프로비저닝 NIC를 사용하여 브리지가 생성되며, 이로 인해 원격 연결이 모두 끊깁니다. director 시스템에 대한 원격 연결에는 외부 NIC를 사용하십시오.
  • 프로비저닝 네트워크에는 현재 환경 크기에 맞는 IP 범위가 필요합니다. 다음 지침을 사용하여 이 범위에 포함할 총 IP 주소 수를 결정하십시오.

    • 프로비저닝 네트워크에 연결된 노드 당 최소 한 개의 IP 주소를 포함합니다.
    • 고가용성 구성을 플래닝하는 경우 클러스터의 가상 IP에 대한 추가 IP 주소를 포함합니다.
    • 환경 확장을 위해 범위 내에 추가 IP 주소를 포함합니다.

      참고

      프로비저닝 네트워크에서 IP 주소를 중복으로 사용하지 마십시오. 자세한 내용은 3.2절. “네트워크 플래닝”을 참조하십시오.

      참고

      스토리지, 공급자 및 테넌트 네트워크 같은 IP 주소 사용 계획에 대한 자세한 내용은 Networking Guide를 참조하십시오.

  • 프로비저닝 NIC로 PXE를 부팅하도록 모든 오버클라우드 시스템을 설정하고, 외부 NIC(및 시스템의 다른 모든 NIC)에서 PXE 부팅을 비활성화하십시오. 또한 프로비저닝 NIC에 PXE 부팅이 하드 디스크 및 CD/DVD 드라이브보다 우선하도록 부팅 순서에서 최상위 위치로 지정합니다.
  • 모든 오버클라우드 베어 메탈 시스템에는 IPMI(Intelligent Platform Management Interface)와 같은 지원되는 전원 관리 인터페이스가 필요합니다. 이를 통해 director에서 각 노드의 전원 관리를 제어할 수 있습니다.
  • 각 오버클라우드 시스템에 대해 프로비저닝 NIC의 MAC 주소, IPMI NIC의 IP 주소, IPMI 사용자 이름 및 IPMI 비밀번호를 기록해 두십시오. 이 정보는 나중에 오버클라우드 노드를 설정할 때 유용합니다.
  • 외부 인터넷에서 인스턴스에 액세스할 필요가 있는 경우 공용 네트워크에서 유동 IP 주소를 할당하고 이 주소를 인스턴스와 연결할 수 있습니다. 인스턴스는 해당 개인 IP를 보유하고 있지만, 네트워크 트래픽에서 NAT를 사용하여 유동 IP 주소를 통과합니다. 유동 IP 주소는 여러 개인 IP 주소가 아니라 단일 인스턴스에만 할당할 수 있습니다. 하지만 유동 IP 주소는 단일 테넌트에서만 사용하도록 지정되어 있으므로 테넌트가 필요에 따라 특정 인스턴스와 연결하거나 연결을 해제할 수 있습니다. 이 구성을 사용하면 해당 인프라가 외부 인터넷에 노출되므로 적합한 보안 관행을 준수하고 있는지 확인해야 합니다.
  • 하나의 브리지는 단일 인터페이스 또는 단일 본딩만을 멤버로 하면 Open vSwitch에서 네트워크 루프 발생 위험을 완화할 수 있습니다. 여러 개의 본딩이나 인터페이스가 필요한 경우 여러 브리지를 구성할 수 있습니다.
중요

OpenStack Platform 구현의 보안은 네트워크 환경의 보안에 따라 좌우됩니다. 네트워킹 환경에서 적합한 보안 원칙에 따라 네트워크 액세스가 적절히 제어되는지 확인하십시오. 예를 들면 다음과 같습니다.

  • 네트워크 세그멘테이션을 사용하여 네트워크 트래픽을 줄이고 중요한 데이터를 격리합니다. 플랫 네트워크는 보안 수준이 훨씬 낮습니다.
  • 서비스 액세스 및 포트를 최소로 제한합니다.
  • 적절한 방화벽 규칙과 암호를 사용합니다.
  • SELinux를 활성화합니다.

시스템 보안에 대한 자세한 내용은 다음 문서를 참조하십시오.

2.4. 오버클라우드 요구 사항

다음 섹션에서는 오버클라우드 설치 시 개별 시스템과 노드에 대한 요구 사항을 자세히 설명합니다.

2.4.1. Compute 노드 요구 사항

Compute 노드는 가상 머신 인스턴스가 시작된 후 이를 실행하는 역할을 합니다. Compute 노드는 하드웨어 가상화를 지원해야 합니다. 또한 호스팅하는 가상 머신 인스턴스의 요구 사항을 지원하기에 충분한 메모리 및 디스크 공간이 있어야 합니다.

프로세서
  • Intel 64 또는 AMD64 CPU 확장 기능을 지원하고, AMD-V 또는 Intel VT 하드웨어 가상화 확장 기능이 활성화된 64비트 x86 프로세서. 이 프로세서에 최소 4개의 코어가 탑재되어 있는 것이 좋습니다.
  • IBM POWER 8 프로세서
메모리
최소 6GB RAM으로 가상 머신 인스턴스에서 사용하려는 메모리 크기에 따라 기본 메모리 요구 사항에 RAM을 추가합니다.
디스크 공간
최소 40GB의 사용 가능한 디스크 공간
네트워크 인터페이스 카드
최소 1GB의 네트워크 인터페이스 카드 한 개. 프로덕션 환경에서는 적어도 두 개 이상의 NIC를 사용하는 것이 좋습니다. 연결된 인터페이스에 사용하거나 태그된 VLAN 트래픽을 위임하기 위해서는 추가 네트워크 인터페이스를 사용하십시오.
전원 관리
각 Compute 노드에는 서버 마더보드의 IPMI(Intelligent Platform Management Interface) 기능과 같이 지원되는 전원 관리 인터페이스가 필요합니다.

2.4.2. Controller 노드 요구 사항

Controller 노드는 RHEL OpenStack Platform 환경에서 Horizon 대시보드, 백엔드 데이터베이스 서버, Keystone 인증 및 고가용성 서비스와 같은 핵심 서비스를 호스팅합니다.

프로세서
Intel 64 또는 AMD64 CPU 확장을 지원하는 64비트 x86 프로세서
메모리

최소 메모리 용량은 32GB입니다. 하지만 권장 메모리 용량은 vCPU 수(CPU 코어 수와 하이퍼 스레딩 값을 곱한 값)에 따라 다릅니다. 다음 계산을 참고하십시오.

  • Controller의 최소 RAM 계산:

    • vCPU마다 1.5GB 메모리를 사용합니다. 예를 들어 48개의 vCPU가 있는 머신에는 72GB의 RAM이 있어야 합니다.
  • Controller의 권장 RAM 계산:

    • vCPU마다 3GB 메모리를 사용합니다. 예를 들어 48개의 vCPU가 있는 머신에는 144GB RAM이 있어야 합니다.

메모리 요구 사항 측정에 대한 자세한 내용은 Red Hat 고객 포털에서 "고가용성 컨트롤러에 대한 Red Hat OpenStack Platform 하드웨어 요구 사항"을 참조하십시오.

디스크 스토리지 및 레이아웃

기본적으로 Telemetry(gnocchi) 및 Object Storage(swift) 서비스는 모두 Controller에 설치되어 root 디스크를 사용하도록 설정됩니다. 이러한 기본값은 상용 하드웨어에 내장되는 소형 오버클라우드 배포에 적합합니다. 이는 개념 검증 및 테스트의 표준 환경입니다. 이러한 기본값을 사용하면 워크로드 용량 및 성능 측면에서는 떨어지지만 최소의 플래닝으로 오버클라우드 배포가 가능합니다.

하지만 엔터프라이즈 환경에서는 Telemetry가 스토리지에 지속적으로 액세스하므로 이 경우 심각한 성능 장애가 발생할 수 있습니다. 그러면 디스크 I/O가 과도하게 사용되고 다른 모든 Controller 서비스의 성능에 심각한 영향을 미칩니다. 이러한 유형의 환경에서는 오버클라우드를 계획하고 적절하게 구성해야 합니다.

Red Hat은 Telemetry와 Object Storage에 대한 여러 구성 권장 사항을 제공합니다. 자세한 내용은 Deployment Recommendations for Specific Red Hat OpenStack Platform Services에서 참조하십시오.

네트워크 인터페이스 카드
최소 2개의 1GB의 네트워크 인터페이스 카드. 연결된 인터페이스에 사용하거나 태그된 VLAN 트래픽을 위임하기 위해서는 추가 네트워크 인터페이스 카드를 사용하십시오.
전원 관리
각 Controller 노드에는 서버의 마더보드에서 IPMI(Intelligent Platform Management Interface) 기능과 같은 지원되는 전원 관리 인터페이스가 필요합니다.

2.4.3. Ceph Storage 노드 요구 사항

Ceph Storage 노드는 RHEL OpenStack Platform 환경에 스토리지 오브젝트를 제공합니다.

프로세서
Intel 64 또는 AMD64 CPU 확장을 지원하는 64비트 x86 프로세서
메모리
메모리 요구 사항은 스토리지 공간에 따라 다릅니다. 이상적인 크기는 1TB 하드 디스크 공간마다 최소 1GB의 메모리를 사용하는 것입니다.
디스크 공간
스토리지 요구 사항은 메모리 크기에 따라 다릅니다. 1TB의 하드 디스크 공간마다 최소 1GB의 메모리를 사용하는 것이 이상적입니다.
디스크 레이아웃

Red Hat Ceph Storage 노드의 권장 설정에는 적어도 세 개 이상의 디스크를 다음과 같은 레이아웃으로 구성해야 합니다.

  • /dev/sda - root 디스크. director가 주요 오버클라우드 이미지를 디스크에 복사합니다.
  • /dev/sdb - 저널 디스크. 이 디스크는 Ceph OSD 저널용 파티션으로 나뉩니다(예: /dev/sdb1, /dev/sdb2, /dev/sdb3 등). 저널 디스크는 일반적으로 시스템 성능을 지원하기 위한 SSD(솔리드 스테이트 드라이브)입니다.
  • /dev/sdc 이후 - OSD 디스크. 스토리지 요구 사항에 따라 필요한 만큼 디스크를 사용하십시오.

    참고

    Red Hat OpenStack Platform director는 ceph-ansible을 사용하지만 Ceph Storage 노드의 Root 디스크에 OSD 설치를 지원하지 않습니다. 즉, 지원되는 Ceph Storage 노드에 대해 적어도 두 개 이상의 디스크가 필요합니다.

네트워크 인터페이스 카드
최소 1개의 1GB 네트워크 인터페이스 카드. 프로덕션 환경에서는 적어도 두 개 이상의 NIC를 사용하는 것이 좋습니다. 연결된 인터페이스에 사용하거나 태그된 VLAN 트래픽을 위임하기 위해서는 추가 네트워크 인터페이스 카드를 사용하십시오. 대량의 트래픽에 서비스를 제공하는 OpenStack Platform 환경을 구축하는 경우 스토리지 노드에 10GB 인터페이스를 사용하는 것이 좋습니다.
전원 관리
각 Controller 노드에는 서버의 마더보드에서 IPMI(Intelligent Platform Management Interface) 기능과 같은 지원되는 전원 관리 인터페이스가 필요합니다.

Ceph Storage 클러스터를 통한 오버클라우드 설치에 대한 자세한 내용은 Deploying an Overcloud with Containerized Red Hat Ceph 가이드를 참조하십시오.

2.4.4. Object Storage 노드 요구 사항

Object Storage 노드는 오버클라우드에 오브젝트 스토리지 계층을 제공합니다. Object Storage 프록시는 Controller 노드에 설치됩니다. 스토리지 계층에는 노드마다 여러 개의 디스크가 있는 베어 메탈 노드가 필요합니다.

프로세서
Intel 64 또는 AMD64 CPU 확장을 지원하는 64비트 x86 프로세서
메모리
메모리 요구 사항은 스토리지 공간의 크기에 따라 다릅니다. 가장 좋은 방법은 1TB의 하드 디스크 공간마다 최소 1GB의 메모리를 사용하는 것입니다. 최적의 성능을 위해 특히 워크로드가 작은 파일(100GB 미만)의 경우에는 1TB의 하드 디스크 공간마다 2GB를 사용하는 것이 좋습니다.
디스크 공간

스토리지 요구 사항은 워크로드에 필요한 용량에 따라 다릅니다. 계정 및 컨테이너 데이터를 저장하기 위해서는 SSD 드라이브를 사용하는 것이 좋습니다. 오브젝트에 대한 계정과 컨테이너 데이터의 용량 비율은 약 1%입니다. 예를 들어 100TB의 모든 하드 드라이브 용량마다 계정과 컨테이너 데이터에 1TB의 SSD 용량을 준비하도록 합니다.

하지만 이는 저장된 데이터 유형에 따라 다릅니다. 주로 작은 오브젝트를 저장하는 경우 더 많은 SSD 공간을 사용하고, 큰 오브젝트(비디오, 백업)의 경우에는 더 적은 SSD 공간을 사용하십시오.

디스크 레이아웃

권장 노드 구성에는 다음과 비슷한 디스크 레이아웃이 필요합니다.

  • /dev/sda - root 디스크. director가 주요 오버클라우드 이미지를 디스크에 복사합니다.
  • /dev/sdb - 계정 데이터에 사용됩니다.
  • /dev/sdc - 컨테이너 데이터에 사용됩니다.
  • /dev/sdd 이후 - 오브젝트 서버 디스크. 스토리지 요구 사항에 따라 필요한 디스크 수를 사용하십시오.
네트워크 인터페이스 카드
최소 2개의 1GB의 네트워크 인터페이스 카드. 연결된 인터페이스에 사용하거나 태그된 VLAN 트래픽을 위임하기 위해서는 추가 네트워크 인터페이스 카드를 사용하십시오.
전원 관리
각 Controller 노드에는 서버의 마더보드에서 IPMI(Intelligent Platform Management Interface) 기능과 같은 지원되는 전원 관리 인터페이스가 필요합니다.

2.5. 리포지토리 요구 사항

언더클라우드와 오버클라우드 모두 Red Hat Content Delivery Network를 통해 또는 Red Hat Satellite 5 또는 6를 통해 Red Hat 리포지토리에 액세스해야 합니다. Red Hat Satellite 서버를 사용하는 경우 필수 리포지토리를 해당 OpenStack Platform 환경에 동기화합니다. 다음 CDN 채널 이름 목록을 가이드로 사용하십시오.

표 2.1. OpenStack Platform 리포지토리

이름리포지토리요구 사항 설명

Red Hat Enterprise Linux 7 Server(RPMs)

rhel-7-server-rpms

x86_64 시스템용 기본 운영 체제 리포지토리

Red Hat Enterprise Linux 7 Server - Extras(RPMs)

rhel-7-server-extras-rpms

Red Hat OpenStack Platform 종속성을 포함합니다.

Red Hat Enterprise Linux 7 Server - RH Common(RPMs)

rhel-7-server-rh-common-rpms

Red Hat OpenStack Platform 배포 및 구성을 위한 툴을 포함합니다.

Red Hat Satellite Tools for RHEL 7 Server RPMs x86_64

rhel-7-server-satellite-tools-6.3-rpms

Red Hat Satellite 6 호스트를 관리하는 툴입니다.

Red Hat Enterprise Linux High Availability (for RHEL 7 Server) (RPMs)

rhel-ha-for-rhel-7-server-rpms

Red Hat Enterprise Linux용 고가용성 툴입니다. Controller 노드 고가용성을 위해 사용됩니다.

Red Hat OpenStack Platform 13 for RHEL 7 (RPMs)

rhel-7-server-openstack-13-rpms

Red Hat OpenStack Platform 핵심 리포지토리입니다. 또한 Red Hat OpenStack Platform director용 패키지를 포함합니다.

Red Hat Ceph Storage OSD 3 for Red Hat Enterprise Linux 7 Server (RPMs)

rhel-7-server-rhceph-3-osd-rpms

(Ceph Storage 노드용) Ceph Storage Object Storage 데몬용 리포지토리입니다. Ceph Storage 노드에 설치됩니다.

Red Hat Ceph Storage MON 3 for Red Hat Enterprise Linux 7 Server(RPMs)

rhel-7-server-rhceph-3-mon-rpms

(Ceph Storage 노드용) Ceph Storage 모니터 데몬용 리포지토리입니다. Ceph Storage 노드를 사용하는 OpenStack 환경의 Controller 노드에 설치됩니다.

Red Hat Ceph Storage Tools 3 for Red Hat Enterprise Linux 7 Server(RPMs)

rhel-7-server-rhceph-3-tools-rpms

노드가 Ceph Storage 클러스터와 통신할 수 있는 툴을 제공합니다. 오버클라우드를 Ceph Storage 클러스터와 함께 배포하는 경우 모든 노드에 대해 이 리포지토리를 활성화해야 합니다.

Enterprise Linux for Real Time for NFV (RHEL 7 Server)(RPMs)

rhel-7-server-nfv-rpms

NFV용 실시간 KVM (RT-KVM) 리포지토리로 실시간 커널을 활성화하는 패키지가 포함되어 있습니다. 이 리포지토리는 RT-KVM을 대상으로 하는 모든 Compute 노드에 대해 활성화되어야 합니다.

IBM POWER 용 OpenStack Platform 리포지토리

이러한 리포지토리는 부록 G. Red Hat OpenStack Platform for POWER(기술 프리뷰) 기능에 사용됩니다.

이름리포지토리요구 사항 설명

Red Hat Enterprise Linux for IBM Power, little endian

rhel-7-for-power-le-rpms

ppc64le 시스템용 기본 운영 체제 리포지토리

Red Hat OpenStack Platform 13 for RHEL 7 (RPMs)

rhel-7-server-openstack-13-for-power-le-rpms

ppc64le 시스템용 Red Hat OpenStack Platform 핵심 리포지토리

참고

오프라인 네트워크의 Red Hat OpenStack Platform 환경에 대한 리포지토리를 구성하려면 Red Hat 고객 포털에서 "오프라인 환경에서 Red Hat OpenStack Platform Director 구성"을 참조하십시오.