릴리스 노트

Red Hat OpenStack Platform 16.0

Red Hat OpenStack Platform 16.0 릴리스 세부 정보

OpenStack Documentation Team

Red Hat Customer Content Services

초록

본 문서에서는 Red Hat OpenStack Platform의 주요 기능, 개선 사항 및 알려진 문제에 대해 간단히 설명합니다.

1장. 소개

1.1. 릴리스 정보

본 Red Hat OpenStack Platform 릴리스는 OpenStack "Train" 릴리스를 기반으로 합니다. 이 릴리스에는 Red Hat OpenStack Platform과 관련된 추가 기능, 알려진 문제, 해결된 문제가 포함되어 있습니다.

이 문서에는 Red Hat OpenStack Platform과 관련된 변경 사항만 포함되어 있습니다. OpenStack "Train"의 자체 릴리스 노트는 https://releases.openstack.org/train/index.html에서 확인하십시오.

Red Hat OpenStack Platform은 다른 Red Hat 제품의 구성 요소를 사용합니다. 이러한 구성 요소 지원과 관련된 자세한 내용은 https://access.redhat.com/site/support/policy/updates/openstack/platform/을 참조하십시오.

Red Hat OpenStack Platform을 사용해 보려면 다음 사이트에서 등록하십시오. http://www.redhat.com/openstack/

참고

Red Hat Enterprise Linux High Availability Add-On은 Red Hat OpenStack Platform 유스 케이스에서 사용할 수 있습니다. 해당 애드온에 대한 자세한 내용은 http://www.redhat.com/products/enterprise-linux-add-ons/high-availability/를 참조하십시오. Red Hat OpenStack Platform에서 사용할 수 있는 패키지 버전에 대한 자세한 내용은 https://access.redhat.com/site/solutions/509783을 참조하십시오.

1.2. 요구 사항

Red Hat OpenStack Platform은 Red Hat Enterprise Linux의 최신 버전(버전 8.1)에서 실행됩니다.

Red Hat OpenStack Platform 대시보드는 OpenStack 리소스 및 서비스를 관리할 수 있는 웹 기반 인터페이스입니다.

이 릴리스의 대시보드는 다음 웹 브라우저의 최신 버전을 지원합니다.

  • Chrome
  • Mozilla Firefox
  • Mozilla Firefox ESR
  • Internet Explorer 11 이상(호환 모드 비활성화)
참고

Red Hat OpenStack Platform을 배포하기 전에 사용 가능한 배포 방법의 특성을 고려해야 합니다. 자세한 내용은 Installing and Managing Red Hat OpenStack Platform을 참조하십시오.

1.3. 배포 제한

Red Hat OpenStack Platform 배포 제한 목록은 Deployment Limits for Red Hat OpenStack Platform 문서를 참조하십시오.

1.4. 데이터베이스 크기 관리

Red Hat OpenStack Platform 환경에서 MariaDB 데이터베이스의 크기를 유지 관리하는 방법에 대한 권장 사항은 Database Size Management for Red Hat Enterprise Linux OpenStack Platform 문서를 참조하십시오.

1.5. 인증 드라이버 및 플러그인

Red Hat OpenStack Platform 인증 드라이브 및 플러그인 목록은 Component, Plug-In, and Driver Support in Red Hat OpenStack Platform 문서를 참조하십시오.

1.6. 인증된 게스트 운영 체제

Red Hat OpenStack Platform 인증된 게스트 운영 체제 목록은 Certified Guest Operating Systems in Red Hat OpenStack Platform and Red Hat Enterprise Virtualization 문서를 참조하십시오.

1.7. 제품 인증 카탈로그

Red Hat 공식 제품 인증 카탈로그 목록은 제품 인증 카탈로그를 참조하십시오.

1.8. Bare Metal Provisioning 운영 체제

Bare Metal Provisioning (ironic)을 통해 Red Hat OpenStack Platform의 베어 메탈 노드에 설치할 수 있는 게스트 운영 체제 목록은 Bare Metal Provisioning (ironic)으로 배포 가능한 지원 운영 체제를 참조하십시오.

1.9. 하이퍼바이저 지원

Red Hat OpenStack Platform은 libvirt 드라이버에서만 지원됩니다(Compute 노드에서 하이퍼바이저로 KVM 사용).

이번 Red Hat OpenStack Platform 릴리스는 Bare Metal Provisioning과 함께 실행됩니다.

Bare Metal Provisioning은 Red Hat OpenStack Platform 7(Kilo) 릴리스부터 완전 지원됩니다. Bare Metal Provisioning에서는 일반적인 기술(예: PXE 및 IPMI)을 통해 베어 메탈 머신을 프로비저닝하여 다양한 범주의 하드웨어를 지원하는 동시에 플러그 방식 드라이버를 지원하여 벤더별 기능을 추가할 수 있습니다.

Red Hat은 사용되지 않는 VMware의 "direct-to-ESX" 하이퍼바이저 또는 비KVM libvirt 하이퍼바이저와 같은 기타 Compute 가상화 드라이버를 지원하지 않습니다.

1.10. CDN(Content Delivery Network) 리포지토리

이 섹션에서는 Red Hat OpenStack Platform 16.0 배포에 필요한 리포지토리에 대해 설명합니다.

subscription-manager를 사용하여 CDN(Content Delivery Network)을 통해 Red Hat OpenStack Platform 16.0을 설치할 수 있습니다. 자세한 내용은 언더클라우드 준비를 참조하십시오.

주의

Red Hat OpenStack Platform 소프트웨어 리포지토리의 일부 패키지는 EPEL(Extra Packages for Enterprise Linux) 소프트웨어 리포지토리에서 제공하는 패키지와 충돌하는 경우가 있습니다. EPEL 소프트웨어 리포지토리가 활성화된 시스템에서 Red Hat OpenStack Platform 사용은 지원되지 않습니다.

1.10.1. 언더클라우드 리포지토리

언더클라우드를 설치 및 설정하려면 다음과 같은 리포지토리를 활성화합니다.

코어 리포지토리

다음 표에는 언더클라우드 설치에 사용되는 코어 리포지토리가 나와 있습니다.

이름리포지토리요구 사항 설명

Red Hat Enterprise Linux 8 for x86_64 - BaseOS(RPM)

rhel-8-for-x86_64-baseos-rpms

x86_64 시스템용 기본 운영 체제 리포지토리

Red Hat Enterprise Linux 8 for x86_64 - AppStream(RPM)

rhel-8-for-x86_64-appstream-rpms

Red Hat OpenStack Platform 종속 패키지를 포함

Red Hat Enterprise Linux 8 for x86_64 - High Availability(RPM)

rhel-8-for-x86_64-highavailability-rpms

Red Hat Enterprise Linux용 고가용성 툴. Controller 노드 고가용성에 사용

Red Hat Ansible Engine 2.8 for RHEL 8 x86_64(RPM)

ansible-2.8-for-rhel-8-x86_64-rpms

Ansible Engine for Red Hat Enterprise Linux. 최신 버전의 Ansible을 제공하는 데 사용

Red Hat Satellite Tools for RHEL 8 Server RPMs x86_64

satellite-tools-6.5-for-rhel-8-x86_64-rpms

Red Hat Satellite 6 호스트 관리 툴

Red Hat OpenStack Platform 16.0 for RHEL 8(RPM)

openstack-16-for-rhel-8-x86_64-rpms

Red Hat OpenStack Platform 코어 리포지토리로 Red Hat OpenStack Platform director용 패키지를 포함

Red Hat Fast Datapath for RHEL 8(RPMS)

fast-datapath-for-rhel-8-x86_64-rpms

OpenStack Platform용 Open vSwitch(OVS) 패키지를 제공

IBM POWER 리포지토리

다음 표에는 POWER PC 아키텍처의 Openstack Platform용 리포지토리가 나열되어 있습니다. 코어 리포지토리의 리포지토리 대신 이 리포지토리를 사용하십시오.

이름리포지토리요구 사항 설명

Red Hat Enterprise Linux for IBM Power, little endian - BaseOS(RPM)

rhel-8-for-ppc64le-baseos-rpms

ppc64le 시스템용 기본 운영 체제 리포지토리

Red Hat Enterprise Linux 8 for IBM Power, little endian - AppStream(RPM)

rhel-8-for-ppc64le-appstream-rpms

Red Hat OpenStack Platform 종속 패키지를 포함

Red Hat Enterprise Linux 8 for IBM Power, little endian - High Availability(RPM)

rhel-8-for-ppc64le-highavailability-rpms

Red Hat Enterprise Linux용 고가용성 툴. Controller 노드 고가용성에 사용

Red Hat Ansible Engine 2.8 for RHEL 8 IBM Power, little endian(RPM)

ansible-2.8-for-rhel-8-ppc64le-rpms

Ansible Engine for Red Hat Enterprise Linux. 최신 버전의 Ansible을 제공하는 데 사용

Red Hat OpenStack Platform 16.0 for RHEL 8(RPM)

openstack-16-for-rhel-8-ppc64le-rpms

ppc64le 시스템용 Red Hat OpenStack Platform 코어 리포지토리

1.10.2. 오버클라우드 리포지토리

오버클라우드를 설치하고 설정하려면 다음 리포지토리를 활성화해야 합니다.

코어 리포지토리

다음 표에는 오버클라우드 설치를 위한 코어 리포지토리가 나와 있습니다.

이름리포지토리요구 사항 설명

Red Hat Enterprise Linux 8 for x86_64 - BaseOS(RPM)

rhel-8-for-x86_64-baseos-rpms

x86_64 시스템용 기본 운영 체제 리포지토리

Red Hat Enterprise Linux 8 for x86_64 - AppStream(RPM)

rhel-8-for-x86_64-appstream-rpms

Red Hat OpenStack Platform 종속 패키지를 포함

Red Hat Enterprise Linux 8 for x86_64 - High Availability(RPM)

rhel-8-for-x86_64-highavailability-rpms

Red Hat Enterprise Linux용 고가용성 툴. Controller 노드 고가용성에 사용

Red Hat Ansible Engine 2.8 for RHEL 8 x86_64(RPM)

ansible-2.8-for-rhel-8-x86_64-rpms

Ansible Engine for Red Hat Enterprise Linux. 최신 버전의 Ansible을 제공하는 데 사용

Advanced Virtualization for RHEL 8 x86_64(RPM)

advanced-virt-for-rhel-8-x86_64-rpms

OpenStack Platform용 가상화 패키지를 제공

Red Hat Satellite Tools for RHEL 8 Server RPMs x86_64

satellite-tools-6.5-for-rhel-8-x86_64-rpms

Red Hat Satellite 6 호스트 관리 툴

Red Hat OpenStack Platform 16.0 for RHEL 8(RPM)

openstack-16-for-rhel-8-x86_64-rpms

코어 Red Hat OpenStack Platform 리포지토리

Red Hat Fast Datapath for RHEL 8(RPMS)

fast-datapath-for-rhel-8-x86_64-rpms

OpenStack Platform용 Open vSwitch(OVS) 패키지를 제공

실시간 리포지토리

다음 표에는 RTC(Real Time Compute) 기능에 사용되는 리포지토리가 나와 있습니다.

이름리포지토리요구 사항 설명

Red Hat Enterprise Linux 8 for x86_64 - Real Time(RPM)

rhel-8-for-x86_64-rt-rpms

실시간 KVM(RT-KVM) 리포지토리. 실시간 커널을 활성화하는 패키지가 포함되어 있음. 이 리포지토리는 RT-KVM을 대상으로 하는 모든 컴퓨팅 노드에서 활성화해야 함. 참고: 이 리포지토리에 액세스하려면 별도의 Red Hat OpenStack Platform for Real Time SKU 서브스크립션이 필요함.

Red Hat Enterprise Linux 8 for x86_64 - Real Time for NFV(RPM)

rhel-8-for-x86_64-nfv-rpms

NFV용 실시간 KVM(RT-KVM) 리포지토리. 실시간 커널을 활성화하는 패키지가 포함되어 있음. 이 리포지토리는 RT-KVM을 대상으로 하는 모든 NFV Compute 노드에 대해 활성화해야 함. 참고: 이 리포지토리에 액세스하려면 별도의 Red Hat OpenStack Platform for Real Time SKU 서브스크립션이 필요함.

IBM POWER 리포지토리

다음 표에는 POWER PC 아키텍처의 Openstack Platform용 리포지토리가 나열되어 있습니다. 코어 리포지토리의 리포지토리 대신 이 리포지토리를 사용하십시오.

이름리포지토리요구 사항 설명

Red Hat Enterprise Linux for IBM Power, little endian - BaseOS(RPM)

rhel-8-for-ppc64le-baseos-rpms

ppc64le 시스템용 기본 운영 체제 리포지토리

Red Hat Enterprise Linux 8 for IBM Power, little endian - AppStream(RPM)

rhel-8-for-ppc64le-appstream-rpms

Red Hat OpenStack Platform 종속 패키지를 포함

Red Hat Enterprise Linux 8 for IBM Power, little endian - High Availability(RPM)

rhel-8-for-ppc64le-highavailability-rpms

Red Hat Enterprise Linux용 고가용성 툴. Controller 노드 고가용성에 사용

Red Hat Ansible Engine 2.8 for RHEL 8 IBM Power, little endian(RPM)

ansible-2.8-for-rhel-8-ppc64le-rpms

Ansible Engine for Red Hat Enterprise Linux. 최신 버전의 Ansible을 제공하는 데 사용

Red Hat OpenStack Platform 16.0 for RHEL 8(RPM)

openstack-16-for-rhel-8-ppc64le-rpms

ppc64le 시스템용 Red Hat OpenStack Platform 코어 리포지토리

1.11. 제품 지원

다음 리소스를 사용할 수 있습니다:

고객 포털

Red Hat 고객 포털에서는 Red Hat OpenStack Platform 시스템을 계획, 배포, 유지 관리하기 위해 다양한 리소스를 제공합니다. 고객 포털을 통해 다음과 같은 기능을 사용할 수 있습니다.

  • 제품 설명서
  • 지식 베이스 문서 및 솔루션
  • 기술 요약
  • 기술 지원 케이스 관리

https://access.redhat.com/에서 고객 포털에 액세스하십시오.

메일링 리스트

Red Hat은 Red Hat OpenStack Platform 사용자와 관련된 공개 메일링 리스트를 제공합니다.

  • rhsa-announce 메일링 리스트는 Red Hat OpenStack Platform을 포함하여 모든 Red Hat 제품의 보안 패치 릴리스에 대한 알림을 제공합니다.

https://www.redhat.com/mailman/listinfo/rhsa-announce에서 가입하십시오.

2장. 새로운 주요 기능

이 섹션에서는 Red Hat OpenStack Platform 릴리스에 포함된 새로운 주요 기능에 대해 설명합니다.

2.1. Compute

이 섹션에서는 Compute 서비스의 새로운 주요 기능에 대해 간단히 설명합니다.

Cells v2를 사용한 다중 셀 배포
OpenStack Compute는 기본적으로 셀에 의해 구동됩니다. 각 셀마다 특정 컴퓨팅 노드 및 데이터베이스가 있는 다중 셀을 사용하도록 대규모 배포를 설정할 수 있습니다. 글로벌 서비스 제어 배치 및 페일 세이프(fail safe) 작업, 셀로의 분할 작업을 통해 보안 및 프로세스 격리를 개선시킬 수 있습니다.
단일 호스트에 고정 및 유동 인스턴스 공동 배치
유동 CPU(hw:cpu_policy=shared)를 사용하는 인스턴스와 동일한 호스트에서 고정 CPU(hw:cpu_policy=dedicated)를 사용하여 인스턴스를 예약할 수 있습니다. 이러한 인스턴스 유형을 별도의 호스트에서 실행하기 위해 호스트 집계를 사용할 필요가 없습니다.
SR-IOV를 사용한 인스턴스 실시간 마이그레이션(단일 루트 I/O 가상화)
SR-IOV 인터페이스를 사용하여 설정한 인스턴스를 실시간으로 마이그레이션할 수 있습니다. 직접 모드 SR-IOV 인터페이스의 경우 이 작업으로 인해 마이그레이션 과정의 일부로 인터페이스가 분리되었다가 다시 연결될 때 일부 네트워크가 중단됩니다. 간접 모드 SR-IOV 인터페이스에는 이러한 문제가 발생하지 않습니다.
고정 인스턴스의 실시간 마이그레이션
이 NUMA 인식 실시간 마이그레이션 기능을 사용하면 NUMA 토폴로지를 통해 인스턴스를 실시간으로 마이그레이션할 수 있습니다.
대역폭 인식 스케줄링
QoS(Quality of Service) 정책을 사용하여 최소 대역폭을 요청하는 인스턴스를 생성할 수 있습니다. 컴퓨팅 스케줄링 서비스는 해당 인스턴스에 대해 보장된 최소 대역폭 요청을 충족하는 호스트를 선택합니다.

2.2. Networking

이 섹션은 Networking 서비스의 새로운 주요 기능에 대해 간단히 설명합니다.

로드 밸런싱 서비스 (Octavia)에 대한 ACL 지원
Red Hat OpenStack Platform 로드 밸런싱 서비스(Octavia)에서 VIP 액세스 제어 목록(ACL)을 지원하여 리스너로 들어오는 트래픽을 일련의 허용된 소스 IP 주소(CIDR)로 제한할 수 있습니다.
OVN 내부 API TLS/SSL 지원
Red Hat OpenStack Platform은 TLS(전송 계층 보안)를 사용하여 OVN에 대한 내부 API 트래픽 암호화를 지원합니다.
IPv6을 통한 OVN 배포
Red Hat OpenStack Platform은 IPv6 네트워크에서 OVN 배포를 지원합니다.

2.3. 스토리지

이 섹션에서는 Storage 서비스의 새로운 주요 기능에 대해 간단히 설명합니다.

볼륨 복제 시 블록 스토리지 서비스에서 키 변경
이 릴리스에서는 블록 스토리지 서비스(cinder)에서 암호화된 볼륨을 복제할 때 암호화 키를 자동으로 변경합니다. 이 기능을 통해 동일한 암호화 키를 2번 이상 사용하지 않게되어 Red Hat OpenStack Platform의 보안이 향상되었습니다.
이미지 서비스에서 암호화된 키 삭제 관리
이 릴리스에서는 블록 스토리지 서비스(cinder)에서 암호화된 볼륨을 이미지 서비스(glance)로 업로드할 때 키 관리 서비스(barbican)에 암호화 키를 생성합니다. 이는 암호화 키와 저장된 이미지 사이에 1:1 관계를 생성합니다. 암호화 키를 삭제하면 키 관리 서비스에 의해 리소스가 무제한으로 소비되는 것을 방지할 수 있습니다.
director의 백엔드 가용 영역 설정 지원
이 릴리스에는 블록 스토리지 백엔드 가용 영역을 설정할 수 있도록 director 지원이 추가되었습니다. 가용 영역은 클라우드 인스턴스 및 서비스를 그룹화하는 공급자 고유의 메서드입니다.
Data Processing 서비스(sahara) 지원 중단
Red Hat OpenStack Platform(RHOSP) 15에서는 Data Processing 서비스(sahara)가 더 이상 사용되지 않으며 RHOSP 16.0에서 제거될 예정입니다. Red Hat은 RHOSP 버전 13 및 15의 데이터 처리 서비스에 대한 지원을 계속 제공합니다.

2.4. Ceph Storage

이 섹션에서는 Ceph Storage의 새로운 주요 기능에 대해 간단히 설명합니다.

Red Hat Ceph Storage 업그레이드
Red Hat Enterprise Linux 8과의 호환성을 유지하기 위해 Red Hat OpenStack Platform 16.0 director는 Red Hat Ceph Storage 4를 배포합니다. RHEL8에서 실행 중인 Red Hat OpenStack Platform 16.0을 사용하면 RHEL7에서 실행 중인 기존 외부 Red Hat Ceph Storage 3 클러스터에 연결할 수 있습니다.

2.5. 기술 프리뷰

이 섹션에서는 Red Hat OpenStack Platform 16.0의 기술 프리뷰에 소개된 기능에 대해 간단히 설명합니다.

참고

기술 프리뷰로 표시된 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

2.5.1. 새로운 기술 프리뷰

단일 언더클라우드에서 여러 오버클라우드 배포 및 관리

이번 릴리스에는 단일 언더클라우드에서 여러 오버클라우드를 배포하는 기능이 추가되었습니다.

  • 단일 언더클라우드와 상호 작용하여 여러 개의 개별 오버클라우드를 관리합니다.
  • 언더클라우드의 컨텍스트를 전환하여 다른 오버클라우드와 상호 작용합니다.
  • 중복 관리 노드를 줄일 수 있습니다.
undercloud minion
이 릴리스에는 undercloud minion을 설치할 수 있는 기능이 포함되어 있습니다. undercloud minion은 별도의 호스트에서 heat-engineironic-conductor 서비스를 추가로 제공합니다. 이러한 추가 서비스는 언더클라우드 오케스트레이션 및 프로비저닝 작업을 지원합니다. 여러 호스트에 언더클라우드 작업을 배포하면 오버클라우드 배포를 실행하는 데 더 많은 리소스가 제공되어 대규모 배포가 더 신속하게 수행됩니다.
검증 프레임워크
  • Red Hat OpenStack Platform에는 언더클라우드 및 오버클라우드의 요구 사항과 기능을 확인할 수 있는 검증 프레임워크가 포함되어 있습니다. 프레임워크에는 다음 두 가지 유형의 검증이 포함됩니다.
  • Ansible 수동 검증을 기반으로 openstack tripleo validator 명령 세트를 통해 실행합니다.
  • 동적 자동 검증은 배포 프로세스 중 실행됩니다.
  • director에서는 언더클라우드 및 오버클라우드에 대한 검증을 나열하고 실행하는 새로운 명령 세트를 제공합니다.

    이러한 명령은 다음과 같습니다.

    • openstack tripleo validator list
    • openstack tripleo validator list

      이러한 명령은 openstack-tripleo-validations 패키지의 Ansible 기반 테스트 세트와 상호 작용합니다. 이 기능을 활성화하려면 undercloud.conf 파일에서 enable_validations 매개변수를 true로 설정하고 openstack undercloud install을 실행합니다.

Block Storage 서비스에 대한 활성-활성 설정을 생성하는 새 director 기능

Red Hat OpenStack Platform director를 사용하면 백엔드 드라이버가 이 설정을 지원하는 경우 Ceph RADOS Block Device(RBD) 백엔드의 활성-활성 설정에서만 Block Storage 서비스(cinder)를 배포할 수 있습니다.

cinder-volume-active-active.yaml 파일은 CinderVolumeCluster 매개변수에 값을 할당하여 활성-활성 설정 클러스터의 이름을 정의합니다. CinderVolumeCluster는 글로벌 Block Storage 매개변수이며 이 매개변수를 사용하면 동일한 배포에 클러스터 기반(활성-활성) 백엔드와 비 클러스터 기반 백엔드를 포함할 수 없습니다.

cinder-volume-active-active.yaml 파일을 사용하면 director가 Pacemaker 이외의 cinder-volume Orchestration 서비스 템플릿을 사용하여 etcd 서비스를 DLM(Distributed Lock Manager)으로 Red Hat OpenStack Platform 배포에 추가합니다.

Block Storage 서비스 가용 영역 설정을 위한 새로운 director 매개변수
Red Hat OpenStack Platform director를 사용하면 Block Storage 서비스(cinder) 볼륨 백엔드에 대해 이제 다양한 가용 영역을 설정할 수 있습니다. director에는 새 매개변수 CinderXXXAvailabilityZone이 있으며 여기서 XXX는 각각의 백엔드에 해당하는 값입니다.
베어 메탈 서비스를 위한 새로운 Redfish BIOS 관리 인터페이스

Red Hat OpenStack Platform 베어 메탈 서비스(ironic)에는 이제 장치의 BIOS 설정을 검사하고 수정할 수 있는 BIOS 관리 인터페이스가 있습니다.

Red Hat OpenStack Platform 16.0에서 베어 메탈 서비스는 Redfish API 호환 데이터 센터 장치에 대한 BIOS 관리 기능을 지원합니다. 베어 메탈 서비스는 Python 라이브러리인 Sushy를 통해 Redfish 호출을 구현합니다.

여러 Ceph 클러스터 배포
director를 통해 각 클러스터에 대해 별도의 heat 스택을 사용하여 여러 Ceph 클러스터(Ceph 또는 하이퍼 컨버지드 실행 전용 노드에서)를 배포할 수 있습니다. 에지 사이트의 경우 동일한 노드에서 Compute 및 Ceph 스토리지를 사용하는 하이퍼 컨버지드 인프라(HCI) 스택을 배포할 수 있습니다. 예를 들어 HCI-01HCI-02라는 두 개의 에지 스택을 각각의 가용 영역에 배포할 수 있습니다. 결과적으로 각 에지 스택에는 자체 Ceph 클러스터 및 Compute 서비스가 있습니다.
공유 액세스 권한을 통해 memoryBacking 소스 유형 파일을 사용할 수 있도록 새로운 Compute(nova) 설정 추가

libvirt memoryBacking 요소가 source type="file"access mode="shared"로 설정될 때 메모리 백업 파일을 저장할 디렉터리를 지정하는 QemuMemoryBackingDir이라는 새로운 Compute(nova) 매개변수를 사용할 수 있습니다.

참고: memoryBacking 요소는 libvirt 4.0.0 및 QEMU 2.6.0에서만 사용 가능합니다.

RedFish API 펜싱
Pacemaker를 사용하여 RedFish API를 펜싱할 수 있습니다.
director에서 IPv6를 통해 베어 메탈 배포
IPv6 노드 및 인프라가 있는 경우 director에서 Red Hat OpenStack Platform을 IPv6 노드에 프로비저닝하고 배포할 수 있도록 IPv4 대신 IPv6을 사용하도록 언더클라우드 및 프로비저닝 네트워크를 구성할 수 있습니다.
Nova-less provisioning

Red Hat OpenStack Platform 16.0에서는 배포의 프로비저닝 및 배포 단계를 별도의 단계로 분리할 수 있습니다.

  1. 베어 메탈 노드를 프로비저닝합니다.

    1. yaml 형식으로 노드 정의 파일을 작성합니다.
    2. 노드 정의 파일을 포함하여 프로비저닝 명령을 실행합니다.
  2. 오버클라우드를 배포합니다.

    1. 프로비저닝 명령으로 생성된 Heat 환경 파일을 포함하여 배포 명령을 실행합니다.

프로비저닝 프로세스는 노드를 프로비저닝하고, 노드 수, 예상 노드 배치, 사용자 지정 이미지, 사용자 지정 NIC를 비롯하여 다양한 노드 사양을 포함하는 Heat 환경 파일을 생성합니다. 오버클라우드를 배포할 때 이 파일을 배포 명령에 포함 시키십시오.

networking-ansible 트렁크 포트 지원
Red Hat OpenStack Platform 16.0에서는 트렁크 모드 및 액세스 모드에서 스위치 포트를 사용하고 여러 개의 VLAN을 스위치 포트에 할당할 수 있습니다.
networking-ansible Arista 지원
Red Hat OpenStack Platform 16.0에서는 Arista EOS(Arista Extensible Operating System) 스위치를 사용하여 ML2 networking-ansible 기능을 설정할 수 있습니다.
Redfish 가상 미디어 부팅
BMC(Baseboard Management Controller)에서 가상 드라이브 중 하나에 부팅 이미지를 삽입할 수 있도록 Redfish 가상 미디어 부팅을 사용하여 노드의 BMC에 부팅 이미지를 공급할 수 있습니다. 그 후 노드는 가상 드라이브에서 해당 이미지에 있는 운영 체제로 부팅할 수 있습니다.

3장. 릴리스 정보

본 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다. Red Hat OpenStack Platform 릴리스의 지원 라이프사이클 중에 출시된 업데이트에 대한 정보는 각 업데이트와 관련된 권고 설명에 기재됩니다.

3.1. Red Hat OpenStack Platform 16.0 GA

본 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.1.1. 버그 수정

이번 Red Hat OpenStack Platform 릴리스에서 수정된 버그는 다음과 같습니다.

BZ#1716335

Red Hat OpenStack Platform 16.0에서는 플래그 live_migration_wait_for_vif_plug가 기본적으로 활성화되어 있으므로 OVN이 활성화된 실시간 마이그레이션을 성공적으로 실행할 수 있습니다.

이전에는 OpenStack Networking(neutron)에서 vif_plugged 알림을 보낼 때까지 시스템이 대기 상태가 되었으므로 실시간 마이그레이션에 실패했습니다.

BZ#1758302
이전에는 oslo.util 라이브러리의 정규식이 업데이트되지 않았으며 최신 버전의 에뮬레이터 QEMU(버전 4.1.0)의 출력 형식을 인식하지 못했습니다. Red Hat OpenStack 16.0에서 이러한 수정 사항을 통해 정규식이 업데이트되어 oslo.util.imageutils 라이브러리가 올바르게 작동합니다.
BZ#1769868
이전에는 메시지 라우터인 QDR에 대해 메시 네트워크 인프라가 잘못 설정되어 이로 인해 STF(Service Telemetry Framework) 클라이언트의 AMQP-1.0 메시지 버스가 작동하지 않았습니다. 이번 수정 사항을 통해 모든 오버클라우드 노드의 qdrouterd 데몬에 대한 설정이 수정되어 이제 STF 클라이언트가 올바르게 작동합니다.
BZ#1775246
인스턴스를 재구축할 때 NUMATopologyFilter가 비활성화됩니다. 이전에는 새 이미지와 기존 인스턴스 유형을 사용하여 호스트에 두 번째 인스턴스를 위한 추가 용량이 충분히 있는 경우에만 필터링이 항상 실행되고 리빌드가 완료되었습니다. 이는 잘못된 불필요한 동작입니다.

3.1.2. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1222414
이 기능 향상을 통해 NUMA 토폴로지를 사용하는 인스턴스의 실시간 마이그레이션 지원이 추가되었습니다. 이전에는 이 동작이 기본적으로 비활성화되어 있었습니다. ‘[workarounds] enable_numa_live_migration’ 구성 옵션을 사용하여 활성화할 수 있지만 이러한 인스턴스를 실시간 마이그레이션하면 기본 NUMA 게스트-호스트 매핑 또는 리소스 사용량을 업데이트하지 않고 대상 호스트로 이동하게 되므로 기본값은 False입니다. 새 NUMA 인식 실시간 마이그레이션 기능을 사용할 때 인스턴스를 대상에 설치할 수 없는 경우 요청에 대체 대상이 설정된 경우 대체 대상에서 실시간 마이그레이션이 시도됩니다. 인스턴스를 대상에 설치할 수 있는 경우 새 호스트를 반영하기 위해 NUMA 게스트-호스트 매핑이 다시 계산되고 해당 리소스 사용량이 업데이트됩니다.
BZ#1328124
Red Hat OpenStack Platform 16.0 director는 다중 컴퓨팅 셀 배포를 지원합니다. 이 향상된 기능을 사용하면 개별 셀마다 셀 컨트롤러에 자체 데이터베이스 및 메시지 큐가 있어 중앙 컨트롤 플레인의 부하가 감소하기 때문에 클라우드를 더 좋은 위치에 배포 확장할 수 있습니다. 자세한 내용은 “인스턴스 및 이미지” 가이드의 “컴퓨팅 셀을 사용한 배포 확장”을 참조하십시오.
BZ#1360970

이 기능 향상을 통해 SR-IOV 기반 중성자 인터페이스가 연결된 인스턴스의 실시간 마이그레이션 지원이 추가되었습니다. Neutron SR-IOV 인터페이스는 직접 모드와 간접 모드의 두 범주로 그룹화할 수 있습니다. 직접 모드 SR-IOV 인터페이스는 게스트에 직접 연결되고 게스트 OS에 노출됩니다. 간접 모드 SR-IOV 인터페이스에는 게스트와 SR-IOV 장치 사이에 소프트웨어 인터페이스(예: macvtap)가 있습니다. 이 기능을 사용하면 간접 모드 SR-IOV 장치가 있는 인스턴스를 투명하게 실시간 마이그레이션할 수 있습니다. 실시간 마이그레이션 중에는 일반적인 방법으로 하드웨어 상태를 복사할 수 없으므로 직접 모드 마이그레이션은 게스트에 투명하지 않습니다. 직접 모드 인터페이스의 경우 일시 중단 및 재개를 위해 기존 워크플로우를 시뮬레이션합니다. 예를 들면 SR-IOV 장치를 사용하여 마이그레이션 이전에 직접 모드 인터페이스를 분리하고 마이그레이션 이후 다시 연결합니다. 결과적으로 게스트 내에서 실시간 마이그레이션이 가능한 인터페이스와의 결합이 생성되지 않는 한 직접 모드 SR-IOV 포트가 있는 인스턴스의 네트워크 연결이 마이그레이션 중 끊어집니다.

이전에는 SR-IOV 기반 네트워크 인터페이스를 사용하여 인스턴스를 실시간 마이그레이션할 수 없었습니다. 실시간 마이그레이션이 호스트 유지 관리 및 유사한 작업에 자주 사용되므로 문제가 되었습니다. 이전에는 인스턴스를 콜드 마이그레이션해야 했으며 이로 인해 게스트에 다운타임이 발생했습니다.

이 기능 향상으로 인해 인스턴스가 SR-IOV 기반 네트워크 인터페이스를 통해 실시간 마이그레이션됩니다.

BZ#1463838
Red Hat OpenStack Platform 16.0에서는 네트워크 인터페이스를 생성할 때 QoS 최소 대역폭 규칙을 지정할 수 있습니다. 이 향상된 기능을 통해 인스턴스에 지정된 네트워크 사용 가능한 대역폭이 있는지 확인합니다. 현재는 크기 변경 및 콜드 마이그레이션 작업만 지원됩니다.
BZ#1545700
Red Hat OpenStack Platform 블록 스토리지 서비스(cinder)는 볼륨을 복제할 때 암호화 키를 자동으로 변경합니다. 이 기능은 현재 Red Hat Ceph Storage를 cinder 백엔드로 사용하는 것을 지원하지 않습니다.
BZ#1545855

Red Hat OpenStack Platform 16.0에서는 로컬 레지스트리에서 이미지를 푸시, 나열, 삭제, 표시(메타데이터 표시)할 수 있습니다.

  • 원격 리포지토리에서 기본 리포지토리로 이미지를 푸시하려면 다음을 수행하십시오.

    $ sudo openstack tripleo container image push docker.io/library/centos
  • 리포지토리의 내용을 나열하려면 다음을 수행하십시오.

    $ openstack tripleo container image list
  • 이미지를 삭제하려면 다음을 수행하십시오.

    $ sudo openstack tripleo container image delete
  • 이미지에 대한 메타데이터를 표시하려면 다음을 수행하십시오.

    $ openstack tripleo container image show
BZ#1593057
이 기능 향상을 통해 작업이 의도하지 않게 수행될 가능성을 줄이기 위해 오버클라우드 노드를 삭제하는 경우 작업을 수행하기 전에 사용자 확인이 필요합니다. openstack overcloud node delete <node> 명령의 동작이 실행되려면 Y/n 확인이 필요합니다. 명령행에 --yes를 추가하여 바이패스할 수 있습니다.
BZ#1601926
이 업데이트부터 모든 OVN 서비스 간에 OSP 배포가 완전히 암호화됩니다. 모든 OVN 클라이언트(ovn-controller, neutron-server, ovn-metadata-agent)가 상호 TLS 암호화를 사용하여 OVSDB 서버에 연결됩니다.
BZ#1625244
배치 서비스가 Compute(nova) 서비스에서 추출되었습니다. 이제 director에 의해 배포 및 관리되고 언더클라우드 및 오버클라우드 컨트롤러 노드에서 추가 컨테이너로 실행됩니다.
BZ#1628541
Red Hat OpenStack Platform 16.0 대시보드(horizon)에는 사용자 암호를 변경할 수 있는 새로운 양식이 있습니다. 이 양식은 사용자가 만료된 암호로 로그인할 때 자동으로 표시됩니다.
BZ#1649264
Red Hat OpenStack Platform Orchestration 서비스(heat)에 Glance v2 API를 사용하여 URL에서 이미지 서비스(glance) 이미지를 생성하는 데 사용되는 새로운 리소스 유형, OS::Glance::WebImage가 포함되었습니다. 이 새 리소스 유형은 이전의 리소스 유형인 OS::Glance::Image를 대체합니다.
BZ#1653834
이 기능 향상으로 부울 매개변수 NovaComputeEnableKsm이 추가됩니다. 이 매개변수는 Compute 노드에서 ksm 및 ksmtuned 서비스를 활성화합니다. 각 Compute 역할에 NovaComputeEnableKsm을 설정할 수 있습니다. 기본값은 False입니다.
BZ#1666973
Red Hat OpenStack Platform 16.0에서는 ceph.conf의 모든 섹션에 사용자 정의 Red Hat Ceph Storage 설정을 추가할 수 있습니다. 이전에는 ceph.conf의 [global] 섹션에서만 사용자 정의 설정이 허용되었습니다.
BZ#1689816

Red Hat OpenStack Platform 16.0에서는 관리자가 셀 컨트롤러에서 nova 메타데이터 서비스를 켤 수 있는 새 오케스트레이션 서비스(heat) 배포 매개변수를 사용할 수 있습니다.

parameter_defaults:
   NovaLocalMetadataPerCell: True

이 새 매개변수는 셀 계산에서 OVN 메타데이터 에이전트의 트래픽을 셀 컨트롤러에서 호스팅되는 nova 메타데이터 API 서비스로 자동 지정합니다.

RHOSP 토폴로지에 따라 셀 컨트롤러에서 메타데이터 서비스를 실행하는 기능을 통해 중앙 컨트롤 플레인의 트래픽을 줄일 수 있습니다.

BZ#1691025
이제 Octavia API를 사용하여 리스너로 들어오는 트래픽을 일련의 허용된 소스 IP 주소(CIDR)로 제한하는 VIP ACL(액세스 제어 목록)을 생성할 수 있습니다. 기타 들어오는 트래픽은 거부됩니다. 자세한 내용은 "네트워킹 가이드"의 "액세스 제어 목록을 사용한 로드 밸런서 보안"을 참조하십시오.
BZ#1693372

이 기능 향상을 통해 동일한 계산 노드에 다음 매개변수를 사용하여 전용(고정) 및 공유(고정 해제) 인스턴스를 예약할 수 있습니다.

  • NovaComputeCpuDedicatedSet - 고정 인스턴스 CPU 프로세스를 예약할 수 있는 쉼표로 구분된 물리적 호스트 CPU 목록 또는 범위입니다. 더 이상 사용되지 않는 NovaVcpuPinSet 매개변수를 대체합니다.
  • NovaComputeCpuSharedSet - vCPU 인벤토리를 제공하고, 고정 해제된 인스턴스를 예약할 수 있는 호스트 CPU를 확인하고, 공유 에뮬레이터 스레드 정책, hw:emulator_threads_policy=share를 사용하여 설정된 인스턴스에 대해 에뮬레이터 스레드를 오프로드해야 하는 호스트 CPU를 확인하는 데 사용되는 쉼표로 구분된 물리적 호스트 CPU 목록 또는 범위입니다. 참고: 이 옵션은 이전에도 있었지만 이 기능을 통해 사용 용도가 확장되었습니다.

    이러한 인스턴스 유형을 별도의 호스트에서 실행하기 위해 호스트 집계를 사용할 필요가 없습니다. 또한 [DEFAULT] reserved_host_cpus 구성 옵션이 더 이상 필요하지 않으며 설정을 해제할 수 있습니다.

    업그레이드하려면 다음을 수행하십시오.

    • 이전에 고정 인스턴스에 사용된 호스트의 경우 NovaVcpuPinSet의 값을 NovaComputeCpuDedicatedSet로 마이그레이션해야 합니다.
    • 이전에 고정 해제된 인스턴스에 사용된 호스트의 경우 NovaVcpuPinSet의 값을 NovaComputeCpuSharedSet로 마이그레이션해야 합니다.
    • NovaVcpuPinSet에 대한 값 설정이 없는 경우 실행되고 있는 인스턴스의 유형에 따라 모든 호스트 코어를 NovaComputeCpuDedicatedSet 또는 NovaComputeCpuSharedSet에 할당해야 합니다.

      업그레이드가 완료되면 동일한 호스트에서 두 옵션을 모두 설정할 수 있습니다. 그러나 이를 수행하기 위해서는 고정 해제된 인스턴스의 코어가 NovaComputeCpuSharedSet 목록에 포함되지 않은 경우 nova가 시작되지 않고 그 반대의 경우도 마찬가지이므로 호스트에서 인스턴스를 제거해야 합니다.

BZ#1696663
이 업데이트를 통해 대부분의 중성자 네트워크에 대해 NUMA 선호도를 설정할 수 있습니다. 이는 vSwitch에 대한 외부 연결을 제공하는 NIC와 동일한 호스트 NUMA 노드에 인스턴스를 배치할 수 있습니다. 'flat' 또는 'vlan'--'provider:network_type' 및 'provider:physical_network'(L2 네트워크) 또는 'vxlan', 'gre' 또는 ’geneve'(L3 네트워크)의 --'provider:network_type'을 사용하는 네트워크에 NUMA 선호도를 설정할 수 있습니다.
BZ#1700396
Red Hat OpenStack Platform 16.0에서는 director를 사용하여 가용 영역을 블록 스토리지 서비스(cinder) 백엔드 유형으로 지정할 수 있습니다.
BZ#1767481
이전에는 Novajoin과 IPA 서버의 연결이 끊어지면 즉시 다시 연결을 시도했습니다. 그 결과 타이밍 문제가 발생하여 다시 연결되지 않을 수 있었습니다. 이 업데이트를 통해 retry_delay를 사용하여 IPA 서버 연결을 다시 시도하기 까지 대기 시간 (초)을 설정할 수 있습니다. 그 결과 타이밍 문제가 발생할 가능성이 감소됩니다.
BZ#1775575
인스턴스 수준에 따라 PCI NUMA 선호도를 설정할 수 있습니다. 이러한 작업은 SR-IOV 기반 네트워크 인터페이스로 인스턴스의 NUMA 선호도를 설정하는 데 필요합니다. 이전에는 PCI 통과 장치에 대해 호스트 수준에서만 NUMA 선호도를 설정할 수 있었습니다.
BZ#1784806
Red Hat Openstack Platform 16.0에서는 배포 기능 향상을 통해 OVS-DPDK가 배포된 Compute 노드에 필요한 오케스트레이션 서비스(heat) 매개변수가 자동으로 파생되어 OVS-DPDK를 쉽게 설정할 수 있습니다. 워크플로우 서비스(mistral)는 heat 템플릿 및 내부 검사 데이터를 읽고 heat 매개변수 NovaComputeCpuDedicatedSet 및 NovaComputeCpuSharedSet에 필요한 값을 자동으로 도출하도록 개선되었습니다.

3.1.3. 기술 프리뷰

이 섹션에 나열된 항목은 기술 프리뷰로 제공됩니다. 기술 프리뷰 상태 범위에 대한 자세한 내용 및 관련된 지원 영향은 https://access.redhat.com/support/offerings/techpreview/에서 참조하십시오.

BZ#1228474
Red Hat OpenStack Platform 16.0에서는 ID 서비스(keystone)에 Red Hat OpenStack Platform director 배포 후 시스템에 존재하는 새 기본 역할인 reader에 대한 기술 프리뷰가 추가되어 있습니다. reader 역할의 사용자는 볼륨 생성과 같이 읽기 전용이 아닌 몇 가지 추가 작업을 수행할 수 있습니다. 이 역할은 cinder, neutron, nova와 같은 기타 서비스에는 구현되어 있지 않습니다. 이 기능은 아직 개발 중인 기술 프리뷰이므로 프로덕션 환경에서 사용해서는 안 됩니다.
BZ#1288155

여러 경로 테이블을 정의하고 특정 테이블에 경로를 할당하는 기능은 Red Hat OpenStack Platform 16.0의 기술 프리뷰입니다.

정책 기반 라우팅에서는 여러 개의 링크가 있는 호스트에서 소스 주소에 따라 특정 인터페이스를 통해 트래픽을 보낼 수 있는 라우팅 테이블을 사용합니다.

다음 예제와 같이 인터페이스별로 라우팅 규칙을 정의할 수 있습니다.

network_config:
  -
    type: route_table
    name: custom
    table_id: 200
  -
    type: interface
    name: em1
    use_dhcp: false
    addresses:
    -
      ip_netmask: 192.0.2.1/24
    routes:
      -
        ip_netmask: 10.1.3.0/24
        next_hop: 192.0.2.5
        table: 200  # Use table ID or table name
    rules:
      - rule: "iif em1 table 200"
        comment: "Route incoming traffic to em1 with table 200"
      - rule: "from 192.0.2.0/24 table 200"
        comment: "Route all traffic from 192.0.2.0/24 with table 200"
      - rule: "add blackhole from 172.19.40.0/24 table 200"
      - rule: "add unreachable iif em1 from 192.168.1.0/24"
BZ#1375207
이전에는 블록 스토리지 서비스(cinder) 볼륨 및 백업 모두에 대해 Red Hat Ceph Storage를 백엔드로 사용하면 전체 백업을 수행할 때마다첫 번째 전체 백업 이후경고 없이 증분 백업이 발생했습니다. Red Hat OpenStack Platform 16.0에서는 기술 프리뷰를 통해 이 문제가 해결되었습니다.
BZ#1459187
Red Hat OpenStack Platform 16.0에는 IPv6 프로비저닝 네트워크에서 오버클라우드를 배포할 수 있도록 베어 메탈 프로비저닝 서비스(ironic)에 기술 프리뷰가 추가되어 있습니다. 자세한 내용은 베어 메탈 프로비저닝 가이드의 “사용자 지정 IPv6 프로비저닝 네트워크 설정”을 참조하십시오.
BZ#1474394
Red Hat OpenStack Platform 16.0에는 BMaaS(Bare Metal as-a-Service) 테넌트에 대해 IPv6 프로비저닝 네트워크를 통해 전개되는 베어 메탈 프로비저닝 서비스(ironic)의 기술 프리뷰가 추가되어 있습니다.
BZ#1575079
Red Hat OpenStack Platform 16.0에서는 IPv6용 공유 파일 시스템 서비스(manila)가 CephFS NFS 드라이버에서 작동하도록 기술 프리뷰가 추가되었습니다.
BZ#1593828

Red Hat OpenStack Platform 16.0에는 베어 메탈 프로비저닝 서비스(ironic)를 사용하여 가상 미디어에서 베어 메탈 머신을 부팅할 수 있도록 기술 프리뷰가 추가되어 있습니다.

시스템의 베이스보드 관리 컨트롤러(BMC)에서 Redfish 하드웨어 관리 프로토콜 및 가상 미디어 서비스를 지원하는 경우, ironic은 BMC에 부팅 가능한 이미지를 가져와서 노드의 가상 드라이브에 "삽입"하도록 지시할 수 있습니다. 그런 다음 노드는 가상 드라이브에서 해당 이미지에 있는 운영 체제로 부팅할 수 있습니다. Redfish API 기반 Ironic 하드웨어 유형은 가상 미디어를 통한 배포, 복구 (제한적) 및 부팅 (사용자) 이미지를 지원합니다.

가상 미디어 부팅의 주요 장점은 PXE 부팅 프로토콜 제품군의 안전하지 않고 신뢰할 수 없는 TFTP 이미지 전송 단계가 보안 HTTP 전송으로 대체된다는 점입니다.

BZ#1600967

Red Hat OpenStack Platform 16.0에는 다음을 수행하여 암호 교체를 구현할 수 있는 워크플로우 서비스(mistral) 작업이 기술 프리뷰에 추가되어 있습니다.

암호 교체 워크플로우를 실행하여 새 암호를 생성하고 계획 환경에 저장합니다.

오버클라우드를 재배포합니다.

암호를 변경한 후 암호를 가져올 수도 있습니다.

암호 교체를 구현하려면 다음 단계를 수행하십시오.

참고

워크플로우 작업에서는 기본 암호를 변경합니다. 이 작업에서는 사용자가 제공한 환경 파일에 지정된 암호는 변경하지 않습니다.

  1. 새 워크플로우 작업을 실행하여 암호를 재생성합니다.

    $ source ./stackrc
    $ openstack workflow execution create tripleo.plan_management.v1.rotate_passwords '{"container": "overcloud"}'

    이 명령에서는 BarbicanSimpleCryptoKek, KeystoneFernet*, KeystoneCredential*을 제외한 모든 암호에 대해 새 암호를 생성합니다. 이러한 암호를 교체하는 특수한 절차가 있습니다.

    특정 암호를 교체하도록 지정할 수도 있습니다. 다음 명령은 지정된 암호만 교체합니다.

    $ openstack workflow execution create tripleo.plan_management.v1.rotate_passwords '{"container": "overcloud", "password_list": ["BarbicanPassword", "SaharaPassword", "ManilaPassword"]}'
  2. 오버클라우드를 재배포합니다.

    $ ./overcloud-deploy.sh

    암호 (새로 생성된 암호 포함)를 검색하려면 다음 단계를 수행하십시오.

  3. 다음 명령을 실행합니다.

    $ openstack workflow execution create tripleo.plan_management.v1.get_passwords '{"container": "overcloud"}'

    다음과 비슷한 명령 출력이 표시됩니다.

    +--------------------+---------------------------------------------+
    | Field              | Value                                       |
    +--------------------+---------------------------------------------+
    | ID                 | edcf9103-e1a8-42f9-85c1-e505c055e0ed        |
    | Workflow ID        | 8aa2ac9b-22ee-4e7d-8240-877237ef0d0a        |
    | Workflow name      | tripleo.plan_management.v1.rotate_passwords |
    | Workflow namespace |                                             |
    | Description        |                                             |
    | Task Execution ID  | <none>                                      |
    | Root Execution ID  | <none>                                      |
    | State              | RUNNING                                     |
    | State info         | None                                        |
    | Created at         | 2020-01-22 15:47:57                         |
    | Updated at         | 2020-01-22 15:47:57                         |
    +--------------------+---------------------------------------------+

    위의 출력 예에서 State 값은 RUNNING입니다. 최종적으로 State는 SUCCESS가 되어야 합니다.

  4. State 값을 다시 확인합니다.

    $ openstack workflow execution show edcf9103-e1a8-42f9-85c1-e505c055e0ed
    +--------------------+---------------------------------------------+
    | Field              | Value                                       |
    +--------------------+---------------------------------------------+
    | ID                 | edcf9103-e1a8-42f9-85c1-e505c055e0ed        |
    | Workflow ID        | 8aa2ac9b-22ee-4e7d-8240-877237ef0d0a        |
    | Workflow name      | tripleo.plan_management.v1.rotate_passwords |
    | Workflow namespace |                                             |
    | Description        |                                             |
    | Task Execution ID  | <none>                                      |
    | Root Execution ID  | <none>                                      |
    | State              | SUCCESS                                     |
    | State info         | None                                        |
    | Created at         | 2020-01-22 15:47:57                         |
    | Updated at         | 2020-01-22 15:48:39                         |
    +--------------------+---------------------------------------------+
  5. State 값이 SUCCESS인 경우 암호를 검색할 수 있습니다.

    $ openstack workflow execution output show edcf9103-e1a8-42f9-85c1-e505c055e0ed

    다음과 유사한 출력이 표시되어야 합니다.

    {
        "status": "SUCCESS",
        "message": {
            "AdminPassword": "FSn0sS1aAHp8YK2fU5niM3rxu",
            "AdminToken": "dTP0Wdy7DtblG80M54r4a2yoC",
            "AodhPassword": "fB5NQdRe37BaBVEWDHVuj4etk",
            "BarbicanPassword": "rn7yk7KPafKw2PWN71MvXpnBt",
            "BarbicanSimpleCryptoKek": "lrC3sGlV7-D7-V_PI4vbDfF1Ujm5OjnAVFcnihOpbCg=",
            "CeilometerMeteringSecret": "DQ69HdlJobhnGWoBC0jM3drPF",
            "CeilometerPassword": "qI6xOpofuiXZnG95iUe8Oxv5d",
            "CephAdminKey": "AQDGVPpdAAAAABAAZMP56/VY+zCVcDT81+TOjg==",
            "CephClientKey": "AQDGVPpdAAAAABAAanYtA0ggpcoCbS1nLeDN7w==",
            "CephClusterFSID": "141a5ede-21b4-11ea-8132-52540031f76b",
            "CephDashboardAdminPassword": "AQDGVPpdAAAAABAAKhsx630YKDhQrocS4o4KzA==",
            "CephGrafanaAdminPassword": "AQDGVPpdAAAAABAAKBojG+CO72B0TdBRR0paEg==",
            "CephManilaClientKey": "AQDGVPpdAAAAABAAA1TVHrTVCC8xQ4skG4+d5A=="
        }
    }
BZ#1621701
Red Hat OpenStack Platform 16.0에서는 OpenStack Bare Metal 서비스(ironic)에 기술 프리뷰가 추가되어 Arista EOS(Arista Extensible Operating System) 스위치를 사용하여 ML2 networking-ansible 기능을 설정할 수 있습니다. 자세한 내용은 베어 메탈 프로비저닝 가이드의 "networking-ansible ML2 기능 활성화"를 참조하십시오.
BZ#1622233
Red Hat OpenStack Platform 16.0에는 스위치 포트를 수정하여 트렁크 모드로 전환하고 VLAN을 두 개 이상 할당할 수 있는 기술 프리뷰가 추가되었습니다.
BZ#1623152

Red Hat OpenStack Platform 16.0에는 rsyslog 변경 사항에 대한 오케스트레이션 서비스(heat)에 기술 프리뷰가 추가되었습니다.

  • Rsyslog는 fluentd 설치 및 기능과 동등한 컨테이너 로그를 수집하고 전달하도록 설정되어 있습니다.
  • 관리자는 fluentd와 동일한 방식으로 rsyslog 로그 전달을 설정할 수 있습니다.
BZ#1628061

Red Hat OpenStack Platform 16.0은 director를 사용하여 서비스 템플릿에 인플라이트(in-flight) 검증을 포함할 수 있습니다. 이 기능은 RHOSP 16.0에서 기술 프리뷰입니다. 추가 설정을 확인하는 단계의 마지막 또는 다음 단계의 시작 부분에 삽입할 수 있습니다.

다음 예제에서는 배포 이후 rabbitmq 서비스가 실행 중인지 확인하는 검증이 수행됩니다.

deploy_steps_tasks:
  # rabbitmq container is supposed to be started during step 1
  # so we want to ensure it's running during step 2
  - name: validate rabbitmq state
    when: step|int == 2
    tags:
      - opendev-validation
      - opendev-validation-rabbitmq
    wait_for_connection:
      host: {get_param: [ServiceNetMap, RabbitmqNetwork]}
      port: 5672
      delay: 10

Heat를 사용하면 openstack-tripleo-validations 역할의 기존 검증을 포함할 수 있습니다.

deploy_steps_tasks:
  - name: some validation
    when: step|int == 2
    tags:
      - opendev-validation
      - opendev-validation-rabbitmq
    include_role:
      role: rabbitmq-limits
    # We can pass vars to included role, in this example
    # we override the default min_fd_limit value:
    vars:
      min_fd_limit: 32768

rabbitmq-limits 역할에 대한 정의는 https://opendev.org/openstack/tripleo-validations/src/branch/stable/train/roles/rabbitmq-limits/tasks/main.yml에서 확인할 수 있습니다.

다음은 기존의 서비스 상태 점검을 사용하는 예입니다.

deploy_steps_tasks:
  # rabbitmq container is supposed to be started during step 1
  # so we want to ensure it's running during step 2
  - name: validate rabbitmq state
    when: step|int == 2
    tags:
      - opendev-validation
      - opendev-validation-rabbitmq
    command: >
      podman exec rabbitmq /openstack/healthcheck
BZ#1699449
Red Hat OpenStack Platform director에서 Redfish API의 펜싱 에이전트인 fence_redfish의 기술 프리뷰를 제공합니다.
BZ#1700083
Red Hat OpenStack Platform 16.0에서는 베어 메탈 프로비저닝 서비스(ironic)가 Intel Speed Select 프로세서에서 작동할 수 있도록 기술 프리뷰가 추가되었습니다.
BZ#1703956
Red Hat OpenStack Platform 16.0의 로드 밸런싱 서비스(octavia)에는 UDP 프로토콜에 대한 기술 프리뷰가 있습니다.
BZ#1706896
Red Hat OpenStack Platform 16.0은 이미지를 미리 캐시하는 이미지 서비스(glance)에 기술 프리뷰가 추가되어 운영자가 인스턴스를 부팅하기 전에 캐시를 준비할 수 있습니다.
BZ#1710089
director에서 언더클라우드 서비스를 강화하기 위해 추가 호스트를 설정하는 데 사용할 수 있는 overcloud undercloud minion install 명령이 추가되었습니다.
BZ#1710092
director는 배포 관련 작업을 위해 heat-engine 리소스를 추가하는 데 사용할 수 있는 추가 노드 배포 기능을 제공합니다.
BZ#1710093
Red Hat OpenStack Platform director를 사용하면 배포 중 시스템 프로비저닝에 필요한 베어 메탈 프로비저닝 실행자 서비스 리소스를 추가하는 데 사용할 수 있는 추가 노드를 배포할 수 있습니다.
BZ#1710634

Red Hat OpenStack Platform 16.0에는 오케스트레이션 서비스(heat)에 기술 프리뷰가 추가되어 있습니다. 이미지 유형(scheduler/query_placement_for_image_type_support)에 대한 Compute 서비스(nova) 배치 및 스케줄러 구성 요소 쿼리 배치를 제어하는 새 매개변수 NovaSchedulerQueryImageType이 추가되었습니다.

true(기본값)로 설정하면 NovaSchedulerQueryImageType이 부팅 요청에 사용된 이미지의 디스크 형식을 지원하지 않는 계산 노드를 제외합니다.

예를 들어, libvirt 드라이버는 Red Hat Ceph Storage를 Ephemeral 백엔드로 사용하며 qcow2 이미지를 지원하지 않습니다(비용이 많이 드는 변환 단계 제외). 이 경우 NovaSchedulerQueryImageType을 활성화하면 스케줄러에서 Red Hat Ceph Storage를 사용하는 컴퓨팅 노드에 qcow2 이미지 부팅 요청을 보내지 않습니다.

BZ#1749483

유동 IP 주소의 TCP, UDP 또는 기타 프로토콜 포트에서 중성자 포트의 고정 IP 주소 중 하나와 연결된 TCP, UDP 또는 기타 프로토콜 포트로 트래픽을 전달할 수 있습니다. 전달된 트래픽은 중성자 API에 대한 개선 사항 및 OpenStack Networking 플러그인에 의해 관리됩니다. 유동 IP 주소에는 전송 정의를 두 개 이상 설정할 수 있습니다. 그러나 기존 연결이 있는 IP 주소의 트래픽은 OpenStack Networking 포트로 전달할 수 없습니다. 네트워크의 중앙 집중식 라우터에서 관리하는 유동 IP 주소에 대해서만 트래픽을 전달할 수 있습니다(기존, HA, DVR+HA).

유동 IP 주소 포트에 대한 트래픽을 전달하려면 다음 OpenStack Networking 플러그인 명령을 사용하십시오.

openstack floating ip port forwarding create
--internal-ip-address <internal-ip-address>
--port <port>
--internal-protocol-port <port-number>
--external-protocol-port <port-number>
--protocol <protocol>
<floating-ip>

--internal-ip-address <internal-ip-address> 전송된 트래픽을 수신할 중성자 포트의 고정 IPv4 내부 IP 주소입니다.

--port <port> 전송된 트래픽을 수신할 Neutron 포트의 이름 또는 ID입니다.

--internal-protocol-port <port-number> 전송된 트래픽을 수신할 Neutron의 프로토콜 포트 번호인 고정 IP 주소입니다.

--external-protocol-port <port-number> 해당 트래픽을 전송할 유동 IP 주소 포트의 프로토콜 포트 번호입니다.

--protocol <protocol> 유동 IP 주소의 포트에서 사용하는 프로토콜입니다(예: TCP, UDP).

<floating-ip> 해당 트래픽을 전달할 포트의 유동 IP(IP 주소 또는 ID)입니다.

예를 들면 다음과 같습니다.

openstack floating ip port forwarding create \
    --internal-ip-address 192.168.1.2 \
    --port f7a08fe4-e79e-4b67-bbb8-a5002455a493 \
    --internal-protocol-port 18343 \
    --external-protocol-port 8343 \
    --protocol tcp \
    10.0.0.100

3.1.4. 릴리스 노트

본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 배포 관련 최상의 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.

BZ#1481814
이전에는 암호화된 블록 스토리지 서비스(cinder) 볼륨 이미지가 삭제될 때 해당 키가 삭제되지 않았습니다.

Red Hat OpenStack Platform 16.0에서는 이 문제가 해결되었습니다. 이미지 서비스에서 cinder 볼륨 이미지를 삭제할 때 이미지에 대한 키도 삭제됩니다.

BZ#1783044
Red Hat Ceph Storage 버전 4의 일반 가용성으로 인해 rhceph-4-tools-for-rhel-8-x86_64-rpms 리포지토리에서 ceph-ansible을 설치할 수 있습니다.

3.1.5. 알려진 문제

현재 Red Hat OpenStack Platform의 알려진 문제는 다음과 같습니다.

BZ#1574431
할당량 명령이 예상대로 작동하지 않는 블록 스토리지 서비스(cinder)와 관련하여 알려진 문제가 있습니다. cinder CLI를 사용하면 유효한 프로젝트 ID가 있는지 확인하지 않고도 할당량 항목을 만들 수 있습니다. CLI에서 유효한 프로젝트 ID 없이 생성하는 할당량 항목은 유효하지 않은 데이터를 포함하는 더미 레코드에 해당합니다. 이 문제가 해결될 때까지 CLI 사용자는 할당량 항목을 만들 때 유효한 프로젝트 ID를 지정하고 더미 레코드의 cinder를 모니터링해야 합니다.
BZ#1647005

Nova-compute ironic 드라이버에서 BM 노드를 정리하는 동안 해당 노드의 업데이트를 시도합니다. 정리 작업에는 약 5분이 소요되며 nova-compute에서는 2분 정도 노드 업데이트를 시도합니다. 제한 시간이 지나면 nova-compute가 중지되고 nova 인스턴스가 ERROR 상태가 됩니다.

이 문제를 해결하려면 nova-compute 서비스에 대해 다음 설정 옵션을 정의하십시오.

[ironic]
api_max_retries = 180

그 결과 nova-compute가 BM 노드 업데이트를 계속 시도하고 결국 성공합니다.

BZ#1734301
현재는 멤버에서 데이터를 가져올 때 OVN 로드 밸랜서에서 새 연결을 시작하지 않습니다. 로드 밸런서는 대상 주소와 대상 포트를 수정하고 요청 패킷을 멤버로 보냅니다. 그 결과 IPv4로드 밸런서 주소를 사용하는 동안 IPv6 멤버를 정의할 수 없으며 그 반대의 경우도 마찬가지입니다. 현재 이 문제에 대한 해결방법이 없습니다.
BZ#1769880

ML2/OVS에서 OVN으로의 마이그레이션이 실패하는 것과 관련하여 알려진 문제가 있습니다. 이 문제는 Red Hat OpenStack Platform director의 새 보안 메커니즘으로 인해 메커니즘 드라이버를 변경하는 동안 업그레이드가 수행되지 않는 것에 의한 것입니다.

해결방법은 "개방형 가상 네트워크를 사용한 네트워킹" 가이드의 "마이그레이션 준비"를 참조하십시오.

BZ#1779221

Linux Bridge ML2 드라이버 및 에이전트를 사용하는 Red Hat OpenStack Platform 배포는 ARP(Address Resolution Protocol) 스푸핑으로부터 보호되지 않습니다. Red Hat Enterprise Linux 8의 일부인 Ethernet bridge frame table 관리 버전(ebtables)은 Linux Bridge ML2 드라이버와 호환되지 않습니다.

Linux Bridge ML2 드라이버 및 에이전트는 Red Hat OpenStack Platform 11에서 더 이상 사용되지 않으므로 사용해서는 안 됩니다.

Red Hat OpenStack Platform director가 기본으로 배포한 ML2 OVN(Open Virtual Network) 드라이버 및 서비스를 대신 사용하는 것이 좋습니다.

BZ#1789822

오버클라우드 컨트롤러를 다시 배치하면 노드 간에 swift 링이 일관되지 않게 될 수 있습니다. 이로 인해 오브젝트 스토리지 서비스의 가용성이 저하될 수 있습니다. 이 문제가 발생하면 SSH를 사용하여 기존 컨트롤러 노드에 로그인하고, 업데이트된 링을 배포한 다음, Object Storage 컨테이너를 다시 시작합니다.

(undercloud) [stack@undercloud-0 ~]$ source stackrc
(undercloud) [stack@undercloud-0 ~]$ nova list
...
| 3fab687e-99c2-4e66-805f-3106fb41d868 | controller-1 | ACTIVE | -          | Running     | ctlplane=192.168.24.17 |
| a87276ea-8682-4f27-9426-6b272955b486 | controller-2 | ACTIVE | -          | Running     | ctlplane=192.168.24.38 |
| a000b156-9adc-4d37-8169-c1af7800788b | controller-3 | ACTIVE | -          | Running     | ctlplane=192.168.24.35 |
...

(undercloud) [stack@undercloud-0 ~]$ for ip in 192.168.24.17 192.168.24.38 192.168.24.35; do ssh $ip 'sudo podman restart swift_copy_rings ; sudo podman restart $(sudo podman ps -a --format="{{.Names}}" --filter="name=swift_*")'; done
BZ#1790467

Red Hat OpenStack Platform 16.0에는 OpenStack 인스턴스 설정에 필요한 메타데이터 정보를 사용할 수 없으며 해당 정보가 연결되지 않고 시작될 수 있다는 알려진 문제가 있습니다.

순서 문제로 인해 ovn_metadata_agent의 haproxy 래퍼가 업데이트되지 않습니다.

가능한 해결방법은 업데이트 후 클라우드 운영자가 선택한 노드에서 다음 Ansible 명령을 실행하여 ovn_metadata_agent를 재시작함으로써 ovn_metadata_agent가 업데이트된 버전의 haproxy 래퍼 스크립트를 사용하도록 하는 것입니다.

`ansible -b <nodes> -i /usr/bin/tripleo-ansible-inventory -m shell -a "status=`sudo systemctl is-active tripleo_ovn_metadata_agent`; if test \"$status\" == \"active\"; then sudo systemctl restart tripleo_ovn_metadata_agent; echo restarted; fi"`

위의 Ansible 명령에서 nodes는 단일 노드(예: compute-0), 모든 컴퓨팅 (예: compute*) 또는 "all"을 사용할 수 있습니다.

컴퓨팅 노드에 ovn_metadata_agent가 가장 일반적으로 사용되고 있으므로 다음 Ansible 명령을 실행하면 클라우드의 모든 컴퓨팅 노드의 에이전트가 재시작됩니다.

`ansible -b compute* -i /usr/bin/tripleo-ansible-inventory -m shell -a "status=`sudo systemctl is-active tripleo_ovn_metadata_agent`; if test \"$status\" == \"active\"; then sudo systemctl restart tripleo_ovn_metadata_agent; echo restarted; fi"`

ovn_metadata_agent 서비스를 재시작하면 서비스 시작 시 VM에 메타데이터를 제공할 수 있는 업데이트된 haproxy 래퍼 스크립트가 사용됩니다. 해결방법을 적용한 후 재시작하면 이미 실행 중인 영향을 받는 VM이 정상적으로 작동해야 합니다.

BZ#1793166

Red Hat OpenStack 16.0에는 SMT(동시 멀티 스레딩) 제어를 비활성화하지 않으면 KVM 게스트가 IBM POWER8 시스템에서 시작되지 않는다는 알려진 문제가 있습니다. SMT는 자동으로 비활성화되지 않습니다.

해결방법은 오버클라우드를 배포한 후 모든 IBM POWER8 Compute 노드에서 sudo ppc64_cpu --smt=off 및 후속 재부팅을 실행하는 것입니다.

BZ#1793440

Red Hat OpenStack 16.0에는 에이전트가 실제로 활성 상태이고 클라우드가 작동할 때 "openstack network agent list" 명령에서 간헐적으로 OVN 에이전트가 중단된 것으로 표시하는 알려진 문제가 있습니다.

영향을 받는 에이전트는 OVN Controller 에이전트, OVN Metadata 에이전트, OVN Controller Gateway 에이전트입니다.

현재 이 문제에 대한 해결방법이 없습니다. "openstack network agent list" 명령 출력을 무시해야 합니다.

BZ#1794328
로드 밸런싱 서비스(octavia)가 구성 가능 역할로 설정된 경우 Red Hat OpenStack Platform 16.0 오버클라우드 설치에 실패하는 알려진 문제가 있습니다. 현재 이 문제에 대해 확인된 해결방법이 없습니다. 자세한 내용은 BZ#의 https://bugzilla.redhat.com/show_bug.cgi?id=1794328을 참조하십시오.
BZ#1795165

OpenStack Networking(neutron)과 관련하여 생성된 모든 인스턴스가 내부 DNS에 대해 설정된 dns_domain 값이 아닌, 네트워크와 연결된 dns_domain 값을 상속하는 알려진 문제가 있습니다.

이 문제의 원인은 네트워크 dns_domain 속성이 중성자 dns_domain 설정 옵션을 덮어쓰기 때문입니다.

이 문제를 해결하려면 내부 DNS 기능을 사용해야 하는 경우 네트워크에 대해 dns_domain 속성을 설정하지 마십시오.

BZ#1795688

Novacontrol 역할을 사용할 때 필요에 따라 neutron_api 서비스에서 컨트롤러 노드에 배포된 배치 서비스에 액세스할 수 있도록 하려면 컨트롤러 환경 파일에 다음 hieradata 설정을 추가하십시오.

service_config_settings:
     placement:
         neutron::server::placement::password: <Nova password>
  neutron::server::placement::www_authenticate_uri: <Keystone Internal API URL>
  neutron::server::placement::project_domain_name: 'Default'
  neutron::server::placement::project_name: 'service'
  neutron::server::placement::user_domain_name: 'Default'
  neutron::server::placement::username: nova
  neutron::server::placement::auth_url: <Keystone Internal API URL>
  neutron::server::placement::auth_type: 'password'
  neutron::server::placement::region_name: <Keystone Region>

Puppet을 사용하여 역할에 대한 hieradata를 사용자 지정하는 방법에 대한 자세한 내용은 https://access.redhat.com/documentation/en-us/red_hat_openstack_platform/16.0/html-single/advanced_overcloud_customization/index#sect-Customizing_Puppet_Configuration_Data를 참조하십시오.

참고

이 설정은 Placement 서비스가 neutron_api와 동일한 노드에서 실행되지 않는 경우 사용자 지정 역할을 설정하고 오버클라우드를 배포할 때 필요합니다.

BZ#1795956

Red Hat OpenStack Platform 로드 밸런싱 서비스와 관련하여 노드를 재부팅할 때 컨테이너 octavia_api 및 octavia_driver_agent가 시작되지 않는 알려진 문제가 있습니다.

이 문제의 원인은 노드가 재부팅될 때 /var/run/octavia 디렉터리가 존재하지 않기 때문입니다.

이 문제를 해결하려면 /etc/tmpfiles.d/var-run-octavia.conf 파일에 다음 행을 추가하십시오.

d /var/run/octavia 0755 root root - -
BZ#1796215

Red Hat OpenStack Platform 16.0에는 오버클라우드 노드를 설정하는 동안 ansible-playbook이 제대로 작동하지 않을 수 있다는 알려진 문제가 있습니다. 이 문제의 원인은 tripleo-admin 사용자에게 ssh에 대한 권한이 없기 때문입니다. 또한 openstack overcloud deploy 명령 인수 -stack-only를 사용하여 tripleo-admin 사용자에게 권한을 부여하는 ssh admin 활성화 워크플로우를 더 이상 실행할 수 없습니다.

해결방법은 -stack-only 및 수동 config-download 명령을 사용할 때 openstack overcloud admin authorize 명령을 사용하여 ssh admin 활성화 워크플로우를 자체적으로 실행하는 것입니다. 자세한 내용은 director 설치 및 사용 가이드의 "프로비저닝 및 설정 프로세스 분리"를 참조하십시오.

BZ#1797047
Red Hat Ceph Storage 4.0에는 패키징 문제가 있습니다. 자세한 내용은 https://bugzilla.redhat.com/show_bug.cgi?id=1797075를 참조하십시오. 결과적으로 고객은 manila 액세스 목록을 사용할 수 없습니다. 파일 공유는 작동하지만 manila 액세스 목록이 없으면 파일 공유를 사용할 수 없습니다. 따라서 고객은 NFS를 통해 CephFS에서 파일 시스템 공유 서비스를 사용할 수 없습니다.
BZ#1797892

Red Hat OpenStack Platform 16.0에는 노드가 비정상적으로 종료된 후 노드가 다시 켜지면 podman에서 이전에 실행 중이던 컨테이너의 상태가"Created" 상태가 되는 알려진 문제가 있습니다.

이 문제의 원인은 메타데이터 에이전트가 이미 "Created" 상태이기 때문에 새 컨테이너를 생성하지 못하기 때문입니다. haproxy side-car 컨테이너 래퍼 스크립트는 상태가 "Exited"인 컨테이너에만 적용되고, 상태가 "Created”인 컨테이너는 정리되지 않습니다.

가능한 해결방법은 클라우드 운영자가 다음 Ansible ad-hoc 명령을 실행하여 상태가 "Created"인 haproxy 컨테이너를 모두 정리하는 것입니다. 특정 노드, 노드 그룹 또는 전체 클러스터의 언더클라우드에서 다음과 같은 Ansible ad-hoc 명령을 실행해야 합니다.

`ansible -b <nodes> -i /usr/bin/tripleo-ansible-inventory -m shell -a "podman ps -a --format {{'{{'}}.ID{{'}}'}} -f name=haproxy,status=created | xargs podman rm -f || :"`

위의 Ansible ad-hoc 명령에서 nodes를 인벤토리의 단일 호스트, 호스트 그룹 또는 "all"로 설정합니다.

다음은 compute-0에서 해당 명령을 실행하는 예제입니다.

`ansible -b compute-0 -i /usr/bin/tripleo-ansible-inventory -m shell -a "podman ps -a --format {{'{{'}}.ID{{'}}'}} -f name=haproxy,status=created | xargs podman rm -f || :"`

Ansible ad-hoc 명령을 실행한 후에는 metadata-agent에서 지정된 네트워크에 새 컨테이너를 생성해야 합니다.

3.1.6. 제거된 기능

BZ#1518222
Red Hat OpenStack Platform 16.0에서는 Telemetry 서비스의 일부인 ceilometer 클라이언트(이전 RHOSP 릴리스에서 더 이상 사용되지 않음)가 더 이상 지원되지 않으며 제거되었습니다. ceilometer는 에이전트 전용 서비스(클라이언트 및 API는 지원되지 않음)로 RHOSP에 계속 포함됩니다.
BZ#1631508

Red Hat OpenStack Platform 16.0에서는 controller-v6.yaml 파일이 제거되었습니다. controller-v6.yaml에 정의된 경로는 이제 controller.yaml에 정의되어 있습니다. (controller.yaml 파일은 role_data.yaml에 설정된 값에서 렌더링되는 NIC 설정 파일입니다.)

이전 버전의 Red Hat OpenStack director에는 외부 네트워크의 IPv6(기본) 및 컨트롤 플레인의 IPv4에 대한 두 가지 경로가 포함되었습니다.

두 기본 경로를 모두 사용하려면 roles_data.yaml의 컨트롤러 정의에 default_route_networks의 두 네트워크가 모두 포함되어 있는지 확인하십시오(예: default_route_networks: ['External', 'ControlPlane']).

BZ#1712981
Red Hat OpenStack Platform(RHOSP) 15에서는 Data Processing 서비스(sahara)가 더 이상 사용되지 않으며 RHOSP 16.0에서 제거될 예정입니다. Red Hat은 RHOSP 버전 13 및 15의 데이터 처리 서비스에 대한 지원을 계속 제공합니다.
BZ#1754560
Red Hat OpenStack Platform 16.0에서는 EC2(Elastic Compute Cloud) API가 더 이상 지원되지 않습니다. EC2 API 지원은 더 이상 director에서 사용되지 않으며 향후 RHOSP 릴리스에서 제거될 예정입니다.
BZ#1764894

Red Hat OpenStack Platform 16.0에서 환경 파일 /usr/share/openstack-tripleo-heat-templates/environments/deployed-server-bootstrap-environment-rhel.yaml이 제거되었습니다.

이 환경 파일은 이전에 사전 프로비저닝된 노드를 사용할 때 사용되었습니다. 이전 RHOSP 릴리스에서 사용되지 않았으며 현재는 제거되었습니다.

4장. 기술 노트

이 장에서는 콘텐츠 전송 네트워크(Content Delivery Network)를 통해 제공되는 Red Hat OpenStack Platform "Train" 에라타 권고의 추가 정보를 제공합니다.

4.1. RHEA-2020:0283 - Red Hat OpenStack Platform 16.0 일반 가용성 권고

이 섹션에 포함된 버그는 RHEA-2020:0283 권고에 의해 처리됩니다. 이 권고에 대한 자세한 내용은 https://access.redhat.com/errata/RHEA-2020:0283.html에서 확인하십시오.

배포 구성 요소 관련 변경 사항:

  • Red Hat OpenStack Platform 16.0에서는 Telemetry 서비스의 일부인 ceilometer 클라이언트(이전 RHOSP 릴리스에서 더 이상 사용되지 않음)가 더 이상 지원되지 않으며 제거되었습니다. ceilometer는 에이전트 전용 서비스(클라이언트 및 API는 지원되지 않음)로 RHOSP에 계속 포함됩니다. (BZ#1518222)

openstack-cinder 구성 요소 관련 변경 사항:

  • 이전에는 블록 스토리지 서비스(cinder) 볼륨 및 백업 모두에 대해 Red Hat Ceph Storage를 백엔드로 사용하면 전체 백업을 수행할 때마다첫 번째 전체 백업 이후경고 없이 증분 백업이 발생했습니다. Red Hat OpenStack Platform 16.0에서는 기술 프리뷰를 통해 이 문제가 해결되었습니다. (BZ#1375207)
  • Red Hat OpenStack Platform 블록 스토리지 서비스(cinder)는 볼륨을 복제할 때 암호화 키를 자동으로 변경합니다. 이 기능은 현재 Red Hat Ceph Storage를 cinder 백엔드로 사용하는 것을 지원하지 않습니다. (BZ#1545700)

openstack-glance 구성 요소 관련 변경 사항:

  • 이전에는 암호화된 블록 스토리지 서비스(cinder) 볼륨 이미지가 삭제될 때 해당 키가 삭제되지 않았습니다.

    Red Hat OpenStack Platform 16.0에서는 이 문제가 해결되었습니다. 이미지 서비스에서 cinder 볼륨 이미지를 삭제할 때 이미지에 대한 키도 삭제됩니다. (BZ#1481814)

  • Red Hat OpenStack Platform 16.0은 이미지를 미리 캐시하는 이미지 서비스(glance)에 기술 프리뷰가 추가되어 운영자가 인스턴스를 부팅하기 전에 캐시를 준비할 수 있습니다. (BZ#1706896)

openstack-heat 구성 요소 관련 변경 사항:

  • Red Hat OpenStack Platform Orchestration 서비스(heat)에 Glance v2 API를 사용하여 URL에서 이미지 서비스(glance) 이미지를 생성하는 데 사용되는 새로운 리소스 유형, OS::Glance::WebImage가 포함되었습니다. 이 새 리소스 유형은 이전의 리소스 유형인 OS::Glance::Image를 대체합니다. (BZ#1649264)

openstack-keystone 구성 요소 관련 변경 사항:

  • Keystone에서 Red Hat OpenStack Platform director 배포 후 시스템에 존재하는 기본 역할로 이루어진 기본 세트(예: admin, member, reader)를 지원합니다. 이러한 기본 역할은 모든 권한 부여 대상(예: 시스템, 도메인, 프로젝트)의 기본 director 정책에 통합됩니다. (BZ#1228474)

openstack-manila 구성 요소 관련 변경 사항:

  • Red Hat OpenStack Platform 16.0에서는 IPv6용 공유 파일 시스템 서비스(manila)가 CephFS NFS 드라이버에서 작동하도록 기술 프리뷰가 추가되었습니다. (BZ#1575079)

openstack-neutron 구성 요소 관련 변경 사항:

  • Linux Bridge ML2 드라이버 및 에이전트를 사용하는 Red Hat OpenStack Platform 배포는 ARP(Address Resolution Protocol) 스푸핑으로부터 보호되지 않습니다. Red Hat Enterprise Linux 8의 일부인 Ethernet bridge frame table 관리 버전(ebtables)은 Linux Bridge ML2 드라이버와 호환되지 않습니다.

    Linux Bridge ML2 드라이버 및 에이전트는 Red Hat OpenStack Platform 11에서 더 이상 사용되지 않으므로 사용해서는 안 됩니다.

    Red Hat OpenStack Platform director가 기본으로 배포한 ML2 OVN(Open Virtual Network) 드라이버 및 서비스를 대신 사용하는 것이 좋습니다. (BZ#1779221)

  • 유동 IP 주소의 TCP, UDP 또는 기타 프로토콜 포트에서 중성자 포트의 고정 IP 주소 중 하나와 연결된 TCP, UDP 또는 기타 프로토콜 포트로 트래픽을 전달할 수 있습니다. 전달된 트래픽은 중성자 API에 대한 개선 사항 및 OpenStack Networking 플러그인에 의해 관리됩니다. 유동 IP 주소에는 전송 정의를 두 개 이상 설정할 수 있습니다. 그러나 기존 연결이 있는 IP 주소의 트래픽은 OpenStack Networking 포트로 전달할 수 없습니다. 네트워크의 중앙 집중식 라우터에서 관리하는 유동 IP 주소에 대해서만 트래픽을 전달할 수 있습니다(기존, HA, DVR+HA).

    유동 IP 주소 포트에 대한 트래픽을 전달하려면 다음 OpenStack Networking 플러그인 명령을 사용하십시오.

    openstack floating ip port forwarding create
    --internal-ip-address <internal-ip-address>
    --port <port>
    --internal-protocol-port <port-number>
    --external-protocol-port <port-number>
    --protocol <protocol>
    <floating-ip>

    --internal-ip-address <internal-ip-address> 전송된 트래픽을 수신할 중성자 포트의 고정 IPv4 내부 IP 주소입니다.

    --port <port> 전송된 트래픽을 수신할 Neutron 포트의 이름 또는 ID입니다.

    --internal-protocol-port <port-number> 전송된 트래픽을 수신할 Neutron의 프로토콜 포트 번호인 고정 IP 주소입니다.

    --external-protocol-port <port-number> 해당 트래픽을 전송할 유동 IP 주소 포트의 프로토콜 포트 번호입니다.

    --protocol <protocol> 유동 IP 주소의 포트에서 사용하는 프로토콜입니다(예: TCP, UDP).

    <floating-ip> 해당 트래픽을 전달할 포트의 유동 IP(IP 주소 또는 ID)입니다.

    예를 들면 다음과 같습니다.

    openstack floating ip port forwarding create \ --internal-ip-address 192.168.1.2 \ --port f7a08fe4-e79e-4b67-bbb8-a5002455a493 \ --internal-protocol-port 18343 \ --external-protocol-port 8343 \ --protocol tcp \ 10.0.0.100 (BZ#1749483)

openstack-nova 구성 요소 관련 변경 사항:

  • 이 기능 향상을 통해 NUMA 토폴로지를 사용하는 인스턴스의 실시간 마이그레이션 지원이 추가되었습니다. 이전에는 이 동작이 기본적으로 비활성화되어 있었습니다. ‘[workarounds] enable_numa_live_migration’ 구성 옵션을 사용하여 활성화할 수 있지만 이러한 인스턴스를 실시간 마이그레이션하면 기본 NUMA 게스트-호스트 매핑 또는 리소스 사용량을 업데이트하지 않고 대상 호스트로 이동하게 되므로 기본값은 False입니다. 새 NUMA 인식 실시간 마이그레이션 기능을 사용할 때 인스턴스를 대상에 설치할 수 없는 경우 요청에 대체 대상이 설정된 경우 대체 대상에서 실시간 마이그레이션이 시도됩니다. 인스턴스를 대상에 설치할 수 있는 경우 새 호스트를 반영하기 위해 NUMA 게스트-호스트 매핑이 다시 계산되고 해당 리소스 사용량이 업데이트됩니다. (BZ#1222414)
  • 이 기능 향상을 통해 SR-IOV 기반 중성자 인터페이스가 연결된 인스턴스의 실시간 마이그레이션 지원이 추가되었습니다. Neutron SR-IOV 인터페이스는 직접 모드와 간접 모드의 두 범주로 그룹화할 수 있습니다. 직접 모드 SR-IOV 인터페이스는 게스트에 직접 연결되고 게스트 OS에 노출됩니다. 간접 모드 SR-IOV 인터페이스에는 게스트와 SR-IOV 장치 사이에 소프트웨어 인터페이스(예: macvtap)가 있습니다. 이 기능을 사용하면 간접 모드 SR-IOV 장치가 있는 인스턴스를 투명하게 실시간 마이그레이션할 수 있습니다. 실시간 마이그레이션 중에는 일반적인 방법으로 하드웨어 상태를 복사할 수 없으므로 직접 모드 마이그레이션은 게스트에 투명하지 않습니다. 직접 모드 인터페이스의 경우 일시 중단 및 재개를 위해 기존 워크플로우를 시뮬레이션합니다. 예를 들면 SR-IOV 장치를 사용하여 마이그레이션 이전에 직접 모드 인터페이스를 분리하고 마이그레이션 이후 다시 연결합니다. 결과적으로 게스트 내에서 실시간 마이그레이션이 가능한 인터페이스와의 결합이 생성되지 않는 한 직접 모드 SR-IOV 포트가 있는 인스턴스의 네트워크 연결이 마이그레이션 중 끊어집니다.

    이전에는 SR-IOV 기반 네트워크 인터페이스를 사용하여 인스턴스를 실시간 마이그레이션할 수 없었습니다. 실시간 마이그레이션이 호스트 유지 관리 및 유사한 작업에 자주 사용되므로 문제가 되었습니다. 이전에는 인스턴스를 콜드 마이그레이션해야 했으며 이로 인해 게스트에 다운타임이 발생했습니다.

    이 기능 향상으로 인해 인스턴스가 SR-IOV 기반 네트워크 인터페이스를 통해 실시간 마이그레이션됩니다. (BZ#1360970)

  • Red Hat OpenStack Platform 16.0에서는 네트워크 인터페이스를 생성할 때 QoS 최소 대역폭 규칙을 지정할 수 있습니다. 이 향상된 기능을 통해 인스턴스에 지정된 네트워크 사용 가능한 대역폭이 있는지 확인합니다. 현재는 크기 변경 및 콜드 마이그레이션 작업만 지원됩니다. (BZ#1463838)
  • 인스턴스를 재구축할 때 NUMATopologyFilter가 비활성화됩니다. 이전에는 새 이미지와 기존 인스턴스 유형을 사용하여 호스트에 두 번째 인스턴스를 위한 추가 용량이 충분히 있는 경우에만 필터링이 항상 실행되고 리빌드가 완료되었습니다. 이는 잘못된 불필요한 동작입니다. (BZ#1775246)
  • 인스턴스 수준에 따라 PCI NUMA 선호도를 설정할 수 있습니다. 이러한 작업은 SR-IOV 기반 네트워크 인터페이스로 인스턴스의 NUMA 선호도를 설정하는 데 필요합니다. 이전에는 PCI 통과 장치에 대해 호스트 수준에서만 NUMA 선호도를 설정할 수 있었습니다. (BZ#1775575)
  • 이 기능 향상을 통해 동일한 계산 노드에 다음 매개변수를 사용하여 전용(고정) 및 공유(고정 해제) 인스턴스를 예약할 수 있습니다.

    • NovaComputeCpuDedicatedSet - 고정 인스턴스 CPU 프로세스를 예약할 수 있는 쉼표로 구분된 물리적 호스트 CPU 목록 또는 범위입니다. 더 이상 사용되지 않는 NovaVcpuPinSet 매개변수를 대체합니다.
    • NovaComputeCpuSharedSet - vCPU 인벤토리를 제공하고, 고정 해제된 인스턴스를 예약할 수 있는 호스트 CPU를 확인하고, 공유 에뮬레이터 스레드 정책, hw:emulator_threads_policy=share를 사용하여 설정된 인스턴스에 대해 에뮬레이터 스레드를 오프로드해야 하는 호스트 CPU를 확인하는 데 사용되는 쉼표로 구분된 물리적 호스트 CPU 목록 또는 범위입니다. 참고: 이 옵션은 이전에도 있었지만 이 기능을 통해 사용 용도가 확장되었습니다.

      이러한 인스턴스 유형을 별도의 호스트에서 실행하기 위해 호스트 집계를 사용할 필요가 없습니다. 또한 [DEFAULT] reserved_host_cpus 구성 옵션이 더 이상 필요하지 않으며 설정을 해제할 수 있습니다.

      업그레이드하려면 다음을 수행하십시오.

    • 이전에 고정 인스턴스에 사용된 호스트의 경우 NovaVcpuPinSet의 값을 NovaComputeCpuDedicatedSet로 마이그레이션해야 합니다.
    • 이전에 고정 해제된 인스턴스에 사용된 호스트의 경우 NovaVcpuPinSet의 값을 NovaComputeCpuSharedSet로 마이그레이션해야 합니다.
    • NovaVcpuPinSet에 대한 값 설정이 없는 경우 실행되고 있는 인스턴스의 유형에 따라 모든 호스트 코어를 NovaComputeCpuDedicatedSet 또는 NovaComputeCpuSharedSet에 할당해야 합니다.

      업그레이드가 완료되면 동일한 호스트에서 두 옵션을 모두 설정할 수 있습니다. 그러나 이를 수행하기 위해서는 고정 해제된 인스턴스의 코어가 NovaComputeCpuSharedSet 목록에 포함되지 않은 경우 nova가 시작되지 않고 그 반대의 경우도 마찬가지이므로 호스트에서 인스턴스를 제거해야 합니다. (BZ#1693372)

openstack-octavia 구성 요소 관련 변경 사항:

  • 이제 Octavia API를 사용하여 리스너로 들어오는 트래픽을 일련의 허용된 소스 IP 주소(CIDR)로 제한하는 VIP ACL(액세스 제어 목록)을 생성할 수 있습니다. 기타 들어오는 트래픽은 거부됩니다. 자세한 내용은 "네트워킹 가이드"의 "액세스 제어 목록을 사용한 로드 밸런서 보안"을 참조하십시오. (BZ#1691025)
  • Red Hat OpenStack Platform 16.0의 로드 밸런싱 서비스(octavia)에는 UDP 프로토콜에 대한 기술 프리뷰가 있습니다. (BZ#1703956)

openstack-placement 구성 요소 관련 변경 사항:

  • 배치 서비스가 Compute(nova) 서비스에서 추출되었습니다. 이제 director에 의해 배포 및 관리되고 언더클라우드 및 오버클라우드 컨트롤러 노드에서 추가 컨테이너로 실행됩니다. (BZ#1625244)

openstack-tripleo-common 구성 요소 관련 변경 사항:

  • Red Hat OpenStack Platform 16.0에는 다음을 수행하여 암호 교체를 구현할 수 있는 워크플로우 서비스(mistral) 작업이 기술 프리뷰에 추가되어 있습니다.

    • 암호 교체 워크플로우를 실행하여 새 암호를 생성하고 계획 환경에 저장합니다.
    • 오버클라우드를 재배포합니다.

      암호를 변경한 후 암호를 가져올 수도 있습니다.

      암호 교체를 구현하려면 다음 단계를 수행하십시오.

      참고

      워크플로우 작업에서는 기본 암호를 변경합니다. 이 작업에서는 사용자가 제공한 환경 파일에 지정된 암호는 변경하지 않습니다.

      1. 새 워크플로우 작업을 실행하여 암호를 재생성합니다.

        $ source ./stackrc
        $ openstack workflow execution create tripleo.plan_management.v1.rotate_passwords '{"container": "overcloud"}'
        This command generates new passwords for all passwords except for BarbicanSimpleCryptoKek and KeystoneFernet* and KeystoneCredential*. There are special procedures to rotate these passwords.
        It is also possible to specify specific passwords to be rotated. The following command rotates only the specified passwords.
        $ openstack workflow execution create tripleo.plan_management.v1.rotate_passwords '{"container": "overcloud", "password_list": ["BarbicanPassword", "SaharaPassword", "ManilaPassword"]}'
      2. 오버클라우드를 재배포합니다.

        $ ./overcloud-deploy.sh

        암호 (새로 생성된 암호 포함)를 검색하려면 다음 단계를 수행하십시오.

      3. 다음 명령을 실행합니다.

        $ openstack workflow execution create tripleo.plan_management.v1.get_passwords '{"container": "overcloud"}'
        You should see output from the command, similar to the following:
        +--------------------+---------------------------------------------+
        | Field              | Value                                       |
        +--------------------+---------------------------------------------+
        | ID                 | edcf9103-e1a8-42f9-85c1-e505c055e0ed        |
        | Workflow ID        | 8aa2ac9b-22ee-4e7d-8240-877237ef0d0a        |
        | Workflow name      | tripleo.plan_management.v1.rotate_passwords |
        | Workflow namespace |                                             |
        | Description        |                                             |
        | Task Execution ID  | <none>                                      |
        | Root Execution ID  | <none>                                      |
        | State              | RUNNING                                     |
        | State info         | None                                        |
        | Created at         | 2020-01-22 15:47:57                         |
        | Updated at         | 2020-01-22 15:47:57                         |
        +--------------------+---------------------------------------------+
        In the earlier example output, the value of State is RUNNING. State should eventually read SUCCESS.
      4. State 값을 다시 확인합니다.

        $ openstack workflow execution show edcf9103-e1a8-42f9-85c1-e505c055e0ed
        +--------------------+---------------------------------------------+
        | Field              | Value                                       |
        +--------------------+---------------------------------------------+
        | ID                 | edcf9103-e1a8-42f9-85c1-e505c055e0ed        |
        | Workflow ID        | 8aa2ac9b-22ee-4e7d-8240-877237ef0d0a        |
        | Workflow name      | tripleo.plan_management.v1.rotate_passwords |
        | Workflow namespace |                                             |
        | Description        |                                             |
        | Task Execution ID  | <none>                                      |
        | Root Execution ID  | <none>                                      |
        | State              | SUCCESS                                     |
        | State info         | None                                        |
        | Created at         | 2020-01-22 15:47:57                         |
        | Updated at         | 2020-01-22 15:48:39                         |
        +--------------------+---------------------------------------------+
      5. State 값이 SUCCESS인 경우 암호를 검색할 수 있습니다.

        $ openstack workflow execution output show edcf9103-e1a8-42f9-85c1-e505c055e0ed
        You should see output similar to the following:
           {
               "status": "SUCCESS",
               "message": {
                   "AdminPassword": "FSn0sS1aAHp8YK2fU5niM3rxu",
                   "AdminToken": "dTP0Wdy7DtblG80M54r4a2yoC",
                   "AodhPassword": "fB5NQdRe37BaBVEWDHVuj4etk",
                   "BarbicanPassword": "rn7yk7KPafKw2PWN71MvXpnBt",
                   "BarbicanSimpleCryptoKek": "lrC3sGlV7-D7-V_PI4vbDfF1Ujm5OjnAVFcnihOpbCg=",
                   "CeilometerMeteringSecret": "DQ69HdlJobhnGWoBC0jM3drPF",
                   "CeilometerPassword": "qI6xOpofuiXZnG95iUe8Oxv5d",
                   "CephAdminKey": "AQDGVPpdAAAAABAAZMP56/VY+zCVcDT81+TOjg==",
                   "CephClientKey": "AQDGVPpdAAAAABAAanYtA0ggpcoCbS1nLeDN7w==",
                   "CephClusterFSID": "141a5ede-21b4-11ea-8132-52540031f76b",
                   "CephDashboardAdminPassword": "AQDGVPpdAAAAABAAKhsx630YKDhQrocS4o4KzA==",
                   "CephGrafanaAdminPassword": "AQDGVPpdAAAAABAAKBojG+CO72B0TdBRR0paEg==",
                   "CephManilaClientKey": "AQDGVPpdAAAAABAAA1TVHrTVCC8xQ4skG4+d5A=="
               }
           }
        (BZ#1600967)

openstack-tripleo-heat-templates 구성 요소 관련 변경 사항:

  • Nova-compute ironic 드라이버에서 BM 노드를 정리하는 동안 해당 노드의 업데이트를 시도합니다. 정리 작업에는 약 5분이 소요되며 nova-compute에서는 2분 정도 노드 업데이트를 시도합니다. 제한 시간이 지나면 nova-compute가 중지되고 nova 인스턴스가 ERROR 상태가 됩니다.

    이 문제를 해결하려면 nova-compute 서비스에 대해 다음 설정 옵션을 정의하십시오.

    [ironic]
    api_max_retries = 180

    그 결과 nova-compute가 BM 노드 업데이트를 계속 시도하고 결국 성공합니다. (BZ#1647005)

  • Red Hat OpenStack Platform 16.0에는 OpenStack 인스턴스 설정에 필요한 메타데이터 정보를 사용할 수 없으며 해당 정보가 연결되지 않고 시작될 수 있다는 알려진 문제가 있습니다.

    순서 문제로 인해 ovn_metadata_agent의 haproxy 래퍼가 업데이트되지 않습니다.

    가능한 해결방법은 업데이트 후 클라우드 운영자가 선택한 노드에서 다음 Ansible 명령을 실행하여 ovn_metadata_agent를 재시작함으로써 ovn_metadata_agent가 업데이트된 버전의 haproxy 래퍼 스크립트를 사용하도록 하는 것입니다.

    ansible -b <nodes> -i /usr/bin/tripleo-ansible-inventory -m shell -a "status=`sudo systemctl is-active tripleo_ovn_metadata_agent; if test \"$status\" == \"active\"; then sudo systemctl restart tripleo_ovn_metadata_agent; echo restarted; fi"`

    위의 Ansible 명령에서 nodes는 단일 노드(예: compute-0), 모든 컴퓨팅 (예: compute*) 또는 "all"을 사용할 수 있습니다.

    컴퓨팅 노드에 ovn_metadata_agent가 가장 일반적으로 사용되고 있으므로 다음 Ansible 명령을 실행하면 클라우드의 모든 컴퓨팅 노드의 에이전트가 재시작됩니다.

    ansible -b compute* -i /usr/bin/tripleo-ansible-inventory -m shell -a "status=`sudo systemctl is-active tripleo_ovn_metadata_agent; if test \"$status\" == \"active\"; then sudo systemctl restart tripleo_ovn_metadata_agent; echo restarted; fi"`

    ovn_metadata_agent 서비스를 재시작하면 서비스 시작 시 VM에 메타데이터를 제공할 수 있는 업데이트된 haproxy 래퍼 스크립트가 사용됩니다. 해결방법을 적용한 후 재시작하면 이미 실행 중인 영향을 받는 VM이 정상적으로 작동해야 합니다. (BZ#1790467)

  • Red Hat OpenStack Platform 16.0 director는 다중 컴퓨팅 셀 배포를 지원합니다. 이 향상된 기능을 사용하면 개별 셀마다 셀 컨트롤러에 자체 데이터베이스 및 메시지 큐가 있어 중앙 컨트롤 플레인의 부하가 감소하기 때문에 클라우드를 더 좋은 위치에 배포 확장할 수 있습니다. 자세한 내용은 “인스턴스 및 이미지” 가이드의 “컴퓨팅 셀을 사용한 배포 확장”을 참조하십시오. (BZ#1328124)
  • 이 업데이트부터 모든 OVN 서비스 간에 OSP 배포가 완전히 암호화됩니다. 모든 OVN 클라이언트(ovn-controller, neutron-server, ovn-metadata-agent)가 상호 TLS 암호화를 사용하여 OVSDB 서버에 연결됩니다. (BZ#1601926)
  • Red Hat OpenStack Platform 16.0에는 rsyslog 변경 사항에 대한 오케스트레이션 서비스(heat)에 기술 프리뷰가 추가되었습니다.

    • Rsyslog는 fluentd 설치 및 기능과 동등한 컨테이너 로그를 수집하고 전달하도록 설정되어 있습니다.
    • 관리자는 fluentd와 동일한 방식으로 rsyslog 로그 전달을 설정할 수 있습니다. (BZ#1623152)
  • Red Hat OpenStack Platform 16.0에서는 director를 사용하여 가용 영역을 블록 스토리지 서비스(cinder) 백엔드 유형으로 지정할 수 있습니다. (BZ#1700396)
  • Red Hat OpenStack Platform director를 사용하면 배포 중 시스템 프로비저닝에 필요한 베어 메탈 프로비저닝 실행자 서비스 리소스를 추가하는 데 사용할 수 있는 추가 노드를 배포할 수 있습니다. (BZ#1710093)
  • Red Hat OpenStack Platform 16.0에서는 EC2(Elastic Compute Cloud) API가 더 이상 지원되지 않습니다. EC2 API 지원은 더 이상 director에서 사용되지 않으며 향후 RHOSP 릴리스에서 제거될 예정입니다. (BZ#1754560)
  • Red Hat OpenStack Platform 16.0에서는 controller-v6.yaml 파일이 제거되었습니다. controller-v6.yaml에 정의된 경로는 이제 controller.yaml에 정의되어 있습니다. (controller.yaml 파일은 role_data.yaml에 설정된 값에서 렌더링되는 NIC 설정 파일입니다.)

    이전 버전의 Red Hat OpenStack director에는 외부 네트워크의 IPv6(기본) 및 컨트롤 플레인의 IPv4에 대한 두 가지 경로가 포함되었습니다.

    두 기본 경로를 모두 사용하려면 roles_data.yaml의 컨트롤러 정의에 default_route_networks의 두 네트워크가 모두 포함되어 있는지 확인하십시오(예: default_route_networks: ['External', 'ControlPlane']). (BZ#1631508)

  • Red Hat OpenStack Platform 16.0에서는 ceph.conf의 모든 섹션에 사용자 정의 Red Hat Ceph Storage 설정을 추가할 수 있습니다. 이전에는 ceph.conf의 [global] 섹션에서만 사용자 정의 설정이 허용되었습니다. (BZ#1666973)
  • Red Hat OpenStack Platform 16.0에서는 관리자가 셀 컨트롤러에서 nova 메타데이터 서비스를 켤 수 있는 새 오케스트레이션 서비스(heat) 배포 매개변수를 사용할 수 있습니다.

    parameter_defaults:
       NovaLocalMetadataPerCell: True

    이 새 매개변수는 셀 계산에서 OVN 메타데이터 에이전트의 트래픽을 셀 컨트롤러에서 호스팅되는 nova 메타데이터 API 서비스로 자동 지정합니다.

    RHOSP 토폴로지에 따라 셀 컨트롤러에서 메타데이터 서비스를 실행하는 기능을 통해 중앙 컨트롤 플레인의 트래픽을 줄일 수 있습니다. (BZ#1689816)

  • Red Hat OpenStack Platform 16.0에는 오케스트레이션 서비스(heat)에 기술 프리뷰가 추가되어 있습니다. 이미지 유형(scheduler/query_placement_for_image_type_support)에 대한 Compute 서비스(nova) 배치 및 스케줄러 구성 요소 쿼리 배치를 제어하는 새 매개변수 NovaSchedulerQueryImageType이 추가되었습니다.

    true(기본값)로 설정하면 NovaSchedulerQueryImageType이 부팅 요청에 사용된 이미지의 디스크 형식을 지원하지 않는 계산 노드를 제외합니다.

    예를 들어, libvirt 드라이버는 Red Hat Ceph Storage를 Ephemeral 백엔드로 사용하며 qcow2 이미지를 지원하지 않습니다(비용이 많이 드는 변환 단계 제외). 이 경우 NovaSchedulerQueryImageType을 활성화하면 스케줄러에서 Red Hat Ceph Storage를 사용하는 컴퓨팅 노드에 qcow2 이미지 부팅 요청을 보내지 않습니다. (BZ#1710634)

puppet-tripleo 구성 요소 관련 변경 사항:

  • Red Hat OpenStack Platform director에서 Redfish API의 펜싱 에이전트인 fence_redfish의 기술 프리뷰를 제공합니다. (BZ#1699449)

python-django-horizon 구성 요소 관련 변경 사항:

  • Red Hat OpenStack Platform 16.0 대시보드(horizon)에는 사용자 암호를 변경할 수 있는 새로운 양식이 있습니다. 이 양식은 사용자가 만료된 암호로 로그인할 때 자동으로 표시됩니다. (BZ#1628541)

python-networking-ansible 구성 요소 관련 변경 사항:

  • Red Hat OpenStack Platform 16.0에서는 OpenStack Bare Metal 서비스(ironic)에 기술 프리뷰가 추가되어 Arista EOS(Arista Extensible Operating System) 스위치를 사용하여 ML2 networking-ansible 기능을 설정할 수 있습니다. 자세한 내용은 베어 메탈 프로비저닝 가이드의 "networking-ansible ML2 기능 활성화"를 참조하십시오. (BZ#1621701)
  • Red Hat OpenStack Platform 16.0에는 스위치 포트를 수정하여 트렁크 모드로 전환하고 VLAN을 두 개 이상 할당할 수 있는 기술 프리뷰가 추가되었습니다. (BZ#1622233)

python-networking-ovn 구성 요소 관련 변경 사항:

  • Red Hat OpenStack Platform 16.0에서는 플래그 live_migration_wait_for_vif_plug가 기본적으로 활성화되어 있으므로 OVN이 활성화된 실시간 마이그레이션을 성공적으로 실행할 수 있습니다.

    이전에는 OpenStack Networking(neutron)에서 vif_plugged 알림을 보낼 때까지 시스템이 대기 상태가 되었으므로 실시간 마이그레이션에 실패했습니다. (BZ#1716335)

  • 현재는 멤버에서 데이터를 가져올 때 OVN 로드 밸랜서에서 새 연결을 시작하지 않습니다. 로드 밸런서는 대상 주소와 대상 포트를 수정하고 요청 패킷을 멤버로 보냅니다. 그 결과 IPv4로드 밸런서 주소를 사용하는 동안 IPv6 멤버를 정의할 수 없으며 그 반대의 경우도 마찬가지입니다. 현재 이 문제에 대한 해결방법이 없습니다. (BZ#1734301)

python-novajoin 구성 요소 관련 변경 사항:

  • 이전에는 Novajoin과 IPA 서버의 연결이 끊어지면 즉시 다시 연결을 시도했습니다. 그 결과 타이밍 문제가 발생하여 다시 연결되지 않을 수 있었습니다. 이 업데이트를 통해 retry_delay를 사용하여 IPA 서버 연결을 다시 시도하기 까지 대기 시간 (초)을 설정할 수 있습니다. 그 결과 타이밍 문제가 발생할 가능성이 감소됩니다. (BZ#1767481)

python-oslo-utils 구성 요소 관련 변경 사항:

  • 이전에는 oslo.util 라이브러리의 정규식이 업데이트되지 않았으며 최신 버전의 에뮬레이터 QEMU(버전 4.1.0)의 출력 형식을 인식하지 못했습니다. Red Hat OpenStack 16.0에서 이러한 수정 사항을 통해 정규식이 업데이트되어 oslo.util.imageutils 라이브러리가 올바르게 작동합니다. (BZ#1758302)

python-tripleoclient 구성 요소 관련 변경 사항:

  • director에서 언더클라우드 서비스를 강화하기 위해 추가 호스트를 설정하는 데 사용할 수 있는 overcloud undercloud minion install 명령이 추가되었습니다. (BZ#1710089)
  • director는 배포 관련 작업을 위해 heat-engine 리소스를 추가하는 데 사용할 수 있는 추가 노드 배포 기능을 제공합니다. (BZ#1710092)
  • Red Hat OpenStack Platform 16.0에서는 로컬 레지스트리에서 이미지를 푸시, 나열, 삭제, 표시(메타데이터 표시)할 수 있습니다.

    • 원격 리포지토리에서 기본 리포지토리로 이미지를 푸시하려면 다음을 수행하십시오.

      $ sudo openstack tripleo container image push docker.io/library/centos
    • 리포지토리의 내용을 나열하려면 다음을 수행하십시오.

      $ openstack tripleo container image list
    • 이미지를 삭제하려면 다음을 수행하십시오.

      $ sudo openstack tripleo container image delete
    • 이미지에 대한 메타데이터를 표시하려면 다음을 수행하십시오.

      $ openstack tripleo container image show (BZ#1545855)
  • 이 기능 향상을 통해 작업이 의도하지 않게 수행될 가능성을 줄이기 위해 오버클라우드 노드를 삭제하는 경우 작업을 수행하기 전에 사용자 확인이 필요합니다. openstack overcloud node delete <node> 명령의 동작이 실행되려면 Y/n 확인이 필요합니다. 명령행에 --yes를 추가하여 바이패스할 수 있습니다. (BZ#1593057)