Red Hat Training

A Red Hat training course is available for Red Hat OpenStack Platform

릴리스 노트

Red Hat OpenStack Platform 13

Red Hat OpenStack Platform 13 릴리스 세부 정보

초록

이 문서에서는 Red Hat OpenStack Platform의 주요 기능, 기능 향상 및 알려진 문제에 대해 간단히 설명합니다.

1장. 소개

1.1. 릴리스 정보

이번 Red Hat OpenStack Platform 릴리스는 OpenStack "Queens" 릴리스를 기반으로 합니다. 이 릴리스에는 Red Hat OpenStack Platform과 관련된 추가 기능, 알려진 문제, 해결된 문제가 포함되어 있습니다.

이 문서에는 Red Hat OpenStack Platform과 관련된 변경 사항만 포함되어 있습니다. OpenStack "Queens" 릴리스 자체에 대한 릴리스 노트는 https://releases.openstack.org/queens/index.html 에서 확인할 수 있습니다.

Red Hat OpenStack Platform은 다른 Red Hat 제품의 구성 요소를 사용합니다. 이러한 구성 요소 지원과 관련된 자세한 내용은 다음 링크를 참조하십시오.

https://access.redhat.com/site/support/policy/updates/openstack/platform/

Red Hat OpenStack Platform을 사용해 보려면 다음을 수행하십시오.

http://www.redhat.com/openstack/.

참고

Red Hat Enterprise Linux High Availability Add-On은 Red Hat OpenStack Platform 사용 사례에서 사용할 수 있습니다. 애드온에 대한 자세한 내용은 다음 URL을 참조하십시오. http://www.redhat.com/products/enterprise-linux-add-ons/high-availability/. Red Hat OpenStack Platform과 함께 사용할 패키지 버전에 대한 자세한 내용은 다음 URL을 참조하십시오: https://access.redhat.com/site/solutions/509783

1.2. 요구 사항

Red Hat OpenStack Platform은 Red Hat Enterprise Linux 7의 최신 릴리스만 지원합니다.

Red Hat OpenStack Platform 대시보드(horizon)는 OpenStack 리소스 및 서비스를 관리할 수 있는 웹 기반 인터페이스입니다. 이 릴리스의 대시보드는 다음 웹 브라우저의 최신 버전을 지원합니다.

  • Chrome
  • Firefox
  • Firefox ESR
  • Internet Explorer 11 이상(호환 모드 비활성화)

    참고

    Internet Explorer 11을 사용하여 대시보드를 표시할 수 있지만 브라우저가 더 이상 유지 관리되지 않기 때문에 일부 기능이 저하될 수 있습니다.

1.3. 배포 제한

Red Hat OpenStack Platform 배포 제한 목록은 Deployment Limits for Red Hat OpenStack Platform 문서를 참조하십시오.

1.4. 데이터베이스 크기 관리

Red Hat OpenStack Platform 환경에서 MariaDB 데이터베이스의 크기를 유지 관리하는 방법에 대한 권장 사항은 Database Size Management for Red Hat Enterprise Linux OpenStack Platform 문서를 참조하십시오.

1.5. 인증 드라이버 및 플러그인

Red Hat OpenStack Platform 인증 드라이브 및 플러그인 목록은 Component, Plug-In, and Driver Support in Red Hat OpenStack Platform 문서를 참조하십시오.

1.6. 인증된 게스트 운영 체제

Red Hat OpenStack Platform 인증된 게스트 운영 체제 목록은 Certified Guest Operating Systems in Red Hat OpenStack Platform and Red Hat Enterprise Virtualization 문서를 참조하십시오.

1.7. Bare Metal Provisioning 지원 운영 체제

Bare Metal Provisioning(ironic)을 통해 Red Hat OpenStack Platform의 베어 메탈 노드에 설치할 수 있는 지원되는 게스트 운영 체제 목록은 Bare Metal Provisioning(ironic)으로 배포 가능한 지원 운영 체제를 참조하십시오.

1.8. 하이퍼바이저 지원

Red Hat OpenStack Platform은 libvirt 드라이버에서만 사용할 수 있습니다(Compute 노드에서 하이퍼바이저로 KVM 사용).

Ironic은 Red Hat OpenStack Platform 7(Kilo) 릴리스부터 완전 지원됩니다. Ironic을 사용하면 일반적인 기술(예: PXE 부팅 및 IPMI)을 사용하여 베어 메탈 머신을 프로비저닝하여 다양한 하드웨어를 지원하는 동시에 플러그형 드라이버를 지원하여 벤더별 기능을 추가할 수 있습니다.

Red Hat은 더 이상 사용되지 않는 VMware의 "direct-to-ESX" 하이퍼바이저 및 비KVM libvirt 하이퍼바이저와 같은 기타 Compute 가상화 드라이버를 지원하지 않습니다.

1.9. CDN(Content Delivery Network) 리포지토리

이 섹션에서는 Red Hat OpenStack Platform 13을 배포하는 데 필요한 리포지토리 설정을 설명합니다.

CDN(Content Delivery Network)을 통해 Red Hat OpenStack Platform 13을 설치할 수 있습니다. 이를 위해 올바른 리포지토리를 사용하도록 subscription-manager 를 구성합니다.

다음 명령을 실행하여 CDN 리포지토리를 활성화합니다.

#subscription-manager repos --enable=[reponame]

다음 명령을 실행하여 CDN 리포지토리를 비활성화합니다.

#subscription-manager repos --disable=[reponame]

표 1.1. 필수 리포지토리(x86_64)

리포지터리 이름리포지터리 라벨

Red Hat Enterprise Linux 7 Server(RPMS)

rhel-7-server-rpms

Red Hat Enterprise Linux 7 Server - RH Common(RPM)

rhel-7-server-rh-common-rpms

Red Hat Enterprise Linux High Availability (RHEL 7 Server용)

rhel-ha-for-rhel-7-server-rpms

Red Hat OpenStack Platform 13 for RHEL 7(RPM)

rhel-7-server-openstack-13-rpms

Red Hat Enterprise Linux 7 Server - Extras(RPM)

rhel-7-server-extras-rpms

표 1.2. 선택적 리포지토리(x86_64)

리포지터리 이름리포지터리 라벨

Red Hat Enterprise Linux 7 Server - 선택 사항

rhel-7-server-optional-rpms

Red Hat OpenStack Platform 13 operational Tools for RHEL 7(RPM)

rhel-7-server-openstack-13-optools-rpms

표 1.3. 필수 리포지토리(ppc64le)

리포지터리 이름리포지터리 라벨

Red Hat Enterprise Linux for IBM Power, little endian

rhel-7-for-power-le-rpms

Red Hat OpenStack Platform 13 for RHEL 7(RPM)

rhel-7-server-openstack-13-for-power-le-rpms

비활성화를 위한 리포지토리

다음 표에는 Red Hat OpenStack Platform 13이 올바르게 작동하는지 확인하기 위해 비활성화해야 하는 리포지토리가 요약되어 있습니다.

표 1.4. 비활성화를 위한 리포지토리

리포지터리 이름리포지터리 라벨

Red Hat CloudForms Management Engine

"cf-me-*"

Red Hat Enterprise Virtualization

"rhel-7-server-rhev*"

Red Hat Enterprise Linux 7 Server - EUS (Extended Update Support)

"*-eus-rpms"

주의

Red Hat OpenStack Platform 소프트웨어 리포지토리의 일부 패키지는 EPEL(Extra Packages for Enterprise Linux) 소프트웨어 리포지토리에서 제공하는 패키지와 충돌하는 경우가 있습니다. EPEL 소프트웨어 리포지토리가 활성화된 시스템에서 Red Hat OpenStack Platform 사용은 지원되지 않습니다.

1.10. 제품 지원

다음 리소스를 사용할 수 있습니다:

고객 포털

Red Hat 고객 포털은 OpenStack 배포를 계획, 배포, 유지 관리하는 데 도움이 되는 광범위한 리소스를 제공합니다. 고객 포털을 통해 다음과 같은 기능을 사용할 수 있습니다.

  • 지식 베이스 문서 및 솔루션.
  • 기술 요약.
  • 제품 설명서.
  • 지원 케이스 관리.

https://access.redhat.com/에서 고객 포털에 액세스하십시오.

메일링 리스트

Red Hat은 OpenStack 사용자와 관련된 공개 메일링 리스트를 제공합니다.

  • rhsa-announce 메일링 리스트는 Red Hat OpenStack Platform을 포함하여 모든 Red Hat 제품의 보안 패치 릴리스에 대한 알림을 제공합니다.

https://www.redhat.com/mailman/listinfo/rhsa-announce에서 가입하십시오.

1.11. 지원되지 않는 기능

Red Hat OpenStack Platform에서는 다음 기능이 지원되지 않습니다.

  • 수동으로 또는 *Policies heat 매개변수를 통해 policy.json 파일의 수정을 포함하는 사용자 지정 정책. 문서에 명시적 지침이 포함되지 않는 한 기본 정책을 수정하지 마십시오.

위 기능의 지원이 필요한 경우 Red Hat Customer Experience and Engagement 팀에 문의하여 지원을 받으십시오.

2장. 새로운 주요 기능

이 섹션에서는 Red Hat OpenStack Platform 릴리스에 포함된 새로운 주요 기능에 대해 설명합니다.

2.1. Red Hat OpenStack Platform Director

이 섹션에서는 director의 새로운 주요 기능에 대해 간단히 설명합니다.

빠른 앞으로 업그레이드
director는 Red Hat OpenStack Platform 10 에서 Red Hat OpenStack Platform 13 으로 여러 버전을 통해 빠르게 업그레이드 경로를 제공합니다. 목표는 사용자에게 수명이 긴 버전으로 간주되는 특정 OpenStack 버전을 계속 사용하고 다음 수명 버전이 제공될 때 업그레이드할 수 있는 기회를 제공하는 것입니다. 전체 지침은 Fast Forward Upgrades Guide 에서 확인할 수 있습니다.
Red Hat Virtualization Control Plane
director는 Red Hat Virtualization에 배포된 컨트롤러 노드를 사용하여 오버클라우드 프로비저닝을 지원합니다. 새로운 가상화 기능에 대한 자세한 내용은 Red Hat Virtualization 및 Red Hat OpenStack Platform 13을 사용하여 OpenStack 컨트롤 플레인 가상화를 참조하십시오.

2.2. 컨테이너

이 섹션에서는 Red Hat OpenStack Platform의 컨테이너화를 위한 새로운 주요 기능에 대해 간단히 설명합니다.

전체 컨테이너화된 서비스
이 릴리스에서는 이전 버전에서 컨테이너화되지 않은 서비스, OpenStack Networking(neutron), OpenStack Block Storage(cinder), OpenStack Shared File Systems(manila)를 포함하여 모든 Red Hat OpenStack Platform 서비스를 컨테이너로 제공합니다. 이제 오버클라우드에서 완전히 컨테이너화된 서비스를 사용합니다.

2.3. Bare Metal 서비스

이 섹션에서는 Bare Metal(ironic) 서비스의 새로운 주요 기능에 대해 간단히 설명합니다.

L3 라우팅 스파인-리프 네트워크
director에는 프로비저닝 및 인트로스펙션 기능을 위해 여러 네트워크를 정의하는 기능이 포함되어 있습니다. 이 기능을 구성 가능 네트워크와 함께 사용하면 사용자가 오버클라우드에 대한 전체 L3 라우팅 스파인-리프형 아키텍처를 프로비저닝하고 구성할 수 있습니다. 전체 지침은 Spine Leaf Networking 가이드에서 확인할 수 있습니다.
Red Hat Virtualization 드라이버
director OpenStack Bare Metal(ironic) 서비스에는 Red Hat Virtualization 환경에서 가상 노드를 관리하는 드라이버(staging-ovirt)가 포함되어 있습니다.
Red Hat OpenStack Platform for POWER
IBM POWER8 little endian 하드웨어에 사전 프로비저닝된 오버클라우드 컴퓨팅 노드를 배포할 수 있습니다.

2.4. Ceph Storage

이 섹션에서는 Ceph Storage의 새로운 주요 기능에 대해 간단히 설명합니다.

Red Hat Ceph Storage 3.0 지원
이번 릴리스에서는 Red Hat Ceph Storage 3.0(자주)이 Red Hat OpenStack에서 지원되는 기본 버전의 Ceph이며 director에서 배포한 기본 버전입니다. Ceph는 버전 2.x에서 3으로의 롤링 업그레이드를 지원합니다. Red Hat Ceph Storage 2.x(Jewel)를 실행하는 외부 클러스터( director에서 배포되지 않음)는 최신 Ceph 클라이언트와 계속 호환됩니다. 새 OpenStack 릴리스로 업그레이드하면 director를 사용하여 Ceph 클러스터가 배포된 경우 Red Hat Ceph Storage를 3.0으로 업그레이드합니다.
Ceph Metadata Server 및 RADOS 게이트웨이 노드 확장
Red Hat Ceph Storage 3.0은 Ceph 파일 시스템(CephFS)을 적절하게 구성하여 여러 메타데이터 서버(MDS)에서 메타데이터 로드를 확장할 수 있도록 지원합니다. 구성되면 이 추가 로드를 수행하기 위해 Ceph 클러스터에서 사용 가능한 추가 전용 MDS 서버가 자동으로 할당됩니다. 또한 새로운 전용 Ceph RADOS Gateway(RGW) 노드를 추가할 수 있으므로 필요에 따라 RGW를 확장할 수 있습니다.
NFS를 사용하는 Manila CephFS 스토리지
Shared File System 서비스(manila)는 NFSv4 프로토콜을 통해 Ceph 파일 시스템(CephFS)에서 지원하는 공유 파일 시스템 마운트를 지원합니다. 컨트롤러 노드에서 작동하는 NFS-Ganesha 서버는 HA(고가용성)가 있는 테넌트에 CephFS를 내보내는 데 사용됩니다. 테넌트는 서로 격리되며 제공된 NFS 게이트웨이 인터페이스를 통해서만 CephFS에 액세스할 수 있습니다. 이 새로운 기능은 director에 완전히 통합되어 공유 파일 시스템 서비스에 CephFS 백엔드 배포 및 구성이 가능합니다.
여러 Cinder Ceph 풀 지원
Block Storage(cinder) RADOS 블록 장치(RBD) 백엔드는 director 템플릿 매개변수인 CinderRbdExtraPools 를 사용하여 동일한 Ceph 클러스터 내의 다른 풀에 매핑할 수 있습니다. CinderRbdPoolName 매개변수와 연결된 표준 RBD 백엔드 외에도 이 매개변수와 연결된 각 Ceph 풀에 대해 새 블록 스토리지 RBD 백엔드가 생성됩니다.
ceph-anible이 있는 RBD 미러 director
Ceph rbd-mirror 데몬은 원격 클러스터에서 이미지 업데이트를 가져와 로컬 클러스터 내의 이미지에 적용합니다. RBD 미러는 Red Hat Ceph Storage 3.0( 자주)과 함께 ceph- anible을 사용하여 컨테이너로 배포됩니다. 이미지와 관련된 OpenStack 메타데이터는 rbd-mirror 에 의해 복사되지 않습니다.

2.5. Compute

이 섹션에서는 Compute 서비스의 새로운 주요 기능에 대해 간단히 설명합니다.

실시간 KVM 통합

실시간 KVM(RT-KVM)과 Compute 서비스의 통합이 이제 완전하게 지원됩니다. RT-KVM의 이점은 다음과 같습니다.

  • 시스템 호출 및 인터럽트의 결정적이고 평균 대기 시간이 낮습니다.
  • 정확한 클럭 동기화를 위해 게스트 인스턴스의 PTP(Precision Time Protocol) 지원

2.6. 고가용성

이 섹션에서는 고가용성을 위한 새로운 주요 기능에 대해 간단히 설명합니다.

인스턴스 HA에 대한 director 통합
이제 director를 사용하여 인스턴스 HA를 배포할 수 있습니다. 이를 통해 추가 수동 단계 없이 인스턴스 HA에 대한 설치 및 업그레이드를 구성할 수 있습니다.
참고

인스턴스 HA에 대한 director 통합은 버전 13 이상에서만 사용할 수 있습니다. 이전 버전에서 fast-forward 업그레이드를 포함한 버전 13으로 업그레이드하려면 먼저 인스턴스 HA를 수동으로 비활성화해야 합니다.

2.7. 메트릭 및 모니터링

이 섹션에서는 새로운 주요 기능 및 메트릭 및 모니터링 구성 요소의 변경 사항에 대해 간단히 설명합니다.

collectd 5.8 통합

collectd 5.8 버전에는 다음과 같은 추가 플러그인이 포함되어 있습니다.

  • OVS-stats - 플러그인은 OVS 연결 브리지 및 인터페이스의 통계를 수집합니다.
  • OVS -events - 플러그인은 OVS(Open vSwitch) 연결 인터페이스의 링크 상태를 모니터링하고, 값을 collectd 로 디스패치하고 OVS 데이터베이스에서 링크 상태가 변경될 때마다 알림을 보냅니다.
  • hugepages - hugepages 플러그인을 사용하면 플랫폼의 번호, 바이트 또는 백분율로 사용 가능한 hugepages를 모니터링할 수 있습니다.
  • Intel -rdt - intel_rdt 플러그인은 Cache Monitoring Technology(CMT), Memory Bandwidth Monitoring(MBM)과 같은 Intel Resource Director Technology(Intel® RDT)의 모니터링 기능을 통해 제공되는 정보를 수집합니다. 이러한 기능은 마지막 수준 캐시 occupancy, 로컬 메모리 대역폭 사용량, 원격 메모리 대역폭 사용량 및 클럭별 명령과 같은 공유 리소스 사용에 대한 정보를 제공합니다.
  • libvirt 플러그인 확장 - libvirt 플러그인은 플랫폼에서 CMT, MBM, CPU Pinning, Utilization 및 State 메트릭을 지원하도록 확장됩니다.
collectdgnocchi 통합

collectd-gnocchi 플러그인은 지표를 gnocchi로 보냅니다. 기본적으로 모니터링되는 각 호스트에 대해 collectd 라는 리소스 유형과 새 리소스를 생성합니다.

각 호스트에는 다음 이름 지정 규칙을 사용하여 동적으로 생성된 지표 목록이 있습니다.

plugin-plugin_instance/type-type_instance-value_number

지표를 올바르게 생성하려면 보관 정책 규칙이 일치하는지 확인합니다.

여러 RabbitMQ 서버를 사용하여 Sensu 지원
이번 릴리스에서는 Red Hat OpenStack Platform에서 여러 RabbitMQ 서버를 사용할 있는 지원이 추가되었습니다. 이를 위해서는 config.yaml 파일에서 MonitoringRabbitCluster 매개변수를 사용합니다.
Intel Resource Director Technology/Memory 대역폭 모니터링 지원
메모리 대역폭 모니터링(MBM)은 Intel® Resource Director Technology(RDT)의 필수 요소입니다. 메모리 사용량 및 가용성은 모든 노드에서 수집되며 OpenStack에서 사용 가능하여 더 나은 스케줄링 결정을 내리고 SLA를 제공합니다.
Telemetry API 및 ceilometer-collector제거
Telemetry API 서비스는 OpenStack Telemetry Metrics (gnocchi) 서비스 및 OpenStack Telemetry Alarming (aodh) 서비스 API로 교체됩니다. Telemetry 폴링 에이전트에서 샘플 파일에서 ceilometer-notification-agent 데몬으로 메시지를 전송하므로 ceilometer- collector 서비스는 ceilometer-notification-agent 데몬으로 교체됩니다.
참고

전체적으로 Ceilometer는 더 이상 사용되지 않으며 원격 분석 API 서비스 및 ceilometer-collector 서비스만 사용하지 않습니다.

2.8. 네트워크 기능 가상화

이 섹션에서는 NFV(Network Functions Virtualization)의 새로운 주요 기능에 대해 간단히 설명합니다.

NFV 워크로드를 위한 실시간 KVM Compute 역할
RT-KVM(Real-KVM) Compute 노드는 RT-KVM 컴퓨팅 노드 역할이 추가되어 NFV 워크로드를 지원합니다. 이 새 역할은 엄격한 대기 시간 요구 사항이 있는 게스트를 지원하기 위해 실시간 기능이 있는 컴퓨팅 노드의 하위 집합을 노출합니다.

2.9. OpenDaylight

이 섹션에서는 OpenDaylight 서비스의 새로운 주요 기능에 대해 간단히 설명합니다.

OpenDaylight 통합

OpenDaylight는 유연한 모듈식 오픈 SDN 플랫폼으로, 현재 이 Red Hat OpenStack Platform 릴리스에서 완벽하게 지원됩니다. 현재 Red Hat은 OpenDaylight SDN 컨트롤러를 OpenStack 네트워킹 백엔드로 사용하도록 설계된 신중하게 선택된 OpenDaylight 구성 요소를 결합합니다. 이 솔루션에서 사용되는 OpenDaylight의 핵심 프로젝트는 NetVirt이며 OpenStack neutron API를 지원합니다.

다음 기능이 포함되어 있습니다.

  • 날짜 플레인 추상화: 플랫폼의 P4 플러그인입니다.
  • 컨테이너: Kubernetes용 플러그인과 혼합된 VM 컨테이너 환경을 위한 Neutron Northbound 확장 개발입니다.

자세한 내용은 Red Hat OpenDaylight 제품 가이드Red Hat OpenDaylight 설치 및 구성 가이드를 참조하십시오.

2.10. OpenStack Networking

이 섹션은 Networking 서비스의 새로운 주요 기능에 대해 간단히 설명합니다.

Octavia LBaaS
Octavia는 이제 완전히 지원됩니다. Octavia는 로드 밸런싱 기능을 제공하며 현재 HAProxy 기반 구현을 대체하기 위한 공식 OpenStack 프로젝트입니다. Octavia는 LBaaS v2 API를 구현하지만 추가 기능도 제공합니다. Octavia에는 amphora (컴퓨팅 VM으로 구현)로 부하 분산을 제공하는 참조 로드 밸런싱 드라이버가 포함되어 있습니다.
OVN(Open Virtual Network)
이제 OVN이 완전히 지원됩니다. OVN은 인스턴스에 네트워크 서비스를 제공하는 Open vSwitch 기반 네트워크 가상화 솔루션입니다. OVN은 neutron API를 완전히 지원합니다.

2.11. 보안

이 섹션에서는 보안 구성 요소의 새로운 주요 기능에 대해 간단히 설명합니다.

Barbican
OpenStack Key Manager(barbican)는 Red Hat OpenStack Platform의 시크릿 관리자입니다. barbican API 및 명령줄을 사용하여 OpenStack 서비스에서 사용하는 인증서, 키 및 암호를 중앙에서 관리할 수 있습니다.
Barbican - 암호화된 볼륨 지원
barbican을 사용하여 Block Storage(cinder) 암호화 키를 관리할 수 있습니다. 이 구성에서는 LUKS를 사용하여 부팅 디스크를 포함하여 인스턴스에 연결된 디스크를 암호화합니다. 주요 관리 측면은 사용자에게 투명하게 수행됩니다.
Barbican - Glance 이미지 서명
업로드된 이미지가 변경되지 않았는지 확인하도록 Image 서비스(glance)를 구성할 수 있습니다. 이미지는 먼저 barbican에 저장된 키로 서명되며 각 이미지를 사용하기 전에 이미지의 유효성을 검사합니다.
PDP(Policy Decision Points)와의 통합
Policy Decision Points(PDP)를 사용하여 리소스에 대한 액세스를 제어하는 고객의 경우 ID 서비스(keystone)는 권한 부여 검사를 위해 프로젝트를 외부 PDP와 통합할 수 있습니다. 외부 PDP는 액세스 요청을 평가하고 설정된 정책에 따라 액세스를 허용하거나 거부할 수 있습니다.
인프라 및 가상화 강화
AIDE Intrusion detection는 이제 기술 프리뷰에서 사용할 수 있습니다. director의 AIDE 서비스를 통해 작업자는 침입 탐지 규칙을 중앙에서 설정한 다음 오버클라우드에 AIDE를 설치 및 설정할 수 있습니다.

2.12. 스토리지

이 섹션에서는 스토리지 구성 요소의 새로운 주요 기능에 대해 간단히 설명합니다.

블록 스토리지 - 블록 스토리지 서비스의 컨테이너화된 배포
이 릴리스에서는 Block Storage 서비스(cinder)의 컨테이너화된 배포가 기본값입니다. 외부 설치 종속 항목이 있는 이러한 서비스에 백엔드를 사용하는 경우 배포할 벤더별 컨테이너를 가져와야 합니다.
블록 스토리지 - 다중 지원 엔드 가용성 영역
이제 Block Storage 서비스(cinder)를 사용하면 구성 파일의 백엔드 섹션에 있는 새 드라이버 구성 옵션 backend_availability_zone 을 사용하여 백엔드 가용 영역을 정의할 수 있습니다. 이전 버전에서는 cinder-volume에 구성된 백엔드가 동일한 스토리지 가용 영역의 일부여야 했습니다.
블록 스토리지 - OpenStack Key Manager 지원
Block Storage 서비스(cinder)는 이제 OpenStack Key Manager(barbican)를 사용하여 볼륨 암호화에 사용되는 암호화 키를 저장할 수 있습니다. 이 기능은 director에서 OpenStack Key Manager를 구성하여 활성화합니다. ID 서비스(keystone)의 admin 또는 creator 역할이 있는 사용자가 OpenStack Key Manager에 새 키를 추가할 수 있습니다.
블록 스토리지 - RBD 드라이버 암호화 지원
RBD 드라이버는 LUKS를 사용하여 블록 스토리지 서비스(cinder) 볼륨 암호화를 처리합니다. 이 기능은 블록 스토리지 서비스 및 Compute 서비스를 사용하여 RBD에서 볼륨을 암호화하여 데이터 복구 보안을 제공하는 기능을 제공합니다. RBD 드라이버 암호화를 사용하려면 OpenStack Key Manager(barbican)가 필요합니다. RBD 드라이버 암호화는 블록 스토리지 서비스에서만 지원됩니다.
이미지 서비스 - 이미지 서명 및 검증 지원
Image 서비스(glance)는 이제 OpenStack Key Manager(barbican)를 사용하여 부팅 가능한 이미지에 대한 서명 및 서명 검증을 제공합니다. 이제 이미지를 저장하기 전에 이미지 서명을 확인합니다. 이미지 서비스에 업로드하기 전에 원본 이미지에 암호화 서명을 추가해야 합니다. 이 서명은 부팅 시 이미지의 유효성을 검사하는 데 사용됩니다. OpenStack Key Manager는 서명 키에 대한 키 관리 지원을 제공합니다.
Object Storage - At-rest 암호화 및 OpenStack Key Manager 지원
이제 Object Storage(swift) 서비스는 OpenStack Key Manager(barbican)에 저장된 256비트 키가 있는 CTR 모드에서 AES를 사용하여 오브젝트를 암호화된 형태로 저장할 수 있습니다. director를 사용하여 Object Storage에 암호화가 활성화되면 시스템은 클러스터의 모든 오브젝트를 암호화하는 데 사용되는 단일 키를 생성합니다. 이를 통해 오브젝트를 보호하고 Object Storage 클러스터에서 보안 규정 준수를 유지 관리하는 옵션을 제공합니다.
공유 파일 시스템 - 공유 파일 시스템 서비스의 컨테이너화된 배포
이제 이 릴리스에서 Shared File System 서비스(manila)의 컨테이너화된 배포가 기본값입니다. 외부 설치 종속 항목이 있는 이러한 서비스에 백엔드를 사용하는 경우 배포할 벤더별 컨테이너를 가져와야 합니다.
공유 파일 시스템 - NetApp ONTAP cDOT 드라이버를 통한 IPv6 액세스 규칙 지원
공유 파일 시스템 서비스(manila)는 이제 IPv6 네트워크를 통해 NetApp ONTAP 백엔드에서 지원하는 공유 내보내기를 지원합니다. 내보낸 공유에 대한 액세스는 IPv6 클라이언트 주소로 제어합니다.
공유 파일 시스템 - NFS를 사용한 Manila CephFS 스토리지
Shared File System 서비스(manila)는 NFSv4 프로토콜을 통해 Ceph 파일 시스템(CephFS)에서 지원하는 공유 파일 시스템 마운트를 지원합니다. 컨트롤러 노드에서 작동하는 NFS-Ganesha 서버는 HA(고가용성)가 있는 테넌트에 CephFS를 내보내는 데 사용됩니다. 테넌트는 서로 격리되며 제공된 NFS 게이트웨이 인터페이스를 통해서만 CephFS에 액세스할 수 있습니다. 이 새로운 기능은 director에 완전히 통합되어 공유 파일 시스템 서비스에 CephFS 백엔드 배포 및 구성이 가능합니다.

2.13. 기술 프리뷰

이 섹션에서는 Red Hat OpenStack Platform 13의 기술 프리뷰에 포함된 기능에 대해 간단히 설명합니다.

참고

기술 프리뷰로 표시된 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

2.13.1. 새로운 기술 프리뷰

기술 프리뷰로 다음과 같은 새로운 기능이 제공됩니다.

Ansible 기반 구성(config 다운로드)
director는 이제 오버클라우드 계획을 기반으로 사용하여 일련의 Ansible 플레이북을 생성할 수 있습니다. 이렇게 하면 오버클라우드 설정 방법이 OpenStack Orchestration(heat)에서 Ansible 기반 방법으로 변경됩니다. 업그레이드와 같은 일부 지원되는 OpenStack Platform 13 기능은 프로세스의 일부로 이 기능을 사용합니다. 그러나 이러한 지원되는 영역 밖에서는 프로덕션에 권장되지 않으며 기술 프리뷰로만 사용할 수 있습니다.
OVS 하드웨어 오프로드
OVS(Open vSwitch) 하드웨어 오프로드는 대규모 프로세스를 SmartNICs가 있는 하드웨어로 이동하여 OVS를 가속화합니다. 이렇게 하면 OVS 처리를 SmartNIC로 오프로드하여 호스트 리소스가 절약됩니다.

2.13.2. 이전에 출시된 기술 프리뷰

다음 기능은 기술 프리뷰로 남아 있습니다.

벤치마킹 서비스

Rally는 다중 노드 OpenStack 배포, 클라우드 확인, 벤치마킹 및 프로파일링을 자동화하고 통합하는 벤치마킹 도구입니다. SLA, 성능 및 안정성을 지속적으로 개선하는 OpenStack CI/CD 시스템의 기본 도구로 사용할 수 있습니다. 다음과 같은 핵심 구성 요소로 구성됩니다.

  • 서버 공급자 - 다양한 가상화 기술(LXS, Virsh 등) 및 클라우드 공급자와의 상호 작용을 위한 통합 인터페이스를 제공합니다. ssh 액세스 및 하나의 L3 네트워크에서 이 작업을 수행합니다.
  • 배포 엔진 - 서버 공급자에서 검색된 서버를 사용하여 벤치마킹 절차 전에 OpenStack 배포를 배포합니다.
  • 검증 - 배포된 클라우드에 대해 특정 테스트 세트를 실행하여 올바르게 작동하는지 확인하고 결과를 수집하여 사람이 읽을 수 있는 형식으로 제공합니다.
  • 벤치마크 엔진 - 매개 변수가 있는 벤치마크 시나리오를 작성하고 클라우드에 대해 실행할 수 있습니다.
벤치마킹 서비스 - 새로운 플러그인 유형 도입: 후크
테스트 시나리오가 반복으로 실행되도록 허용하며 rally 보고서에서 실행된 작업에 대한 타임스탬프(및 기타 정보)를 제공합니다.
벤치마킹 서비스 - 새로운 시나리오
nova, cinder, magnum, ceilometer, manila 및 neutron에 벤치마킹 시나리오가 추가되었습니다.
벤치마킹 서비스 - 확인 구성 요소의 리팩터
Rally Verify는 Tempest를 시작하는 데 사용됩니다. 새로운 모델(verifier 유형, 확인 프로그램 및 검증 결과)을 포함하도록 리팩터링되었습니다.
OpenStack Compute에는 컴퓨팅 리소스를 분할하기 위해 nova-cells 패키지에서 제공하는 셀이라는 개념이 포함되어 있습니다. 이번 릴리스에서는 셀 v1이 Cells v2로 대체되었습니다. Red Hat OpenStack Platform은 "하나의 기간"을 기본 구성으로 배포하지만 현재 멀티셀 배포를 지원하지 않습니다.
DNSaaS(DNS-as-a-Service)
Designate라고도 하는 DNSaaS(DNS-as-a-Service)에는 도메인 및 레코드 관리를 위한 REST API가 포함되어 있으며 인증을 위해 다중 테넌트가 있으며 OpenStack Identity Service(keystone)와 통합됩니다. DNSaaS에는 Compute(nova) 및 OpenStack Networking(neutron) 알림과 통합을 위한 프레임워크가 포함되어 자동 생성된 DNS 레코드가 포함됩니다. DNSaaS에는 Bind9 백엔드와의 통합이 포함됩니다.
Firewall-as-a-Service(FWaaS)
Firewall-as-a-Service 플러그인은 OpenStack Networking(neutron)에 경계 방화벽 관리를 추가합니다. FWaaS는 iptables를 사용하여 프로젝트 내의 모든 가상 라우터에 방화벽 정책을 적용하고 프로젝트당 하나의 방화벽 정책 및 논리적 방화벽 인스턴스를 지원합니다. FWaaS는 OpenStack Networking(neutron) 라우터에서 트래픽을 필터링하여 경계에서 작동합니다. 이는 인스턴스 수준에서 작동하는 보안 그룹과 구별됩니다.
Google Cloud Storage 백업 드라이버(Block Storage)
이제 볼륨 백업을 저장하는 데 Google Cloud Storage를 사용하도록 Block Storage(cinder) 서비스를 구성할 수 있습니다. 이 기능은 재해 복구를 위해 보조 클라우드의 비용이 많이 드는 유지 관리에 대한 대안을 제공합니다.
베어 메탈 노드의 링크 집계

이 릴리스에서는 베어 메탈 노드에 대한 링크 집계를 도입했습니다. 링크 집계를 사용하면 장애 조치(failover) 및 로드 밸런싱을 지원하도록 베어 메탈 노드 NIC에서 본딩을 구성할 수 있습니다. 이 기능을 사용하려면 전용 neutron 플러그인에서 구성할 수 있는 특정 하드웨어 스위치 벤더 지원이 필요합니다. 하드웨어 벤더 스위치가 올바른 neutron 플러그인을 지원하는지 확인합니다.

또는 베어 메탈 노드에 본딩을 설정하도록 수동으로 사전 구성할 수 있습니다. 노드가 본딩 인터페이스 중 하나에서 부팅되도록 하려면 스위치에서 LACP 및 LACP 폴백을 모두 지원해야 합니다(결합이 형성되지 않은 경우 개별 링크로 대체됨). 그렇지 않으면 노드에 별도의 프로비저닝 및 정리 네트워크도 필요합니다.

Red Hat SSO
이번 릴리스에는 keycloak-httpd-client-install 패키지 버전이 포함되어 있습니다. 이 패키지는 Apache mod_auth_mellon SAML 서비스 공급자를 Keycloak SAML IdP의 클라이언트로 구성하는 데 도움이 되는 명령줄 도구를 제공합니다.

3장. 릴리스 정보

본 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

Red Hat OpenStack Platform 릴리스의 지원 라이프사이클 중에 출시된 업데이트에 대한 정보는 각 업데이트와 관련된 권고 설명에 기재됩니다.

3.1. Red Hat OpenStack Platform 13 GA

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.1.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1419556

이제 Object Store 서비스(swift)를 Barbican과 통합하여 저장된 오브젝트를 투명하게 암호화하고 암호 해독할 수 있습니다. 유휴 암호화는 전송 내 암호화와 다르며 디스크에 저장되는 동안 암호화되는 오브젝트를 나타냅니다.

Swift 오브젝트는 디스크에 일반 텍스트로 저장됩니다. 이러한 디스크는 수명 종료에 도달할 때 적절히 폐기되지 않은 경우 보안 위험을 초래할 수 있습니다. 오브젝트를 암호화하면 해당 위험이 완화됩니다.

Swift는 swift로 업로드할 때 자동으로 암호화되고 사용자에게 제공할 때 자동으로 암호 해독되는 오브젝트와 함께 이러한 암호화 작업을 투명하게 수행합니다. 이 암호화 및 암호 해독은 Barbican에 저장된 동일한 (symmetric) 키를 사용하여 수행됩니다.

BZ#1540239

이번 개선된 기능에는 metrics 데이터를 Gnocchi DB 인스턴스로 보내는 지원이 추가되었습니다.

collectd 구성 가능 서비스에 대한 다음 새 매개변수가 추가되었습니다. CollectdGnocchiAuthMode가 'simple'으로 설정된 경우 CollectdGnocchitocol, CollectdGnocchiServer, CollectdGnocchiPort 및 CollectdGnocchiUser가 구성에 대해 고려됩니다.

CollectdGnocchiAuthMode가 'keystone'로 설정된 경우 CollectdGnocchiKeystone* 매개변수가 구성에 대해 고려됩니다.

다음은 추가된 매개변수에 대한 자세한 설명입니다.

CollectdGnocchiAuthMode

유형: 문자열

설명: 인증 Gnocchi 서버의 유형은 를 사용하고 있습니다. 지원되는 값은 'simple' 및 'keystone'입니다.

기본값: 'simple'

CollectdGnocchiProtocol

유형: 문자열

설명: API 프로토콜 Gnocchi 서버는 를 사용합니다.

default: 'http'

CollectdGnocchiServer

유형: 문자열

설명: 메트릭을 보내야 하는 gnocchi 엔드포인트의 이름 또는 주소입니다.

기본값: nil

CollectdGnocchiPort

유형: 번호

Description: Gnocchi 서버에 연결할 포트입니다.

기본값: 8041

CollectdGnocchiUser

유형: 문자열

설명: 간단한 인증을 사용하여 원격 Gnocchi 서버에 인증하기 위한 사용자 이름입니다.

기본값: nil

CollectdGnocchiKeystoneAuthUrl

유형: 문자열

설명: 인증할 Keystone 엔드포인트 URL입니다.

기본값: nil

CollectdGnocchiKeystoneUserName

유형: 문자열

설명: Keystone에 인증하기 위한 사용자 이름입니다.

기본값: nil

CollectdGnocchiKeystoneUserId

유형: 문자열

설명: Keystone에 인증하기 위한 사용자 ID입니다.

기본값: nil

CollectdGnocchiKeystonePassword

유형: 문자열

설명: Keystone에 인증하기 위한 암호

기본값: nil

CollectdGnocchiKeystoneProjectId

유형: 문자열

설명: Keystone에 인증하기 위한 프로젝트 ID입니다.

기본값: nil

CollectdGnocchiKeystoneProjectName

유형: 문자열

설명: Keystone에 인증하기 위한 프로젝트 이름입니다.

기본값: nil

CollectdGnocchiKeystoneUserDomainId

유형: 문자열

설명: Keystone에 인증하기 위한 사용자 도메인 ID입니다.

기본값: nil

CollectdGnocchiKeystoneUserDomainName

유형: 문자열

설명: Keystone에 인증하기 위한 사용자 도메인 이름입니다.

기본값: nil

CollectdGnocchiKeystoneProjectDomainId

유형: 문자열

Description: Keystone 인증을 위한 프로젝트 도메인 ID입니다.

기본값: nil

CollectdGnocchiKeystoneProjectDomainName

유형: 문자열

설명: Keystone에 인증하기 위한 프로젝트 도메인 이름입니다.

기본값: nil

CollectdGnocchiKeystoneRegionName

유형: 문자열

설명: Keystone에 인증할 리전 이름입니다.

기본값: nil

CollectdGnocchiKeystoneInterface

유형: 문자열

설명: 인증할 Keystone 엔드포인트 유형입니다.

기본값: nil

CollectdGnocchiKeystoneEndpoint

유형: 문자열

설명: Keystone 값을 재정의하려면 Explicitly state Gnocchi 서버 URL

기본값: nil

CollectdGnocchiResourceType

유형: 문자열

설명: Gnocchi의 collectd-gnocchi 플러그인에 의해 생성된 기본 리소스 유형은 호스트를 저장합니다.

default: 'collectd'

CollectdGnocchiBatchSize

유형: 번호

설명: Gnocchi의 최소 값 수를 일괄 처리해야 합니다.

기본값: 10

BZ#1592823

Ansible 플레이북의 로그에 배포, 업데이트 및 업그레이드 중 작업 타이밍에 대한 정보를 제공하는 타임스탬프가 포함됩니다.

3.1.2. 기술 프리뷰

이 섹션에 나열된 항목은 기술 프리뷰로 제공됩니다. 기술 프리뷰 상태 범위에 대한 자세한 내용 및 해당 지원에 미치는 영향은 https://access.redhat.com/support/offerings/techpreview/의 내용을 참조하십시오.

BZ#1446311

이번 릴리스에서는 "[pci]alias" 구성 옵션의 일부로 구성된 PCI 장치 NUMA 선호도 정책에 대한 지원이 추가되었습니다. 세 가지 정책이 지원됩니다.

"필수 사항"(필수 사항) "기존"(기본값)이 있어야 합니다. "사용 가능한 경우 우선"이 있어야 합니다(필요한 경우).

가능한 경우 모든 경우에 엄격한 NUMA 선호도가 제공됩니다. 이러한 정책을 사용하면 리소스 사용을 최대화하려면 NUMA 선호도를 PCI 별칭별로 얼마나 엄격하게 구성할 수 있습니다. 정책의 주요 차이점은 예약에 실패하기 전에 쉐이크를 위조할 것인지에 대한 NUMA 선호도입니다.

PCI 장치에 대해 "기본 설정" 정책이 구성된 경우 nova는 사용 가능한 경우 PCI 장치의 NUMA 노드와 다른 NUMA 노드에서 CPU를 사용합니다. 이로 인해 리소스 사용률이 향상되지만 이러한 인스턴스의 성능이 저하됩니다.

BZ#1488095

RHOS-12 이후부터 OpenStack 서비스가 컨테이너화되고 있습니다. 이번 릴리스에서는 OpenStack Tempest도 컨테이너화합니다. 컨테이너화된 OpenStack 임시는 기술 프리뷰로 사용할 수 있습니다.

3.1.3. 릴리스 노트

본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 최상의 배포 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.

BZ#1468020

Shared File System 서비스(manila)는 이제 IPv6 환경에서 manila를 사용할 수 있는 NetApp ONTAP cDOT 드라이버에 대한 IPv6 액세스 규칙 지원을 제공합니다.

결과적으로 공유 파일 시스템 서비스는 이제 IPv6 네트워크를 통해 NetApp ONTAP 백엔드에서 지원하는 공유 내보내기를 지원합니다. 내보낸 공유에 대한 액세스는 IPv6 클라이언트 주소로 제어합니다.

BZ#1469208

Shared File System 서비스(manila)는 NFSv4 프로토콜을 통해 Ceph 파일 시스템(CephFS)에서 지원하는 공유 파일 시스템 마운트를 지원합니다. 컨트롤러 노드에서 작동하는 NFS-Ganesha 서버는 HA(고가용성)가 있는 테넌트에 CephFS를 내보내는 데 사용됩니다. 테넌트는 서로 격리되며 제공된 NFS 게이트웨이 인터페이스를 통해서만 CephFS에 액세스할 수 있습니다. 이 새로운 기능은 director에 완전히 통합되어 공유 파일 시스템 서비스의 CephFS 백엔드 배포 및 구성을 사용할 수 있습니다.

BZ#1496584

neutron 서비스가 컨테이너화되면 네트워크 네임스페이스에서 명령을 실행하려고 하면 다음 오류가 발생할 수 있습니다.

# ip netns exec qrouter...
RTNETLINK answers: Invalid argument

네트워크 네임스페이스 내에서 명령을 실행하려면 네임스페이스를 생성한 neutron 컨테이너에서 해당 명령을 수행해야 합니다. 예를 들어 l3-agent는 라우터의 네트워크 네임스페이스를 생성하므로 명령을 다음과 같이 변경해야 합니다.

# docker exec neutron_l3_agent ip netns exec qrouter...

'qdhcp'로 시작하는 네트워크 네임스페이스와 마찬가지로 'neutron_dhcp' 컨테이너에서 exec가 필요합니다.

BZ#1503521

이 버전에서는 networking-ovn에서 내부 DNS 확인을 지원합니다. 두 가지 제한 사항이 있지만 .BZ#1581332로, 내부 dns를 통해 내부 fqdn 요청을 올바르게 확인하지 않습니다.

확장 기능은 GA 릴리스에서 tripleo에서 기본적으로 구성되지 않습니다. 해결방법은 .BZ#1577592를 참조하십시오.

BZ#1533206

openstack-gnocchi 패키지의 이름이 gnocchi로 변경되었습니다. 업스트림 프로젝트 범위 변경 때문에 openstack- 접두사가 제거되었습니다. Gnocchi는 OpenStack 우산에서 이동되었으며 독립 실행형 프로젝트로 유지됩니다.

BZ#1556933

버전 2.1부터 python-cryptography는 인증서에 사용된 CNS 이름이 IDN 표준을 준수하는지 확인합니다. 확인된 이름이 이 사양을 따르지 않으면 암호화가 인증서를 검증하지 못하고 OpenStack 명령줄 인터페이스 또는 OpenStack 서비스 로그에서 다른 오류를 찾을 수 있습니다.

BZ#1563412

OpenStack Compute(nova)의 예약 호스트 메모리가 2048MB에서 4096MB로 증가했습니다. 이는 사용자의 환경에 대한 용량 추정에 영향을 미칠 수 있습니다. 필요한 경우 환경 파일에서 'NovaReservedHostMemory' 매개변수를 사용하여 예약된 메모리를 재구성할 수 있습니다. 예를 들면 다음과 같습니다.

parameter_defaults: NovaReservedHostMemory: 2048

BZ#1564176

python-mistralclient는 지원되는 오버클라우드 사용 사례의 일부가 아니므로 OSP 13 릴리스의 -tools 채널에서 삭제됩니다.

BZ#1567735

OVN을 네트워킹 백엔드로 사용하는 OSP13에는 첫 번째 릴리스에서 IPv6 지원이 포함되지 않습니다. 게스트 VM에서 들어오는 Neighbor Solicitation 요청에 대한 응답에 문제가 있으므로 기본 경로가 손실됩니다.

BZ#1575752

이전 버전에서는 *NetName 매개변수(예: InternalApiNetName)가 기본 네트워크의 이름을 변경했습니다. 이는 더 이상 지원되지 않습니다.

기본 네트워크의 이름을 변경하려면 사용자 지정 구성 가능 네트워크 파일(network_data.yaml)을 사용하여 '-n' 옵션을 사용하여 'openstack overcloud deploy' 명령에 포함하십시오. 이 파일에서 "name_lower" 필드를 변경하려는 네트워크의 사용자 지정 네트워크 이름으로 설정해야 합니다. 자세한 내용은 Advanced Overcloud Customization 가이드의 "추가 네트워크 사용"을 참조하십시오.

또한 ServiceNetMap 테이블의 로컬 매개변수를 network_environment.yaml에 추가하고 이전 네트워크 이름의 모든 기본값을 새 사용자 지정 이름으로 재정의해야 합니다. 기본값은 /usr/share/openstack-tripleo-heat-templates/network/service_net_map.j2.yaml에서 확인할 수 있습니다. ServiceNetMap을 수정하기 위한 이 요구 사항은 향후 OSP-13 릴리스에서 필요하지 않습니다.

BZ#1577537

일부 컨테이너 이미지를 사용할 수 없는 OSP 13 베타 문제를 해결합니다.

BZ#1578312

OVSDB 서버가 다른 컨트롤러 노드에 장애 조치되면 이 조건을 감지하지 않기 때문에 neutron-server/metadata-agent의 재연결이 수행되지 않습니다.

결과적으로 metadata-agent가 새 메타데이터 네임스페이스를 프로비저닝하지 않고 클러스터링이 예상대로 작동하지 않으므로 VM 부팅이 작동하지 않을 수 있습니다.

가능한 해결 방법은 새 컨트롤러가 OVN 데이터베이스의 마스터로 승격된 후 모든 컴퓨팅 노드에서 ovn_metadata_agent 컨테이너를 다시 시작하는 것입니다. 또한 plugin.ini의 ovsdb_probe_interval을 600000밀리초 값으로 늘립니다.

BZ#1589849

컴퓨팅 노드에서 OVN 메타데이터 에이전트가 중지되면 해당 노드의 모든 VM이 메타데이터 서비스에 액세스할 수 없습니다. 새로운 VM이 생성되거나 기존 VM이 재부팅되면 OVN 메타데이터 에이전트가 다시 가동될 때까지 VM이 메타데이터에 액세스하지 못할 수 있습니다.

BZ#1592528

드문 경우지만 컨트롤러 노드를 여러 번 재부팅한 후 RabbitMQ가 일관성 없는 상태로 실행되어 오버클라우드의 API 작업을 차단할 수 있습니다.

이 문제의 증상은 - DuplicateMessageError: Found duplicate message(629ff0024219488499b0fac0caa5) 형식의 OpenStack 서비스 로그에 참여합니다. 이를 건너뜁니다. - "openstack network agent list"는 일부 에이전트가 DOWN임을 반환합니다.

일반 작업을 복원하려면 모든 컨트롤러 노드에서 다음 명령을 실행합니다(컨트롤러에서만 이 작업을 수행해야 함): pcs resource restart rabbitmq-bundle

3.1.4. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1321179

python-requests 를 사용하는 OpenStack 명령줄 클라이언트는 현재 SAN 필드에 IP 주소가 있는 인증서의 유효성을 검사할 수 없습니다.

BZ#1461132

Red Hat Ceph Storage를 Cinder 볼륨 및 Cinder 백업 모두에 대해 블록 스토리지 백엔드로 사용하는 경우 증분 백업을 수행하려고 하면 경고 없이 전체 백업이 발생합니다. 이것은 확인된 문제입니다.

BZ#1508449

OVN은 컴퓨팅 노드에서 직접 ovn-controller와 함께 DHCP를 openflow 컨트롤러로 사용합니다. 그러나 SR-IOV 인스턴스는 VF/PF를 통해 네트워크에 직접 연결됩니다. 따라서 SR-IOV 인스턴스는 어디에서나 DHCP 응답을 가져올 수 없습니다.

이 문제를 해결하려면 OS::TripleO::Services::NeutronDhcpAgent를 다음과 같이 변경합니다.

OS::TripleO::Services::NeutronDhcpAgent: docker/services/neutron-dhcp.yaml

BZ#1515815

라우터 게이트웨이를 제거하면 학습된 IP 주소와 관련된 계층 3 흐름이 제거되지 않습니다. 학습된 IP 주소에는 PNF 및 외부 게이트웨이 IP 주소가 포함됩니다. 이로 인해 오래된 흐름이 발생하지만 기능적인 문제는 발생하지 않습니다. 외부 게이트웨이 및 IP 주소는 자주 변경되지 않습니다. 외부 네트워크를 삭제하면 오래된 흐름이 제거됩니다.

BZ#1518126

Redis는 TLS가 활성화된 HA 배포의 노드에서 데이터를 올바르게 복제할 수 없습니다. Redis follower 노드는 리더 노드의 데이터를 포함하지 않습니다. Redis 배포의 TLS를 비활성화하는 것이 좋습니다.

BZ#1519783

Neutron에서는 Neutron 라우터 생성 시 할당량이 초과되었음을 나타내는 오류가 발생할 수 있습니다. 이는 networking-odl의 버그로 인해 Neutron DB에서 단일 생성 요청으로 여러 라우터 리소스가 생성되는 알려진 문제입니다. 이 문제의 해결 방법은 OpenStack Neutron CLI를 사용하여 중복된 라우터를 삭제하고 다시 라우터를 생성하여 단일 인스턴스가 생성되는 것입니다.

BZ#1557794

director 언더클라우드를 백업하고 복원하는 절차에서 회귀가 확인되었습니다. 따라서 이 절차에서는 게시하기 전에 수정 및 확인이 필요합니다.

따라서 'Back Up and Restore the Director Undercloud'는 Red Hat OpenStack Platform 13의 일반 사용 가능으로 사용할 수 없습니다. 이 절차는 일반 가용성 릴리스 후 우선 순위로 업데이트되고 확인되는 즉시 게시됩니다.

BZ#1559055

OpenDaylight 로깅이 이전 로그가 누락되었을 수 있습니다. 이는 OpenDaylight의 journald 로깅 (Docker logs opendaylght_api" 명령 사용)과 관련하여 알려진 문제입니다. 현재 해결방법은 OpenDaylight 로깅을 컨테이너 내부에서 /opt/opendaylight/data/logs/karaf.log에 기록할 "file" 메커니즘으로 전환하는 것입니다. 이렇게 하려면 OpenDaylightLogMechanism: 'file'이라는 heat 매개변수를 구성합니다.

BZ#1568012

유동 IP를 인스턴스에 연결할 때 외부 IP에 연결하면 유동 IP의 연결을 해제하지 못합니다. 이 상황은 NAPT가 아닌 스위치에서 생성된 VM이 유동 IP와 연결되고 * 유동 IP가 제거될 때 테넌트 VLAN 네트워크에서 발생합니다. 그 결과 NAPT 스위치의 FIB 테이블에 누락된 흐름(sporadically)이 발생합니다.

FIB 테이블 누락으로 인해 VM이 공용 네트워크에 대한 연결이 끊어집니다.

유동 IP를 VM에 연결하면 공용 네트워크에 대한 연결이 복원됩니다. 유동 IP가 VM과 연결되어 있으면 인터넷에 연결할 수 있습니다. 그러나 외부 네트워크에서 공용 IP/유동 IP가 손실됩니다.

BZ#1568311

유동 IP가 없는 인스턴스가 다른 라우터에 유동 IP가 있는 다른 인스턴스에 연결하려고 하면 여러 서브넷에서 nova 인스턴스 간 3개의 연결이 실패할 수 있습니다. 이러한 문제는 nova 인스턴스가 여러 계산 노드에 분산될 때 발생합니다. 이 문제에 대한 적절한 해결방법은 없습니다.

BZ#1568976

배포 중에 기능 로드 버그로 인해 하나 이상의 OpenDaylight 인스턴스가 올바르게 시작되지 않을 수 있습니다. 이로 인해 배포 또는 기능 오류가 발생할 수 있습니다.

배포가 통과되면 배포에 성공하려면 세 개의 OpenDaylight 인스턴스 중 두 개만 작동해야 합니다. 세 번째 OpenDaylight 인스턴스가 잘못 시작되었을 수 있습니다. docker ps 명령을 사용하여 각 컨테이너의 상태를 확인합니다. 비정상적인 경우 docker 재시작 opendaylight_api 를 사용하여 컨테이너를 다시 시작합니다.

배포에 실패하면 유일한 옵션은 배포를 다시 시작하는 것입니다. TLS 기반 배포의 경우 모든 OpenDaylight 인스턴스가 올바르게 부팅되어야 합니다. 그렇지 않으면 배포가 실패합니다.

BZ#1571864

fast-forward 업그레이드 준비 중에 Heat 스택 리소스를 임시 제거하면 RHEL 규제 해제가 트리거됩니다. 그 결과 Heat 소프트웨어 배포 신호 처리가 제대로 작동하지 않기 때문에 RHEL의 등록 해제가 중단됩니다.

문제가 발생하지 않도록 하려면 오버클라우드가 OSP 10에 남아 있고 마지막 오버클라우드 마이너 버전 업데이트를 수행할 준비가 된 경우 1입니다. 템플릿 파일 /usr/share/openstack-tripleo-heat-templates/extraconfig/pre_deploy/rhel-registration.yaml 2를 편집합니다. 템플릿에서 RHELUnregistration 및 RHELUnregistrationDeployment 리소스를 삭제합니다. 3. 마이너 업데이트 및 빠른 전달 업그레이드 절차를 진행합니다.

BZ#1573597

Gnocchi 백엔드로 사용되는 Swift 클러스터를 제대로 수행하면 gnocchi-metricd.conf의 collectd 로그 및 "ConnectionError: ('Connection aborted.', CannotSendRequest())" 오류가 발생할 수 있습니다. 문제를 완화하려면 CollectdDefaultPollingInterval 매개변수 값을 늘리거나 Swift 클러스터 성능을 향상시킵니다.

BZ#1574708

클러스터에서 OpenDaylight 인스턴스가 제거되고 다시 연결되면 인스턴스가 클러스터에 참여하지 못할 수 있습니다. 결국 노드는 클러스터에 다시 참여합니다.

이러한 상황에서 다음 작업을 수행해야 합니다. * 결함이 있는 노드를 재시작합니다. * REST 엔드포인트를 모니터링하여 클러스터 멤버가 정상인지 확인합니다. http://$ODL_IP:8081/jolokia/read/org.opendaylight.controller:Category=ShardManager,name=shard-manager-config,type=DistributedConfigDatastore * 응답에는 "true" 필드가 포함되어야 합니다.

BZ#1574725

VLAN 공급자 네트워크의 동일한 서브넷에 있는 여러 VM이 서로 다른 두 개의 컴퓨팅 노드로 예약되면 VM 간에 ARP가 제대로 실패합니다.

VM 간 ARP 패킷이 실패하므로 두 VM 간에 네트워킹이 기본적으로 없습니다.

BZ#1575023

ceph-ansible의 복잡한 ceph-keys 처리를 변경하면 /etc/ceph/ceph.client.manila.keyring 파일에서 잘못된 콘텐츠가 생성되므로 manila-share 서비스가 초기화되지 않습니다.

manila-share 서비스가 초기화되도록 하려면 다음을 수행합니다.

1) 오버클라우드 배포에 사용할 /usr/share/openstack/tripleo-heat-templates의 사본을 만듭니다.

2) 295 행의 모든 삼중 백슬래시를 단일 백슬래시로 변경하도록 …​/tripleo-heat-templates/docker/services/ceph-ansible/ceph-base.yaml 파일을 편집합니다.

편집 전:

mon_cap: 'allow r, allow command \\"auth del\\\", allow command \\"auth caps\\", allow command \\"auth get\\", allow command \\"auth get\\", allow command \\"auth get-or-create\\"''

편집 후:

mon_cap: 'allow r, allow command \"auth del\", allow command \"auth caps\", allow command \"auth get\", allow command \"auth get\", allow command \"auth get\".

3) 원래 overcloud-deploy 명령에서 /usr/share/openstack-tripleo-heat 템플릿이 발생한 모든 tripleo-heat-templates 복사본에 대한 경로를 배포할 수 있습니다.

ceph 키 /etc/ceph/ceph.client.manila.keyring 파일에는 적절한 콘텐츠가 있고 manila-share 서비스가 제대로 초기화됩니다.

BZ#1575118

Ceph 릴리스 12.2.1은 각 OSD에 허용되는 최대 PG 수를 줄입니다. 하한 한도로 인해 모니터가 HEALTH_WARN 메시지를 조기에 발행할 수 있습니다.

모니터 경고 임계값이 OSD당 300개에서 200개의 PG로 감소했습니다. 200은 여전히 OSD당 100 PG의 일반적으로 권장되는 대상입니다. 이 제한은 모니터의 mon_max_pg_per_osd 옵션을 통해 조정할 수 있습니다. 이전 mon_pg_warn_max_per_osd 옵션이 제거되었습니다.

풀에서 사용하는 PG의 양을 줄일 수 없습니다. 업그레이드로 인해 기존 배포가 최대 제한에 도달하면 ceph-upgrade 단계에서 제한을 사전 업그레이드 값으로 늘릴 수 있습니다. 환경 파일에서 다음과 같이 매개변수 설정을 추가합니다.

parameter_defaults:
  CephConfigOverrides:
    mon_max_pg_per_osd: 300

설정은 ceph.conf에 적용되며 클러스터는 HEALTH_OK 상태로 유지됩니다.

BZ#1575150

OpenDaylight 클러스터 멤버가 중지되면 OpenDaylight 클러스터가 최대 30분 동안 응답하지 않을 수 있는 알려진 문제가 있습니다(실패하거나 다른 경우). 해결 방법은 클러스터가 다시 활성화될 때까지 대기합니다.

BZ#1575496

Director와 함께 외부 네트워크에 물리적 호스트 인터페이스를 사용하는 경우 인터페이스가 OVS 브리지에 연결되어 있지 않으면 OpenDaylight 설정에서 인터페이스가 트래픽을 전달하지 않습니다. 트래픽은 통과되지 않으며 이러한 유형의 구성을 피해야 합니다.

오버클라우드 외부 네트워크에 대해 NIC 템플릿에서 항상 OVS 브리지를 사용합니다. 이 브리지는 기본적으로 Director에서 "br-ex"라고 합니다(이름을 사용할 수도 있음). 외부 네트워크에 사용되는 물리적 호스트 인터페이스를 이 OVS 브리지에 연결해야 합니다.

OVS 브리지에 연결된 인터페이스를 사용하면 배포가 올바르게 작동하고 테넌트에 대한 외부 네트워크 트래픽이 올바르게 작동합니다.

BZ#1577975

OpenDaylight는 CPU 사용량이 매우 높은 기간일 수 있습니다. 이 문제는 다른 시스템 서비스에 잠재적으로 영향을 줄 수 있지만 OpenDaylight의 기능에 영향을 주지 않아야 합니다.

BZ#1579025

pacemaker가 슬레이브 노드를 승격하려고 할 때 OVN pacemaker Resource Agent(RA) 스크립트에서 승격 작업을 제대로 처리하지 않는 경우가 있습니다. 이는 마스터 ip가 노드로 이동되면 ovsdb-servers에서 RA 스크립트에 마스터로 상태를 보고하는 경우 표시됩니다. 이 문제는 업스트림에서 해결되었습니다.

문제가 발생하면 neutron 서버에서 OVN North 및 South DB 서버와 모든 Create/Update/Delete API를 neutron 서버에 연결할 수 없습니다.

ovn-dbs-bundle 리소스를 다시 시작하면 문제가 해결됩니다. 컨트롤러 노드 중 하나에서 아래 명령을 실행합니다.

"pcs 리소스 재시작 ovn-dbs-bundle"

BZ#1579417

SNAT 지원에는 테넌트 네트워크에서 사용되는 캡슐화와 관계없이 VXLAN 터널을 구성해야 합니다. 또한 VXLAN 터널 헤더가 페이로드에 추가되므로 VLAN 테넌트 네트워크를 사용할 때 MTU를 올바르게 구성해야 하며, 이로 인해 패킷이 기본 MTU(1500 Bytes)를 초과할 수 있습니다.

SNAT 트래픽이 해당 트래픽을 통과하도록 VXLAN 터널을 올바르게 구성해야 합니다. VLAN 테넌트 네트워크를 사용하는 경우 다음 방법 중 하나를 사용하여 SNAT 트래픽이 VXLAN 터널을 통해 흐름할 수 있도록 MTU를 구성합니다. * 네트워크 구성에 1450의 MTU를 사용하도록 VLAN 테넌트 기반 네트워크를 구성합니다. * NeutronGlobalPhysnetMtu heat 매개변수를 1450으로 설정합니다. 참고: 모든 플랫/VLAN 공급자 네트워크에는 1450 MTU가 있으며 바람직하지 않을 수 있습니다(특히 외부 공급자 네트워크의 경우). * 1550 이상의 MTU를 사용하여 테넌트 네트워크를 구성합니다. 여기에는 테넌트 네트워크 NIC에 대한 NIC 템플릿의 MTU 설정이 포함됩니다.

BZ#1581337

네트워크 부하 분산에 사용되는 HAProxy는 PING 유형 상태 모니터를 올바르게 지원하기 위해 버전 1.6 이상이어야 합니다.

Red Hat OpenStack Platform 13에 포함된 HAProxy 버전은 PING 유형 상태 모니터를 구성할 때 TCP 연결을 사용하는 1.6 이전 버전입니다.

BZ#1583541

SRIOV 기반 Compute 인스턴스는 다른 네트워크에 있는 경우 OVS Compute 인스턴스에 연결할 수 없습니다. 해결방법은 VLAN 프로바이더 네트워크 모두에 연결된 외부 라우터를 사용하는 것입니다.

BZ#1584518

RHOSP는 nova에서 기본적으로 DifferentHostFilter / SameHostFilter의 가용성을 구성하지 않으며 일부 테스트를 올바르게 완료하는 데 이러한 설정이 필요합니다. 따라서 여러 보안 그룹 테스트가 무작위로 실패할 수 있습니다.

이러한 테스트를 건너뛰거나 해당 필터를 nova 구성에 추가해야 합니다.

BZ#1584762

언더클라우드에서 Telemetry가 수동으로 활성화된 경우 각 노드에서 방화벽을 잘못 구성했기 때문에 hardware.* 지표가 작동하지 않습니다.

이 문제를 해결하려면 다음과 같이 언더클라우드 배포에 대한 추가 템플릿을 추가하여 컨트롤 플레인 네트워크를 사용하여 snmpd 서브넷을 수동으로 설정해야 합니다.

parameter_defaults: SnmpdIpSubnet: 192.168.24.0/24

BZ#1588186

경쟁 조건으로 인해 Open vSwitch가 Opendaylight openflowplugin에 연결되지 않습니다. 현재 이 제품의 13.z 릴리스에 대한 수정이 구현 중입니다.

BZ#1590114

언더클라우드에서 Telemetry가 수동으로 활성화된 경우 각 노드에서 방화벽을 잘못 구성했기 때문에 hardware.* 지표가 작동하지 않습니다.

이 문제를 해결하려면 다음과 같이 언더클라우드 배포에 대한 추가 템플릿을 추가하여 컨트롤 플레인 네트워크를 사용하여 snmpd 서브넷을 수동으로 설정해야 합니다.

parameter_defaults:
  SnmpdIpSubnet: 192.168.24.0/24

BZ#1590560

ceph-ansible 유틸리티는 생성한 동일한 노드에서 ceph-create-keys 컨테이너를 항상 제거하지는 않습니다.

이로 인해 "Error response from daemon: No such container: ceph-create-keys라는 메시지와 함께 배포에 실패할 수 있습니다. 이는 새 배포를 포함하여 ceph-ansible 실행에 영향을 미칠 수 있습니다. * * 여러 컴퓨팅 노트 또는 * 사용자 지정 역할은 ceph를 사용하는 서비스를 호스팅하는 ceph 클라이언트로 변경될 수 있습니다.

BZ#1590938

RHCS3에 OSD를 3개 이상 배포하고 pgcalc(https://access.redhat.com/labs/cephpgc)에 정의된 풀의 PG 번호를 설정하면 모든 OSD가 활성화되기 전에 ceph-ansible이 풀을 생성하므로 배포가 실패합니다.

문제를 방지하려면 기본 PG 번호를 32로 설정하고 배포가 완료되면 스토리지 전략 가이드( https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/3/html/storage_strategies_guide/placement_groups_pgs#set_the_number_of_pgs 설명된 대로 PG 번호를 수동으로 올립니다.

BZ#1590939

ceph-ansible OpenStack 풀 작업에는 잘못된 컨테이너 이름이 있으므로 아직 Ceph MON 및 OSD를 배치할 수 없습니다. 표준 HCI(Computes + OSD)는 영향을 받지 않습니다.

BZ#1593290

SR-IOV 기반 네트워크 인터페이스가 연결된 게스트가 실행되고 게스트를 제거할 때 nova-compute 서비스를 재시작하고 게스트를 제거하면 더 이상 해당 노드의 SR-IOV VF를 게스트에 연결할 수 없습니다. 이는 사용 가능한 장치가 서비스 시작 시 열거되지만 장치가 게스트에 연결되어 있으므로 호스트 장치 목록에 포함되지 않기 때문입니다.

게스트를 제거한 후 'nova-compute' 서비스를 다시 시작해야 합니다. 게스트를 제거하고 서비스를 다시 시작한 후 사용 가능한 SR-IOV 장치 목록이 수정됩니다.

BZ#1593715

비보안 레지스트리 목록은 메이저 업그레이드 중에 일부 컨테이너 이미지를 가져오는 것보다 나중에 업데이트됩니다. 따라서 openstack overcloud upgrade run 명령 중에 새로 도입된 비보안 레지스트리의 컨테이너 이미지를 다운로드할 수 없습니다.

다음 해결 방법 중 하나를 사용할 수 있습니다.

옵션 A: Pacemaker에서 관리하는 컨테이너가 있는 노드에서 /etc/sysconfig/docker 파일을 수동으로 업데이트하고 새로 도입된 비보안 레지스트리를 추가합니다.

옵션 B: 업그레이드 전에 openstack overcloud deploy 명령을 실행하고 DockerInsecureRegistryAddress 매개변수가 있는 환경 파일을 사용하여 원하는 새 비보안 레지스트리 목록을 제공합니다.

업그레이드 중에 모든 컨테이너 이미지가 성공적으로 다운로드되어야 합니다.

BZ#1593757

기존 오버클라우드 배포에서 Octavia를 활성화하면 컨트롤러 노드의 방화벽 규칙이 잘못 구성되어 있으므로 Octavia API 끝점에 연결할 수 없습니다.

해결방법은 모든 컨트롤러 노드에서 방화벽 규칙을 추가하고 DROP 규칙 앞에 삽입되는지 확인합니다.

IPv4:
  # iptables -A INPUT -p tcp -m multiport --dports 9876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy ipv4" -j ACCEPT
  # iptables -A INPUT -p tcp -m multiport --dports 13876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy_ssl ipv4" -j ACCEPT
  # iptables -A INPUT -p tcp -m multiport --dports 9876,13876 -m state --state NEW -m comment --comment "120 octavia_api ipv4" -j ACCEPT
IPv6:
  # ip6tables -A INPUT -p tcp -m multiport --dports 9876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy ipv6" -j ACCEPT
  # ip6tables -A INPUT -p tcp -m multiport --dports 13876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy_ssl ipv6" -j ACCEPT
  # ip6tables -A INPUT -p tcp -m multiport --dports 9876,13876 -m state --state NEW -m comment --comment "120 octavia_api ipv6" -j ACCEPT

HAProxy를 재시작합니다.

  # docker restart haproxy-bundle-docker-0

BZ#1595363

빠른 전달 업그레이드 프로세스 중에 사용자가 언더클라우드를 버전 10에서 버전 11으로 업그레이드합니다. 경우에 따라 nova-api.log에서 다음 오류를 보고할 수 있습니다.

예기치 않은 API 오류. 'nova_cell0.instances'가 존재하지 않음

다음 명령을 실행하여 이 오류를 해결할 수 있습니다.

$ sudo nova-manage api_db sync

이 문제는 중요하지 않으며 주요 방식으로 빠르게 후속 업그레이드 프로세스를 중단해서는 안 됩니다.

BZ#1790653

OpenStack Networking이 포트를 바인딩하는 방식으로 인해 DVR 환경에서 네트워크 인스턴스를 실시간 마이그레이션하면 유동 IP 주소를 사용하여 기존 연결이 끊어질 수 있습니다. 현재 RHOSP 13에는 해결방법이 없습니다. 그러나 RHOSP 14 이상 릴리스에서는 이 문제가 해결되었습니다.

3.2. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2018년 7월 19일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.2.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1592823

Ansible 플레이북의 로그에 배포, 업데이트 및 업그레이드 중 작업 타이밍에 대한 정보를 제공하는 타임스탬프가 포함됩니다.

3.2.2. 릴리스 노트

본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 최상의 배포 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.

BZ#1578312

OVSDB 서버가 다른 컨트롤러 노드에 장애 조치되면 이 조건을 감지하지 않기 때문에 neutron-server/metadata-agent의 재연결이 수행되지 않습니다.

결과적으로 metadata-agent가 새 메타데이터 네임스페이스를 프로비저닝하지 않고 클러스터링이 예상대로 작동하지 않으므로 VM 부팅이 작동하지 않을 수 있습니다.

가능한 해결 방법은 새 컨트롤러가 OVN 데이터베이스의 마스터로 승격된 후 모든 컴퓨팅 노드에서 ovn_metadata_agent 컨테이너를 다시 시작하는 것입니다. 또한 plugin.ini의 ovsdb_probe_interval을 600000밀리초 값으로 늘립니다.

3.2.3. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1515815

라우터 게이트웨이를 제거하면 학습된 IP 주소와 관련된 계층 3 흐름이 제거되지 않습니다. 학습된 IP 주소에는 PNF 및 외부 게이트웨이 IP 주소가 포함됩니다. 이로 인해 오래된 흐름이 발생하지만 기능적인 문제는 발생하지 않습니다. 외부 게이트웨이 및 IP 주소는 자주 변경되지 않습니다. 외부 네트워크를 삭제하면 오래된 흐름이 제거됩니다.

BZ#1519783

Neutron에서는 Neutron 라우터 생성 시 할당량이 초과되었음을 나타내는 오류가 발생할 수 있습니다. 이는 networking-odl의 버그로 인해 Neutron DB에서 단일 생성 요청으로 여러 라우터 리소스가 생성되는 알려진 문제입니다. 이 문제의 해결 방법은 OpenStack Neutron CLI를 사용하여 중복된 라우터를 삭제하고 다시 라우터를 생성하여 단일 인스턴스가 생성되는 것입니다.

BZ#1559055

OpenDaylight 로깅이 이전 로그가 누락되었을 수 있습니다. 이는 OpenDaylight의 journald 로깅 (Docker logs opendaylght_api" 명령 사용)과 관련하여 알려진 문제입니다. 현재 해결방법은 OpenDaylight 로깅을 컨테이너 내부에서 /opt/opendaylight/data/logs/karaf.log에 기록할 "file" 메커니즘으로 전환하는 것입니다. 이렇게 하려면 OpenDaylightLogMechanism: 'file'이라는 heat 매개변수를 구성합니다.

BZ#1568311

유동 IP가 없는 인스턴스가 다른 라우터에 유동 IP가 있는 다른 인스턴스에 연결하려고 하면 여러 서브넷에서 nova 인스턴스 간 3개의 연결이 실패할 수 있습니다. 이러한 문제는 nova 인스턴스가 여러 계산 노드에 분산될 때 발생합니다. 이 문제에 대한 적절한 해결방법은 없습니다.

BZ#1568976

배포 중에 기능 로드 버그로 인해 하나 이상의 OpenDaylight 인스턴스가 올바르게 시작되지 않을 수 있습니다. 이로 인해 배포 또는 기능 오류가 발생할 수 있습니다.

배포가 통과되면 배포에 성공하려면 세 개의 OpenDaylight 인스턴스 중 두 개만 작동해야 합니다. 세 번째 OpenDaylight 인스턴스가 잘못 시작되었을 수 있습니다. docker ps 명령을 사용하여 각 컨테이너의 상태를 확인합니다. 비정상적인 경우 docker 재시작 opendaylight_api 를 사용하여 컨테이너를 다시 시작합니다.

배포에 실패하면 유일한 옵션은 배포를 다시 시작하는 것입니다. TLS 기반 배포의 경우 모든 OpenDaylight 인스턴스가 올바르게 부팅되어야 합니다. 그렇지 않으면 배포가 실패합니다.

BZ#1583541

SRIOV 기반 Compute 인스턴스는 다른 네트워크에 있는 경우 OVS Compute 인스턴스에 연결할 수 없습니다. 해결방법은 VLAN 프로바이더 네트워크 모두에 연결된 외부 라우터를 사용하는 것입니다.

BZ#1588186

경쟁 조건으로 인해 Open vSwitch가 Opendaylight openflowplugin에 연결되지 않습니다. 현재 이 제품의 13.z 릴리스에 대한 수정이 구현 중입니다.

BZ#1593757

기존 오버클라우드 배포에서 Octavia를 활성화하면 컨트롤러 노드의 방화벽 규칙이 잘못 구성되어 있으므로 Octavia API 끝점에 연결할 수 없습니다.

해결방법:

모든 컨트롤러 노드에서 방화벽 규칙을 추가하고 DROP 규칙 앞에 삽입되는지 확인합니다.

IPv4:
  # iptables -A INPUT -p tcp -m multiport --dports 9876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy ipv4" -j ACCEPT
  # iptables -A INPUT -p tcp -m multiport --dports 13876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy_ssl ipv4" -j ACCEPT
  # iptables -A INPUT -p tcp -m multiport --dports 9876,13876 -m state --state NEW -m comment --comment "120 octavia_api ipv4" -j ACCEPT
IPv6:
  # ip6tables -A INPUT -p tcp -m multiport --dports 9876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy ipv6" -j ACCEPT
  # ip6tables -A INPUT -p tcp -m multiport --dports 13876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy_ssl ipv6" -j ACCEPT
  # ip6tables -A INPUT -p tcp -m multiport --dports 9876,13876 -m state --state NEW -m comment --comment "120 octavia_api ipv6" -j ACCEPT

HAProxy를 재시작합니다.

  # docker restart haproxy-bundle-docker-0

3.3. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2018년 8월 29일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.3.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1561961

이 기능은 PCI 장치 NUMA 선호도 정책에 대한 지원이 추가되었습니다. 이는 [pci]alias 구성 옵션의 일부로 구성됩니다. 가능한 경우 세 가지 정책이 지원됩니다. 필수 - 기존 에서 선호되는 모든 경우 가능한 경우 엄격한 NUMA 선호도가 제공됩니다. 정책의 주요 차이점은 일정을 예약하기 전에 셰이크를 수행할 수 있는 NUMA 선호도입니다. 이러한 정책을 사용하면 장치별로 NUMA 선호도가 얼마나 엄격한지 또는 장치 별칭별로 보다 구체적으로는 NUMA 선호도를 구성할 수 있습니다. 이는 최대 리소스 사용을 보장하는 데 유용합니다. PCI 장치에 대해 '기본 설정' 정책이 구성된 경우 nova는 이제 사용 가능한 모든 경우 PCI 장치의 NUMA 노드와 다른 NUMA 노드에서 CPU를 활용합니다. 이로 인해 이러한 인스턴스의 성능이 저하되어 리소스 사용률이 증가합니다.

BZ#1564918

이전에는 Ironic에서 하나의 IPMI 오류만 재시도 가능으로 간주했습니다. 이로 인해 조정되지 않은 Ironic 오류가 발생할 수 있습니다. 이번 개선된 기능을 통해 Ironic은 더 많은 유형의 IPMI 오류 메시지를 전원 및 관리 하드웨어 인터페이스와 같은 IPMI 지원 하드웨어 인터페이스에서 재시도할 수 있는 방법으로 처리합니다. 특히 "Node busy", "Timeout", "Out of space" 및 "BMC 초기화 진행 중" IPMI 오류로 인해 Ironic에서 IPMI 명령을 다시 시도합니다. 이로 인해 BMC와 IPMI 기반 통신의 안정성이 향상됩니다.

BZ#1571741

이제 Nova의 libvirt 드라이버를 통해 CPU 모델을 구성할 때 세분화된 CPU 기능 플래그를 지정할 수 있습니다.

이러한 변경의 한 가지 이점은 "Meltdown" CVE 수정 사항 이후 특정 Intel 기반 가상 CPU 모델을 실행하는 게스트에서 발생하는 성능 저하를 극대화하는 것입니다. 물리적 하드웨어 자체에서 PCID 플래그를 사용할 수 있다고 가정하면 게스트 CPU에 CPU 기능 'PCID'("Process-Context ID")를 노출하여 게스트 성능 영향을 줄일 수 있습니다.

자세한 내용은 nova.conf[libvirt]/cpu_model_extra_flags 설명서를 참조하십시오.

BZ#1574349

오버클라우드 배포 전에 클러스터에 대한 stonith 리소스를 자동으로 생성할 수 있습니다. 배포를 시작하기 전에 openstack overcloud generate fencing --ipmi-lanplus --output /home/stack/fencing.yaml /home/stack/instackenv.json을 실행합니다.

그런 다음 '-e /home/stack/fencing.yaml'을 deploy 명령에 전달합니다. 이렇게 하면 클러스터에 필요한 stonith 리소스가 자동으로 생성됩니다.

BZ#1578633

RHOSP-director-images는 이제 multi-arch입니다. OSP 13에는 ppc64le용 오버클라우드 전체 및 ironic python 에이전트 이미지가 있습니다. 결과적으로 rhosp-director-images가 이러한 변경을 수용하도록 조정되었습니다. 결과적으로 rhosp-director-images 및 rhosp-director-images-ipa는 이제 rhosp-director-images-<arch> 및 multi-arch 지원에 대해 추가된 rhosp-director-images-ipa-<arch> rpms를 사용하여 meta-packages입니다.

BZ#1578636

RHOSP-director-images는 이제 multi-arch입니다. OSP 13에는 ppc64le용 오버클라우드 전체 및 ironic python 에이전트 이미지가 있습니다. 결과적으로 rhosp-director-images가 이러한 변경을 수용하도록 조정되었습니다. 결과적으로 rhosp-director-images 및 rhosp-director-images-ipa는 이제 rhosp-director-images-<arch> 및 multi-arch 지원에 대해 추가된 rhosp-director-images-ipa-<arch> rpms를 사용하여 meta-packages입니다.

BZ#1579691

이제 Nova의 libvirt 드라이버를 통해 CPU 모델을 구성할 때 세분화된 CPU 기능 플래그를 지정할 수 있습니다. 이러한 이점 중 하나는 "Meltdown" CVE 수정의 적용 후 특정 Intel 기반 가상 CPU 모델을 실행하는 게스트에서 발생하는 성능 저하를 극대화하는 것입니다. 물리적 하드웨어 자체에서 PCID 플래그를 사용할 수 있다고 가정하면 게스트 CPU에 CPU 기능 'PCID'("Process-Context ID")를 노출하여 게스트 성능 영향을 줄일 수 있습니다. 이 변경으로 인해 'PCID'만 CPU 기능 플래그로만 보유되는 제한이 없으며 여러 CPU 플래그를 추가하고 제거할 수 있으므로 다른 사용 사례에서 사용할 수 있습니다. 자세한 내용은 nova.conf[libvirt]/cpu_model_extra_flags 설명서를 참조하십시오.

BZ#1601472

배포된 NFV를 사용하여 RHOSP 10에서 RHOSP 13으로 업그레이드하는 절차는 DPDK 및 SR-IOV 환경에 대해 테스트 및 업데이트되었습니다.

BZ#1606224

이번 업데이트를 통해 KVM 가상화가 Red Hat에서 지원하는 모든 CPU 아키텍처에서 Ceph 스토리지를 지원합니다.

BZ#1609352

이번 개선된 기능에는 nova 및 유틸리티의 GA 컨테이너 및 IBM Power LE에서 Cinder, Glance, Keystone, Neutron 및 Swift에 대한 기술 프리뷰 컨테이너가 추가되었습니다.

BZ#1619311

RHOSP-director-images는 이제 multi-arch입니다. OSP 13에는 ppc64le용 오버클라우드 전체 및 ironic python 에이전트 이미지가 있습니다. 결과적으로 rhosp-director-images가 이러한 변경을 수용하도록 조정되었습니다. 결과적으로 rhosp-director-images 및 rhosp-director-images-ipa는 이제 rhosp-director-images-<arch> 및 multi-arch 지원에 대해 추가된 rhosp-director-images-ipa-<arch> rpms를 사용하여 meta-packages입니다.

3.3.2. 릴리스 노트

본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 최상의 배포 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.

BZ#1523864

이번 업데이트에서는 Manila IPv6 내보내기 위치 및 Dell-EMC Unity 및 VNX 백엔드의 액세스 규칙을 사용할 수 있도록 지원합니다.

BZ#1549770

이제 컨테이너는 기본 배포 방법입니다. 여전히 environment/baremetal-services.yaml에 baremetal 서비스를 배포할 수 있지만 결국에는 사라질 것으로 예상됩니다.

환경/서비스-docker를 참조하는 리소스 레지스트리가 있는 환경 파일을 환경/서비스 경로로 변경해야 합니다. 배포된 baremetal 서비스를 유지해야 하는 경우 원래 환경/서비스를 배치한 대신 environments/services-baremetal에 대한 참조를 업데이트합니다.

BZ#1565028

/var/log/opendaylight에 README가 추가되어 올바른 OpenDaylight 로그 경로를 나타냅니다.

BZ#1570039

컨테이너화된 logrotate 서비스에 기본적으로 순환된 로그를 압축하는 압축 옵션이 추가되었습니다. delaycompress 옵션을 사용하면 로그 파일의 첫 번째 순환은 압축되지 않은 상태로 유지됩니다.

BZ#1575752

이전 버전에서는 *NetName 매개변수(예: InternalApiNetName)가 기본 네트워크의 이름을 변경했습니다. 이는 더 이상 지원되지 않습니다. 기본 네트워크의 이름을 변경하려면 사용자 지정 구성 가능 네트워크 파일(network_data.yaml)을 사용하여 '-n' 옵션을 사용하여 'openstack overcloud deploy' 명령에 포함하십시오. 이 파일에서 "name_lower" 필드를 변경하려는 네트워크의 사용자 지정 네트워크 이름으로 설정합니다. 자세한 내용은 Advanced Overcloud Customization 가이드의 "추가 네트워크 사용"을 참조하십시오. 또한 ServiceNetMap 테이블의 로컬 매개변수를 network_environment.yaml에 추가하고 이전 네트워크 이름의 모든 기본값을 새 사용자 지정 이름으로 재정의해야 합니다. /usr/share/openstack-tripleo-heat-templates/network/service_net_map.j2.yaml에서 기본값을 찾을 수 있습니다. ServiceNetMap을 수정하기 위한 이 요구 사항은 향후 OSP-13 릴리스에서 필요하지 않습니다.

BZ#1592528

드문 경우지만 컨트롤러 노드를 여러 번 재부팅한 후 RabbitMQ가 일관성 없는 상태로 실행되어 오버클라우드의 API 작업을 차단할 수 있습니다.

이 문제의 증상은 - DuplicateMessageError: Found duplicate message(629ff0024219488499b0fac0caa5) 형식의 OpenStack 서비스 로그에 참여합니다. 이를 건너뜁니다. - "openstack network agent list"는 일부 에이전트가 DOWN임을 반환합니다.

일반 작업을 복원하려면 모든 컨트롤러 노드에서 다음 명령을 실행합니다(컨트롤러에서만 이 작업을 수행해야 함): pcs resource restart rabbitmq-bundle

3.3.3. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1557794

director 언더클라우드를 백업하고 복원하는 절차에서 회귀가 확인되었습니다. 따라서 이 절차에서는 게시하기 전에 수정 및 확인이 필요합니다.

따라서 'Back Up and Restore the Director Undercloud'는 Red Hat OpenStack Platform 13의 일반 사용 가능으로 사용할 수 없습니다. 이 절차는 일반 가용성 릴리스 후 우선 순위로 업데이트되고 확인되는 즉시 게시됩니다.

BZ#1579025

pacemaker가 슬레이브 노드를 승격하려고 할 때 OVN pacemaker Resource Agent(RA) 스크립트에서 승격 작업을 제대로 처리하지 않는 경우가 있습니다. 이는 마스터 ip가 노드로 이동되면 ovsdb-servers에서 RA 스크립트에 마스터로 상태를 보고하는 경우 표시됩니다. 이 문제는 업스트림에서 해결되었습니다.

문제가 발생하면 neutron 서버에서 OVN North 및 South DB 서버와 모든 Create/Update/Delete API를 neutron 서버에 연결할 수 없습니다.

ovn-dbs-bundle 리소스를 다시 시작하면 문제가 해결됩니다. 컨트롤러 노드 중 하나에서 아래 명령을 실행합니다.

"pcs 리소스 재시작 ovn-dbs-bundle"

BZ#1584762

언더클라우드에서 Telemetry가 수동으로 활성화된 경우 각 노드에서 방화벽을 잘못 구성했기 때문에 hardware.* 지표가 작동하지 않습니다. 이 문제를 해결하려면 다음과 같이 undercloud 배포에 대한 추가 템플릿을 추가하여 컨트롤 플레인 네트워크를 사용하여 snmpd 서브넷을 수동으로 설정해야 합니다. parameter_defaults: SnmpdIpSubnet: 192.168.24.0/24

3.4. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2018년 11월 13일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.4.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1466117

이 릴리스에서는 MTU를 OSPD의 일부로 설정하려면 ml2 플러그인에서 MTU를 활성화하기 위해 neutron::plugins::ml2::physical_network_mtus 를 NeutronML2PhysicalNetworkMtus로 추가합니다. Neutron::plugins::ml2::physical_network_mtus는 TripleO heat 템플릿의 값을 기반으로 설정됩니다.

BZ#1545151

OpenStack이 업데이트 및/또는 업그레이드되면 director가 최신 amphora 이미지를 glance에 업로드합니다. 최신 앰플라 이미지는 Octavia 에이전트 수정뿐만 아니라 운영 체제 수정뿐만 아니라 최신 일반적인 버그 및 보안 수정으로 인스턴스를 실행할 수 있습니다.

이번 릴리스에서는 새로 생성 및 재생성된 amphora 인스턴스가 최신 amphora 이미지로 만들어집니다. 이전 amphora 이미지는 glance에 저장되며 접미사에 타임스탬프를 포함하도록 이름이 변경됩니다.

BZ#1561961

이 기능은 PCI 장치 NUMA 선호도 정책에 대한 지원이 추가되었습니다. 이는 [pci]alias 구성 옵션의 일부로 구성됩니다. 가능한 경우 세 가지 정책이 지원됩니다. 필수 - 기존 에서 선호되는 모든 경우 가능한 경우 엄격한 NUMA 선호도가 제공됩니다. 정책의 주요 차이점은 일정을 예약하기 전에 셰이크를 수행할 수 있는 NUMA 선호도입니다. 이러한 정책을 사용하면 장치별로 NUMA 선호도가 얼마나 엄격한지 또는 장치 별칭별로 보다 구체적으로는 NUMA 선호도를 구성할 수 있습니다. 이는 최대 리소스 사용을 보장하는 데 유용합니다. PCI 장치에 대해 '기본 설정' 정책이 구성된 경우 nova는 이제 사용 가능한 모든 경우 PCI 장치의 NUMA 노드와 다른 NUMA 노드에서 CPU를 활용합니다. 이로 인해 이러한 인스턴스의 성능이 저하되어 리소스 사용률이 증가합니다.

BZ#1571286

중량 CPUWeigher 를 사용하여 vCPU 사용량에 따라 호스트에 분산(기본) 또는 팩 워크로드를 실행할 수 있습니다. nova.conf [filter_scheduler] cpu_weight_multiplier 설정 옵션을 -1.0 또는 1.0으로 설정할 수 있습니다. 이 옵션을 1.0으로 설정하면 인스턴스가 호스트에 분산됩니다. 이 옵션을 -1.0으로 설정하면 호스트에 인스턴스가 패키징됩니다. 값을 0으로 설정하면 weighter가 비활성화됩니다.

BZ#1619485

다중 경로 표시 상태가 오류 코드를 반환하지 않는 경우가 있으므로 이제 이 문제의 해결 방법으로 stdout을 확인하여 다중 경로가 오류 상태입니다.

BZ#1628786

다중 아키텍처 환경에서 Ceph 설정 실패를 방지하기 위해 이 업데이트를 통해 Ceph에서 클라이언트 사용자, 키 및 풀 설정이 비 x86_64 시스템에서 실행되지 않습니다.

Ceph 설정은 x86_64 시스템에서만 지원됩니다. 이번 업데이트 이전에는 clients 그룹의 첫 번째 인벤토리 항목이 x86_64 시스템이 아닌 경우 해당 시스템에 대한 Ceph 설정 시도가 실패하고 ceph-install이 중단됩니다.

BZ#1629873

iSCSI 장치 탐지는 다시 스캔 시간을 기반으로 장치의 존재를 확인했습니다. 검사 사이에 사용 가능한 장치가 감지되지 않았습니다. 이번 릴리스에서는 검색 및 재검사는 1초마다 다양한 주기로 작동하는 독립적인 작업입니다.

BZ#1631009

이전 버전에서는 undercloud hieradata 덮어쓰기를 사용하여 오버클라우드와 유사한 <service>::config 옵션을 사용하여 일부 서비스 구성을 조정할 수 있습니다. 그러나 이 기능은 배포된 모든 OpenStack 서비스에서 사용할 수 있는 것은 아닙니다. 이 버전에서는 현재 사용할 수 없는 모든 구성 값을 <service>::config hieradata를 통해 업데이트할 수 있습니다.

BZ#1640833

블록 스토리지 서비스의 HPE Nimble Storage 드라이버로의 볼륨 유형 및 마이그레이션 작업에 대한 지원이 추가되었습니다.

3.4.2. 릴리스 노트

본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 최상의 배포 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.

BZ#1496584

neutron 서비스가 컨테이너화되면 네트워크 네임스페이스에서 명령을 실행하려고 하면 다음 오류가 발생할 수 있습니다.

# ip netns exec qrouter...
RTNETLINK answers: Invalid argument

네트워크 네임스페이스 내에서 명령을 실행하려면 네임스페이스를 생성한 neutron 컨테이너에서 수행해야 합니다. 예를 들어 l3-agent는 라우터의 네트워크 네임스페이스를 생성하므로 명령은 다음과 같아야 합니다.

# docker exec neutron_l3_agent ip netns exec qrouter...

마찬가지로 'qdhcp'로 시작하는 네트워크 네임스페이스를 사용하면 'neutron_dhcp' 컨테이너에서 exec가 필요합니다.

BZ#1567735

OVN을 네트워킹 백엔드로 사용하는 OSP13에는 첫 번째 릴리스에서 IPv6 지원이 포함되지 않습니다. 기본 경로가 손실되는 게스트 VM에서 발생하는 Neighbor Solicitation 요청에 대한 응답에는 문제가 있습니다.

BZ#1589849

컴퓨팅 노드에서 OVN 메타데이터 에이전트가 중지되면 해당 노드의 모든 VM이 메타데이터 서비스에 액세스할 수 없습니다. 새로운 VM이 생성되거나 기존 VM이 재부팅되면 OVN 메타데이터 에이전트가 다시 가동될 때까지 VM이 메타데이터에 액세스하지 못할 수 있습니다.

3.4.3. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1621062

Octavia-amphora 파일 이름 지정 변경으로 인해 잘못된 이름 지정이 있는 심볼릭 링크 또는 심볼릭 링크가 손상될 수 있습니다. 해결 방법으로 /usr/sbin/rhosp-director-image-update를 실행합니다. 이렇게 하면 문제가 해결됩니다.

3.5. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2019년 1월 16일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.5.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1476282

overcloud-minimal qcow2 이미지를 사용하여 최소 버전의 오버클라우드를 배포할 수 있습니다. 이 최소 설치에는 업데이트를 위해 OpenStack 인타이틀먼트가 필요하지 않습니다.

BZ#1600115

이전에는 OVN 논리 라우터를 사용한 새 연결의 첫 번째 패킷을 사용하여 대상의 MAC 주소를 검색할 수 있었습니다. 이로 인해 새 연결에서 첫 번째 패킷이 손실되었습니다.

이번 개선된 기능에는 새 연결의 첫 번째 패킷을 올바르게 큐하는 기능이 추가되어 해당 패킷이 손실되지 않습니다.

BZ#1607362

이 기능은 IPv6 주소에 ODL(OpenDaylight) 배포를 지원합니다.

BZ#1635892

Octavia는 이전에 VIP 및 VRRP Amphora 포트와 연결된 보안 그룹에 Octavia project-id를 할당했습니다. 이로 인해 사용자가 로드 밸런서에 대한 액세스를 제한할 수 없었습니다. 이번 수정에서는 사용자가 로드 밸런서에 대한 액세스 정책을 구체화할 수 있는 사용자 프로젝트(지정된 프로젝트용)에 속하도록 SG 소유권을 변경하는 옵션이 추가되었습니다.

BZ#1636395

이 기능을 사용하면 VF의 MAC 주소 변경 및 게스트 인스턴스에서 직접 불규칙 모드를 활성화하는 등 신뢰할 수 있는 SR-IOV 가상 함수(VF)를 사용하여 인스턴스를 생성할 수 있습니다. 이러한 기능은 인스턴스에서 직접 인스턴스에 대해 페일오버 VF를 구성하는 데 도움이 됩니다.

VF의 신뢰할 수 있는 모드를 구성하려면 먼저 nova.conf에서 [pci] passthrough_whitelist JSON 구성 옵션의 신뢰 할 수 있는 값을 설정합니다. 그런 다음 바인딩 프로필에서 trusted=true 특성을 사용하여 포트를 생성합니다. vnic-type 속성에 hw_veb 또는 direct 값이 있는지 확인합니다.

BZ#1644020

이 기능은 컴퓨팅 노드의 nova.conf 파일에 다중 경로 구성 매개변수 libvirt/volume_use_multipath 를 설정하는 새로운 매개변수 NovaLibvirtVolumeUseMultipath (boolean)를 추가합니다. 이 매개변수는 각 Compute 역할에 대해 설정할 수 있습니다. 기본값은 False 입니다.

BZ#1646907

이 기능에는 UEFI 모드에서 전체 보안 기능이 강화된 이미지를 부팅할 수 있는 기능이 추가되었습니다.

BZ#1648261

이번 개선된 기능에는 heat 템플릿에서 neutron::agents::ml2::ovs::tunnel_csum 을 구성할 수 있는 NeutronOVSTunnelCsum 매개변수가 추가되었습니다. 이 매개 변수는 OVS 에이전트에서 나가는 IP 패킷을 전달하는 GRE/VXLAN 터널에서 터널 헤더 체크섬을 설정하거나 제거합니다.

BZ#1656495

이 기능에는 NovaSchedulerWorkers 매개변수가 추가되어 각 스케줄러 노드에 대해 여러 개의 nova-schedule 작업자를 구성할 수 있습니다. 기본값은 1 입니다.

3.5.2. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1574708

클러스터에서 OpenDaylight 인스턴스가 제거되고 다시 연결되면 인스턴스가 클러스터에 참여하지 못할 수 있습니다. 결국 노드는 클러스터에 다시 참여합니다.

이러한 상황에서 다음 조치를 취해야 합니다.

  1. 오류가 있는 노드를 재시작합니다.
  2. REST 엔드포인트를 모니터링하여 클러스터 멤버가 정상인지 확인합니다. http://$ODL_IP:8081/jolokia/read/org.opendaylight.controller:Category=ShardManager,name=shard-manager-config,type=DistributedConfigDatastore

응답에는 "SyncStatus" 필드가 포함되어야 하며, "true" 값은 정상 클러스터 멤버를 나타냅니다.

BZ#1579025

pacemaker가 슬레이브 노드를 승격하려고 할 때 OVN pacemaker Resource Agent(RA) 스크립트에서 승격 작업을 제대로 처리하지 않는 경우가 있습니다. 이는 마스터 ip가 노드로 이동되면 ovsdb-servers에서 RA 스크립트에 마스터로 상태를 보고하는 경우 표시됩니다. 이 문제는 업스트림에서 해결되었습니다.

문제가 발생하면 neutron 서버에서 OVN North 및 South DB 서버와 모든 Create/Update/Delete API를 neutron 서버에 연결할 수 없습니다.

ovn-dbs-bundle 리소스를 다시 시작하면 문제가 해결됩니다. 컨트롤러 노드 중 하나에서 아래 명령을 실행합니다.

pcs resource restart ovn-dbs-bundle

3.6. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2019년 3월 13일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.6.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1636496

이번 업데이트를 통해 다음 매개변수를 사용하여 백엔드 멤버 및 프런트 엔드 클라이언트에 대한 기본 Octavia 타임아웃을 설정할 수 있습니다.

  • OctaviaTimeoutClientData: 프런트 엔드 클라이언트 비활성 시간
  • OctaviaTimeoutMemberConnect: 백엔드 멤버 연결 시간 초과
  • OctaviaTimeoutMemberData: 백엔드 멤버 비활성 타임아웃
  • OctaviaTimeoutTcpInspect: 콘텐츠 검사를 위해 TCP 패킷을 대기하는 시간

이러한 모든 매개 변수의 값은 밀리초 단위입니다.

BZ#1636895

이번 업데이트를 통해 IPv6 주소에 터널 엔드포인트를 만들 수 있습니다.

BZ#1650576

이전에는 OpenDaylight 패키징에서 기본 OpenDaylight log_pattern 값을 사용하고 PaxOsgi appender가 포함되었습니다. 이러한 기본값이 모든 배포에 적합한 것은 아니며 사용자 정의 값을 구성하는 것이 적절합니다.

이번 업데이트를 통해 puppet-opendaylight 에는 두 가지 추가 설정 변수가 있습니다.

  • log_pattern: 이 변수를 사용하여 OpenDaylight 로거 log4j2와 함께 사용할 로그 패턴을 구성합니다.
  • enable_paxosgi_appender: 이 부울 플래그를 사용하여 PaxOsgi appender를 활성화하거나 비활성화합니다.

Puppet-opendaylight 도 OpenDaylight 기본값을 수정합니다. puppet-opendaylight 를 사용하는 배포에는 새로운 기본값이 있습니다.

  • log_pattern: %d{ISO8601} | %-5p | %-16t | %-60c{6} | %m%n
  • enable_paxosgi_appender: false

새로운 변수 구성 옵션

log_pattern

로깅에 사용되는 로그 패턴을 제어하는 문자열입니다.

기본값: %d{ISO8601} | %-5p | %-16t | %-60c{6} | %m%n

유효한 옵션: 유효한 log4j2 패턴인 문자열입니다.

enable_paxosgi_logger

PaxOsgi appender 로깅을 사용할 수 있는지 여부를 제어하는 부울입니다.

enable_paxosgi_logger 변수를 활성화하는 경우 추가 기능을 사용하도록 로그 패턴도 수정해야 합니다. log_pattern 변수를 수정하고 PaxOsgi 토큰을 포함하는 패턴을 포함합니다. 예를 들어 log_pattern 변수를 다음 값이 포함된 문자열로 설정합니다.

'%X{bundle.id} - %X{bundle.name} -
+
%X{bundle.version}'

log_pattern 변수를 편집하지 않으면 PaxOsgi appender가 계속 활성화되어 실행되지만 로깅은 추가 기능을 사용하지 않습니다.

예를 들어 enable_paxosgi_logger 변수를 true 로 설정하고 log_pattern 변수를 다음 값으로 설정합니다.

'%d{ISO8601} | %-5p | %-16t | %-32c{1} | %X{bundle.id} - %X{bundle.name} - %X{bundle.version} | %m%n'

기본값: false

유효한 옵션: 부울 값 truefalse 입니다.

3.6.2. 릴리스 노트

본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 최상의 배포 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.

BZ#1597666

이번 업데이트를 통해 OpenDaylight 마이너 업데이트가 Red Hat OpenStack Platform 마이너 업데이트 워크플로에 포함되어 있습니다.

BZ#1611960

이번 업데이트를 통해 OpenDaylight를 백엔드로 사용하는 Red Hat OpenStack Platform 환경의 컴퓨팅 노드를 성공적으로 확장할 수 있습니다.

3.6.3. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1574725

VLAN 공급자 네트워크의 동일한 서브넷에 있는 여러 VM이 서로 다른 두 개의 컴퓨팅 노드로 예약되면 VM 간에 ARP가 제대로 실패합니다.

VM 간 ARP 패킷이 실패하므로 두 VM 간에 네트워킹이 기본적으로 없습니다.

BZ#1575150

OpenDaylight 클러스터 멤버가 중지되면 OpenDaylight 클러스터가 최대 30분 동안 응답하지 않을 수 있는 알려진 문제가 있습니다(실패하거나 다른 경우). 해결 방법은 클러스터가 다시 활성화될 때까지 대기합니다.

BZ#1577975

OpenDaylight는 CPU 사용량이 매우 높은 기간일 수 있습니다. 이 문제는 다른 시스템 서비스에 잠재적으로 영향을 줄 수 있지만 OpenDaylight의 기능에 영향을 주지 않아야 합니다.

3.6.4. 제거된 기능

이 Red Hat OpenStack Platform 릴리스에서 다음 기능이 제거되었습니다.

BZ#1431431

Block Storage - Highly Available Active-Active Volume Service는 더 이상 기술 프리뷰로 사용할 수 없으며 이 릴리스에서 지원되지 않습니다.

BZ#1683464

블록 스토리지 - RBD Cinder 볼륨 복제는 더 이상 기술 프리뷰에서 사용할 수 없으며 지원되지 않습니다.

3.7. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2019년 4월 30일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.7.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1654079
이전에는 오버클라우드가 실패한 경우 언더클라우드 업그레이드에 실패했습니다. 그 결과 언더클라우드를 수정하여 수정 사항을 배포할 수 없었습니다.

이번 업데이트를 통해 새 언더클라우드 업그레이드 옵션 --force 를 사용할 수 있습니다. 이 옵션을 사용하면 언더클라우드 업그레이드 프로세스에서 오버클라우드 상태를 무시합니다.

BZ#1692872

이번 업데이트를 통해 다음 새 태그를 사용하여 구성 관리 Ansible 플레이북 및 작업을 제어할 수 있습니다.

  • container_config
  • container_config_tasks
  • container_config_scripts
  • container_startup_configs
  • host_config
  • step1
  • step2
  • step3
  • step4
  • step5

3.7.2. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1664701

최근 변경으로 인해 NUMA 토폴로지 페이지크립트가 있는 인스턴스에 대한 메모리 할당을 인식했습니다. 이러한 변경으로 NUMA 토폴로지가 있는 인스턴스의 메모리를 더 이상 초과 구독할 수 없습니다.

결과적으로 메모리 초과 구독은 현재 NUMA 토폴로지가 있는 모든 인스턴스에 대해 비활성화되어 있지만 이전에 hugepages가 있는 인스턴스만 초과 구독을 사용할 수 없었습니다. 이는 명시적 NUMA 토폴로지 및 암시적 토폴로지가 있는 인스턴스에 영향을 미칩니다. hugepages 또는 CPU 고정으로 인해 인스턴스에 암시적 NUMA 토폴로지가 있을 수 있습니다.

가능한 경우 명시적 NUMA 토폴로지를 사용하지 마십시오. CPU 고정이 필요한 경우 암시적 NUMA 토폴로지를 생성합니다.

3.8. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2019년 7월 10일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.8.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1589505
이번 업데이트를 통해 NUMA 선호도를 구성하여 인스턴스가 vSwitch에 대한 외부 연결을 제공하는 NIC와 동일한 NUMA 노드에 배치되도록 할 수 있습니다. 이 기능은 'flat' 또는 'vlan' 유형의 계층 2 네트워크와 'vxlan', 'gre' 또는 'geneve' 유형의 계층 3 네트워크에 사용할 수 있습니다.
BZ#1688461

config-download 에 사용할 수 있는 새로운 CLI 인수 두 개가 있습니다.

  • 별도의 CLI 세션에서 또는 openstack overcloud status 를 사용하여 API를 사용하여 배포를 모니터링합니다.
  • openstack overcloud failures 를 사용하여 나중에 분석할 Ansible 오류를 저장하고 저장합니다.
BZ#1698467
이번 개선된 기능에는 Octavia Horizon 대시보드에 새로운 기능 및 사용 편의성 개선 사항이 추가되었습니다.
BZ#1698683
이번 업데이트에서는 NFS 백엔드에서 Block Storage 서비스(cinder) 스냅샷을 제어하는 데 사용할 수 있는 새 director 매개변수 CinderNfsSnapshotSupport가 추가되었습니다.
BZ#1701427

이전 버전에서는 환경 전체에서 TLS를 활성화한 경우 haproxy 및 manila API와 같은 내부 서비스 간 통신이 안전하지 않았습니다.

이번 업데이트를 통해 manila API는 내부 API 네트워크에서 TLS 끝점을 지원합니다.

BZ#1714227
이번 업데이트에서는 director를 통해 두 번째 ceph Storage Tier 배포 기능에 대한 지원이 추가되었습니다.

3.8.2. 기술 프리뷰

이 섹션에 나열된 항목은 기술 프리뷰로 제공됩니다. 기술 프리뷰 상태 범위에 대한 자세한 내용 및 해당 지원에 미치는 영향은 https://access.redhat.com/support/offerings/techpreview/의 내용을 참조하십시오.

BZ#1624971

이 기술 프리뷰 업데이트를 통해 다중 연결 기능을 사용하여 단일 볼륨을 여러 호스트에 연결할 수 있습니다. 볼륨은 스토리지 프로토콜 없이 연결되어 있으며 데이터 일관성은 클러스터형 파일 시스템과 같은 적절한 소프트웨어 애플리케이션에서 제공해야 합니다.

대상 스토리지 드라이버가 이 릴리스에서 다중 연결 기능을 지원하는지 확인하려면 Red Hat에 문의하십시오. 다중 연결 볼륨에서 Cinder 볼륨 암호화가 지원되지 않으며 기타 기능 제한이 적용될 수 있습니다.

3.8.3. 릴리스 노트

본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 최상의 배포 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.

BZ#1651191

이번 업데이트에서는 다음 기능을 제공하는 Ansible Networking ML2 플러그인에 대한 지원이 추가되었습니다.

  • ironic baremetal 게스트의 테넌트 네트워크 기능
  • 베어 메탈 노드의 자동 스위치 구성
  • 여러 스위치 플랫폼에 동일한 ML2 드라이버를 사용합니다.
BZ#1696332
이번 업데이트에서는 IPv6으로 배포된 Undercloud를 용이하게 하기 위해 IPv6 끝점에 대한 OpenStack Messaging Service(zaqar) 지원을 제공합니다.
BZ#1701425

이전에는 manila API가 Apache httpd 서버와 함께 배포되지 않았습니다.

이번 업데이트를 통해 Apache 로그는 manila API 컨테이너가 있는 노드의 /var/log/containers/httpd/manila-api에 있습니다.

3.8.4. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1581337

네트워크 부하 분산에 사용되는 HAProxy는 PING 유형 상태 모니터를 올바르게 지원하기 위해 버전 1.6 이상이어야 합니다.

Red Hat OpenStack Platform 13에 포함된 HAProxy 버전은 PING 유형 상태 모니터를 구성할 때 TCP 연결을 사용하는 1.6 이전 버전입니다.

3.9. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2019년 9월 4일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.9.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1614361

이번 업데이트를 통해 fast-forward 업그레이드 중에 Red Hat OpenStack Platform 13 host-config-and-reboot 환경을 사용할 수 있습니다.

  1. 첫 번째 부팅 스크립트에서 NodeUserData 매핑 제거
  2. host-config-and-reboot.yaml 환경 파일을 deploy 명령에 추가합니다.
  3. 역할별 매개변수를 사용하여 KernelArgs 및 TunedProfile을 OvS-DPDK 역할에 추가합니다.
  4. KernelArgs 및 TunedProfile이 OpenStack Platform 10 값에 해당하는지 확인합니다. 모든 변경 사항으로 인해 fast-forward 업그레이드 중에 노드가 재부팅되고 업그레이드가 실패합니다.

Ansible은 heat 스택 구성에서 수행하는 재부팅을 처리할 수 없습니다. 재부팅을 초래하는 잘못된 구성으로 인해 fast-forward 업그레이드 프로세스가 실패합니다.

참고

새 패치가 있는 경우에도 기존 최초 부팅 스크립트를 사용하여 fast-forward 업그레이드를 수행할 수 있습니다.

BZ#1631107

이번 업데이트를 통해 Red Hat OpenStack Platform에는 새로운 매개변수 DnsSearchDomains 가 포함되어 있습니다. 다른 DNS 하위 도메인이 있는 IDM 및 FreeIPA 환경에 이 매개변수를 사용할 수 있습니다. 환경 파일의 parameter_defaults 섹션에서 이 매개 변수를 설정하여 DNS 검색 도메인 목록을 resolv.conf 에 추가합니다.

BZ#1679267

이전에는 기존 배포에서 TLS Everywhere로 업그레이드할 수 없었습니다.

이번 업데이트를 통해 다시 설치하지 않고도 내부 OpenStack 서비스 간 연결 중단을 보호할 수 있습니다.

BZ#1688385

이번 개선된 기능을 통해 tripleo::profile::base::database::mysql::mysql_server_options hiera 해시 키를 사용하여 오버클라우드의 mysql 클러스터에 임의의 mysql 구성 옵션을 전달할 수 있습니다.

BZ#1706992

이번 업데이트를 통해 인스턴스를 마이그레이션하지 않고 노드가 재부팅되는 경우 컴퓨팅 노드에서 인스턴스 자동 재시작을 구성할 수 있습니다. 컴퓨팅 노드가 재부팅될 때 인스턴스를 정상적으로 종료하고 재시작하도록 Nova 및 libvirt-guests 에이전트를 구성할 수 있습니다. Red Hat OpenStack Platform 13의 새로운 매개변수는 NovaResumeGuestsStateOnHostBoot (True/False) NovaResumeGuestsShutdownTimeout (default 300s)입니다.

BZ#1713761

이번 업데이트를 통해 ifcfg라는 인터페이스의 키를 사용하여 ifcfg 구성에 대한 도메인 을 설정할 수 있습니다. 이를 사용하여 다양한 DNS 하위 도메인이 있는 IDM/FreeIPA 환경을 지원하는 데 필요한 DNS 검색을 개선합니다.

BZ#1732220

이번 업데이트를 통해 이제 오버클라우드에서 기본적으로 localhost에서 rabbitmq-management 인터페이스가 활성화되므로 관리 API를 통해 rabbitmq 상태를 더 간단하게 모니터링하고 쿼리할 수 있습니다.

3.9.2. 기술 프리뷰

이 섹션에 나열된 항목은 기술 프리뷰로 제공됩니다. 기술 프리뷰 상태 범위에 대한 자세한 내용 및 해당 지원에 미치는 영향은 https://access.redhat.com/support/offerings/techpreview/의 내용을 참조하십시오.

BZ#1700882

이번 업데이트에서는 블록 스토리지 서비스 다중 연결 기능을 Ceph RBD 드라이버에 확장합니다.

3.9.3. 릴리스 노트

본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 최상의 배포 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.

BZ#1592528

드문 경우지만 컨트롤러 노드를 여러 번 재부팅하는 경우 RabbitMQ가 오버클라우드에서 API 작업을 차단하는 일관성 없는 상태로 실행될 수 있습니다.

이 문제의 증상은 - DuplicateMessageError: Found duplicate message(629ff0024219488499b0fac0caa5) 형식의 OpenStack 서비스 로그에 참여합니다. 이를 건너뜁니다. - "openstack network agent list"는 일부 에이전트가 DOWN임을 반환합니다.

일반 작업을 복원하려면 컨트롤러 노드 중 하나에서 다음 명령을 실행합니다. pcs resource restart rabbitmq-bundle

BZ#1656978

이전 버전에서는 Neutron SR-IOV 에이전트에서 VF(가상 기능)에 대해 사용 가능한 두 상태를 설정했으며, 이는 물리적 기능(PF) 링크 상태와 관계없이 VF 링크 상태를 활성화 또는 비활성화합니다.

이번 업데이트를 통해 Neutron SR-IOV 에이전트는 VF를 자동 또는 비활성화 로 설정합니다. auto 상태에서는 PF를 자동으로 확장 또는 축소 합니다. 결과적으로 PF가 down 상태인 경우 동일한 포함 스위치(NIC)의 다른 VF와 함께 VF가 전송 또는 수신되지 않습니다.

참고

이 동작은 표준이 아니며 NIC 공급업체 구현에 따라 다릅니다. PF가 다운 될 때 auto 상태에서 VF의 실제 동작이 있는지 드라이버 설명서를 확인합니다.

BZ#1708705

이번 업데이트에서는 hpe3par 드라이버에 대한 다중 연결 기능을 활성화합니다.

3.9.4. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1745130

현재 오버클라우드 노드는 IdM에 등록할 수 없는 TLS Everywhere 업그레이드에 대해 알려진 문제가 있습니다. 이 문제를 해결하려면 오버클라우드 배포를 실행하기 전에 모든 오버클라우드 노드에서 /etc/ipa/ca.crt/ 를 삭제합니다. 자세한 내용은 https://bugzilla.redhat.com/show_bug.cgi?id=1732564 에서 참조하십시오.

3.9.5. 지원되지 않는 기능

이 섹션의 항목은 더 이상 지원되지 않거나 향후 릴리스에서 더 이상 지원되지 않습니다.

BZ#1541829

컴퓨팅 REST API에서 파일 삽입. API microversion < 2.56 사용 중인 경우 현재는 계속 지원됩니다. 그러나 nova는 결국 이 기능을 제거합니다. 변경 사항은 다음과 같습니다.

  • POST /servers에서 서버 API 및 POST / servers /{server_id}/action rebuild 서버 API의 character 매개변수를 사용 중단하십시오. 이러한 API 중 하나에 요청 본문에 character 매개변수를 지정하면 400 Bad Request 오류 응답이 표시됩니다.
  • 이러한 변경으로 인해 user_data 를 rebuild 서버 API에 전달하도록 지원을 추가합니다.
  • GET /limits API에서 maxPersonalitymaxPersonalitySize 응답 값의 반환을 중지합니다.
  • os-quota-setsos-quota-class-sets API에서 injected_files,injected_file_path_bytes 의 수락 및 반환을 중지합니다.

3.10. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2019년 11월 6일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.10.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1561961

이 릴리스에는 PCI 장치 NUMA 선호도 정책에 대한 지원이 포함되어 있습니다. 이러한 정책을 [pci]alias 구성 옵션의 일부로 구성할 수 있습니다. 다음 정책이 지원됩니다.

  • 필수 항목
  • legacy
  • preferred

가능한 경우 모든 경우에 엄격한 NUMA 선호도가 제공됩니다. 정책의 주요 차이점은 일정을 예약하기 전에 희생할 수 있는 NUMA 선호도의 양입니다.

이러한 정책을 사용하여 각 장치 별칭 또는 보다 구체적으로 NUMA 선호도가 얼마나 엄격한지 구성할 수 있습니다. 이는 최대 리소스 사용을 보장하는 데 유용합니다.

PCI 장치에 대해 '기본 설정' 정책을 구성하면 nova가 다른 노드만 사용할 수 있는 경우 PCI 장치의 NUMA 노드와 다른 NUMA 노드에서 CPU를 활용합니다. 이로 인해 이러한 인스턴스의 성능이 저하되어 리소스 사용률이 증가합니다.

BZ#1656292

이번 업데이트를 통해 이제 Red Hat OpenStack Platform 13과 함께 NVIDIA vGPU GRID 드라이버를 사용할 수 있습니다. Red Hat은 NVIDIA GPU 및 전용 드라이버를 중심으로 개발된 타사 애플리케이션에 대한 지원을 제외하고 이러한 드라이버가 포함된 설치를 완벽하게 지원합니다.

BZ#1684421

이번 릴리스에서는 RBD 임시 디스크를 사용하여 컴퓨팅 호스트의 하위 집합을 배포할 수 있도록 역할별로 NovaEnableRbdBackend 를 구성할 수 있습니다. 나머지 호스트는 기본 로컬 임시 디스크를 계속 사용합니다.

참고 최상의 성능을 얻으려면 RBD 임시 컴퓨팅 호스트에 배포하는 이미지는 RAW 형식이어야 하며, 로컬 임시 컴퓨팅 호스트에 배포하는 이미지는 QCOW2 형식이어야 합니다.

BZ#1726733

이번 업데이트 이전에는 프로덕션 환경에 기본 amphora 시간 초과가 너무 높았습니다.

이번 업데이트를 통해 기본 amphora 시간 초과가 프로덕션 환경에 더 적합합니다. 새 director 매개변수를 사용하여 기본값을 재정의할 수도 있습니다.

BZ#1731210

이번 개선된 업그레이드 버전 3으로 업그레이드하면 많은 네트워크 인터페이스가 있는 시스템에서 업데이트를 배포하고 실행할 때 성능이 향상됩니다. 이 버전의 팩트 캐싱은 물론이고 팩트 목록을 훨씬 빠르게 생성합니다.

참고 팩트 버전 3을 구현하는 openstack-tripleo-heat-templates 버전을 사용할 때 호스트 시스템에 배포하는 팩트 버전 3을 실행해야 합니다.

BZ#1732220

이번 업데이트를 통해 이제 오버클라우드에서 기본적으로 localhost에서 rabbitmq-management 인터페이스가 활성화되므로 관리 API를 사용하여 rabbitmq 상태를 더 간단하게 모니터링하고 쿼리할 수 있습니다.

BZ#1733260

이번 업데이트를 통해 openstack overcloud generate fencing 명령을 실행하여 RHV에 배포하는 가상 시스템과 유사하게 staging-ovirt 전원 드라이버를 사용하는 ironic 노드에 대한 적절한 펜싱 구성을 생성할 수 있도록 openstack-tripleo-common 이 향상되었습니다.

Puppet-tripleo 도 향상되었으며 이제 RHV의 가상 시스템에 대해 pacemaker fence-rhevm stonith 에이전트를 올바르게 구성합니다.

BZ#1746112

이번 업데이트를 통해 이제 오버클라우드 역할 이름이 숫자(예: 10Controller 또는 99Compute )로 시작할 수 있습니다.

BZ#1762167

이번 개선된 기능에는 collectd 컨테이너에 다음 플러그인이 추가되었습니다. - connectivity - mysql - ping - procevent - snmp-agent - sysevent

3.11. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2019년 12월 19일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.11.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1766735

이번 개선된 기능을 통해 scaleIO에 필요한 대로 OpenStack Image Service(glance) 볼륨을 컨테이너화된 컨트롤 플레인에 마운트할 수 있습니다.

3.11.2. 지원되지 않는 기능

이 섹션의 항목은 더 이상 지원되지 않거나 향후 릴리스에서 더 이상 지원되지 않습니다.

BZ#1719815

이제 OpenStack Telemetry Event Storage(panko) 서비스가 더 이상 사용되지 않습니다. panko에 대한 지원은 Red Hat Cloudforms에서만 사용할 수 있습니다. Red Hat은 Red Hat Cloudforms 사용 사례 외부에서 panko를 사용하지 않는 것이 좋습니다. panko를 사용하는 대신 다음 옵션을 사용할 수 있습니다.

  • panko를 폴링하는 대신 OpenStack Telemetry Metrics(gnocchi) 서비스를 폴링합니다. 이를 통해 리소스 기록에 액세스할 수 있습니다.
  • OpenStack Telemetry Alarming(aodh) 서비스를 사용하여 이벤트가 발생할 때 알람을 트리거합니다. OpenStack Telemetry Alarming(aodh) 서비스에서 애플리케이션에 직접 연결할 수 없는 경우 OpenStack Messaging Service(zaqar)를 사용하여 큐에 알람을 저장할 수 있습니다.

3.12. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2020년 3월 10일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.12.1. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1726733

이번 개선된 기능에는 프로덕션 환경에 적합한 기본 Octavia 타임아웃과 기본값을 재정의하는 새로운 heat 매개변수를 제공합니다.

  • OctaviaConnectionMaxRetries
  • OctaviaBuildActiveRetries
  • OctaviaPortDetachTimeout
BZ#1757886
인스턴스 수준에 따라 PCI NUMA 선호도를 설정할 수 있습니다. 이러한 작업은 SR-IOV 기반 네트워크 인터페이스로 인스턴스의 NUMA 선호도를 설정하는 데 필요합니다. 이전에는 PCI 통과 장치에 대해 호스트 수준에서만 NUMA 선호도를 설정할 수 있었습니다.
BZ#1760567
이번 업데이트에서는 ceph-ansible이 ceph-tools 리포지토리에서 설치되었는지 확인하는 기능이 추가되었습니다.
BZ#1760871

이번 업데이트에서는 Octavia keepalived VRRP 설정을 미세 조정하기 위해 다음 매개변수를 추가합니다.

octavia::controller::vrrp_advert_int

Amphora 역할 및 우선 순위 알림은 몇 초 내에 우선순위를 부여합니다. 기본값은 $::os_service_default

octavia::controller::vrrp_check_interval

VRRP 상태 점검 스크립트는 간격을 초 단위로 실행합니다. 기본값은 $::os_service_default

octavia::controller::vrrp_fail_count

실패율으로 전환하기 전에 연속 실패 수입니다. 기본값은 $::os_service_default입니다.

octavia::controller::vrrp_success_count

성공률로 전환하기 전에 연속 성공 횟수입니다. 기본값은 $::os_service_default입니다.

octavia::controller::vrrp_garp_refresh_interval

MASTER의 무상 ARP 발표 사이의 시간(초)입니다. 기본값은 $::os_service_default입니다.

octavia::controller::vrrp_garp_refresh_count

새로 고침 간격마다 수행할 무상 ARP 발표 수입니다. 기본값은 $::os_service_default입니다.

환경을 사용자 정의하려면 https://access.redhat.com/documentation/en-us/red_hat_openstack_platform/13/html/advanced_overcloud_customization/ 에서 참조하십시오.

BZ#1766735
이번 개선된 기능을 통해 scaleIO에 필요한 대로 OpenStack Image Service(glance) 볼륨을 컨테이너화된 컨트롤 플레인에 마운트할 수 있습니다.
BZ#1777993
이번 업데이트를 통해 연결된 볼륨 확장 지원이 Libvirt OpenStack Nova virt 드라이버에 대해 활성화되어 있습니다.
BZ#1782229

이번 개선된 기능에는 이미지 가져오기 프로세스 중 Image 서비스(glance) 플러그인을 활성화하기 위해 GlanceImageImportPluginsGlanceImageConversionOutputFormat 이라는 두 개의 새로운 매개변수가 추가되었습니다.

예를 들어 image_conversion 플러그인을 활성화하면 다음 명령에서 qcow2 이미지를 가져와서 원시 형식으로 저장하고 가져오기 후 자동으로 변환합니다.

glance image-create-via-import --disk-format qcow2 --container-format bare --name cirros --import-method web-download --uri http://download.cirros-cloud.net/0.4.0/cirros-0.4.0-x86_64-disk.img

즉, RBD를 이미지 서비스 드라이버로 사용할 때 항상 원시 형식으로 이미지를 저장할 수 있습니다.

3.13. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2020년 6월 24일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.13.1. 버그 수정

이번 Red Hat OpenStack Platform 릴리스에서 수정된 버그는 다음과 같습니다.

BZ#1650046

이번 업데이트 이전에는 su 를 사용하여 root로 로그인하면 SELinux 제한으로 RabbitMQ 로그가 언더클라우드에서 올바르게 회전되지 않았습니다.

rabbitmq-server 패키지가 업데이트되고 openstack-selinux 에 올바른 로그 교체를 활성화하는 새로운 정책 규칙이 있습니다.

BZ#1783210
이번 업데이트에서는 cinder-backup 컨테이너의 pacemaker 템플릿 버전에 올바른 ipc:host 설정을 배치합니다.
BZ#1805840

이번 업데이트 이전에는 Ceph RadosGW를 배포해도 swiftoperator 역할을 생성하지 않았으며 swiftoperator 역할의 사용자에게는 RadosGW Swift 엔드포인트에 대한 관리 권한이 부여되지 않았습니다.

이번 업데이트를 통해 Swift 또는 Ceph RadosGW를 배포하면 swiftoperator 역할이 자동으로 생성되고 swiftoperator 역할이 있는 사용자는 이제 Swift 오브젝트뿐만 아니라 RadosGW 오브젝트를 관리할 수 있습니다.

BZ#1811122

이번 업데이트 이전에는 xtremio 드라이버가 잘못된 사용 가능한 공간 용량을 보고하여 스토리지 백엔드에 의존하는 가상 머신 인스턴스가 공간을 부족하게 프로비저닝하지 못했습니다.

이번 업데이트 후 xtremio 드라이버가 올바른 여유 공간 용량을 보고하고 가상 머신 인스턴스가 올바르게 프로비저닝할 수 있습니다.

BZ#1813640
이번 업데이트에서는 처리 중에 neutron DHCP 에이전트가 수신한 메시지를 포트 생성 및 업데이트하는 우선 순위가 높으므로 인스턴스 부팅 시 'Failed to allocate network' 오류를 줄입니다.
BZ#1813642

이번 업데이트에서는 2019년 7월 10일(RHOSP 13.0.7)의 OpenStack Platform 유지 관리 릴리스에서 업그레이드가 실패한 버그가 수정되었습니다. 특히 OpenStack Compute(nova)에서 셀 관리 오류를 수정합니다.

이제 2019년 7월 10일(RHOSP 13.0.7)의 OpenStack Platform 유지 관리 릴리스에서 최신 OpenStack 버전으로 업그레이드할 수 있습니다.

BZ#1829284
이번 업데이트에서는 cinder 볼륨을 해당 VxFlex OS 볼륨과 올바르게 연결하여 볼륨을 삭제할 때 해당 백엔드 볼륨도 삭제됩니다. 이전 버전에서는 cinder 볼륨의 삭제로 인해 해당 VxFlex OS 볼륨이 삭제되지 않았습니다.
BZ#1829765

이번 업데이트 이전에는 cinder RBD 드라이버에서 트리밍 또는 삭제 작업을 수행하지 않아 사용자가 cinder RBD 볼륨에서 사용하지 않은 공간을 트리밍하지 못했습니다.

이번 업데이트를 통해 cinder RBD 드라이버는 이제 트리밍 및 삭제 작업을 지원합니다.

BZ#1835870
이번 업데이트에서는 HPE 3par 스토리지에 대한 Cinder 오프라인 볼륨 마이그레이션이 실패하는 버그가 수정되었습니다.

3.13.2. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1670592
이번 업데이트에서는 OVS-DPDK를 사용한 HCI(하이퍼 컨버지드 인프라) 배포 지원이 추가되었습니다. HCI 아키텍처는 리소스 사용을 개선하기 위해 구성된 Compute 및 Ceph Storage 서비스를 사용하여 Overcloud 노드를 공동 배치하는 기능을 제공합니다.
BZ#1759254
이번 개선된 기능에는 OctaviaConnectionLogging 매개변수가 추가되어 연결 흐름 로깅을 비활성화할 수 있습니다. 기본 설정은 true 이므로 연결 흐름이 기록됩니다.
BZ#1823416
이번 개선된 기능을 통해 cinder Datera 드라이버가 버전 2.2로 업데이트되었습니다.
BZ#1841194
이번 개선된 기능으로 인해 네트워크 트래픽이 openvswitch 방화벽 드라이버로 급증하는 상태가 수정되었습니다. 이전 버전에서는 관련 패킷의 대상 MAC 주소에 대한 전달 데이터베이스(FDB) 항목이 부족하여 통합 브리지에서 지정된 VLAN의 모든 포트에서 홍수가 발생했습니다. 이제 트래픽이 올바른 포트로만 전달됩니다.

3.13.3. 릴리스 노트

본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 최상의 배포 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.

BZ#1804412
이번 업데이트를 통해 amphora 내에서 연결 로깅을 비활성화할 수 있습니다.

3.14. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2020년 10월 28일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.14.1. 버그 수정

이번 Red Hat OpenStack Platform 릴리스에서 수정된 버그는 다음과 같습니다.

BZ#1723482

이번 업데이트 이전에는 Compute(nova) 서비스에서 컴퓨팅 노드가 복원될 때까지 네트워크 포트와 같은 리소스를 해제하지 않으면 다운된 컴퓨팅 노드의 인스턴스에서 네트워크 포트를 분리할 수 없는 경우 로드 밸런싱 서비스(octavia) 장애 조치(failover)가 실패합니다.

이번 업데이트를 통해 로드 밸런싱 서비스의 장애 조치 흐름이 이 Compute 서비스 문제를 처리하도록 업데이트되었습니다. 이제 로드 밸런싱 서비스에서 해제하지 않는 포트를 버리고 Compute 서비스 또는 Networking 서비스의 "수정 삭제" 상태로 두어 컴퓨팅 노드가 복원되면 정리합니다. 이렇게 하면 문제가 해결되어 컴퓨팅 노드가 여전히 실패한 경우에도 장애 조치(failover)가 성공할 수 있습니다.

BZ#1806975

이번 업데이트 이전에는 여러 복원을 동시에 수행할 때 시스템이 메모리 부족으로 인해 백업 서비스가 실패했습니다.

이번 업데이트를 통해 Python이 데이터 참조 수를 보다 빨리 줄임으로써 백업 복원 작업 중에 메모리를 확보할 수 있는 속도를 증가시키고, Python에서 복원이 완료될 때까지 기다리지 않고 압축 해제되는 즉시 데이터를 가비지 수집하도록 허용했습니다. 이렇게 하면 백업 서비스에서 동시에 여러 복원을 처리할 수 있는 문제가 해결되었습니다.

BZ#1841157
이번 업데이트 이전에는 FC 실시간 마이그레이션이 실패했습니다. 이번 업데이트를 통해 이제 해당 호스트에 대해 FC의 경우 올바른 장치 정보가 os-brick으로 전송됩니다. 또한 컴퓨팅 노드에서 실시간 마이그레이션 프로세스가 실패한 경우 올바른 마스킹 보기에서 장치가 제거됩니다.
BZ#1841866
이번 업데이트 이전에는 3PAR 드라이버에서 가능한 볼륨 ID의 _name_id 필드를 검사하지 않아 실시간 마이그레이션 후 볼륨을 사용할 수 없게 되었습니다. 이번 업데이트를 통해 드라이버는 이제 _name_id 필드를 볼륨 ID의 대체 위치로 인식하고 실시간 마이그레이션된 볼륨이 예상대로 작동합니다.
BZ#1843196

이번 업데이트 이전에는 스냅샷에서 볼륨을 만들 때 비동기 마이그레이션 중에 생성된 내부 임시 스냅샷이 VNX 스토리지에서 삭제되지 않았습니다.

예를 들어 볼륨 V1에서 만든 스냅샷 S1에서 만든 새 볼륨 V2를 만드는 경우 S2가 S1 복사에서 생성됩니다. 이제 V1에 두 개의 스냅샷 S1과 S2가 있습니다. OpenStack Block Storage(cinder)에서 V1, V2 및 S1을 삭제했지만 S2는 삭제되지 않습니다. 이로 인해 V1과 S2 모두 VNX 스토리지에 남아 있습니다.

이번 업데이트를 통해 임시 스냅샷 S2가 삭제되고 V1이 성공적으로 삭제될 수 있습니다.

BZ#1854950

이번 업데이트 이전에는 OpenStack Block Storage 서비스를 호스트로 마이그레이션하기 전에 RHOSP 10에서 RHOSP 13으로 업그레이드한 후 인스턴스에 액세스할 수 없었습니다. 따라서 컨테이너화된 서비스가 OpenStack Block Storage 서비스 디렉터리에 있는 모든 파일의 소유권을 시작하고 변경하면 NFS 공유에 있는 파일의 소유권도 변경됩니다.

이번 업데이트를 통해 컨테이너에서 실행되도록 서비스를 업그레이드하기 전에 OpenStack Block Storage NFS 공유를 마운트 해제합니다. 이렇게 하면 문제가 해결되고 RHOSP 13으로 업그레이드한 후 인스턴스가 볼륨에 액세스할 수 있습니다.

BZ#1861084

이번 업데이트 이전에는 OpenStack Shared File Systems(manila) 서비스가 VServer-scoped ONTAP 자격 증명으로 구성된 경우 공유 프로비저닝이 실패했습니다. 이는 NetApp ONTAP 드라이버가 최근 변경되어 스토리지 시스템 기능을 결정하는 동안 공유 관리자 서비스가 다시 시작 루프에 고정되기 때문입니다.

이번 업데이트를 통해 NetApp ONTAP 드라이버는 이제 Vserver 범위의 NetApp 사용자를 확인하고 스토리지 시스템 기능을 결정하기 위한 대체 경로를 추가하여 문제를 해결합니다. 이제 OpenStack Shared File Systems 공유 관리자 서비스에서 스토리지 시스템 기능을 확인하고 프로비저닝을 성공적으로 공유할 수 있습니다.

BZ#1862105

이번 업데이트 이전에는 에이전트의 초기 연결 오류로 인해 재시도 논리가 중단되어 에이전트가 Ironic 서비스와 통신하지 못하고 에이전트 콘솔에 잘못된 TypeError를 로깅하는 경우가 있었습니다.

이번 업데이트를 통해 알려진 연결 및 조회 실패 사례를 명시적으로 처리하도록 예외 처리가 수정되었으며 에이전트에서 발생하는 사항에 대한 명확성을 제공하기 위해 로깅이 업데이트되었습니다. 이제 커넥션이 에이전트에서 설계한 대로 재시도되며, 로깅은 더 이상 예기치 않은 오류 발생 시 TypeError만 보고해서는 안 됩니다.

BZ#1867817
이번 업데이트 이전에는 ceilometer-metrics-qdr.yaml 환경 파일을 사용하면 OpenStack Telemetry(ceilometer)에 필요한 대로 클러스터된 redis 인스턴스가 아닌 독립형 Redis 구성이 발생했습니다. 이번 업데이트에서는 리소스 레지스트리에서 올바른 서비스 파일을 사용하여 문제를 해결합니다.
BZ#1847305

시작하는 동안 ironic-conductor 서비스는 ironic-conductor 재시작 프로세스 초기에 허용되는 작업을 위해 베어 메탈 노드에 예약 잠금을 잃을 수 있습니다. 잠금을 손실하면 ironic-conductor 서비스를 다시 시작하는 동안 OpenStack Bare Metal Provisioning(ironic) 배포에 제출되는 작업의 경쟁 조건으로 인해 요청이 "NodeNotLocked" 오류로 인해 실패했습니다.

이번 업데이트를 통해 문제를 해결하는 ironic-conductor 프로세스에서 작업을 수락하기 전에 데이터베이스 정리 검사를 수행합니다.

3.14.2. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1802038
이번 개선된 기능에는 외부 Red Hat Ceph Storage 4.1 클러스터에 대한 지원이 추가되었습니다.
BZ#1845802

이번 개선된 기능에는 Networking(neutron) 서비스인 http_retries 에 새 구성 옵션이 추가되어 첫 번째 시도가 실패하면 Compute(nova) 서비스 또는 OpenStack Bare Metal Provisioning(ironic) 서비스에 대한 API 호출 횟수를 구성할 수 있습니다. 기본적으로 API 호출은 실패할 경우 3번 재시도됩니다.

이번 개선된 기능을 통해 네트워킹 서비스는 부팅 인스턴스의 오류를 방지하기 위해 API 요청을 다시 시도하여 Compute 서비스에서 포트가 사용할 준비가 되었음을 알리는 알림을 받을 수 있습니다.

BZ#1815202

config-download 기술 프리뷰 기능을 사용하는 경우 생성된 Ansible 플레이북에는 config-download 플레이북에 맞는 기본 ansible.cfg 가 포함되지 않습니다. 기본 Ansible 설정은 대규모 배포에는 적합하지 않습니다.

이번 개선된 기능을 통해 다음 명령을 사용하여 config-download 플레이북과 함께 사용할 수 있는 ansible.cfg 를 생성할 수 있습니다.

$ openstack tripleo config generate ansible

3.14.3. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1891014

현재 마이너 업데이트 중 인스턴스를 실시간 마이그레이션할 때 TLS Everywhere 환경에 알려진 문제가 있습니다.

실시간 마이그레이션 시 전체 QEMU-native TLS 암호화 지원이 도입되면서(BZ1754791)를 실행 중인 RHOSP 배포에서 마이너 업데이트를 수행할 때 인스턴스 실시간 마이그레이션이 실패합니다. 이는 libvirtd 컨테이너에 아직 존재하지 않는 TLS NBD 블록 마이그레이션의 인증서가 업데이트 중에 생성되기 때문입니다. 인증서는 호스트에서 직접 마운트되는 대신 libvirt 컨테이너를 생성하는 동안 컨테이너 디렉터리 트리에 병합됩니다. 따라서 업데이트 중에 마이그레이션해야 하는 인스턴스의 QEMU 프로세스는 새 인증서를 자동으로 가져오지 않으며 NBD 설정 프로세스는 다음 오류와 함께 실패합니다.

libvirtError: internal error: unable to execute QEMU command 'object-add': Unable to access credentials /etc/pki/qemu/ca-cert.pem: No such file or directory

실시간 마이그레이션은 업데이트 후 생성된 인스턴스에서 작동합니다.

해결방법:

다음 옵션 중 하나를 사용하여 이 문제를 해결할 수 있습니다.

  • 업데이트가 완료된 후 실시간 마이그레이션할 수 없는 인스턴스를 중지하고 시작하여 인증서 세부 정보가 있는 libvirt 컨테이너에서 새 QEMU 프로세스를 생성합니다.
  • 오버클라우드에 다음 구성을 추가하여 NBD의 TLS 전송 암호화를 비활성화하고 오버클라우드를 배포합니다.

      parameter_defaults:
        UseTLSTransportForNbd: False
BZ#1726270

관련 레코드가 아직 다른 테이블에서 제거되지 않은 경우 images 테이블에서 레코드를 제거하려고 할 때 glance db purge 명령이 IntegrityError 와 함께 실패하고 상위 행을 삭제하거나 업데이트하는 메시지와 유사한 메시지가 표시됩니다.

해결방법:

images 테이블에서 레코드를 삭제하기 전에 다른 테이블의 레코드를 수동으로 삭제합니다.

3.15. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2020년 12월 16일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.15.1. 버그 수정

이번 Red Hat OpenStack Platform 릴리스에서 수정된 버그는 다음과 같습니다.

BZ#1879531

이번 업데이트 이전에는 RHOSP(Red Hat OpenStack Platform) 사용자가 최신 태그를 사용하도록 컨테이너를 구성한 경우 RHOSP는 업데이트된 컨테이너 이미지를 사용하도록 이러한 컨테이너를 가져와서 다시 빌드하지 않았습니다.

이번 업데이트에서는 문제가 해결되었습니다. 이제 사용자가 배포 작업(업데이트 포함)을 실행할 때마다 RHOSP는 항상 컨테이너 이미지를 가져와서 실행 중인 각 컨테이너의 이미지 ID를 확인하여 최신 이미지를 사용하도록 다시 빌드해야 하는지 결정합니다. RHOSP는 업데이트하는 모든 컨테이너를 다시 시작합니다.

중요

이번 업데이트에서는 RHOSP에서 컨테이너 업데이트를 관리하는 방법에 대한 이전 버전의 변경 사항입니다. 이전 버전에서는 RHOSP에서 이미지가 있는지만 확인합니다. 이제 RHOSP는 배포 작업 중에 컨테이너를 항상 새로 고치고 업데이트된 컨테이너를 다시 시작합니다. 따라서 Red Hat Satellite 배포로 컨테이너 태그를 제어하는 경우가 아니면 latest 와 같은 태그를 재사용하지 않고 항상 --tag-from-labels 옵션을 사용해야 합니다.

3.16. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2021년 3월 17일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.16.1. 버그 수정

이번 Red Hat OpenStack Platform 릴리스에서 수정된 버그는 다음과 같습니다.

BZ#1908366

이번 업데이트에서는 VxFlex 볼륨 분리 시도가 실패하게 된 호환되지 않습니다.

VxFlex cinder 볼륨 자격 증명 방법의 최근 변경 사항은 기존 볼륨 첨부 파일과 이전 버전과 호환되지 않았습니다. 자격 증명 방법 변경 전에 VxFlex 볼륨 연결을 만든 경우 볼륨을 분리하지 못합니다.

이제 분리가 실패하지 않습니다.

3.16.2. 알려진 문제

현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.

BZ#1841371

스냅샷을 사용하여 볼륨을 다른 사용자로 전송하는 경우 볼륨이 전송되지만 스냅샷은 이전 사용자가 소유하게 됩니다.

이 문제를 해결하려면 Red Hat Openstack Platform 13에서 스냅샷을 수동으로 관리합니다. Red Hat OpenStack 인스턴스 및 이미지 가이드의 "인스턴스 스냅샷 관리" [1]을 참조하십시오.

[1] https://access.redhat.com/documentation/en-us/red_hat_openstack_platform/13/html-single/instances_and_images_guide/index#section-instance-snapshots

3.17. Red Hat OpenStack Platform 13 유지 관리 릴리스 - 2021년 6월 16일

이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.

3.17.1. 버그 수정

이번 Red Hat OpenStack Platform 릴리스에서 수정된 버그는 다음과 같습니다.

BZ#1888417

이번 업데이트 이전에는 Block Storage 서비스(cinder)의 NetApp SolidFire 백엔드에 대한 API 호출이 xNotPrimary 오류로 실패할 수 있었습니다. 이러한 유형의 오류는 SolidFire가 클러스터 워크로드를 재조정하기 위해 자동으로 연결을 이동했던 동시에 볼륨에 대한 작업이 수행되었을 때 발생했습니다.

이번 업데이트를 통해 SolidFire 드라이버 패치는 재시도할 수 있는 예외 목록에 xNotPrimary 예외를 추가합니다.

BZ#1888469

이번 업데이트 이전에는 특정 환경에서 사용자가 시간 초과를 경험할 수 있으며 대부분 볼륨이 너무 큰 경우입니다. 종종 이러한 멀티바이트 볼륨은 SolidFire 클러스터와 관련된 잘못된 네트워크 성능 또는 업그레이드 문제가 발생했습니다.

이번 업데이트를 통해 사용자가 환경에 적절한 시간 초과를 설정할 수 있도록 SolidFire 드라이버에 두 가지 시간 제한 설정이 추가되었습니다.

BZ#1914590

이번 업데이트 이전에는 Block Storage 서비스(cinder) API 응답이 손실되면 NetApp SolidFire 백엔드가 사용되지 않은 중복 볼륨을 생성했습니다.

이번 업데이트를 통해 SolidFire 드라이버에 패치가 먼저 볼륨 이름을 생성하기 전에 볼륨 이름이 있는지 확인합니다. 또한 패치는 읽기 시간 초과를 감지한 직후 볼륨 생성을 확인하고 잘못된 API 호출을 방지합니다.

BZ#1934440

이번 업데이트 이전에는 최신 버전의 Red Hat AMQ Interconnect에서 CA 인증서가 없는 TLS 연결을 허용하지 않으므로STF(Service Telemetry Framework) 클라이언트가 STF 서버에 연결할 수 없었습니다.

이번 업데이트에서는 새로운 Orchestration 서비스(heat) 매개변수인 MetricsQdrSSLProfiles 를 제공하여 이 문제를 해결합니다.

Red Hat OpenShift TLS 인증서를 얻으려면 다음 명령을 입력합니다.

$ oc get secrets
$ oc get secret/default-interconnect-selfsigned -o jsonpath='{.data.ca\.crt}' | base64 -d

Red Hat OpenShift TLS 인증서의 콘텐츠와 함께 MetricsQdrSSLProfiles 매개변수를 사용자 지정 환경 파일에 추가합니다.

MetricsQdrSSLProfiles:
    -   name: sslProfile
        caCertFileContent: |
           -----BEGIN CERTIFICATE-----
           ...
           TOpbgNlPcz0sIoNK3Be0jUcYHVMPKGMR2kk=
           -----END CERTIFICATE-----

그런 다음 openstack overcloud deploy 명령을 사용하여 오버클라우드를 다시 배포합니다.

BZ#1940153

이번 업데이트 이전에는 Block Storage 서비스(cinder)를 사용하여 HP3Par Storage 백엔드 서버의 스냅샷에서 많은 수의 인스턴스(부팅 가능한 볼륨)를 생성할 때 시간 초과가 발생했습니다. HP 변수(convert_to_base)가 true로 설정되어 이로 인해 HP3Par에서 원래 볼륨의 두 배의 볼륨을 만듭니다. 이는 불필요하고 원치 않는 조치였습니다.

이번 업데이트를 통해 새로운 사양을 포함하는 최신 HP 드라이버(4.0.11)가 RHOSP 13으로 백포팅되었습니다.

hpe3par:convert_to_base=True | False
  • True (default) - 볼륨이 스냅샷과 독립적으로 생성됩니다(HOS8 동작).
  • false - 볼륨이 스냅샷의 자식(HOS5 동작)으로 생성됩니다.

    사용법

    cinder type-key 명령을 사용하여 HPE3Par 볼륨에 이 새 사양을 설정할 수 있습니다.

    cinder type-key <volume-type-name-or-ID> set hpe3par:convert_to_base=False | True

    예제

    $ cinder type-key myVolType set hpe3par:convert_to_base=False
    $ cinder create --name v1 --volume-type myVolType 10
    $ cinder snapshot-create --name s1 v1
    $ cinder snapshot-list
    $ cinder create --snapshot-id <snap_id> --volume-type myVolType --name v2 10

    참고

    v2의 크기가 v1보다 크면 볼륨을 확장할 수 없습니다. 이 경우 오류를 방지하려면 v2가 기본 볼륨으로 변환됩니다(convert_to_base=True).

BZ#1943181

이번 업데이트 이전에는 Compute 서비스(nova)에서 블록 스토리지 서비스(cinder)에 대한 종료-연결 호출을 수행한 경우 단일 및 다중 경로 장치가 플러시되지 않았으며 이러한 장치가 은 상태에 있었기 때문에 데이터 손실 위험이 있었습니다.

이 문제의 원인은 os-brick disconnect_volume 코드에서 use_multipath 매개변수가 원래 connect_volume 호출에서 사용된 커넥터와 동일한 값을 가지고 있다고 가정했기 때문입니다.

이번 업데이트를 통해 Block Storage 서비스가 연결 끊기를 수행하는 방법을 변경합니다. 이제 os-brick 코드가 인스턴스에 연결된 볼륨의 다중 경로 구성이 변경되면 볼륨을 올바르게 플러시하고 분리합니다.

3.17.2. 기능 개선

이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.

BZ#1875508

이번 개선된 기능을 통해 오버클라우드를 배포할 때 역할에 대해 오케스트레이션 서비스(heat) 매개변수 ServiceNetMap 를 덮어쓸 수 있습니다.

TLS-everywhere를 사용하는 스파인-및-리프(고프) 배포에서는 역할에 네트워크를 매핑하는 데 사용할 때 hiera interpolation이 문제가 있었습니다. 역할당 ServiceNetMap을 재정의하면 일부 TLS-everywhere 배포에 표시되는 문제가 수정되고, 더 쉬운 인터페이스를 제공하며, 더 복잡한 하이하이폴레이션의 필요성을 대체합니다.

3.17.3. 릴리스 노트

본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 최상의 배포 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.

BZ#1924727
블록 스토리지 백업 서비스는 서비스를 실행하는 컨테이너에서 사용할 수 없는 호스트의 파일에 액세스해야 하는 경우가 있습니다. 이번 개선된 기능에는 Block Storage 백업 서비스의 추가 컨테이너 볼륨 마운트를 지정하는 데 사용할 수 있는 CinderBackupOptVolumes 매개변수가 추가되었습니다.

4장. 기술 노트

이 장에서는 콘텐츠 전송 네트워크를 통해 제공되는 Red Hat OpenStack Platform "Queens" 에라타 권고의 텍스트에 포함된 정보를 보완합니다.

4.1. RHEA-2018:2086 - Red Hat OpenStack Platform 13.0 기능 권고

이 섹션에 포함된 버그는 RHEA-2018:2086 권고에서 다룹니다. 이 권고에 대한 자세한 내용은 https://access.redhat.com/errata/RHEA-2018:2086 에서 확인할 수 있습니다.

ceph-ansible

ceph-ansible 유틸리티는 생성한 동일한 노드에서 ceph-create-keys 컨테이너를 항상 제거하지는 않습니다.

이로 인해 "Error response from daemon: No such container: ceph-create-keys라는 메시지와 함께 배포에 실패할 수 있습니다. 이는 새 배포를 포함하여 ceph-ansible 실행에 영향을 미칠 수 있습니다. * * 여러 컴퓨팅 노트 또는 * 사용자 지정 역할은 ceph를 사용하는 서비스를 호스팅하는 ceph 클라이언트로 변경될 수 있습니다.

gnocchi

openstack-gnocchi 패키지의 이름이 gnocchi로 변경되었습니다. 업스트림 프로젝트 범위 변경 때문에 openstack- 접두사가 제거되었습니다. Gnocchi는 OpenStack 우산에서 이동되었으며 독립 실행형 프로젝트로 유지됩니다.

openDaylight

유동 IP를 인스턴스에 연결할 때 외부 IP에 연결하면 유동 IP의 연결을 해제하지 못합니다. 이 상황은 NAPT가 아닌 스위치에서 생성된 VM이 유동 IP와 연결되고 * 유동 IP가 제거될 때 테넌트 VLAN 네트워크에서 발생합니다. 그 결과 NAPT 스위치의 FIB 테이블에 누락된 흐름(sporadically)이 발생합니다.

FIB 테이블 누락으로 인해 VM이 공용 네트워크에 대한 연결이 끊어집니다.

유동 IP를 VM에 연결하면 공용 네트워크에 대한 연결이 복원됩니다. 유동 IP가 VM과 연결되어 있으면 인터넷에 연결할 수 있습니다. 그러나 외부 네트워크에서 공용 IP/유동 IP가 손실됩니다.

openstack-cinder

이전 버전에서는 롤링 업그레이드 메커니즘으로 인해 오프라인 업그레이드를 수행할 때 cinder 서비스를 두 번 다시 시작해야 했습니다.

cinder-manage db sync 명령에 "--bump-versions"라는 새로운 선택적 매개 변수를 사용하여 이중 시스템 재시작을 건너뛸 수 있습니다.

Block Storage 서비스(cinder)는 동기화 잠금을 사용하여 볼륨 이미지 캐시의 중복 항목을 방지합니다. 잠금 범위가 너무 넓고 이미지 캐시가 활성화되지 않은 경우에도 이미지에서 볼륨을 생성하도록 동시 요청이 발생했습니다.

이미지에서 볼륨을 만드는 동시 요청은 직렬화되고 병렬로 실행되지 않습니다.

결과적으로 잠금 범위를 최소화하고 볼륨 이미지 캐시가 활성화된 경우에만 적용되는 영향을 최소화하기 위해 동기화 잠금이 업데이트되었습니다.

이제 볼륨 이미지 캐시가 비활성화될 때 이미지에서 볼륨을 동시에 생성하도록 요청합니다. 볼륨 이미지 캐시가 활성화되면 잠금이 최소화되어 캐시에 단일 항목만 생성됩니다.

openstack-manila

Shared File System 서비스(manila)는 이제 IPv6 환경에서 manila를 사용할 수 있는 NetApp ONTAP cDOT 드라이버에 대한 IPv6 액세스 규칙 지원을 제공합니다.

결과적으로 공유 파일 시스템 서비스는 이제 IPv6 네트워크를 통해 NetApp ONTAP 백엔드에서 지원하는 공유 내보내기를 지원합니다. 내보낸 공유에 대한 액세스는 IPv6 클라이언트 주소로 제어합니다.

Shared File System 서비스(manila)는 NFSv4 프로토콜을 통해 Ceph 파일 시스템(CephFS)에서 지원하는 공유 파일 시스템 마운트를 지원합니다. 컨트롤러 노드에서 작동하는 NFS-Ganesha 서버는 HA(고가용성)가 있는 테넌트에 CephFS를 내보내는 데 사용됩니다. 테넌트는 서로 격리되며 제공된 NFS 게이트웨이 인터페이스를 통해서만 CephFS에 액세스할 수 있습니다. 이 새로운 기능은 director에 완전히 통합되어 공유 파일 시스템 서비스의 CephFS 백엔드 배포 및 구성을 사용할 수 있습니다.

openstack-neutron

라우터에서 또는 라우터에 인터페이스를 추가 또는 제거하고 DHCP 에이전트에서 격리된 메타데이터가 활성화되면 해당 네트워크의 메타데이터 프록시가 업데이트되지 않습니다.

따라서 라우터에 연결되지 않은 네트워크에 있는 경우 인스턴스에서 메타데이터를 가져올 수 없습니다.

라우터 인터페이스가 추가 또는 제거될 때 메타데이터 프록시를 업데이트해야 합니다. 그런 다음 네트워크를 격리할 때 인스턴스를 DHCP 네임스페이스에서 메타데이터를 가져올 수 있습니다.

openstack-selinux

이전에는 게스트 가상 머신이 시작될 때 virtlogd 서비스가 중복 AVC 거부 오류를 기록했습니다. 이번 업데이트를 통해 virtlogd 서비스는 더 이상 systemd에 종료 억제 호출을 보내지 않아 설명된 오류가 발생하지 않습니다.

openstack-swift

이제 Object Store 서비스(swift)를 Barbican과 통합하여 저장된 오브젝트를 투명하게 암호화하고 암호 해독할 수 있습니다. 유휴 암호화는 전송 내 암호화와 다르며 디스크에 저장되는 동안 암호화되는 오브젝트를 나타냅니다.

Swift 오브젝트는 디스크에 일반 텍스트로 저장됩니다. 이러한 디스크는 수명 종료에 도달할 때 적절히 폐기되지 않은 경우 보안 위험을 초래할 수 있습니다. 오브젝트를 암호화하면 해당 위험이 완화됩니다.

Swift는 swift로 업로드할 때 자동으로 암호화되고 사용자에게 제공할 때 자동으로 암호 해독되는 오브젝트와 함께 이러한 암호화 작업을 투명하게 수행합니다. 이 암호화 및 암호 해독은 Barbican에 저장된 동일한 (symmetric) 키를 사용하여 수행됩니다.

openstack-tripleo-common

Octavia는 기본적으로 구성된 "서비스" 프로젝트에 대한 할당량을 오버클라우드에서 생성할 수 있는 Octavia 로드 밸런서 수를 제한하기 때문에 실제 워크로드로 확장되지 않습니다.

이 문제를 완화하려면 오버클라우드 관리자 권한으로 필요한 할당량을 무제한 또는 일부 충분히 큰 값으로 설정합니다. 예를 들어 언더클라우드에서 다음 명령을 실행합니다.

# source ~/overcloudrc
# openstack quota set --cores -1 --ram -1 --ports -1 --instances -1 --secgroups -1 service

tripleo.plan_management.v1.update_roles 워크플로는 오버클라우드 계획 이름(swift 컨테이너 이름) 또는 zaqar 대기열 이름을 트리거한 하위 작업으로 전달하지 않았습니다. 이로 인해 기본값('overcloud')이 아닌 다른 오버클라우드 계획 이름을 사용할 때 잘못된 동작이 발생했습니다. 이번 수정에서는 이러한 매개변수를 올바르게 전달하고 올바른 동작을 복원합니다.

컨테이너가 자동으로 다시 시작되면 'docker kill' 명령이 종료되지 않습니다. 사용자가 'docker kill <container>'를 실행하려고 하면 무한정 중단될 수 있습니다. 이 경우 CTRL+C는 명령을 중지합니다.

문제를 방지하려면 'docker stop'(Docker kill 대신)을 사용하여 컨테이너화된 서비스를 중지합니다.

원인: "openstack overcloud node configure" 명령은 "deploy-kernel" 및 "deploy-ramdisk" 매개변수의 이미지 ID가 아닌 이미지 이름만 사용합니다. 이제 수정 후 이미지 ID가 승인됩니다.

openstack-tripleo-heat-templates

이번 개선된 기능에는 director에서 RT가 활성화된 컴퓨팅 노드를 "일반" 컴퓨팅 노드와 함께 배포할 수 있는 지원이 추가되었습니다.

  1. tripleo-heat-templates/environments/compute-real-time-example.yaml을 기반으로 ComputeRealTime 역할의 매개변수를 올바른 값으로 설정하는 compute-real-time.yaml 환경 파일을 생성합니다.

    • IsolCpusList 및 NovaVcpuPinSet: 실시간 워크로드에 예약해야 하는 CPU 코어 목록입니다. 이는 실시간 컴퓨팅 노드의 CPU 하드웨어에 따라 다릅니다.
    • KernelArgs: 게스트 수 및 메모리 크기에 따라 X를 사용하여 "default_hugepagesz=1G hugepagesz=1G hugepages=X"로 설정합니다.
  2. overcloud-realtime-compute 이미지를 빌드하고 업로드합니다.

    • 리포지토리를 준비합니다( CentOS의 경우):

    • OpenStack overcloud image build --image-name overcloud-realtime-compute --config-file /usr/share/openstack-tripleo-common/image-yaml/overcloud-realtime-compute.yaml --config-file /usr/share/openstack-tripleo-common/image-yaml/overcloud-realtime-compute-centos7.yaml
    • OpenStack 오버클라우드 이미지 업로드 --update-existing --os-image-name overcloud-realtime-compute.qcow2
  3. ComputeRealTime 및 기타 모든 필수 역할(예: openstack overcloud roles generate -o ~/rt_roles_data.yaml Controller ComputeRealTime …​ )을 사용하여 roles_data.yaml을 생성하고 일반적인 방법 중 하나로 ComputeRealTime 역할을 실시간 노드에 할당합니다. 자세한 내용은 https://docs.openstack.org/tripleo-docs/latest/install/advanced_deployment/custom_roles.html
  4. 오버클라우드를 배포합니다.

    openstack overcloud deploy --templates -r ~/rt_roles_data.yaml -e ./tripleo-heat-templates/environments/host-config-and-reboot.yaml -e ./compute-real-time.yaml [...]

glance-direct 방법을 사용하려면 HA 구성에 사용할 때 공유 스테이징 영역이 필요합니다. 공통 스테이징 영역이 없는 경우 'glance-direct' 방법을 사용한 이미지 업로드는 HA 환경에서 실패할 수 있습니다. 컨트롤러 노드에 대한 들어오는 요청은 사용 가능한 컨트롤러 노드에 분산됩니다. 한 컨트롤러는 첫 번째 단계를 처리하고 다른 컨트롤러는 두 번째 요청을 두 개의 컨트롤러를 사용하여 다른 스테이징 영역에 이미지를 작성합니다. 두 번째 컨트롤러는 첫 번째 단계를 처리하는 컨트롤러에서 사용하는 동일한 스테이징 영역에 액세스할 수 없습니다.

Glance는 'glance-direct' 방법을 포함하여 여러 이미지 가져오기 방법을 지원합니다. 이 방법은 3단계 접근법을 사용합니다. 이미지 레코드를 생성하고, 이미지를 스테이징 영역에 업로드한 다음, 스테이징 영역에서 이미지를 스토리지 백엔드로 전송하므로 이미지를 사용할 수 있게 됩니다. HA 설정(즉, 컨트롤러 노드가 3개인 경우) glance-direct 방법은 컨트롤러 노드 전체에서 공유 파일 시스템을 사용하는 공통 스테이징 영역이 필요합니다.

이제 활성화된 Glance 가져오기 방법 목록을 구성할 수 있습니다. 기본 설정은 'glance-direct' 방법을 활성화하지 않습니다(web-download는 기본적으로 활성화되어 있음). 문제를 방지하고 HA 환경에서 Glance에 이미지를 안정적으로 가져오려면 'glance-direct' 방법을 활성화하지 마십시오.

openvswitch systemd 스크립트는 호스트에서 /run/openvswitch 폴더를 삭제합니다. ovn-controller 컨테이너 내부의 /run/openvswitch 경로는 오래된 디렉터리가 됩니다. 서비스가 다시 시작되면 폴더를 다시 생성합니다. ovn-controller가 이 폴더에 다시 액세스하려면 폴더를 다시 마운트하거나 ovn-controller 컨테이너를 다시 시작해야 합니다.

Cinder용 RBD 백엔드에서 사용할 Ceph 풀 목록을 지정하는 새로운 CinderRbdExtraPools Heat 매개변수가 추가되었습니다. 목록의 각 풀에 대해 추가 Cinder RBD 백엔드 드라이버가 생성됩니다. 이는 CinderRbdPoolName과 연결된 표준 RBD 백엔드 드라이버에 추가됩니다. 새 매개변수는 선택 사항이며 기본값은 빈 목록입니다. 모든 풀은 단일 Ceph 클러스터와 연결되어 있습니다.

Redis는 TLS가 활성화된 HA 배포의 노드에서 데이터를 올바르게 복제할 수 없습니다. Redis follower 노드는 리더 노드의 데이터를 포함하지 않습니다. Redis 배포의 TLS를 비활성화하는 것이 좋습니다.

이번 개선된 기능에는 metrics 데이터를 Gnocchi DB 인스턴스로 보내는 지원이 추가되었습니다.

collectd 구성 가능 서비스에 대한 다음 새 매개변수가 추가되었습니다. CollectdGnocchiAuthMode가 'simple'으로 설정된 경우 CollectdGnocchitocol, CollectdGnocchiServer, CollectdGnocchiPort 및 CollectdGnocchiUser가 구성에 대해 고려됩니다.

CollectdGnocchiAuthMode가 'keystone'로 설정된 경우 CollectdGnocchiKeystone* 매개변수가 구성에 대해 고려됩니다.

다음은 추가된 매개변수에 대한 자세한 설명입니다.

CollectdGnocchiAuthMode

유형: 문자열

설명: 인증 Gnocchi 서버의 유형은 를 사용하고 있습니다. 지원되는 값은 'simple' 및 'keystone'입니다.

기본값: 'simple'

CollectdGnocchiProtocol

유형: 문자열

설명: API 프로토콜 Gnocchi 서버는 를 사용합니다.

default: 'http'

CollectdGnocchiServer

유형: 문자열

설명: 메트릭을 보내야 하는 gnocchi 엔드포인트의 이름 또는 주소입니다.

기본값: nil

CollectdGnocchiPort

유형: 번호

Description: Gnocchi 서버에 연결할 포트입니다.

기본값: 8041

CollectdGnocchiUser

유형: 문자열

설명: 간단한 인증을 사용하여 원격 Gnocchi 서버에 인증하기 위한 사용자 이름입니다.

기본값: nil

CollectdGnocchiKeystoneAuthUrl

유형: 문자열

설명: 인증할 Keystone 엔드포인트 URL입니다.

기본값: nil

CollectdGnocchiKeystoneUserName

유형: 문자열

설명: Keystone에 인증하기 위한 사용자 이름입니다.

기본값: nil

CollectdGnocchiKeystoneUserId

유형: 문자열

설명: Keystone에 인증하기 위한 사용자 ID입니다.

기본값: nil

CollectdGnocchiKeystonePassword

유형: 문자열

설명: Keystone에 인증하기 위한 암호

기본값: nil

CollectdGnocchiKeystoneProjectId

유형: 문자열

설명: Keystone에 인증하기 위한 프로젝트 ID입니다.

기본값: nil

CollectdGnocchiKeystoneProjectName

유형: 문자열

설명: Keystone에 인증하기 위한 프로젝트 이름입니다.

기본값: nil

CollectdGnocchiKeystoneUserDomainId

유형: 문자열

설명: Keystone에 인증하기 위한 사용자 도메인 ID입니다.

기본값: nil

CollectdGnocchiKeystoneUserDomainName

유형: 문자열

설명: Keystone에 인증하기 위한 사용자 도메인 이름입니다.

기본값: nil

CollectdGnocchiKeystoneProjectDomainId

유형: 문자열

Description: Keystone 인증을 위한 프로젝트 도메인 ID입니다.

기본값: nil

CollectdGnocchiKeystoneProjectDomainName

유형: 문자열

설명: Keystone에 인증하기 위한 프로젝트 도메인 이름입니다.

기본값: nil

CollectdGnocchiKeystoneRegionName

유형: 문자열

설명: Keystone에 인증할 리전 이름입니다.

기본값: nil

CollectdGnocchiKeystoneInterface

유형: 문자열

설명: 인증할 Keystone 엔드포인트 유형입니다.

기본값: nil

CollectdGnocchiKeystoneEndpoint

유형: 문자열

설명: Keystone 값을 재정의하려면 Explicitly state Gnocchi 서버 URL

기본값: nil

CollectdGnocchiResourceType

유형: 문자열

설명: Gnocchi의 collectd-gnocchi 플러그인에 의해 생성된 기본 리소스 유형은 호스트를 저장합니다.

default: 'collectd'

CollectdGnocchiBatchSize

유형: 번호

설명: Gnocchi의 최소 값 수를 일괄 처리해야 합니다.

기본값: 10

BZ#1566376

OVN 메타데이터 서비스가 DVR 기반 환경에 배포되지 않았습니다. 따라서 인스턴스 이름, 공개 키 등과 같은 메타데이터를 가져올 수 없었습니다.

이 패치를 사용하면 앞서 언급한 서비스를 통해 부팅된 모든 인스턴스가 메타데이터를 가져올 수 있습니다.

Cinder 백엔드 서비스에 대한 Heat 템플릿은 서비스가 컨테이너에 배포되어야 하는지 여부와 관계없이 오버클라우드 호스트에 cinder-volume 서비스를 배포하도록 Puppet이 트리거되었습니다. 이로 인해 cinder-volume 서비스가 두 번 배포되었습니다. 즉 컨테이너에도 호스트가 있습니다.

이로 인해 호스트에서 실행되는 악성 cinder-volume 서비스에서 작업을 처리하면 OpenStack 볼륨 작업(예: 볼륨 생성 및 연결)이 실패하는 경우가 있었습니다.

그 결과 Cinder 백엔드 heat 템플릿이 cinder-volume 서비스의 두 번째 인스턴스를 배포하지 않도록 업데이트되었습니다.

Gnocchi 백엔드로 사용되는 Swift 클러스터를 제대로 수행하면 gnocchi-metricd.conf의 collectd 로그 및 "ConnectionError: ('Connection aborted.', CannotSendRequest())" 오류가 발생할 수 있습니다. 문제를 완화하려면 CollectdDefaultPollingInterval 매개변수 값을 늘리거나 Swift 클러스터 성능을 향상시킵니다.

ceph-ansible의 복잡한 ceph-keys 처리를 변경하면 /etc/ceph/ceph.client.manila.keyring 파일에서 잘못된 콘텐츠가 생성되므로 manila-share 서비스가 초기화되지 않습니다.

manila-share 서비스가 초기화되도록 하려면 1) 오버클라우드 배포에 사용할 /usr/share/openstack/tripleo-heat-templates의 사본을 만듭니다.

2) 295 행의 모든 삼중 백슬래시를 단일 백슬래시로 변경하도록 …​/tripleo-heat-templates/docker/services/ceph-ansible/ceph-base.yaml 파일을 편집합니다. 이전: mon_cap: 'allow r, allow command \\"auth del\\\", allow command \\"auth caps\\", allow command \\"auth get\\\", allow command \\"auth get-or-create\\\" after: mon_cap: 'rallow, 'allow command \\" allow command \"auth del\", allow command \"auth caps\", allow command \"auth get\", allow command \"auth get-or-create\"'

3) 원래 overcloud-deploy 명령에서 /usr/share/openstack-tripleo-heat 템플릿이 발생한 모든 tripleo-heat-templates 복사본에 대한 경로를 배포할 수 있습니다.

ceph 키 /etc/ceph/ceph.client.manila.keyring 파일에는 적절한 콘텐츠가 있고 manila-share 서비스가 제대로 초기화됩니다.

HA에 대한 cinder-volume 서비스를 구성할 때 cinder의 DEFAULT/host 구성이 "hostgroup"으로 설정되었습니다. 기타 cinder 서비스(cinder-api, cinder-scheduler, cinder-backup)는 서비스를 실행 중인 오버클라우드 노드에 관계없이 구성에 "hostgroup"을 사용합니다. 이러한 서비스의 로그 메시지는 모두 동일한 "hostgroup" 호스트에서 시작된 것처럼 보이므로 메시지를 생성한 노드를 파악하기 어려웠습니다.

HA에 배포할 때 cinder-volume의 backend_host는 DEFAULT/host를 해당 값으로 설정하는 대신 "hostgroup"으로 설정됩니다. 이렇게 하면 각 노드의 DEFAULT/host 값이 고유합니다.

그 결과 cinder-api, cinder-scheduler, cinder-backup의 로그 메시지가 메시지를 생성한 노드와 올바르게 연결됩니다.

새 릴리스로 업그레이드한 후 Block Storage 서비스(cinder)가 이전 릴리스의 이전 RPC 버전을 사용하여 중단되었습니다. 이로 인해 최신 RPC 버전이 필요한 모든 cinder API 요청이 실패했습니다.

새 릴리스로 업그레이드할 때 모든 cinder RPC 버전이 최신 릴리스와 일치하도록 업데이트됩니다.

python-cryptography

버전 2.1부터 python-cryptography는 인증서에 사용된 CNS 이름이 IDN 표준을 준수하는지 확인합니다. 확인된 이름이 이 사양을 따르지 않으면 암호화가 인증서를 검증하지 못하고 OpenStack 명령줄 인터페이스 또는 OpenStack 서비스 로그에서 다른 오류를 찾을 수 있습니다.

python-cryptography 빌드를 설치한 후 Obsoletes가 누락되었기 때문에 RDO의 초기 가져오기가 실패했습니다. 이 패키지의 RHEL 7 빌드가 올바르고 올바른 Obsoletes 항목이 있습니다.

이번 수정에서는 python-cryptography에 대한 Obsoletes를 추가합니다.

python-ironic-tests-tempest

OSP 릴리스 13 업그레이드 후 업그레이드가 실패하기 전에 설치된 Tempest 플러그인(-tests) rpm. 초기 업그레이드 패키지에는 이전 rpm을 사용하지 않는 데 필요한 epoch 명령이 포함되지 않았습니다. subrpm은 OSP 13에서 제공되지 않으며 새로운 플러그인 rpm에 있는 Obsoletes가 올바른 rpm을 제대로 차단하지 않았습니다.

이 문제를 해결하려면 obsolete를 수정하거나 old -rpm을 수동으로 제거하고 대체 플러그인 python2-*-tests-tempest를 수동으로 설치합니다.

python-networking-ovn

neutron 및 OVN 데이터베이스 간의 일관성을 유지하기 위해 구성 변경 사항은 내부적으로 비교되고 백엔드에서 검증됩니다. 각 구성 변경에는 버전 번호가 할당되며 예약된 작업에는 데이터베이스에 대한 모든 생성, 업데이트 및 삭제 작업의 유효성을 검사합니다.

이 버전에서는 networking-ovn에서 내부 DNS 확인을 지원합니다. 두 가지 제한 사항이 있지만 내부 dns를 통해 내부 fqdn 요청을 올바르게 확인하지 않는 bz#1581332입니다.

확장 기능은 GA 릴리스에서 tripleo에서 기본적으로 구성되지 않습니다. 해결 방법은 bz#1577592를 참조하십시오.

게이트웨이 없이 서브넷이 생성되면 DHCP 옵션이 추가되지 않았으며 이러한 서브넷의 인스턴스는 DHCP를 가져올 수 없습니다.

인스턴스가 IP 주소를 가져올 수 있도록 메타데이터/DHCP 포트가 이러한 목적으로 대신 사용됩니다. 메타데이터 서비스를 활성화해야 합니다. 외부 게이트웨이가 없는 서브넷의 인스턴스는 이제 OVN 메타데이터/DHCP 포트를 통해 DHCP를 통해 IP 주소를 가져올 수 있습니다.

현재 L3 HA 스케줄러는 노드의 우선 순위를 고려하지 않았습니다. 따라서 모든 게이트웨이를 동일한 노드에서 호스팅하고 로드가 후보 간에 배포되지 않았습니다.

이번 수정에서는 게이트웨이 라우터를 예약할 때 로드된 노드를 선택하는 알고리즘을 구현합니다. 이제 로드된 최소 네트워크 노드에서 게이트웨이 포트를 예약하여 부하를 균등하게 분배합니다.

하위 포트가 다른 하이퍼바이저의 다른 트렁크에 다시 할당되면 바인딩 정보를 업데이트하지 않고 하위 포트가 ACTIVE로 전환되지 않았습니다.

이번 수정을 통해 하위 포트가 트렁크에서 제거될 때 바인딩 정보가 지워집니다. 이제 하위 포트가 다른 하이퍼바이저에 상주하는 다른 트렁크 포트에 다시 할당되면 ACTIVE로 전환됩니다.

python-os-brick

iSCSI 검색을 사용하면 노드 시작 구성이 "자동"에서 "default"로 재설정되어 서비스가 재부팅 시 시작되지 않았습니다. 이 문제는 각 검색 후 모든 시작 값을 복원하여 수정됩니다.

python-zaqar-tests-tempest

Queens 주기 동안 Tempest 플러그인 컬렉션이 openstack-*-tests rpm 하위 패키지에서 추출되었으므로 업그레이드에는 종속성 문제가 있었습니다. 그러나 모든 패키지가 Provides 및 Obsoletes의 올바른 조합이있는 것은 아닙니다. OSP 13에는 -tests(unittest 하위-rpms)가 없습니다.

이전 릴리스에서 설치된 -tests를 사용하여 업그레이드를 시도하면 종속성 문제로 인해 오류가 발생합니다.

이 문제를 해결하기 위해 추출된 -tests rpms의 이전 버전에 대한 Obsoletes가 다시 추가되었습니다.

4.2. RHSA-2018:2214 - 중요: openstack-tripleo-heat-templates 보안 업데이트

이 섹션에 포함된 버그는 RHSA-2018:2214 권고에서 다룹니다. 이 권고에 대한 자세한 내용은 https://access.redhat.com/errata/RHSA-2018:2214.html 에서 확인할 수 있습니다.

openstack-tripleo-common

Ansible 플레이북의 로그에 배포, 업데이트 및 업그레이드 중 작업 타이밍에 대한 정보를 제공하는 타임스탬프가 포함됩니다.

openstack-tripleo-heat-templates

이전에는 OpenDaylight의 오래된 캐시로 인해 오버클라우드 업데이트가 실패했습니다. 이번 업데이트를 통해 OpenDaylight가 중지되고 새 버전으로 업그레이드하기 전에 오래된 캐시가 제거됩니다. 레벨 1 업데이트는 OpenDaylight 배포에서 작동합니다. 2차 업데이트는 현재 지원되지 않습니다.

기존 오버클라우드 배포에서 Octavia를 활성화하면 컨트롤러 노드의 방화벽 규칙이 잘못 구성되어 있으므로 Octavia API 끝점에 연결할 수 없습니다.

해결방법:

모든 컨트롤러 노드에서 방화벽 규칙을 추가하고 DROP 규칙 앞에 삽입되는지 확인합니다.

IPv4:
  # iptables -A INPUT -p tcp -m multiport --dports 9876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy ipv4" -j ACCEPT
  # iptables -A INPUT -p tcp -m multiport --dports 13876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy_ssl ipv4" -j ACCEPT
  # iptables -A INPUT -p tcp -m multiport --dports 9876,13876 -m state --state NEW -m comment --comment "120 octavia_api ipv4" -j ACCEPT

IPv6:
  # ip6tables -A INPUT -p tcp -m multiport --dports 9876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy ipv6" -j ACCEPT
  # ip6tables -A INPUT -p tcp -m multiport --dports 13876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy_ssl ipv6" -j ACCEPT
  # ip6tables -A INPUT -p tcp -m multiport --dports 9876,13876 -m state --state NEW -m comment --comment "120 octavia_api ipv6" -j ACCEPT

HAProxy를 재시작합니다.

  # docker restart haproxy-bundle-docker-0

OpenDaylight 로깅이 이전 로그가 누락되었을 수 있습니다. 이는 OpenDaylight의 journald 로깅 (Docker logs opendaylght_api" 명령 사용)과 관련하여 알려진 문제입니다. 현재 해결방법은 OpenDaylight 로깅을 컨테이너 내부에서 /opt/opendaylight/data/logs/karaf.log에 기록할 "file" 메커니즘으로 전환하는 것입니다. 이렇게 하려면 OpenDaylightLogMechanism: 'file'이라는 heat 매개변수를 구성합니다.

기존 오버클라우드에 대해 오버클라우드 배포 명령을 다시 실행하지 못했습니다. pacemaker 관리 리소스를 재시작하지 못했습니다. 예를 들어 haproxy에 새 서비스를 추가하는 경우 haproxy Pacemaker 리소스를 수동으로 다시 시작할 때까지 새로 구성된 서비스를 사용할 수 없게 됩니다.

이번 업데이트를 통해 pacemaker 리소스의 구성 변경이 감지되고 pacemaker 리소스가 자동으로 다시 시작됩니다. pacemaker 관리 리소스 구성의 모든 변경 사항은 오버클라우드에 반영됩니다.

minor-update 워크플로우 내의 서비스 배포 작업은 플레이북 목록의 특수한 항목으로 인해 두 번 실행되었습니다. 이번 업데이트에서는 뛰어난 플레이북 항목을 제거하고 업데이트된 플레이북에서 직접 호스트 준비 작업을 포함합니다. 마이너 버전 업데이트의 작업은 원하는 순서로 한 번 실행됩니다.

이전에는 사전 프로비저닝된 서버에 오버클라우드를 배포하는 데 사용된 heat 템플릿에 UpgradeInitCommonCommand 매개변수가 없었습니다. 'openstack overcloud upgrade prepare' 명령은 필요한 모든 작업을 수행하지 않아 일부 환경에서 업그레이드하는 동안 문제가 발생했습니다.

이번 업데이트에서는 사전 프로비저닝된 서버에 사용된 템플릿에 UpgradeInitCommonCommand가 추가되어 'openstack overcloud upgrade prepare' 명령이 필요한 작업을 수행할 수 있습니다.

보안을 강화하기 위해 기본 OpenDaylightPassword "admin"이 임의로 생성된 16자리 숫자로 교체되었습니다. heat 템플릿에 암호를 지정하여 임의로 생성된 암호를 덮어쓸 수 있습니다.

$ cat odl_password.yaml
parameter_defaults:
  OpenDaylightPassword: admin

그런 다음 파일을 overcloud deploy 명령에 전달합니다.

openstack overcloud deploy <other env files> -e odl_password.yaml

Puppet-opendaylight

이전에는 Karaf 쉘(OpenDaylight의 관리 쉘)이 포트 8101의 특정 IP에 바인딩되지 않아 Karaf 쉘이 공용 방향 외부 네트워크에서 수신 대기했습니다. 이로 인해 외부 네트워크를 포트의 OpenDaylight에 액세스하는 데 사용할 수 있으므로 보안 취약점이 생성되었습니다.

이번 업데이트에서는 배포 중에 Karaf 쉘을 내부 API 네트워크 IP에 바인딩하므로 Karaf 쉘은 프라이빗 내부 API 네트워크에서만 액세스할 수 있습니다.

4.3. RHBA-2018:2215 - openstack-neutron 버그 수정 권고

이 섹션에 포함된 버그는 RHBA-2018:2215 권고에서 다룹니다. 이 권고에 대한 자세한 내용은 https://access.redhat.com/errata/RHBA-2018:2215.html 에서 확인할 수 있습니다.

openDaylight

유동 IP가 없는 인스턴스가 다른 라우터에 유동 IP가 있는 다른 인스턴스에 연결하려고 하면 여러 서브넷에서 nova 인스턴스 간 3개의 연결이 실패할 수 있습니다. 이러한 문제는 nova 인스턴스가 여러 계산 노드에 분산될 때 발생합니다. 이 문제에 대한 적절한 해결방법은 없습니다.

배포 중에 기능 로드 버그로 인해 하나 이상의 OpenDaylight 인스턴스가 올바르게 시작되지 않을 수 있습니다. 이로 인해 배포 또는 기능 오류가 발생할 수 있습니다.

배포가 통과되면 배포에 성공하려면 세 개의 OpenDaylight 인스턴스 중 두 개만 작동해야 합니다. 세 번째 OpenDaylight 인스턴스가 잘못 시작되었을 수 있습니다. docker ps 명령을 사용하여 각 컨테이너의 상태를 확인합니다. 비정상적인 경우 docker 재시작 opendaylight_api 를 사용하여 컨테이너를 다시 시작합니다.

배포에 실패하면 유일한 옵션은 배포를 다시 시작하는 것입니다. TLS 기반 배포의 경우 모든 OpenDaylight 인스턴스가 올바르게 부팅되어야 합니다. 그렇지 않으면 배포가 실패합니다.

createFibEntry에서 누락된 매개변수는 NAT 설정 중에 NPE( Null Pointer Exception)를 생성합니다. 이 버그로 인해 라우팅 테이블의 FIB 항목이 누락되어 NAT 또는 라우팅이 실패할 수 있습니다. 이번 업데이트에서는 RPC 호출에 적절한 매개변수를 추가합니다. NPE는 더 이상 OpenDaylight 로그에 표시되지 않으며 NAT 및 라우팅 기능이 올바르게 작동합니다.

VLAN 네트워크의 포트 없이 노드에서 NAPT 스위치를 선택하면 필요한 모든 흐름이 프로그래밍되지 않습니다. 유동 IP 주소가 없는 네트워크의 모든 VM에 대한 외부 연결이 실패합니다. 이번 업데이트에서는 라우터의 일부인 VLAN의 NAPT 스위치에 VLAN 풋프린트를 생성하기 위해 의사 포트를 추가합니다. 외부 연결은 유동 IP 주소가 없는 VM에서 작동합니다.

경쟁 조건으로 인해 Open vSwitch가 Opendaylight openflowplugin에 연결되지 않습니다. 현재 이 제품의 13.z 릴리스에 대한 수정이 구현 중입니다.

라우터 게이트웨이를 제거하면 학습된 IP 주소와 관련된 계층 3 흐름이 제거되지 않습니다. 학습된 IP 주소에는 PNF 및 외부 게이트웨이 IP 주소가 포함됩니다. 이로 인해 오래된 흐름이 발생하지만 기능적인 문제는 발생하지 않습니다. 외부 게이트웨이 및 IP 주소는 자주 변경되지 않습니다. 외부 네트워크를 삭제하면 오래된 흐름이 제거됩니다.

openstack-neutron

neutron OVS 에이전트에 bridge_mac_table_size라는 새로운 설정 옵션이 추가되었습니다. 이 값은 openvswitch-neutron-agent가 관리하는 각 브릿지에 대해 "other_config:mac-table-size" 옵션으로 설정됩니다. 값은 브리지에서 학습할 수 있는 최대 MAC 주소 수를 제어합니다. 이 새 옵션의 기본값은 50,000이며, 대부분의 시스템에 충분합니다. 합리적인 범위 밖의 값 (10~1,000,000)은 OVS에 의해 강제 적용됩니다.

python-networking-odl

Neutron에서는 Neutron 라우터 생성 시 할당량이 초과되었음을 나타내는 오류가 발생할 수 있습니다. 이는 networking-odl의 버그로 인해 Neutron DB에서 단일 생성 요청으로 여러 라우터 리소스가 생성되는 알려진 문제입니다. 이 문제의 해결 방법은 OpenStack Neutron CLI를 사용하여 중복된 라우터를 삭제하고 다시 라우터를 생성하여 단일 인스턴스가 생성되는 것입니다.

python-networking-ovn

OVSDB 서버가 다른 컨트롤러 노드에 장애 조치되면 이 조건을 감지하지 않기 때문에 neutron-server/metadata-agent의 재연결이 수행되지 않습니다.

결과적으로 metadata-agent가 새 메타데이터 네임스페이스를 프로비저닝하지 않고 클러스터링이 예상대로 작동하지 않으므로 VM 부팅이 작동하지 않을 수 있습니다.

가능한 해결 방법은 새 컨트롤러가 OVN 데이터베이스의 마스터로 승격된 후 모든 컴퓨팅 노드에서 ovn_metadata_agent 컨테이너를 다시 시작하는 것입니다. 또한 plugin.ini의 ovsdb_probe_interval을 600000밀리초 값으로 늘립니다.

서브넷에 대해 'dns_nameservers' 필드가 설정되어 있지 않으면 서브넷에 연결된 VM에 /etc/resolv.conf가 비어 있습니다. 이번 수정을 통해 neutron-server가 실행되는 호스트의 /etc/resolv.conf에서 DNS 확인자를 가져와 테넌트 VM의 기본 dns_nameservers로 사용합니다.

4.4. RHBA-2018:2573 - openstack platform 13 버그 수정 및 개선 권고

이 섹션에 포함된 버그는 RHBA-2018:2573 권고에서 다룹니다. 이 권고에 대한 자세한 내용은 https://access.redhat.com/errata/RHBA-2018:2573에서 확인할 수 있습니다.

openstack-kuryr-kubernetes

컨트롤러는 Nodeport 서비스를 지원하지 않으며 사용자는 이를 생성하지 않아야 합니다. 그러나 Nodeport 서비스는 일부 구성에 존재하며, 이로 인해 컨트롤러가 충돌했습니다. 이러한 충돌을 보호하기 위해 컨트롤러는 이제 Nodeport 서비스를 무시합니다.

openstack-manila

이번 업데이트에서는 Manila IPv6 내보내기 위치 및 Dell-EMC Unity 및 VNX 백엔드의 액세스 규칙을 사용할 수 있도록 지원합니다.

openstack-manila-ui

manila-ui 플러그인의 구성 파일이 복사되지 않았습니다. 그 결과 manila 패널이 대시보드에 표시되지 않았습니다. manila-ui의 모든 구성 파일을 필요한 위치에 복사하는 지침이 있습니다. 사용자가 대시보드를 활성화하면 manila 패널이 표시됩니다.

openvswitch

포트가 생성되었으므로 OVN 포트가 선형으로 생성됩니다. 이제 클라우드의 포트 수에 관계없이 생성 시간이 일정하게 유지됩니다.

python-eventlet

어떤 경우에는 python-eventlet UDP 주소 처리에 문제가 있어서 일부 IPv6 주소가 잘못 처리되었습니다. 그 결과 UDP를 통해 DNS 응답을 수신할 때 python-eventlet은 응답을 무시하고 몇 초 동안 중지되어 성능에 심각한 영향을 미쳤습니다. 이 문제는 이제 해결되었습니다.

eventlet의 버그로 인해 이름 서버를 구성하지 않은 시스템(또는 이름 서버에 연결할 수 없는 시스템)이 호스트 파일에만 의존하여 이름 확인이 인스턴스를 부팅할 때 지연되었습니다. 이는 IPv4 호스트만 지정된 경우에도 IPv6 항목을 확인하려고 하기 때문입니다. 수정판에서는 호스트 파일에 하나 이상의 항목이 있는 경우 네트워크 확인을 시도하지 않고 즉시 이벤트에서 반환됩니다.

python-oslo-policy

이전에는 neutron에서 정책 검사를 수행할 때마다 정책 파일이 다시 로드되고 다시 평가되었습니다. 정책 파일의 재 평가로 인해 관리자 이외의 사용자에게 API 작업이 크게 느려졌습니다. 이번 업데이트를 통해 정책 파일의 상태가 저장되므로 규칙이 변경된 경우에만 파일이 다시 로드됩니다. 관리자가 아닌 사용자를 위한 Neutron API 작업이 신속하게 해결됩니다.

python-proliantutils

HP Gen10 서버에서 여러 Sushy 개체 생성과 관련된 문제로 인해 HPE Gen10 서버는 id /redfish/v1/Systems/1을 사용하여 시스템에 액세스할 때 일관된 응답을 제공하지 않았습니다. Sushy 개체 생성 시 기본 인증 방법인 세션 기반 인증을 사용하는 대신 기본 인증을 사용합니다. 이는 전원 요청 문제를 해결합니다.

ironic-dbsync 유틸리티가 ironic 드라이버를 로드하려고 하면 드라이버가 proliantutils.ilo 클라이언트 모듈을 가져온 경우 proliantutils 라이브러리에서 모든 pysnmp MIBs를 로드하려고 했습니다. ironic-dbsync 프로세스가 읽을 수 없는 CWD에 있는 경우 CWD에서 MIBs를 검색하려고 할 때 pysnmp가 실패했습니다. 이로 인해 배포의 ironic-dbsync.log에 다음과 같은 오류 메시지가 표시되었습니다. 클래식 드라이버 fake_drac를 로드할 수 없습니다. MIB 파일 pysnmp_mibs/CPQIDA-MIB.pyc 액세스 오류: [Errno 13] Permission denied: 'pysnmp_mibs': MibLoadError: MIB 파일 pysnmp_mibs/CPQIDA-MIB.pyc 액세스 오류: [Errno 13] Permission denied: 'pysnmp_mibs' update에서 pysnmp가 모듈 가져오기 시 모든 MIB를 로드하지 않도록 합니다. 이로 인해 애플리케이션이 명시적으로 요청되는 순간 전에 MIB 검색을 시도하는 상황을 방지할 수 있습니다.

rhosp-release

이전 이미지 패키지를 제거할 때 post scriptlets가 이미지 패키지의 심볼릭 링크를 잘못 업데이트한 경우가 있었습니다. symlink를 수정하는 데 사용할 수 있는 스크립트를 호출하도록 scriptlets가 업데이트되었습니다.

4.5. RHBA-2018:2574 - openstack director 버그 수정 권고

이 섹션에 포함된 버그는 RHBA-2018:2574 권고에서 다룹니다. 이 권고에 대한 자세한 내용은 https://access.redhat.com/errata/RHBA-2018:2574에서 확인할 수 있습니다.

instack-undercloud

오버클라우드가 Failed 상태인 경우 Red Hat OpenStack undercloud 업그레이드가 실패했습니다. 업그레이드 프로세스의 구성 후 단계에서 통합 아키텍처를 사용하도록 오버클라우드 스택을 마이그레이션하려고 할 때 암호 해독 오류가 발생하여 너무 늦게 실패했습니다. 이제 빠르게 실패하고 언더클라우드 업그레이드를 허용하지 않습니다. 언더클라우드 업그레이드 시작 시 사용자에게 오류가 발생합니다. 사용자는 언더클라우드 업그레이드를 진행하기 전에 overcloud가 *_COMPLETE 상태인지 확인해야 합니다.

이전 버전에서는 local_mtu 매개변수 local_mtu가 1900으로 설정되어 undercloud.conf에 지정된 경우 언더클라우드 설치에 실패했습니다. local_mtu 값이 1500보다 크면 언더클라우드 설치에 실패했습니다. global_physnet_mtu를 local_mtu로 설정합니다. local_mtu 값이 1500보다 크면 언더클라우드 설치에 성공합니다.

설치 중에 SSL이 활성화되어 있는 언더클라우드가 ERROR: epmd 오류와 함께 실패하는 경우가 있습니다. hostname과 일치하는 VIP가 rabbitmq 후에 keepalived에 의해 구성되었기 때문에 오류가 발생했습니다. rabbitmq 전에 keepalived를 구성해야 합니다. 이렇게 하면 언더클라우드 설치에 실패합니다.

openstack-tripleo

배포된 NFV를 사용하여 RHOSP 10에서 RHOSP 13으로 업그레이드하는 절차는 DPDK 및 SR-IOV 환경에 대해 테스트 및 업데이트되었습니다.

openstack-tripleo-common

'openstack undercloud backup' 명령은 확장된 속성을 캡처하지 않았습니다. 이로 인해 undercloud Swift 스토리지 오브젝트에서 메타데이터 손실이 발생하여 사용할 수 없게 되었습니다. 이번 수정을 통해 백업 아카이브를 생성할 때 '-xattrs' 플래그가 추가되었습니다. 이제 Undercloud Swift 스토리지 오브젝트는 백업 중에 확장된 속성을 유지합니다.

언더클라우드가 instackenv.json 파일에서 베어 메탈 노드를 가져와서 UCS 드라이버가 구성된 동안 pm_service_profile (또는 ucs_service_profile) 필드에서만 다르는 Ironic 노드는 ironic 구성에서 서로 과도하게 분산됩니다. 이로 인해 이러한 Ironic 노드 중 하나만 ironic 구성으로 끝납니다. openstack-tripleo-common 업데이트를 통해 pm_service_profile (또는 ucs_service_profile) 필드에만 다른 ironic 노드가 여전히 구별되도록 합니다. pm_service_profile 또는 ucs_service_profile 필드에만 다른 ironic 노드는 ironic으로 가져옵니다.

오버클라우드 배포 전에 클러스터에 대한 stonith 리소스를 자동으로 생성할 수 있습니다. 배포를 시작하기 전에 openstack overcloud generate fencing --ipmi-lanplus --output /home/stack/fencing.yaml /home/stack/instackenv.json을 실행합니다.

그런 다음 '-e /home/stack/fencing.yaml'을 deploy 명령에 전달합니다. 이렇게 하면 클러스터에 필요한 stonith 리소스가 자동으로 생성됩니다.

이제 Derived Parameters 워크플로에서 SchedulerHints 사용을 지원하여 오버클라우드 노드를 식별할 수 있습니다. 이전에는 워크플로에서 스케줄러 힌트를 사용하여 해당 TripleO Overcloud 역할과 연결된 오버클라우드 노드를 식별할 수 없었습니다. 이로 인해 오버클라우드 배포에 실패했습니다. SchedulerHints는 이러한 오류를 방지합니다.

OpenDaylight의 docker healthcheck은 OpenDaylight에서 REST 인터페이스와 neutron NB 구성 요소만 정상인지 확인했습니다. 상태 확인에는 로드된 OpenDaylight 구성 요소가 모두 포함되어 있지 않으므로 정확하지 않았습니다. Docker 상태 점검과 함께 diagstatus URI를 사용하여 로드된 OpenDaylight 구성 요소를 모두 확인합니다. OpenDaylight docker 컨테이너 상태가 더 정확합니다.

openstack-tripleo-heat-templates

manila-share 서비스 컨테이너가 컨트롤러 호스트의 PKI 신뢰 저장소를 바인딩 해제하지 못했습니다. 결과적으로 SSL을 사용하여 manila-share 서비스에서 스토리지 백엔드로의 연결을 암호화할 수 없었습니다. 컨트롤러 호스트에서 manila-share 서비스 컨테이너로 PKI 신뢰 저장소를 바인딩 마운트합니다. 이제 SSL을 사용하여 manila-share 서비스에서 스토리지 백엔드로의 연결을 암호화할 수 있습니다.

libvirtd 실시간 마이그레이션 포트 범위를 변경하면 실시간 마이그레이션 오류가 발생하지 않습니다. 이전 버전에서는 libvirtd 라이브 마이그레이션에서는 qemu.conf 파일에 지정된 대로 49152에서 49215 포트를 사용했습니다. Linux에서 이 범위는 임시 포트 범위 32768 ~ 61000의 하위 집합입니다. 임시 범위의 모든 포트는 다른 서비스에서도 사용할 수 있습니다. 이로 인해 실시간 마이그레이션 실패: 내부 오류: 범위 'migration' (49152-49215)에서 사용되지 않는 포트를 찾을 수 없습니다. 61152-61215의 새로운 libvirtd 실시간 마이그레이션 범위는 임시 범위에 포함되지 않습니다. 관련 오류가 더 이상 발생하지 않습니다.

이전에는 Overcloud 노드에서 ceph-osd 패키지를 제거할 때 해당 Ceph 제품 키가 제거되지 않았습니다. 따라서 subscription-managerceph-osd 패키지가 여전히 설치되어 있다고 잘못 보고했습니다. ceph-osd 패키지 제거를 처리하는 스크립트에서 이제 해당 Ceph 제품 키도 제거됩니다. ceph-osd 패키지 및 제품 키를 삭제하는 스크립트는 오버클라우드 업데이트 절차 중에만 실행됩니다. 결과적으로 subscription-manager 목록이 더 이상 Ceph OSD가 설치되었음을 보고하지 않습니다.

이제 컨테이너는 기본 배포 방법입니다. 여전히 environment/baremetal-services.yaml에 baremetal 서비스를 배포할 수 있지만 결국에는 사라질 것으로 예상됩니다.

환경/서비스-docker를 참조하는 리소스 레지스트리가 있는 환경 파일을 환경/서비스 경로로 변경해야 합니다. 배포된 baremetal 서비스를 유지해야 하는 경우 원래 환경/서비스를 배치한 대신 environments/services-baremetal에 대한 참조를 업데이트합니다.

이전에는 Sahara에 대해 Fast Forward Upgrade path를 지원하는 코드가 누락되었습니다. 결과적으로 10에서 13까지 Fast Forward Upgrade 후 Sahara 서비스에 필요한 모든 변경 사항이 적용된 것은 아닙니다. 이번 업데이트를 통해 이 문제가 해결되었으며 Sahara 서비스가 Fast Forward Upgrade 후에 올바르게 작동합니다.

/var/log/opendaylight에 README가 추가되어 올바른 OpenDaylight 로그 경로를 나타냅니다.

CephFS-NFS 드라이버 배포에서 CephFS에서 지원하는 NFS-Ganesha 서버는 libcephfs 클라이언트에서도 수행하는 dentry, inode 및 속성 캐싱을 수행합니다. NFS-Ganesha 서버의 중복 캐싱으로 인해 메모리 공간이 증가합니다. 또한 캐시 일관성에도 영향을 미쳤습니다. NFS-Ganesha 서버의 inode, dentry, 속성 캐싱을 끕니다. 이렇게 하면 NFS-Ganesha 서버의 메모리 공간이 줄어듭니다. 캐시 일관성 문제가 발생할 수 없습니다.

tripleo의 capabilities-map.yaml은 잘못된 파일 위치에서 Cinder의 Netapp 백엔드를 참조했습니다. UI는 기능 맵을 사용하며 Cinder의 Netapp 구성 파일에 액세스할 수 없었습니다. Cinder의 Netapp 구성을 위한 올바른 위치를 지정하도록 capabilities-map.yaml이 업데이트되었습니다. Cinder Netapp 백엔드의 UI 속성 탭이 올바르게 작동합니다.

Dell-EMC 스토리지 시스템(VNX, Unity, VMAX)의 Manila 구성 매니페스트에 잘못된 구성 옵션이 있었습니다. 결과적으로 Dell Storage 시스템을 사용한 manila-share 서비스의 오버클라우드 배포에 실패했습니다. Dell-EMC 스토리지 시스템(VNX, Unity, VMAX)용 Manila 구성 매니페스트가 수정되었습니다. Dell 스토리지 시스템과 manila-share 서비스의 오버클라우드 배포가 성공적으로 완료되었습니다.

언더클라우드에서 Telemetry가 수동으로 활성화된 경우 각 노드에서 방화벽을 잘못 구성했기 때문에 hardware.* 지표가 작동하지 않습니다. 이 문제를 해결하려면 다음과 같이 undercloud 배포에 대한 추가 템플릿을 추가하여 컨트롤 플레인 네트워크를 사용하여 snmpd 서브넷을 수동으로 설정해야 합니다. parameter_defaults: SnmpdIpSubnet: 192.168.24.0/24

드문 경우지만 컨테이너에서 다음 오류 로그를 사용하여 배포에 실패했습니다. standard_init_linux.go:178: exec 사용자 프로세스에서 "text file busy"을 발생시켰습니다. 경합을 방지하고 배포 실패를 방지하려면 docker-puppet.sh 파일을 동시에 여러 번 작성하지 마십시오.

ipv6을 비활성화하려면 매개변수 KernelDisable IPv6를 true로 설정하는 경우 Erlang Port Mapper Daemon에서 최소한 루프백 인터페이스가 IPv6를 지원해야 하므로 rabbitmq 오류로 인해 배포에 실패했습니다. ipv6을 비활성화할 때 배포에 성공했는지 확인하려면 루프백 인터페이스에서 IPv6를 비활성화하지 마십시오.

Docker에서 journald 백엔드는 크기에 따라 로그를 롤오버했습니다. 이로 인해 일부 OpenDaylight 로그가 삭제되었습니다. 이 문제는 OpenDaylight에서 로그 파일 크기와 롤오버를 관리할 수 있는 콘솔 대신 로깅으로 이동하여 해결되었습니다. 결과적으로 오래된 로그는 이전보다 더 오래 지속됩니다.

모니터링 목적으로 RabbitMQ 인스턴스에 비표준 포트를 사용하는 경우, sensu-client 컨테이너에서 컨테이너 상태 점검의 포트 값을 반영하지 않기 때문에 비정상 상태를 보고했습니다. 이제 port 값이 컨테이너 상태 점검에 표시됩니다.

삭제된 레코드가 Cinder의 데이터베이스에서 제거되도록 삭제된 데이터베이스 레코드를 삭제하는 기본 기간이 수정되었습니다. 이전 버전에서는 Cinder의 purge cron 작업의 CinderCronDbPurgeAge 값이 잘못된 값을 사용하고 삭제된 레코드가 필요한 기본 기간에 도달하면 Cinder의 DB에서 제거되지 않았습니다.

OSP 13의 TripleO Heat 템플릿의 single-nic-vlans 네트워크 템플릿에는 Ceph 노드에 잘못된 브리지 이름이 포함되어 있습니다. 이전 배포에서 single-nic-vlans 템플릿을 사용한 경우 OSP 13으로의 업그레이드가 Ceph 노드에서 실패했습니다. 이제 브리지 이름 br-storage 가 이전 버전의 브릿지 이름과 일치하는 single-nic-vlans 템플릿의 Ceph 노드에서 사용됩니다. 단일nic-vlans 템플릿을 사용하는 환경에서 OSP 13으로 업그레이드하면 이제 Ceph 노드에서 성공적으로 업그레이드됩니다.

이전 버전에서는 *NetName 매개변수(예: InternalApiNetName)가 기본 네트워크의 이름을 변경했습니다. 이는 더 이상 지원되지 않습니다. 기본 네트워크의 이름을 변경하려면 사용자 지정 구성 가능 네트워크 파일(network_data.yaml)을 사용하여 '-n' 옵션을 사용하여 'openstack overcloud deploy' 명령에 포함하십시오. 이 파일에서 "name_lower" 필드를 변경하려는 네트워크의 사용자 지정 네트워크 이름으로 설정합니다. 자세한 내용은 Advanced Overcloud Customization 가이드의 "추가 네트워크 사용"을 참조하십시오. 또한 ServiceNetMap 테이블의 로컬 매개변수를 network_environment.yaml에 추가하고 이전 네트워크 이름의 모든 기본값을 새 사용자 지정 이름으로 재정의해야 합니다. /usr/share/openstack-tripleo-heat-templates/network/service_net_map.j2.yaml에서 기본값을 찾을 수 있습니다. ServiceNetMap을 수정하기 위한 이 요구 사항은 향후 OSP-13 릴리스에서 필요하지 않습니다.

YAML-nic-config-2-script.py 대화형 사용자 입력이 필요합니다. 자동화 목적으로 비대화형 방식으로 스크립트를 호출할 수 없습니다. --yes 옵션이 추가되었습니다. yaml-nic-config-2-script.py를 --yes 옵션으로 호출할 수 있으며 사용자에게 대화형 입력이 필요하지 않습니다.

이전에는 tripleo-heat-templates의 일부 버전에는 환경 파일 fixed-ips-v6.yaml의 Redis VIP 포트 설정에 오류가 발생했습니다. fixed-ips-v6.yaml 파일이 network-isolation-v6.yaml 이후 배포 명령줄에 포함된 경우 Redis 서비스가 올바른 IPv6 네트워크가 아닌 컨트롤 플레인 네트워크에 배치되었습니다. 이번 업데이트를 통해 파일 environments/fixed-ips-v6.yaml에는 network/ports/vip.yaml 대신 network/ports/vip_v6.yaml에 대한 올바른 참조가 포함되어 있습니다. fixed-ips-v6.yaml 환경 파일에는 올바른 리소스 레지스트리 항목이 포함되어 있으며 Redis VIP는 포함된 환경 파일의 순서에 관계없이 IPv6 주소로 생성됩니다.

Cinder 서비스가 호스트에서 실행 중으로 마이그레이션되어 컨테이너에서 실행 중으로 마이그레이션되면 tripleo의 BlockStorage 역할이 업데이트되지 않았습니다. BlockStorage 호스트에 배포된 cinder-volume 서비스입니다. 컨테이너에 cinder-volume 서비스를 배포하도록 BlockStorage 역할이 업데이트되었습니다. cinder-volume 서비스는 컨테이너에서 올바르게 실행됩니다.

Manila 구성 변경 사항이 있는 오버클라우드 업데이트는 컨테이너화된 Manila 공유 서비스에 이러한 변경 사항을 배포하지 못했습니다. 이번 수정으로 변경 사항이 성공적으로 배포되었습니다.

nfs와 같이 /var/lib/nova/instances용 공유 스토리지를 사용하면 모든 컴퓨팅에서 nova_compute를 다시 시작하면 인스턴스 가상 임시 디스크 및 console.log가 소유자/그룹이 변경되었습니다. 이로 인해 인스턴스에서 가상 임시 디스크에 대한 액세스 권한이 손실되고 작동이 중지되었습니다. /var/lib/nova/instances에서 인스턴스 파일의 소유권을 수정하는 스크립트가 개선되었습니다. nova compute를 다시 시작하는 동안 인스턴스 파일에 대한 액세스가 손실되지 않습니다.

Cinder의 Netapp 백엔드 배포에 사용되는 TripleO 환경 파일은 최신 상태가 아니었으며 잘못된 데이터가 포함되어 있었습니다. 이로 인해 오버클라우드 배포에 실패했습니다. Cinder Netapp 환경 파일이 업데이트되어 올바른 것입니다. Cinder Netapp 백엔드가 있는 오버클라우드를 배포할 수 있습니다.

이전 버전에서는 libvirtd 라이브 마이그레이션에서는 qemu.conf 파일에 지정된 대로 49152에서 49215 포트를 사용했습니다. Linux에서 이 범위는 임시 포트 범위 32768 ~ 61000의 하위 집합입니다. 임시 범위의 모든 포트는 다른 서비스에서도 사용할 수 있습니다. 이로 인해 실시간 마이그레이션 실패: 내부 오류: 범위 'migration' (49152-49215)에서 사용되지 않는 포트를 찾을 수 없습니다. 새로운 libvirtd 실시간 마이그레이션 범위는 61152에서 61215까지의 임시 범위에 없습니다.

이전 버전에서는 nic 구성 템플릿에 쉼표로 시작하는 행 다음에 빈 행이 포함된 경우 yaml-nic-config-2-script.py가 다음 행의 시작 열을 재설정하지 않았습니다. 스크립트에서 변환한 nic 구성 템플릿이 유효하지 않아 배포 오류가 발생했습니다. 이번 업데이트를 통해 스크립트는 빈 줄이 탐지될 때 열의 값을 올바르게 설정합니다. 빈 행과 쉼표가 있는 행이 있는 스크립트는 올바르게 변환됩니다.

puppet-nova

이제 Nova의 libvirt 드라이버를 통해 CPU 모델을 구성할 때 세분화된 CPU 기능 플래그를 지정할 수 있습니다. 이러한 이점 중 하나는 "Meltdown" CVE 수정의 적용 후 특정 Intel 기반 가상 CPU 모델을 실행하는 게스트에서 발생하는 성능 저하를 극대화하는 것입니다. 물리적 하드웨어 자체에서 PCID 플래그를 사용할 수 있다고 가정하면 게스트 CPU에 CPU 기능 'PCID'("Process-Context ID")를 노출하여 게스트 성능 영향을 줄일 수 있습니다. 이 변경으로 인해 'PCID'만 CPU 기능 플래그로만 보유되는 제한이 없으며 여러 CPU 플래그를 추가하고 제거할 수 있으므로 다른 사용 사례에서 사용할 수 있습니다. 자세한 내용은 nova.conf[libvirt]/cpu_model_extra_flags 설명서를 참조하십시오.

Puppet-opendaylight

OpenDaylight는 주기적으로 OpenFlow(OF) 통계를 폴링합니다. 이러한 통계는 현재 어느 곳에서도 사용되지 않습니다. 이는 OpenDaylight 성능에 영향을 미칩니다. OF 통계의 폴링을 비활성화하여 OpenDaylight 성능을 향상시킬 수 있습니다.

puppet-tripleo

인스턴스 HA 배포는 경쟁 조건으로 인해 실패했습니다. error:cib를 가져올 수 없습니다. 경쟁은 pacemaker 클러스터가 완전히 가동되기 전에 계산 노드에 pacemaker 속성을 설정했기 때문에 'cib' 오류가 발생할 수 있었습니다. 이번 수정으로 IHA를 사용할 때 배포에 오류가 발생하지 않습니다.

이전 버전에서는 스택 이름에 대문자를 사용한 경우 배포에 실패했습니다. 이번 업데이트에서는 대문자가 포함된 스택 이름이 성공적으로 배포되도록 합니다. 특히 컨테이너 내부의 bootstrap_host 스크립트는 이제 문자열을 소문자로 변환하고 pacemaker 속성에도 동일한 상황이 발생합니다.

컨테이너화된 logrotate 서비스에 기본적으로 순환된 로그를 압축하는 압축 옵션이 추가되었습니다. delaycompress 옵션을 사용하면 로그 파일의 첫 번째 순환은 압축되지 않은 상태로 유지됩니다.

이전 버전에서는 Cinder의 Netapp 백엔드에 대해 더 이상 사용되지 않는 일부 매개변수의 빈 문자열 값을 구성하면 Cinder 드라이버에 대한 구성이 올바르지 않아 초기화 중에 Cinder의 Netapp 백엔드 드라이버가 실패했습니다. 이번 업데이트에서 더 이상 사용되지 않는 Netapp 매개 변수의 빈 문자열 값이 유효한 Netapp 드라이버 구성으로 변환됩니다. 그 결과 Cinder의 Netapp 백엔드 드라이버가 성공적으로 초기화됩니다.

이전에는 Cinder Netapp 백엔드에서 TripleO Heat 매개변수를 통해 Netapp NFS 마운트 옵션을 구성할 수 없는 CinderNetappNfsMountOptions TripleO Heat 매개변수를 무시했습니다. Cinder의 Netapp 구성을 처리하는 코드는 더 이상 CinderNetappNfsMountOptions 매개변수를 무시합니다. CinderNetappNfsMountOptions 매개변수는 Cinder의 Netapp NFS 마운트 옵션을 올바르게 구성합니다.

버전 업그레이드 중에 이제 부트스트랩 노드에서만 Cinder의 데이터베이스 동기화가 실행됩니다. 이렇게 하면 모든 컨트롤러 노드에서 데이터베이스 동기화를 실행할 때 발생한 데이터베이스 동기화 및 업그레이드 실패가 발생하지 않습니다.

4.6. RHBA-2018:3587 - Red Hat OpenStack Platform 13.0 director 버그 수정 권고

이 섹션에 포함된 버그는 RHBA-2018:3587 권고에서 다룹니다. 이 권고에 대한 자세한 내용은 https://access.redhat.com/errata/RHBA-2018:3587에서 확인할 수 있습니다.

instack-undercloud

IPMI bootdev 명령을 수신할 때 예기치 않은 방식으로 부팅 장치 순서를 변경합니다. 이로 인해 노드가 올바른 NIC에서 부팅되지 않거나 PXE가 부팅되지 않을 수 있습니다. 이번 릴리스에서는 "ipmi" 드라이버에 대한 새로운 "noop" 관리 인터페이스가 도입되었습니다. 사용되면 bootdev 명령이 실행되지 않으며 현재 부팅 순서가 사용됩니다. 올바른 NIC에서 PXE 부팅을 시도하도록 노드를 구성한 다음 로컬 하드 드라이브로 대체해야 합니다. 이러한 변경으로 인해 사전 구성된 부팅 순서가 새 관리 인터페이스로 유지됩니다.

이전 버전에서는 undercloud hieradata 덮어쓰기를 사용하여 오버클라우드와 유사한 <service>::config 옵션을 사용하여 일부 서비스 구성을 조정할 수 있습니다. 그러나 이 기능은 배포된 모든 OpenStack 서비스에서 사용할 수 있는 것은 아닙니다. 이 버전에서는 현재 사용할 수 없는 모든 구성 값을 <service>::config hieradata를 통해 업데이트할 수 있습니다.

openstack-tripleo-common

Red Hat OpenStack Platform 12에서 13으로 업그레이드하는 경우 ceph-osd 패키지가 제거됩니다. 패키지 제거는 컨테이너에서 실행 중인 OSD를 중지했으며 패키지가 필요하지 않아야 합니다. 이번 릴리스에서는 업그레이드 중에 패키지를 제거하고 Ceph OSD는 업그레이드 중에 실수로 중지되지 않습니다.

OpenStack이 업데이트 및/또는 업그레이드되면 director가 최신 amphora 이미지를 glance에 업로드합니다. 최신 앰플라 이미지는 Octavia 에이전트 수정뿐만 아니라 운영 체제 수정뿐만 아니라 최신 일반적인 버그 및 보안 수정으로 인스턴스를 실행할 수 있습니다.

이번 릴리스에서는 새로 생성 및 재생성된 amphora 인스턴스가 최신 amphora 이미지로 만들어집니다. 이전 amphora 이미지는 glance에 저장되며 접미사에 타임스탬프를 포함하도록 이름이 변경됩니다.

openstack-tripleo-heat-templates

publicURL keystone 엔드포인트에 연결된 인스턴스 HA 스크립트 중 하나입니다. 기본적으로 internalURL 엔드포인트로 이동되었습니다. 또한 Operator는 nova.conf의 '[placement]/valid_interfaces' 구성 진입점을 통해 이를 재정의할 수 있습니다.

이전 릴리스에서는 온라인 데이터 마이그레이션에 대한 트리거가 누락되었습니다. OSP 13으로 업그레이드한 후 오버클라우드의 nova, cinder, ironic에 대한 온라인 데이터 마이그레이션이 자동으로 실행되지 않아 수동 해결 방법이 필요했습니다. 이번 릴리스에서는 온라인 데이터 마이그레이션에 대한 트리거 논리가 추가되었습니다. 온라인 데이터 마이그레이션은 OSP 13으로 업그레이드할 때 openstack overcloud upgrade converge 명령 중에 트리거됩니다.

이전 릴리스에서는 nova::compute::libvirt::rx_queue_size/nova::compute::libvirt::tx_queue_size를 통해 RX/TX 큐 크기를 설정할 수 있습니다. 그러나 전용 TripleO heat 템플릿 매개변수는 없었습니다. 이번 릴리스에서는 다음과 같은 역할 기반으로 RX/TX 큐 크기를 설정할 수 있습니다.

parameter_defaults: ComputeParameters: NovaLibvirtRxQueueSize: 1024 NovaLibvirtTxQueueSize: 1024

결과적으로 새 매개변수를 사용하여 rx_queue_size/tx_queue_size가 설정됩니다.

이 릴리스에서는 MTU를 OSPD의 일부로 설정하려면 ml2 플러그인에서 MTU를 활성화하기 위해 neutron::plugins::ml2::physical_network_mtus 를 NeutronML2PhysicalNetworkMtus로 추가합니다. Neutron::plugins::ml2::physical_network_mtus는 TripleO heat 템플릿의 값을 기반으로 설정됩니다.

이전 버전에서 Docker 데몬을 다시 시작해야 하는지 확인하는 조건이 너무 엄격했습니다. 그 결과 Docker 구성이 변경되거나 Docker RPM이 업데이트될 때마다 Docker 데몬 및 모든 컨테이너가 다시 시작되었습니다. 이번 릴리스에서는 불필요한 컨테이너 재시작을 방지하기 위해 조건이 완화됩니다. 구성 변경에 대해서는 "live restore" 기능을 사용하여 Docker RPM을 업데이트할 때 Docker 데몬 및 모든 컨테이너가 재시작되지만 Docker 구성이 변경될 때는 시작되지 않습니다.

재배포하는 동안 구성 변경이 없는 경우에도 여러 컨테이너를 불필요하게 다시 시작할 수 있습니다. 이는 구성 파일의 md5 계산에 불필요한 파일을 너무 많이 포함하기 때문입니다. 이번 릴리스에서는 재배포에 의해 증가된 컨테이너를 재시작하지 않습니다.

TripleO CinderNetappBackendName 매개변수는 cinder의 Netapp 백엔드의 기본값을 올바르게 재정의하지 않았습니다. 그 결과 cinder의 Netapp 백엔드와 연결된 이름을 재정의할 수 없었습니다. 이번 릴리스에서는 CinderNetappBackendName 매개변수가 기본 백엔드 이름을 올바르게 덮어씁니다.

puppet-cinder

cinder에서 여러 구성 설정이 제거되었지만 해당 매개변수는 cinder의 구성 설정을 담당하는 TripleO Puppet 모듈에서 제거되지 않았습니다. 그 결과 cinder.conf에 유효하지 않은 cinder 구성 설정이 추가되었습니다. 이번 릴리스에서는 더 이상 사용되지 않는 설정이 cinder.conf에 추가되지 않도록 Puppet 모듈이 업데이트되었습니다.

참고

업데이트된 Puppet 모듈은 이전에 cinder.conf에 추가된 사용되지 않는 설정을 제거하지 않습니다. 사용되지 않는 설정은 수동으로 제거해야 합니다.

puppet-tripleo

rhel-plugin-push.service와 Docker 서비스 종료 중에 오류가 발생했습니다. 이로 인해 컨트롤러가 재부팅되는 데 시간이 오래 걸립니다. 이번 릴리스에서는 이러한 두 서비스에 대해 올바른 종료 순서가 적용됩니다. 컨트롤러를 재부팅하는 데 걸리는 시간이 단축됩니다.

배포하는 동안 세 개의 컨트롤러 중 두 개의 경우 OVS 스위치가 잘못된 OpenFlow 컨트롤러 포트(6640)를 사용하여 구성할 수 있습니다. 이로 인해 배포 실패 또는 나중에 배포가 포함된 기능 오류가 발생하여 잘못된 흐름이 스위치로 프로그래밍됩니다. 이번 릴리스에서는 OVS 스위치마다 OpenFlow 컨트롤러 포트를 모두 6653으로 올바르게 설정합니다. 모든 OVS 스위치에는 3개의 URI로 구성된 올바른 OpenFlow 컨트롤러 구성이 있으며, 포트 6653을 사용하는 OpenDaylight마다 하나씩 3개의 URI로 구성됩니다.

단일 OpenDaylight 인스턴스가 클러스터에서 제거되면 인스턴스가 격리된 상태로 이동되어 들어오는 요청에 더 이상 작동하지 않습니다. HA Proxy는 여전히 격리된 OpenDaylight 인스턴스에 대한 요청을 로드 밸런싱하여 OpenStack 네트워크 명령이 실패하거나 제대로 작동하지 않을 수 있었습니다. 이제 HA Proxy에서 분리된 OpenDaylight 인스턴스를 비정상 상태에서 탐지합니다. HA 프록시는 요청을 분리된 OpenDaylight로 전달하지 않습니다.

python-os-brick

특정 상황에서 파이버Channel HBA 호스트 검사를 담당하는 os-brick 코드는 잘못된 값을 반환할 수 있습니다. 유효하지 않은 값으로 인해 cinder 및 nova와 같은 서비스가 실패합니다. 이번 릴리스에서는 파이버Channel HBA 검사 코드는 항상 유효한 값을 반환합니다. FibreChannel HBA 호스트를 스캔할 때 Cinder 및 nova가 더 이상 충돌하지 않습니다.

다중 경로 연결에서 장치는 연결 해제 시 모든 경로에 대해 개별적으로 플러시됩니다. 경우에 따라 개별 장치 플러시에 실패하는 경우 연결이 잘못 방지됩니다. 이번 릴리스에서는 멀티패스를 플러시하면 버퍼링된 데이터가 원격 장치에 작성되도록 하기 때문에 개별 경로가 더 이상 플러시되지 않습니다. 이제 실제로 데이터가 손실되는 경우에만 연결이 실패합니다.

다중 경로 표시 상태가 오류 코드를 반환하지 않는 경우가 있으므로 이제 이 문제의 해결 방법으로 stdout을 확인하여 다중 경로가 오류 상태입니다.

이전 릴리스에서는 마이그레이션 시작 중에 단일 iSCSI 경로가 제한된 창에서 실패한 경우 볼륨 마이그레이션이 실패했습니다( VolumePathNotRemoved 오류). 이 릴리스에서는 볼륨 제거를 확인하기 위해 타임아웃 기간을 연장하여 문제를 해결합니다.

iSCSI 장치 탐지는 다시 스캔 시간을 기반으로 장치의 존재를 확인했습니다. 검사 사이에 사용 가능한 장치가 감지되지 않았습니다. 이번 릴리스에서는 검색 및 재검사는 1초마다 다양한 주기로 작동하는 독립적인 작업입니다.

python-tripleoclient

이전 릴리스에서 배포 명령줄의 '-p' 옵션을 통해 사용자 지정 계획을 사용하는 경우 기존 오버클라우드를 재배포하는 동안 암호(예: mysql, horizon, pcsd 등)가 새 값으로 재설정되었습니다. 이로 인해 재배포가 실패했습니다. 이번 릴리스에서는 사용자 정의 계획이 새 암호 설정을 트리거하지 않습니다.

4.7. RHBA-2019:0068 - Red Hat OpenStack Platform 13 버그 수정 및 개선 권고

이 섹션에 포함된 버그는 RHBA-2019:0068 권고에서 다룹니다. 이 권고에 대한 자세한 내용은 https://access.redhat.com/errata/RHBA-2019:0068에서 확인할 수 있습니다.

openstack-tripleo-common

이전에는 언더클라우드에서 노드를 업데이트할 때 capabilities 필드 값이 항상 문자열 값 유형으로 변환되지 않았습니다. 이 버그 수정 후 'capabilities 필드는 이제 노드 업데이트 중에 항상 문자열 값 유형으로 변환됩니다.

openstack-tripleo-heat-templates

이번 개선된 기능에는 heat 템플릿에서 neutron::agents::ml2::ovs::tunnel_csum 을 구성할 수 있는 NeutronOVSTunnelCsum 매개변수가 추가되었습니다. 이 매개 변수는 OVS 에이전트에서 나가는 IP 패킷을 전달하는 GRE/VXLAN 터널에서 터널 헤더 체크섬을 설정하거나 제거합니다.

ODL(OpenDaylight) 구성 파일이 컨트롤러 교체 중에 다시 생성되지 않아 업데이트가 실패했습니다. 이번 수정에서는 호스트에서 /opt/opendaylight/data를 마운트 해제하므로 재배포 중에 구성 파일이 다시 생성됩니다.

이전에는 OpenStack Platform Director에서 Nova 권한 API를 사용하는 볼륨에 액세스하기 위해 블록 스토리지(Cinder)에 대한 인증을 구성하지 않았습니다. 이로 인해 사용 중인 볼륨 마이그레이션과 같은 이러한 볼륨에서 작업이 실패했습니다.

이번 버그 수정을 통해 Nova 인증 데이터로 Cinder를 구성하는 기능이 추가되어 이러한 자격 증명과 권한 있는 API를 사용하는 볼륨에서 작업을 수행할 수 있습니다.

Ironic을 사용하여 컨테이너화된 배포 중에 TFTP 서버가 올바르게 종료되지 않아 업그레이드가 실패했습니다. 이번 수정으로 TFTP 서버의 종료 프로세스가 수정되어 서버가 포트를 수신 대기하고 업그레이드가 성공적으로 완료됩니다.

이전에는 ODL의 Open vSwitch의 비활성 프로브 타이머가 대규모 배포에는 충분하지 않아 비활성 시간 경과 후 ODL L2 에이전트가 오프라인 상태로 표시되었습니다.

이 버그 수정을 통해 기본 비활성 프로브 타이머 기간이 증가하고 OpenDaylightInactivityProbe heat 매개변수를 사용하여 Director에서 타이머를 구성하는 기능이 추가되었습니다. 기본값은 180초입니다.

RabbitMQ 컨테이너의 Pacemaker 로그 파일의 위치가 올바른 위치로 설정되지 않아 /var/log/secure에 불필요한 로그 파일이 생성되었습니다. 이번 수정을 통해 RabbitMQ 컨테이너를 시작하는 동안 /var/log/btmp 경로 마운트가 추가되어 Pacemaker에서 로그를 올바른 위치에 만들 수 있습니다.

이 기능에는 볼륨 간 및 이미지 볼륨 전송에 다중 경로를 사용하도록 Cinder Dell EMC StorageCenter 드라이버를 구성하는 기능이 추가되었습니다. 이 기능에는 기본값 True 인 새 매개변수 CinderDellScMultipathXfer 가 포함됩니다. 다중 경로 전송을 활성화하면 볼륨과 이미지 간의 데이터 전송 총 시간을 줄일 수 있습니다.

이 기능은 컴퓨팅 노드의 nova.conf 파일에 다중 경로 구성 매개변수 libvirt/volume_use_multipath 를 설정하는 새로운 매개변수 NovaLibvirtVolumeUseMultipath (boolean)를 추가합니다. 이 매개변수는 각 Compute 역할에 대해 설정할 수 있습니다. 기본값은 False 입니다.

이 기능에는 NovaSchedulerWorkers 매개변수가 추가되어 각 스케줄러 노드에 대해 여러 개의 nova-schedule 작업자를 구성할 수 있습니다. 기본값은 1 입니다.

이전 버전에서는 LVM 볼륨 그룹과 연결된 루프백 장치가 컨트롤러 노드를 다시 시작한 후 항상 재시작되지 않았습니다. 이로 인해 iSCSI Cinder 백엔드에서 사용하는 LVM 볼륨 그룹이 재시작 후 유지되지 않아 새 볼륨이 생성되지 않았습니다.

이 버그 수정 후 컨트롤러 노드를 재부팅한 후 루프백 장치를 복원하고 노드에서 LVM 볼륨 그룹에 액세스할 수 있습니다.

이번 개선된 기능에는 Erlang VM에 Rabbit additionalErl Args 매개변수가 추가되어 VM의 사용자 지정 인수를 정의할 수 있습니다. 기본 인수는 +sbwt none 이며, 추가 작업이 필요하지 않은 경우 Erlang 스레드가 유휴 상태로 전환하도록 지시합니다. 자세한 내용은 다음 주소에 있는 Erlang 문서를 참조하십시오. http://erlang.org/doc/man/erl.html#+sbwt

openstack-tripleo-heat-templates-compat

이전에는 OpenStack 12 템플릿에서 배포할 때 OpenStack 13 Director에서 올바른 Ceph 버전을 설정하지 않았습니다. 이로 인해 오버클라우드 배포에 실패했습니다.

이 버그 수정을 통해 Ceph 버전이 Jewel로 설정되고, OpenStack 12 템플릿에서 올바른 배포를 수행할 수 있습니다.

Puppet-opendaylight

이 기능은 IPv6 주소에 ODL(OpenDaylight) 배포를 지원합니다.

4.8. RHBA-2019:0448 - Red Hat OpenStack Platform 13 버그 수정 및 개선 권고

이 섹션에 포함된 버그는 RHBA-2019:0448 권고에서 다룹니다. 이 권고에 대한 자세한 내용은 https://access.redhat.com/errata/RHBA-2019:0448에서 확인할 수 있습니다.

openstack-tripleo-common

이 버그는 dmidecode 3.1 이상의 업데이트된 버전으로 인해 시스템 UUID를 소문자로 반환했습니다. 결과적으로 이 버전 이전에 노드 ceph-ansible 사용자 지정으로 배포된 시스템은 UUID가 일치하지 않고 배포 오류가 발생할 수 있습니다. 이번 수정에서는 openstack-tripleo-common 패키지가 업데이트되어 대문자 또는 소문자 UUID를 허용합니다. dmidecode 출력에서 강제 소문자로 인해 코드 대/소문자를 구분하지 않습니다.

openstack-tripleo-heat-templates

이전에는 Octavia Health Manager가 방화벽에 의해 패킷이 떨어지기 때문에 amphorae에서 하트비트 메시지를 수신하지 못했습니다. 그 결과 Octavia 구성 가능 역할 배포의 operating_statusONLINE 으로 변경되지 않았습니다.

이번 업데이트를 통해 Octavia 구성 가능 역할 배포의 로드 밸런서가 ONLINE 운영 상태로 성공적으로 변경됩니다.

이번 업데이트를 통해 다음 매개변수를 사용하여 백엔드 멤버 및 프런트 엔드 클라이언트에 대한 기본 Octavia 타임아웃을 설정할 수 있습니다.

  • OctaviaTimeoutClientData: 프런트 엔드 클라이언트 비활성 시간
  • OctaviaTimeoutMemberConnect: 백엔드 멤버 연결 시간 초과
  • OctaviaTimeoutMemberData: 백엔드 멤버 비활성 타임아웃
  • OctaviaTimeoutTcpInspect: 콘텐츠 검사를 위해 TCP 패킷을 대기하는 시간

이러한 모든 매개 변수의 값은 밀리초 단위입니다.

이전에는 컨테이너화된 OpenStack 서비스가 생성한 iSCSI 연결이 호스트에 표시되지 않았습니다. 따라서 호스트는 종료 중에 모든 iSCSI 연결을 종료해야 합니다. 호스트가 이러한 iSCSI 연결을 종료하지 못하면 종료 시퀀스가 중단되고 호스트가 hOpenStack 연결을 종료하지 못하므로 연결 정보가 호스트에 표시되지 않았습니다.

이번 업데이트를 통해 iSCSI 연결을 생성하는 컨테이너화된 서비스에 대한 연결 정보가 이제 호스트에 표시되고 종료 시퀀스가 더 이상 중단되지 않습니다.

이번 업데이트를 통해 OpenDaylight 마이너 업데이트가 Red Hat OpenStack Platform 마이너 업데이트 워크플로에 포함되어 있습니다.

이번 업데이트를 통해 OpenDaylight를 백엔드로 사용하는 Red Hat OpenStack Platform 환경의 컴퓨팅 노드를 성공적으로 확장할 수 있습니다.

이전에는 재배포 후 ODL 구성 파일이 누락되었습니다.

이번 업데이트를 통해 /opt/opendaylight/data 가 더 이상 호스트에 마운트되지 않습니다. 결과적으로 ODL 구성 파일이 재배포 중에 생성됩니다.

이전에는 rabbitmq pacemaker 번들에서 일반 작업 중에 과도하게 기록되었습니다.

이번 업데이트를 통해 rabbitmq 번들은 더 이상 과도하게 로그되지 않습니다. 특히 rabbitmq 번들은 무해한 오류를 기록하지 않습니다. 시스템 버스에 연결하지 못했습니다. 이러한 파일 또는 디렉터리는 없습니다.

openstack-tripleo-image-elements

이번 업데이트를 통해 UEFI 모드에서 전체 보안 기능이 강화된 이미지를 부팅할 수 있습니다.

Puppet-opendaylight

이전에는 OpenDaylight 패키징에서 기본 OpenDaylight log_pattern 값을 사용하고 PaxOsgi appender가 포함되었습니다. 이러한 기본값이 모든 배포에 적합한 것은 아니며 사용자 정의 값을 구성하는 것이 적절합니다.

이번 업데이트를 통해 puppet-opendaylight 에는 두 가지 추가 설정 변수가 있습니다.

1) log_pattern: 이 변수를 사용하여 OpenDaylight 로거 log4j2와 함께 사용할 로그 패턴을 구성합니다.

2) enable_paxosgi_appender: 이 부울 플래그를 사용하여 PaxOsgi appender를 활성화하거나 비활성화합니다.

Puppet-opendaylight 도 OpenDaylight 기본값을 수정합니다. puppet-opendaylight 를 사용하는 배포에는 새로운 기본값이 있습니다.

  • log_pattern: %d{ISO8601} | %-5p | %-16t | %-60c{6} | %m%n
  • enable_paxosgi_appender: false

새로운 변수 구성 옵션

log_pattern

로깅에 사용되는 로그 패턴을 제어하는 문자열입니다.

기본값: %d{ISO8601} | %-5p | %-16t | %-60c{6} | %m%n

유효한 옵션: 유효한 log4j2 패턴인 문자열입니다.

enable_paxosgi_logger

PaxOsgi appender 로깅을 사용할 수 있는지 여부를 제어하는 부울입니다.

enable_paxosgi_logger 변수를 활성화하는 경우 추가 기능을 사용하도록 로그 패턴도 수정해야 합니다. log_pattern 변수를 수정하고 PaxOsgi 토큰을 포함하는 패턴을 포함합니다. 예를 들어 log_pattern 변수를 다음 값이 포함된 문자열로 설정합니다.

'%X{bundle.id} - %X{bundle.name} - %X{bundle.version}'

log_pattern 변수를 편집하지 않으면 PaxOsgi appender가 계속 활성화되어 실행되지만 로깅은 추가 기능을 사용하지 않습니다.

예를 들어 enable_paxosgi_logger 변수를 true 로 설정하고 log_pattern 변수를 다음 값으로 설정합니다.

'%D{ISO8601} | %-5p | %-16t | %-32c{1} | %X{bundle.id} - %X{bundle.name} - %X{bundle.version} - %m{bundle.version} | %m%n'

기본값: false

유효한 옵션: 부울 값 truefalse 입니다.

puppet-tripleo

이전에는 BlockStorage 역할을 사용하여 Overcloud를 배포하고 BlockStorage 역할에 속하는 노드에서 pacemaker 속성을 설정할 때 배포에 실패할 수 있었습니다.

이번 업데이트를 통해 pacemaker-managed cinder-volume 리소스는 pacemaker가 관리하는 노드에서만 시작됩니다. 따라서 BlockStorage 역할이 있는 Overcloud 배포가 성공적으로 수행됩니다.

4.9. RHBA-2021:2385 - Red Hat OpenStack Platform 13 버그 수정 및 개선 권고

이 섹션에 포함된 버그는 RHBA-2021:2385 권고에서 다룹니다. 이 권고에 대한 자세한 내용은 https://access.redhat.com/errata/RHBA-2021:2385에서 확인할 수 있습니다.

openstack-cinder 구성 요소

이번 업데이트 이전에는 Block Storage 서비스(cinder) API 응답이 손실되면 NetApp SolidFire 백엔드가 사용되지 않은 중복 볼륨을 생성했습니다.

이번 업데이트를 통해 SolidFire 드라이버에 패치가 먼저 볼륨 이름을 생성하기 전에 볼륨 이름이 있는지 확인합니다. 또한 패치는 읽기 시간 초과를 감지한 직후 볼륨 생성을 확인하고 잘못된 API 호출을 방지합니다. (BZ#1914590)

이번 업데이트 이전에는 Block Storage 서비스(cinder)를 사용하여 HP3Par Storage 백엔드 서버의 스냅샷에서 많은 수의 인스턴스(부팅 가능한 볼륨)를 생성할 때 시간 초과가 발생했습니다. HP 변수(convert_to_base)가 true로 설정되어 이로 인해 HP3Par에서 원래 볼륨의 두 배의 볼륨을 만듭니다. 이는 불필요하고 원치 않는 조치였습니다.

이번 업데이트를 통해 새로운 사양을 포함하는 최신 HP 드라이버(4.0.11)가 RHOSP 13으로 백포팅되었습니다.

hpe3par:convert_to_base=True | False
  • True (default) - 볼륨이 스냅샷과 독립적으로 생성됩니다(HOS8 동작).
  • false - 볼륨이 스냅샷의 자식(HOS5 동작)으로 생성됩니다.

사용법

cinder type-key 명령을 사용하여 HPE3Par 볼륨에 이 새 사양을 설정할 수 있습니다.

cinder type-key <volume-type-name-or-ID> set hpe3par:convert_to_base=False | True

예제

$ cinder type-key myVolType set hpe3par:convert_to_base=False
$ cinder create --name v1 --volume-type myVolType 10
$ cinder snapshot-create --name s1 v1
$ cinder snapshot-list
$ cinder create --snapshot-id <snap_id> --volume-type myVolType --name v2 10

참고

v2의 크기가 v1보다 크면 볼륨을 확장할 수 없습니다. 이 경우 오류를 방지하려면 v2가 기본 볼륨으로 변환됩니다(convert_to_base=True). (BZ#1940153)

이번 업데이트 이전에는 Block Storage 서비스(cinder)의 NetApp SolidFire 백엔드에 대한 API 호출이 xNotPrimary 오류로 실패할 수 있었습니다. 이러한 유형의 오류는 SolidFire가 클러스터 워크로드를 재조정하기 위해 자동으로 연결을 이동했던 동시에 볼륨에 대한 작업이 수행되었을 때 발생했습니다.

이번 업데이트를 통해 SolidFire 드라이버 패치는 재시도할 수 있는 예외 목록에 xNotPrimary 예외를 추가합니다. (BZ#1888417)

이번 업데이트 이전에는 특정 환경에서 사용자가 시간 초과를 경험할 수 있으며 대부분 볼륨이 너무 큰 경우입니다. 종종 이러한 멀티바이트 볼륨은 SolidFire 클러스터와 관련된 잘못된 네트워크 성능 또는 업그레이드 문제가 발생했습니다.

이번 업데이트를 통해 사용자가 환경에 적절한 시간 초과를 설정할 수 있도록 SolidFire 드라이버에 두 가지 시간 제한 설정이 추가되었습니다. (BZ#1888469)

openstack-tripleo-heat-templates

이번 개선된 기능을 통해 오버클라우드를 배포할 때 역할에 대해 오케스트레이션 서비스(heat) 매개변수 ServiceNetMap 를 덮어쓸 수 있습니다.

TLS-everywhere를 사용하는 스파인-및-리프(고프) 배포에서는 역할에 네트워크를 매핑하는 데 사용할 때 hiera interpolation이 문제가 있었습니다. 역할당 ServiceNetMap을 재정의하면 일부 TLS-everywhere 배포에 표시되는 문제가 수정되고, 더 쉬운 인터페이스를 제공하며, 더 복잡한 하이하이폴레이션의 필요성을 대체합니다. (BZ#1875508)

블록 스토리지 백업 서비스는 서비스를 실행하는 컨테이너에서 사용할 수 없는 호스트의 파일에 액세스해야 하는 경우가 있습니다. 이번 개선된 기능에는 Block Storage 백업 서비스의 추가 컨테이너 볼륨 마운트를 지정하는 데 사용할 수 있는 CinderBackupOptVolumes 매개변수가 추가되었습니다. (BZ#1924727)

puppet-tripleo

이번 업데이트 이전에는 최신 버전의 Red Hat AMQ Interconnect에서 CA 인증서가 없는 TLS 연결을 허용하지 않으므로STF(Service Telemetry Framework) 클라이언트가 STF 서버에 연결할 수 없었습니다.

이번 업데이트에서는 새로운 Orchestration 서비스(heat) 매개변수인 MetricsQdrSSLProfiles 를 제공하여 이 문제를 해결합니다.

Red Hat OpenShift TLS 인증서를 얻으려면 다음 명령을 입력합니다.

$ oc get secrets
$ oc get secret/default-interconnect-selfsigned -o jsonpath='{.data.ca\.crt}' | base64 -d

Red Hat OpenShift TLS 인증서의 콘텐츠와 함께 MetricsQdrSSLProfiles 매개변수를 사용자 지정 환경 파일에 추가합니다.

MetricsQdrSSLProfiles:
    -   name: sslProfile
        caCertFileContent: |
           -----BEGIN CERTIFICATE-----
           ...
           TOpbgNlPcz0sIoNK3Be0jUcYHVMPKGMR2kk=
           -----END CERTIFICATE-----

그런 다음 openstack overcloud deploy 명령을 사용하여 오버클라우드를 다시 배포합니다. (BZ#1934440)

python-os-brick

이번 업데이트 이전에는 Compute 서비스(nova)에서 블록 스토리지 서비스(cinder)에 대한 종료-연결 호출을 수행한 경우 단일 및 다중 경로 장치가 플러시되지 않았으며 이러한 장치가 은 상태에 있었기 때문에 데이터 손실 위험이 있었습니다.

이 문제의 원인은 os-brick disconnect_volume 코드에서 use_multipath 매개변수가 원래 connect_volume 호출에서 사용된 커넥터와 동일한 값을 가지고 있다고 가정했기 때문입니다.

이번 업데이트를 통해 Block Storage 서비스가 연결 끊기를 수행하는 방법을 변경합니다. 이제 os-brick 코드가 인스턴스에 연결된 볼륨의 다중 경로 구성이 변경되면 볼륨을 올바르게 플러시하고 분리합니다. (BZ#1943181)