릴리스 노트
OpenShift Container Platform 릴리스의 새로운 기능 및 주요 변경 사항
초록
1장. OpenShift Container Platform 4.12 릴리스 노트
Red Hat OpenShift Container Platform은 개발자 및 IT 조직에 새로운 애플리케이션과 기존 애플리케이션을 안전하고 확장 가능한 리소스에 배포할 수 있는 하이브리드 클라우드 애플리케이션 플랫폼을 최소한의 구성 및 관리 비용으로 제공합니다. OpenShift Container Platform은 Java, JavaScript, Python, Ruby, PHP와 같은 다양한 프로그래밍 언어 및 프레임워크를 지원합니다.
RHEL(Red Hat Enterprise Linux) 및 Kubernetes를 기반으로 하는 OpenShift Container Platform은 오늘날의 엔터프라이즈급 애플리케이션을 위해 보다 안전하고 확장 가능한 다중 테넌트 운영 체제를 제공하는 동시에 통합된 애플리케이션 런타임 및 라이브러리를 제공합니다. 조직은 OpenShift Container Platform을 통해 보안, 개인 정보 보호, 컴플라이언스 및 거버넌스 요구 사항을 충족할 수 있습니다.
1.1. 릴리스 정보
OpenShift Container Platform (RHSA-2022:7399)을 사용할 수 있습니다. 이 릴리스에서는 Kubernetes 1.25 를 CRI-O 런타임과 함께 사용합니다. 다음은 OpenShift Container Platform 4.12와 관련된 새로운 기능, 변경 사항, 알려진 문제에 대해 설명합니다.
OpenShift Container Platform 4.12 클러스터는 https://console.redhat.com/openshift 에서 사용할 수 있습니다. OpenShift Container Platform용 Red Hat OpenShift Cluster Manager 애플리케이션을 사용하면 온프레미스 또는 클라우드 환경에 OpenShift 클러스터를 배포할 수 있습니다.
OpenShift Container Platform 4.12는 Red Hat Enterprise Linux (RHEL) 8.6과 RHCOS(Red Hat Enterprise Linux CoreOS) 4.12에서 지원됩니다.
컨트롤 플레인에는 RHCOS 머신을 사용해야 하며 컴퓨팅 머신에 RHCOS 또는 RHEL을 사용할 수 있습니다.
OpenShift Container Platform 4.12부터 18 개월에서 2 년으로 번호가 지정된 릴리스에서 6 개월의 EUS (Extended Update Support) 단계가 추가로 제공됩니다. 자세한 내용은 Red Hat OpenShift Container Platform 라이프 사이클 정책을 참조하십시오.
OpenShift Container Platform 4.8은 EUS (Extended Update Support) 릴리스입니다. Red Hat OpenShift EUS에 대한 자세한 내용은 OpenShift 라이프사이클 및 OpenShift EUS 개요에서 확인할 수 있습니다.
유지 관리 지원은 2023년 1월 버전 4.8에 종료되고 라이프 사이클 단계로 이동합니다. 자세한 내용은 Red Hat OpenShift Container Platform 라이프 사이클 정책을 참조하십시오.
1.2. OpenShift Container Platform 계층화된 종속 구성 요소 지원 및 호환성
OpenShift Container Platform의 계층화된 종속 구성 요소에 대한 지원 범위는 OpenShift Container Platform 버전에 따라 달라집니다. 애드온의 현재 지원 상태 및 호환성을 확인하려면 해당 릴리스 노트를 참조하십시오. 자세한 내용은 Red Hat OpenShift Container Platform 라이프 사이클 정책을 참조하십시오.
1.3. 새로운 기능 및 개선 사항
이 릴리스에는 다음 구성 요소 및 개념과 관련된 개선 사항이 추가되었습니다.
1.3.1. RHCOS(Red Hat Enterprise Linux CoreOS)
1.3.1.1. 이제 새 클러스터의 기본 콘솔이 설치 플랫폼에 따라 결정됩니다.
OpenShift Container Platform 4.12 부팅 이미지에서 설치된 RHCOS(Red Hat Enterprise Linux CoreOS) 노드는 이제 플랫폼별 기본 콘솔을 사용합니다. 클라우드 플랫폼의 기본 콘솔은 해당 클라우드 공급자가 예상하는 특정 시스템 콘솔에 해당합니다. VMware 및 OpenStack 이미지는 이제 기본 그래픽 콘솔과 보조 직렬 콘솔을 사용합니다. 다른 베어 메탈 설치에서는 기본적으로 그래픽 콘솔만 사용하고 직렬 콘솔을 활성화하지 않습니다. coreos-installer
에서 수행되는 설치는 기존 기본값을 재정의하고 직렬 콘솔을 활성화할 수 있습니다.
기존 노드는 영향을 받지 않습니다. 기존 클러스터의 새 노드는 클러스터를 설치하는 데 원래 사용된 부팅 이미지에서 일반적으로 설치되므로 영향을 받지 않을 수 있습니다.
직렬 콘솔을 활성화하는 방법에 대한 자세한 내용은 다음 문서를 참조하십시오.
1.3.1.2. IBM zSystems 및 LinuxONE에서의 IBM Secure Execution (기술 프리뷰)
OpenShift Container Platform은 이제 IBM zSystems 및 LinuxONE(s390x 아키텍처)에서 IBM Secure Execution용 RHCOS(Red Hat Enterprise Linux CoreOS) 노드를 기술 프리뷰 기능으로 지원합니다. IBM Secure Execution은 KVM 게스트의 메모리 경계를 보호하는 하드웨어 개선 사항입니다. IBM Secure Execution은 클러스터 워크로드에 대해 최고 수준의 격리 및 보안을 제공하며 IBM Secure Executionready QCOW2 부팅 이미지를 사용하여 활성화할 수 있습니다.
IBM 보안 실행을 사용하려면 호스트 머신의 호스트 키가 있어야 하며 Ignition 구성 파일에 지정해야 합니다. IBM Secure Execution은 LUKS 암호화를 사용하여 부팅 볼륨을 자동으로 암호화합니다.
자세한 내용은 IBM Secure Execution를 사용하여 RHCOS 설치를 참조하십시오.
1.3.1.3. RHCOS에서 RHEL 8.6 사용
RHCOS는 OpenShift Container Platform 4.12에서 RHEL (Red Hat Enterprise Linux) 8.6 패키지를 사용합니다. 이를 통해 최신 수정 사항, 기능 및 향상된 기능은 물론 최신 하드웨어 지원 및 드라이버 업데이트를 받을 수 있습니다. OpenShift Container Platform 4.10은 라이프사이클 전체에서 RHEL 8.4 EUS 패키지를 계속 사용하는 EUS (Extended Update Support) 릴리스입니다.
1.3.2. 설치 및 업그레이드
1.3.2.1. 설치 중에 AWS에서 로드 밸런서 유형을 지정합니다.
OpenShift Container Platform 4.12부터 설치 중에 NLB(Network Load Balancer) 또는 Classic을 AWS에서 영구 로드 밸런서 유형으로 지정할 수 있습니다. 이후 Ingress 컨트롤러가 삭제되면 설치 중에 설정된 로드 밸런서 유형이 유지됩니다.
자세한 내용은 네트워크 사용자 지정으로 AWS에 클러스터 설치를 참조하십시오.
1.3.2.2. 로컬 영역 서브넷을 사용하여 기존 VPC(Virtual Private Cloud)에 설치할 때 작업자 노드를 AWS의 에지로 확장합니다.
이번 업데이트를 통해 설치 관리자 프로비저닝 인프라가 있는 기존 VPC에 OpenShift Container Platform을 설치하여 작업자 노드를 로컬 영역 서브넷으로 확장할 수 있습니다. 설치 프로그램은 NoSchedule 테인트를 사용하여 사용자 애플리케이션에 특별히 지정된 AWS 네트워크의 에지에 작업자 노드를 프로비저닝합니다. 로컬 영역 위치에 배포된 애플리케이션은 일반 사용자에게 짧은 대기 시간을 제공합니다.
자세한 내용은 AWS Local Zones를 사용하여 클러스터 설치를 참조하십시오.
1.3.2.3. Google Cloud Platform Marketplace 제공
OpenShift Container Platform은 이제 GCP Marketplace에서 사용할 수 있습니다. GCP Marketplace 이미지를 사용하여 OpenShift Container Platform을 설치하면 GCP를 통해 사용량별로(시간별로) 청구되는 자체 관리 클러스터 배포를 생성할 수 있지만 Red Hat에서 직접 지원합니다.
설치 관리자 프로비저닝 인프라를 사용하는 방법에 대한 자세한 내용은 GCP Marketplace 이미지 사용을 참조하십시오. 사용자 프로비저닝 인프라를 사용하는 방법에 대한 자세한 내용은 GCP에서 추가 작업자 머신 생성 을 참조하십시오.
1.3.2.4. GCP 및 Azure에 설치하는 동안 부트스트랩 오류 문제 해결
이제 설치 프로그램에서 GCP 및 Azure의 부트스트랩 및 컨트롤 플레인 호스트에서 직렬 콘솔 로그를 수집합니다. 이 로그 데이터는 표준 부트스트랩 로그 번들에 추가됩니다.
자세한 내용은 설치 문제 해결을 참조하십시오.
1.3.2.5. IBM Cloud VPC 정식 출시일 (GA)
IBM Cloud VPC는 이제 OpenShift Container Platform 4.12에서 일반적으로 사용할 수 있습니다.
클러스터 설치에 대한 자세한 내용은 IBM Cloud VPC에 설치 준비를 참조하십시오.
1.3.2.6. OpenShift Container Platform 4.11에서 4.12로 업그레이드할 때 관리자 확인이 필요합니다.
OpenShift Container Platform 4.12에서는 더 이상 사용되지 않는 여러 API를 제거한 Kubernetes 1.25를 사용합니다.
클러스터 관리자는 OpenShift Container Platform 4.11에서 4.12로 클러스터를 업그레이드하기 전에 수동 확인을 제공해야 합니다. 이는 OpenShift Container Platform 4.12로 업그레이드한 후 문제가 발생하지 않도록 하고, 여기에서 제거된 API는 여전히 클러스터에서 실행 중이거나 클러스터와 상호 작용하는 워크로드, 툴 또는 기타 구성 요소에서 사용되고 있습니다. 관리자는 제거될 모든 API에 대해 클러스터를 평가하고 영향을 받는 구성 요소를 마이그레이션하여 적절한 새 API 버전을 사용해야 합니다. 이 작업이 완료되면 관리자는 관리자 승인을 제공할 수 있습니다.
모든 OpenShift Container Platform 4.11 클러스터에는 OpenShift Container Platform 4.12로 업그레이드하기 전에 이 관리자가 감사해야 합니다.
자세한 내용은 OpenShift Container Platform 4.12 업데이트 준비를 참조하십시오.
1.3.2.7. 클러스터를 설치할 때 기능 세트 활성화
OpenShift Container Platform 4.12부터 설치 프로세스의 일부로 설정된 기능을 활성화할 수 있습니다. 기능 세트는 기본적으로 활성화되어 있지 않은 OpenShift Container Platform 기능 컬렉션입니다.
설치 중에 기능 세트를 활성화하는 방법에 대한 자세한 내용은 기능 게이트를 사용하여 OpenShift Container Platform 기능 활성화 를 참조하십시오.
1.3.2.8. ARM의 OpenShift Container Platform
OpenShift Container Platform 4.12가 ARM 아키텍처 기반 Azure 설치 관리자 프로비저닝 인프라에서 지원됩니다. AWS Graviton 3 프로세서는 이제 클러스터 배포에서 사용할 수 있으며 OpenShift Container Platform 4.11에서도 지원됩니다. 인스턴스 가용성 및 설치 설명서에 대한 자세한 내용은 다른 플랫폼의 지원 설치 방법을참조하십시오.
1.3.2.9. oc-mirror CLI 플러그인을 사용하여 OCI 형식의 파일 기반 카탈로그 Operator 이미지 미러링 (기술 프리뷰)
이제 Docker v2 형식 대신 oc-mirror CLI 플러그인을 사용하여 OCI 형식으로 파일 기반 카탈로그 Operator 이미지를 미러링할 수 있습니다. 이제 기술 프리뷰 로 사용할 수 있습니다.
자세한 내용은 OCI 형식의 파일 기반 카탈로그 Operator 이미지 미러링을 참조하십시오.
1.3.2.10. GCP의 OpenShift Container Platform 클러스터를 공유 VPC에 설치 (기술 프리뷰)
OpenShift Container Platform 4.12에서는 GCP의 클러스터를 공유 VPC에 기술 프리뷰 로 설치할 수 있습니다. 이 설치 방법에서는 클러스터는 다른 GCP 프로젝트의 VPC를 사용하도록 구성되어 있습니다. 공유 VPC를 통해 조직은 여러 프로젝트의 리소스를 공통 VPC 네트워크로 연결할 수 있습니다. 해당 네트워크의 내부 IP 주소를 사용하여 조직 내에서 안전하고 효율적으로 통신할 수 있습니다.
자세한 내용은 GCP의 클러스터 설치를 공유 VPC에 참조하십시오.
1.3.2.11. provisioning 네트워크없이 베어 메탈 설치에서 Ironic API의 일관된 IP 주소
이번 업데이트를 통해 provisioning 네트워크 없이 베어 메탈 설치에서 프록시 서버를 통해 Ironic API 서비스에 액세스할 수 있습니다. 이 프록시 서버는 Ironic API 서비스에 일관된 IP 주소를 제공합니다. metal3-ironic
이 포함된 Metal3 pod가 다른 pod로 재배치되는 경우 일관된 프록시 주소는 Ironic API 서비스와의 지속적인 통신을 보장합니다.
1.3.2.12. 서비스 계정 인증을 사용하여 GCP에 OpenShift Container Platform 설치
OpenShift Container Platform 4.12에서는 서비스 계정이 연결된 가상 머신을 사용하여 GCP에 클러스터를 설치할 수 있습니다. 이를 통해 서비스 계정 JSON 파일을 사용할 필요 없이 설치를 수행할 수 있습니다.
자세한 내용은 GCP 서비스 계정 생성을 참조하십시오.
1.3.2.13. OpenShift Container Platform 클러스터에서 프로비저닝한 AWS 리소스의 Provision UserTags
매개변수
OpenShift Container Platform 4.12에서 propagateUserTags
매개변수는 Operator가 생성한 AWS 리소스 태그에 지정된 사용자 태그를 포함하도록 클러스터 내에서 Operator를 지시하는 플래그입니다.
자세한 내용은 선택적 구성 매개변수를 참조하십시오.
1.3.2.14. Ironic 컨테이너 이미지에서는 RHEL 9 기본 이미지를 사용합니다.
이전 버전의 OpenShift Container Platform에서 Ironic 컨테이너 이미지는 Red Hat Enterprise Linux (RHEL) 8을 기본 이미지로 사용했습니다. OpenShift Container Platform 4.12에서 Ironic 컨테이너 이미지는 RHEL 9를 기본 이미지로 사용합니다. RHEL 9 기본 이미지는 Ironic 구성 요소에서 CentOS Stream 9, Python 3.8, 및 Python 3.9에 대한 지원이 추가되었습니다.
Ironic 프로비저닝 서비스에 대한 자세한 내용은 베어 메탈에 설치 프로그램 프로비저닝 클러스터 배포를 참조하십시오.
1.3.2.15. RHOSP에서 실행되는 클러스터의 클라우드 공급자 구성 업데이트
OpenShift Container Platform 4.12에서는 RHOSP(Red Hat OpenStack Platform)에서 실행되는 클러스터는 기존 OpenStack 클라우드 공급자에서 외부 CCO(Cloud Controller Manager)로 전환됩니다. 이러한 변경은 클라우드 컨트롤러 관리자를 사용하여 구현된 외부 클라우드 공급자로 인트리(in-tree)에서 외부 클라우드 공급자로 Kubernetes의 이동을 따릅니다.
자세한 내용은 The OpenStack Cloud Controller Manager 에서 참조하십시오.
1.3.2.16. RHOSP 분산 컴퓨팅 노드의 워크로드 지원
OpenShift Container Platform 4.12에서 DCN(Distributed Compute Node) 아키텍처가 있는 RHOSP(Red Hat OpenStack Platform) 클라우드에 클러스터 배포가 검증되었습니다. 이러한 배포에 대한 참조 아키텍처가 곧 제공됩니다.
이 배포 유형에 대한 간략한 개요는 OpenStack을 사용하여 에지에서 클러스터 배포 블로그 게시물을 참조하십시오.
1.3.2.17. AWS Outpost의 OpenShift Container Platform (기술 프리뷰)
OpenShift Container Platform 4.12는 이제 기술 프리뷰 로 AWS Outposts 플랫폼에서 지원됩니다. AWS Outposts를 사용하면 엣지 기반 작업자 노드를 배포하는 동시에 컨트롤 플레인 노드에 AWS 리전을 사용할 수 있습니다. 자세한 내용은 AWS Outposts에서 원격 작업자를 사용하여 AWS에 클러스터 설치를 참조하십시오.
1.3.2.18. 에이전트 기반 설치에서는 두 개의 입력 모드를 지원합니다.
에이전트 기반 설치에서는 두 가지 입력 모드를 지원합니다.
-
install-config.yaml
파일 -
agent-config.yaml
파일
선택 사항
- zeroECDHE Provisioning (ZTP) 매니페스트
기본 모드를 사용하면 install-config.yaml
파일을 구성하고 agent- config.yaml 파일에서 에이전트
기반 특정 설정을 지정할 수 있습니다. 자세한 내용은 에이전트 기반 OpenShift Container Platform 설치 관리자 정보를 참조하십시오.
1.3.2.19. 에이전트 기반 설치는 FIPS 호환 모드에서 OpenShift Container Platform 클러스터 설치를 지원합니다.
에이전트 기반 OpenShift Container Platform 설치 관리자는 FIPS(Federal Information Processing Standards) 호환 모드에서 OpenShift Container Platform 클러스터를 지원합니다. install-config.yaml
파일에서 fips
필드 값을 True
로 설정해야 합니다. 자세한 내용은 FIPS 컴플라이언스 정보를 참조하십시오.
1.3.2.20. 연결이 끊긴 환경에 에이전트 기반 OpenShift Container Platform 클러스터 배포
연결이 끊긴 환경에서 에이전트 기반 설치를 수행할 수 있습니다. 연결이 끊긴 환경에서 사용되는 이미지를 생성하려면 install-config.yaml
파일의 imageContentSources
섹션에 ZTP 매니페스트를 사용하는 경우 미러 정보 또는 registries.conf
파일이 포함되어야 합니다. 이러한 파일에서 사용할 실제 구성 설정은 oc adm release mirror
또는 oc mirror
명령으로 제공됩니다. 자세한 내용은 연결이 끊긴 설치 미러링 이해를 참조하십시오.
1.3.2.21. 에이전트 기반 설치는 단일 및 듀얼 스택 네트워킹 지원
다음 IP 주소 구성을 사용하여 에이전트 ISO 이미지를 생성할 수 있습니다.
- IPv4
- IPv6
- 병렬(dual-stack)의 IPv4 및 IPv6
IPv6는 베어 메탈 플랫폼에서만 지원됩니다.
자세한 내용은 듀얼 및 단일 IP 스택 클러스터를 참조하십시오.
1.3.2.22. 에이전트 배포된 OpenShift Container Platform 클러스터를 hub 클러스터로 사용할 수 있습니다.
Kubernetes Operator용 멀티 클러스터 엔진을 설치하고 에이전트 기반 OpenShift Container Platform 설치 프로그램으로 hub 클러스터를 배포할 수 있습니다. 자세한 내용은 Kubernetes Operator의 다중 클러스터 엔진에 대한 에이전트 기반 설치된 클러스터 준비를 참조하십시오.
1.3.2.23. 에이전트 기반 설치에서 설치 검증 수행
에이전트 기반 OpenShift Container Platform Installer는 다음에서 검증을 수행합니다.
- 설치 이미지 생성: 사용자 제공 매니페스트에서 유효성 및 호환성이 있는지 확인합니다.
-
설치: 설치 서비스는 설치에 사용할 수 있는 하드웨어를 확인하고
openshift-install 에이전트 wait-for
하위 명령을 사용하여 검색할 수 있는 검증 이벤트를 내보냅니다.
자세한 내용은 설치 검증을 참조하십시오.
1.3.2.24. 에이전트 기반 설치에서 정적 네트워킹 구성
에이전트 기반 OpenShift Container Platform 설치 관리자를 사용하면 에이전트 ISO 이미지를 생성하기 전에 모든 호스트에 대해 IPv4, IPv6 또는 듀얼 스택(IPv4 및 IPv6)에 대한 고정 IP 주소를 구성할 수 있습니다. ZTP 매니페스트를 사용하는 경우 agent-config.yaml
파일의 hosts
섹션 또는 NMStateConfig.yaml
파일에서 정적 주소를 추가할 수 있습니다. NMState 상태 예제에 설명된 대로 주소 구성은 NMState의 구문 규칙을 따라야 합니다.
IPv6는 베어 메탈 플랫폼에서만 지원됩니다.
자세한 내용은 네트워킹 정보를 참조하십시오.
1.3.2.25. 에이전트 기반 설치의 CLI 기반 배포
에이전트 기반 OpenShift Container Platform 설치 관리자를 사용하면 설치 구성을 정의하고 모든 노드에 대한 ISO를 생성한 다음 생성된 ISO로 대상 시스템을 부팅하여 설치 해제할 수 있습니다. 자세한 내용은 에이전트 기반 OpenShift Container Platform 설치 프로그램을 사용하여 OpenShift Container Platform 클러스터 설치를 참조하십시오.
1.3.2.26. 에이전트 기반 설치는 instalation 타임에 호스트별 구성을 지원합니다.
에이전트 기반 설치에서 호스트 이름, NMState 형식으로 네트워크 구성, 루트 장치 팁 및 역할을 구성할 수 있습니다.
자세한 내용은 루트 장치 팁 정보를 참조하십시오.
1.3.2.27. 에이전트 기반 설치에서 DHCP 지원
에이전트 기반 OpenShift Container Platform 설치 관리자를 사용하면 DHCP를 사용하여 모든 노드에 대한 네트워킹을 구성하기 위해 시스템 중 하나 이상이 수신할 IP를 알고 있는 환경에 배포할 수 있습니다. 이 IP는 모든 노드가 회의 지점으로 사용하려면 이 IP가 필요합니다. 자세한 내용은 DHCP 를 참조하십시오.
1.3.3. 설치 후 구성
1.3.3.1. vSphere 클러스터에 CSI 드라이버 설치
vSphere에서 실행되는 클러스터에 CSI 드라이버를 설치하려면 다음 요구 사항을 충족해야 합니다.
- 하드웨어 버전 15 이상의 가상 머신
- VMware vSphere 버전 7.0 Update 2 이상, 최대 버전 8 이상은 지원되지 않습니다. vSphere 8은 지원되지 않습니다.
- vCenter 7.0 Update 2 이상, 최대 버전 8 이상은 지원되지 않습니다. vCenter 8은 지원되지 않습니다.
클러스터에 이미 설치된 타사 CSI 드라이버가 없습니다.
타사 CSI 드라이버가 클러스터에 있는 경우 OpenShift Container Platform은 이를 덮어쓰지 않습니다.
위의 버전보다 이전 버전의 구성 요소는 계속 지원되지만 더 이상 사용되지 않습니다. 이러한 버전은 여전히 완전히 지원되지만 OpenShift Container Platform 버전 4.12에는 vSphere 가상 하드웨어 버전 15 이상이 필요합니다. 자세한 내용은 사용 중단 및 제거된 기능을 참조하십시오.
위의 요구 사항을 충족하지 못하면 OpenShift Container Platform이 OpenShift Container Platform 4.13 이상으로 업그레이드할 수 없습니다.
1.3.3.2. 클러스터 기능
다음과 같은 새로운 클러스터 기능이 추가되었습니다.
- 콘솔
- Insights
- 스토리지
- CSISnapshot
사전 정의된 새로운 클러스터 기능 세트 v4.12
가 추가되었습니다. 여기에는 v4.11
의 모든 기능과 현재 릴리스와 함께 추가된 새로운 기능이 포함됩니다.
자세한 내용은 link: 클러스터 기능 활성화를 참조하십시오.
1.3.3.3. 다중 아키텍처 컴퓨팅 머신이 있는 OpenShift Container Platform (기술 프리뷰)
다중 아키텍처 컴퓨팅 머신이 있는 OpenShift Container Platform 4.12에서는 이미지 스트림에 나열된 매니페스트를 지원합니다. 매니페스트 목록 이미지에 대한 자세한 내용은 OpenShift Container Platform 클러스터에서 다중 아키텍처 컴퓨팅 머신 구성을 참조하십시오.
다중 아키텍처 컴퓨팅 머신이 있는 클러스터에서 Operator의 Subscription
오브젝트의 노드 유사성을 재정의하여 Operator에서 지원하는 아키텍처를 사용하여 노드에 Pod를 예약할 수 있습니다. 자세한 내용은 노드 유사성을 사용하여 Operator가 설치된 위치를 제어하는 것을 참조하십시오.
1.3.4. 웹 콘솔
1.3.4.1. 관리자 화면
이 릴리스에서는 웹 콘솔의 관리자 화면에 대한 여러 업데이트가 있습니다.
-
클러스터가 업그레이드 중인 경우 OpenShift Container Platform 웹 콘솔에
ConsoleNotification
이 표시됩니다. 업그레이드가 완료되면 알림이 제거됩니다. -
Deployment
리소스에 대한 재시작 롤아웃 옵션 및DeploymentConfig
리소스에 대한 재시도 롤아웃 옵션은 Action 및ECDHEbab 메뉴에서 사용할 수 있습니다. - 모든 클러스터 드롭다운 목록에서 지원되는 클러스터 목록을 볼 수 있습니다. 지원되는 클러스터에는 OpenShift Container Platform, ROSA(OpenShift Container Platform Service on AWS), Azure Red Hat OpenShift(ARO), ROKS, Red Hat OpenShift Dedicated가 포함됩니다.
1.3.4.1.1. OpenShift Container Platform 웹 콘솔의 다중 아키텍처 컴퓨팅 머신
console-operator
는 이제 모든 노드를 검사하고 클러스터 노드가 실행되는 모든 아키텍처 유형 세트를 빌드하여 console-config.yaml
에 전달합니다. console-operator
는 amd64
,ARM
64 ,ppc64le
또는 s390x
값의 아키텍처로 노드에 설치할 수 있습니다.
다중 아키텍처 컴퓨팅 머신에 대한 자세한 내용은 OpenShift 클러스터에서 다중 아키텍처 컴퓨팅 머신 구성을 참조하십시오.
1.3.4.1.2. 동적 플러그인 사용 가능
이 기능은 이전에 OpenShift Container Platform 4.10에서 기술 프리뷰로 소개되었으며 현재 OpenShift Container Platform 4.12에서 일반적으로 사용할 수 있습니다. 동적 플러그인을 사용하면 웹 콘솔에서 기본적으로 높은 품질과 고유한 사용자 환경을 구축할 수 있습니다. 다음을 수행할 수 있습니다.
- 사용자 정의 페이지 추가.
- 관리자 및 개발자 이외의 화면을 추가합니다.
- 탐색 항목을 추가합니다.
- 탭과 작업을 리소스 페이지에 추가합니다.
- 기존 페이지를 확장합니다.
자세한 내용은 dynamic-plugins 개요 를 참조하십시오.
1.3.4.2. 개발자 화면
이번 릴리스에서는 웹 콘솔의 개발자 화면에 대한 여러 업데이트가 있습니다. 다음 작업을 수행할 수 있습니다.
- +추가 페이지의 애플리케이션 내보내기 옵션을 사용하여 ZIP 파일 형식으로 애플리케이션을 다른 프로젝트 또는 클러스터로 내보냅니다.
- Kafka 이벤트 싱크를 생성하여 특정 소스에서 이벤트를 수신하고 Kafka 주제로 보냅니다.
사용자 환경 설정 → 애플리케이션 페이지에서 기본 리소스 기본 설정을 설정합니다. 또한 다른 리소스 유형을 기본값으로 선택할 수 있습니다.
- 선택적으로 Git → 고급 옵션 → 리소스 유형을 클릭하고 드롭다운 목록에서 리소스를 선택하여 Add 페이지에서 다른 리소스 유형을 설정합니다.
-
Pod 페이지의 세부 정보 탭에 Pod의
status.HostIP
노드 IP 주소를 표시합니다. 리소스가 할당량에 도달할 때마다 Topology 의 리소스 할당량 경고 레이블 및 추가 페이지를 참조하십시오. 경고 레이블 링크는 ResourceQuotas 목록 페이지로 이동합니다. 경고 레이블 링크가 단일 리소스 할당량에 대한 경우 ResourceQuota 세부 정보 페이지로 이동합니다.
- 배포의 경우 오류가 리소스 할당량과 연결된 경우 토폴로지 노드 측면 패널에 경고가 표시됩니다. 또한 리소스 할당량이 초과되면 배포 노드에 노란색 테두리가 표시됩니다.
양식 또는 YAML 보기를 사용하여 다음 UI 항목을 사용자 지정합니다.
- 사용자에게 표시되는 화면
- 사용자에게 표시되는 퀵 스타트
- 프로젝트에서 액세스할 수 있는 클러스터 역할
- +추가 페이지에 표시되는 작업
- 개발자 카탈로그의 항목 유형
다음 작업을 수행하여 Pipeline 세부 정보 및 PipelineRun 세부 정보 페이지 시각화에 대한 일반적인 업데이트를 참조하십시오.
- 마우스 rest를 사용하여 확대/축소 비율을 변경합니다.
- 작업 위로 커서를 이동하여 작업 세부 정보를 확인합니다.
- 표준 아이콘을 사용하여 확대, 확대, 화면에 적합하며 보기를 재설정합니다.
- PipelineRun 세부 정보 페이지만 해당: 특정 확대 요인에서 작업의 배경색이 변경되어 오류 또는 경고 상태가 표시됩니다. 작업 배지를 마우스로 이동하여 총 작업 수와 완료된 작업을 확인할 수 있습니다.
1.3.4.2.1. Helm 페이지 개선 사항
OpenShift Container Platform 4.12에서는 Helm 페이지에서 다음을 수행할 수 있습니다.
- 생성 버튼을 사용하여 Helm 릴리스 및 리포지터리를 생성합니다.
- 클러스터 범위 또는 네임스페이스 범위의 Helm 차트 리포지터리를 생성, 업데이트 또는 삭제합니다.
- Repositories 페이지의 범위로 기존 Helm 차트 리포지터리 목록을 확인합니다.
- Helm 릴리스 페이지에서 새로 생성된 Helm 릴리스를 확인합니다.
1.3.4.2.2. Alertmanager의 음수 일치
이번 업데이트를 통해 Alertmanager는 이제 Negative matcher
옵션을 지원합니다. Negative matcher
를 사용하여 Label 값을 NotECDHE matcher로 업데이트할 수 있습니다. 음수 일치 확인란은 =
(값 등)을 !=
(값이 같지 않음)로 변경하고 =~
(정규 표현식과 일치하는 값이 정규식과 일치하지 않음)로 변경합니다.
또한 RegEx 사용 확인란은 RegEx로 이름이 변경되었습니다.
1.3.5. OpenShift CLI(oc)
1.3.5.1. Krew를 사용하여 OpenShift CLI의 플러그인 관리 (기술 프리뷰)
Krew를 사용하여 OpenShift CLI(oc
)에 대한 플러그인을 설치 및 관리할 수 있습니다. 이제 기술 프리뷰 로 사용할 수 있습니다.
자세한 내용은 Krew를 사용하여 CLI 플러그인 관리를 참조하십시오.
1.3.6. IBM Z 및 LinuxONE
이 릴리스에서 IBM Z 및 LinuxONE은 이제 OpenShift Container Platform 4.12와 호환됩니다. z/VM 또는 RHEL KVM을 사용하여 설치할 수 있습니다. 설치 지침은 다음 설명서를 참조하십시오.
주요 개선 사항
OpenShift Container Platform 4.12를 사용하는 IBM Z 및 LinuxONE에서 지원되는 새로운 기능은 다음과 같습니다.
- Cron 작업
- Descheduler
- IPv6
- PodDisruptionBudget
- 스케줄러 프로파일
- SCTP(스트림 제어 전송 프로토콜)
IBM Secure Execution (기술 프리뷰)
OpenShift Container Platform은 이제 IBM zSystems 및 LinuxONE(s390x 아키텍처)에서 IBM Secure Execution용 RHCOS(Red Hat Enterprise Linux CoreOS) 노드를 기술 프리뷰 기능으로 지원합니다.
설치 지침은 다음 설명서를 참조하십시오.
지원되는 기능
다음 기능은 IBM Z 및 LinuxONE에서도 지원됩니다.
현재 다음 Operator가 지원됩니다.
- Cluster Logging Operator
- Compliance Operator
- File Integrity Operator
- Local Storage Operator
- NFD Operator
- NMState Operator
- OpenShift Elasticsearch Operator
- Service Binding Operator
- Vertical Pod Autoscaler Operator
다음 Multus CNI 플러그인이 지원됩니다.
- Bridge
- Host-device
- IPAM
- IPVLAN
- 대체 인증 공급자
- 로컬 스토리지 Operator를 통한 자동 장치 검색
CSI 볼륨
- 복제
- 확장
- 스냅샷
- etcd에 저장된 데이터 암호화
- Helm
- 수평 Pod 자동 스케일링
- 사용자 정의 프로젝트 모니터링
- 다중 경로
- Operator API
- OC CLI 플러그인
- iSCSI를 사용하는 영구 스토리지
- 로컬 볼륨을 사용하는 영구저장장치(Local Storage Operator)
- hostPath를 사용하는 영구 스토리지
- 파이버 채널을 사용하는 영구 스토리지
- Raw Block을 사용하는 영구 스토리지
- IPsec 암호화를 포함한 OVN-Kubernetes
- 다중 네트워크 인터페이스 지원
- 3-노드 클러스터 지원
- SCSI 디스크의 z/VM Emulated FBA 장치
- 4K FCP 블록 장치
이러한 기능은 IBM Z의 OpenShift Container Platform 및 4.12의 LinuxONE에서만 사용할 수 있습니다.
- FICON의 ECKD 스토리지에 연결된 가상 머신에 대해 IBM Z 및 LinuxONE에서 HyperPAV 활성화
제한 사항
다음 제한 사항은 IBM Z 및 LinuxONE의 OpenShift Container Platform에 영향을 미칩니다.
- 시스템 상태 점검으로 손상된 시스템 자동 복구
- Red Hat OpenShift Local
- 노드에서 오버 커밋 제어 및 컨테이너 밀도 관리
- NVMe
- OpenShift Metering
- OpenShift Virtualization
- PTP(Precision Time Protocol) 하드웨어
- OpenShift Container Platform 배포 시 Tang 모드 디스크 암호화
- 컴퓨팅 노드는 RHCOS(Red Hat Enterprise Linux CoreOS)를 실행
- 영구 공유 스토리지는 Red Hat OpenShift Data Foundation 또는 기타 지원되는 스토리지 프로토콜을 사용하여 프로비저닝해야 합니다.
- 영구 비공유 스토리지는 iSCSI, FC와 같은 로컬 스토리지를 사용하거나 DASD, FCP 또는 EDEV/FBA 함께 LSO를 사용하여 프로비저닝해야 합니다.
1.3.7. IBM Power
이 릴리스에서 IBM Power는 이제 OpenShift Container Platform 4.12와 호환됩니다. 설치 지침은 다음 설명서를 참조하십시오.
주요 개선 사항
OpenShift Container Platform 4.12를 사용한 IBM Power에서 다음과 같은 새로운 기능이 지원됩니다.
- IBM Cloud용 클라우드 컨트롤러 관리자
- Cron 작업
- Descheduler
- PodDisruptionBudget
- 스케줄러 프로파일
- SCTP(스트림 제어 전송 프로토콜)
- 토폴로지 관리자
지원되는 기능
다음 기능은 IBM Power에서도 지원됩니다.
현재 다음 Operator가 지원됩니다.
- Cluster Logging Operator
- Compliance Operator
- File Integrity Operator
- Local Storage Operator
- NFD Operator
- NMState Operator
- OpenShift Elasticsearch Operator
- SR-IOV 네트워크 Operator
- Service Binding Operator
- Vertical Pod Autoscaler Operator
다음 Multus CNI 플러그인이 지원됩니다.
- Bridge
- Host-device
- IPAM
- IPVLAN
- 대체 인증 공급자
CSI 볼륨
- 복제
- 확장
- 스냅샷
- etcd에 저장된 데이터 암호화
- Helm
- 수평 Pod 자동 스케일링
- IPv6
- 사용자 정의 프로젝트 모니터링
- 다중 경로
- Multus SR-IOV
- Operator API
- OC CLI 플러그인
- IPsec 암호화를 포함한 OVN-Kubernetes
- iSCSI를 사용하는 영구 스토리지
- 로컬 볼륨을 사용하는 영구저장장치(Local Storage Operator)
- hostPath를 사용하는 영구 스토리지
- 파이버 채널을 사용하는 영구 스토리지
- Raw Block을 사용하는 영구 스토리지
- 다중 네트워크 인터페이스 지원
- Power10 지원
- 3-노드 클러스터 지원
- 4K 디스크 지원
제한 사항
IBM Power의 OpenShift Container Platform에 영향을 미치는 제한 사항은 다음과 같습니다.
- 시스템 상태 점검으로 손상된 시스템 자동 복구
- Red Hat OpenShift Local
- 노드에서 오버 커밋 제어 및 컨테이너 밀도 관리
- OpenShift Metering
- OpenShift Virtualization
- PTP(Precision Time Protocol) 하드웨어
- OpenShift Container Platform 배포 시 Tang 모드 디스크 암호화
- 컴퓨팅 노드는 RHCOS(Red Hat Enterprise Linux CoreOS)를 실행
- 영구 스토리지는 로컬 볼륨, Red Hat OpenShift Data Foundation, NFS(Network File System) 또는 CSI(Container Storage Interface)를 사용하는 Filesystem 유형이어야 합니다.
1.3.8. 이미지
이미지 스트림의 importPolicy
매개변수에 새로운 가져오기 값인 importMode
이 추가되었습니다. 이 값에는 다음 필드를 사용할 수 있습니다.
legacy
:Legacy
는importMode
의 기본값입니다. 활성화되면 매니페스트 목록이 삭제되고 단일 하위 매니페스트가 가져옵니다. 플랫폼은 다음과 같은 우선 순위 순서로 선택됩니다.- 태그 주석
- 컨트롤 플레인 아키텍처
- Linux/AMD64
- 목록의 첫 번째 매니페스트
-
PreserveOriginal
: 활성화된 경우 원래 매니페스트가 유지됩니다. 매니페스트 목록의 경우 매니페스트 목록 및 모든 하위 매니페스트가 가져옵니다.
1.3.9. 보안 및 컴플라이언스
1.3.9.1. Security Profiles Operator
이제 OpenShift Container Platform 4.12 이상에서 SPO(Security Profiles Operator)를 사용할 수 있습니다.
SPO는 보안 컴퓨팅(seccomp) 프로필 및 SELinux 프로필을 사용자 정의 리소스로 정의하고 지정된 네임스페이스의 모든 노드에 프로필을 동기화하는 방법을 제공합니다.
자세한 내용은 Security Profiles Operator 개요 를 참조하십시오.
1.3.10. 네트워킹
1.3.10.1. Red Hat OpenShift Networking
Red Hat OpenShift Networking은 Kubernetes CNI 플러그인 이상으로 Kubernetes 네트워킹을 하나 또는 여러 하이브리드 클러스터의 네트워크 트래픽을 관리하는 데 필요한 고급 네트워킹 관련 기능을 사용하여 Kubernetes 네트워킹을 확장하는 기능, 플러그인 및 고급 네트워킹 기능의 에코시스템입니다. 이 네트워킹 기능 에코시스템은 수신, 송신, 로드 밸런싱, 고성능 처리량, 보안 및 클러스터 간 트래픽 관리를 통합하며, 자연적인 복잡성을 줄이기 위해 역할 기반 관찰 도구를 제공합니다.
자세한 내용은 네트워킹 정보를 참조하십시오.
1.3.10.2. OVN-Kubernetes가 기본 네트워킹 플러그인입니다.
새 클러스터를 설치할 때 OVN-Kubernetes 네트워크 플러그인은 기본 네트워킹 플러그인입니다. 이전 버전의 OpenShift Container Platform에서 OpenShift SDN은 기본 네트워킹 플러그인으로 유지됩니다.
OVN-Kubernetes 네트워크 플러그인에는 다음을 포함하여 OpenShift SDN보다 다양한 기능이 포함되어 있습니다.
- 기존 모든 OpenShift SDN 기능 지원
- IPv6 네트워크지원
- IPsec 암호화 구성지원
-
NetworkPolicy
API에 대한 전체 지원 - 네트워크 정책 이벤트의 감사 로깅지원
- NetFlow, sFlow 및 IPFIX 형식의 네트워크 흐름 추적 지원
- Windows 컨테이너 용 하이브리드 네트워크 지원
- 호환 NIC에 대한 하드웨어 오프로드 지원
OpenShift Container Platform 4.12의 이전 버전과 비교하면 OpenShift Container Platform 4.12의 확장성, 성능 및 안정성도 크게 향상되었습니다.
OpenShift SDN 네트워크 플러그인을 사용하는 경우 다음 사항에 유의하십시오.
- OpenShift SDN을 사용한 기존 및 향후 배포는 계속 지원됩니다.
- OpenShift SDN은 4.12 이전 버전의 OpenShift Container Platform으로 유지됩니다.
- OpenShift Container Platform 4.12부터 OpenShift SDN은 지원되는 설치 시간 옵션입니다.
- OpenShift SDN은 동결 상태로 유지됩니다.
OpenShift SDN과의 기능 비교 매트릭스를 포함한 OVN-Kubernetes 에 대한 자세한 내용은 OVN-Kubernetes 네트워크 플러그인 정보를 참조하십시오.
OpenShift SDN에서 OVN-Kubernetes로 마이그레이션하는 방법에 대한 자세한 내용은 OpenShift SDN 네트워크 플러그인에서 마이그레이션을 참조하십시오.
1.3.10.3. Ingress Node Firewall Operator
이번 업데이트에서는 새로운 상태 비저장 Ingress Node Firewall Operator가 도입되었습니다. 노드 수준에서 방화벽 규칙을 구성할 수 있습니다. 자세한 내용은 Ingress Node Firewall Operator 를 참조하십시오.
1.3.10.4. 네트워킹 지표 개선
이제 OVN-Kubernetes 네트워크 플러그인에 다음 메트릭을 사용할 수 있습니다.
-
ovn_controller_southbound_database_connected
-
ovnkube_master_libovsdb_monitors
-
ovnkube_master_network_programming_duration_seconds
-
ovnkube_master_network_programming_ovn_duration_seconds
-
ovnkube_master_egress_routing_via_host
-
ovs_vswitchd_interface_resets_total
-
ovs_vswitchd_interface_rx_dropped_total
-
ovs_vswitchd_interface_tx_dropped_total
-
ovs_vswitchd_interface_rx_errors_total
-
ovs_vswitchd_interface_tx_errors_total
-
ovs_vswitchd_interface_collisions_total
다음 메트릭이 제거되었습니다.
-
ovnkube_master_skipped_nbctl_daemon_total
1.3.10.5. 다중 영역 설치 관리자 프로비저닝 인프라 VMware vSphere 설치 (기술 프리뷰)
OpenShift Container Platform 4.12부터 설치 관리자 프로비저닝 인프라를 사용하여 단일 vCenter 설치에서 여러 vCenter 데이터센터와 여러 vCenter 클러스터를 구성하는 기능을 이제 기술 프리뷰 기능으로 사용할 수 있습니다. vCenter 태그를 사용하면 vCenter 데이터 센터와 컴퓨팅 클러스터를 openshift-regions 및 openshift-zones와 연결할 수 있습니다. 이러한 연결을 통해 애플리케이션 워크로드가 특정 위치 및 장애 도메인과 연관될 수 있도록 실패 도메인을 정의합니다.
1.3.10.6. VMware vSphere의 Kubernetes NMState 지원
OpenShift Container Platform 4.12부터 VMware vSphere 인스턴스에서 Kubernetes NMState Operator를 사용하여 DNS 서버 또는 검색 도메인, VLAN, 브리지 및 인터페이스 본딩과 같은 네트워킹 설정을 구성할 수 있습니다.
자세한 내용은 Kubernetes NMState Operator 정보를 참조하십시오.
1.3.10.7. OpenStack의 Kubernetes NMState 지원
OpenShift Container Platform 4.12부터 OpenStack 인스턴스에서 Kubernetes NMState Operator를 사용하여 DNS 서버 또는 검색 도메인, VLAN, 브리지 및 인터페이스 본딩과 같은 네트워킹 설정을 구성할 수 있습니다.
자세한 내용은 Kubernetes NMState Operator 정보를 참조하십시오.
1.3.10.8. 외부 DNS Operator
OpenShift Container Platform 4.12에서 External DNS Operator는 AzureDNS의 ExternalDNS 와일드카드 TXT 레코드 형식을 수정합니다. 외부 DNS Operator는 별표를 ExternalDNS 와일드카드 TXT 레코드로 바꿉니다. 충돌이 발생할 수 있으므로 ExternalDNS 와일드카드 A 및 CNAME 레코드가 남아 있는 하위 도메인이
있으면
안 됩니다.
OpenShift Container Platform 4.12용 ExternalDNS
의 업스트림 버전은 v0.13.1입니다.
1.3.10.9. 경로 및 shard 사용과 관련된 메트릭 및 Telemetry 캡처
OpenShift Container Platform 4.12에서 Cluster Ingress Operator는 route_metrics_controller_routes_per_shard
라는 새 지표를 내보냅니다. 지표의 shard_name
레이블은 shard의 이름을 지정합니다. 이 메트릭은 각 shard에서 허용하는 총 경로 수를 제공합니다.
다음 지표는 Telemetry를 통해 전송됩니다.
표 1.1. Telemetry를 통해 전송되는 지표
이름 | 기록 규칙 표현식 | 설명 |
---|---|---|
|
| shard 중 하나에 의해 허용되는 최소 경로 수를 추적합니다. |
|
| shard 중 하나에 의해 허용된 최대 경로 수를 추적합니다. |
|
|
|
|
|
|
|
|
각 |
1.3.10.10. AWS Load Balancer Operator
OpenShift Container Platform 4.12에서 AWS Load Balancer 컨트롤러는 여러 일치에 대해 Kubernetes Ingress 사양을 구현합니다. Ingress 내의 여러 경로가 요청과 일치하면 가장 긴 일치 경로가 우선합니다. 두 경로가 여전히 일치하는 경우 경로 유형이 정확한 경로가 있는 경로가 접두사 경로 유형보다 우선합니다.
AWS Load Balancer Operator는 EnableIPTargetType
기능 게이트를 false
로 설정합니다. AWS Load Balancer 컨트롤러는 대상 유형
IP에 대한 서비스 및 수신 리소스에 대한 지원을 비활성화 합니다
.
OpenShift Container Platform 4.12의 업스트림 버전은 v2.4.4입니다.
1.3.10.11. Ingress 컨트롤러 자동 확장 (기술 프리뷰)
OpenShift Container Platform Custom Metrics Autoscaler Operator를 사용하여 사용 가능한 작업자 노드 수와 같이 배포된 클러스터의 메트릭을 기반으로 기본 Ingress 컨트롤러를 동적으로 확장할 수 있습니다. Custom Metrics Autoscaler는 기술 프리뷰 기능으로 사용할 수 있습니다.
자세한 내용은 Ingress 컨트롤러 자동 확장을 참조하십시오.
1.3.10.12. HAProxy maxConnections 기본값은 50,000입니다.
OpenShift Container Platform 4.12에서 maxConnections
설정의 기본값은 이제 50000입니다. 이전에는 OpenShift Container Platform 4.11부터 maxConnections
설정의 기본값이ECDHE이었습니다.
자세한 내용은 Ingress 컨트롤러 구성 매개변수를 참조하십시오.
1.3.10.13. 수동 DNS 관리를 위한 Ingress 컨트롤러 구성
자동 DNS 관리를 중지하고 수동 DNS 관리를 시작하도록 Ingress 컨트롤러를 구성할 수 있습니다. dnsManagementPolicy
매개변수를 설정하여 자동 또는 수동 DNS 관리를 지정합니다.
자세한 내용은 DNS를 수동으로 관리하도록 Ingress 컨트롤러 구성 을 참조하십시오.
1.3.10.14. SR-IOV에서 지원되는 하드웨어(단일 루트 I/O Virtualization)
OpenShift Container Platform 4.12에는 다음 SR-IOV 장치에 대한 지원이 추가되었습니다.
- MT2892 제품군 [ConnectX-6 Dx]
- MT2894 제품군 [ConnectX-6 Lx]
- ConnectX-6 NIC 모드의 MT42822 BlueField-2
- Silicom STS Family
자세한 내용은 지원되는 장치 를 참조하십시오.
1.3.10.15. OvS(Open vSwitch) 하드웨어 오프로드에 지원되는 하드웨어
OpenShift Container Platform 4.12에는 다음 장치에 대한 OvS Hardware Offload 지원이 추가되었습니다.
- MT2892 제품군 [ConnectX-6 Dx]
- MT2894 제품군 [ConnectX-6 Lx]
- ConnectX-6 NIC 모드의 MT42822 BlueField-2
자세한 내용은 지원되는 장치를 참조하십시오.
1.3.10.16. SR-IOV에서 지원되는 다중 네트워크 정책(기술 프리뷰)
OpenShift Container Platform 4.12에서는 SR-IOV 장치에 대한 다중 네트워크 정책 구성을 지원합니다.
이제 SR-IOV 추가 네트워크에 대한 다중 네트워크를 구성할 수 있습니다. SR-IOV 추가 네트워크는 기술 프리뷰 기능이며 커널 네트워크 인터페이스 카드(NIC)에서만 지원됩니다.
자세한 내용은 다중 네트워크 정책 구성을 참조하십시오.
1.3.10.17. Ingress 컨트롤러를 삭제하지 않고 AWS 로드 밸런서 유형 전환
Ingress 컨트롤러를 삭제하지 않고 AWS Classic Load Balancer(CLB)와 AWS NLB(Network Load Balancer)를 전환하도록 Ingress 컨트롤러를 업데이트할 수 있습니다.
자세한 내용은 AWS에서 수신 클러스터 트래픽 구성을 참조하십시오.
1.3.10.18. SR-IOV CNI 플러그인에서 IPv6 비호주 알림 및 IPv4 불필요한 주소 확인 프로토콜이 기본값으로 설정되어 있습니다.
SR-IOV(Single Root I/O Virtualization) CNI 플러그인으로 생성된 Pod는 IP 주소 관리 CNI 플러그인이 IP를 할당하여 이제 IPv6 비호주 서블러 알림 및/또는 IPv4 비정상적인 주소 확인 프로토콜을 기본적으로 네트워크에 보냅니다. 이번 개선된 기능을 통해 특정 IP의 새 Pod MAC 주소 호스트에 올바른 정보로 ARP/NDP 캐시를 새로 고치도록 알립니다.
자세한 내용은 지원되는 장치 를 참조하십시오.
1.3.10.19. CoreDNS 캐시 튜닝 지원
CoreDNS에서 캐시하는 DNS 쿼리가 성공하고 실패한 TTL(Time-to-live) 기간을 구성할 수 있습니다.
자세한 내용은 CoreDNS 캐시 튜닝을 참조하십시오.
1.3.10.20. OVN-Kubernetes는 내부 서브넷의 구성을 지원합니다.
이전에는 OVN-Kubernetes가 내부적으로 사용하는 서브넷은 IPv4의 경우 100.64.0.0/16
이고 IPv6의 경우 fd98::/48
은 수정할 수 없었습니다. 이러한 서브넷이 인프라의 기존 서브넷과 겹치는 경우 인스턴스를 지원하기 위해 이러한 내부 서브넷을 변경하여 중복을 방지할 수 있습니다.
자세한 내용은 Cluster Network Operator 설정 오브젝트를참조하십시오.
1.3.10.21. RHOSP(Red Hat OpenStack Platform)에서 송신 IP 지원
OpenShift Container Platform과 함께 제공되는 RHOSP에서는 이제 Egress IP 주소의 자동 첨부 및 분리를 지원합니다. 여러 네임스페이스에 있는 하나 이상의 Pod의 트래픽은 클러스터 외부의 서비스에 일관된 소스 IP 주소를 갖습니다. 이 지원은 OpenShift SDN 및 OVN-Kubernetes에 기본 네트워크 공급자로 적용됩니다.
1.3.10.22. OpenShift SDN에서 OVN-Kubernetes 기능 마이그레이션 지원
OpenShift SDN 네트워크 플러그인에서 OVN-Kubernetes 네트워크 플러그인으로 마이그레이션하려는 경우 다음 기능에 대한 구성이 OVN-Kubernetes에서 작동하도록 자동으로 변환됩니다.
- 송신 IP 주소
- 송신 방화벽
- 멀티 캐스트
OVN-Kubernetes로의 마이그레이션이 작동하는 방법에 대한 자세한 내용은 OpenShift SDN 클러스터 네트워크 공급자에서 마이그레이션을 참조하십시오.
1.3.10.23. 송신 방화벽 감사 로깅
OVN-Kubernetes 네트워크 플러그인의 경우 송신 방화벽은 네트워크 정책 감사 로깅이 사용하는 것과 동일한 메커니즘을 사용하여 감사 로깅을 지원합니다. 자세한 내용은 송신 방화벽 및 네트워크 정책 규칙에 대한 로깅 을 참조하십시오.
1.3.10.24. 노드 서브 세트에서 지정된 주소 풀에서 알림 MetalLB
이번 업데이트를 통해 BGP 모드에서는 노드 선택기를 사용하여 특정 IP 주소 풀을 사용하여 노드 서브 세트에서 MetalLB 서비스를 알릴 수 있습니다. 이 기능은 OpenShift Container Platform 4.11에서 기술 프리뷰 기능으로 소개되었으며 현재 BGP 모드의 경우 OpenShift Container Platform 4.12에서만 사용할 수 있습니다. L2 모드는 기술 프리뷰 기능으로 유지됩니다.
자세한 내용은 노드 하위 집합의 IP 주소 풀을 참조하십시오.
1.3.10.25. MetalLB에 대한 추가 배포 사양
이번 업데이트에서는 MetalLB에 대한 추가 배포 사양을 제공합니다. 사용자 지정 리소스를 사용하여 MetalLB를 배포하는 경우 이러한 추가 배포 사양을 사용하여 MetalLB 발표자
및 컨트롤러
Pod가 클러스터에서 배포 및 실행되는 방법을 관리할 수 있습니다. 예를 들어 MetalLB 배포 사양을 사용하여 MetalLB Pod가 배포된 위치를 관리하고, MetalLB pod에 대한 CPU 제한을 정의하고, 런타임 클래스를 MetalLB Pod에 할당할 수 있습니다.
MetalLB의 배포 사양에 대한 자세한 내용은 MetalLB의 배포 사양을 참조하십시오.
1.3.10.26. 노드 IP 선택 개선 사항
이전에는 클러스터 호스트의 nodeip-configuration
서비스에서 기본 경로가 사용된 인터페이스에서 IP 주소를 선택했습니다. 여러 경로가 있는 경우 서비스는 가장 낮은 메트릭 값이 있는 경로를 선택합니다. 결과적으로 네트워크 트래픽이 잘못된 인터페이스에서 분산될 수 있었습니다.
OpenShift Container Platform 4.12에서는 새 인터페이스가 nodeip-configuration
서비스에 추가되어 사용자가 힌트 파일을 생성할 수 있습니다. 힌트 파일에는 기본 IP 선택 논리를 재정의하고 서브넷 NODEIP_HINT
변수에서 특정 노드 IP 주소를 선택하는 NODEIP_HINT 변수인 NODEIP_HINT
변수가 포함되어 있습니다. NODEIP_HINT
변수를 사용하면 사용자가 사용되는 IP 주소를 지정하여 네트워크 트래픽이 올바른 인터페이스에서 배포되도록 할 수 있습니다.
자세한 내용은 선택 사항: 기본 노드 IP 선택 논리 덮어쓰기를 참조하십시오.
1.3.10.27. CoreDNS 버전 1.10.0으로 업데이트
OpenShift Container Platform 4.12에서 CoreDNS는 다음과 같은 변경 사항이 포함된 버전 1.10.0을 사용합니다.
- CoreDNS는 이전에 더 작은 값으로 설정된 경우 쿼리 UDP 버퍼 크기를 확장하지 않습니다.
- CoreDNS는 항상 쿠버네티스 클라이언트 로그의 각 로그 줄 앞에 연결된 로그 수준을 접두사로 지정합니다.
- CoreDNS는 이제 대략 20ms의 속도로 더 빠르게 다시 로드됩니다.
1.3.10.28. HAProxy에서 구성 가능한 재로드 간격 지원
이번 업데이트를 통해 클러스터 관리자는 HAProxy가 경로 및 엔드포인트 업데이트에 대한 응답으로 구성을 덜 자주 다시 로드하도록 다시 로드 간격을 구성할 수 있습니다. 기본 최소 HAProxy 재로드 간격은 5초입니다.
자세한 내용은 HAProxy 재로드 간격 구성을 참조하십시오.
1.3.10.29. New Network Observability Operator를 사용하여 네트워크 트래픽 흐름을 관찰합니다.
관리자는 Network Observability Operator를 설치하여 콘솔에서 OpenShift Container Platform 클러스터의 네트워크 트래픽을 확인할 수 있습니다. 다른 그래픽 표현에서 네트워크 트래픽 데이터를 보고 모니터링할 수 있습니다. Network Observability Operator는 eBPF 기술을 사용하여 네트워크 흐름을 생성합니다. 네트워크 흐름은 OpenShift Container Platform 정보로 보강되고 로키에 저장됩니다. 자세한 문제 해결 및 분석을 위해 네트워크 트래픽 정보를 사용할 수 있습니다.
자세한 내용은 Network Observability 을 참조하십시오.
1.3.10.30. RHOSP의 보조 네트워크 인터페이스용 IPv6
이제 RHOSP에서 실행되는 클러스터에서 보조 네트워크 인터페이스의 IPv6가 지원됩니다.
자세한 내용은 RHOSP의 Pod에 대한 IPv6 연결 활성화를 참조하십시오.
1.3.10.31. RHOSP에서 로드 밸런서에 대한 UDP 지원
외부 OpenStack 클라우드 공급자로 전환하여 UDP는 해당 플랫폼에서 실행되는 클러스터의 LoadBalancer
서비스에 대해 지원됩니다.
1.3.10.32. 호스트 컨트롤 플레인에 대한 SR-IOV Operator 배포(기술 프리뷰)
호스팅 서비스 클러스터를 구성하고 배포한 경우 이제 호스팅 클러스터에 대한 SR-IOV Operator를 배포할 수 있습니다. 자세한 내용은 호스팅 컨트롤 플레인에 대한 SR-IOV Operator 배포를 참조하십시오.
1.3.10.33. Ingress VIP 및 API VIP 서비스에 대한 IPv6 가상 IP(VIP) 주소 지원
이번 업데이트를 통해 설치 관리자가 프로비저닝한 인프라 클러스터에서 install-config.yaml
파일의 ingressVIP
및 apiVIP
구성 설정이 더 이상 사용되지 않습니다. 대신 ingressVIPs
및 apiVIPs
구성 설정을 사용합니다. 이러한 설정은 Ingress VIP 및 API VIP 서비스를 사용하여 클러스터에 IPv4 및 IPv6 액세스가 필요한 애플리케이션에 대해 듀얼 스택 네트워킹을 지원합니다. ingressVIPs
및 apiVIPs
구성 설정은 목록 형식을 사용하여 IPv4 주소, IPv6 주소 또는 두 IP 주소 형식을 지정합니다. 목록의 순서는 각 서비스의 기본 및 보조 VIP 주소를 나타냅니다. 듀얼 스택 네트워킹을 사용하는 경우 기본 IP 주소는 IPv4 네트워크에서 있어야 합니다.
1.3.10.34. Bluefield-2 네트워크 장치를 DPDK(데이터 처리 장치) 모드에서 NIC(네트워크 인터페이스 컨트롤러) 모드(기술 프리뷰)로 전환 지원
이번 업데이트를 통해 BlueField-2 네트워크 장치를 DPDK(데이터 처리 장치) 모드에서 NIC(네트워크 인터페이스 컨트롤러) 모드로 전환할 수 있습니다.
자세한 내용은 Bluefield-2를 DPU에서 NIC로 전환 에서 참조하십시오.
1.3.11. 스토리지
1.3.11.1. GCP Filestore Driver Operator를 사용한 영구 스토리지 (기술 프리뷰)
OpenShift Container Platform은 GCP(Google Compute Platform) 파일 저장소의 CSI(Container Storage Interface) 드라이버를 사용하여 PV(영구 볼륨)를 프로비저닝할 수 있습니다. 이 드라이버를 관리하는 GCP Filestore CSI Driver Operator는 기술 프리뷰로 사용할 수 있습니다.
자세한 내용은 GCP Filestore CSI Driver Operator 에서 참조하십시오.
1.3.11.2. AWS Elastic Block Storage 자동 마이그레이션의 자동 CSI 마이그레이션 사용 가능
OpenShift Container Platform 4.8부터 동등한 CSI(Container Storage Interface) 드라이버로 in-tree 볼륨 플러그인에 대한 자동 마이그레이션이 기술 프리뷰 기능으로 사용 가능하게 되었습니다. AWS(Amazon Web Services) EBS(Elastic Block Storage)에 대한 지원은 OpenShift Container Platform 4.8에서 이 기능을 통해 제공되며 OpenShift Container Platform 4.12에서는 AWS EBS에 대한 자동 마이그레이션을 사용할 수 있습니다. AWS EBS의 CSI 마이그레이션은 기본적으로 활성화되어 있으며 관리자가 작업을 수행하지 않아도 됩니다.
이 기능은 in-tree 오브젝트를 해당 CSI 표현으로 자동 변환하고 사용자에게 완전히 투명해야 합니다. 변환된 오브젝트는 디스크에 저장되지 않으며 사용자 데이터는 마이그레이션되지 않습니다.
in-tree 스토리지 플러그인에 대한 스토리지 클래스가 계속 작동하지만 기본 스토리지 클래스를 CSI 스토리지 클래스로 전환하는 것이 좋습니다.
자세한 내용은 CSI 자동 마이그레이션 을 참조하십시오.
1.3.11.3. GCP PD 자동 마이그레이션의 자동 CSI 마이그레이션 사용 가능
OpenShift Container Platform 4.8부터 동등한 CSI(Container Storage Interface) 드라이버로 in-tree 볼륨 플러그인에 대한 자동 마이그레이션이 기술 프리뷰 기능으로 사용 가능하게 되었습니다. OpenShift Container Platform 4.9의 이 기능에 GCP PD(Google Compute Engine Persistent Disk)에 대한 지원이 제공되었으며 OpenShift Container Platform 4.12는 이제 일반적으로 사용 가능한 GCP PD에 대한 자동 마이그레이션을 지원합니다. 이제 GCP PD의 CSI 마이그레이션이 기본적으로 활성화되어 관리자가 수행할 필요가 없습니다.
이 기능은 in-tree 오브젝트를 해당 CSI 표현으로 자동 변환하고 사용자에게 완전히 투명해야 합니다. 변환된 오브젝트는 디스크에 저장되지 않으며 사용자 데이터는 마이그레이션되지 않습니다.
in-tree 스토리지 플러그인에 대한 스토리지 클래스가 계속 작동하지만 기본 스토리지 클래스를 CSI 스토리지 클래스로 전환하는 것이 좋습니다.
자세한 내용은 CSI 자동 마이그레이션 을 참조하십시오.
1.3.11.4. 일반적으로 Pod 예약에 대한 스토리지 용량 추적을 사용할 수 있습니다.
이 새로운 기능은 CSIStorageCapacity
오브젝트를 사용하여 현재 사용 가능한 스토리지 용량을 노출하고 늦은 바인딩과 함께 CSI(Container Storage Interface) 볼륨을 사용하는 Pod 예약을 향상시킵니다. 현재 이 기능을 지원하는 유일한 OpenShift Container Platform 스토리지 유형은 OpenShift Data Foundation입니다.
1.3.11.5. VMware vSphere CSI 토폴로지 사용 가능
OpenShift Container Platform은 vSphere용 OpenShift Container Platform을 다른 영역 및 리전에 배포할 수 있는 기능을 제공하므로 여러 컴퓨팅 클러스터에 배포할 수 있으므로 단일 장애 지점을 방지할 수 있습니다.
자세한 내용은 vSphere CSI 토폴로지 를 참조하십시오.
1.3.11.6. 일반적으로 사용 가능한 로컬 임시 스토리지 리소스 관리
이제 로컬 임시 스토리지 리소스 관리 기능을 일반적으로 사용할 수 있습니다. 이 기능을 사용하면 요청 및 제한을 지정하여 로컬 임시 스토리지를 관리할 수 있습니다.
자세한 내용은 임시 스토리지 관리를 참조하십시오.
1.3.11.7. 볼륨 채우기 (기술 프리뷰)
볼륨 팝업기에서는 데이터 소스
를 사용하여 미리 채워진 볼륨을 생성할 수 있습니다.
볼륨 채우기는 현재 활성화되어 있으며 기술 프리뷰 기능으로 지원됩니다. 그러나 OpenShift Container Platform에는 볼륨 팝업기가 제공되지 않습니다.
자세한 내용은 볼륨 팝업기를 참조하십시오.
1.3.11.8. VMware vSphere CSI Driver Operator 요구 사항
OpenShift Container Platform 4.12의 경우 VMWare vSphere Container Storage Interface(CSI) Driver Operator에는 다음과 같은 최소 구성 요소가 설치되어 있어야 합니다.
- VMware vSphere 버전 7.0 Update 2 이상, 최대 버전 8 이상은 지원되지 않습니다. vSphere 8은 지원되지 않습니다.
- vCenter 7.0 Update 2 이상, 최대 버전 8 이상은 지원되지 않습니다. vCenter 8은 지원되지 않습니다.
- 하드웨어 버전 15 이상의 가상 머신
- 클러스터에 이미 설치된 타사 CSI 드라이버가 없습니다.
타사 CSI 드라이버가 클러스터에 있는 경우 OpenShift Container Platform은 이를 덮어쓰지 않습니다. 타사 CSI 드라이버가 있으면 OpenShift Container Platform이 OpenShift Container Platform 4.13 이상으로 업그레이드되지 않습니다.
자세한 내용은 VMware vSphere CSI Driver Operator 요구 사항을 참조하십시오.
1.3.12. Operator 라이프사이클
1.3.12.1. 플랫폼 Operator (기술 프리뷰)
OpenShift Container Platform 4.12부터 OLM(Operator Lifecycle Manager)은 플랫폼 Operator 유형을 기술 프리뷰 기능으로 도입합니다. 플랫폼 Operator 메커니즘은 OpenShift Container Platform 4.12에서 도입된 RukPak 구성 요소의 리소스에 의존하여 콘텐츠를 소싱하고 관리합니다.
Platform Operator는 OpenShift Container Platform 클러스터의 Day 0 작업 중 또는 이후에 설치할 수 있고 클러스터의 라이프사이클에 참여할 수 있는 OLM 기반 Operator입니다. 클러스터 관리자는 플랫폼 Operator를 사용하여 요구 사항 및 사용 사례에 맞게 OpenShift Container Platform 설치를 추가로 사용자 지정할 수 있습니다.
플랫폼 Operator에 대한 자세한 내용은 플랫폼 Operator 관리를 참조하십시오. RukPak 및 해당 리소스에 대한 자세한 내용은 Operator Framework 패키징 형식을 참조하십시오.
1.3.12.2. Operator가 설치된 위치 제어
기본적으로 Operator를 설치할 때 OpenShift Container Platform은 작업자 노드 중 하나에 무작위로 Operator Pod를 설치합니다.
OpenShift Container Platform 4.12에서는 Operator의 Subscription
오브젝트에 유사성 제약 조건을 추가하여 Operator Pod 설치 위치를 제어할 수 있습니다.
자세한 내용은 Operator가 설치된 위치 제어를 참조하십시오.
1.3.12.3. 사용자 생성 openshift-* 네임스페이스에 대한 Pod 보안 승인 동기화
OpenShift Container Platform 4.12에서는 Operator가 openshift-
접두사가 있는 사용자 생성 네임스페이스에 설치된 경우 기본적으로 Pod 보안 승인 동기화가 활성화됩니다. CSV(클러스터 서비스 버전)가 네임스페이스에 생성된 후 동기화가 활성화됩니다. 동기화된 레이블은 네임스페이스에서 서비스 계정의 권한을 상속합니다.
자세한 내용은 Pod 보안 표준을 사용한 보안 컨텍스트 제약 조건 동기화 를 참조하십시오.
1.3.13. Operator 개발
1.3.13.1. 카탈로그 Pod의 보안 컨텍스트 구성
run bundle
및 bundle-upgrade
하위 명령에서 --security-context-config
플래그를 사용하여 카탈로그 Pod의 보안 컨텍스트를 구성할 수 있습니다. 플래그를 사용하면 seccomp 프로필이 Pod 보안 승인을 준수할 수 있습니다. 플래그는 제한
및 레거시
의 값을 허용합니다. 값을 지정하지 않으면 seccomp 프로필은 기본적으로 restricted
로 설정됩니다. 제한된 권한으로 카탈로그 Pod를 실행할 수 없는 경우 다음 예와 같이 플래그를 legacy
로 설정합니다.
$ operator-sdk run bundle \ --security-context-config=legacy
1.3.13.2. Kubernetes 1.25에서 제거된 API의 번들 매니페스트 검증
이제 bundle validate
하위 명령과 함께 Operator Framework Framework 테스트 모음을 사용하여 Kubernetes 1.25에서 제거된 더 이상 사용되지 않는 API의 번들 매니페스트를 확인할 수 있습니다.
예를 들면 다음과 같습니다.
$ operator-sdk bundle validate .<bundle_dir_or_image> \ --select-optional suite=operatorframework \ --optional-values=k8s-version=1.25
Operator에서 Kubernetes 1.25에서 제거된 API를 사용할 수 있는 권한을 요청하는 경우 명령에서 경고 메시지를 표시합니다.
Kubernetes 1.25에서 제거된 API 버전이 CSV(클러스터 서비스 버전)에 포함된 경우 명령에 오류 메시지가 표시됩니다.
자세한 내용은 Kubernetes 1.25 및 Operator SDK CLI 참조 에서 제거된 베타 API 를 참조하십시오.
1.3.14. 머신 API
1.3.14.1. 컨트롤 플레인 머신 세트
OpenShift Container Platform 4.12에는 컨트롤 플레인 머신 세트가 도입되었습니다. 컨트롤 플레인 머신 세트는 컴퓨팅 머신에 제공하는 컴퓨팅 머신 세트와 유사한 컨트롤 플레인 시스템에 관리 기능을 제공합니다. 자세한 내용은 컨트롤 플레인 시스템 관리를 참조하십시오.
1.3.14.2. 클러스터 자동 스케일러 로그 수준 세부 정보 표시 지정
OpenShift Container Platform에서는 ClusterAutoscaler
사용자 정의 리소스에서 logVerbosity
매개변수를 설정하여 클러스터 자동 스케일러의 로그 수준 세부 정보 표시 수준을 설정할 수 있습니다. 자세한 내용은 ClusterAutoscaler
리소스 정의를 참조하십시오.
1.3.14.3. Azure 부팅 진단 활성화
OpenShift Container Platform에서는 머신 세트가 생성하는 Azure 머신에서 부팅 진단 활성화를 지원합니다. 자세한 내용은 컴퓨팅 머신 또는 컨트롤 플레인 머신 의 "Azure 부팅 진단 활성화"를 참조하십시오.
1.3.15. Machine Config Operator
1.3.15.1. RHCOS 이미지 계층 지정
RHCOS(Red Hat Enterprise Linux CoreOS) 이미지 계층 지정을 사용하면 기본 RHCOS 이미지 상단에 새 이미지를 추가할 수 있습니다. 이 계층화는 기본 RHCOS 이미지를 수정하지 않습니다. 대신 모든 RHCOS 기능을 포함하는 사용자 정의 계층 이미지를 생성하고 클러스터의 특정 노드에 기능을 추가합니다.
현재 RHCOS 이미지 계층화에서는 Red Hat Hotfix 정책을 기반으로 Customer Experience and Engagement(CEE)를 사용하여 RHCOS 이미지 상단에서 Hotfix 패키지를 확보하고 적용할 수 있습니다. RHCOS 이미지 계층 지정을 사용하여 Libreswan 또는 numactl과 같은 타사 소프트웨어 패키지를 통합할 수 있는 향후 릴리스에 계획되어 있습니다.
자세한 내용은 RHCOS 이미지 계층 지정을 참조하십시오.
1.3.16. 노드
1.3.16.1. 인터페이스별 안전 목록 업데이트(기술 프리뷰)
OpenShift Container Platform에서는 이제 기본 인터페이스별 안전한 sysctl
업데이트를 지원합니다.
사전 정의된 목록에서 sysctl
을 추가하거나 제거할 수 있습니다. sysctl
을 추가하면 모든 노드에 설정할 수 있습니다. 인터페이스별 안전한 sysctl
목록을 업데이트하는 것은 기술 프리뷰 기능입니다.
자세한 내용은 인터페이스별 안전한 sysctl 목록 업데이트를 참조하십시오.
1.3.16.2. Cron 작업 시간대(기술 프리뷰)
cron 작업 일정의 시간대 설정은 이제 기술 프리뷰 로 제공됩니다. 시간대를 지정하지 않으면 Kubernetes 컨트롤러 관리자는 해당 로컬 시간대에 상대적인 일정을 해석합니다.
자세한 내용은 cron 작업 생성 을 참조하십시오.
1.3.16.3. Linux Control Group 버전 2에서 기술 프리뷰로 승격됨
Linux Control Group 버전 2( cgroup v2)에 대한 OpenShift Container Platform 지원은 기술 프리뷰로 승격되었습니다. cgroup v2는 커널 제어 그룹 의 다음 버전입니다. cgroup v2는 통합 계층, 더 안전한 하위 트리 위임, pressure Stall Information 과 같은 새로운 기능을 포함하여 여러 개선 사항을 제공합니다. 자세한 내용은 Linux Control Group version 2 (cgroup v2) 활성화를 참조하십시오.
1.3.16.4. crun 컨테이너 런타임(기술 프리뷰)
OpenShift Container Platform은 이제 기술 프리뷰에서 crun 컨테이너 런타임을 지원합니다. ContainerRuntimeConfig
사용자 지정 리소스(CR)를 사용하여 필요에 따라 crun 컨테이너 런타임과 기본 컨테이너 런타임 간에 전환할 수 있습니다. 자세한 내용은 컨테이너 엔진 및 컨테이너 런타임 정보를 참조하십시오.
1.3.16.5. Self Node Remediation Operator 기능 개선
OpenShift Container Platform에서는 Self Node Remediation Operator를 통한 컨트롤 플레인 펜싱을 지원합니다. 노드 장애가 발생하는 경우 작업자 노드와 컨트롤 플레인 노드에서 모두 수정 전략을 실행할 수 있습니다. 자세한 내용은 컨트롤 플레인 펜싱을 참조하십시오.
1.3.16.6. Node Health Check Operator 개선 사항
OpenShift Container Platform에서는 Node Health Check Operator에서 컨트롤 플레인 펜싱을 지원합니다. 노드 장애가 발생하는 경우 작업자 노드와 컨트롤 플레인 노드에서 모두 수정 전략을 실행할 수 있습니다. 자세한 내용은 컨트롤 플레인 펜싱을 참조하십시오.
이제 Node Health Check Operator에 Node Health Checks 관리를 위한 웹 콘솔 플러그인도 포함됩니다. 자세한 내용은 노드 상태 점검 생성을 참조하십시오.
Node Health Check Operator의 최신 버전을 설치하거나 업데이트하려면 stable
서브스크립션 채널을 사용합니다. 자세한 내용은 CLI를 사용하여 Node Health Check Operator 설치를 참조하십시오.
1.3.17. 모니터링
이 릴리스의 모니터링 스택에는 다음과 같은 새로운 수정된 기능이 포함되어 있습니다.
1.3.17.1. 모니터링 스택 구성 요소 및 종속 항목에 대한 업데이트
이 릴리스에는 스택 구성 요소 및 종속 항목을 모니터링하기 위한 다음 버전 업데이트가 포함되어 있습니다.
- kube-state-metrics to 2.6.0
- node-exporter 1.4.0
- prom-label-proxy - 0.5.0
- Prometheus 2.39.1
- Prometheus-adapter에서 0.10.0으로
- Prometheus-operator에서 0.60.1로
- Thanos to 0.28.1
1.3.17.2. 경고 규칙 변경
Red Hat은 규칙 또는 경고 규칙에 대한 이전 버전과의 호환성을 보장하지 않습니다.
새로운 사항
-
클러스터가 일정 기간 동안 특정 속도로 Telemetry 데이터를 제출하지 못할 때 트리거되는
TelemeterClientFailures
경고가 추가되었습니다. 실패한 요청 비율이 15분 이내에 총 요청 속도의 20%에 도달하면 경고가 실행됩니다.
-
클러스터가 일정 기간 동안 특정 속도로 Telemetry 데이터를 제출하지 못할 때 트리거되는
변경 사항
-
KubeAggregatedAPIDown
경고는 알림을 보내기 전에 300초가 아닌 900초 동안 기다립니다. -
NodeClockNotSynchronising
및NodeClockSkewDetected
경고는 이제node-exporter
작업의 메트릭만 평가합니다. -
NodeRAIDDegraded
및NodeRAIDDiskFailure
경고에는mmcblk.p.|nvme.|sd.|xvd.|dm-.|dasd.+
에서 반환된 값만 일치하는 장치 레이블 필터가 포함되어 있습니다. -
쿼리 계층에 높은 쿼리 로드가 있을 때
PrometheusHighQueryLoad
및ThanosQueryOverload
경고도 트리거됩니다.
-
1.3.17.3. 모니터링 구성 요소에 대한 Pod 토폴로지 분배 제약 조건을 지정하는 새로운 옵션
OpenShift Container Platform Pod가 여러 가용성 영역에 배포되는 경우 Pod 토폴로지 분배 제약 조건을 사용하여 Prometheus, Thanos Ruler 및 Alertmanager Pod가 네트워크 토폴로지에 분배되는 방법을 제어할 수 있습니다.
1.3.17.4. Prometheus Adapter의 데이터 일관성을 개선하기 위한 새로운 옵션
여러 자동 스케일링 요청에서 데이터 일관성을 개선하도록 Prometheus Adapter(PA)에 대한 선택적 kubelet 서비스 모니터를 구성할 수 있습니다. 이 서비스 모니터를 사용하면 PA로 동시에 전송된 두 쿼리가 PA에 의해 실행되는 기본 PromQL 쿼리가 다른 Prometheus 서버에 있을 수 있으므로 다른 결과가 발생할 수 있습니다.
1.3.17.5. 추가 보안 키를 위해 Alertmanager 구성으로 업데이트
이번 릴리스에서는 추가 키를 보유하도록 Alertmanager 보안을 구성하고 Alertmanager 구성이 이러한 키(예: 템플릿, TLS 인증서 또는 토큰)를 참조하는 경우, 구성 설정에서 상대 경로가 아닌 절대 경로를 사용하여 이러한 키를 가리켜야 합니다. 이러한 키는 /etc/alertmanager/config
디렉터리에서 사용할 수 있습니다. 이전 버전의 OpenShift Container Platform에서는 Alertmanager 구성 파일이 키와 동일한 디렉터리에 있었기 때문에 구성의 상대 경로를 사용하여 이러한 키를 가리킬 수 있습니다.
OpenShift Container Platform 4.12로 업그레이드하고 추가 Alertmanager secret 키에 대한 상대 경로를 파일로 지정하는 경우 이러한 상대 경로를 Alertmanager 설정의 절대 경로로 변경해야 합니다. 그렇지 않으면 파일을 사용하는 경고 수신자가 알림을 전달하지 못합니다.
1.3.18. 확장 및 성능
1.3.18.1. 워크로드 힌트를 사용하여 실시간 비활성화하면 클러스터에서 Receive Packettektonering이 제거됩니다.
기본적으로 클러스터 수준에서 systemd 서비스는 가상 네트워크 인터페이스에 대해 Receive Packettektonering (RPS) 마스크를 설정합니다. RPS 마스크는 성능 프로필에 정의된 예약된 CPU 목록에 따라 가상 네트워크 인터페이스의 요청을 중단합니다. 컨테이너 수준에서 CRI-O
후크 스크립트는 모든 가상 네트워크 장치에 대한 RPS 마스크도 설정합니다.
이번 업데이트를 통해 성능 프로필에서 spec.workloadHints.realTime
을 False
로 설정하면 시스템에서 RPS 마스크를 설정하는 systemd 서비스와 CRI-O
후크 스크립트도 비활성화합니다. RPS는 일반적으로 대기 시간이 짧고 실시간 워크로드가 필요한 사용 사례와 관련이 있기 때문에 이러한 RPS 함수를 비활성화합니다.
spec.workloadHints.realTime
을 False
로 설정하는 경우에도 RPS 기능을 유지하려면 Red Hat Knowledgebase 솔루션 Performance addons operator 의 RPS 설정 섹션을 참조하십시오.
워크로드 힌트 구성에 대한 자세한 내용은 워크로드 힌트 이해를 참조하십시오.
1.3.18.2. tuned 프로필
이제 tuned
프로필에서 기본적으로 fs.aio-max-nr
sysctl
값을 정의하여 기본 노드 프로필의 비동기 I/O 성능을 개선합니다.
1.3.18.3. 새로운 커널 기능 및 옵션 지원
최신 커널 기능 및 옵션을 사용하도록 짧은 대기 시간 튜닝이 업데이트되었습니다. 2117780 의 수정 사항에는 CPU당 새로운 kthread
,ktimers
가 도입되었습니다. 이 스레드는 적절한 CPU 코어에 고정되어야 합니다. 이번 업데이트를 통해 기능적인 변경 사항은 없습니다. 워크로드 격리는 동일합니다. 자세한 내용은ECDHE 2450을 참조하십시오.
1.3.18.4. 전원 보호 구성
OpenShift Container Platform 4.12에서는 C 상태 및 OS 제어 P-상태를 활성화하여 중요하거나 중요하지 않은 워크로드에 다양한 전원을 사용할 수 있습니다. 새로운 perPodPowerManagement
워크로드 힌트와 cpu-c-states.crio.io
및 cpu- freq-governor.crio.io CRI-
O 주석을 통해 구성을 적용할 수 있습니다. 이 기능에 대한 자세한 내용은 Power-ECDHE Configuration을 참조하십시오.
1.3.18.5. GitOps ZTP를 사용하여 작업자 노드를 사용하여 단일 노드 OpenShift 클러스터 확장 (기술 프리뷰)
OpenShift Container Platform 4.11에서는 단일 노드 OpenShift 클러스터에 작업자 노드를 수동으로 추가할 수 있는 기능이 도입되었습니다. 이 기능은 이제 GitOps ZTP에서도 사용할 수 있습니다.
자세한 내용은 GitOps ZTP를 사용하여 단일 노드 OpenShift 클러스터에 작업자 노드 추가를 참조하십시오.
1.3.18.6. bootstrap-precaching-cli 툴을 사용하여 OpenShift Container Platform 및 Operator 배포 시간을 줄입니다. (기술 프리뷰)
OpenShift Container Platform 4.12에서는 seamless-precaching-cli 툴을 사용하여 배당의 서버에서 OpenShift Container Platform 및 Operator 이미지를 사전 캐시한 다음 사전 캐시된 서버를 배포 사이트에 포함할 수 있습니다. loading-precaching-cli 툴에 대한 자세한 내용은 단일 노드 OpenShift 배포의 이미지 사전 캐싱 을 참조하십시오.
1.3.18.7. 팩토리-precaching-cli 툴 (기술 프리뷰)의ZTP( zero touch provisioning) 통합
OpenShift Container Platform 4.12에서는 GitOps ZTP 워크플로에서 loading-precaching-cli 툴을 사용할 수 있습니다. 자세한 내용은 단일 노드 OpenShift 배포용 이미지 사전 캐싱을 참조하십시오.
1.3.18.8. 호스트 클러스터의 노드 튜닝 (기술 프리뷰)
Node Tuning Operator를 사용하여 호스트 클러스터에서 노드의 OS 수준 튜닝을 구성할 수 있습니다. 노드 튜닝을 구성하려면 Tuned
오브젝트가 포함된 관리 클러스터에 구성 맵을 생성하고 노드 풀에 해당 구성 맵을 참조할 수 있습니다. Tuned
오브젝트에서 definied된 튜닝 구성은 노드 풀의 노드에 적용됩니다. 자세한 내용은 호스팅된 클러스터에서 노드 튜닝 구성을 참조하십시오.
1.3.18.9. kernel 모듈 관리 Operator
KMM(커널 모듈 관리) Operator는 SAR(Special Resource Operator)를 대체합니다. KMM에는 연결된 환경에만 다음 기능이 포함되어 있습니다.
- 엣지 배포에 대한 Hub 및 설명 지원
- 업그레이드 지원 전 점검
- 보안 부팅 커널 모듈 서명
- 문제 해결을 지원하기 위해 로그를 수집해야 합니다.
- 바이너리 펌웨어 배포
1.3.18.10. hub 및 spoke 클러스터 지원 (기술 프리뷰)
인터넷에 액세스할 수 있는 환경의 hub 및 spoke 배포의 경우 hub 클러스터에 배포된 KMM(커널 모듈 관리) Operator를 사용하여 필요한 커널 모듈의 배포를 하나 이상의 관리형 클러스터에 관리할 수 있습니다.
1.3.18.11. 토폴로지 Aware Lifecycle Manager (TALM)
topology Aware Lifecycle Manager (TALM)에서 보다 자세한 상태 정보 및 메시지와 재설계된 조건을 제공합니다. ClusterLabelSelector
필드를 사용하여 업데이트를 위해 클러스터를 선택할 때 유연성을 높일 수 있습니다. 시간 초과 설정을 사용하여 클러스터에 대한 업데이트가 실패하는 경우(예: 실패한 클러스터를 건너뛰고 다른 클러스터를 계속 업그레이드하거나 모든 클러스터에 대한 정책 수정을 중지하는 등) 발생하는 상황을 확인할 수 있습니다. 자세한 내용은 Topology Aware Lifecycle Manager for cluster updates 에서 참조하십시오.
1.3.18.12. 마운트 네임스페이스 캡슐화(기술 프리뷰)
캡슐화는 모든 Kubernetes별 마운트 지점을 대체 네임스페이스로 이동하여 기본 네임스페이스의 많은 마운트 지점의 가시성 및 성능 영향을 줄이는 프로세스입니다. 이전 버전에서는 GitOps ZTP를 사용하여 설치된 DU(Distributed Unit)를 위해 OpenShift Container Platform에 마운트 네임스페이스 캡슐화가 투명하게 배포되었습니다. OpenShift Container Platform v4.12에서 이 기능은 이제 구성 가능한 옵션으로 제공됩니다.
표준 호스트 운영 체제는 systemd를 사용하여 모든 마운트 네임스페이스(표준 Linux 마운트와 Kubernetes가 작동하는 데 사용하는 수많은 마운트)를 지속적으로 검사합니다. Kubelet 및 CRI-O의 현재 구현은 모든 컨테이너 및 Kubelet 마운트 지점에 최상위 네임스페이스를 사용합니다. 프라이빗 네임스페이스에서 이러한 컨테이너별 마운트 지점을 캡슐화하면 systemd 오버헤드가 줄어들고 CPU 성능이 향상됩니다. 캡슐화는 권한이 없는 사용자가 검사에서 안전한 위치에 Kubernetes별 마운트 지점을 저장하여 보안을 개선할 수도 있습니다.
자세한 내용은 마운트 네임스페이스 캡슐화를 사용하여 CPU 사용량 최적화 를 참조하십시오.
1.3.18.13. GitOps ZTP와 함께 배포된 단일 노드 OpenShift 클러스터에서 워크로드 파티셔닝 CPU 세트 변경
GitOps ZTP로 배포하는 단일 노드 OpenShift 클러스터에서 워크로드 파티셔닝 CPU 세트를 구성할 수 있습니다. 이렇게 하려면 site Config
CR(사용자 정의 리소스)의 cpuset
필드와 PolicyGenTemplate
CR의 reserved
필드를 사용하여 클러스터 관리 CPU 리소스를 지정합니다. cpuset
에 설정한 값은 워크로드 파티셔닝을 위한 클러스터 PerformanceProfile
CR .spec.cpu.reserved
필드에 설정된 값과 일치해야 합니다.
자세한 내용은 워크로드 파티셔닝 을 참조하십시오.
1.3.18.14. GitOps ZTP와 함께 사용할 수 있는 RHACM hub 템플릿 함수
RHACM(Red Hat Advanced Cluster Management) 및 TALM( Topology Aware Lifecycle Manager)을 사용하여 Hub 템플릿 기능을 GitOps ZTP와 함께 사용할 수 있습니다. Hub-side 클러스터 템플릿을 사용하면 similiar 구성이 있지만 값이 다른 여러 클러스터에 대해 별도의 정책을 생성할 필요가 없습니다. 자세한 내용은 PolicyGenTemplate CR에서 hub 템플릿 사용을 참조하십시오.
1.3.18.15. ArgoCD 관리 클러스터 제한
RHACM은 siteConfig
CR을 사용하여 ArgoCD의 1일 차 관리 클러스터 설치 CR을 생성합니다. 각 ArgoCD 애플리케이션은 최대 300개의 site Config CR을
관리할 수 있습니다. 자세한 내용은 ArgoCD를 사용하여 허브 클러스터 구성 을 참조하십시오.
1.3.18.16. PolicyGenTemplate CR에서 정책 준수 평가 시간 초과 구성을 위한 GitOps ZTP 지원
GitOps ZTP v4.11+에서는 PolicyGenTemplate
CR(사용자 정의 리소스)에서 기본 정책 준수 평가 시간 초과 값을 사용할 수 있습니다. 이 값은 RHACM이 적용된 클러스터 정책을 다시 평가하기 전에 관련 ConfigurationPolicy
CR의 상태가 정책 준수 또는 비준수 상태에 있을 수 있는 기간을 지정합니다.
선택적으로 PolicyGenTemplate
CR의 모든 정책에 대한 기본 평가 간격을 덮어쓸 수 있습니다.
자세한 내용은 PolicyGenTemplate CR에 대한 정책 준수 평가 시간 초과 구성을 참조하십시오.
1.3.18.17. 관리형 클러스터의 플랫폼 유형 지정
지원 설치 프로그램은 현재 다음과 같은 OpenShift Container Platform 플랫폼을 지원합니다.
-
BareMetal
-
VSphere
-
없음
단일 노드 OpenShift는 VSphere
를 지원하지 않습니다.
1.3.18.18. 인증되지 않은 레지스트리를 사용하도록 hub 클러스터 구성
이 릴리스에서는 hub 클러스터를 구성할 때 인증되지 않은 레지스트리를 사용할 수 있습니다. 인증이 필요하지 않은 레지스트리는 AgentServiceConfig
리소스의 spec.unauthenticatedRegistries
에 나열됩니다. 이 목록의 레지스트리는 설명된 클러스터 설치에 사용된 풀 시크릿에 항목이 필요하지 않습니다. assisted-service
는 설치에 사용되는 모든 이미지 레지스트리에 대한 인증 정보가 포함되어 있는지 확인하여 풀 시크릿을 검증합니다.
1.3.19. Insights Operator
1.3.19.1. Insights 경고
OpenShift Container Platform 4.12에서 활성 Insights 권장 사항은 이제 사용자에게 경고로 표시됩니다. Alertmanager를 사용하여 이러한 경고를 보고 구성할 수 있습니다.
1.3.19.2. Insights Operator 데이터 수집 기능 개선 사항
OpenShift Container Platform 4.12에서 Insights Operator에서 다음 메트릭을 수집합니다.
-
console_helm_uninstalls_total
-
console_helm_upgrades_total
1.3.20. 인증 및 권한 부여
1.3.20.1. RHOSP의 애플리케이션 인증 정보
이제 RHOSP(Red Hat OpenStack Platform)에서 실행되는 클러스터의 clouds.yaml
파일에 애플리케이션 인증 정보를 지정할 수 있습니다. 애플리케이션 자격 증명은 구성 파일에 사용자 계정 세부 정보를 포함하는 대안입니다. 예를 들어 사용자 계정 세부 정보가 포함된 clouds.yaml
파일의 다음 섹션을 참조하십시오.
clouds: openstack: auth: auth_url: https://127.0.0.1:13000 password: thepassword project_domain_name: Default project_name: theprojectname user_domain_name: Default username: theusername region_name: regionOne
해당 섹션을 애플리케이션 인증 정보를 사용하는 것과 비교합니다.
clouds: openstack: auth: auth_url: https://127.0.0.1:13000 application_credential_id: '5dc185489adc4b0f854532e1af81ffe0' application_credential_secret: 'PDCTKans2bPBbaEqBLiT_IajG8e5J_nJB4kvQHjaAy6ufhod0Zl0NkNoBzjn_bWSYzk587ieIGSlT11c4pVehA' auth_type: "v3applicationcredential" region_name: regionOne
클러스터와 함께 애플리케이션 인증 정보를 RHOSP 관리자로 사용하려면 인증 정보를 생성합니다. 그런 다음 클러스터를 설치할 때 clouds.yaml
파일에서 사용하십시오. 또는 clouds.yaml
파일을 생성하여 기존 클러스터로 순환할 수 있습니다.
1.3.21. 호스트된 컨트롤 플레인(기술 프리뷰)
1.3.21.1. HyperShift API 베타 버전 사용 가능
OpenShift Container Platform에서 호스팅 컨트롤 플레인의 API인 hypershift.openshift.io
API의 기본 버전은 이제 v1beta1입니다. 현재 기존 클러스터의 경우 alpha에서 beta로의 이동은 지원되지 않습니다.
1.3.21.2. 호스트 컨트롤 플레인의 버전 관리
OpenShift Container Platform의 각 메이저, 마이너 또는 패치 버전 릴리스와 함께 HyperShift Operator가 릴리스됩니다. HyperShift CLI(명령줄 인터페이스)는 각 HyperShift Operator 릴리스의 일부로 릴리스됩니다.
HostedCluster
및 NodePool
API 리소스는 API의 베타 버전에서 사용할 수 있으며 OpenShift Container Platform 및 Kubernetes 와 유사한 정책을 따릅니다.
1.3.21.3. 호스팅된 클러스터에서 etcd 백업 및 복원
OpenShift Container Platform에서 호스트 컨트롤 플레인을 사용하는 경우 etcd 스냅샷을 작성하고 이를 나중에 검색할 수 있는 위치에 업로드하여 etcd를 백업 및 복원할 수 있습니다(예: S3 버킷). 나중에 필요한 경우 스냅샷을 복원할 수 있습니다. 자세한 내용은 호스팅된 클러스터에서 etcd 백업 및 복원을 참조하십시오.
1.3.21.4. AWS 리전 내에서 호스팅된 클러스터의 재해 복구
호스팅된 클러스터의 재해 복구가 필요한 경우 호스팅된 클러스터를 AWS 내의 동일한 리전으로 복구할 수 있습니다. 자세한 내용은 AWS 리전 내에서 호스팅되는 클러스터에 대한 재해 복구 에서 참조하십시오.
1.3.22. RHV(Red Hat Virtualization)
이 릴리스에서는 RHV(Red Hat Virtualization)에 대한 여러 업데이트를 제공합니다. 이 릴리스에서는 다음을 수행합니다.
- oVirt CSI 드라이버 로깅은 로그의 명확성과 가독성을 개선하기 위해 새로운 오류 메시지로 수정되었습니다.
- 클러스터 API 공급자는 OpenShift Container Platform에서 변경되는 경우 oVirt 및 Red Hat Virtualization (RHV) 인증 정보를 자동으로 업데이트합니다.
1.4. 주요 기술 변경 사항
OpenShift Container Platform 4.12에는 다음과 같은 주요 기술 변경 사항이 추가되었습니다.
AWS 보안 토큰 서비스 지역 엔드 포인트
이제 Cloud Credential Operator 유틸리티(ccoctl
)에서 AWS STS(AWS Security Token Service) 에 리전 끝점을 사용하는 시크릿을 생성합니다. 이 접근 방식은 AWS 권장 모범 사례와 일치합니다.
Cloud Credential Operator 유틸리티를 사용하여 GCP 리소스를 삭제하는 데 필요한 인증 정보 요청 디렉터리 매개변수
이번 릴리스에서는 Cloud Credential Operator 유틸리티를 사용하여 GCP 리소스를 삭제 할 때 구성 요소 CredentialsRequest
오브젝트에 대한 파일이 포함된 디렉터리를 지정해야 합니다.
Pod 보안 허용에 대한 향후 제한 적용
현재 Pod 보안 위반은 경고로 표시되고 감사 로그에 기록되지만 Pod가 거부되지 않습니다.
Pod 보안 승인에 대한 글로벌 제한 적용은 현재 OpenShift Container Platform의 다음 마이너 릴리스에 대해 계획되어 있습니다. 이 제한된 적용이 활성화되면 Pod 보안 위반이 있는 Pod가 거부됩니다.
향후 변경 사항을 준비하려면 워크로드가 적용되는 Pod 보안 승인 프로필과 일치하는지 확인합니다. 전역 또는 네임스페이스 수준에서 정의된 적용된 보안 표준에 따라 구성되지 않은 워크로드는 거부됩니다. restricted-v2
SCC는 제한된 Kubernetes 정의에 따라 워크로드를 허용합니다.
Pod 보안 위반이 발생하는 경우 다음 리소스를 참조하십시오.
- Pod 보안 위반을 유발하는 워크로드를 찾는 방법에 대한 정보는 Pod 보안 위반 식별 을 참조하십시오.
Pod 보안 승인 레이블 동기화가 수행되는 시기를 확인하려면 Pod 보안 표준과의 보안 컨텍스트 제약 조건 동기화를 참조하십시오. Pod 보안 승인 레이블은 다음과 같은 특정 상황에서 동기화되지 않습니다.
-
워크로드는 시스템이 생성한 네임스페이스에서 실행되고 있으며, 이 네임스페이스에
openshift-
. - 워크로드는 Pod 컨트롤러없이 직접 생성된 Pod에서 실행되고 있습니다.
-
워크로드는 시스템이 생성한 네임스페이스에서 실행되고 있으며, 이 네임스페이스에
-
필요한 경우
pod-security.kubernetes.io/enforce
라벨을 설정하여 네임스페이스 또는 Pod에서 사용자 정의 승인 프로필을 설정할 수 있습니다.
카탈로그 소스 및 제한된 Pod 보안 승인 시행
SQLite 기반 카탈로그 형식과 OpenShift Container Platform 4.11 전에 릴리스된 opm
CLI 툴 버전을 사용하여 빌드된 카탈로그 소스는 제한된 Pod 보안 적용에서 실행할 수 없습니다.
OpenShift Container Platform 4.12에서 네임스페이스는 기본적으로 Pod 보안 시행을 제한하지 않으며 기본 카탈로그 소스 보안 모드는 기존
로 설정됩니다.
제한된 Pod 보안 시행에서 SQLite 기반 카탈로그 소스 Pod를 실행하지 않으려면 OpenShift Container Platform 4.12에서 카탈로그 소스를 업데이트할 필요가 없습니다. 그러나 향후 OpenShift Container Platform 릴리스에서 카탈로그 소스를 실행하려면 제한된 Pod 보안 적용에서 실행되도록 카탈로그 소스를 업데이트해야 합니다.
카탈로그 작성자는 다음 작업 중 하나를 완료하여 제한된 Pod 보안 시행과 호환성을 활성화할 수 있습니다.
- 카탈로그를 파일 기반 카탈로그 형식으로 마이그레이션합니다.
-
OpenShift Container Platform 4.11 이상에서 릴리스된
opm
CLI 툴 버전으로 카탈로그 이미지를 업데이트합니다.
SQLite 데이터베이스 카탈로그 이미지를 업데이트하거나 카탈로그를 파일 기반 카탈로그 형식으로 마이그레이션하지 않으려면 승격된 권한으로 실행되도록 카탈로그를 구성할 수 있습니다.
자세한 내용은 카탈로그 소스 및 Pod 보안 허용 을 참조하십시오.
Operator SDK 1.25.4
OpenShift Container Platform 4.12는 Operator SDK 1.25.4를 지원합니다. 이 최신 버전을 설치하거나 업데이트하려면 Operator SDK CLI 설치를 참조하십시오.
Operator SDK 1.25.4는 Kubernetes 1.25를 지원합니다.
자세한 내용은 Kubernetes 1.25 에서 제거된 베타 API 및 Kubernetes 1.25 에서 제거된 API의 번들 매니페스트를 참조하십시오.
Operator SDK 1.22.0을 사용하여 이전에 생성되거나 유지 관리되는 Operator 프로젝트가 있는 경우 Operator SDK 1.25.4와의 호환성을 유지하도록 프로젝트를 업데이트합니다.
LVM Operator를 Logical Volume Manager Storage라고 합니다.
이전에 Red Hat OpenShift Data Foundation과 함께 제공된 LVM Operator를 사용하려면 OpenShift Data Foundation을 통해 설치해야 합니다. OpenShift Container Platform v4.12에서 LVM Operator의 이름이 Logical Volume Manager Storage 로 변경되었습니다. 이제 OpenShift Operator 카탈로그에서 독립 실행형 Operator로 설치합니다. 논리 볼륨 관리자 스토리지는 제한된 단일 리소스 단일 노드 OpenShift 클러스터에서 블록 스토리지의 동적 프로비저닝을 제공합니다.
1.5. 사용되지 않거나 삭제된 기능
이전 릴리스에서 사용 가능하던 일부 기능이 더 이상 사용되지 않거나 삭제되었습니다.
더 이상 사용되지 않는 기능은 여전히 OpenShift Container Platform에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다. OpenShift Container Platform 4.12에서 더 이상 사용되지 않고 삭제된 주요 기능의 최신 목록은 아래 표를 참조하십시오. 더 이상 사용되지 않고 삭제된 기능에 대한 자세한 내용은 표 뒤에 나열되어 있습니다.
다음 표에서 기능은 다음 상태로 표시됩니다.
- 정식 출시일 (GA)
- 더 이상 사용되지 않음
- Removed
Operator에서 더 이상 사용되지 않는 기능 및 삭제된 기능
표 1.2. Operator가 더 이상 사용되지 않거나 삭제된 Operator
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
Operator 카탈로그의 SQLite 데이터베이스 형식 | 더 이상 사용되지 않음 | 더 이상 사용되지 않음 | 더 이상 사용되지 않음 |
이미지가 더 이상 사용되지 않거나 삭제된 기능
표 1.3. 더 이상 사용되지 않거나 삭제된 이미지
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
Cluster Samples Operator의 | 더 이상 사용되지 않음 | 더 이상 사용되지 않음 | 더 이상 사용되지 않음 |
Cluster Samples Operator의 | 더 이상 사용되지 않음 | 더 이상 사용되지 않음 | 더 이상 사용되지 않음 |
설치 페이로드에서 Jenkins 이미지 제거 | 정식 출시일 (GA) | Removed | Removed |
사용되지 않거나 삭제된 기능 모니터링
표 1.4. 더 이상 사용되지 않거나 삭제된 추적기 모니터링
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
모니터링 스택의 Grafana 구성 요소 | 더 이상 사용되지 않음 | Removed | Removed |
모니터링 스택에서 Prometheus 및 Grafana UI에 액세스 | 더 이상 사용되지 않음 | Removed | Removed |
더 이상 사용되지 않는 기능 및 삭제된 기능
표 1.5. 더 이상 사용되지 않거나 제거된 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
vSphere 6.7 Update 2 또는 이전 버전 | 더 이상 사용되지 않음 | Removed | Removed |
vSphere 7.0 업데이트 1 이상 | 정식 출시일 (GA) | 더 이상 사용되지 않음 | 더 이상 사용되지 않음 |
VMware ESXi 6.7 업데이트 2 또는 이전 버전 | 더 이상 사용되지 않음 | Removed | Removed |
VMware ESXi 7.0 업데이트 1 이상 | 정식 출시일 (GA) | 더 이상 사용되지 않음 | 더 이상 사용되지 않음 |
| 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
설치 관리자 프로비저닝 인프라 클러스터의 | 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
더 이상 사용되지 않는 기능 및 삭제된 클러스터 업데이트
표 1.6. 더 이상 사용되지 않는 클러스터 및 제거된 추적기 업데이트
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
가상 하드웨어 버전 13 | 더 이상 사용되지 않음 | Removed | Removed |
더 이상 사용되지 않는 기능 및 삭제된 기능
표 1.7. 더 이상 사용되지 않거나 삭제된 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
| 더 이상 사용되지 않음 | Removed | Removed |
FlexVolume을 사용하는 영구 스토리지 | 더 이상 사용되지 않음 | 더 이상 사용되지 않음 | 더 이상 사용되지 않음 |
인증 및 권한 부여 더 이상 사용되지 않는 기능
표 1.8. 인증 및 권한 부여 더 이상 사용되지 않거나 삭제된 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
서비스 계정 토큰 시크릿 자동 생성 | 정식 출시일 (GA) | Removed | Removed |
더 이상 사용되지 않거나 제거된 특수 하드웨어 및 드라이버 지원
표 1.9. 특수 하드웨어 및 드라이버 지원 사용 중단 및 제거된 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
SRO(Special Resource Operator) | 기술 프리뷰 | 기술 프리뷰 | Removed |
다중 아키텍처 더 이상 사용되지 않는 기능
표 1.10. 다중 아키텍처 더 이상 사용되지 않는 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
IBM POWER8 모든 모델 ( | 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
IBM IBM POWER9 AC922 ( | 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
IBM IBM POWER9 IC922 ( | 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
IBM IBM POWER9 LC922 ( | 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
IBM z13 모든 모델 ( | 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
IBM LinuxONE Emperor ( | 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
IBM LinuxONEECDHEper ( | 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
AMD64 (x86_64) v1 CPU | 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
더 이상 사용되지 않거나 삭제된 네트워킹
표 1.11. 더 이상 사용되지 않거나 삭제된 네트워킹
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
RHOSP의 Kuryr | 정식 출시일 (GA) | 정식 출시일 (GA) | 더 이상 사용되지 않음 |
1.5.1. 더 이상 사용되지 않는 기능
1.5.1.1. OpenShift Container Platform 호스트 플랫폼으로 RHV(Red Hat Virtualization)는 더 이상 사용되지 않습니다.
RHV(Red Hat Virtualization)는 향후 OpenShift Container Platform 릴리스에서 더 이상 사용되지 않습니다. RHV의 OpenShift Container Platform 지원은 현재 OpenShift Container Platform 4.14로 예정된 OpenShift Container Platform 릴리스에서 제거될 예정입니다.
1.5.1.2. cluster.local
도메인에 대한 와일드카드 DNS 쿼리는 더 이상 사용되지 않습니다.
CoreDNS는 cluster.local
도메인 아래의 이름에 대한 와일드카드 DNS 쿼리 지원을 중지합니다. 이러한 쿼리는 이전 버전에서와 마찬가지로 OpenShift Container Platform 4.12에서 확인되지만 향후 OpenShift Container Platform 릴리스에서 지원은 제거됩니다.
1.5.1.3. ppc64le
,s390x
, x86_64
v1 CPU 아키텍처의 특정 하드웨어 모델은 더 이상 사용되지 않습니다.
OpenShift Container Platform 4.12에서는 RHCOS 기능에 대한 지원이 더 이상 사용되지 않습니다.
- IBM POWER8 모든 모델 (ppc64le)
- IBM POWER9 AC922(ppc64le)
- IBM POWER9 IC922 (ppc64le)
- IBM POWER9 LC922 (ppc64le)
- IBM z13 모든 모델 (s390x)
- LinuxONE Emperor(s390x)
- LinuxONEECDHEper(s390x)
- AMD64 (x86_64) v1 CPU
이러한 하드웨어 모델은 OpenShift Container Platform 4.12에서 완전히 지원되지만 Red Hat은 이후의 하드웨어 모델을 사용하는 것이 좋습니다.
1.5.1.4. RHOSP에서 실행되는 클러스터에 대한 Kuryr 지원
OpenShift Container Platform 4.12에서는 RHOSP에서 실행되는 클러스터에서 Kuryr 지원이 더 이상 사용되지 않습니다. OpenShift Container Platform 4.14 이전 버전에서는 지원이 제거됩니다.
1.5.2. 삭제된 기능
1.5.2.1. Kubernetes 1.25에서 제거된 베타 API
Kubernetes 1.25는 더 이상 사용되지 않는 다음과 같은 API를 제거했기 때문에 적절한 API 버전을 사용하도록 매니페스트 및 API 클라이언트를 마이그레이션해야 합니다. 제거된 API 마이그레이션에 대한 자세한 내용은 Kubernetes 설명서를 참조하십시오.
표 1.12. Kubernetes 1.25에서 제거된 API
리소스 | 제거된 API | 다음으로 마이그레이션 | 주요 변경 사항 |
---|---|---|---|
|
|
| 없음 |
|
|
| |
|
|
| |
|
|
| 없음 |
|
|
| |
|
| ||
|
|
| 없음 |
- OpenShift Container Platform의 Pod 보안 승인에 대한 자세한 내용은 Pod 보안 승인 이해 및 관리를 참조하십시오.
1.5.2.2. oc registry login 명령에 대한 빈 파일 및 stdout 지원
oc registry login
명령의
빈 파일을 허용하지 않습니다. 이러한 옵션은 존재하지 않는 파일에서 계속 작동합니다. 출력을 --registry-config
및 --to 옵션 옵션은-
(stdout)에 쓰는 기능도 제거합니다.
1.5.2.3. OpenShift CLI(oc)에 대한 RHEL 7 지원이 제거되었습니다.
oc
(OpenShift CLI)에서 RHEL(Red Hat Enterprise Linux) 7 사용에 대한 지원이 제거되었습니다. RHEL에서 OpenShift CLI(oc
)를 사용하는 경우 RHEL 8 이상을 사용해야 합니다.
1.5.2.4. OpenShift CLI(oc) 명령이 제거됨
이 릴리스에서는 다음 OpenShiftCLI
(oc ) 명령이 제거되었습니다.
-
oc adm migrate etcd-ttl
-
oc adm migrate image-references
-
oc adm migrate legacy-hpa
-
oc adm migrate storage
1.5.2.5. 모니터링 스택에서 제거된 Grafana 구성 요소
Grafana 구성 요소는 더 이상 OpenShift Container Platform 4.12 모니터링 스택의 일부가 아닙니다. 또는 OpenShift Container Platform 웹 콘솔에서 Observe → Dashboards로 이동하여 모니터링 대시보드를 확인합니다.
1.5.2.6. 모니터링 스택에서 제거된 Prometheus 및 Grafana 사용자 인터페이스 액세스
타사 Prometheus 및 Grafana 사용자 인터페이스에 대한 액세스는 OpenShift Container Platform 4.12 모니터링 스택에서 제거되었습니다. 또는 OpenShift Container Platform 웹 콘솔에서 Observe를 클릭하여 모니터링 구성 요소에 대한 경고, 메트릭, 대시보드 및 지표 대상을 확인합니다.
1.5.2.7. 가상 하드웨어 버전 13에 대한 지원이 제거됨
OpenShift Container Platform 4.11에서는 가상 하드웨어 버전 13에 대한 지원이 제거되었습니다. OpenShift Container Platform 4.9에서는 가상 하드웨어 버전 13에 대한 지원이 더 이상 사용되지 않습니다. 가상 하드웨어 버전 15 이상을 사용하는 것이 좋습니다.
1.5.2.8. 스냅샷 v1beta1 API 끝점에 대한 지원이 제거됨
OpenShift Container Platform 4.11에서는 snapshot.storage.k8s.io/v1beta1
API 끝점 지원이 제거되었습니다. OpenShift Container Platform 4.7에서는 snapshot.storage.k8s.io/v1beta1
API 끝점에 대한 지원이 더 이상 사용되지 않습니다. snapshot.storage.k8s.io/v1
을 사용하는 것이 좋습니다. v1beta1
로 생성된 모든 오브젝트는 v1 끝점을 통해 사용할 수 있습니다.
1.5.2.9. 사용자 정의 스케줄러 수동 배포 지원이 제거되었습니다.
이 릴리스에서 사용자 정의 스케줄러를 수동으로 배포하기 위한 지원이 제거되었습니다. 대신 Secondary Scheduler Operator for Red Hat OpenShift 를 사용하여 OpenShift Container Platform에 사용자 정의 보조 스케줄러를 배포합니다.
1.5.2.10. OpenShiftSDN을 사용하여 단일 노드 OpenShift 배포 지원 제거
이번 릴리스에서는 OpenShiftSDN을 사용하여 단일 노드 OpenShift 클러스터 배포를 지원합니다. OVN-Kubernetes는 단일 노드 OpenShift 배포를 위한 기본 네트워킹 솔루션입니다.
1.5.2.11. 설치 페이로드에서 Jenkins 이미지 제거
-
OpenShift Container Platform 4.11은 Red Hat이 OpenShift Container Platform 라이프사이클 외부에서 이미지를 생성하고 업데이트할 수 있도록 "OpenShift Jenkins" 및 "OpenShift Agent Base" 이미지를
registry.redhat.io
의ocp-tools-4
리포지토리로 이동합니다. 이전에는 이러한 이미지가 OpenShift Container Platform 설치 페이로드에 있고registry.redhat.io
의openshift4
리포지토리에 있었습니다. 자세한 내용은 OpenShift Jenkins 를 참조하십시오. OpenShift Container Platform 4.11은 페이로드에서 "OpenShift Jenkins Maven" 및 "NodeJS Agent" 이미지를 제거합니다. 이전에 OpenShift Container Platform 4.10에서는 이러한 이미지를 더 이상 사용하지 않습니다. Red Hat은 더 이상 이러한 이미지를 생성하지 않으며
registry.redhat.io
의ocp-tools-4
리포지토리에서 사용할 수 없습니다.그러나 OpenShift Container Platform 4.11로 업그레이드해도 4.10 및 이전 릴리스의 "OpenShift Jenkins Maven" 및 "NodeJS Agent" 이미지는 제거되지 않습니다. Red Hat은 OpenShift Container Platform 라이프 사이클 정책에 따라 4.10 릴리스 라이프 사이클 종료를 통해 이러한 이미지에 대한 버그 수정 및 지원을 제공합니다.
자세한 내용은 OpenShift Jenkins 를 참조하십시오.
1.5.3. 향후 Kubernetes API 제거
OpenShift Container Platform의 다음 마이너 릴리스에서는 Kubernetes 1.26을 사용할 예정입니다. 현재 Kubernetes 1.26에서는 더 이상 사용되지 않는 여러 API를 제거할 예정입니다.
예정된 Kubernetes API 제거 목록은 업스트림 Kubernetes 설명서에서 더 이상 사용되지 않는 API 마이그레이션 가이드를 참조하십시오.
제거하려는 Kubernetes API의 클러스터를 확인하는 방법에 대한 자세한 내용은 Kubernetes API 사용 중단 및 제거를 참조하십시오.
1.6. 버그 수정
API 서버 및 인증
-
이전 버전에서는
workloadIsBeingUpdatedTooLong
오류를 수신한 후 Cluster Authentication Operator 상태가progressing = false
로 설정되었습니다. 동시에degraded = false
가 정의된inertia
의 시간 동안 유지되었습니다. 결과적으로 진행 중인 진행 시간과 성능 저하 시간이 단축되면진행 = false 및
가 조기에 설정된 상황이 발생할 수 있었습니다. 이로 인해 상태가 정상이라고 가정되었기 때문에 일치하지 않는 OpenShift CI 테스트가 발생했습니다. 이 문제는degraded = false
workloadIsBeingUpdatedTooLong
오류가 반환된 후progressing = false
설정을 제거하여 해결되었습니다. 이제진행 중인 = false
상태가 없으므로 OpenShift CI 테스트가 더 일관되게 유지됩니다. (BZ#2111842)
베어 메탈 하드웨어 프로비저닝
-
최근 버전의 서버 펌웨어에서는 서버 작업 간의 시간이 증가했습니다. 이로 인해 OpenShift Container Platform 설치 프로그램이 BMC(Baseboard Management Controller)에서 응답을 대기하는 경우 설치 관리자가 프로비저닝한 인프라 설치 중에 시간 초과가 발생합니다. 새로운
python3-sushy
릴리스에서는 서버 측에서 BMC에 연결하려고 시도하는 수를 늘립니다. 이번 업데이트에서는 연장된 대기 시간을 고려하여 설치 중에 시간 초과를 방지합니다. (OCPBUGS-4097) -
이번 업데이트 이전에는 Ironic 프로비저닝 서비스에서 엄격한 eTag 검증과 결합된 약한 eTags를 사용하는 BMC(Baseboard Management Controller)를 지원하지 않았습니다. 설계에 따라 BMC에서 약한 eTag를 제공하는 경우 Ironic은 약한 eTag를 지원하지 않는 BMC와의 호환성을 위해 원래 eTag와의 호환성을 위해 원래 eTags를 반환합니다. Ironic은 두 개의 eTags를 보낼 수 있지만 엄격한 eTag 검증을 사용하는 BMC는 두 번째 eTag가 존재하기 때문에 이러한 요청을 거부합니다. 그 결과 일부 이전 서버 하드웨어에서 베어 메탈 프로비저닝에 실패하고
HTTP 412 Precondition Failed
오류가 발생했습니다. OpenShift Container Platform 4.12 이상에서는 이러한 동작 변경 및 Ironic에서 약한 eTag가 제공되는 경우 더 이상 두 개의 eTags를 전송하지 않습니다. 대신 eTag 검증 오류와 함께 eTag에 의존하는 Redfish 요청이 실패하면 Ironic에서 알려진 해결 방법으로 요청을 다시 시도합니다. 따라서 엄격한 eTag 검증으로 머신에서 베어 메탈 프로비저닝 실패 위험을 최소화합니다. (OCPBUGS-3479) - 이번 업데이트 이전에는 Redfish 시스템에 설정 URI가 있는 경우 Ironic 프로비저닝 서비스에서 항상 이 URI를 사용하여 부팅 관련 BIOS 설정을 변경합니다. 그러나 BMC(Baseboard Management Controller)에 설정 URI가 있지만 이 설정 URI를 사용하여 특정 BIOS 설정 변경을 지원하지 않는 경우 베어 메탈 프로비저닝이 실패합니다. OpenShift Container Platform 4.12 이상에서 시스템에 설정 URI가 있는 경우 Ironic은 계속하기 전에 설정 URI를 사용하여 특정 BIOS 설정을 변경할 수 있는지 확인합니다. 그렇지 않으면 Ironic은 시스템 URI를 사용하여 변경 사항을 구현합니다. 이 추가 논리를 통해 Ironic에서 부팅 관련 BIOS 설정 변경 사항을 적용할 수 있으며 베어 메탈 프로비저닝이 성공할 수 있습니다. (OCPBUGS-2052)
빌드
기본적으로 Buildah는 빌드 입력 보안이 포함될 수 있는 환경 변수의 내용을 포함하여 로그 파일에 단계를 출력합니다.
--quiet
build 인수를 사용하여 해당 환경 변수 출력을 억제할 수 있지만 S2I(Source-to-Image) 빌드 전략을 사용하는 경우 이 인수를 사용할 수 없습니다. 현재 릴리스에서는 이 문제가 해결되었습니다. 환경 변수 출력을 표시하지 않으려면 빌드 구성에서BUILDAH_QUIET
환경 변수를 설정합니다.sourceStrategy: ... env: - name: "BUILDAH_QUIET" value: "true"
클라우드 컴퓨팅
-
이전에는 인스턴스가 자동 재시작을 위해 GCP 인프라 기본 옵션을 고려하지 않았습니다. 결과적으로 자동 재시작을 위해 인프라 기본값을 사용하지 않고 인스턴스를 생성할 수 있었습니다. 이로 인해 인스턴스가 GCP에서 종료되었지만 연결된 머신이 자동으로 다시 시작되지 않았기 때문에
Running
상태에 나열되어 있습니다. 이번 릴리스에서는 자동 재시작 옵션을 전달하는 코드가 개선되어 사용자의 기본 옵션 선택을 더 잘 감지하고 전달할 수 있습니다. 이제 인스턴스에서 인프라 기본값을 올바르게 사용하며 사용자가 기본 기능을 요청할 때 자동으로 다시 시작됩니다. (OCPBUGS-4504) -
Kubernetes에서
PodDisruptionBudget
오브젝트의v1beta1
버전이 더 이상 사용되지 않습니다. 이번 릴리스에서는v1beta1
에 대한 내부 참조가v1
로 교체됩니다. 이러한 변경은 클러스터 자동 스케일러 내부이며 OpenShift Container Platform 4.12 Red Hat 지식베이스 문서로 업그레이드 준비에 있는 지침 이외의 사용자 작업이 필요하지 않습니다. (OCPBUGS-1484) - 이전에는 GCP 머신 컨트롤러에서 10시간마다 머신 상태를 조정했습니다. 다른 공급자는 이 값을 10분으로 설정하여 Machine API 시스템 외부에서 발생하는 변경 사항이 짧은 기간 내에 감지됩니다. GCP의 조정 기간이 길어지면 외부 IP 주소가 추가되었지만 장기간 감지되지 않아 CSR(인증서 서명 요청) 승인과 같은 예기치 않은 문제가 발생할 수 있습니다. 이번 릴리스에서는 다른 플랫폼과 일치하도록 GCP 머신 컨트롤러가 10분마다 조정되도록 업데이트되어 외부 변경 사항을 더 빨리 선택할 수 있습니다. (OCPBUGS-4499)
-
이전 버전에서는 Cluster Machine Approver Operator에 대한 배포 잘못된 구성으로 인해
TechPreviewNoUpgrade
기능 세트를 사용하면 오류가 발생하고 sporadic Operator degradation이 발생했습니다.TechPreviewNoUpgrade
기능 세트가 활성화된 클러스터에서는 Cluster Machine Approver Operator의 두 인스턴스를 사용하고 동일한 포트 세트를 사용한 배포 모두를 사용하므로 단일 노드 토폴로지에 오류가 발생하는 충돌이 있었습니다. 이번 릴리스에서는 다른 배포에 다른 포트 세트를 사용하도록 Cluster Machine Approver Operator 배포가 업데이트되었습니다. (OCPBUGS-2621) - 이전에는 Azure의 0 기능에서 스케일링이 정적으로 컴파일된 인스턴스 유형 목록을 사용하여 인스턴스 유형의 이름을 CPU 수 및 인스턴스 유형에 할당된 메모리 양으로 매핑했습니다. 이 목록은 시간이 지남에 따라 증가했습니다. 이 릴리스에서는 목록이 오래되지 않도록 Azure API에서 인스턴스 유형 크기에 대한 정보가 동적으로 수집됩니다. (OCPBUGS-2558)
- 이전에는 Machine API 종료 처리기 Pod가 스팟 인스턴스에서 시작되지 않았습니다. 그 결과 테인트된 스팟 인스턴스에서 실행 중인 Pod에서 인스턴스가 종료되면 종료 신호가 수신되지 않았습니다. 이로 인해 워크로드 애플리케이션에서 데이터가 손실될 수 있습니다. 이번 릴리스에서는 테인트가 있는 Spot 인스턴스에서 실행되는 테인트 및 Pod를 허용하도록 Machine API 종료 처리기 배포가 수정되어 이제 종료 신호가 수신됩니다. (OCPBUGS-1274)
- 이전에는 Azure 클러스터의 오류 메시지에서 내부 게시 전략만 사용하는 연결이 끊긴 설치의 공용 IP 주소로 새 머신을 생성할 수 없다고 설명하지 않았습니다. 이번 릴리스에서는 명확성 향상을 위해 오류 메시지가 업데이트되었습니다. (OCPBUGS-519)
-
이전에는 Cloud Controller Manager Operator에서 AWS 클러스터의
cloud-config
구성 파일을 확인하지 않았습니다. 결과적으로 구성 파일을 사용하여 AWS 클라우드 컨트롤러 관리자 구성 요소에 추가 설정을 전달할 수 없었습니다. 이번 릴리스에서는 사용자가 추가 설정을 구성할 수 있도록 Cloud Controller Manager Operator가 인프라 리소스를 확인하고cloud-config
구성 파일에 대한 참조를 구문 분석합니다. (BZ#2104373) - 이전에는 Azure에서 새 인스턴스 유형을 추가하고 이전에 없는 인스턴스 유형에 대한 네트워킹 지원을 가속화할 때 머신 컨트롤러의 Azure 인스턴스 목록이 오래되었습니다. 결과적으로 머신 컨트롤러는 Azure에서 이 기능을 지원하는 경우에도 이전에 가속 네트워킹을 지원하지 않는 인스턴스 유형으로 머신을 생성할 수 없었습니다. 이번 릴리스에서는 머신 컨트롤러가 새롭고 업데이트된 인스턴스 유형으로 머신을 생성할 수 있도록 머신을 최신 상태로 유지하기 전에 Azure API에서 필요한 인스턴스 유형 정보를 검색합니다. 이 수정은 나중에 추가된 모든 인스턴스 유형에도 적용됩니다. (BZ#2108647)
- 이전 버전에서는 클러스터 자동 스케일러가 Cluster API 공급자를 사용할 때 CSI 드라이버의 AWS, IBM Cloud 및ECDHE Cloud 토폴로지 라벨을 고려하지 않았습니다. 그 결과 스케일 아웃 이벤트 중에 노드의 균형을 조정할 때 자동 스케일러가 토폴로지 라벨이 있는 노드가 제대로 처리되지 않았습니다. 이번 릴리스에서는 자동 스케일러의 사용자 지정 프로세서가 이 라벨을 준수하도록 업데이트됩니다. 자동 스케일러는 AWS, IBM Cloud 또는ECDHE CSI 라벨에 의해 라벨이 지정된 유사한 노드 그룹의 균형을 조정할 수 있습니다. (BZ#2001027)
- 이전 버전에서는 Power VS 클라우드 공급자가 DHCP 서버에서 시스템 IP 주소를 가져올 수 없었습니다. IP 주소를 변경하면 노드가 업데이트되지 않아 보류 중인 인증서 서명 요청과 같은 일부 불일치가 발생했습니다. 이 릴리스에서는 노드의 IP 주소가 머신 IP 주소와 일치하도록 DHCP 서버에서 시스템 IP 주소를 가져오도록 Power VS 클라우드 공급자가 업데이트되었습니다. (BZ#2111474)
- 이전에는 초기 버전의 OpenShift Container Platform에서 잘못된 구성으로 생성된 머신을 삭제할 수 없었습니다. 이번 릴리스에서는 잘못된 구성이 있는 머신 생성을 방지하는 Webhook에서 더 이상 유효하지 않은 머신이 삭제되지 않습니다. 이제 이러한 시스템의 종료자를 수동으로 제거하여 클러스터에서 이러한 시스템을 제거할 수 있습니다. (BZ#2101736)
-
이전 버전에서는
NetworkManager
가 데몬으로 실행되지 않거나 연속 모드로 인해 시스템이 정지되어 초기 프로비저닝 중에 시스템이 중단되어 클러스터의 노드가 되지 않았습니다. 이번 릴리스에서는 머신이 이 상태로 유지되면 자동으로 삭제되고 다시 생성되도록 추가 검사가 추가되었습니다. 이 네트워크 조건의 영향을 받는 머신은 머신 API 컨트롤러에서 재부팅한 후 노드가 될 수 있습니다. (BZ#2115090) -
이전에는 IBM Cloud에 존재하지 않는 머신 프로필을 사용하여 새 머신 리소스를 생성할 때 머신이
프로비저닝
단계에 있게 되었습니다.이번 릴리스에서는 머신 프로필이 있는지 확인하기 위해 IBM Cloud Machine API 공급자에 검증이 추가되고 Machine API에서 잘못된 머신 프로필이 있는 머신을 거부합니다. (BZ#2062579)
- 이전에는 AWS의 Machine API 공급자가 머신 사양에 정의된 보안 그룹이 존재하는지 확인하지 않았습니다. 이 경우 오류를 반환하는 대신 OpenShift Container Platform 머신에는 사용할 수 없는 기본 보안 그룹을 사용하고 사용자에게 default 그룹을 사용했음을 알리지 않고 시스템을 성공적으로 생성했습니다. 이번 릴리스에서는 머신 사양에 잘못된 또는 빈 보안 그룹 이름을 설정한 경우 Machine API에서 오류를 반환합니다. (BZ#2060068)
- 이전에는 Machine API 공급자 Azure에서 인스턴스 유형의 사용자 제공 값을 대소문자를 구분함으로 처리하지 않았습니다. 이로 인해 인스턴스 유형이 올바르지만 케이스와 일치하지 않는 경우 false-positive 오류가 발생했습니다. 이번 릴리스에서는 일치하지 않는 케이스에 대한 잘못된 오류 없이 올바른 결과를 얻을 수 있도록 인스턴스 유형이 소문자로 변환됩니다. (BZ#2085390)
- 이전에는 오브젝트에 액세스를 시도하기 전에 머신 오브젝트의 주석에 nil 값을 확인하지 않았습니다. 이 상황은 드물지만 머신을 조정할 때 머신 컨트롤러가 패닉 상태가되었습니다. 이번 릴리스에서는 nil 값을 확인하고 머신 컨트롤러에서 주석 없이 머신을 조정할 수 있습니다. (BZ#2106733)
-
이전 버전에서는 클러스터 CPU 및 메모리 사용량에 대한 클러스터 자동 스케일러 메트릭이
ClusterAutoscaler
리소스에서 설정한 제한에 도달하거나 초과하지 않았습니다. 그 결과 리소스 제한으로 인해 클러스터 자동 스케일러를 확장할 수 없는 경우 경고가 실행되지 않았습니다. 이번 릴리스에서는 리소스 제한에 도달하거나 초과할 시기를 보다 정확하게 감지하기 위해cluster_autoscaler_skipped_scale_events_count
라는 새 메트릭이 클러스터 자동 스케일러에 추가되었습니다. 이제 클러스터 리소스 제한에 도달했기 때문에 클러스터 자동 스케일러가 클러스터를 확장할 수 없는 경우 경고가 실행됩니다. (BZ#1997396) - 이전 버전에서는 머신 API 공급자가 머신 IP 주소를 가져오지 못하면 내부 DNS 이름을 설정하지 않았으며 시스템 인증서 서명 요청이 자동으로 승인되지 않았습니다. 이 릴리스에서는 IP 주소를 가져오지 못하더라도 서버 이름을 내부 DNS 이름으로 설정하도록 Power VS 시스템 공급자가 업데이트되었습니다. (BZ#2111467)
-
이전에는 머신 API vSphere 머신 컨트롤러에서 VM을 복제할 때
PowerOn
플래그를 설정했습니다. 이로 인해 머신 컨트롤러가 인식하지 못한PowerOn
작업이 생성되었습니다.PowerOn
작업이 실패하면 시스템이프로비저닝
단계에 있지만 전원이 켜지지 않았습니다. 이 릴리스에서는 문제를 방지하도록 복제 시퀀스가 변경되었습니다. 또한 머신 컨트롤러에서 오류가 발생한 경우 VM의 전원 켜기를 다시 시도합니다. (BZ#2087981, OCPBUGS-954) - 이번 릴리스에서는 AWS 보안 그룹은 생성 후 즉시 태그됩니다. 즉, AWS로 전송되는 요청은 줄어들고 필요한 사용자 권한이 줄어듭니다. (BZ#2098054, OCPBUGS-3094)
- 이전에는 RHOSP 레거시 클라우드 공급자의 버그로 인해 인증이 실패한 후 특정 RHOSP 작업이 시도되면 충돌이 발생했습니다. 예를 들어 서버를 종료하면 Kubernetes 컨트롤러 관리자가 RHOSP에서 서버 정보를 가져와서 이 버그를 트리거했습니다. 그 결과 초기 클라우드 인증이 실패하거나 잘못 구성된 경우 서버를 종료하면 Kubernetes 컨트롤러 관리자가 충돌했습니다. 이번 릴리스에서는 RHOSP 레거시 클라우드 공급자가 이전에 인증되지 않은 경우 RHOSP API 호출을 시도하지 않도록 업데이트되었습니다. 이제 잘못된 클라우드 인증 정보를 사용하여 서버를 종료하면 Kubernetes 컨트롤러 관리자가 더 이상 충돌하지 않습니다. (BZ#2102383)
개발자 콘솔
-
이전 버전에서는
openshift-config
네임스페이스가ProjectHelmChartRepository
사용자 정의 리소스의 동일한 네임스페이스인HelmChartRepository
사용자 정의 리소스에 대해 하드 코딩되었습니다. 이로 인해 사용자가 원하는 네임스페이스에 개인ProjectHelmChartRepository
사용자 정의 리소스를 추가하지 못했습니다. 결과적으로 사용자가openshift-config
네임스페이스의 시크릿 및 구성 맵에 액세스할 수 없었습니다. 이번 업데이트에서는 올바른 권한이 있는 사용자가 선택한 네임스페이스에서 시크릿 및 구성 맵을 읽을 수 있는namespace
필드를 사용하여ProjectHelmChartRepository
사용자 정의 리소스 정의를 수정합니다. 또한 사용자는 액세스 가능한 네임스페이스에 시크릿 및 구성 맵을 추가할 수 있으며, 생성 리소스를 사용하는 네임스페이스에 개인 Helm 차트 리포지터리를 추가할 수 있습니다. (BZ#2071792)
이미지 레지스트리
- 이전에는 이미지 트리거 컨트롤러에 오브젝트를 변경할 수 있는 권한이 없었습니다. 결과적으로 이미지 트리거 주석이 일부 리소스에서 작동하지 않았습니다. 이번 업데이트에서는 컨트롤러에 주석에 따라 오브젝트를 업데이트하는 데 필요한 권한을 제공하는 클러스터 역할 바인딩을 생성합니다. (BZ#2055620)
-
이전에는 Image Registry Operator에
node-ca
데몬 세트에 대한진행
조건이 없고 잘못된 오브젝트의생성
을 사용했습니다. 결과적으로 Operator가 계속 실행되는 동안node-ca
데몬 세트가degraded
로 표시될 수 있었습니다. 이번 업데이트에서는 설치가 완료되지 않았음을 나타내는진행
조건이 추가되었습니다. 결과적으로 Image Registry Operator가node-ca
데몬 세트를 성공적으로 설치하고 설치 프로그램이 완전히 배포될 때까지 기다립니다. (BZ#2093440)
설치 프로그램
- 이전 버전에서는 지원되는 사용자 정의 태그 수가 8이었으며 예약된 OpenShift Container Platform 태그는 AWS 리소스에 대해 2였습니다. 이번 릴리스에서는 지원되는 사용자 정의 태그 수가 25개이며 예약된 OpenShift Container Platform 태그는 AWS 리소스의 경우 25개입니다. 이제 설치 중에 최대 25개의 사용자 태그를 추가할 수 있습니다. (CFE#592)
-
이전에는 Amazon Web Services에 클러스터를 설치한 다음 IAM 관리 사용자에게
s3:GetBucketPolicy
권한이 할당되지 않은 경우 실패했습니다. 이번 업데이트에서는 설치 프로그램이 필요한 모든 권한이 할당되도록 설치 프로그램이 사용하는 검사 목록에 이 정책을 추가합니다. 결과적으로 설치 프로그램에서 IAM 관리 사용자에게s3:GetBucketPolicy
권한이 누락되었음을 경고하여 설치를 중지합니다. (BZ#2109388) - 이전 버전에서는 Azure DCasv5 시리즈 또는 DCadsv5 시리즈의 기밀 VM이 컨트롤 플레인 노드로 지정되면 Microsoft Azure에 클러스터를 설치하지 못했습니다. 이번 업데이트를 통해 이제 설치 프로그램에서 기밀 VM이 아직 지원되지 않는 오류와 함께 설치를 중지합니다. (BZ#2055247)
- 이전에는 컨트롤 플레인 시스템이 실행될 때까지 부트스트랩 로그를 수집할 수 없었습니다. 이번 업데이트를 통해 이제 부트스트랩 로그를 수집하려면 부트스트랩 시스템을 사용할 수 있어야 합니다. (BZ#2105341)
- 이전에는 서비스 계정에 충분하지 않은 권한이 있었기 때문에 클러스터를 Google Cloud Platform에 설치하지 못한 경우 오류 메시지가 실패 원인으로 언급되지 않았습니다. 이번 업데이트에서는 오류 메시지가 개선되어 이제 사용자에게 서비스 계정에 할당된 권한을 확인하도록 지시합니다. (BZ#2103236)
- 이전에는 잘못된 GCP 리전을 지정했기 때문에 GCP(Google Cloud 공급자)에 설치가 실패한 경우 오류 메시지가 실패 원인으로 표시되지 않았습니다. 이번 업데이트에서는 오류 메시지가 개선되어 이제 리전이 유효하지 않습니다. (BZ#2102324)
-
이전 버전에서는 Hive를 사용한 클러스터 설치에 이전 버전의 install-config.yaml 파일을 사용하는 경우 실패할 수 있었습니다. 이번 업데이트를 통해 설치 프로그램에서 Hive에서 제공하는 이전 버전의
install-config.yaml
파일을 허용할 수 있습니다. (BZ#2098299) -
이전에는 설치 프로그램에서 약어 형식으로 주소를 나열하는 것과 같이 주소가 다르게 표시되는 경우
apiVIP
및ingressVIP
매개변수가 동일한 IPv6 주소를 사용하도록 잘못 허용했습니다. 이번 업데이트에서는 설치 프로그램이 포맷에 관계없이 이러한 두 매개 변수의 유효성을 올바르게 검증하므로 각 매개변수에 대해 별도의 IP 주소가 필요합니다. (BZ#2103144) - 이전 버전에서는 설치 프로그램을 사용하여 클러스터를 제거하면 클러스터 이름이 22자를 초과하면 GCP에 설치된 클러스터의 모든 리소스가 삭제되지 않았습니다. 이번 업데이트에서는 설치 프로그램을 사용하여 클러스터를 설치 제거할 때 클러스터 이름이 긴 경우 모든 GCP 클러스터 리소스를 올바르게 찾고 삭제합니다. (BZ#2076646)
-
이전에는
machineNetwork
매개변수에 정의된 여러 네트워크를 사용하여 RHOSP(Red Hat OpenStack Platform)에 클러스터를 설치할 때 설치 프로그램에서 첫 번째 네트워크에 대한 보안 그룹 규칙만 생성했습니다. 이번 업데이트를 통해 설치 프로그램은machineNetwork
에 정의된 모든 네트워크에 대한 보안 그룹 규칙을 생성하여 사용자가 설치 후 보안 그룹 규칙을 수동으로 편집할 필요가 없도록 합니다. (BZ#2095323) - 이전에는 OpenStack에 클러스터를 설치할 때 API 및 Ingress 가상 IP 주소를 DHCP 서버의 할당 풀과 충돌하는 값으로 수동으로 설정할 수 있었습니다. 이로 인해 DHCP 서버가 새 머신에 VIP 주소 중 하나를 할당하면 시작되지 않을 수 있습니다. 이번 업데이트에서 설치 프로그램은 사용자가 제공한 VIP 주소의 유효성을 확인하여 DHCP 풀과 충돌하지 않는지 확인합니다. (BZ#1944365)
- 이전에는 폴더에 포함된 데이터 센터를 사용하여 vSphere에 클러스터를 설치할 때 설치 프로그램에서 데이터 센터 오브젝트를 찾을 수 없어 설치에 실패할 수 있었습니다. 이번 업데이트에서 설치 프로그램은 datacenter 오브젝트가 포함된 디렉터리를 트래버스하여 설치를 성공적으로 수행할 수 있습니다. (BZ#2097691)
-
이전에는 설치 관리자 프로비저닝 인프라가 있는 ARM64 아키텍처를 사용하여 Azure에 클러스터를 설치할 때
hyperVGeneration
V1의 이미지 정의 리소스에 아키텍처 값이x64
가 잘못되었습니다. 이번 업데이트를 통해hyperVGeneration
V1의 이미지 정의 리소스에는ECDHE64
의 올바른 아키텍처 값이 있습니다. (OCPBUGS-3639) -
이전에는 VMware vSphere에 클러스터를 설치할 때 사용자가
install-config.yaml
파일의failureDomain
섹션에 사용자 정의 폴더를 지정한 경우 설치에 실패할 수 있었습니다. 이번 업데이트를 통해 설치 프로그램은install-config.yaml
파일의failureDomain
섹션에 있는 사용자 정의 폴더의 유효성을 올바르게 검증합니다. (OCPBUGS-3343) - 이전에는 VMware vSphere에서 설치에 실패한 후 부분적으로 배포된 클러스터를 삭제할 때 일부 가상 머신 폴더가 삭제되지 않았습니다. 이 오류는 여러 vSphere 데이터 센터 또는 여러 vSphere 클러스터로 구성된 클러스터에서 발생할 수 있습니다. 이번 업데이트를 통해 설치 실패 후 부분적으로 배포된 클러스터를 제거할 때 모든 설치 관리자 프로비저닝 인프라가 올바르게 삭제됩니다. (OCPBUGS-1489)
-
이전 버전에서는 VMware vSphere에 클러스터를 설치할 때 사용자가
platform.vsphere.vcenters
매개변수를 지정했지만install-config.yaml
파일에platform.vsphere.failureDomains.topology.networks
매개변수를 지정하지 않은 경우 설치에 실패했습니다. 이번 업데이트를 통해 설치 프로그램은platform.vsphere.failureDomains.topology.networks
필드를 지정하는 경우 사용자에게platform.vsphere.vcenters
임을 알립니다. (OCPBUGS-1698) -
이전에는 VMware vSphere에 클러스터를 설치할 때
platform.vsphere.vcenters
및platform.vsphere.failureDomains
매개변수를 정의했지만platform.vsphere.defaultMachinePlatform.zones
, 또는compute.platform.vsphere.zones
및controlPlane.platform.vsphere.zones
를 정의하지 않은 경우 설치에 실패했습니다. 이번 업데이트를 통해 설치 프로그램에서 사용자가 설치 전에 다중 영역 또는 다중 영역 배포에zones
매개변수를 정의한지 확인합니다. (OCPBUGS-1490)
Kubernetes 컨트롤러 관리자
-
이전에는 Kubernetes Controller Manager Operator가 모니터링 스택이 없는 환경에서
성능이 저하된
것으로 보고되었습니다. 이번 업데이트를 통해 모니터링 스택이 없을 때 Kubernetes Controller Manager Operator에서 성능 저하에 대한 모니터링을 건너뜁니다. (BZ#2118286) -
이번 업데이트를 통해 Kubernetes Controller Manager 경고(
KubeControllerManagerDown
,PodDisruptionBudgetAtLimit
,PodDisruptionBudgetLimit
,GarbageCollectorSyncFailed
)에 Github runbook에 대한 링크가 있습니다. runbook은 사용자가 이러한 경고를 디버깅하는 데 도움이 됩니다. (BZ#2001409)
Kubernetes 스케줄러
- 이전 버전에서는 보조 스케줄러 사용자 정의 리소스가 삭제된 후 보조 스케줄러 배포가 삭제되지 않았습니다. 그 결과 Secondary Schedule Operator 및 Operand가 완전히 제거되지 않았습니다. 이번 업데이트를 통해 보조 스케줄러 사용자 정의 리소스에 올바른 소유자 참조가 설정되어 보조 스케줄러 배포를 가리킵니다. 결과적으로 보조 스케줄러 사용자 정의 리소스가 삭제되면 보조 스케줄러 배포가 삭제됩니다. (BZ#2100923)
- OpenShift Container Platform 4.12 릴리스의 경우 Descheduler는 릴리스가 Descheduler의 프로필에 추가 RBAC(역할 기반 액세스 제어) 규칙을 추가하므로 API 그룹에 이벤트를 게시할 수 있습니다. (OCPBUGS-2330)
Machine Config Operator
-
이전에는 중요한 인증서가 포함된 MCO(Machine Config Operator)
ControllerConfig
리소스가 Operator의 데몬 동기화에 성공한 경우에만 동기화되었습니다. 데몬 동기화 중에 준비되지 않은 노드를 설계하면 데몬이 성공적으로 동기화되지 않으므로 준비되지 않은 노드가 간접적으로ControllerConfig
리소스가 동기화되지 않아 해당 인증서가 동기화되지 않습니다. 이로 인해ControllerConfig
리소스에 포함된 인증서를 순환할 수 없기 때문에 준비되지 않은 노드가 있는 경우 클러스터 성능이 저하되었습니다. 이번 릴리스에서는ControllerConfig
리소스 동기화가 데몬 동기화에 더 이상 의존하지 않으므로 데몬 동기화에 실패해도ControllerConfig
리소스가 계속 동기화됩니다. 즉, 준비되지 않은 노드는 더 이상ControllerConfig
리소스가 동기화되지 않으므로 준비되지 않은 노드가 있는 경우에도 인증서가 계속 업데이트됩니다. (BZ#2034883)
관리 콘솔
- 이전 버전에서는 Operator 세부 정보 페이지에서 여러 오류 메시지를 표시하려고 했지만 오류 메시지 구성 요소에는 한 번에 하나의 오류 메시지만 표시할 수 있었습니다. 그 결과 관련 오류 메시지가 표시되지 않았습니다. 이번 업데이트를 통해 Operator 세부 정보 페이지에 첫 번째 오류 메시지만 표시되므로 사용자에게 관련 오류가 표시됩니다. (OCPBUGS-3927)
- 이전에는 CCO(Customer Case Management)에서 Azure Red Hat OpenShift의 제품 이름이 올바르지 않았습니다. 그 결과 콘솔에서 동일한 잘못된 제품 이름을 사용하여 CCM에 필드를 올바르게 채워야 했습니다. CCM의 제품 이름이 업데이트되면 콘솔도 업데이트해야 합니다. 이번 업데이트를 통해 콘솔에서 링크를 따를 때 CCM과 올바른 제품 이름이 올바른 Azure 제품 이름으로 올바르게 채워집니다. (OCPBUGS-869)
- 이전 버전에서는 플러그인 페이지에 오류가 발생할 때 오류 페이지에서 벗어나면 오류가 재설정되지 않았으며 오류 원인이 아닌 페이지로 이동한 후 오류가 유지되었습니다. 이번 업데이트를 통해 사용자가 새 페이지로 이동하면 오류 상태가 기본값으로 재설정되고 새 페이지로 이동한 후에는 오류가 더 이상 유지되지 않습니다. (BZ#2117738, OCPBUGS-523)
- 이전 버전에서는 설치된 Operator의 Operator 세부 정보 창에 있는 View it here 링크가 모든 네임스페이스 를 선택할 때 잘못 빌드되었습니다. 그 결과 링크가 모든 프로젝트의 CSV(클러스터 서비스 버전)의 Operator 세부 정보 페이지로 이동하려고 했습니다. 이는 잘못된 경로입니다. 이번 업데이트를 통해 CSV가 설치된 네임스페이스를 사용할 수 있는 View it here 링크가 올바르게 빌드되고 링크가 예상대로 작동합니다. (OCPBUGS-184)
- 이전 버전에서는 5개 이상의 숫자가 있는 줄 숫자로 인해 라인 번호가 줄 번호와 라인 콘텐츠 간에 수직 분할기를 초과하여 읽기가 어려워졌습니다. 이번 업데이트를 통해 줄 번호에 사용할 수 있는 공간이 증가하여 더 긴 줄 번호를 설명하고 줄번호는 더 이상 수직 분할기를 오버레이하지 않습니다. (OCPBUGS-183)
- 이전에는 웹 콘솔의 관리자 관점에서 Cluster Settings 페이지의 기본 업데이트 서버 팝업 창에 있는 OpenShift 로컬 업데이트서비스에 대한 더 많은 정보가 404 오류가 발생했습니다. 이번 업데이트를 통해 링크가 예상대로 작동합니다. (BZ#2098234)
-
이전에는
MatchExpression
구성 요소에서 배열 유형 값을 고려하지 않았습니다. 결과적으로 이 구성 요소를 사용하여 폼을 통해 단일 값만 입력할 수 있었습니다. 이번 업데이트를 통해MatchExpression
구성 요소에는 쉼표로 구분된 값을 배열로 사용할 수 있습니다. (BZ#207690) - 이전 버전에서는 모델을 중복 점검하여 탭을 다시 로드하고 이로 인해 다시 렌더링된 탭 내용이 손상될 수 있었습니다. 이번 업데이트를 통해 중복 모델 점검이 제거되었으며 모델은 한 번만 확인됩니다. 결과적으로 탭 콘텐츠는 flicker가 아니며 더 이상 다시 렌더링되지 않습니다. (BZ#2037329)
-
이전 버전에서는 OpenShift Dedicated 노드 페이지의 작업 목록에서
edit
레이블을 선택할 때 응답이 일치하지 않았으며 웹 후크 오류가 반환되었습니다. 이 문제는 편집에 실패할 때만 오류 메시지가 반환되도록 수정되었습니다. (BZ#2102098) -
이전에는 문제가 보류 중인 경우 Insights 링크를 클릭하면 페이지가 충돌했습니다. 이 문제를 해결하려면 Insights 링크를 클릭하기 전에 변수가
초기화
될 때까지 기다릴 수 있습니다. 결과적으로 Insights 페이지가 예상대로 열립니다. (BZ#2052662) -
이전 버전에서는
MachineConfigPool
리소스가 일시 중지되면 일시 중지 해제 옵션에서 Resume rollouts 가 표시되었습니다. 이 단어가 업데이트되어 이제 Resume 업데이트가 표시되도록 업데이트되었습니다. (BZ#2094240) -
이전에는 마스터 및 작업자 노드를 계산할 때 잘못된 계산 방법이 사용되었습니다. 이번 업데이트를 통해 노드에
마스터
및 작업자 역할이 모두 있는 경우 올바른작업자
노드가 계산됩니다. (BZ#1951901) -
이전 버전에서는
ImageManifestVuln
의react-router
경로가 충돌하면~
이름으로ImageManifestVuln
의 세부 정보 페이지가 렌더링되었습니다. 이제 충돌하는 경로를 제거하고 Operator 세부 정보 페이지에서 동적 목록 및 세부 정보 페이지 확장 기능이 사용되도록 컨테이너 보안 플러그인이 업데이트되었습니다. 결과적으로 콘솔에서ImageManifestVuln
의 올바른 생성, 목록 및 세부 정보 페이지를 렌더링합니다. (BZ#2080260) - 이전에는 불완전한 YAML이 사용자에게 동기화되지 않은 경우가 있었습니다. 이번 업데이트를 통해 동기화된 YAML이 항상 표시됩니다. (BZ#2084453)
- 이전 버전에서는 사용하기 위해 CR(사용자 정의 리소스)을 생성해야 하는 Operator를 설치할 때 잘못된 네임스페이스를 가리켰기 때문에 Create resource button이 CR을 설치하지 못할 수 있었습니다. 이번 업데이트를 통해 리소스 생성 버튼이 예상대로 작동합니다. (BZ#2094502)
- 이전에는 Cluster 업데이트 모달에 오류가 제대로 표시되지 않았습니다. 이로 인해 Cluster 업데이트 모달이 발생했을 때 오류를 표시하거나 설명하지 않았습니다. 이번 업데이트를 통해 Cluster Update modal에서 오류가 올바르게 표시됩니다. (BZ#2096350)
모니터링
-
이번 업데이트 이전에는 클러스터 관리자가 예약 문제와 kubelet에서 시작할 수 없기 때문에 준비되지 않은 Pod를 구분할 수 없었습니다. 두 경우 모두
KubePodNotReady
경고가 실행됩니다. 이번 업데이트를 통해 예약 문제로 인해 Pod가 준비되지 않은 경우KubePodNotScheduled
경고가 실행되고 kubelet에서 시작할 수 없기 때문에 Pod가 준비되지 않은 경우KubePodNotReady
경고가 실행됩니다. (OCPBUGS-4431) -
이번 업데이트 이전에는
node_exporter
에서tun
인터페이스,br
인터페이스,ovn-k8s-mp
인터페이스와 같은 가상 네트워크 인터페이스에 대한 지표를 보고합니다. 이번 업데이트를 통해 이러한 가상 인터페이스 지표가 더 이상 수집되지 않아 모니터링 리소스 사용량이 줄어듭니다. (OCPBUGS-1321) - 이번 업데이트 이전에는 DNS 확인 속도가 느리고 Alertmanager Pod가 시작되지 않아 Alertmanager pod 시작 시간이 초과될 수 있습니다. 이번 릴리스에서는 시간 초과 값이 7분으로 증가하여 Pod 시작 시간이 초과되지 않습니다. (BZ#2083226)
-
이번 업데이트 이전에는 Prometheus Operator가 Prometheus Pod를 실행하거나 예약하지 못한 경우 시스템에서 오류에 대한 근본적인 이유를 제공하지 않았습니다. 이번 업데이트를 통해 Prometheus Pod가 실행되거나 예약되지 않는 경우 Cluster Monitoring Operator는 기본 문제를 해결하는 데 사용할 수 있는 오류로
clusterOperator
모니터링 상태를 업데이트합니다. (BZ#2043518) - 이번 업데이트 이전에는 OpenShift Container Platform 웹 콘솔의 개발자 관점에서 경고 음소거를 생성한 경우 경고와 일치하지 않는 외부 라벨이 포함되었습니다. 따라서 경고는 음소거되지 않았습니다. 이번 업데이트를 통해 이제 개발자 화면에서 음소거를 생성할 때 외부 레이블이 제외되어 새로 생성된 음소거가 예상대로 작동합니다. (BZ#2084504)
- 이전 버전에서는 사용자 정의 프로젝트 전용 Alertmanager 인스턴스를 활성화하면 특정 상황에서 잘못된 구성이 발생할 수 있으며 사용자 정의 프로젝트 Alertmanager 구성 맵 설정이 기본 Alertmanager 인스턴스 또는 사용자 정의 프로젝트 전용 인스턴스에 로드되지 않았음을 알 수 없었습니다. 이번 릴리스에서는 이 잘못된 구성이 발생하면 Cluster Monitoring Operator에 문제를 알리고 해결 단계를 제공하는 메시지가 표시됩니다. (BZ#2099939)
- 이번 업데이트 이전에는 CMO(Cluster Monitoring Operator)가 Prometheus를 업데이트하지 못한 경우 CMO에서 이전 배포가 실행 중인지 여부를 확인하지 않고 Prometheus Pod 중 하나가 여전히 실행 중인 경우에도 클러스터 모니터링을 사용할 수 없다고 보고했습니다. 이번 업데이트를 통해 이제 CMO에서 이 상황에서 Prometheus Pod가 실행 중인지 확인하고 Prometheus Pod가 실행되지 않는 경우에만 클러스터 모니터링을 사용할 수 없다고 보고합니다. (BZ#2039411)
-
이번 업데이트 이전에는 OpsGenie를 경고 수신자로 구성한 경우
api_key
및api_key_file
이 상호 배타적이며api_key
가 우선합니다.api_key_file
이 정의되지 않은 경우에도 이 경고가 표시됩니다. 이번 업데이트를 통해api_key
및api_key_file
을 둘 다 정의한 경우에만 이 경고가 로그에 표시됩니다. (BZ#2093892) - 이 업데이트 이전에는 Telemeter Client(ECDHE)에서 수동으로 다시 시작할 때만 새 풀 시크릿을 로드했습니다. 따라서 풀 시크릿이 변경되거나 업데이트되고 TC가 다시 시작되지 않은 경우 TC는 서버에 인증하지 못했습니다. 이번 업데이트에서는 보안이 순환될 때 배포가 자동으로 다시 시작되고 업데이트된 토큰을 사용하여 인증할 수 있도록 이 문제가 해결되었습니다. (BZ#2114721)
네트워킹
-
이전 버전에서는 종료 상태에 있는 라우터가 Pod가 종료될 때까지
oc adm must-gather
명령을 지연하는oc cp
명령을 지연했습니다. 이번 업데이트를 통해 발행된 각oc cp
명령의 타임아웃이must-gather
명령이 실행되지 않도록 설정됩니다. 결과적으로 Pod를 종료하면 더 이상must-gather
명령을 지연하지 않습니다. (BZ#2103283) -
이전 버전에서는
Private
끝점 게시 전략 유형 및 PROXY 프로토콜을 둘 다 사용하여 Ingress 컨트롤러를 구성할 수 없었습니다. 이번 업데이트를 통해 이제프라이빗
끝점 게시 전략 유형과 PROXY 프로토콜을 모두 사용하여 Ingress 컨트롤러를 구성할 수 있습니다. (BZ#2104481) -
이전에는
routeSelector
매개변수에서 라우터 배포 전에 Ingress 컨트롤러의 경로 상태를 삭제했습니다. 이로 인해 경로 상태가 잘못 입력되었습니다. 오래된 데이터를 사용하지 않도록 경로 상태 탐지가 더 이상 Kubernetes 오브젝트 캐시를 사용하지 않도록 업데이트되었습니다. 또한 이 업데이트에서는 경로 상태를 확인하기 위해 경로 배포에서 생성 ID를 확인하는 수정 사항이 포함되어 있습니다. 결과적으로routeSelector
업데이트를 통해 경로 상태가 일관되게 지워집니다. (BZ#2101878) -
이전 버전에서는 4.8 이전 버전의 OpenShift Container Platform에서 업그레이드된 클러스터는
Route
오브젝트를 분리할 수 있었습니다. 이는 Ingress 오브젝트가 표시된 Ingress 개체의 표시된Ingress
ClassIngress
오브젝트를Route
오브젝트로 변환하는 이전 버전의 OpenShift Container Platform으로 인해 발생했습니다. 이번 업데이트를 통해 Ingress-to-Route 변환 후에도 클러스터에 계속 존재하는 고립된 Route 오브젝트에 대한 경고가 클러스터 관리자에게 전송됩니다. 이번 업데이트에서는IngressClass
를 지정하지 않는 Ingress 오브젝트에 대해 클러스터 관리자에게 알리는 또 다른 경고가 추가되었습니다. (BZ#1962502) -
이전 버전에서는 라우터 배포에 종속된
configmap
이 생성되지 않으면 라우터 배포가 진행되지 않습니다. 이번 업데이트를 통해 기본 Ingress 컨트롤러 배포가 진행 중인 경우 클러스터 Operator에서ingress progressing=true
를 보고합니다. 이로 인해oc get co
명령을 사용하여 Ingress 컨트롤러에서 문제를 디버깅할 수 있습니다. (BZ#2066560) -
이전 버전에서는 OVN-Kubernetes 캐시에 잘못 생성된 네트워크 정책이 추가되면 OVN-Kubernetes 리더가
crashloopbackoff
상태에 진입했습니다. 이번 업데이트를 통해 OVN-Kubernetes 리더는 nil 정책 삭제를 생략하여crashloopbackoff
상태를 입력하지 않습니다. (BZ#2091238) - 이전 버전에서는 동일한 네임스페이스 또는 이름으로 이전 네임스페이스 또는 이름을 삭제한 후 60초 이내에 동일한 네임스페이스 또는 이름으로 EgressIP Pod를 다시 생성하면 잘못된 SNAT가 구성됩니다. 결과적으로 패킷이 EgressIP SNAT 대신 nodeIP로 표시될 수 있었습니다. 이번 업데이트를 통해 트래픽은 nodeIP 대신 EgressIP를 사용하여 Pod를 유지합니다. (BZ#2097243).
-
이전에는
arp
에서arp
로 ACL의 변경으로 인해예기치 않게 생성된 ACL (arp v/s arp||nd)
오류를 가진 이전 ACL (ACL) 오류가 발생했습니다.이로 인해 네트워크 정책이 제대로 생성되지 않았습니다. 이번 업데이트를 통해 새로운
arp
II ndovnkube-master
에서 오류가 발생하지 않도록 합니다. 참고: 이는 고객은 이전 버전에서 4.8.14, 4.9.32, 4.10.13 이상으로 업그레이드합니다. (BZ#2095852). - 이번 업데이트를 통해 CoreDNS가 Kubernetes 1.25를 기반으로 하는 버전 1.10.0으로 업데이트되었습니다. 이렇게 하면 쿠버네티스 1.25를 기반으로 하는 CoreDNS 버전과 OpenShift Container Platform 4.12가 모두 서로 일치합니다. (OCPBUGS-1731)
-
이번 업데이트를 통해 OpenShift Container Platform 라우터는 이제 Kubernetes 1.25를 지원하는
k8s.io/client-go
버전 1.25.2를 사용합니다. 이렇게 하면 쿠버네티스 1.25를 기반으로 하는openshift-router
및 OpenShift Container Platform 4.12가 모두 서로 일치합니다. (OCPBUGS-1730) -
이번 업데이트를 통해 Ingress Operator는 이제 Kubernetes 1.25를 지원하는
k8s.io/client-go
버전 1.25.2를 사용합니다. 이렇게 하면 Kubernetes 1.25를 기반으로 하는 Ingress Operator와 OpenShift Container Platform 4.12가 모두 서로 일치합니다. (OCPBUGS-1554) -
이전에는 DNS Operator에서
openshift-dns
네임스페이스를 조정하지 않았습니다. OpenShift Container Platform 4.12에는openshift-dns
네임스페이스에 pod-security 라벨이 필요하므로 클러스터 업데이트 시 네임스페이스가 해당 라벨이 누락되었습니다. pod-security 레이블이 없으면 Pod를 시작하지 못했습니다. 이번 업데이트를 통해 DNS Operator가openshift-dns
네임스페이스를 조정하며 pod-security 라벨이 표시됩니다. 결과적으로 Pod가 예상대로 시작됩니다. (OCPBUGS-1549) -
이전 버전에서는 Ingress Operator가 내부적으로 지정된 값을 밀리초로 변환하기 때문에
ingresscontroller.spec.tuniningOptions.reloadInterval
에서 10진수 숫자를 유효한 매개변수 값으로 지원하지 않았습니다. 이로 인해 Ingress 컨트롤러가 삭제되지 않았습니다. 이번 업데이트를 통해ingresscontroller.spec.tuningOptions.reloadInterval
이 10진수 지원되고 사용자가 이전에 지원되지 않는reloadInterval
매개변수 값을 사용하여 Ingress 컨트롤러를 삭제할 수 있습니다. (OCPBUGS-236) - 이전에는 Cluster DNS Operator에서 OpenShift Container Platform 4.12가 Kubernetes 1.25를 기반으로 하는 동안 Kubernetes 1.24를 기반으로 하는 GO Kubernetes 라이브러리를 사용했습니다. 이번 업데이트를 통해 GO Kubernetes API는 v1.25.2로, Kubernetes 1.25 API를 사용하는 OpenShift Container Platform 4.12와 Cluster DNS Operator를 정렬합니다. (링크: OCPBUGS-1558)
-
이전 버전에서는
network-operator
pod를 다시 생성할 때disableNetworkDiagnostics
구성을true
로 설정하지 않았습니다. 이번 업데이트를 통해 네트워크 Operator를 다시 시작한 후 network'operator.openshift.io/cluster의disableNetworkDiagnostics
구성 속성이 더 이상 기본값으로 재설정되지 않습니다. (OCPBUGS-392) -
이전에는
ovn-kubernetes
가br-ex
브릿지에서 본딩된 인터페이스의 올바른 MAC 주소를 구성하지 않았습니다. 결과적으로 기본 Kubernetes 인터페이스에 본딩을 사용하는 노드가 클러스터에 참여하지 못합니다. 이번 업데이트를 통해ovn-kubernetes
는br-ex
브리지에서 본딩된 인터페이스의 올바른 MAC 주소를 구성하고 기본 Kubernetes 인터페이스에 본딩을 사용하는 노드가 클러스터에 성공적으로 참여하도록 설정합니다. (BZ2096413) -
이전 버전에서는 Ingress Operator가 mTLS 사용을 활성화하도록 구성된 경우 Operator는 CRLs가 다른 이벤트로 인해 조정될 때까지 업데이트가 필요한지 확인하지 않았습니다. 결과적으로 mTLS에 사용되는 CRL이 최신 상태가 될 수 있었습니다. 이번 업데이트를 통해 CRL이 만료될 때 Ingress Operator가 자동으로 조정되고 CRL은
nextUpdate
필드로 지정된 시간에 업데이트됩니다. (BZ#2117524)
노드
- 이전에는 symlinks 오류 메시지가 오류로 포맷되지 않고 원시 데이터로 출력되어 이해하기 어려웠습니다. 이번 수정에서는 오류 메시지를 올바르게 포맷하여 쉽게 이해할 수 있도록 합니다. (BZ#1977660)
- 이전에는 성능 프로필이 노드에 적용되면 kubelet 하드 제거 임계 값이 Kubernetes 기본값과 달랐습니다. 이번 릴리스에서는 예상되는 Kubernetes 기본값과 일치하도록 기본값이 업데이트되었습니다. (OCPBUGS-4362).
OpenShift CLI(oc)
-
OpenShift Container Platform 4.12 릴리스에서는 대상 네임스페이스에 적절한 보안 수준이 없는 경우 대상 노드에서 디버그 세션을 입력하는 데 문제가 해결되었습니다. 이로 인해
oc
CLI에서 Pod 보안 오류 메시지가 표시되었습니다. 기존 네임스페이스에 적절한 보안 수준이 포함되어 있지 않은 경우 OpenShift Container Platform은 대상 노드에서oc
debug 모드를 입력할 때 임시 네임스페이스를 생성합니다. (OCPBUGS-852) -
이전에는 macOS equipment64 아키텍처에서
oc
바이너리를 수동으로 서명해야 했습니다. 그 결과oc
바이너리가 예상대로 작동하지 않았습니다. 이번 업데이트에서는oc
mimicking에 대한 자체 서명 바이너리를 구현합니다. 결과적으로 macOS ARM64 아키텍처의oc
바이너리가 제대로 작동합니다. (BZ#2059125) -
이전에는
must-gather
가 서버에 없는 리소스를 수집하려고 했습니다. 결과적으로must-gather
는 오류 메시지를 출력합니다. 이제 리소스를 수집하기 전에must-gather
는 리소스가 존재하는지 확인합니다. 결과적으로must-gather
는 서버에 존재하지 않는 리소스를 수집하지 못하면 더 이상 오류를 출력하지 않습니다. (BZ#2095708) -
OpenShift Container Platform 4.12 릴리스에서는 라이브러리가 다중 아키텍처 플랫폼 이미지를 지원하도록
oc-mirror
라이브러리를 업데이트합니다. 즉, 플랫폼 릴리스 페이로드를 미러링할 때ARM64
와 같은 다양한 아키텍처 중에서 선택할 수 있습니다. (OCPBUGS-617)
OLM(Operator Lifecycle Manager)
-
OpenShift Container Platform 4.12가 릴리스되기 전에
package-server
-manager에 대한
변경 사항을 되돌리지 않았습니다. 이러한 영구 변경 사항은 Operator가 클러스터에서 시작되는 방법에 영향을 줄 수 있습니다. OpenShift Container Platform 4.12의 경우package-server
-manageron-cluster
함수는 더 이상패키지-서버
CSV의 상태를 제어하지 않습니다. (OCPBUGS-867) - 이전 버전에서는 OLM(Operator Lifecycle Manager)에서 네임스페이스에 라벨이 있는 경우에도 레이블을 적용하도록 네임스페이스를 업데이트했습니다. 그 결과 업데이트 요청이 API 및 etcd 서비스의 워크로드가 증가했습니다. 이번 업데이트를 통해 OLM은 업데이트를 실행하기 전에 기존 라벨을 네임스페이스의 예상 라벨과 비교합니다. 결과적으로 OLM은 더 이상 네임스페이스에서 불필요한 업데이트 요청을 시도하지 않습니다. (BZ#2105045)
-
이전 버전에서는 OLM(Operator Lifecycle Manager)에서
ClusterVersion
사용자 정의 리소스의spec.DesiredVersion
필드의 잘못 계산에 따라 차단되지 않아야 하는 마이너 클러스터 업그레이드를 방지했습니다. 이번 업데이트를 통해 OLM에서 업그레이드를 지원해야 할 때 클러스터 업그레이드를 중단하지 않습니다. (BZ#2097557) - 이전에는 조정기에서 리소스를 복사하지 않고 리소스의 주석을 업데이트했습니다. 이로 인해 조정 프로그램 프로세스가 종료되는 오류가 발생했습니다. 이번 업데이트를 통해 오류로 인해 더 이상 조정기가 중지되지 않습니다. (BZ#2105045)
-
package-server-manifest
(PSM)는 올바른package-server
CSV(Cluster Service Version)가 클러스터에 설치되어 있는지 확인하는 컨트롤러입니다. 이전 버전에서는 on-cluster 오브젝트가 예상 오브젝트에 영향을 줄 수 있는 조정 함수의 논리 오류로 인해package-server
CSV에 대한 변경 사항이 반환되지 않았습니다. 사용자가package-server
CSV를 수정할 수 있으며 변경 사항을 되돌릴 수 없습니다. 또한 클러스터 업그레이드는package-server
CSV의 YAML을 업데이트하지 않았습니다. 이번 업데이트를 통해 이제 예상 버전의 CSV가 항상 처음부터 빌드되어 on-cluster 오브젝트가 예상 값에 영향을 줄 수 있는 기능을 제거합니다. 결과적으로 PSM은 이제package-server
CSV를 수정하려는 시도를 되돌리고 클러스터 업그레이드는 이제 예상package-server
CSV를 배포합니다. (OCPBUGS-858) - 이전에는 OLM에서 Operator의 CRD 상태에 따라 Operator를 업그레이드했습니다. CRD는 GVK(그룹/버전/종류) 식별자에 정의된 순서로 구성 요소 참조를 나열합니다. 동일한 구성 요소를 공유하는 Operator로 인해 GVK가 Operator의 구성 요소 목록을 변경할 수 있으며 이로 인해 OLM에서 CRD의 상태를 지속적으로 업데이트해야 할 수 있습니다. 이번 업데이트를 통해 OLM(Operator Lifecycle Manager)은 Operator의 구성 요소 참조에 따라 Operator를 업그레이드합니다. Operator의 CRD(사용자 정의 리소스 정의) 상태 변경으로 인해 OLM Operator 업그레이드 프로세스에는 영향을 미치지 않습니다. (OCPBUGS-3795)
Operator SDK
-
이번 업데이트를 통해 Pod 사양에
securityContext
구성 필드를 포함하여 레지스트리 Pod의 보안 컨텍스트를 설정할 수 있습니다. 이는 Pod의 모든 컨테이너에 대한 보안 컨텍스트를 적용합니다.securityContext
필드는 Pod의 권한도 정의합니다. (BZ#2091864)
File Integrity Operator
-
이전에는 File Integrity Operator가 Operator에 대한 권한에
openshift-file-integrity
네임스페이스를 사용하여 템플릿을 배포했습니다. Operator가 네임스페이스에서 오브젝트를 생성하려고 하면 권한 문제로 인해 실패했습니다. 이번 릴리스에서는 OLM에서 사용하는 배포 리소스가 올바른 네임스페이스를 사용하도록 업데이트되어 사용자가 기본이 아닌 네임스페이스에서 Operator를 설치하고 사용할 수 있도록 권한 문제를 해결합니다. (BZ#2104897) - 이전 버전에서는 File Integrity Operator의 기본 종속 항목은 경고 및 알림 처리 방법을 변경했으며 Operator에서 메트릭을 전송하지 않았습니다. 이번 릴리스에서는 Operator에서 메트릭 끝점이 올바르며 시작 시 연결할 수 있습니다. (BZ#2115821)
- 이전에는 File Integrity Operator에서 발행한 경고가 네임스페이스를 설정하지 않았습니다. 이로 인해 경고가 어디에서 발생했는지 또는 이를 발행해야 하는 구성 요소를 이해하기 어려웠습니다. 이번 릴리스에서는 Operator에 경고에 설치된 네임스페이스가 포함되어 있어 주의가 필요한 구성 요소를 더 쉽게 축소할 수 있습니다. (BZ#2101393)
- 이전에는 File Integrity Operator에서 업그레이드 중 경고 수정 경고를 올바르게 처리하지 못했습니다. 이로 인해 Operator가 설치된 네임스페이스가 경고에 포함되지 않았습니다. 이번 릴리스에서는 Operator에 경고에 설치된 네임스페이스가 포함되어 있어 주의가 필요한 구성 요소를 더 쉽게 축소할 수 있습니다. (BZ#2112394)
- 이전 버전에서는 기본 OLM 업데이트로 인해 File Integrity Operator의 서비스 계정 소유권이 중단되고 0.1.24에서 0.1.29로의 업데이트가 손상되었습니다. 이번 업데이트를 통해 Operator는 기본적으로 0.1.30으로 업그레이드됩니다. (BZ#2109153)
-
이전에는 File Integrity Operator 데몬이 최근 권한 변경에 대해
Roles
매개변수 대신ClusterRoles
매개변수를 사용했습니다. 이로 인해 OLM에서 Operator를 업데이트할 수 없었습니다. 이번 릴리스에서는 Operator 데몬이Roles
매개변수를 사용하여 되돌아가고 이전 버전에서 버전 0.1.29로의 업데이트가 성공한 것입니다. (BZ#2108475)
Compliance Operator
- 이전 버전에서는 Compliance Operator에서 Operator 빌드에 종속된 Operator SDK의 이전 버전을 사용했습니다. 이로 인해 Operator SDK에서 사용하는 더 이상 사용되지 않는 Kubernetes 기능에 대한 경고가 발생했습니다. 이번 릴리스에서는 Compliance Operator가 업데이트된 버전의 Operator SDK가 포함된 버전 0.1.55로 업데이트되었습니다. (BZ#2098581)
-
이전 버전에서는
rhcos4-high-master-sysctl-kernel-kernel-ptrace-scope
및rhcos4-sysctl-kernel-core-pattern
규칙에 대한 자동 수정을 적용하면 수정되어도 검사 결과에 해당 규칙이 후속 오류가 발생했습니다. 이번 릴리스에서는 이 문제가 해결되었습니다. (BZ#2094382) - 이전에는 Compliance Operator에서 default 네임스페이스에 대한 하드 코딩된 알림을 사용했습니다. 결과적으로 Operator가 다른 네임스페이스에 설치된 경우 Operator의 알림이 표시되지 않았습니다. 이 문제는 이번 릴리스에서 해결되었습니다. (BZ#2060726)
-
이전에는 Ignition 사양 없이 머신 구성을 구문 분석할 때 Compliance Operator에서 API 리소스를 가져오지 못했습니다. 이로 인해
api-check-pods
검사가 크래시 루프가 발생했습니다. 이번 릴리스에서는 Ignition 사양 없이 머신 구성 풀을 정상적으로 처리하도록 Compliance Operator가 업데이트되었습니다. (BZ#2117268) - 이전에는 Compliance Operator에서 머신 구성과 kubelet 구성 간의 관계를 확인할 수 없어 머신 구성을 고정 상태로 유지했습니다. 이는 머신 구성 이름에 대한 잘못된 가정 때문입니다. 이번 릴리스에서는 Compliance Operator에서 kubelet 구성이 머신 구성의 서브 세트인지 확인할 수 있습니다. (BZ#2102511)
OpenShift API 서버
- 이전에는 멤버를 추가하면 그룹에서 이전 멤버가 제거될 수 있었습니다. 결과적으로 사용자는 그룹 권한을 손실했습니다. 이번 릴리스에서는 종속성이 충돌했으며 사용자는 더 이상 그룹 권한을 손실하지 않습니다. (OCPBUGS-533)
RHCOS(Red Hat Enterprise Linux CoreOS)
- 이전에는 Podman 4.0으로 업데이트하면 사용자가 RHCOS에서 toolbox 컨테이너가 있는 사용자 지정 이미지를 사용할 수 없었습니다. 이번 수정에서는 toolbox 라이브러리 코드를 업데이트하여 새로운 Podman 동작을 고려하여 사용자가 RHCOS에서 toolbox를 예상대로 사용하여 사용자 지정 이미지를 사용할 수 있습니다. (BZ#2048789)
-
이전에는
podman exec
명령이 중첩된 컨테이너에서 제대로 작동하지 않았습니다.oc debug
명령을 사용하여 노드에 액세스한 다음toolbox
명령으로 컨테이너를 실행할 때 이 문제가 발생했습니다. 이로 인해 사용자가 RHCOS에서 toolbox를 재사용할 수 없었습니다. 이번 수정에서는 이 동작을 설명하도록 toolbox 라이브러리 코드가 업데이트되어 사용자가 RHCOS에서 toolboxes를 재사용할 수 있습니다. (BZ#1915537) -
이번 업데이트를 통해
toolbox
명령을 실행하면 컨테이너를 시작하기 전에 기본 이미지에 대한 업데이트가 있는지 확인합니다. 이렇게 하면 보안이 향상되고 사용자에게 최신 버그 수정이 제공됩니다. (BZ#2049591) -
이전에는 Podman 4.0으로 업데이트하면 사용자가 RHCOS에서
toolbox
명령을 실행할 수 없었습니다. 이번 수정에서는 toolbox 라이브러리 코드가 업데이트되어 새로운 Podman 동작을 고려하여 사용자가 예상대로 RHCOS에서toolbox
를 실행할 수 있습니다. (BZ#2093040) -
이전에는 사용자 지정 SELinux 정책 모듈이
rpm-ostree
에서 올바르게 지원되지 않아 업데이트 시 나머지 시스템과 함께 업데이트되지 않았습니다. 이는 관련이 없는 구성 요소에서 실패로 나타날 수 있습니다. 향후 OpenShift Container Platform 릴리스에서 보류 중인 SELinux 사용자 공간 개선 사항에서는 RHCOS에 대한 해결 방법을 제공하여 필요에 따라 SELinux 정책을 다시 빌드하고 다시 로드합니다. (OCPBUGS-595)
확장 및 성능
-
tuned 프로필은 최근 RHEL(Red Hat Enterprise Linux) 커널 패치에 추가된 새로 도입된 CPU당
ktimers
(ktimers)에ksoftirqd
및rcuc
와 동일한 우선순위를 할당하도록 수정되었습니다. 자세한 내용은 OCPBUGS-3475, BZ#2117780 및 BZ#2122220 에서 참조하십시오. -
이전에는
tuned
서비스를 다시 시작하면irqbalance
구성이 잘못 재설정되어 IRQ 작업이 분리된 CPU에서 다시 제공되어 격리 보장이 발생합니다. 이번 수정을 통해tuned
서비스가 재시작될 때마다irqbalance
서비스 구성이 올바르게 보존되므로(충돌 또는 버그로 인해 발생할 수 있음) IRQ 서비스와 관련하여 CPU 격리 보장을 유지합니다. (OCPBUGS-585) -
이전 버전에서는 클러스터 Node Tuning Operator의 일부로 tuned 데몬이 순서대로 다시 시작되면 인터럽트 처리기의 CPU 선호도가 재설정되어 튜닝이 손상되었습니다. 이번 수정으로 tuned의
irqbalance
플러그인이 비활성화되고 OpenShift Container Platform은CRI-O
와irqbalance
.(BZ#2105123)간의 논리와 상호 작용을 사용합니다. -
이전에는 노드가 로드될 때 모든 새
veth
장치에 대해 대기 시간이 짧은 후크 스크립트가 너무 오래 걸렸습니다. Pod 시작 이벤트 중 결과 누적 지연으로 인해kube-apiserver
가 느리고 5분 롤아웃 타임아웃을 초과하는 롤아웃 시간이 발생했습니다. 이번 수정을 통해 컨테이너 시작 시간이 짧고 5분 임계값 내에 있어야 합니다. (BZ#2109965). -
이전에는
oslat
제어 스레드가 테스트 스레드 중 하나와 함께 배치되어 측정에서 대기 시간이 급증했습니다. 이번 수정으로oslat
실행기에서 컨트롤 스레드에 대해 하나의 CPU를 예약합니다. 즉, 테스트에서 사용 중인 스레드를 실행하는 데 더 적은 CPU를 사용합니다. (BZ#2051443) -
대기 시간 측정 툴(
oslat
,cyclictest
, cyclictest ,hwlatdetect
)으로 알려진 대기 시간 측정 툴은 이제 백그라운드에서 실행되어 대기 시간이 급증할 수 있는 보다 정확한 대기 시간 측정을 수행할 수 있는 도우미 프로세스 없이 완전히 분리된 CPU에서 실행됩니다. (OCPBUGS-2618) -
이전에는
group-du-sno-ranGen.yaml
에 대한PolicyGenTemplate
에 두 개의StorageClass
항목이 포함되어 있지만 생성된 정책에는 하나만 포함되었습니다. 이번 업데이트를 통해 생성된 정책에 두 정책이 모두 포함됩니다. (BZ#2049306).
스토리지
- 이전에는 일반 임시 볼륨에 대한 검사에 실패했습니다. 이번 업데이트를 통해 확장 가능한 볼륨에 대한 검사에 일반 임시 볼륨이 포함됩니다. (BZ#2082773)
- 이전에는 vSphere에 둘 이상의 보안이 있는 경우 vSphere CSI Operator에서 무작위로 시크릿을 선택하여 Operator가 재시작되는 경우가 있었습니다. 이번 업데이트를 통해 vCenter CSI Operator에 두 개 이상의 시크릿이 있는 경우 경고가 표시됩니다. (BZ#2108473)
-
이전 버전에서는 CSI(Container Storage Interface) 드라이버가 노드에서 볼륨을 마운트 해제할 수 없는 경우 OpenShift Container Platform에서 볼륨을 분리했습니다. CSI 사양에서는 마운트 해제 없이 볼륨을 분리할 수 없으며 드라이버는
문서화되지 않은
상태가 될 수 있습니다. 이번 업데이트를 통해 비정상 노드에서만 마운트 해제하기 전에 CSI 드라이버가 분리되어문서화되지 않은
상태가 발생하지 않습니다. (BZ#2049306) - 이전 버전에서는 Manila CSI Driver Operator의 VolumeSnapshotClass에 주석이 누락되었습니다. 그 결과 Manila CSI 스냅샷터에서 시크릿을 찾을 수 없어 기본 VolumeSnapshotClass로 스냅샷을 생성할 수 없었습니다. 이번 업데이트에서는 보안 이름과 네임스페이스가 기본 VolumeSnapshotClass에 포함되도록 문제가 해결되었습니다. 결과적으로 사용자가 기본 VolumeSnapshotClass를 사용하여 Manila CSI Driver Operator에 스냅샷을 생성할 수 있습니다. (BZ#2057637)
이제 사용자는 Azure File에서 실험적인 VHD 기능을 사용할 수 있습니다. 사용자는 스토리지 클래스에
fstype
매개변수를 지정하고--enable-vhd=true
로 활성화해야 합니다.fstype
을 사용하고 기능이true
로 설정되지 않은 경우 볼륨을 프로비저닝하지 못합니다.VHD 기능을 사용하지 않으려면 스토리지 클래스에서
fstype
매개변수를 제거하십시오. (BZ#2080449)- 이전에는 vSphere에 둘 이상의 보안이 있는 경우 vSphere CSI Operator에서 무작위로 시크릿을 선택하여 Operator가 재시작되는 경우가 있었습니다. 이번 업데이트를 통해 vCenter CSI Operator에 두 개 이상의 시크릿이 있는 경우 경고가 표시됩니다. (BZ#2108473)
웹 콘솔 (개발자 화면)
-
이전에는 사용자가 추가 및 편집 양식에서 Git 시크릿을 선택 해제할 수 없었습니다. 그 결과 리소스를 다시 생성해야 했습니다. 이번 수정에서는 선택한 secret 옵션 목록에서
No Secret
을 선택하는 옵션을 추가하여 문제를 해결합니다. 결과적으로 사용자는 연결된 보안을 쉽게 선택, 선택 취소 또는 분리할 수 있습니다. (BZ#2089221) - OpenShift Container Platform 4.9에서는 개발자 관점에서 최소한의 데이터이거나 데이터가 없는 경우 대부분의 모니터링 차트 또는 그래프(CPU 사용량, 메모리 사용량 및 대역폭)에 -1~1의 범위가 표시됩니다. 그러나 이러한 값은 모두 제로 미만의 값이 될 수 없습니다. 이 문제는 향후 릴리스에서 해결될 예정입니다. (BZ#1904106)
-
이번 업데이트 이전에는 웹 콘솔에서
openshift-monitoring
네임스페이스의 플랫폼 Alertmanager 서비스로 요청을 전달했기 때문에 사용자 정의 Alertmanager 서비스가 배포되었을 때 OpenShift Container Platform 웹 콘솔의 개발자 관점에서 경고를 음소거할 수 없었습니다. 이번 업데이트를 통해 웹 콘솔에서 개발자 화면을 보고 경고를 음소거하려고 하면 요청이 올바른 Alertmanager 서비스로 전달됩니다. (OCPBUGS-1789) -
이전에는 프로젝트의 개발자 카탈로그를 확장하기 위해 Helm 차트 리포지토리 추가 양식에 알려진 문제가 있었습니다. 빠른 시작 가이드에서는 필요한 네임스페이스에
ProjectHelmChartRepository
CR을 추가할 수 있음을 보여줍니다. 반면 kubeadmin의 권한이 필요합니다. 이 문제는 빠른 시작에서ProjectHelmChartRepository
CR을 생성하는 올바른 단계를 언급하여 해결되었습니다. (BZ#2057306)
1.7. 기술 프리뷰 기능
이 릴리스의 일부 기능은 현재 기술 프리뷰 단계에 있습니다. 이러한 실험적 기능은 프로덕션용이 아닙니다. 해당 기능은 Red Hat Customer Portal의 지원 범위를 참조하십시오.
다음 표에서 기능은 다음 상태로 표시됩니다.
- 기술 프리뷰
- 정식 출시일 (GA)
- 사용할 수 없음
- 더 이상 사용되지 않음
네트워킹 기술 프리뷰 기능
표 1.13. 네트워킹 기술 프리뷰
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
경계 클럭으로 구성된 PTP 단일 NIC 하드웨어 | 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
PTP 듀얼 NIC 하드웨어가 경계 클럭으로 구성 | 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
경계 클럭이 있는 PTP 이벤트 | 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
보조 네트워크에 대한 Pod 수준 본딩 | 정식 출시일 (GA) | 정식 출시일 (GA) | |
외부 DNS Operator | 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
AWS Load Balancer Operator | 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
Ingress Node Firewall Operator | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
특정 IP 주소 풀을 사용하여 BGP 모드를 사용하여 MetalLB 서비스를 노드 서브 세트에서 알림 | 사용할 수 없음 | 기술 프리뷰 | 정식 출시일 (GA) |
특정 IP 주소 풀을 사용하여 노드 서브 세트에서 MetalLB 서비스를 L2 모드를 사용하여 알립니다. | 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
SR-IOV 네트워크에 대한 다중 네트워크 정책 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
인터페이스별 안전한 sysctl 목록 업데이트 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
MT2892 제품군 [ConnectX-6 Dx] SR-IOV 지원 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
MT2894 제품군 [ConnectX-6 Lx] SR-IOV 지원 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
MT42822 ConnectX-6 NIC 모드 SR-IOV 지원의 BlueField-2 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
Silicom STS Family SR-IOV 지원 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
MT2892 제품군 [ConnectX-6 Dx] OvS 하드웨어 오프로드 지원 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
MT2894 제품군 [ConnectX-6 Lx] OvS 하드웨어 오프로드 지원 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
MT42822 ConnectX-6 NIC 모드 OvS Hardware Offload 지원의 BlueField-2 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
Bluefield-2를 DPU에서 NIC로 전환 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
스토리지 기술 프리뷰 기능
표 1.14. 스토리지 기술 프리뷰
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
OpenShift 빌드에서 공유 리소스 CSI 드라이버 및 빌드 CSI 볼륨 빌드 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
CSI 볼륨 확장 | 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
CSI Azure File Driver Operator | 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
CSI Google Filestore Driver Operator | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
CSI 자동 마이그레이션 (Azure file, VMware vSphere) | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
CSI 자동 마이그레이션 (Azure Disk, OpenStack Cinder) | 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
CSI 자동 마이그레이션 (AWS EBS, GCP 디스크) | 기술 프리뷰 | 기술 프리뷰 | 정식 출시일 (GA) |
CSI 인라인 임시 볼륨 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
CSI 일반 임시 볼륨 | 사용할 수 없음 | 정식 출시일 (GA) | 정식 출시일 (GA) |
공유 리소스 CSI 드라이버 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
CSI Google Filestore Driver Operator | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
Local Storage Operator를 통한 자동 장치 검색 및 프로비저닝 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
설치 기술 프리뷰 기능
표 1.15. 설치 기술 프리뷰
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
kvc로 노드에 커널 모듈 추가 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
IBM Cloud VPC 클러스터 | 기술 프리뷰 | 기술 프리뷰 | 정식 출시일 (GA) |
선택 가능한 Cluster Inventory | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
다중 아키텍처 컴퓨팅 시스템 | 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
oc-mirror CLI 플러그인을 사용하여 연결 해제된 미러링 | 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
RHEL의 BuildConfig에 공유 인타이틀먼트 마운트 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
에이전트 기반 OpenShift Container Platform 설치 프로그램 | 사용할 수 없음 | 사용할 수 없음 | 정식 출시일 (GA) |
AWS Outposts 플랫폼 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
노드 기술 프리뷰 기능
표 1.16. 노드 기술 프리뷰 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
선점되지 않은 우선 순위 클래스 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
Node Health Check Operator | 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
Linux Control Group 버전 2 (cgroup v2) | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
crun 컨테이너 런타임 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
Multi-Architecture 기술 프리뷰 기능
표 1.17. Multi-Architecture 기술 프리뷰 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
| 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
| 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
| 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
| 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
IBM zSystems 및 LinuxONE에서 IBM Secure Execution | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
서버리스 기술 프리뷰 기능
표 1.18. 서버리스 기술 프리뷰
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
서버리스 기능 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
전문 하드웨어 및 드라이버 지원 기술 프리뷰 기능
표 1.19. 전문 하드웨어 및 드라이버 지원 기술 프리뷰 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
드라이버 툴킷 | 기술 프리뷰 | 기술 프리뷰 | 정식 출시일 (GA) |
SRO(Special Resource Operator) | 기술 프리뷰 | 기술 프리뷰 | 사용할 수 없음 |
Hub 및 spoke 클러스터 지원 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
웹 콘솔 기술 프리뷰 기능
표 1.20. 웹 콘솔 기술 프리뷰 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
다중 클러스터 콘솔 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
Dynamic Plugins | 기술 프리뷰 | 기술 프리뷰 | 정식 출시일 (GA) |
확장성 및 성능 기술 프리뷰 기능
표 1.21. 확장성 및 성능 기술 프리뷰 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
하이퍼 스레딩 인식 CPU 관리자 정책 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
Node Observability Operator | 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
construction-precaching-cli 툴 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
GitOps ZTP를 사용하여 Single-node OpenShift 클러스터에 작업자 노드 추가 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
토폴로지 Aware Lifecycle Manager (TALM) | 기술 프리뷰 | 기술 프리뷰 | 정식 출시일 (GA) |
마운트 네임스페이스 캡슐화 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
Operator 기술 프리뷰 기능
표 1.22. Operator 기술 프리뷰 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
Hybrid Helm Operator | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
Java 기반 Operator | 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
Node Observability Operator | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
Network Observability Operator | 사용할 수 없음 | 사용할 수 없음 | 정식 출시일 (GA) |
플랫폼 Operator | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
RukPak | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
cert-manager Operator | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
기술 프리뷰 기능 모니터링
표 1.23. 모니터링 기술 프리뷰 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
사용자 정의 프로젝트 모니터링에 대한 경고 라우팅 | 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
플랫폼 모니터링 메트릭을 기반으로 하는 경고 규칙 | 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
RHOSP(Red Hat OpenStack Platform) 기술 프리뷰 기능
표 1.24. RHOSP 기술 프리뷰
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
RHOSP DCN 지원 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
RHOSP에서 클러스터용 외부 클라우드 공급자 지원 | 기술 프리뷰 | 기술 프리뷰 | 정식 출시일 (GA) |
RHOSP에서 클러스터의 OVS 하드웨어 오프로드 | 기술 프리뷰 | 정식 출시일 (GA) | 정식 출시일 (GA) |
아키텍처 기술 프리뷰 기능
표 1.25. 아키텍처 기술 프리뷰 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
베어 메탈에서 OpenShift Container Platform의 호스트 컨트롤 플레인 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
AWS(Amazon Web Services)에서 OpenShift Container Platform의 호스트 컨트롤 플레인 | 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
머신 관리 기술 프리뷰 기능
표 1.26. 머신 관리 기술 프리뷰 추적기
기능 | 4.10 | 4.11 | 4.12 |
---|---|---|---|
클러스터 API를 사용하여 머신 관리 | 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
Cron 작업 시간대 | 사용할 수 없음 | 사용할 수 없음 | 기술 프리뷰 |
vGPU Cloud의 클라우드 컨트롤러 관리자 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
Amazon Web Services용 클라우드 컨트롤러 관리자 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
Google Cloud Platform용 클라우드 컨트롤러 관리자 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
Microsoft Azure용 클라우드 컨트롤러 관리자 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
RHOSP(Red Hat OpenStack Platform)의 클라우드 컨트롤러 관리자 | 기술 프리뷰 | 기술 프리뷰 | 정식 출시일 (GA) |
VMware vSphere용 클라우드 컨트롤러 관리자 | 기술 프리뷰 | 기술 프리뷰 | 기술 프리뷰 |
Custom Metrics Autoscaler Operator | 사용할 수 없음 | 기술 프리뷰 | 기술 프리뷰 |
1.8. 확인된 문제
OpenShift Container Platform 4.1에서는 익명 사용자가 검색 엔드 포인트에 액세스할 수 있었습니다. 이후 릴리스에서는 일부 검색 끝점이 통합된 API 서버로 전달되기 때문에 보안 악용에 대한 가능성을 줄이기 위해 이 액세스를 취소했습니다. 그러나 인증되지 않은 액세스는 기존 사용 사례가 손상되지 않도록 업그레이드된 클러스터에 보존됩니다.
OpenShift Container Platform 4.1에서 4.12로 업그레이드된 클러스터의 클러스터 관리자인 경우 인증되지 않은 액세스를 취소하거나 계속 허용할 수 있습니다. 인증되지 않은 액세스가 필요하지 않은 경우 해당 액세스를 취소해야 합니다. 인증되지 않은 액세스를 계속 허용하는 경우 이에 따라 보안 위험이 증가될 수 있다는 점에 유의하십시오.
주의인증되지 않은 액세스에 의존하는 애플리케이션이있는 경우 인증되지 않은 액세스를 취소하면 HTTP
403
오류가 발생할 수 있습니다.다음 스크립트를 사용하여 감지 끝점에 대한 인증되지 않은 액세스를 취소하십시오.
## Snippet to remove unauthenticated group from all the cluster role bindings $ for clusterrolebinding in cluster-status-binding discovery system:basic-user system:discovery system:openshift:discovery ; do ### Find the index of unauthenticated group in list of subjects index=$(oc get clusterrolebinding ${clusterrolebinding} -o json | jq 'select(.subjects!=null) | .subjects | map(.name=="system:unauthenticated") | index(true)'); ### Remove the element at index from subjects array oc patch clusterrolebinding ${clusterrolebinding} --type=json --patch "[{'op': 'remove','path': '/subjects/$index'}]"; done
이 스크립트는 인증되지 않은 주제를 다음 클러스터 역할 바인딩에서 제거합니다.
-
cluster-status-binding
-
discovery
-
system:basic-user
-
system:discovery
-
system:openshift:discovery
-
일부 작업자 머신이 시작되지 않기 때문에 IBM Cloud VPC 클러스터가 간헐적으로 설치되지 않을 수 있습니다. 대신 이러한 작업자 시스템은
프로비저닝
된 단계에 남아 있습니다.이 문제에 대한 해결방법이 있습니다. 초기 설치를 수행한 호스트에서 오류가 발생한 시스템을 삭제하고 설치 프로그램을 다시 실행합니다.
마스터 API 서버의 내부 애플리케이션 로드 밸런서(ALB) 상태가
활성화되어
있는지 확인합니다.다음 명령을 실행하여 클러스터의 인프라 ID를 확인합니다.
$ oc get infrastructure/cluster -ojson | jq -r '.status.infrastructureName'
- 클러스터의 IBM Cloud 계정에 로그인하고 클러스터에 대한 올바른 리전을 대상으로 합니다.
다음 명령을 실행하여 내부 ALB 상태가
활성
상태인지 확인합니다.$ ibmcloud is lb <cluster_ID>-kubernetes-api-private --output json | jq -r '.provisioning_status'
다음 명령을 실행하여
프로비저닝
단계에 있는 시스템을 확인합니다.$ oc get machine -n openshift-machine-api
출력 예
NAME PHASE TYPE REGION ZONE AGE example-public-1-x4gpn-master-0 Running bx2-4x16 us-east us-east-1 23h example-public-1-x4gpn-master-1 Running bx2-4x16 us-east us-east-2 23h example-public-1-x4gpn-master-2 Running bx2-4x16 us-east us-east-3 23h example-public-1-x4gpn-worker-1-xqzzm Running bx2-4x16 us-east us-east-1 22h example-public-1-x4gpn-worker-2-vg9w6 Provisioned bx2-4x16 us-east us-east-2 22h example-public-1-x4gpn-worker-3-2f7zd Provisioned bx2-4x16 us-east us-east-3 22h
다음 명령을 실행하여 실패한 각 머신을 삭제합니다.
$ oc delete machine <name_of_machine> -n openshift-machine-api
- 삭제된 작업자 시스템이 교체될 때까지 기다립니다. 이 작업에는 최대 10분이 걸릴 수 있습니다.
다음 명령을 실행하여 새 작업자 시스템이
Running
단계에 있는지 확인합니다.$ oc get machine -n openshift-machine-api
출력 예
NAME PHASE TYPE REGION ZONE AGE example-public-1-x4gpn-master-0 Running bx2-4x16 us-east us-east-1 23h example-public-1-x4gpn-master-1 Running bx2-4x16 us-east us-east-2 23h example-public-1-x4gpn-master-2 Running bx2-4x16 us-east us-east-3 23h example-public-1-x4gpn-worker-1-xqzzm Running bx2-4x16 us-east us-east-1 23h example-public-1-x4gpn-worker-2-mnlsz Running bx2-4x16 us-east us-east-2 8m2s example-public-1-x4gpn-worker-3-7nz4q Running bx2-4x16 us-east us-east-3 7m24s
다음 명령을 실행하여 설치를 완료합니다. 설치 프로그램을 다시 실행하면 클러스터의
kubeconfig
가 올바르게 초기화됩니다.$ ./openshift-install wait-for install-complete
-
명령이 주석 이름과 값 간의 구분 기호로 등호(
=
)를 포함하는 LDAP 그룹 이름에 대해oc annotate
명령은 작동하지 않습니다. 이 문제를 해결하려면oc patch
또는oc edit
를 사용하여 주석을 추가합니다. (BZ#1917280) -
일부 이미지 인덱스에 이전 이미지가 포함되므로
oc adm catalog mirror
및oc image mirror
를 실행하면 소스 이미지를 검색할 수 없습니다.error: unable to retrieve source image
. 임시 해결 방법으로--skip-missing
옵션을 사용하여 오류를 무시하고 이미지 인덱스를 계속 다운로드할 수 있습니다. 자세한 내용은 Service Mesh Operator 미러링 실패 에서 참조하십시오. - RHOSP의 OpenShift Container Platform에서 송신 IP 주소 기능을 사용하는 경우 부동 IP 주소를 예약 포트에 할당하여 송신 트래픽에 대해 예측 가능한 SNAT 주소를 보유할 수 있습니다. 유동 IP 주소 연결은 OpenShift Container Platform 클러스터를 설치한 동일한 사용자가 생성해야 합니다. 그렇지 않으면 충분하지 않은 권한으로 인해 송신 IP 주소에 대한 삭제 또는 이동 작업이 무기한 중지됩니다. 이 문제가 발생하면 충분한 권한이 있는 사용자가 문제를 해결하기 위해 유동 IP 주소 연결을 수동으로 설정 해제해야 합니다. (OCPBUGS-4902)
- Nutanix 설치에는 Prism Central 2022.x에서 4096비트 인증서를 사용하는 경우 설치에 실패하는 알려진 문제가 있습니다. 대신 2048비트 인증서를 사용합니다. (KCS)
-
BFD(Bidirectional forwarding detection) 프로필을 삭제하고 BGP(Border Gateway Protocol) 피어 리소스에 추가된
bfdProfile
을 제거하면 BFD가 비활성화되지 않습니다. 대신 BGP 피어는 기본 BFD 프로필 사용을 시작합니다. BGP 피어 리소스에서 BFD를 비활성화하려면 BGP 피어 구성을 삭제하고 BFD 프로필없이 다시 생성합니다. (BZ#2050824) - 해결되지 않은 메타데이터 API 문제로 인해 RHOSP 16.1에 베어 메탈 작업자를 사용하는 클러스터를 설치할 수 없습니다. RHOSP 16.2의 클러스터는 이 문제의 영향을 받지 않습니다. (BZ#2033953)
-
loadBalancerSourceRanges
속성은 지원되지 않으므로 RHOSP에서 실행되고 OVN Octavia 공급자를 사용하는 클러스터의 로드 밸런서 유형 서비스에서 무시됩니다. 이 문제에 대한 해결방법이 없습니다. (OCPBUGS-2789) 카탈로그 소스 업데이트 후 OLM에서 서브스크립션 상태를 업데이트하는 데 시간이 걸립니다. 이는 Topology Aware Lifecycle Manager(TALM)에서 수정이 필요한지 여부를 결정하는 경우 서브스크립션 정책의 상태가 계속 준수로 표시될 수 있습니다. 결과적으로 서브스크립션 정책에 지정된 Operator가 업그레이드되지 않습니다. 이 문제를 해결하려면 카탈로그 소스 정책의
spec
섹션에 다음과 같이status
필드를 포함합니다.metadata: name: redhat-operators-disconnected spec: displayName: disconnected-redhat-operators image: registry.example.com:5000/disconnected-redhat-operators/disconnected-redhat-operator-index:v4.11 status: connectionState: lastObservedState: READY
이렇게 하면 OLM에서 새 인덱스 이미지를 가져오고 Pod를 준비하도록 지연을 완화하여 카탈로그 소스 정책 업데이트 및 서브스크립션 상태 업데이트 사이의 시간을 줄입니다. 문제가 지속되고 서브스크립션 정책 상태 업데이트가 여전히 늦은 경우 동일한 서브스크립션 정책 또는 다른 이름으로 동일한
ClusterGroupUpdate
CR을 적용하여 다른ClusterGroupUpdate
CR을 적용할 수 있습니다. (OCPBUGS-2813)ClusterGroupUpdate
CR이 시작될 때 선택한 모든 클러스터가 호환되는 경우 TALM은 정책 수정을 건너뜁니다. 수정된 카탈로그 소스 정책 및 동일한ClusterGroupUpdate
CR의 서브스크립션 정책이 있는 Operator 업데이트는 완료되지 않습니다. 서브스크립션 정책은 카탈로그 소스 변경이 적용될 때까지 계속 준수하므로 건너뜁니다. 이 문제를 해결하려면common-subscription
정책에서 하나의 CR에 다음 변경 사항을 추가합니다. 예를 들면 다음과 같습니다.metadata.annotations.upgrade: "1"
이로 인해
ClusterGroupUpdate
CR이 시작되기 전에 정책을 준수하지 않습니다. (OCPBUGS-2812)- 단일 노드 OpenShift 인스턴스에서 노드를 드레이닝하지 않고 재부팅하여 실행 중인 모든 포드를 제거하면 워크로드 컨테이너 복구 문제가 발생할 수 있습니다. 재부팅 후 모든 장치 플러그인이 준비되기 전에 워크로드가 재시작되어 리소스를 사용할 수 없거나 워크로드가 잘못된 NUMA 노드에서 실행됩니다. 해결방법은 재부팅 복구 절차 중에 모든 장치 플러그인이 다시 등록되면 워크로드 Pod를 다시 시작하는 것입니다. (OCPBUGS-2180)
-
기본 Toolset
_comparison
은 현재ieee1588
입니다. 권장된 Toolset_comparison은G.8275.x
입니다. 향후 OpenShift Container Platform 버전에서 수정될 예정입니다. 단기적으로 권장되는 Toolset_comparison
을 포함하도록 ptp 구성을 수동으로 업데이트할 수 있습니다. (OCPBUGS-2336) -
기본
step_threshold
는 0.0입니다. 권장되는step_threshold
는 2.0입니다. 향후 OpenShift Container Platform 버전에서 수정될 예정입니다. 단기적으로 권장되는step_threshold
를 포함하도록 ptp 구성을 수동으로 업데이트할 수 있습니다. (OCPBUGS-3005) BMCEventSubscription
CR은 ACM이 배포된 다중 클러스터 환경에서 통화 클러스터에 대한 Redfish 서브스크립션을 생성하지 못합니다. 여기서 metal3 서비스는 hub 클러스터에서만 실행됩니다. 해결방법은 다음 명령을 실행하여 Redfish API를 직접 호출하여 서브스크립션을 생성하는 것입니다.curl -X POST -i --insecure -u "<BMC_username>:<BMC_password>" https://<BMC_IP>/redfish/v1/EventService/Subscriptions \ -H 'Content-Type: application/json' \ --data-raw '{ "Protocol": "Redfish", "Context": "any string is valid", "Destination": "https://hw-event-proxy-openshift-bare-metal-events.apps.example.com/webhook", "EventTypes": ["Alert"] }'
201 Created
응답과Location: /redfish/v1/EventService/Subscriptions/<sub_id
>가 포함된 헤더가 수신되어 Redfish 이벤트 서브스크립션이 성공적으로 생성되었음을 나타냅니다. (OCPBUGSM-43707)-
GitOps ZTP 파이프라인을 사용하여 연결이 끊긴 환경에 단일 노드 OpenShift 클러스터를 설치하는 경우 클러스터에 적용되는 두 개의
CatalogSource
CR이 있어야 합니다.CatalogSource
CR 중 하나가 여러 노드를 재부팅한 후 삭제됩니다. 이 문제를 해결하려면 카탈로그 소스의certified-operators
및redhat-operators
와 같은 기본 이름을 변경할 수 있습니다. (OCPBUGSM-46245) -
클러스터 업그레이드를 수행하는 데 사용되는 서브스크립션 정책에 유효하지 않은 서브스크립션 채널이 지정된 경우,
Subscription
상태가AtLatestKnown
이므로 정책 적용 직후 Topology Aware Lifecycle Manager가 성공적으로 업그레이드되었음을 나타냅니다. (OCPBUGSM-43618) -
클러스터
의 여러 노드에 적용되는 경우 siteConfig
디스크 파티션 정의가 실패합니다. siteConfig
CR을 사용하여 컴팩트 클러스터를 프로비저닝하는 경우 Kustomize 플러그인 오류로 여러 노드에서 유효한디스크 파티션
구성을 생성할 수 없습니다. (OCPBUGSM-44403) - 보안 부팅이 현재 비활성화되어 있고 ZTP를 사용하여 활성화하려고 하면 클러스터 설치가 시작되지 않습니다. ZTP를 통해 보안 부팅을 활성화하면 가상 CD를 연결하기 전에 부팅 옵션이 구성됩니다. 따라서 기존 하드 디스크에서 첫 번째 부팅 시 보안 부팅이 설정되어 있습니다. CD에서 시스템이 부팅되지 않기 때문에 클러스터 설치가 중지됩니다. (OCPBUGSM-45085)
- RHACM(Red Hat Advanced Cluster Management)을 사용하면 가상 미디어가 디스크에 이미지를 작성한 후 iDRAC 콘솔에서 ISO의 연결을 끊지 않으면 Dell PowerEdge R640 서버에서 클러스터 배포가 차단됩니다. 이 문제를 해결하려면 iDRAC 콘솔의 가상 미디어 탭을 통해 ISO를 수동으로 연결을 끊습니다. (OCPBUGSM-45884)
- 스레드를 유휴 상태로하기 위해 고해상도 타이머에 의존하는 대기 시간이 짧은 애플리케이션은 예상보다 대기 시간이 높아질 수 있습니다. 예상 대기 시간이 20us 미만이지만 이 대기 시간이 초과되는 경우 cyclictest 툴을 장기간 실행하는 경우 (24 시간 이상) 볼 수 있습니다. 테스트 결과에 따르면 대기 시간이 20us 미만인 경우 샘플의ECDHE99999%가 넘습니다. (RHELPLAN-138733)
- 두 포트를 모두 볼 수 있도록 Intel의 Chapman Beach NIC를 양방향 PCIe 슬롯에 설치해야 합니다. 또한 비독점 PCIe 슬롯에서 2개의 포트를 구성하지 못하도록 RHEL 8.6의 현재 devlink 툴에도 제한이 있습니다. (RHELPLAN-142458)
- 포트가 중단될 때 SR-IOV VF를 비활성화하면 Intel NIC를 사용하여ECDHE초 지연이 발생할 수 있습니다. (RHELPLAN-126931)
- Intel NIC를 사용하는 경우 SR-IOV VF에 IPV6 주소가 할당되면 IPV6 트래픽이 중지됩니다. (RHELPLAN-137741)
-
VLAN 제거 오프로드를 사용하는 경우 iavf 드라이버에서 offload 플래그(
ol_flag
)가 일관되게 올바르게 설정되지 않습니다. (RHELPLAN-141240) - 빙하 드라이버를 사용하여 구성 변경 중에 할당이 실패하면 교착 상태가 발생할 수 있습니다. (RHELPLAN-130855)
- SR-IOV VF는 Intel NIC를 사용할 때 잘못된 MAC 주소로 GARP 패킷을 보냅니다. (RHELPLAN-140971)
GitOps ZTP 방법을 사용하여 클러스터를 관리하고 설치가 완료되지 않은 클러스터를 삭제하는 경우 hub 클러스터에서 클러스터 네임스페이스를 정리하면 무기한 중단될 수 있습니다. 네임스페이스 삭제를 완료하려면 클러스터 네임스페이스의 두 CR에서
baremetalhost.metal3.io
종료자를 제거하십시오.-
BareMetalHost CR
.spec.bmc.credentialsName
이 가리키는 시크릿에서 종료자를 제거합니다. -
BareMetalHost
CR에서 종료자를 제거합니다. 이러한 종료자가 제거되면 네임스페이스 종료가 몇 초 이내에 완료됩니다. (OCPBUGS-3029)
-
BareMetalHost CR
- UDP GRO를 활성화하는 OCP 4.12에 새로운 기능을 추가하면 모든 veth 장치에 사용 가능한 CPU당 하나의 RX 대기열이 있습니다(이전에는 각 veth마다 하나의 대기열이 있음). 이러한 대기열은 OVN에서 동적으로 구성되며 대기 시간 튜닝과 이 큐 생성 간에 동기화되지 않습니다. 대기 시간 튜닝 논리는 veth NIC 생성 이벤트를 모니터링하고 모든 대기열이 올바르게 생성되기 전에 RPS 대기열 CPU 마스크 구성을 시작합니다. 즉, 일부 RPS 큐 마스크는 구성되지 않습니다. 모든 NIC 대기열이 올바르게 구성된 것은 아니므로 다른 컨테이너의 서비스와 통신하기 위해 타이밍에 민감한 cpus를 사용하는 실시간 애플리케이션에서 대기 시간이 급증할 수 있습니다. 커널 네트워킹 스택을 사용하지 않는 애플리케이션은 영향을 받지 않습니다. (OCPBUGS-4194)
플랫폼 Operator 및 RukPak의 알려진 문제:
- 플랫폼 Operator를 삭제하면 기본 리소스가 삭제됩니다. 이 단계적 삭제 논리는 OLM(Operator Lifecycle Manager 기반) Operator 번들 형식에 정의된 리소스만 삭제할 수 있습니다. 플랫폼 Operator가 해당 번들 형식 외부에 정의된 리소스를 생성하는 경우 platform Operator가 이 정리 상호 작용을 처리합니다. 이 동작은 cert-manager Operator를 플랫폼 Operator로 설치할 때 관찰할 수 있습니다. 예상 동작은 네임스페이스가 cert-manager Operator가 생성된 뒤에 남아 있다는 것입니다.
-
플랫폼 Operator 관리자에는 관리 중인 클러스터 범위
BundleDeployment
리소스의 현재 및 원하는 상태를 비교하는 논리가 없습니다. 이로 인해 기본BundleDeployment
리소스를 수동으로 수정할 수 있는 역할 기반 액세스 제어(RBAC)가 충분한 사용자가 해당 권한을cluster-admin
역할로 에스컬레이션할 수 있는 상황이 발생할 수 있습니다. 기본적으로 이 리소스에 대한 액세스 권한을 명시적으로 액세스해야 하는 소수의 사용자로 제한해야 합니다. 이 기술 프리뷰 릴리스 중BundleDeployment
리소스에 대해 지원되는 유일한 클라이언트는 플랫폼 Operator 관리자 구성 요소입니다. -
OLM의 Marketplace 구성 요소는 비활성화할 수 있는 선택적 클러스터 기능입니다. 이는 플랫폼 Operator는 현재 Marketplace 구성 요소에서 관리하는
redhat-operators
카탈로그 소스에서만 제공되기 때문에 기술 프리뷰 릴리스 중에 영향을 미칩니다. 이 문제를 해결하려면 클러스터 관리자가 이 카탈로그 소스를 수동으로 생성할 수 있습니다. -
RukPak 프로비저너 구현에는 관리 중인 리소스의 상태 또는 상태를 검사할 수 없습니다. 이는 생성된
BundleDeployment
리소스 상태를 해당 리소스를 소유한PlatformOperator
리소스에 노출하는 데 영향을 미칩니다.registry+v1
번들에 클러스터에 성공적으로 적용할 수 있는 매니페스트가 포함되어 있지만 존재하지 않는 이미지를 참조하는Deployment
오브젝트와 같은 런타임 시 실패하는 경우, 결과적으로 개별PlatformOperator
및BundleDeployment
리소스에 반영됩니다. -
클러스터 생성 전에
PlatformOperator
리소스를 구성하는 클러스터 관리자는 기존 클러스터를 활용하거나 문서화된 예제를 사용하지 않고도 원하는 패키지 이름을 쉽게 확인할 수 없습니다. 현재 개별적으로 구성된PlatformOperator
리소스가 클러스터에 성공적으로 롤아웃되도록 하는 검증 논리는 없습니다.
- oc-mirror CLI 플러그인과 함께 기술 프리뷰 OCI 기능을 사용하는 경우 미러링된 카탈로그는 이미지 세트 구성 파일에 지정된 항목에만 필터링하지 않고 모든 Operator 번들을 포함합니다. (OCPBUGS-5085)
- 현재 에이전트 기반 OpenShift Container Platform 설치 프로그램을 실행하여 이전 릴리스가 ISO 이미지 생성에 사용된 디렉터리에서 ISO 이미지를 생성할 때 알려진 문제가 있습니다. 일치하지 않는 릴리스 버전과 함께 오류 메시지가 표시됩니다. 해결 방법으로 새 디렉터리를 생성하고 사용합니다. (OCPBUGS#5159)
-
install-config.yaml
파일에 정의된 기능은 에이전트 기반 OpenShift Container Platform 설치에 적용되지 않습니다. 현재는 해결방법이 없습니다. (OCPBUGS#5129) - OVN 드라이버로 생성된 RHOSP의 완전히 채워진 로드 밸런서에는 보류 중인 생성 상태에 있는 풀이 포함될 수 있습니다. 이 문제로 인해 RHOSP에 배포된 클러스터에 문제가 발생할 수 있습니다. 문제를 해결하려면 RHOSP 패키지를 업데이트합니다. (BZ#2042976)
-
RHOSP의 대규모 로드 밸런서 멤버 업데이트는
PUT
요청에 대한 응답으로 500 코드를 반환할 수 있습니다. 이 문제로 인해 RHOSP에 배포된 클러스터에 문제가 발생할 수 있습니다. 문제를 해결하려면 RHOSP 패키지를 업데이트합니다. (BZ#2100135) 외부 클라우드 공급자를 사용하는 클러스터는 교체 후 업데이트된 인증 정보를 검색하지 못할 수 있습니다. 영향을 받는 플랫폼은 다음과 같습니다.
- Alibaba Cloud
- IBM Cloud VPC
- IBM Power
- OpenShift Virtualization
- RHOSP
이 문제를 해결하려면 다음 명령을 실행하여
openshift-cloud-controller-manager
Pod를 다시 시작합니다.$ oc delete pods --all -n openshift-cloud-controller-manager
-
cloud-provider-openstack
이 API를 사용하여 완전히 채워진 로드 밸런서를 생성하여 OVN 로드 밸런서에서 상태 모니터를 생성하려고 할 때 알려진 문제가 있습니다. 이러한 상태 모니터는PENDING_CREATE
상태로 유지됩니다. 삭제 후 관련 로드 밸런서가PENDING_UPDATE
상태로 유지됩니다. 해결방법이 없습니다. (BZ#2143732) -
RHOSP에서 실행되는 클러스터와 함께 상태 저장 IPv6 네트워크를 사용하려면 작업자 노드 의 커널 인수에
ip=dhcp,dhcpv6
을 포함해야 합니다. (OCPBUGS-2104) - VF(가상 기능)가 이미 존재하는 경우 물리적 기능(PF)에 macvlan을 생성할 수 없습니다. 이 문제는 Intel E810 NIC에 영향을 미칩니다. (BZ#2120585)
-
현재 IPv4 OpenShift Container Platform 클러스터에서 IPv6 주소 및 경로를 수동으로 구성할 때 알려진 문제가 있습니다. 듀얼 스택 클러스터로 변환할 때 새로 생성된 Pod는
ContainerCreating
상태로 유지됩니다. 현재는 해결방법이 없습니다. 이 문제는 향후 OpenShift Container Platform 릴리스에서 해결될 예정입니다. (OCPBUGS-4411) -
IBM Public Cloud에 설치된 OVN 클러스터에 60개 이상의 작업자 노드가 있는 경우 2000개 이상의 서비스 및 경로 오브젝트를 동시에 생성하면 생성된 Pod가
ContainerCreating
상태로 유지될 수 있습니다. 이 문제가 발생하면oc describe pod <podname> 명령을 입력하면 다음과 같은 경고가 표시됩니다.
. 현재 이 문제에 대한 해결방법이 없습니다. (OCPBUGS-3470)FailedCreatePodSandBox…failed to configure pod interface: timed out waiting for OVS port binding (ovn-installed)
OVN-Kubernetes 네트워크 공급자를 사용하는 클러스터에서 컨트롤 플레인 머신이 교체되면 OVN-Kubernetes와 관련된 Pod가 대체 머신에서 시작되지 않을 수 있습니다. 이 경우 새 머신에 네트워킹이 부족하면 etcd에서 이전 머신을 교체할 수 없습니다. 결과적으로 클러스터가 이 상태에 있으며 성능이 저하될 수 있습니다. 이 동작은 컨트롤 플레인이 수동 또는 컨트롤 플레인 머신 세트로 교체될 때 발생할 수 있습니다.
현재 이 문제가 발생한 경우 이 문제를 해결할 수 있는 해결방법이 없습니다. 이 문제를 방지하려면 컨트롤 플레인 머신 세트를 비활성화하고 클러스터가 OVN-Kubernetes 네트워크 공급자를 사용하는 경우 컨트롤 플레인 시스템을 수동으로 교체하지 마십시오. (OCPBUGS-5306)
1.9. 비동기 에라타 업데이트
OpenShift Container Platform 4.12의 보안, 버그 수정 및 개선 사항 업데이트는 Red Hat Network를 통해 비동기 에라타로 릴리스됩니다. 모든 OpenShift Container Platform 4.12 에라타는 Red Hat 고객 포털을 통해 제공됩니다. 비동기 에라타에 대한 자세한 내용은 OpenShift Container Platform 라이프 사이클에서 참조하십시오.
Red Hat Customer Portal 사용자는 Red Hat 서브스크립션 관리(RHSM) 계정 설정에서 에라타 통지를 활성화할 수 있습니다. 에라타 알림이 활성화되면 사용자는 등록된 시스템과 관련된 새 에라타가 릴리스될 때마다 이메일을 통해 통지를 받습니다.
Red Hat Customer Portal 사용자 계정에는 OpenShift Container Platform에서 에라타 통지 이메일을 생성하기 위해 OpenShift Container Platform을 사용할 수 있는 등록된 시스템 및 권한이 필요합니다.
이 섹션은 향후 OpenShift Container Platform 4.12와 관련된 비동기 에라타 릴리스의 개선 사항 및 버그 수정에 대한 정보 제공을 위해 지속적으로 업데이트됩니다. OpenShift Container Platform 4.12.z와 같은 비동기 버전 릴리스 정보는 하위 섹션에 자세히 설명되어 있습니다. 또한 공간 제한으로 인해 릴리스 정보에 포함되지 않은 에라타 컨텐츠도 다음 하위 섹션에 자세히 설명되어 있습니다.
OpenShift Container Platform 릴리스의 경우 항상 클러스터 업데이트 관련 지침을 확인하십시오.
1.9.1. RHSA-2022:7399 - OpenShift Container Platform 4.12.0 이미지 릴리스, 버그 수정 및 보안 업데이트 권고
발행일: 2023년 1월 17일
보안 업데이트가 포함된 OpenShift Container Platform 릴리스 4.12.0을 사용할 수 있습니다. 업데이트에 포함된 버그 수정 목록은 RHSA-2022:7399 권고에 설명되어 있습니다. 업데이트에 포함된 RPM 패키지는 RHSA-2022:7398 권고를 통해 제공됩니다.
권고에 이 릴리스의 모든 컨테이너 이미지에 대한 설명은 제외되어 있습니다. 이 릴리스의 컨테이너 이미지에 대한 자세한 내용은 다음 문서를 참조하십시오.
다음 명령을 실행하여 이 릴리스에서 컨테이너 이미지를 볼 수 있습니다.
$ oc adm release info 4.12.0 --pullspecs
1.9.1.1. 기능
1.9.1.1.1. 보조 네트워크에 대한 Pod 수준 본딩의 일반 가용성
이번 업데이트를 통해 이제 Pod 수준 본딩 을 일반적으로 사용할 수 있습니다.
1.9.2. RHSA-2023:0449 - OpenShift Container Platform 4.12.1 버그 수정 및 보안 업데이트
발행일: 2022년 1월 30일
보안 업데이트가 포함된 OpenShift Container Platform 릴리스 4.12.1을 사용할 수 있습니다. 업데이트에 포함된 버그 수정 목록은 RHSA-2023:0449 권고에 설명되어 있습니다. 업데이트에 포함된 RPM 패키지는 RHBA-2023:0448 권고를 통해 제공됩니다.
다음 명령을 실행하여 이 릴리스에서 컨테이너 이미지를 볼 수 있습니다.
$ oc adm release info 4.12.1 --pullspecs
1.9.2.1. 버그 수정
- 이전에는 OpenStack 클라우드 공급자의 잘못된 검사로 인해 모든 Octavia 로드 밸런서가 생성될 때 로드 밸런서가 외부 IP 주소로 채워졌습니다. 이로 인해 로드 밸런서를 처리하는 시간이 증가했습니다. 이번 업데이트를 통해 로드 밸런서는 계속 순차적으로 생성되고 외부 IP 주소가 일대일로 채워집니다. (OCPBUGS-5403)
-
이전에는 Swift에 연결할 수 없는 경우
cluster-image-registry-operator
가 PVC(영구 볼륨 클레임)를 사용하도록 기본 설정되었습니다. 이번 업데이트를 통해 RHOSP(Red Hat OpenStack Platform) API 또는 기타 부수적인 실패로 인해cluster-image-registry-operator
가 프로브를 다시 시도합니다. 재시도하는 동안 기본값은 RHOSP 카탈로그가 올바르게 발견되고 오브젝트 스토리지를 포함하지 않는 경우에만 발생하거나 RHOSP 카탈로그가 있고 현재 사용자에게 컨테이너를 나열할 수 있는 권한이 없는 경우에만 발생합니다. (OCPBUGS-5154)
1.9.2.2. 업데이트
기존 OpenShift Container Platform 4.12 클러스터를 최신 릴리스로 업데이트하려면 CLI를 사용하여 클러스터 업데이트에서 참조하십시오.
1.9.3. RHSA-2023:0569 - OpenShift Container Platform 4.12.2 버그 수정 및 보안 업데이트
발행일: 2023년 2월 7일
보안 업데이트가 포함된 OpenShift Container Platform 릴리스 4.12.2를 사용할 수 있습니다. 업데이트에 포함된 버그 수정 목록은 RHSA-2023:0569 권고에 설명되어 있습니다. 업데이트에 포함된 RPM 패키지는 RHBA-2023:0568 권고를 통해 제공됩니다.
다음 명령을 실행하여 이 릴리스에서 컨테이너 이미지를 볼 수 있습니다.
$ oc adm release info 4.12.2 --pullspecs
1.9.3.1. 업데이트
기존 OpenShift Container Platform 4.12 클러스터를 최신 릴리스로 업데이트하려면 CLI를 사용하여 클러스터 업데이트에서 참조하십시오.
1.9.4. RHSA-2023:0728 - OpenShift Container Platform 4.12.3 버그 수정 및 보안 업데이트
발행일: 2023년 2월 16일
보안 업데이트가 포함된 OpenShift Container Platform 릴리스 4.12.3을 사용할 수 있습니다. 업데이트에 포함된 버그 수정 목록은 RHSA-2023:0728 권고에 설명되어 있습니다. 업데이트에 포함된 RPM 패키지는 RHSA-2023:0727 권고를 통해 제공됩니다.
다음 명령을 실행하여 이 릴리스에서 컨테이너 이미지를 볼 수 있습니다.
$ oc adm release info 4.12.3 --pullspecs
1.9.4.1. 버그 수정
- 이전 버전에서는 OVN-Kubernetes 네트워크 공급자를 사용하는 클러스터에서 컨트롤 플레인 시스템이 교체되면 OVN-Kubernetes와 관련된 pod가 대체 머신에서 시작되지 않아 etcd가 이전 머신을 교체할 수 없었습니다. 이번 업데이트를 통해 OVN-Kubernetes와 관련된 Pod가 예상대로 교체 머신에서 시작됩니다. (OCPBUGS-6494)
1.9.4.2. 업데이트
기존 OpenShift Container Platform 4.12 클러스터를 최신 릴리스로 업데이트하려면 CLI를 사용하여 클러스터 업데이트에서 참조하십시오.
1.9.5. RHSA-2023:0769 - OpenShift Container Platform 4.12.4 버그 수정 및 보안 업데이트
발행일: 2023년 2월 20일
보안 업데이트가 포함된 OpenShift Container Platform 릴리스 4.12.4를 사용할 수 있습니다. 업데이트에 포함된 버그 수정 목록은 RHSA-2023:0769 권고에 설명되어 있습니다. 업데이트에 포함된 RPM 패키지는 RHBA-2023:0768 권고를 통해 제공됩니다.
다음 명령을 실행하여 이 릴리스에서 컨테이너 이미지를 볼 수 있습니다.
$ oc adm release info 4.12.4 --pullspecs
1.9.5.1. 업데이트
기존 OpenShift Container Platform 4.12 클러스터를 최신 릴리스로 업데이트하려면 CLI를 사용하여 클러스터 업데이트에서 참조하십시오.
1.9.6. RHSA-2023:0890 - OpenShift Container Platform 4.12.5 버그 수정 및 보안 업데이트
발행일: 2023년 2월 28일
보안 업데이트가 포함된 OpenShift Container Platform 릴리스 4.12.5를 사용할 수 있습니다. 업데이트에 포함된 버그 수정 목록은 RHSA-2023:0890 권고에 설명되어 있습니다. 업데이트에 포함된 RPM 패키지는 RHBA-2023:0889 권고를 통해 제공됩니다.
다음 명령을 실행하여 이 릴리스에서 컨테이너 이미지를 볼 수 있습니다.
$ oc adm release info 4.12.5 --pullspecs
1.9.6.1. 버그 수정
-
이전에는 리포지토리 목록에서 상태가
Succeeded
또는Failed
지만 상태가Running
인 경우에만 PipelineRuns 가 표시될 수 있었습니다. 이번 수정을 통해 PipelineRuns 가 트리거되면 상태가Running
으로 리포지토리 목록에 표시됩니다. (OCPBUGS-6816) -
이전 버전에서는
Secret
을 생성할 때 Start Pipeline 모델에서 잘못된 JSON 값을 생성했기 때문에 보안을 사용할 수 없어PipelineRun
이 실패할 수 있었습니다. 이번 수정으로 Start Pipeline 모델은 보안에 유효한 JSON 값을생성합니다
. 이제 Pipeline을 시작하는 동안 유효한 보안을 생성할 수 있습니다. (OCPBUGS-6671) -
이전 버전에서는
BindableKinds
리소스에 상태가 없을 때 웹 콘솔이 충돌하여 루프에 동일한 데이터를 가져오고 표시합니다. 이번 수정을 통해BindableKinds
리소스 상태 배열을[]
로 설정하여 상태 필드 없이 존재할 것으로 예상할 수 있습니다. 결과적으로 웹 브라우저 또는 애플리케이션이 충돌하지 않습니다. (OCPBUGS-4072) -
이전 버전에서는 OpenShift Container Platform에서 Knative(
kn) 서비스를 삭제할 때 연결된 Webhook <
이 삭제되지 않았습니다. 이번 수정으로 연결된 Webhook 시크릿이 모두 삭제됩니다. 이제 삭제된 이름과 동일한 이름으로 Knative(kn
-service-name>-github-webhook-secretkn
) 서비스를 생성할 수 있습니다. (OCPBUGS-7437)
1.9.6.2. 업데이트
기존 OpenShift Container Platform 4.12 클러스터를 최신 릴리스로 업데이트하려면 CLI를 사용하여 클러스터 업데이트에서 참조하십시오.
1.9.7. RHSA-2023:1034 - OpenShift Container Platform 4.12.6 버그 수정 및 보안 업데이트
발행일: 2023년 3월 7일
보안 업데이트가 포함된 OpenShift Container Platform 릴리스 4.12.6을 사용할 수 있습니다. 업데이트에 포함된 버그 수정 목록은 RHBA-2023:1034 권고에 설명되어 있습니다. 업데이트에 포함된 RPM 패키지는 RHSA-2023:1033 권고를 통해 제공됩니다.
다음 명령을 실행하여 이 릴리스에서 컨테이너 이미지를 볼 수 있습니다.
$ oc adm release info 4.12.6 --pullspecs
1.9.7.1. 업데이트
기존 OpenShift Container Platform 4.12 클러스터를 최신 릴리스로 업데이트하려면 CLI를 사용하여 클러스터 업데이트에서 참조하십시오.
1.9.8. RHBA-2023:1163 - OpenShift Container Platform 4.12.7 버그 수정 업데이트
발행일: 2023년 3월 13일
OpenShift Container Platform 릴리스 4.12.7이 공개되었습니다. 업데이트에 포함된 버그 수정 목록은 RHBA-2023:1163 권고에 설명되어 있습니다. 업데이트에 포함된 RPM 패키지는 RHBA-2023:1162 권고를 통해 제공됩니다.
다음 명령을 실행하여 이 릴리스에서 컨테이너 이미지를 볼 수 있습니다.
$ oc adm release info 4.12.7 --pullspecs
1.9.8.1. 업데이트
기존 OpenShift Container Platform 4.12 클러스터를 최신 릴리스로 업데이트하려면 CLI를 사용하여 클러스터 업데이트에서 참조하십시오.