네트워킹
클러스터 네트워킹 구성 및 관리
초록
1장. 네트워킹 정보
Red Hat OpenShift Networking은 클러스터가 하나 또는 여러 하이브리드 클러스터의 네트워크 트래픽을 관리하는 데 필요한 고급 네트워킹 관련 기능으로 Kubernetes 네트워킹을 확장하는 기능, 플러그인 및 고급 네트워킹 기능의 에코시스템입니다. 이 네트워킹 기능 에코시스템은 수신, 송신, 로드 밸런싱, 고성능 처리량, 보안, 클러스터 간 트래픽 관리, 역할 기반 관찰 도구를 제공하여 자연의 복잡성을 줄입니다.
다음 목록은 클러스터에서 사용할 수 있는 가장 일반적으로 사용되는 Red Hat OpenShift Networking 기능 중 일부를 강조 표시합니다.
다음 CNI(Container Network Interface) 플러그인 중 하나에서 제공하는 기본 클러스터 네트워크:
- 인증된 타사 대체 네트워크 플러그인
- Network Operator for network plugin management
- TLS 암호화 웹 트래픽용 Ingress Operator
- 이름 할당을 위한 DNS Operator
- 베어 메탈 클러스터에서 트래픽 로드 밸런싱을 위한 MetalLB Operator
- 고가용성을 위한 IP 페일오버 지원
- macvlan, ipvlan 및 SR-IOV 하드웨어 네트워크를 포함한 여러 CNI 플러그인을 통한 추가 하드웨어 네트워크 지원
- IPv4, IPv6 및 듀얼 스택 주소 지정
- 하이브리드 Linux-Windows 호스트 클러스터 Windows 기반 워크로드
- 검색, 로드 밸런싱, 서비스 간 인증, 실패 복구, 지표 및 서비스 모니터링을 위한 Red Hat OpenShift Service Mesh
- Single-node OpenShift
- 네트워크 디버깅 및 인사이트를 위한 Network Observability Operator
- 클러스터 간 네트워킹을 위한 Submariner 및 Red Hat Application Interconnect 기술
2장. 네트워킹 이해
클러스터 관리자는 클러스터 내에서 실행되는 애플리케이션을 외부 트래픽으로 노출하고 네트워크 연결을 보호하는 몇 가지 옵션이 있습니다.
- 노드 포트 또는 로드 밸런서와 같은 서비스 유형
-
Ingress및Route와 같은 API 리소스
기본적으로 Kubernetes는 pod 내에서 실행되는 애플리케이션의 내부 IP 주소를 각 pod에 할당합니다. pod와 해당 컨테이너에 네트워크를 지정할 수 있지만 클러스터 외부의 클라이언트에는 네트워킹 액세스 권한이 없습니다. 애플리케이션을 외부 트래픽에 노출할 때 각 pod에 고유 IP 주소를 부여하면 포트 할당, 네트워킹, 이름 지정, 서비스 검색, 로드 밸런싱, 애플리케이션 구성 및 마이그레이션 등 다양한 업무를 할 때 pod를 물리적 호스트 또는 가상 머신처럼 취급할 수 있습니다.
일부 클라우드 플랫폼은 IPv4 169.254.0.0/16 CIDR 블록의 링크 로컬 IP 주소인 169.254.169.254 IP 주소에서 수신 대기하는 메타데이터 API를 제공합니다.
Pod 네트워크에서는 이 CIDR 블록에 접근할 수 없습니다. 이러한 IP 주소에 액세스해야 하는 pod의 경우 pod 사양의 spec.hostNetwork 필드를 true로 설정하여 호스트 네트워크 액세스 권한을 부여해야 합니다.
Pod의 호스트 네트워크 액세스를 허용하면 해당 pod에 기본 네트워크 인프라에 대한 액세스 권한이 부여됩니다.
2.1. OpenShift Container Platform DNS
여러 Pod에 사용하기 위해 프론트엔드 및 백엔드 서비스와 같은 여러 서비스를 실행하는 경우 사용자 이름, 서비스 IP 등에 대한 환경 변수를 생성하여 프론트엔드 Pod가 백엔드 서비스와 통신하도록 할 수 있습니다. 서비스를 삭제하고 다시 생성하면 새 IP 주소를 서비스에 할당할 수 있으며 서비스 IP 환경 변수의 업데이트된 값을 가져오기 위해 프론트엔드 Pod를 다시 생성해야 합니다. 또한 백엔드 서비스를 생성한 후 프론트엔드 Pod를 생성해야 서비스 IP가 올바르게 생성되고 프론트엔드 Pod에 환경 변수로 제공할 수 있습니다.
이러한 이유로 서비스 DNS는 물론 서비스 IP/포트를 통해서도 서비스를 이용할 수 있도록 OpenShift Container Platform에 DNS를 내장했습니다.
2.2. OpenShift Container Platform Ingress Operator
OpenShift Container Platform 클러스터를 생성할 때 클러스터에서 실행되는 Pod 및 서비스에는 각각 자체 IP 주소가 할당됩니다. IP 주소는 내부에서 실행되지만 외부 클라이언트가 액세스할 수 없는 다른 pod 및 서비스에 액세스할 수 있습니다. Ingress Operator는 IngressController API를 구현하며 OpenShift Container Platform 클러스터 서비스에 대한 외부 액세스를 활성화하는 구성 요소입니다.
Ingress Operator를 사용하면 라우팅을 처리하기 위해 하나 이상의 HAProxy 기반 Ingress 컨트롤러를 배포하고 관리하여 외부 클라이언트가 서비스에 액세스할 수 있습니다. Ingress Operator를 사용하여 OpenShift 컨테이너 플랫폼 Route 및 Kubernetes Ingress 리소스를 지정하면 수신 트래픽을 라우팅할 수 있습니다. endpointPublishingStrategy 유형 및 내부 로드 밸런싱을 정의하는 기능과 같은 Ingress 컨트롤러 내 구성은 Ingress 컨트롤러 끝점을 게시하는 방법을 제공합니다.
2.2.1. 경로와 Ingress 비교
OpenShift Container Platform의 Kubernetes Ingress 리소스는 클러스터 내에서 Pod로 실행되는 공유 라우터 서비스를 사용하여 Ingress 컨트롤러를 구현합니다. Ingress 트래픽을 관리하는 가장 일반적인 방법은 Ingress 컨트롤러를 사용하는 것입니다. 다른 일반 Pod와 마찬가지로 이 Pod를 확장하고 복제할 수 있습니다. 이 라우터 서비스는 오픈 소스 로드 밸런서 솔루션인 HAProxy를 기반으로 합니다.
OpenShift Container Platform 경로는 클러스터의 서비스에 대한 Ingress 트래픽을 제공합니다. 경로는 TLS 재암호화, TLS 패스스루, 블루-그린 배포를 위한 분할 트래픽등 표준 Kubernetes Ingress 컨트롤러에서 지원하지 않는 고급 기능을 제공합니다.
Ingress 트래픽은 경로를 통해 클러스터의 서비스에 액세스합니다. 경로 및 Ingress는 Ingress 트래픽을 처리하는 데 필요한 주요 리소스입니다. Ingress는 외부 요청을 수락하고 경로를 기반으로 위임하는 것과 같은 경로와 유사한 기능을 제공합니다. 그러나 Ingress를 사용하면 HTTP/2, HTTPS, SNI(서버 이름 식별) 및 인증서가 있는 TLS와 같은 특정 유형의 연결만 허용할 수 있습니다. OpenShift Container Platform에서는 Ingress 리소스에서 지정하는 조건을 충족하기 위해 경로가 생성됩니다.
2.3. OpenShift Container Platform 네트워킹에 대한 일반 용어집
이 용어집은 네트워킹 콘텐츠에 사용되는 일반적인 용어를 정의합니다.
- 인증
- OpenShift Container Platform 클러스터에 대한 액세스를 제어하기 위해 클러스터 관리자는 사용자 인증을 구성하고 승인된 사용자만 클러스터에 액세스할 수 있는지 확인할 수 있습니다. OpenShift Container Platform 클러스터와 상호 작용하려면 OpenShift Container Platform API에 인증해야 합니다. OpenShift Container Platform API에 대한 요청에 OAuth 액세스 토큰 또는 X.509 클라이언트 인증서를 제공하여 인증할 수 있습니다.
- AWS Load Balancer Operator
-
AWS Load Balancer(ALB) Operator는
aws-load-balancer-controller의 인스턴스를 배포하고 관리합니다. - CNO(Cluster Network Operator)
- CNO(Cluster Network Operator)는 OpenShift Container Platform 클러스터에서 클러스터 네트워크 구성 요소를 배포하고 관리합니다. 여기에는 설치 중에 클러스터에 대해 선택한 CNI(Container Network Interface) 네트워크 플러그인 배포가 포함됩니다.
- 구성 맵
-
구성 맵에서는 구성 데이터를 Pod에 삽입하는 방법을 제공합니다. 구성 맵에 저장된 데이터를
ConfigMap유형의 볼륨에서 참조할 수 있습니다. Pod에서 실행되는 애플리케이션에서는 이 데이터를 사용할 수 있습니다. - CR(사용자 정의 리소스)
- CR은 Kubernetes API의 확장입니다. 사용자 정의 리소스를 생성할 수 있습니다.
- DNS
- 클러스터 DNS는 Kubernetes 서비스에 대한 DNS 레코드를 제공하는 DNS 서버입니다. Kubernetes에서 시작하는 컨테이너는 DNS 검색에 이 DNS 서버를 자동으로 포함합니다.
- DNS Operator
- DNS Operator는 CoreDNS를 배포하고 관리하여 Pod에 이름 확인 서비스를 제공합니다. 이를 통해 OpenShift Container Platform에서 DNS 기반 Kubernetes 서비스 검색을 사용할 수 있습니다.
- Deployment
- 애플리케이션의 라이프사이클을 유지 관리하는 Kubernetes 리소스 오브젝트입니다.
- domain
- domain은 Ingress 컨트롤러에서 제공하는 DNS 이름입니다.
- egress
- Pod에서 네트워크의 아웃바운드 트래픽을 통해 외부적으로 공유하는 데이터 프로세스입니다.
- 외부 DNS Operator
- 외부 DNS Operator는 ExternalDNS를 배포 및 관리하여 외부 DNS 공급자에서 OpenShift Container Platform으로 서비스 및 경로에 대한 이름 확인을 제공합니다.
- HTTP 기반 경로
- HTTP 기반 경로는 기본 HTTP 라우팅 프로토콜을 사용하고 보안되지 않은 애플리케이션 포트에 서비스를 노출하는 비보안 경로입니다.
- Ingress
- OpenShift Container Platform의 Kubernetes Ingress 리소스는 클러스터 내에서 Pod로 실행되는 공유 라우터 서비스를 사용하여 Ingress 컨트롤러를 구현합니다.
- Ingress 컨트롤러
- Ingress Operator는 Ingress 컨트롤러를 관리합니다. OpenShift Container Platform 클러스터에 대한 외부 액세스를 허용하는 가장 일반적인 방법은 Ingress 컨트롤러를 사용하는 것입니다.
- 설치 프로그램에서 제공하는 인프라
- 설치 프로그램은 클러스터가 실행되는 인프라를 배포하고 구성합니다.
- kubelet
- Pod에서 컨테이너가 실행 중인지 확인하기 위해 클러스터의 각 노드에서 실행되는 기본 노드 에이전트입니다.
- Kubernetes NMState Operator
- Kubernetes NMState Operator는 OpenShift Container Platform 클러스터 노드에서 NMState를 사용하여 상태 중심 네트워크 구성을 수행하는 데 필요한 Kubernetes API를 제공합니다.
- kube-proxy
- kube-proxy는 각 노드에서 실행되며 외부 호스트에서 서비스를 사용할 수 있도록 지원하는 프록시 서비스입니다. 컨테이너를 수정하도록 요청을 전달하는 데 도움이 되며 기본 로드 밸런싱을 수행할 수 있습니다.
- 로드 밸런서
- OpenShift Container Platform은 로드 밸런서를 사용하여 클러스터에서 실행되는 서비스와 클러스터 외부에서 통신합니다.
- MetalLB Operator
-
클러스터 관리자는
LoadBalancer유형의 서비스가 클러스터에 추가되면 MetalLB가 서비스에 대한 외부 IP 주소를 추가할 수 있도록 MetalLB Operator를 클러스터에 추가할 수 있습니다. - 멀티 캐스트
- IP 멀티 캐스트를 사용하면 데이터가 여러 IP 주소로 동시에 브로드캐스트됩니다.
- 네임스페이스
- 네임스페이스는 모든 프로세스에 표시되는 특정 시스템 리소스를 격리합니다. 네임스페이스 내에서 해당 네임스페이스의 멤버인 프로세스만 해당 리소스를 볼 수 있습니다.
- networking
- OpenShift Container Platform 클러스터의 네트워크 정보입니다.
- node
- OpenShift Container Platform 클러스터의 작업자 시스템입니다. 노드는 VM(가상 머신) 또는 물리적 머신입니다.
- OpenShift Container Platform Ingress Operator
-
Ingress Operator는
IngressControllerAPI를 구현하며 OpenShift Container Platform 서비스에 대한 외부 액세스를 가능하게 하는 구성 요소입니다. - Pod
- OpenShift Container Platform 클러스터에서 실행되는 볼륨 및 IP 주소와 같은 공유 리소스가 있는 하나 이상의 컨테이너입니다. Pod는 정의, 배포 및 관리되는 최소 컴퓨팅 단위입니다.
- PTP Operator
-
PTP Operator는
linuxptp서비스를 생성하고 관리합니다. - Route
- OpenShift Container Platform 경로는 클러스터의 서비스에 대한 Ingress 트래픽을 제공합니다. 경로는 TLS 재암호화, TLS 패스스루, 블루-그린 배포를 위한 분할 트래픽등 표준 Kubernetes Ingress 컨트롤러에서 지원하지 않는 고급 기능을 제공합니다.
- 스케일링
- 리소스 용량을 늘리거나 줄입니다.
- service
- Pod 세트에 실행 중인 애플리케이션을 노출합니다.
- SR-IOV(Single Root I/O Virtualization) Network Operator
- SR-IOV(Single Root I/O Virtualization) Network Operator는 클러스터의 SR-IOV 네트워크 장치 및 네트워크 첨부 파일을 관리합니다.
- 소프트웨어 정의 네트워킹(SDN)
- OpenShift Container Platform에서는 소프트웨어 정의 네트워킹(SDN) 접근법을 사용하여 OpenShift Container Platform 클러스터 전체의 pod 간 통신이 가능한 통합 클러스터 네트워크를 제공합니다.
- SCTP(스트림 제어 전송 프로토콜)
- SCTP는 IP 네트워크에서 실행되는 안정적인 메시지 기반 프로토콜입니다.
- taint
- 테인트 및 톨러레이션은 Pod가 적절한 노드에 예약되도록 합니다. 노드에 하나 이상의 테인트를 적용할 수 있습니다.
- 허용 오차
- Pod에 허용 오차를 적용할 수 있습니다. 허용 오차를 사용하면 스케줄러에서 일치하는 테인트를 사용하여 Pod를 예약할 수 있습니다.
- 웹 콘솔
- OpenShift Container Platform을 관리할 UI(사용자 인터페이스)입니다.
3장. 호스트에 액세스
배스천 호스트(Bastion Host)를 생성하여 OpenShift Container Platform 인스턴스에 액세스하고 SSH(Secure Shell) 액세스 권한으로 컨트롤 플레인 노드에 액세스하는 방법을 알아봅니다.
3.1. 설치 관리자 프로비저닝 인프라 클러스터에서 Amazon Web Services의 호스트에 액세스
OpenShift Container Platform 설치 관리자는 OpenShift Container Platform 클러스터에 프로비저닝된 Amazon EC2(Amazon Elastic Compute Cloud) 인스턴스에 대한 퍼블릭 IP 주소를 생성하지 않습니다. OpenShift Container Platform 호스트에 SSH를 사용하려면 다음 절차를 따라야 합니다.
프로세스
-
openshift-install명령으로 생성된 가상 프라이빗 클라우드(VPC)에 SSH로 액세스할 수 있는 보안 그룹을 만듭니다. - 설치 관리자가 생성한 퍼블릭 서브넷 중 하나에 Amazon EC2 인스턴스를 생성합니다.
생성한 Amazon EC2 인스턴스와 퍼블릭 IP 주소를 연결합니다.
OpenShift Container Platform 설치와는 달리, 생성한 Amazon EC2 인스턴스를 SSH 키 쌍과 연결해야 합니다. 이 인스턴스에서 사용되는 운영 체제는 중요하지 않습니다. 그저 인터넷을 OpenShift Container Platform 클러스터의 VPC에 연결하는 SSH 베스천의 역할을 수행하기 때문입니다. 사용하는 AMI(Amazon 머신 이미지)는 중요합니다. 예를 들어, RHCOS(Red Hat Enterprise Linux CoreOS)를 사용하면 설치 프로그램과 마찬가지로 Ignition을 통해 키를 제공할 수 있습니다.
Amazon EC2 인스턴스를 프로비저닝한 후 SSH로 연결할 수 있는 경우 OpenShift Container Platform 설치와 연결된 SSH 키를 추가해야 합니다. 이 키는 베스천 인스턴스의 키와 다를 수 있지만 반드시 달라야 하는 것은 아닙니다.
참고SSH 직접 액세스는 재해 복구 시에만 권장됩니다. Kubernetes API가 응답할 때는 권한 있는 Pod를 대신 실행합니다.
-
oc get nodes를 실행하고 출력을 확인한 후 마스터 노드 중 하나를 선택합니다. 호스트 이름은ip-10-0-1-163.ec2.internal과 유사합니다. Amazon EC2에 수동으로 배포한 베스천 SSH 호스트에서 해당 컨트롤 플레인 호스트에 SSH로 연결합니다. 설치 중 지정한 것과 동일한 SSH 키를 사용해야 합니다.
$ ssh -i <ssh-key-path> core@<master-hostname>
4장. 네트워킹 Operator 개요
OpenShift Container Platform은 여러 유형의 네트워킹 Operator를 지원합니다. 이러한 네트워킹 Operator를 사용하여 클러스터 네트워킹을 관리할 수 있습니다.
4.1. CNO(Cluster Network Operator)
CNO(Cluster Network Operator)는 OpenShift Container Platform 클러스터에서 클러스터 네트워크 구성 요소를 배포하고 관리합니다. 여기에는 설치 중에 클러스터에 대해 선택한 CNI(Container Network Interface) 네트워크 플러그인 배포가 포함됩니다. 자세한 내용은 OpenShift Container Platform의 Cluster Network Operator 를 참조하십시오.
4.2. DNS Operator
DNS Operator는 CoreDNS를 배포하고 관리하여 Pod에 이름 확인 서비스를 제공합니다. 이를 통해 OpenShift Container Platform에서 DNS 기반 Kubernetes 서비스 검색을 사용할 수 있습니다. 자세한 내용은 OpenShift Container Platform의 DNS Operator 를 참조하십시오.
4.3. Ingress Operator
OpenShift Container Platform 클러스터를 생성할 때 클러스터에서 실행 중인 Pod 및 서비스는 각 할당된 IP 주소입니다. IP 주소는 인근 다른 Pod 및 서비스에 액세스할 수 있지만 외부 클라이언트에서는 액세스할 수 없습니다. Ingress Operator는 Ingress 컨트롤러 API를 구현하고 OpenShift Container Platform 클러스터 서비스에 대한 외부 액세스를 활성화합니다. 자세한 내용은 OpenShift Container Platform의 Ingress Operator 를 참조하십시오.
4.4. 외부 DNS Operator
외부 DNS Operator는 ExternalDNS를 배포 및 관리하여 외부 DNS 공급자에서 OpenShift Container Platform으로 서비스 및 경로에 대한 이름 확인을 제공합니다. 자세한 내용은 외부 DNS Operator 이해를 참조하십시오.
4.5. Ingress Node Firewall Operator
Ingress Node Firewall Operator는 확장된 Berkley Packet Filter(eBPF) 및 eXpress Data Path(XDP) 플러그인을 사용하여 노드 방화벽 규칙을 처리하고 통계를 업데이트하고, 삭제된 트래픽에 대한 이벤트를 생성합니다. Operator는 수신 노드 방화벽 리소스를 관리하고, 방화벽 구성을 확인하고, 클러스터 액세스를 방지할 수 있는 잘못된 규칙을 허용하지 않으며, 수신 노드 방화벽 XDP 프로그램을 규칙 오브젝트에서 선택한 인터페이스에 로드합니다. 자세한 내용은 Ingress Node Firewall Operator 이해를참조하십시오.
4.6. Network Observability Operator
Network Observability Operator는 클러스터 관리자가 OpenShift Container Platform 클러스터의 네트워크 트래픽을 확인할 수 있는 선택적 Operator입니다. Network Observability Operator는 eBPF 기술을 사용하여 네트워크 흐름을 생성합니다. 그런 다음 네트워크 흐름은 OpenShift Container Platform 정보로 보강되고 CloudEvent에 저장됩니다. OpenShift Container Platform 콘솔에서 저장된 네트워크 흐름 정보를 보고 분석하여 추가 정보 및 문제 해결을 수행할 수 있습니다. 자세한 내용은 Network Observability Operator 정보를 참조하십시오.
5장. OpenShift 컨테이너 플랫폼의 Cluster Network Operator
CNO(Cluster Network Operator)는 설치 중에 클러스터에 대해 선택한 CNI(Container Network Interface) 네트워크 플러그인을 포함하여 OpenShift Container Platform 클러스터에 클러스터 네트워크 구성 요소를 배포하고 관리합니다.
5.1. CNO(Cluster Network Operator)
Cluster Network Operator는 operator.openshift.io API 그룹에서 네트워크 API를 구현합니다. Operator는 데몬 세트를 사용하여 OVN-Kubernetes 네트워크 플러그인 또는 클러스터 설치 중에 선택한 네트워크 공급자 플러그인을 배포합니다.
절차
Cluster Network Operator는 설치 중에 Kubernetes Deployment로 배포됩니다.
다음 명령을 실행하여 배포 상태를 확인합니다.
$ oc get -n openshift-network-operator deployment/network-operator
출력 예
NAME READY UP-TO-DATE AVAILABLE AGE network-operator 1/1 1 1 56m
다음 명령을 실행하여 Cluster Network Operator의 상태를 확인합니다.
$ oc get clusteroperator/network
출력 예
NAME VERSION AVAILABLE PROGRESSING DEGRADED SINCE network 4.5.4 True False False 50m
AVAILABLE,PROGRESSING및DEGRADED필드에서 Operator 상태에 대한 정보를 볼 수 있습니다. Cluster Network Operator가 사용 가능한 상태 조건을 보고하는 경우AVAILABLE필드는True로 설정됩니다.
5.2. 클러스터 네트워크 구성 보기
모든 새로운 OpenShift Container Platform 설치에는 이름이 cluster인 network.config 오브젝트가 있습니다.
프로세스
oc describe명령을 사용하여 클러스터 네트워크 구성을 확인합니다.$ oc describe network.config/cluster
출력 예
Name: cluster Namespace: Labels: <none> Annotations: <none> API Version: config.openshift.io/v1 Kind: Network Metadata: Self Link: /apis/config.openshift.io/v1/networks/cluster Spec: 1 Cluster Network: Cidr: 10.128.0.0/14 Host Prefix: 23 Network Type: OpenShiftSDN Service Network: 172.30.0.0/16 Status: 2 Cluster Network: Cidr: 10.128.0.0/14 Host Prefix: 23 Cluster Network MTU: 8951 Network Type: OpenShiftSDN Service Network: 172.30.0.0/16 Events: <none>
5.3. CNO(Cluster Network Operator) 상태 보기
oc describe 명령을 사용하여 상태를 조사하고 Cluster Network Operator의 세부 사항을 볼 수 있습니다.
프로세스
다음 명령을 실행하여 Cluster Network Operator의 상태를 확인합니다.
$ oc describe clusteroperators/network
5.4. CNO(Cluster Network Operator) 로그 보기
oc logs 명령을 사용하여 Cluster Network Operator 로그를 확인할 수 있습니다.
프로세스
다음 명령을 실행하여 Cluster Network Operator의 로그를 확인합니다.
$ oc logs --namespace=openshift-network-operator deployment/network-operator
5.5. CNO(Cluster Network Operator) 구성
클러스터 네트워크의 구성은 CNO(Cluster Network Operator) 구성의 일부로 지정되며 cluster라는 이름의 CR(사용자 정의 리소스) 오브젝트에 저장됩니다. CR은 operator.openshift.io API 그룹에서 Network API의 필드를 지정합니다.
CNO 구성은 Network.config.openshift.io API 그룹의 Network API에서 클러스터 설치 중에 다음 필드를 상속하며 이러한 필드는 변경할 수 없습니다.
clusterNetwork- Pod IP 주소가 할당되는 IP 주소 풀입니다.
serviceNetwork- 서비스를 위한 IP 주소 풀입니다.
defaultNetwork.type- OpenShift SDN 또는 OVN-Kubernetes와 같은 클러스터 네트워크 플러그인.
클러스터를 설치한 후에는 이전 섹션에 나열된 필드를 수정할 수 없습니다.
cluster라는 CNO 오브젝트에서 defaultNetwork 오브젝트의 필드를 설정하여 클러스터의 클러스터 네트워크 플러그인 구성을 지정할 수 있습니다.
5.5.1. CNO(Cluster Network Operator) 구성 오브젝트
CNO(Cluster Network Operator)의 필드는 다음 표에 설명되어 있습니다.
표 5.1. CNO(Cluster Network Operator) 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CNO 개체 이름입니다. 이 이름은 항상 |
|
|
| Pod IP 주소가 할당되는 IP 주소 블록과 클러스터의 각 개별 노드에 할당된 서브넷 접두사 길이를 지정하는 목록입니다. 예를 들면 다음과 같습니다. spec:
clusterNetwork:
- cidr: 10.128.0.0/19
hostPrefix: 23
- cidr: 10.128.32.0/19
hostPrefix: 23
이 값은 준비 전용이며 클러스터 설치 중에 |
|
|
| 서비스의 IP 주소 블록입니다. OpenShift SDN 및 OVN-Kubernetes 네트워크 플러그인은 서비스 네트워크에 대한 단일 IP 주소 블록만 지원합니다. 예를 들면 다음과 같습니다. spec: serviceNetwork: - 172.30.0.0/14
이 값은 준비 전용이며 클러스터 설치 중에 |
|
|
| 클러스터 네트워크의 네트워크 플러그인을 구성합니다. |
|
|
| 이 개체의 필드는 kube-proxy 구성을 지정합니다. OVN-Kubernetes 클러스터 네트워크 플러그인을 사용하는 경우 kube-proxy 구성이 적용되지 않습니다. |
defaultNetwork 오브젝트 구성
defaultNetwork 오브젝트의 값은 다음 표에 정의되어 있습니다.
표 5.2. defaultNetwork 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
참고 OpenShift Container Platform에서는 기본적으로 OVN-Kubernetes 네트워크 플러그인을 사용합니다. |
|
|
| 이 오브젝트는 OpenShift SDN 네트워크 플러그인에만 유효합니다. |
|
|
| 이 오브젝트는 OVN-Kubernetes 네트워크 플러그인에만 유효합니다. |
OpenShift SDN 네트워크 플러그인 구성
다음 표에서는 OpenShift SDN 네트워크 플러그인의 구성 필드를 설명합니다.
표 5.3. openshiftSDNConfig 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| OpenShift SDN의 네트워크 격리 모드입니다. |
|
|
| VXLAN 오버레이 네트워크의 최대 전송 단위(MTU)입니다. 이 값은 일반적으로 자동 구성됩니다. |
|
|
|
모든 VXLAN 패킷에 사용할 포트입니다. 기본값은 |
클러스터 설치 중에 클러스터 네트워크 플러그인의 구성만 변경할 수 있습니다.
OpenShift SDN 구성 예
defaultNetwork:
type: OpenShiftSDN
openshiftSDNConfig:
mode: NetworkPolicy
mtu: 1450
vxlanPort: 4789
OVN-Kubernetes 네트워크 플러그인 구성
다음 표에서는 OVN-Kubernetes 네트워크 플러그인의 구성 필드를 설명합니다.
표 5.4. ovnKubernetesConfig object
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| Geneve(Generic Network Virtualization Encapsulation) 오버레이 네트워크의 MTU(최대 전송 단위)입니다. 이 값은 일반적으로 자동 구성됩니다. |
|
|
| Geneve 오버레이 네트워크용 UDP 포트입니다. |
|
|
| 필드가 있으면 클러스터에 IPsec이 활성화됩니다. |
|
|
| 네트워크 정책 감사 로깅을 사용자 정의할 구성 오브젝트를 지정합니다. 설정되지 않으면 기본값 감사 로그 설정이 사용됩니다. |
|
|
| 선택 사항: 송신 트래픽이 노드 게이트웨이로 전송되는 방법을 사용자 정의할 구성 오브젝트를 지정합니다. 참고 While migrating egress traffic, you can expect some disruption to workloads and service traffic until the Cluster Network Operator (CNO) successfully rolls out the changes. |
|
|
기존 네트워크 인프라가 이 필드는 설치 후 변경할 수 없습니다. |
기본값은 |
|
|
기존 네트워크 인프라가 이 필드는 설치 후 변경할 수 없습니다. |
기본값은 |
표 5.5. policyAuditConfig 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
| integer |
노드당 1초마다 생성할 최대 메시지 수입니다. 기본값은 초당 |
|
| integer |
감사 로그의 최대 크기(바이트)입니다. 기본값은 |
|
| string | 다음 추가 감사 로그 대상 중 하나입니다.
|
|
| string |
RFC5424에 정의된 |
표 5.6. gatewayConfig 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
Pod에서 호스트 네트워킹 스택으로 송신 트래픽을 보내려면 이 필드를
이 필드는 Open vSwitch 하드웨어 오프로드 기능과 상호 작용합니다. 이 필드를 |
설치 후 작업으로 런타임 시 변경할 수 있는 gatewayConfig 필드를 제외하고 클러스터 설치 중에 클러스터 네트워크 플러그인의 구성만 변경할 수 있습니다.
IPSec가 활성화된 OVN-Kubernetes 구성의 예
defaultNetwork:
type: OVNKubernetes
ovnKubernetesConfig:
mtu: 1400
genevePort: 6081
ipsecConfig: {}
kubeProxyConfig 오브젝트 구성
kubeProxyConfig 오브젝트의 값은 다음 표에 정의되어 있습니다.
표 5.7. kubeProxyConfig object
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
참고
OpenShift Container Platform 4.3 이상에서는 성능이 개선되어 더 이상 |
|
|
|
kubeProxyConfig:
proxyArguments:
iptables-min-sync-period:
- 0s
|
5.5.2. CNO(Cluster Network Operator) 구성 예시
다음 예에서는 전체 CNO 구성이 지정됩니다.
CNO(Cluster Network Operator) 개체 예시
apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: clusterNetwork: 1 - cidr: 10.128.0.0/14 hostPrefix: 23 serviceNetwork: 2 - 172.30.0.0/16 defaultNetwork: 3 type: OpenShiftSDN openshiftSDNConfig: mode: NetworkPolicy mtu: 1450 vxlanPort: 4789 kubeProxyConfig: iptablesSyncPeriod: 30s proxyArguments: iptables-min-sync-period: - 0s
5.6. 추가 리소스
6장. OpenShift Container Platform에서의 DNS Operator
DNS Operator는 CoreDNS를 배포 및 관리하여 Pod에 이름 확인 서비스를 제공하여 OpenShift Container Platform에서 DNS 기반 Kubernetes 서비스 검색을 활성화합니다.
6.1. DNS Operator
DNS Operator는 operator.openshift.io API 그룹에서 dns API를 구현합니다. Operator는 데몬 세트를 사용하여 CoreDNS를 배포하고 데몬 세트에 대한 서비스를 생성하며 이름 확인에서 CoreDNS 서비스 IP 주소를 사용하기 위해 Pod에 명령을 내리도록 kubelet을 구성합니다.
프로세스
DNS Operator는 설치 중에 Deployment 오브젝트로 배포됩니다.
oc get명령을 사용하여 배포 상태를 확인합니다.$ oc get -n openshift-dns-operator deployment/dns-operator
출력 예
NAME READY UP-TO-DATE AVAILABLE AGE dns-operator 1/1 1 1 23h
oc get명령을 사용하여 DNS Operator의 상태를 확인합니다.$ oc get clusteroperator/dns
출력 예
NAME VERSION AVAILABLE PROGRESSING DEGRADED SINCE dns 4.1.0-0.11 True False False 92m
AVAILABLE,PROGRESSING및DEGRADED는 Operator의 상태에 대한 정보를 제공합니다.AVAILABLE은 CoreDNS 데몬 세트에서 1개 이상의 포드가Available상태 조건을 보고할 때True입니다.
6.2. DNS Operator managementState 변경
DNS는 CoreDNS 구성 요소를 관리하여 클러스터의 pod 및 서비스에 대한 이름 확인 서비스를 제공합니다. DNS Operator의 managementState는 기본적으로 Managed로 설정되어 있으며 이는 DNS Operator가 리소스를 적극적으로 관리하고 있음을 의미합니다. Unmanaged로 변경할 수 있습니다. 이는 DNS Operator가 해당 리소스를 관리하지 않음을 의미합니다.
다음은 DNS Operator managementState를 변경하는 사용 사례입니다.
-
사용자가 개발자이며 구성 변경을 테스트하여 CoreDNS의 문제가 해결되었는지 확인하려고 합니다.
managementState를Unmanaged로 설정하여 DNS Operator가 수정 사항을 덮어쓰지 않도록 할 수 있습니다. -
클러스터 관리자이며 CoreDNS 관련 문제를 보고했지만 문제가 해결될 때까지 해결 방법을 적용해야 합니다. DNS Operator의
managementState필드를Unmanaged로 설정하여 해결 방법을 적용할 수 있습니다.
절차
managementStateDNS Operator 변경:oc patch dns.operator.openshift.io default --type merge --patch '{"spec":{"managementState":"Unmanaged"}}'
6.3. DNS Pod 배치 제어
DNS Operator에는 2개의 데몬 세트(CoreDNS 및 /etc/hosts 파일 관리용)가 있습니다. 이미지 가져오기를 지원할 클러스터 이미지 레지스트리의 항목을 추가하려면 모든 노드 호스트에서 /etc/hosts의 데몬 세트를 실행해야 합니다. 보안 정책은 CoreDNS에 대한 데몬 세트가 모든 노드에서 실행되지 않도록 하는 노드 쌍 간 통신을 금지할 수 있습니다.
클러스터 관리자는 사용자 정의 노드 선택기를 사용하여 특정 노드에서 CoreDNS를 실행하거나 실행하지 않도록 데몬 세트를 구성할 수 있습니다.
사전 요구 사항
-
ocCLI를 설치했습니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
프로세스
특정 노드 간 통신을 방지하려면
spec.nodePlacement.nodeSelectorAPI 필드를 구성합니다.이름이
default인 DNS Operator 오브젝트를 수정합니다.$ oc edit dns.operator/default
spec.nodePlacement.nodeSelectorAPI 필드에 컨트롤 플레인 노드만 포함하는 노드 선택기를 지정합니다.spec: nodePlacement: nodeSelector: node-role.kubernetes.io/worker: ""
CoreDNS의 데몬 세트가 노드에서 실행되도록 테인트 및 허용 오차를 구성합니다.
이름이
default인 DNS Operator 오브젝트를 수정합니다.$ oc edit dns.operator/default
테인트 키와 테인트에 대한 허용 오차를 지정합니다.
spec: nodePlacement: tolerations: - effect: NoExecute key: "dns-only" operators: Equal value: abc tolerationSeconds: 3600 1- 1
- 테인트가
dns-only인 경우 무기한 허용될 수 있습니다.tolerationSeconds를생략할 수 있습니다.
6.4. 기본 DNS보기
모든 새로운 OpenShift Container Platform 설치에서는 dns.operator의 이름이 default로 지정됩니다.
프로세스
oc describe명령을 사용하여 기본dns를 확인합니다.$ oc describe dns.operator/default
출력 예
Name: default Namespace: Labels: <none> Annotations: <none> API Version: operator.openshift.io/v1 Kind: DNS ... Status: Cluster Domain: cluster.local 1 Cluster IP: 172.30.0.10 2 ...
클러스터의 service CIDR을 찾으려면
oc get명령을 사용합니다.$ oc get networks.config/cluster -o jsonpath='{$.status.serviceNetwork}'
출력 예
[172.30.0.0/16]
6.5. DNS 전달 사용
다음과 같은 방법으로 DNS 전달을 사용하여 /etc/resolv.conf 파일의 기본 전달 구성을 덮어쓸 수 있습니다.
- 모든 영역에 이름 서버를 지정합니다. 전달된 영역이 OpenShift Container Platform에서 관리하는 Ingress 도메인인 경우 도메인에 대한 업스트림 이름 서버를 승인해야 합니다.
- 업스트림 DNS 서버 목록을 제공합니다.
- 기본 전달 정책을 변경합니다.
기본 도메인에 대한 DNS 전달 구성에는 /etc/resolv.conf 파일과 업스트림 DNS 서버에 기본 서버가 모두 지정될 수 있습니다.
절차
이름이
default인 DNS Operator 오브젝트를 수정합니다.$ oc edit dns.operator/default
이전 명령을 실행한 후 Operator는 서버를 기반으로 추가 서버 구성 블록을 사용하여
dns-default라는 구성 맵을 생성하고 업데이트합니다.서버에 쿼리와 일치하는 영역이 없으면 이름 확인이 업스트림 DNS 서버로 대체됩니다.DNS 전달 구성
apiVersion: operator.openshift.io/v1 kind: DNS metadata: name: default spec: servers: - name: example-server 1 zones: 2 - example.com forwardPlugin: policy: Random 3 upstreams: 4 - 1.1.1.1 - 2.2.2.2:5353 upstreamResolvers: 5 policy: Random 6 upstreams: 7 - type: SystemResolvConf 8 - type: Network address: 1.2.3.4 9 port: 53 10
- 1
rfc6335서비스 이름 구문을 준수해야 합니다.- 2
rfc1123서비스 이름 구문에 있는 하위 도메인 정의를 준수해야 합니다. 클러스터 도메인cluster.local은zones필드에 유효하지 않은 하위 도메인입니다.- 3
- 업스트림 리졸버를 선택하는 정책을 정의합니다. 기본값은
Random입니다.RoundRobin및Sequential값을 사용할 수도 있습니다. - 4
forwardPlugin당 최대 15개의업스트림이 허용됩니다.- 5
- 선택 사항: 이를 사용하여 기본 정책을 재정의하고 기본 도메인에 대해 지정된 DNS 확인자(업스트림 확인자)로 DNS 확인을 전달할 수 있습니다. 업스트림 리졸버를 제공하지 않으면 DNS 이름 쿼리는
/etc/resolv.conf의 서버로 이동합니다. - 6
- 업스트림 서버를 쿼리하기 위해 선택한 순서를 결정합니다. 다음 값 중 하나를 지정할 수 있습니다.
Random,RoundRobin, 또는Sequential. 기본값은Sequential입니다. - 7
- 선택 사항: 이를 사용하여 업스트림 리졸버를 제공할 수 있습니다.
- 8
업스트림의 두 가지 유형인SystemResolvConf및Network를 지정할 수 있습니다.SystemResolvConf는/etc/resolv.conf를 사용하도록 업스트림을 구성하고를 정의합니다. 둘 중 하나 또는 둘 다를 지정할 수 있습니다.Networkresolver- 9
- 지정된 유형이
네트워크이면 IP 주소를 제공해야 합니다.address필드는 유효한 IPv4 또는 IPv6 주소여야 합니다. - 10
- 지정된 유형이
네트워크이면 선택적으로 포트를 제공할 수 있습니다.port필드에는1에서65535사이의 값이 있어야 합니다. 업스트림의 포트를 지정하지 않으면 기본적으로 포트 853이 시도됩니다.
선택 사항: 고도로 규제된 환경에서 작업할 때 추가 DNS 트래픽 및 데이터 개인 정보를 보장할 수 있도록 요청을 업스트림 해석기로 전달할 때 DNS 트래픽을 보호할 수 있는 기능이 필요할 수 있습니다. 클러스터 관리자는 전달된 DNS 쿼리에 대해 TLS(Transport Layer Security)를 구성할 수 있습니다.
TLS를 사용하여 DNS 전달 구성
apiVersion: operator.openshift.io/v1 kind: DNS metadata: name: default spec: servers: - name: example-server 1 zones: 2 - example.com forwardPlugin: transportConfig: transport: TLS 3 tls: caBundle: name: mycacert serverName: dnstls.example.com 4 policy: Random 5 upstreams: 6 - 1.1.1.1 - 2.2.2.2:5353 upstreamResolvers: 7 transportConfig: transport: TLS tls: caBundle: name: mycacert serverName: dnstls.example.com upstreams: - type: Network 8 address: 1.2.3.4 9 port: 53 10
- 1
rfc6335서비스 이름 구문을 준수해야 합니다.- 2
rfc1123서비스 이름 구문에 있는 하위 도메인 정의를 준수해야 합니다. 클러스터 도메인cluster.local은zones필드에 유효하지 않은 하위 도메인입니다. 클러스터 도메인에 해당하는cluster.local은영역에 유효하지 않은하위 도메인입니다.- 3
- 전달된 DNS 쿼리에 대해 TLS를 구성할 때
전송필드를 값TLS를 갖도록 설정합니다. 기본적으로 CoreDNS 캐시는 10초 동안 연결을 전달합니다. CoreDNS는 요청이 발행되지 않은 경우 10초 동안 TCP 연결을 엽니다. 대규모 클러스터에서는 노드당 연결을 시작할 수 있으므로 DNS 서버에서 많은 새 연결을 유지할 수 있는지 확인합니다. 성능 문제가 발생하지 않도록 DNS 계층을 적절하게 설정합니다. - 4
- 전달된 DNS 쿼리에 대해 TLS를 구성할 때 이는 업스트림 TLS 서버 인증서의 유효성을 확인하기 위해 SNI(서버 이름 표시)의 일부로 사용되는 필수 서버 이름입니다.
- 5
- 업스트림 리졸버를 선택하는 정책을 정의합니다. 기본값은
Random입니다.RoundRobin및Sequential값을 사용할 수도 있습니다. - 6
- 필수 항목입니다. 이를 사용하여 업스트림 리졸버를 제공할 수 있습니다.
forwardPlugin항목당 최대 15개의 업스트림항목이 허용됩니다. - 7
- 선택 사항: 이를 사용하여 기본 정책을 재정의하고 기본 도메인에 대해 지정된 DNS 확인자(업스트림 확인자)로 DNS 확인을 전달할 수 있습니다. 업스트림 리졸버를 제공하지 않으면 DNS 이름 쿼리는
/etc/resolv.conf의 서버로 이동합니다. - 8
네트워크유형은 이 업스트림 리졸버가/etc/resolv.conf에 나열된 업스트림 리졸버와 별도로 전달된 요청을 처리해야 함을 나타냅니다. TLS를 사용할 때네트워크유형만 허용되며 IP 주소를 제공해야 합니다.- 9
address필드는 유효한 IPv4 또는 IPv6 주소여야 합니다.- 10
- 선택적으로 포트를 제공할 수 있습니다.
포트의 값은1에서65535사이여야 합니다. 업스트림의 포트를 지정하지 않으면 기본적으로 포트 853이 시도됩니다.
참고servers가 정의되지 않았거나 유효하지 않은 경우 구성 맵에는 기본 서버만 포함됩니다.
검증
구성 맵을 표시합니다.
$ oc get configmap/dns-default -n openshift-dns -o yaml
이전 샘플 DNS를 기반으로 하는 샘플 DNS ConfigMap
apiVersion: v1 data: Corefile: | example.com:5353 { forward . 1.1.1.1 2.2.2.2:5353 } bar.com:5353 example.com:5353 { forward . 3.3.3.3 4.4.4.4:5454 1 } .:5353 { errors health kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure upstream fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf 1.2.3.4:53 { policy Random } cache 30 reload } kind: ConfigMap metadata: labels: dns.operator.openshift.io/owning-dns: default name: dns-default namespace: openshift-dns- 1
forwardPlugin을 변경하면 CoreDNS 데몬 세트의 롤링 업데이트가 트리거됩니다.
추가 리소스
- DNS 전달에 대한 자세한 내용은 CoreDNS 전달 설명서를 참조하십시오.
6.6. DNS Operator 상태
oc describe 명령을 사용하여 상태를 확인하고 DNS Operator의 세부 사항을 볼 수 있습니다.
프로세스
DNS Operator의 상태를 확인하려면 다음을 실행합니다.
$ oc describe clusteroperators/dns
6.7. DNS Operator 로그
oc logs 명령을 사용하여 DNS Operator 로그를 확인할 수 있습니다.
프로세스
DNS Operator의 로그를 확인합니다.
$ oc logs -n openshift-dns-operator deployment/dns-operator -c dns-operator
6.8. CoreDNS 로그 수준 설정
로깅된 오류 메시지의 세부 사항을 결정하도록 CoreDNS 로그 수준을 구성할 수 있습니다. CoreDNS 로그 수준에 유효한 값은 정상,디버그, 추적 입니다. 기본 logLevel 은 Normal 입니다.
오류 플러그인은 항상 활성화되어 있습니다. 다음 logLevel 설정은 다른 오류 응답을 보고합니다.
-
loglevel :Normal은 "errors" class:log . { class error }를 활성화합니다. -
loglevel :Debug를 사용하면 "denial" class:log . { class denial error }}를 사용할 수 있습니다. -
loglevel :Trace는 "all" class:log . { class all }를 활성화합니다.
절차
logLevel을Debug로 설정하려면 다음 명령을 입력합니다.$ oc patch dnses.operator.openshift.io/default -p '{"spec":{"logLevel":"Debug"}}' --type=mergelogLevel을Trace로 설정하려면 다음 명령을 입력합니다.$ oc patch dnses.operator.openshift.io/default -p '{"spec":{"logLevel":"Trace"}}' --type=merge
검증
원하는 로그 수준이 설정되었는지 확인하려면 구성 맵을 확인합니다.
$ oc get configmap/dns-default -n openshift-dns -o yaml
6.9. CoreDNS Operator 로그 수준 설정
클러스터 관리자는 OpenShift DNS 문제를 더 빠르게 추적하도록 Operator 로그 수준을 구성할 수 있습니다. operatorLogLevel 의 유효한 값은 Normal,Debug, and Trace 입니다. 추적에 가장 자세한 정보가 있습니다. 기본 operatorlogLevel 은 Normal 입니다. 추적, 디버그, 정보, 경고, 오류, 치명적 및 패닉의 7 가지 로깅 수준이 있습니다. 로깅 수준이 설정되면 해당 심각도 또는 위의 항목이 있는 로그 항목이 기록됩니다.
-
operatorLogLevel: "Normal"은logrus.SetLogLevel("Info")을 설정합니다. -
operatorLogLevel: "Debug"는logrus.SetLogLevel("Debug")을 설정합니다. -
operatorLogLevel: "Trace"는logrus.SetLogLevel("Trace")을 설정합니다.
절차
operatorLogLevel을Debug로 설정하려면 다음 명령을 입력합니다.$ oc patch dnses.operator.openshift.io/default -p '{"spec":{"operatorLogLevel":"Debug"}}' --type=mergeoperatorLogLevel을Trace로 설정하려면 다음 명령을 입력합니다.$ oc patch dnses.operator.openshift.io/default -p '{"spec":{"operatorLogLevel":"Trace"}}' --type=merge
6.10. CoreDNS 캐시 튜닝
CoreDNS에서 수행하는 각각 양수 또는 음수 캐싱이라고도 하는 성공적인 캐싱 또는 실패한 캐싱의 최대 기간을 구성할 수 있습니다. DNS 쿼리 응답의 캐싱 기간을 조정하면 업스트림 DNS 확인 프로그램의 부하를 줄일 수 있습니다.
절차
다음 명령을 실행하여
default라는 DNS Operator 오브젝트를 편집합니다.$ oc edit dns.operator.openshift.io/default
TTL(Time-to-live) 캐싱 값을 수정합니다.
DNS 캐싱 구성
apiVersion: operator.openshift.io/v1 kind: DNS metadata: name: default spec: cache: positiveTTL: 1h 1 negativeTTL: 0.5h10m 2주의TTL 필드를 낮은 값으로 설정하면 클러스터의 부하 증가, 모든 업스트림 리졸버 또는 둘 다 발생할 수 있습니다.
7장. OpenShift Container Platform에서의 Ingress Operator
7.1. OpenShift Container Platform Ingress Operator
OpenShift Container Platform 클러스터를 생성할 때 클러스터에서 실행되는 Pod 및 서비스에는 각각 자체 IP 주소가 할당됩니다. IP 주소는 내부에서 실행되지만 외부 클라이언트가 액세스할 수 없는 다른 pod 및 서비스에 액세스할 수 있습니다. Ingress Operator는 IngressController API를 구현하며 OpenShift Container Platform 클러스터 서비스에 대한 외부 액세스를 활성화하는 구성 요소입니다.
Ingress Operator를 사용하면 라우팅을 처리하기 위해 하나 이상의 HAProxy 기반 Ingress 컨트롤러를 배포하고 관리하여 외부 클라이언트가 서비스에 액세스할 수 있습니다. Ingress Operator를 사용하여 OpenShift 컨테이너 플랫폼 Route 및 Kubernetes Ingress 리소스를 지정하면 수신 트래픽을 라우팅할 수 있습니다. endpointPublishingStrategy 유형 및 내부 로드 밸런싱을 정의하는 기능과 같은 Ingress 컨트롤러 내 구성은 Ingress 컨트롤러 끝점을 게시하는 방법을 제공합니다.
7.2. Ingress 구성 자산
설치 프로그램은 config.openshift.io API 그룹인 cluster-ingress-02-config.yml에 Ingress 리소스가 포함된 자산을 생성합니다.
Ingress 리소스의 YAML 정의
apiVersion: config.openshift.io/v1 kind: Ingress metadata: name: cluster spec: domain: apps.openshiftdemos.com
설치 프로그램은 이 자산을 manifests / 디렉터리의 cluster-ingress-02-config.yml 파일에 저장합니다. 이 Ingress 리소스는 Ingress와 관련된 전체 클러스터 구성을 정의합니다. 이 Ingress 구성은 다음과 같이 사용됩니다.
- Ingress Operator는 클러스터 Ingress 구성에 설정된 도메인을 기본 Ingress 컨트롤러의 도메인으로 사용합니다.
-
OpenShift API Server Operator는 클러스터 Ingress 구성의 도메인을 사용합니다. 이 도메인은 명시적 호스트를 지정하지 않는
Route리소스에 대한 기본 호스트를 생성할 수도 있습니다.
7.3. Ingress 컨트롤러 구성 매개변수
ingresscontrollers.operator.openshift.io 리소스에서 제공되는 구성 매개변수는 다음과 같습니다.
| 매개변수 | 설명 |
|---|---|
|
|
비어 있는 경우 기본값은 |
|
|
|
|
|
GCP, AWS 및 Azure에서 다음
설정되지 않은 경우, 기본값은
대부분의 플랫폼의 경우
|
|
|
보안에는 키와 데이터, 즉 *
설정하지 않으면 와일드카드 인증서가 자동으로 생성되어 사용됩니다. 인증서는 Ingress 컨트롤러 생성된 인증서 또는 사용자 정의 인증서는 OpenShift Container Platform 내장 OAuth 서버와 자동으로 통합됩니다. |
|
|
|
|
|
|
|
|
설정하지 않으면 기본값이 사용됩니다. 참고
nodePlacement:
nodeSelector:
matchLabels:
kubernetes.io/os: linux
tolerations:
- effect: NoSchedule
operator: Exists |
|
|
설정되지 않으면, 기본값은
Ingress 컨트롤러의 최소 TLS 버전은 참고
구성된 보안 프로파일의 암호 및 최소 TLS 버전은 중요
Ingress Operator는 |
|
|
|
|
|
|
|
|
|
|
|
기본적으로 정책은
이러한 조정은 HTTP/1을 사용하는 경우에만 일반 텍스트, 에지 종료 및 재암호화 경로에 적용됩니다.
요청 헤더의 경우 이러한 조정은 |
|
|
|
|
|
|
|
|
캡처하려는 모든 쿠키의 경우 다음 매개변수는
예를 들면 다음과 같습니다. httpCaptureCookies:
- matchType: Exact
maxLength: 128
name: MYCOOKIE
|
|
|
httpCaptureHeaders:
request:
- maxLength: 256
name: Connection
- maxLength: 128
name: User-Agent
response:
- maxLength: 256
name: Content-Type
- maxLength: 256
name: Content-Length
|
|
|
|
|
|
|
|
|
이러한 연결은 로드 밸런서 상태 프로브 또는 웹 브라우저 추측 연결(preconnect)에서 제공되며 무시해도 됩니다. 그러나 이러한 요청은 네트워크 오류로 인해 발생할 수 있으므로 이 필드를 |
모든 매개변수는 선택 사항입니다.
7.3.1. Ingress 컨트롤러 TLS 보안 프로필
TLS 보안 프로필은 서버가 서버에 연결할 때 연결 클라이언트가 사용할 수 있는 암호를 규제하는 방법을 제공합니다.
7.3.1.1. TLS 보안 프로필 이해
TLS(Transport Layer Security) 보안 프로필을 사용하여 다양한 OpenShift Container Platform 구성 요소에 필요한 TLS 암호를 정의할 수 있습니다. OpenShift Container Platform TLS 보안 프로필은 Mozilla 권장 구성을 기반으로 합니다.
각 구성 요소에 대해 다음 TLS 보안 프로필 중 하나를 지정할 수 있습니다.
표 7.1. TLS 보안 프로필
| Profile | 설명 |
|---|---|
|
| 이 프로필은 레거시 클라이언트 또는 라이브러리와 함께 사용하기 위한 것입니다. 프로필은 이전 버전과의 호환성 권장 구성을 기반으로 합니다.
참고 Ingress 컨트롤러의 경우 최소 TLS 버전이 1.0에서 1.1로 변환됩니다. |
|
| 이 프로필은 대부분의 클라이언트에서 권장되는 구성입니다. Ingress 컨트롤러, kubelet 및 컨트롤 플레인의 기본 TLS 보안 프로필입니다. 프로필은 중간 호환성 권장 구성을 기반으로 합니다.
|
|
| 이 프로필은 이전 버전과의 호환성이 필요하지 않은 최신 클라이언트와 사용하기 위한 것입니다. 이 프로필은 최신 호환성 권장 구성을 기반으로 합니다.
|
|
| 이 프로필을 사용하면 사용할 TLS 버전과 암호를 정의할 수 있습니다. 주의
|
미리 정의된 프로파일 유형 중 하나를 사용하는 경우 유효한 프로파일 구성은 릴리스마다 변경될 수 있습니다. 예를 들어 릴리스 X.Y.Z에 배포된 중간 프로필을 사용하는 사양이 있는 경우 릴리스 X.Y.Z+1로 업그레이드하면 새 프로필 구성이 적용되어 롤아웃이 발생할 수 있습니다.
7.3.1.2. Ingress 컨트롤러의 TLS 보안 프로필 구성
Ingress 컨트롤러에 대한 TLS 보안 프로필을 구성하려면 IngressController CR(사용자 정의 리소스)을 편집하여 사전 정의된 또는 사용자 지정 TLS 보안 프로필을 지정합니다. TLS 보안 프로필이 구성되지 않은 경우 기본값은 API 서버에 설정된 TLS 보안 프로필을 기반으로 합니다.
Old TLS 보안 프로파일을 구성하는 샘플 IngressController CR
apiVersion: operator.openshift.io/v1
kind: IngressController
...
spec:
tlsSecurityProfile:
old: {}
type: Old
...
TLS 보안 프로필은 Ingress 컨트롤러의 TLS 연결에 대한 최소 TLS 버전과 TLS 암호를 정의합니다.
Status.Tls Profile 아래의 IngressController CR(사용자 정의 리소스) 및 Spec.Tls Security Profile 아래 구성된 TLS 보안 프로필에서 구성된 TLS 보안 프로필의 암호 및 최소 TLS 버전을 확인할 수 있습니다. Custom TLS 보안 프로필의 경우 특정 암호 및 최소 TLS 버전이 두 매개변수 아래에 나열됩니다.
HAProxy Ingress 컨트롤러 이미지는 TLS 1.3 및 Modern 프로필을 지원합니다.
Ingress Operator는 Old 또는 Custom 프로파일의 TLS 1.0을 1.1로 변환합니다.
사전 요구 사항
-
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
openshift-ingress-operator프로젝트에서IngressControllerCR을 편집하여 TLS 보안 프로필을 구성합니다.$ oc edit IngressController default -n openshift-ingress-operator
spec.tlsSecurityProfile필드를 추가합니다.Custom프로필에 대한IngressControllerCR 샘플apiVersion: operator.openshift.io/v1 kind: IngressController ... spec: tlsSecurityProfile: type: Custom 1 custom: 2 ciphers: 3 - ECDHE-ECDSA-CHACHA20-POLY1305 - ECDHE-RSA-CHACHA20-POLY1305 - ECDHE-RSA-AES128-GCM-SHA256 - ECDHE-ECDSA-AES128-GCM-SHA256 minTLSVersion: VersionTLS11 ...- 파일을 저장하여 변경 사항을 적용합니다.
검증
IngressControllerCR에 프로파일이 설정되어 있는지 확인합니다.$ oc describe IngressController default -n openshift-ingress-operator
출력 예
Name: default Namespace: openshift-ingress-operator Labels: <none> Annotations: <none> API Version: operator.openshift.io/v1 Kind: IngressController ... Spec: ... Tls Security Profile: Custom: Ciphers: ECDHE-ECDSA-CHACHA20-POLY1305 ECDHE-RSA-CHACHA20-POLY1305 ECDHE-RSA-AES128-GCM-SHA256 ECDHE-ECDSA-AES128-GCM-SHA256 Min TLS Version: VersionTLS11 Type: Custom ...
7.3.1.3. 상호 TLS 인증 구성
spec.clientTLS 값을 설정하여 mTLS(mTLS) 인증을 사용하도록 Ingress 컨트롤러를 구성할 수 있습니다. clientTLS 값은 클라이언트 인증서를 확인하도록 Ingress 컨트롤러를 구성합니다. 이 구성에는 구성 맵에 대한 참조인 clientCA 값 설정이 포함됩니다. 구성 맵에는 클라이언트의 인증서를 확인하는 데 사용되는 PEM 인코딩 CA 인증서 번들이 포함되어 있습니다. 필요한 경우 인증서 주체 필터 목록을 구성할 수도 있습니다.
clientCA 값이 X509v3 인증서 취소 목록(CRL) 배포 지점을 지정하는 경우 Ingress Operator는 제공된 각 인증서에 지정된 HTTP URI X509v3 CRL 배포 포인트를 기반으로 CRL 구성 맵을 다운로드하고 관리합니다. Ingress 컨트롤러는 mTLS/TLS 협상 중에 이 구성 맵을 사용합니다. 유효한 인증서를 제공하지 않는 요청은 거부됩니다.
사전 요구 사항
-
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있어야 합니다. - PEM 인코딩 CA 인증서 번들이 있습니다.
CA 번들이 CRL 배포 지점을 참조하는 경우 클라이언트 CA 번들에 end-entity 또는 leaf 인증서도 포함되어 있어야 합니다. 이 인증서에는 RFC 5280에 설명된 대로
CRL 배포 포인트아래에 HTTP URI가 포함되어야 합니다. 예를 들면 다음과 같습니다.Issuer: C=US, O=Example Inc, CN=Example Global G2 TLS RSA SHA256 2020 CA1 Subject: SOME SIGNED CERT X509v3 CRL Distribution Points: Full Name: URI:http://crl.example.com/example.crl
절차
openshift-config네임스페이스에서 CA 번들에서 구성 맵을 생성합니다.$ oc create configmap \ router-ca-certs-default \ --from-file=ca-bundle.pem=client-ca.crt \1 -n openshift-config- 1
- 구성 맵 데이터 키는
ca-bundle.pem이어야 하며 데이터 값은 PEM 형식의 CA 인증서여야 합니다.
openshift-ingress-operator프로젝트에서IngressController리소스를 편집합니다.$ oc edit IngressController default -n openshift-ingress-operator
spec.clientTLS필드 및 하위 필드를 추가하여 상호 TLS를 구성합니다.패턴 필터링을 지정하는
clientTLS프로필에 대한IngressControllerCR 샘플apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: clientTLS: clientCertificatePolicy: Required clientCA: name: router-ca-certs-default allowedSubjectPatterns: - "^/CN=example.com/ST=NC/C=US/O=Security/OU=OpenShift$"
7.4. 기본 Ingress 컨트롤러 보기
Ingress Operator는 OpenShift Container Platform의 핵심 기능이며 즉시 사용이 가능합니다.
모든 새로운 OpenShift Container Platform 설치에는 이름이 ingresscontroller로 기본으로 지정됩니다. 추가 Ingress 컨트롤러를 추가할 수 있습니다. 기본 ingresscontroller가 삭제되면 Ingress Operator가 1분 이내에 자동으로 다시 생성합니다.
프로세스
기본 Ingress 컨트롤러를 확인합니다.
$ oc describe --namespace=openshift-ingress-operator ingresscontroller/default
7.5. Ingress Operator 상태 보기
Ingress Operator의 상태를 확인 및 조사할 수 있습니다.
프로세스
Ingress Operator 상태를 확인합니다.
$ oc describe clusteroperators/ingress
7.6. Ingress 컨트롤러 로그 보기
Ingress 컨트롤러의 로그를 확인할 수 있습니다.
프로세스
Ingress 컨트롤러 로그를 확인합니다.
$ oc logs --namespace=openshift-ingress-operator deployments/ingress-operator -c <container_name>
7.7. Ingress 컨트롤러 상태 보기
특정 Ingress 컨트롤러의 상태를 확인할 수 있습니다.
프로세스
Ingress 컨트롤러의 상태를 확인합니다.
$ oc describe --namespace=openshift-ingress-operator ingresscontroller/<name>
7.8. Ingress 컨트롤러 구성
7.8.1. 사용자 정의 기본 인증서 설정
관리자는 Secret 리소스를 생성하고 IngressController CR(사용자 정의 리소스)을 편집하여 사용자 정의 인증서를 사용하도록 Ingress 컨트롤러를 구성할 수 있습니다.
사전 요구 사항
- PEM 인코딩 파일에 인증서/키 쌍이 있어야 합니다. 이때 인증서는 신뢰할 수 있는 인증 기관 또는 사용자 정의 PKI에서 구성한 신뢰할 수 있는 개인 인증 기관의 서명을 받은 인증서입니다.
인증서가 다음 요구 사항을 충족합니다.
- 인증서가 Ingress 도메인에 유효해야 합니다.
-
인증서는
subjectAltName확장자를 사용하여*.apps.ocp4.example.com과같은 와일드카드 도메인을 지정합니다.
IngressControllerCR이 있어야 합니다. 기본 설정을 사용할 수 있어야 합니다.$ oc --namespace openshift-ingress-operator get ingresscontrollers
출력 예
NAME AGE default 10m
임시 인증서가 있는 경우 사용자 정의 기본 인증서가 포함 된 보안의 tls.crt 파일에 인증서가 포함되어 있어야 합니다. 인증서를 지정하는 경우에는 순서가 중요합니다. 서버 인증서 다음에 임시 인증서를 나열해야 합니다.
프로세스
아래에서는 사용자 정의 인증서 및 키 쌍이 현재 작업 디렉터리의 tls.crt 및 tls.key 파일에 있다고 가정합니다. 그리고 tls.crt 및 tls.key의 실제 경로 이름으로 변경합니다. Secret 리소스를 생성하고 IngressController CR에서 참조하는 경우 custom-certs-default를 다른 이름으로 변경할 수도 있습니다.
이 작업을 수행하면 롤링 배포 전략에 따라 Ingress 컨트롤러가 재배포됩니다.
tls.crt및tls.key파일을 사용하여openshift-ingress네임스페이스에 사용자 정의 인증서를 포함하는 Secret 리소스를 만듭니다.$ oc --namespace openshift-ingress create secret tls custom-certs-default --cert=tls.crt --key=tls.key
새 인증서 보안 키를 참조하도록 IngressController CR을 업데이트합니다.
$ oc patch --type=merge --namespace openshift-ingress-operator ingresscontrollers/default \ --patch '{"spec":{"defaultCertificate":{"name":"custom-certs-default"}}}'업데이트가 적용되었는지 확인합니다.
$ echo Q |\ openssl s_client -connect console-openshift-console.apps.<domain>:443 -showcerts 2>/dev/null |\ openssl x509 -noout -subject -issuer -enddate
다음과 같습니다.
<domain>- 클러스터의 기본 도메인 이름을 지정합니다.
출력 예
subject=C = US, ST = NC, L = Raleigh, O = RH, OU = OCP4, CN = *.apps.example.com issuer=C = US, ST = NC, L = Raleigh, O = RH, OU = OCP4, CN = example.com notAfter=May 10 08:32:45 2022 GM
작은 정보다음 YAML을 적용하여 사용자 지정 기본 인증서를 설정할 수 있습니다.
apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: defaultCertificate: name: custom-certs-default인증서 보안 이름은 CR을 업데이트하는 데 사용된 값과 일치해야 합니다.
IngressController CR이 수정되면 Ingress Operator는 사용자 정의 인증서를 사용하도록 Ingress 컨트롤러의 배포를 업데이트합니다.
7.8.2. 사용자 정의 기본 인증서 제거
관리자는 사용할 Ingress 컨트롤러를 구성한 사용자 정의 인증서를 제거할 수 있습니다.
사전 요구 사항
-
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있어야 합니다. -
OpenShift CLI(
oc)가 설치되어 있습니다. - 이전에 Ingress 컨트롤러에 대한 사용자 정의 기본 인증서를 구성했습니다.
절차
사용자 정의 인증서를 제거하고 OpenShift Container Platform과 함께 제공된 인증서를 복원하려면 다음 명령을 입력합니다.
$ oc patch -n openshift-ingress-operator ingresscontrollers/default \ --type json -p $'- op: remove\n path: /spec/defaultCertificate'
클러스터가 새 인증서 구성을 조정하는 동안 지연될 수 있습니다.
검증
원래 클러스터 인증서가 복원되었는지 확인하려면 다음 명령을 입력합니다.
$ echo Q | \ openssl s_client -connect console-openshift-console.apps.<domain>:443 -showcerts 2>/dev/null | \ openssl x509 -noout -subject -issuer -enddate
다음과 같습니다.
<domain>- 클러스터의 기본 도메인 이름을 지정합니다.
출력 예
subject=CN = *.apps.<domain> issuer=CN = ingress-operator@1620633373 notAfter=May 10 10:44:36 2023 GMT
7.8.3. Ingress 컨트롤러 자동 스케일링
처리량 증가 요구 사항과 같은 라우팅 성능 또는 가용성 요구 사항을 동적으로 충족하도록 Ingress 컨트롤러를 자동으로 스케일링합니다. 다음 절차는 기본 IngressController를 확장하는 예제입니다.
사전 요구 사항
-
OpenShift CLI(
oc)가 설치되어 있어야 합니다. -
cluster-admin역할의 사용자로 OpenShift Container Platform 클러스터에 액세스할 수 있습니다. - Custom Metrics Autoscaler Operator가 설치되어 있어야 합니다.
절차
다음 명령을 실행하여
openshift-ingress-operator네임스페이스에 프로젝트를 생성합니다.$ oc project openshift-ingress-operator
구성 맵을 생성하고 적용하여 사용자 정의 프로젝트에 대한 OpenShift 모니터링을 활성화합니다.
새
ConfigMap오브젝트cluster-monitoring-config.yaml을 생성합니다.cluster-monitoring-config.yaml
apiVersion: v1 kind: ConfigMap metadata: name: cluster-monitoring-config namespace: openshift-monitoring data: config.yaml: | enableUserWorkload: true 1- 1
true로 설정하는 경우enableUserWorkload매개변수를 사용하면 클러스터에서 사용자 정의 프로젝트를 모니터링할 수 있습니다.
다음 명령을 실행하여 구성 맵을 적용합니다.
$ oc apply -f cluster-monitoring-config.yaml
다음 명령을 실행하여 Thanos로 인증할 서비스 계정을 생성합니다.
$ oc create serviceaccount thanos && oc describe serviceaccount thanos
출력 예
Name: thanos Namespace: openshift-ingress-operator Labels: <none> Annotations: <none> Image pull secrets: thanos-dockercfg-b4l9s Mountable secrets: thanos-dockercfg-b4l9s Tokens: thanos-token-c422q Events: <none>
서비스 계정의 토큰을 사용하여
openshift-ingress-operator네임 스페이스 내에TriggerAuthentication오브젝트를 정의합니다.다음 명령을 실행하여 보안이 포함된 변수 보안을 정의합니다.
$ secret=$(oc get secret | grep thanos-token | head -n 1 | awk '{ print $1 }')TriggerAuthentication오브젝트를 생성하고secret변수의 값을TOKEN매개변수에 전달합니다.$ oc process TOKEN="$secret" -f - <<EOF | oc apply -f - apiVersion: template.openshift.io/v1 kind: Template parameters: - name: TOKEN objects: - apiVersion: keda.sh/v1alpha1 kind: TriggerAuthentication metadata: name: keda-trigger-auth-prometheus spec: secretTargetRef: - parameter: bearerToken name: \${TOKEN} key: token - parameter: ca name: \${TOKEN} key: ca.crt EOF
Thanos에서 메트릭을 읽는 역할을 생성하고 적용합니다.
Pod 및 노드에서 지표를 읽는
os-metrics-reader.yaml 보다새 역할을 생성합니다.thanos-metrics-reader.yaml
apiVersion: rbac.authorization.k8s.io/v1 kind: Role metadata: name: thanos-metrics-reader rules: - apiGroups: - "" resources: - pods - nodes verbs: - get - apiGroups: - metrics.k8s.io resources: - pods - nodes verbs: - get - list - watch - apiGroups: - "" resources: - namespaces verbs: - get
다음 명령을 실행하여 새 역할을 적용합니다.
$ oc apply -f thanos-metrics-reader.yaml
다음 명령을 입력하여 서비스 계정에 새 역할을 추가합니다.
$ oc adm policy add-role-to-user thanos-metrics-reader -z thanos --role=namespace=openshift-ingress-operator
$ oc adm policy -n openshift-ingress-operator add-cluster-role-to-user cluster-monitoring-view -z thanos
참고인수
add-cluster-role-to-user는 네임스페이스 간 쿼리를 사용하는 경우에만 필요합니다. 다음 단계에서는 이 인수가 필요한kube-metrics네임스페이스의 쿼리를 사용합니다.기본 Ingress 컨트롤러 배포를 대상으로 하는 새
scaledObjectYAML 파일ingress-autoscaler.yaml을 생성합니다.scaledObject정의의 예apiVersion: keda.sh/v1alpha1 kind: ScaledObject metadata: name: ingress-scaler spec: scaleTargetRef: 1 apiVersion: operator.openshift.io/v1 kind: IngressController name: default envSourceContainerName: ingress-operator minReplicaCount: 1 maxReplicaCount: 20 2 cooldownPeriod: 1 pollingInterval: 1 triggers: - type: prometheus metricType: AverageValue metadata: serverAddress: https://<example-cluster>:9091 3 namespace: openshift-ingress-operator 4 metricName: 'kube-node-role' threshold: '1' query: 'sum(kube_node_role{role="worker",service="kube-state-metrics"})' 5 authModes: "bearer" authenticationRef: name: keda-trigger-auth-prometheus
중요네임스페이스 간 쿼리를 사용하는 경우
serverAddress필드에서 포트 9092가 아닌 포트 9091을 대상으로 해야 합니다. 또한 이 포트에서 메트릭을 읽을 수 있는 승격된 권한이 있어야 합니다.다음 명령을 실행하여 사용자 정의 리소스 정의를 적용합니다.
$ oc apply -f ingress-autoscaler.yaml
검증
다음 명령을 실행하여
kube-state-metrics쿼리에서 반환된 값과 일치하도록 기본 Ingress 컨트롤러가 확장되었는지 확인합니다.grep명령을 사용하여 Ingress 컨트롤러 YAML 파일에서 복제를 검색합니다.$ oc get ingresscontroller/default -o yaml | grep replicas:
출력 예
replicas: 3
openshift-ingress프로젝트에서 Pod를 가져옵니다.$ oc get pods -n openshift-ingress
출력 예
NAME READY STATUS RESTARTS AGE router-default-7b5df44ff-l9pmm 2/2 Running 0 17h router-default-7b5df44ff-s5sl5 2/2 Running 0 3d22h router-default-7b5df44ff-wwsth 2/2 Running 0 66s
7.8.4. Ingress 컨트롤러 확장
처리량 증가 요구 등 라우팅 성능 또는 가용성 요구 사항을 충족하도록 Ingress 컨트롤러를 수동으로 확장할 수 있습니다. IngressController 리소스를 확장하려면 oc 명령을 사용합니다. 다음 절차는 기본 IngressController를 확장하는 예제입니다.
원하는 수의 복제본을 만드는 데에는 시간이 걸리기 때문에 확장은 즉시 적용되지 않습니다.
프로세스
기본
IngressController의 현재 사용 가능한 복제본 개수를 살펴봅니다.$ oc get -n openshift-ingress-operator ingresscontrollers/default -o jsonpath='{$.status.availableReplicas}'출력 예
2
oc patch명령을 사용하여 기본IngressController의 복제본 수를 원하는 대로 조정합니다. 다음 예제는 기본IngressController를 3개의 복제본으로 조정합니다.$ oc patch -n openshift-ingress-operator ingresscontroller/default --patch '{"spec":{"replicas": 3}}' --type=merge출력 예
ingresscontroller.operator.openshift.io/default patched
기본
IngressController가 지정한 복제본 수에 맞게 조정되었는지 확인합니다.$ oc get -n openshift-ingress-operator ingresscontrollers/default -o jsonpath='{$.status.availableReplicas}'출력 예
3
작은 정보또는 다음 YAML을 적용하여 Ingress 컨트롤러를 세 개의 복제본으로 확장할 수 있습니다.
apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: replicas: 3 1- 1
- 다른 양의 복제본이 필요한 경우
replicas값을 변경합니다.
7.8.5. 수신 액세스 로깅 구성
Ingress 컨트롤러가 로그에 액세스하도록 구성할 수 있습니다. 수신 트래픽이 많지 않은 클러스터의 경우 사이드카에 로그를 기록할 수 있습니다. 트래픽이 많은 클러스터가 있는 경우 로깅 스택의 용량을 초과하지 않거나 OpenShift Container Platform 외부의 로깅 인프라와 통합하기 위해 사용자 정의 syslog 끝점으로 로그를 전달할 수 있습니다. 액세스 로그의 형식을 지정할 수도 있습니다.
컨테이너 로깅은 기존 Syslog 로깅 인프라가 없는 경우 트래픽이 적은 클러스터에서 액세스 로그를 활성화하거나 Ingress 컨트롤러의 문제를 진단하는 동안 단기적으로 사용하는 데 유용합니다.
액세스 로그가 OpenShift 로깅 스택 용량을 초과할 수 있는 트래픽이 많은 클러스터 또는 로깅 솔루션이 기존 Syslog 로깅 인프라와 통합되어야 하는 환경에는 Syslog가 필요합니다. Syslog 사용 사례는 중첩될 수 있습니다.
사전 요구 사항
-
cluster-admin권한이 있는 사용자로 로그인합니다.
프로세스
사이드카에 Ingress 액세스 로깅을 구성합니다.
수신 액세스 로깅을 구성하려면
spec.logging.access.destination을 사용하여 대상을 지정해야 합니다. 사이드카 컨테이너에 로깅을 지정하려면Containerspec.logging.access.destination.type을 지정해야 합니다. 다음 예제는Container대상에 로그를 기록하는 Ingress 컨트롤러 정의입니다.apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: replicas: 2 logging: access: destination: type: Container사이드카에 로그를 기록하도록 Ingress 컨트롤러를 구성하면 Operator는 Ingress 컨트롤러 Pod에
logs라는 컨테이너를 만듭니다.$ oc -n openshift-ingress logs deployment.apps/router-default -c logs
출력 예
2020-05-11T19:11:50.135710+00:00 router-default-57dfc6cd95-bpmk6 router-default-57dfc6cd95-bpmk6 haproxy[108]: 174.19.21.82:39654 [11/May/2020:19:11:50.133] public be_http:hello-openshift:hello-openshift/pod:hello-openshift:hello-openshift:10.128.2.12:8080 0/0/1/0/1 200 142 - - --NI 1/1/0/0/0 0/0 "GET / HTTP/1.1"
Syslog 끝점에 대한 Ingress 액세스 로깅을 구성합니다.
수신 액세스 로깅을 구성하려면
spec.logging.access.destination을 사용하여 대상을 지정해야 합니다. Syslog 끝점 대상에 로깅을 지정하려면spec.logging.access.destination.type에 대한Syslog를 지정해야 합니다. 대상 유형이Syslog인 경우,spec.logging.access.destination.syslog.endpoint를 사용하여 대상 끝점을 지정해야 하며spec.logging.access.destination.syslog.facility를 사용하여 장치를 지정할 수 있습니다. 다음 예제는Syslog대상에 로그를 기록하는 Ingress 컨트롤러 정의입니다.apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: replicas: 2 logging: access: destination: type: Syslog syslog: address: 1.2.3.4 port: 10514참고syslog대상 포트는 UDP여야 합니다.
특정 로그 형식으로 Ingress 액세스 로깅을 구성합니다.
spec.logging.access.httpLogFormat을 지정하여 로그 형식을 사용자 정의할 수 있습니다. 다음 예제는 IP 주소 1.2.3.4 및 포트 10514를 사용하여syslog끝점에 로그하는 Ingress 컨트롤러 정의입니다.apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: replicas: 2 logging: access: destination: type: Syslog syslog: address: 1.2.3.4 port: 10514 httpLogFormat: '%ci:%cp [%t] %ft %b/%s %B %bq %HM %HU %HV'
Ingress 액세스 로깅을 비활성화합니다.
Ingress 액세스 로깅을 비활성화하려면
spec.logging또는spec.logging.access를 비워 둡니다.apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: replicas: 2 logging: access: null
7.8.6. Ingress 컨트롤러 스레드 수 설정
클러스터 관리자는 클러스터에서 처리할 수 있는 들어오는 연결의 양을 늘리기 위해 스레드 수를 설정할 수 있습니다. 기존 Ingress 컨트롤러에 패치하여 스레드의 양을 늘릴 수 있습니다.
사전 요구 사항
- 다음은 Ingress 컨트롤러를 이미 생성했다고 가정합니다.
프로세스
스레드 수를 늘리도록 Ingress 컨트롤러를 업데이트합니다.
$ oc -n openshift-ingress-operator patch ingresscontroller/default --type=merge -p '{"spec":{"tuningOptions": {"threadCount": 8}}}'참고많은 리소스를 실행할 수 있는 노드가 있는 경우 원하는 노드의 용량과 일치하는 라벨을 사용하여
spec.nodePlacement.nodeSelector를 구성하고spec.tuningOptions.threadCount를 적절하게 높은 값으로 구성할 수 있습니다.
7.8.7. 내부 로드 밸런서를 사용하도록 Ingress 컨트롤러 구성
클라우드 플랫폼에서 Ingress 컨트롤러를 생성할 때 Ingress 컨트롤러는 기본적으로 퍼블릭 클라우드 로드 밸런서에 의해 게시됩니다. 관리자는 내부 클라우드 로드 밸런서를 사용하는 Ingress 컨트롤러를 생성할 수 있습니다.
클라우드 공급자가 Microsoft Azure인 경우 노드를 가리키는 퍼블릭 로드 밸런서가 하나 이상 있어야 합니다. 그렇지 않으면 모든 노드의 인터넷 연결이 끊어집니다.
IngressController 의 범위를 변경하려면 CR(사용자 정의 리소스)을 생성한 후 .spec.endpointPublishingStrategy.loadBalancer.scope 매개변수를 변경할 수 있습니다.
그림 7.1. LoadBalancer 다이어그램

위의 그래픽에서는 OpenShift Container Platform Ingress LoadBalancerService 끝점 게시 전략과 관련된 다음 개념을 보여줍니다.
- OpenShift Ingress 컨트롤러 로드 밸런서를 사용하여 클라우드 공급자 로드 밸런서를 사용하거나 내부적으로 로드 밸런싱할 수 있습니다.
- 로드 밸런서의 단일 IP 주소와 그래픽에 표시된 클러스터에 표시된 대로 8080 및 4200과 같은 보다 친숙한 포트를 사용할 수 있습니다.
- 외부 로드 밸런서의 트래픽은 Pod에서 전달되며 다운 노드의 인스턴스에 표시된 대로 로드 밸런서에 의해 관리됩니다. 구현 세부 사항은 Kubernetes 서비스 설명서를 참조하십시오.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
프로세스
다음 예제와 같이
<name>-ingress-controller.yam파일에IngressControllerCR(사용자 정의 리소스)을 생성합니다.apiVersion: operator.openshift.io/v1 kind: IngressController metadata: namespace: openshift-ingress-operator name: <name> 1 spec: domain: <domain> 2 endpointPublishingStrategy: type: LoadBalancerService loadBalancer: scope: Internal 3
다음 명령을 실행하여 이전 단계에서 정의된 Ingress 컨트롤러를 생성합니다.
$ oc create -f <name>-ingress-controller.yaml 1- 1
<name>을IngressController오브젝트의 이름으로 변경합니다.
선택 사항: Ingress 컨트롤러가 생성되었는지 확인하려면 다음 명령을 실행합니다.
$ oc --all-namespaces=true get ingresscontrollers
7.8.8. GCP에서 Ingress 컨트롤러에 대한 글로벌 액세스 구성
내부 로드 밸런서가 있는 GCP에서 생성된 Ingress 컨트롤러는 서비스의 내부 IP 주소를 생성합니다. 클러스터 관리자는 로드 밸런서와 동일한 VPC 네트워크 및 컴퓨팅 리전 내의 모든 리전의 클라이언트가 클러스터에서 실행되는 워크로드에 도달할 수 있도록 하는 글로벌 액세스 옵션을 지정할 수 있습니다.
자세한 내용은 글로벌 액세스에 대한 GCP 설명서를 참조하십시오.
사전 요구 사항
- GCP 인프라에 OpenShift Container Platform 클러스터를 배포했습니다.
- 내부 로드 밸런서를 사용하도록 Ingress 컨트롤러 구성
-
OpenShift CLI(
oc)를 설치합니다.
프로세스
글로벌 액세스를 허용하도록 Ingress 컨트롤러 리소스를 구성합니다.
참고Ingress 컨트롤러를 생성하고 글로벌 액세스 옵션을 지정할 수도 있습니다.
Ingress 컨트롤러 리소스를 구성합니다.
$ oc -n openshift-ingress-operator edit ingresscontroller/default
YAML 파일을 편집합니다.
Global에 대한clientAccess구성 샘플spec: endpointPublishingStrategy: loadBalancer: providerParameters: gcp: clientAccess: Global 1 type: GCP scope: Internal type: LoadBalancerService- 1
gcp.clientAccess를Global로 설정합니다.
- 파일을 저장하여 변경 사항을 적용합니다.
다음 명령을 실행하여 서비스가 글로벌 액세스를 허용하는지 확인합니다.
$ oc -n openshift-ingress edit svc/router-default -o yaml
출력에서 주석
networking.gke.io/internal-load-balancer-allow-global-access가 있는 GCP에 글로벌 액세스가 활성화되어 있음을 보여줍니다.
7.8.9. Ingress 컨트롤러 상태 점검 간격 설정
클러스터 관리자는 상태 점검 간격을 설정하여 라우터가 연속된 상태 점검 사이에 대기하는 시간을 정의할 수 있습니다. 이 값은 모든 경로의 기본값으로 전역적으로 적용됩니다. 기본값은 5초입니다.
사전 요구 사항
- 다음은 Ingress 컨트롤러를 이미 생성했다고 가정합니다.
절차
Ingress 컨트롤러를 업데이트하여 백엔드 상태 점검 간 간격을 변경합니다.
$ oc -n openshift-ingress-operator patch ingresscontroller/default --type=merge -p '{"spec":{"tuningOptions": {"healthCheckInterval": "8s"}}}'참고단일 경로의
healthCheckInterval을 재정의하려면 경로 주석router.openshift.io/haproxy.health.check.interval을 사용합니다.
7.8.10. 클러스터의 기본 Ingress 컨트롤러를 내부로 구성
클러스터를 삭제하고 다시 생성하여 클러스터의 default Ingress 컨트롤러를 내부용으로 구성할 수 있습니다.
클라우드 공급자가 Microsoft Azure인 경우 노드를 가리키는 퍼블릭 로드 밸런서가 하나 이상 있어야 합니다. 그렇지 않으면 모든 노드의 인터넷 연결이 끊어집니다.
IngressController 의 범위를 변경하려면 CR(사용자 정의 리소스)을 생성한 후 .spec.endpointPublishingStrategy.loadBalancer.scope 매개변수를 변경할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
프로세스
클러스터의
기본Ingress 컨트롤러를 삭제하고 다시 생성하여 내부용으로 구성합니다.$ oc replace --force --wait --filename - <<EOF apiVersion: operator.openshift.io/v1 kind: IngressController metadata: namespace: openshift-ingress-operator name: default spec: endpointPublishingStrategy: type: LoadBalancerService loadBalancer: scope: Internal EOF
7.8.11. 경로 허용 정책 구성
관리자 및 애플리케이션 개발자는 도메인 이름이 동일한 여러 네임스페이스에서 애플리케이션을 실행할 수 있습니다. 이는 여러 팀이 동일한 호스트 이름에 노출되는 마이크로 서비스를 개발하는 조직을 위한 것입니다.
네임스페이스 간 클레임은 네임스페이스 간 신뢰가 있는 클러스터에 대해서만 허용해야 합니다. 그렇지 않으면 악의적인 사용자가 호스트 이름을 인수할 수 있습니다. 따라서 기본 승인 정책에서는 네임스페이스 간에 호스트 이름 클레임을 허용하지 않습니다.
사전 요구 사항
- 클러스터 관리자 권한이 있어야 합니다.
프로세스
다음 명령을 사용하여
ingresscontroller리소스 변수의.spec.routeAdmission필드를 편집합니다.$ oc -n openshift-ingress-operator patch ingresscontroller/default --patch '{"spec":{"routeAdmission":{"namespaceOwnership":"InterNamespaceAllowed"}}}' --type=merge샘플 Ingress 컨트롤러 구성
spec: routeAdmission: namespaceOwnership: InterNamespaceAllowed ...작은 정보다음 YAML을 적용하여 경로 승인 정책을 구성할 수 있습니다.
apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: routeAdmission: namespaceOwnership: InterNamespaceAllowed
7.8.12. 와일드카드 경로 사용
HAProxy Ingress 컨트롤러는 와일드카드 경로를 지원합니다. Ingress Operator는 wildcardPolicy를 사용하여 Ingress 컨트롤러의 ROUTER_ALLOW_WILDCARD_ROUTES 환경 변수를 구성합니다.
Ingress 컨트롤러의 기본 동작은 와일드카드 정책이 None인 경로를 허용하고, 이는 기존 IngressController 리소스의 이전 버전과 호환됩니다.
프로세스
와일드카드 정책을 구성합니다.
다음 명령을 사용하여
IngressController리소스를 편집합니다.$ oc edit IngressController
spec에서wildcardPolicy필드를WildcardsDisallowed또는WildcardsAllowed로 설정합니다.spec: routeAdmission: wildcardPolicy: WildcardsDisallowed # or WildcardsAllowed
7.8.13. X-Forwarded 헤더 사용
HAProxy Ingress 컨트롤러를 구성하여 Forwarded 및 X-Forwarded-For를 포함한 HTTP 헤더 처리 방법에 대한 정책을 지정합니다. Ingress Operator는 HTTPHeaders 필드를 사용하여 Ingress 컨트롤러의 ROUTER_SET_FORWARDED_HEADERS 환경 변수를 구성합니다.
프로세스
Ingress 컨트롤러에 대한
HTTPHeaders필드를 구성합니다.다음 명령을 사용하여
IngressController리소스를 편집합니다.$ oc edit IngressController
spec에서HTTPHeaders정책 필드를Append,Replace,IfNone또는Never로 설정합니다.apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: httpHeaders: forwardedHeaderPolicy: Append
사용 사례 예
클러스터 관리자는 다음을 수행할 수 있습니다.
Ingress 컨트롤러로 전달하기 전에
X-Forwarded-For헤더를 각 요청에 삽입하는 외부 프록시를 구성합니다.헤더를 수정하지 않은 상태로 전달하도록 Ingress 컨트롤러를 구성하려면
never정책을 지정합니다. 그러면 Ingress 컨트롤러에서 헤더를 설정하지 않으며 애플리케이션은 외부 프록시에서 제공하는 헤더만 수신합니다.외부 프록시에서 외부 클러스터 요청에 설정한
X-Forwarded-For헤더를 수정하지 않은 상태로 전달하도록 Ingress 컨트롤러를 구성합니다.외부 프록시를 통과하지 않는 내부 클러스터 요청에
X-Forwarded-For헤더를 설정하도록 Ingress 컨트롤러를 구성하려면if-none정책을 지정합니다. HTTP 요청에 이미 외부 프록시를 통해 설정된 헤더가 있는 경우 Ingress 컨트롤러에서 해당 헤더를 보존합니다. 요청이 프록시를 통해 제공되지 않아 헤더가 없는 경우에는 Ingress 컨트롤러에서 헤더를 추가합니다.
애플리케이션 개발자는 다음을 수행할 수 있습니다.
X-Forwarded-For헤더를 삽입하는 애플리케이션별 외부 프록시를 구성합니다.다른 경로에 대한 정책에 영향을 주지 않으면서 애플리케이션 경로에 대한 헤더를 수정하지 않은 상태로 전달하도록 Ingress 컨트롤러를 구성하려면 애플리케이션 경로에 주석
haproxy.router.openshift.io/set-forwarded-headers: if-none또는haproxy.router.openshift.io/set-forwarded-headers: never를 추가하십시오.참고Ingress 컨트롤러에 전역적으로 설정된 값과 관계없이 경로별로
haproxy.router.openshift.io/set-forwarded-headers주석을 설정할 수 있습니다.
7.8.14. HTTP/2 수신 연결 사용
이제 HAProxy에서 투명한 엔드 투 엔드 HTTP/2 연결을 활성화할 수 있습니다. 애플리케이션 소유자는 이를 통해 단일 연결, 헤더 압축, 바이너리 스트림 등 HTTP/2 프로토콜 기능을 활용할 수 있습니다.
개별 Ingress 컨트롤러 또는 전체 클러스터에 대해 HAProxy에서 HTTP/2 연결을 활성화할 수 있습니다.
클라이언트에서 HAProxy로의 연결에 HTTP/2 사용을 활성화하려면 경로에서 사용자 정의 인증서를 지정해야 합니다. 기본 인증서를 사용하는 경로에서는 HTTP/2를 사용할 수 없습니다. 이것은 동일한 인증서를 사용하는 다른 경로의 연결을 클라이언트가 재사용하는 등 동시 연결로 인한 문제를 방지하기 위한 제한입니다.
HAProxy에서 애플리케이션 pod로의 연결은 re-encrypt 라우팅에만 HTTP/2를 사용할 수 있으며 Edge termination 또는 비보안 라우팅에는 사용할 수 없습니다. 이 제한은 백엔드와 HTTP/2 사용을 협상할 때 HAProxy가 TLS의 확장인 ALPN(Application-Level Protocol Negotiation)을 사용하기 때문에 필요합니다. 이는 엔드 투 엔드 HTTP/2가 패스스루(passthrough) 및 re-encrypt 라우팅에는 적합하지만 비보안 또는 Edge termination 라우팅에는 적합하지 않음을 의미합니다.
재암호화 경로가 있고 Ingress 컨트롤러에서 HTTP/2가 활성화된 WebSockets를 사용하려면 HTTP/2를 통한 WebSocket 지원이 필요합니다. HTTP/2 이상의 WebSocket은 현재 OpenShift Container Platform에서 지원되지 않는 HAProxy 2.4의 기능입니다.
패스스루(passthrough)가 아닌 경로의 경우 Ingress 컨트롤러는 클라이언트와의 연결과 관계없이 애플리케이션에 대한 연결을 협상합니다. 다시 말해 클라이언트가 Ingress 컨트롤러에 연결하여 HTTP/1.1을 협상하고, Ingress 컨트롤러가 애플리케이션에 연결하여 HTTP/2를 협상하고, 클라이언트 HTTP/1.1 연결에서 받은 요청을 HTTP/2 연결을 사용하여 애플리케이션에 전달할 수 있습니다. Ingress 컨트롤러는 WebSocket을 HTTP/2로 전달할 수 없고 HTTP/2 연결을 WebSocket으로 업그레이드할 수 없기 때문에 나중에 클라이언트가 HTTP/1.1 연결을 WebSocket 프로토콜로 업그레이드하려고 하면 문제가 발생하게 됩니다. 결과적으로, WebSocket 연결을 허용하는 애플리케이션이 있는 경우 HTTP/2 프로토콜 협상을 허용하지 않아야 합니다. 그러지 않으면 클라이언트가 WebSocket 프로토콜로 업그레이드할 수 없게 됩니다.
프로세스
단일 Ingress 컨트롤러에서 HTTP/2를 활성화합니다.
Ingress 컨트롤러에서 HTTP/2를 사용하려면 다음과 같이
oc annotate명령을 입력합니다.$ oc -n openshift-ingress-operator annotate ingresscontrollers/<ingresscontroller_name> ingress.operator.openshift.io/default-enable-http2=true
<ingresscontroller_name>을 주석 처리할 Ingress 컨트롤러의 이름으로 변경합니다.
전체 클러스터에서 HTTP/2를 활성화합니다.
전체 클러스터에 HTTP/2를 사용하려면
oc annotate명령을 입력합니다.$ oc annotate ingresses.config/cluster ingress.operator.openshift.io/default-enable-http2=true
작은 정보다음 YAML을 적용하여 주석을 추가할 수도 있습니다.
apiVersion: config.openshift.io/v1 kind: Ingress metadata: name: cluster annotations: ingress.operator.openshift.io/default-enable-http2: "true"
7.8.15. Ingress 컨트롤러에 대한 PROXY 프로토콜 구성
클러스터 관리자는 Ingress 컨트롤러에서 HostNetwork 또는 NodePortService 엔드포인트 게시 전략 유형을 사용하는 경우 PROXY 프로토콜을 구성할 수 있습니다. PROXY 프로토콜을 사용하면 로드 밸런서에서 Ingress 컨트롤러가 수신하는 연결에 대한 원래 클라이언트 주소를 유지할 수 있습니다. 원래 클라이언트 주소는 HTTP 헤더를 로깅, 필터링 및 삽입하는 데 유용합니다. 기본 구성에서 Ingress 컨트롤러가 수신하는 연결에는 로드 밸런서와 연결된 소스 주소만 포함됩니다.
이 기능은 클라우드 배포에서 지원되지 않습니다. 이 제한 사항은 OpenShift Container Platform이 클라우드 플랫폼에서 실행되고 IngressController에서 서비스 로드 밸런서를 사용해야 함을 지정하기 때문에 Ingress Operator는 로드 밸런서 서비스를 구성하고 소스 주소를 유지하기 위한 플랫폼 요구 사항에 따라 PROXY 프로토콜을 활성화하기 때문입니다.
PROXY 프로토콜을 사용하거나 TCP를 사용하도록 OpenShift Container Platform 및 외부 로드 밸런서를 둘 다 구성해야 합니다.
PROXY 프로토콜은 Keepalived Ingress VIP를 사용하는 클라우드 이외의 플랫폼에서 설치 관리자 프로비저닝 클러스터를 사용하는 기본 Ingress 컨트롤러에서 지원되지 않습니다.
사전 요구 사항
- Ingress 컨트롤러가 생성되어 있습니다.
프로세스
Ingress 컨트롤러 리소스를 편집합니다.
$ oc -n openshift-ingress-operator edit ingresscontroller/default
PROXY 구성을 설정합니다.
Ingress 컨트롤러에서 hostNetwork 엔드포인트 게시 전략 유형을 사용하는 경우
spec.endpointPublishingStrategy.hostNetwork.protocol하위 필드를PROXY로 설정합니다.PROXY에 대한hostNetwork구성 샘플spec: endpointPublishingStrategy: hostNetwork: protocol: PROXY type: HostNetworkIngress 컨트롤러에서 NodePortService 엔드포인트 게시 전략 유형을 사용하는 경우
spec.endpointPublishingStrategy.nodePort.protocol하위 필드를PROXY로 설정합니다.PROXY에 대한nodePort구성 샘플spec: endpointPublishingStrategy: nodePort: protocol: PROXY type: NodePortService
7.8.16. appsDomain 옵션을 사용하여 대체 클러스터 도메인 지정
클러스터 관리자는 appsDomain 필드를 구성하여 사용자가 생성한 경로에 대한 기본 클러스터 도메인의 대안을 지정할 수 있습니다. appsDomain 필드는 도메인 필드에 지정된 기본값 대신 사용할 OpenShift Container Platform의 선택적 도메인 입니다. 대체 도메인을 지정하면 새 경로의 기본 호스트를 결정하기 위해 기본 클러스터 도메인을 덮어씁니다.
예를 들어, 회사의 DNS 도메인을 클러스터에서 실행되는 애플리케이션의 경로 및 인그레스의 기본 도메인으로 사용할 수 있습니다.
사전 요구 사항
- OpenShift Container Platform 클러스터를 배포했습니다.
-
oc명령줄 인터페이스를 설치했습니다.
프로세스
사용자 생성 경로에 대한 대체 기본 도메인을 지정하여
appsDomain필드를 구성합니다.수신
클러스터리소스를 편집합니다.$ oc edit ingresses.config/cluster -o yaml
YAML 파일을 편집합니다.
test.example.com을 위한 샘플appsDomain구성apiVersion: config.openshift.io/v1 kind: Ingress metadata: name: cluster spec: domain: apps.example.com 1 appsDomain: <test.example.com> 2
경로를 노출하고 경로 도메인 변경을 확인하여 기존 경로에
appsDomain필드에 지정된 도메인 이름이 포함되어 있는지 확인합니다.참고경로를 노출하기 전에
openshift-apiserver가 롤링 업데이트를 완료할 때까지 기다립니다.경로를 노출합니다.
$ oc expose service hello-openshift route.route.openshift.io/hello-openshift exposed
출력 예:
$ oc get routes NAME HOST/PORT PATH SERVICES PORT TERMINATION WILDCARD hello-openshift hello_openshift-<my_project>.test.example.com hello-openshift 8080-tcp None
7.8.17. HTTP 헤더 대소문자 변환
HAProxy 2.2는 기본적으로 HTTP 헤더 이름을 소문자로 (예: Host: xyz.com을 host: xyz.com으로) 변경합니다. 기존 애플리케이션이 HTTP 헤더 이름의 대문자에 민감한 경우 Ingress Controller spec.httpHeaders.headerNameCaseAdjustments API 필드를 사용하여 기존 애플리케이션을 수정할 때 까지 지원합니다.
OpenShift Container Platform에는 HAProxy 2.2가 포함되어 있으므로 업그레이드하기 전에 spec.httpHeaders.headerNameCaseAdjustments 를 사용하여 필요한 구성을 추가하십시오.
사전 요구 사항
-
OpenShift CLI(
oc)가 설치되어 있습니다. -
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
클러스터 관리자는 oc patch 명령을 입력하거나 Ingress 컨트롤러 YAML 파일에서 HeaderNameCaseAdjustments 필드를 설정하여 HTTP 헤더 케이스를 변환할 수 있습니다.
oc patch명령을 입력하여 대문자로 작성할 HTTP 헤더를 지정합니다.oc patch명령을 입력하여 HTTPhost헤더를Host로 변경합니다.$ oc -n openshift-ingress-operator patch ingresscontrollers/default --type=merge --patch='{"spec":{"httpHeaders":{"headerNameCaseAdjustments":["Host"]}}}'애플리케이션 경로에 주석을 추가합니다.
$ oc annotate routes/my-application haproxy.router.openshift.io/h1-adjust-case=true
그런 다음 Ingress 컨트롤러는 지정된 대로
host요청 헤더를 조정합니다.
Ingress 컨트롤러 YAML 파일을 구성하여
HeaderNameCaseAdjustments필드를 사용하여 조정합니다.다음 예제 Ingress 컨트롤러 YAML은 적절하게 주석이 달린 경로의 HTTP/1 요청에 대해
host헤더를Host로 조정합니다.Ingress 컨트롤러 YAML 예시
apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: httpHeaders: headerNameCaseAdjustments: - Host다음 예제 경로에서는
haproxy.router.openshift.io/h1-adjust-case주석을 사용하여 HTTP 응답 헤더 이름 대소문자 조정을 활성화합니다.경로 YAML의 예
apiVersion: route.openshift.io/v1 kind: Route metadata: annotations: haproxy.router.openshift.io/h1-adjust-case: true 1 name: my-application namespace: my-application spec: to: kind: Service name: my-application- 1
haproxy.router.openshift.io/h1-adjust-case를 true로 설정합니다.
7.8.18. 라우터 압축 사용
특정 MIME 유형에 대해 전역적으로 라우터 압축을 지정하도록 HAProxy Ingress 컨트롤러를 구성합니다. mimeTypes 변수를 사용하여 압축이 적용되는 MIME 유형의 형식을 정의할 수 있습니다. 유형은 application, image, message, multipart, text, video 또는 "X-"로 시작하는 사용자 지정 유형입니다. MIME 유형 및 하위 형식에 대한 전체 표기법을 보려면 RFC1341 을 참조하십시오.
압축을 위해 할당된 메모리는 max 연결에 영향을 미칠 수 있습니다. 또한 대용량 버퍼를 압축하면 regex 또는 regex의 긴 목록과 같이 대기 시간이 발생할 수 있습니다.
모든 MIME 유형이 압축을 활용하는 것은 아니지만 HAProxy는 지시된 경우 압축을 위해 리소스를 사용합니다. 일반적으로 html, css 및 js와 같은 텍스트 형식은 압축의 이점을 얻을 수 있지만 이미지,오디오 및 비디오와 같이 이미 압축된 형식은 압축에 소비된 시간과 리소스를 교환하지 않아도 됩니다.
절차
Ingress 컨트롤러에 대한
httpCompression필드를 구성합니다.다음 명령을 사용하여
IngressController리소스를 편집합니다.$ oc edit -n openshift-ingress-operator ingresscontrollers/default
spec에서httpCompressionpolicy 필드를mimeTypes로 설정하고 압축이 적용되는 MIME 유형 목록을 지정합니다.apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: httpCompression: mimeTypes: - "text/html" - "text/css; charset=utf-8" - "application/json" ...
7.8.19. 라우터 지표 노출
기본 통계 포트인 1936의 Prometheus 형식으로 기본적으로 HAProxy 라우터 메트릭을 노출할 수 있습니다. Prometheus와 같은 외부 지표 수집 및 집계 시스템은 HAProxy 라우터 지표에 액세스할 수 있습니다. 브라우저에서 HAProxy 라우터 메트릭과 쉼표로 구분된 값(CSV) 형식을 볼 수 있습니다.
사전 요구 사항
- 기본 통계 포트인 1936에 액세스하도록 방화벽을 구성했습니다.
절차
다음 명령을 실행하여 라우터 포드 이름을 가져옵니다.
$ oc get pods -n openshift-ingress
출력 예
NAME READY STATUS RESTARTS AGE router-default-76bfffb66c-46qwp 1/1 Running 0 11h
라우터 Pod가
/var/lib/haproxy/conf/metrics-auth/statsUsername및/var/lib/haproxy/conf/metrics-auth/statsPassword파일에 저장하는 라우터의 사용자 이름과 암호를 가져옵니다.다음 명령을 실행하여 사용자 이름을 가져옵니다.
$ oc rsh <router_pod_name> cat metrics-auth/statsUsername
다음 명령을 실행하여 암호를 가져옵니다.
$ oc rsh <router_pod_name> cat metrics-auth/statsPassword
다음 명령을 실행하여 라우터 IP 및 지표 인증서를 가져옵니다.
$ oc describe pod <router_pod>
다음 명령을 실행하여 Prometheus 형식으로 원시 통계를 가져옵니다.
$ curl -u <user>:<password> http://<router_IP>:<stats_port>/metrics
다음 명령을 실행하여 메트릭에 안전하게 액세스합니다.
$ curl -u user:password https://<router_IP>:<stats_port>/metrics -k
다음 명령을 실행하여 기본 통계 포트 1936에 액세스합니다.
$ curl -u <user>:<password> http://<router_IP>:<stats_port>/metrics
예 7.1. 출력 예
... # HELP haproxy_backend_connections_total Total number of connections. # TYPE haproxy_backend_connections_total gauge haproxy_backend_connections_total{backend="http",namespace="default",route="hello-route"} 0 haproxy_backend_connections_total{backend="http",namespace="default",route="hello-route-alt"} 0 haproxy_backend_connections_total{backend="http",namespace="default",route="hello-route01"} 0 ... # HELP haproxy_exporter_server_threshold Number of servers tracked and the current threshold value. # TYPE haproxy_exporter_server_threshold gauge haproxy_exporter_server_threshold{type="current"} 11 haproxy_exporter_server_threshold{type="limit"} 500 ... # HELP haproxy_frontend_bytes_in_total Current total of incoming bytes. # TYPE haproxy_frontend_bytes_in_total gauge haproxy_frontend_bytes_in_total{frontend="fe_no_sni"} 0 haproxy_frontend_bytes_in_total{frontend="fe_sni"} 0 haproxy_frontend_bytes_in_total{frontend="public"} 119070 ... # HELP haproxy_server_bytes_in_total Current total of incoming bytes. # TYPE haproxy_server_bytes_in_total gauge haproxy_server_bytes_in_total{namespace="",pod="",route="",server="fe_no_sni",service=""} 0 haproxy_server_bytes_in_total{namespace="",pod="",route="",server="fe_sni",service=""} 0 haproxy_server_bytes_in_total{namespace="default",pod="docker-registry-5-nk5fz",route="docker-registry",server="10.130.0.89:5000",service="docker-registry"} 0 haproxy_server_bytes_in_total{namespace="default",pod="hello-rc-vkjqx",route="hello-route",server="10.130.0.90:8080",service="hello-svc-1"} 0 ...브라우저에 다음 URL을 입력하여 통계 창을 시작합니다.
http://<user>:<password>@<router_IP>:<stats_port>
선택 사항: 브라우저에 다음 URL을 입력하여 CSV 형식으로 통계를 가져옵니다.
http://<user>:<password>@<router_ip>:1936/metrics;csv
7.8.20. HAProxy 오류 코드 응답 페이지 사용자 정의
클러스터 관리자는 503, 404 또는 두 오류 페이지에 대한 사용자 지정 오류 코드 응답 페이지를 지정할 수 있습니다. HAProxy 라우터는 애플리케이션 pod가 실행 중이 아닌 경우 503 오류 페이지 또는 요청된 URL이 없는 경우 404 오류 페이지를 제공합니다. 예를 들어 503 오류 코드 응답 페이지를 사용자 지정하면 애플리케이션 pod가 실행되지 않을 때 페이지가 제공되며 HAProxy 라우터에서 잘못된 경로 또는 존재하지 않는 경로에 대해 기본 404 오류 코드 HTTP 응답 페이지가 제공됩니다.
사용자 정의 오류 코드 응답 페이지가 구성 맵에 지정되고 Ingress 컨트롤러에 패치됩니다. 구성 맵 키의 사용 가능한 파일 이름은 error-page-503.http 및 error-page-404.http 입니다.
사용자 지정 HTTP 오류 코드 응답 페이지는 HAProxy HTTP 오류 페이지 구성 지침을 따라야 합니다. 다음은 기본 OpenShift Container Platform HAProxy 라우터 http 503 오류 코드 응답 페이지의 예입니다. 기본 콘텐츠를 고유한 사용자 지정 페이지를 생성하기 위한 템플릿으로 사용할 수 있습니다.
기본적으로 HAProxy 라우터는 애플리케이션이 실행 중이 아니거나 경로가 올바르지 않거나 존재하지 않는 경우 503 오류 페이지만 제공합니다. 이 기본 동작은 OpenShift Container Platform 4.8 및 이전 버전의 동작과 동일합니다. HTTP 오류 코드 응답 사용자 정의에 대한 구성 맵이 제공되지 않고 사용자 정의 HTTP 오류 코드 응답 페이지를 사용하는 경우 라우터는 기본 404 또는 503 오류 코드 응답 페이지를 제공합니다.
OpenShift Container Platform 기본 503 오류 코드 페이지를 사용자 지정의 템플릿으로 사용하는 경우 파일의 헤더에는 CRLF 줄 끝을 사용할 수 있는 편집기가 필요합니다.
절차
openshift-config네임스페이스에my-custom-error-code-pages라는 구성 맵을 생성합니다.$ oc -n openshift-config create configmap my-custom-error-code-pages \ --from-file=error-page-503.http \ --from-file=error-page-404.http
중요사용자 정의 오류 코드 응답 페이지에 올바른 형식을 지정하지 않으면 라우터 Pod 중단이 발생합니다. 이 중단을 해결하려면 구성 맵을 삭제하거나 수정하고 영향을 받는 라우터 Pod를 삭제하여 올바른 정보로 다시 생성해야 합니다.
이름별로
my-custom-error-code-pages구성 맵을 참조하도록 Ingress 컨트롤러를 패치합니다.$ oc patch -n openshift-ingress-operator ingresscontroller/default --patch '{"spec":{"httpErrorCodePages":{"name":"my-custom-error-code-pages"}}}' --type=mergeIngress Operator는
my-custom-error-code-pages구성 맵을openshift-config네임스페이스에서openshift-ingress네임스페이스로 복사합니다. Operator는openshift-ingress네임스페이스에서<your_ingresscontroller_name>-errorpages패턴에 따라 구성 맵의 이름을 지정합니다.복사본을 표시합니다.
$ oc get cm default-errorpages -n openshift-ingress
출력 예
NAME DATA AGE default-errorpages 2 25s 1- 1
defaultIngress 컨트롤러 CR(사용자 정의 리소스)이 패치되었기 때문에 구성 맵 이름은default-errorpages입니다.
사용자 정의 오류 응답 페이지가 포함된 구성 맵이 라우터 볼륨에 마운트되는지 확인합니다. 여기서 구성 맵 키는 사용자 정의 HTTP 오류 코드 응답이 있는 파일 이름입니다.
503 사용자 지정 HTTP 사용자 정의 오류 코드 응답의 경우:
$ oc -n openshift-ingress rsh <router_pod> cat /var/lib/haproxy/conf/error_code_pages/error-page-503.http
404 사용자 지정 HTTP 사용자 정의 오류 코드 응답의 경우:
$ oc -n openshift-ingress rsh <router_pod> cat /var/lib/haproxy/conf/error_code_pages/error-page-404.http
검증
사용자 정의 오류 코드 HTTP 응답을 확인합니다.
테스트 프로젝트 및 애플리케이션을 생성합니다.
$ oc new-project test-ingress
$ oc new-app django-psql-example
503 사용자 정의 http 오류 코드 응답의 경우:
- 애플리케이션의 모든 pod를 중지합니다.
다음 curl 명령을 실행하거나 브라우저에서 경로 호스트 이름을 방문합니다.
$ curl -vk <route_hostname>
404 사용자 정의 http 오류 코드 응답의 경우:
- 존재하지 않는 경로 또는 잘못된 경로를 방문합니다.
다음 curl 명령을 실행하거나 브라우저에서 경로 호스트 이름을 방문합니다.
$ curl -vk <route_hostname>
errorfile속성이haproxy.config파일에 제대로 있는지 확인합니다.$ oc -n openshift-ingress rsh <router> cat /var/lib/haproxy/conf/haproxy.config | grep errorfile
7.8.21. Ingress 컨트롤러 최대 연결 설정
클러스터 관리자는 OpenShift 라우터 배포에 최대 동시 연결 수를 설정할 수 있습니다. 기존 Ingress 컨트롤러에 패치를 적용하여 최대 연결 수를 늘릴 수 있습니다.
사전 요구 사항
- 다음은 Ingress 컨트롤러를 이미 생성했다고 가정합니다.
절차
HAProxy의 최대 연결 수를 변경하도록 Ingress 컨트롤러를 업데이트합니다.
$ oc -n openshift-ingress-operator patch ingresscontroller/default --type=merge -p '{"spec":{"tuningOptions": {"maxConnections": 7500}}}'주의spec.tuningOptions.maxConnections값을 현재 운영 체제 제한보다 크게 설정하면 HAProxy 프로세스가 시작되지 않습니다. 이 매개변수에 대한 자세한 내용은 "Ingress Controller 구성 매개변수" 섹션의 표를 참조하십시오.
7.9. 추가 리소스
8장. OpenShift Container Platform의 Ingress 분할
OpenShift Container Platform에서 Ingress 컨트롤러는 모든 경로를 제공하거나 경로 서브 세트를 제공할 수 있습니다. 기본적으로 Ingress 컨트롤러는 클러스터의 모든 네임스페이스에서 생성된 모든 경로를 제공합니다. 선택한 특성을 기반으로 경로 서브 세트인 shard 를 생성하여 라우팅을 최적화하도록 클러스터에 Ingress 컨트롤러를 추가할 수 있습니다. 경로를 shard의 멤버로 표시하려면 경로 또는 네임스페이스 메타데이터 필드의 라벨을 사용합니다. Ingress 컨트롤러는 선택 표현식 이라고도 하는 선택기 를 사용하여 제공할 전체 경로 풀에서 경로 서브 세트를 선택합니다.
Ingress 분할은 트래픽을 특정 Ingress 컨트롤러로 분리하거나 다음 섹션에 설명된 다양한 이유로 트래픽을 분리하려는 경우 여러 Ingress 컨트롤러에서 들어오는 트래픽을 로드 밸런싱하려는 경우에 유용합니다.
기본적으로 각 경로는 클러스터의 기본 도메인을 사용합니다. 그러나 라우터의 도메인을 대신 사용하도록 경로를 구성할 수 있습니다. 자세한 내용은 Ingress 컨트롤러 Sharding 경로 생성을 참조하십시오.
8.1. Ingress 컨트롤러 분할
라우터 샤딩이라고도 하는 Ingress 샤딩을 사용하여 라우팅, 네임스페이스 또는 둘 다에 라벨을 추가하여 여러 라우터에 경로 집합을 배포할 수 있습니다. Ingress 컨트롤러는 해당 선택기 세트를 사용하여 라벨이 지정된 경로만 허용합니다. 각 Ingress shard는 지정된 선택 표현식을 사용하여 필터링된 경로로 구성됩니다.
트래픽이 클러스터로 유입되는 기본 메커니즘으로 Ingress 컨트롤러의 요구 사항이 중요할 수 있습니다. 클러스터 관리자는 다음을 위해 경로를 분할할 수 있습니다.
- 여러 경로를 통해 Ingress 컨트롤러 또는 라우터를 로드 밸런싱하여 변경에 대한 응답 속도 향상
- 특정 경로가 나머지 경로와 다른 수준의 신뢰성을 가지도록 할당
- 특정 Ingress 컨트롤러에 다른 정책을 정의할 수 있도록 허용
- 특정 경로만 추가 기능을 사용하도록 허용
- 예를 들어, 내부 및 외부 사용자가 다른 경로를 볼 수 있도록 다른 주소에 다른 경로를 노출
- Blue Green 배포 중에 한 버전의 애플리케이션에서 다른 애플리케이션으로 트래픽을 전송합니다.
Ingress 컨트롤러가 분할되면 지정된 경로가 그룹에서 0개 이상의 Ingress 컨트롤러에 허용됩니다. 경로의 상태는 Ingress 컨트롤러가 이를 승인했는지 여부를 나타냅니다. Ingress 컨트롤러는 shard에 고유한 경로만 허용합니다.
Ingress 컨트롤러는 다음 세 가지 분할 방법을 사용할 수 있습니다.
- 네임스페이스 선택기와 일치하는 라벨이 있는 네임스페이스의 모든 경로가 Ingress shard에 있도록 Ingress 컨트롤러에 네임스페이스 선택기만 추가합니다.
- 경로 선택기와 일치하는 라벨이 있는 모든 경로가 Ingress shard에 있도록 Ingress 컨트롤러에 경로 선택기만 추가합니다.
- 네임스페이스 선택기와 경로 선택기를 모두 Ingress 컨트롤러에 추가하여 네임스페이스 선택기와 일치하는 네임스페이스의 경로 선택기와 일치하는 라벨이 있는 경로가 Ingress shard에 있습니다.
분할을 사용하면 여러 Ingress 컨트롤러에 경로 서브 세트를 배포할 수 있습니다. 이러한 하위 세트는 기존 샤딩이라고도 하는 겹치지 않거나 겹치는 분할이라고 할 수 있습니다.
8.1.1. 기존 분할 예
Ingress 컨트롤러 finops-router 는 선택기 spec.namespaceSelector.matchLabels.name 을 financial 및 ops 로 설정 하여 구성됩니다.
finops-router의 YAML 정의 예
apiVersion: v1
items:
- apiVersion: operator.openshift.io/v1
kind: IngressController
metadata:
name: finops-router
namespace: openshift-ingress-operator
spec:
namespaceSelector:
matchLabels:
name:
- finance
- ops
두 번째 Ingress 컨트롤러 dev-router 는 선택기 spec.namespaceSelector.matchLabels.name 을 dev 로 설정하여 구성됩니다.
dev-router의 YAML 정의 예
apiVersion: v1
items:
- apiVersion: operator.openshift.io/v1
kind: IngressController
metadata:
name: dev-router
namespace: openshift-ingress-operator
spec:
namespaceSelector:
matchLabels:
name: dev
모든 애플리케이션 경로가 별도의 네임스페이스에 있는 경우 각각 name:finance,name:ops, name:dev 로 레이블이 지정되면 이 구성은 두 Ingress 컨트롤러 간에 경로를 효과적으로 배포합니다. 콘솔, 인증 및 기타 용도로는 OpenShift Container Platform 경로를 처리해서는 안 됩니다.
위의 시나리오에서는 분할이 겹치는 하위 집합이 없는 파티션의 특수한 사례가 됩니다. 경로는 라우터 shard로 나뉩니다.
namespaceSelector 또는 routeSelector 필드에 제외를 위한 경로가 포함되지 않는 한 기본 Ingress 컨트롤러는 모든 경로를 계속 제공합니다. 기본 Ingress 컨트롤러에서 경로를 제외하는 방법에 대한 자세한 내용은 이 Red Hat Knowledgebase 솔루션 및 "기본 Ingress 컨트롤러" 섹션 "기본 Ingress 컨트롤러"를 참조하십시오.
8.1.2. 겹치는 분할 예
위의 예에서 finops-router 및 dev-router 외에도, selector spec.namespaceSelector.matchLabels.name이 dev 및 ops 로 설정된 라벨 선택기 spec.namespaceSelector.matchLabels.name 으로 구성된 CloudEvent -router 도 있습니다.
CloudEvent -router에 대한 YAML정의의 예
apiVersion: v1
items:
- apiVersion: operator.openshift.io/v1
kind: IngressController
metadata:
name: devops-router
namespace: openshift-ingress-operator
spec:
namespaceSelector:
matchLabels:
name:
- dev
- ops
name:dev 및 name:ops 레이블이 지정된 네임스페이스의 경로는 이제 두 개의 다른 Ingress 컨트롤러에서 서비스를 제공합니다. 이 구성을 사용하면 경로의 하위 집합이 중복됩니다.
겹치는 경로 하위 집합을 사용하면 더 복잡한 라우팅 규칙을 생성할 수 있습니다. 예를 들어 더 높은 우선순위 트래픽을 CloudEvent-router로 보내는 동안 더 높은 우선 순위 트래픽을 전용 finops 로 변환할 수 있습니다.
-router
8.1.3. 기본 Ingress 컨트롤러 분할
새 Ingress shard를 생성한 후 기본 Ingress 컨트롤러에서 허용하는 새 Ingress shard에 허용되는 경로가 있을 수 있습니다. 기본 Ingress 컨트롤러에는 선택기가 없고 기본적으로 모든 경로를 허용하기 때문입니다.
네임스페이스 선택기 또는 경로 선택기를 사용하여 특정 라벨이 있는 서비스 경로에서 Ingress 컨트롤러를 제한할 수 있습니다. 다음 절차에서는 네임스페이스 선택기를 사용하여 기본 Ingress 컨트롤러가 새로 분할된 financial ,ops 및 dev 경로를 서비스하지 못하도록 제한합니다. 이렇게 하면 Ingress shard에 추가 격리가 추가됩니다.
모든 OpenShift Container Platform의 관리 경로를 동일한 Ingress 컨트롤러에 보관해야 합니다. 따라서 이러한 필수 경로를 제외하는 기본 Ingress 컨트롤러에 선택기를 추가하지 마십시오.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - 프로젝트 관리자로 로그인되어 있습니다.
절차
다음 명령을 실행하여 기본 Ingress 컨트롤러를 수정합니다.
$ oc edit ingresscontroller -n openshift-ingress-operator default
financial ,
ops,dev라벨이 있는 경로를 제외하는namespaceSelector를 포함하도록 Ingress 컨트롤러를 편집합니다.apiVersion: v1 items: - apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: namespaceSelector: matchExpressions: - key: type operator: NotIn values: - finance - ops - dev
기본 Ingress 컨트롤러는 더 이상 name:finance,name:ops, name:dev 라는 이름을 제공하지 않습니다.
8.1.4. Ingress 분할 및 DNS
클러스터 관리자는 프로젝트의 각 라우터에 대해 별도의 DNS 항목을 만들어야 합니다. 라우터는 알 수 없는 경로를 다른 라우터로 전달하지 않습니다.
다음 예제를 고려하십시오.
-
라우터 A는 호스트 192.168.0.5에 있으며
*.foo.com이 있는 경로가 있습니다. -
라우터 B는 호스트 192.168.1.9에 있으며
*.example.com이 있는 경로가 있습니다.
별도의 DNS 항목이 라우터 A 및 *.example.com 을 호스팅하는 노드로 *.foo.com 을 확인하고 라우터 B를 호스팅하는 노드로 확인해야합니다.
-
*.foo.com A IN 192.168.0.5 -
*.example.com A IN 192.168.1.9
8.1.5. 경로 라벨을 사용하여 Ingress 컨트롤러 분할 구성
경로 라벨을 사용한 Ingress 컨트롤러 분할이란 Ingress 컨트롤러가 경로 선택기에서 선택한 모든 네임스페이스의 모든 경로를 제공한다는 뜻입니다.
그림 8.1. 경로 라벨을 사용한 Ingress 분할

Ingress 컨트롤러 분할은 들어오는 트래픽 부하를 일련의 Ingress 컨트롤러에 균형 있게 분배하고 트래픽을 특정 Ingress 컨트롤러에 격리할 때 유용합니다. 예를 들어, 회사 A는 하나의 Ingress 컨트롤러로, 회사 B는 다른 Ingress 컨트롤러로 이동합니다.
절차
router-internal.yaml파일을 다음과 같이 편집합니다.# cat router-internal.yaml apiVersion: v1 items: - apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: sharded namespace: openshift-ingress-operator spec: domain: <apps-sharded.basedomain.example.net> 1 nodePlacement: nodeSelector: matchLabels: node-role.kubernetes.io/worker: "" routeSelector: matchLabels: type: sharded status: {} kind: List metadata: resourceVersion: "" selfLink: ""- 1
- Ingress 컨트롤러에서 사용할 도메인을 지정합니다. 이 도메인은 기본 Ingress 컨트롤러 도메인과 달라야 합니다.
Ingress 컨트롤러
router-internal.yaml파일을 적용합니다.# oc apply -f router-internal.yaml
Ingress 컨트롤러는
type: sharded라벨이 있는 네임스페이스에서 경로를 선택합니다.router-internal.yaml에 구성된 도메인을 사용하여 새 경로를 생성합니다.$ oc expose svc <service-name> --hostname <route-name>.apps-sharded.basedomain.example.net
8.1.6. 네임스페이스 라벨을 사용하여 Ingress 컨트롤러 분할 구성
네임스페이스 라벨을 사용한 Ingress 컨트롤러 분할이란 Ingress 컨트롤러가 네임스페이스 선택기에서 선택한 모든 네임스페이스의 모든 경로를 제공한다는 뜻입니다.
그림 8.2. 네임스페이스 라벨을 사용한 Ingress 분할

Ingress 컨트롤러 분할은 들어오는 트래픽 부하를 일련의 Ingress 컨트롤러에 균형 있게 분배하고 트래픽을 특정 Ingress 컨트롤러에 격리할 때 유용합니다. 예를 들어, 회사 A는 하나의 Ingress 컨트롤러로, 회사 B는 다른 Ingress 컨트롤러로 이동합니다.
절차
router-internal.yaml파일을 다음과 같이 편집합니다.# cat router-internal.yaml
출력 예
apiVersion: v1 items: - apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: sharded namespace: openshift-ingress-operator spec: domain: <apps-sharded.basedomain.example.net> 1 nodePlacement: nodeSelector: matchLabels: node-role.kubernetes.io/worker: "" namespaceSelector: matchLabels: type: sharded status: {} kind: List metadata: resourceVersion: "" selfLink: ""- 1
- Ingress 컨트롤러에서 사용할 도메인을 지정합니다. 이 도메인은 기본 Ingress 컨트롤러 도메인과 달라야 합니다.
Ingress 컨트롤러
router-internal.yaml파일을 적용합니다.# oc apply -f router-internal.yaml
Ingress 컨트롤러는 네임스페이스 선택기에서 선택한
type: sharded라벨이 있는 네임스페이스에서 경로를 선택합니다.router-internal.yaml에 구성된 도메인을 사용하여 새 경로를 생성합니다.$ oc expose svc <service-name> --hostname <route-name>.apps-sharded.basedomain.example.net
8.2. Ingress 컨트롤러 샤딩 경로 생성
경로를 사용하면 URL에서 애플리케이션을 호스팅할 수 있습니다. 이 경우 호스트 이름이 설정되지 않고 경로에서 하위 도메인을 대신 사용합니다. 하위 도메인을 지정하면 경로를 노출하는 Ingress 컨트롤러의 도메인을 자동으로 사용합니다. 여러 Ingress 컨트롤러에서 경로를 노출하는 경우 경로가 여러 URL에서 호스팅됩니다.
다음 절차에서는 hello-openshift 애플리케이션을 예제로 사용하여 Ingress 컨트롤러 샤딩의 경로를 생성하는 방법을 설명합니다.
Ingress 컨트롤러 분할은 들어오는 트래픽 부하를 일련의 Ingress 컨트롤러에 균형 있게 분배하고 트래픽을 특정 Ingress 컨트롤러에 격리할 때 유용합니다. 예를 들어, 회사 A는 하나의 Ingress 컨트롤러로, 회사 B는 다른 Ingress 컨트롤러로 이동합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - 프로젝트 관리자로 로그인되어 있습니다.
- 포트의 트래픽을 청취하는 HTTP 또는 TLS 엔드포인트를 노출하는 웹 애플리케이션이 있습니다.
- 샤딩을 위해 Ingress 컨트롤러가 구성되어 있습니다.
절차
다음 명령을 실행하여
hello-openshift라는 프로젝트를 생성합니다.$ oc new-project hello-openshift
다음 명령을 실행하여 프로젝트에서 Pod를 생성합니다.
$ oc create -f https://raw.githubusercontent.com/openshift/origin/master/examples/hello-openshift/hello-pod.json
다음 명령을 실행하여
hello-openshift라는 서비스를 생성합니다.$ oc expose pod/hello-openshift
hello-openshift-route.yaml이라는 경로 정의를 생성합니다.분할을 위해 생성된 경로에 대한 YAML 정의:
apiVersion: route.openshift.io/v1 kind: Route metadata: labels: type: sharded 1 name: hello-openshift-edge namespace: hello-openshift spec: subdomain: hello-openshift 2 tls: termination: edge to: kind: Service name: hello-openshift다음 명령을 실행하여
hello-openshift-route.yaml을 사용하여hello-openshift애플리케이션에 대한 경로를 생성합니다.$ oc -n hello-openshift create -f hello-openshift-route.yaml
검증
다음 명령을 사용하여 경로 상태를 가져옵니다.
$ oc -n hello-openshift get routes/hello-openshift-edge -o yaml
결과
경로리소스는 다음과 유사합니다.출력 예
apiVersion: route.openshift.io/v1 kind: Route metadata: labels: type: sharded name: hello-openshift-edge namespace: hello-openshift spec: subdomain: hello-openshift tls: termination: edge to: kind: Service name: hello-openshift status: ingress: - host: hello-openshift.<apps-sharded.basedomain.example.net> 1 routerCanonicalHostname: router-sharded.<apps-sharded.basedomain.example.net> 2 routerName: sharded 3
추가 리소스
9장. OpenShift Container Platform의 Ingress Node Firewall Operator
Ingress Node Firewall Operator를 사용하면 관리자가 노드 수준에서 방화벽 구성을 관리할 수 있습니다.
9.1. Ingress Node Firewall Operator 설치
클러스터 관리자는 OpenShift Container Platform CLI 또는 웹 콘솔을 사용하여 Ingress Node Firewall Operator를 설치할 수 있습니다.
9.1.1. CLI를 사용하여 Ingress Node Firewall Operator 설치
클러스터 관리자는 CLI를 사용하여 Operator를 설치할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)가 설치되어 있습니다. - 관리자 권한이 있는 계정이 있습니다.
절차
openshift-ingress-node-firewall네임스페이스를 생성하려면 다음 명령을 입력합니다.$ cat << EOF| oc create -f - apiVersion: v1 kind: Namespace metadata: labels: pod-security.kubernetes.io/enforce: privileged pod-security.kubernetes.io/enforce-version: v1.24 name: openshift-ingress-node-firewall EOFOperatorGroupCR을 생성하려면 다음 명령을 입력합니다.$ cat << EOF| oc create -f - apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: ingress-node-firewall-operators namespace: openshift-ingress-node-firewall EOF
Ingress Node Firewall Operator를 서브스크립션합니다.
Ingress Node Firewall Operator에 대한
SubscriptionCR을 생성하려면 다음 명령을 입력합니다.$ cat << EOF| oc create -f - apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: ingress-node-firewall-sub namespace: openshift-ingress-node-firewall spec: name: ingress-node-firewall channel: stable source: redhat-operators sourceNamespace: openshift-marketplace EOF
Operator가 설치되었는지 확인하려면 다음 명령을 입력합니다.
$ oc get ip -n openshift-ingress-node-firewall
출력 예
NAME CSV APPROVAL APPROVED install-5cvnz ingress-node-firewall.4.13.0-202211122336 Automatic true
Operator 버전을 확인하려면 다음 명령을 입력합니다.
$ oc get csv -n openshift-ingress-node-firewall
출력 예
NAME DISPLAY VERSION REPLACES PHASE ingress-node-firewall.4.13.0-202211122336 Ingress Node Firewall Operator 4.13.0-202211122336 ingress-node-firewall.4.13.0-202211102047 Succeeded
9.1.2. 웹 콘솔을 사용하여 Ingress Node Firewall Operator 설치
클러스터 관리자는 웹 콘솔을 사용하여 Operator를 설치할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)가 설치되어 있습니다. - 관리자 권한이 있는 계정이 있습니다.
절차
Ingress Node Firewall Operator를 설치합니다.
- OpenShift Container Platform 웹 콘솔에서 Operator → OperatorHub를 클릭합니다.
- 사용 가능한 Operator 목록에서 Ingress Node Firewall Operator 를 선택한 다음 설치를 클릭합니다.
- Operator 설치 페이지의 설치된 네임스페이스 에서 Operator 권장 네임스페이스 를 선택합니다.
- 설치를 클릭합니다.
Ingress Node Firewall Operator가 설치되었는지 확인합니다.
- Operator → 설치된 Operator 페이지로 이동합니다.
Ingress Node Firewall Operator 가 openshift-ingress-node-firewall 프로젝트에 InstallSucceeded 상태로 나열되어 있는지 확인합니다.
참고설치 중에 Operator는 실패 상태를 표시할 수 있습니다. 나중에 InstallSucceeded 메시지와 함께 설치에 성공하면 이 실패 메시지를 무시할 수 있습니다.
Operator에 InstallSucceeded 상태가 없는 경우 다음 단계를 사용하여 문제를 해결합니다.
- Operator 서브스크립션 및 설치 계획 탭의 상태에 장애나 오류가 있는지 검사합니다.
-
워크로드 → Pod 페이지로 이동하여
openshift-ingress-node-firewall프로젝트에서 Pod 로그를 확인합니다. YAML 파일의 네임스페이스를 확인합니다. 주석이 없는 경우 다음 명령을 사용하여
workload.openshift.io/allowed=management주석을 Operator 네임스페이스에 추가할 수 있습니다.$ oc annotate ns/openshift-ingress-node-firewall workload.openshift.io/allowed=management
참고단일 노드 OpenShift 클러스터의 경우
openshift-ingress-node-firewall네임스페이스에workload.openshift.io/allowed=management주석이 필요합니다.
9.2. Ingress Node Firewall Operator
Ingress Node Firewall Operator는 방화벽 구성에서 지정 및 관리하는 노드에 데몬 세트를 배포하여 노드 수준에서 수신 방화벽 규칙을 제공합니다. 데몬 세트를 배포하려면 IngressNodeFirewallConfig CR(사용자 정의 리소스)을 생성합니다. Operator는 IngressNodeFirewallConfig CR을 적용하여 nodeSelector 와 일치하는 모든 노드에서 실행되는 Ingress 노드 방화벽 데몬 데몬 데몬 을 생성합니다.
IngressNodeFirewall CR의 규칙을 구성하고 nodeSelector 를 사용하여 클러스터에 적용하고 값을 "true"로 설정합니다.
Ingress Node Firewall Operator는 상태 비저장 방화벽 규칙만 지원합니다.
최대 전송 단위(MTU) 매개변수는 OpenShift Container Platform 4.13의 4Kb(kilobytes)입니다.
기본 XDP 드라이버를 지원하지 않는 NIC(네트워크 인터페이스 컨트롤러)는 더 낮은 성능으로 실행됩니다.
9.3. Ingress Node Firewall Operator 배포
사전 요구 사항
- Ingress Node Firewall Operator가 설치되어 있습니다.
절차
Ingress Node Firewall Operator를 배포하려면 Operator의 데몬 세트를 배포할 IngressNodeFirewallConfig 사용자 정의 리소스를 생성합니다. 방화벽 규칙을 적용하여 노드에 하나 이상의 IngressNodeFirewall CRD를 배포할 수 있습니다.
-
ingressnodefirewallconfig라는openshift-ingress-node-firewall네임스페이스에IngressNodeFirewallConfig를 생성합니다. 다음 명령을 실행하여 Ingress Node Firewall Operator 규칙을 배포합니다.
$ oc apply -f rule.yaml
9.3.1. Ingress 노드 방화벽 구성 오브젝트
Ingress 노드 방화벽 구성 오브젝트의 필드는 다음 표에 설명되어 있습니다.
표 9.1. Ingress 노드 방화벽 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CR 오브젝트의 이름입니다. 방화벽 규칙 오브젝트의 이름은 |
|
|
|
Ingress 방화벽 Operator CR 오브젝트의 네임스페이스입니다. |
|
|
| 지정된 노드 레이블을 통해 노드를 대상으로 하는 노드 선택 제약 조건입니다. 예를 들면 다음과 같습니다. spec:
nodeSelector:
node-role.kubernetes.io/worker: ""
참고
데몬 세트를 시작하려면 |
Operator는 CR을 사용하고 nodeSelector 와 일치하는 모든 노드에서 Ingress 노드 방화벽 데몬 세트를 생성합니다.
Ingress Node Firewall Operator 구성 예
전체 Ingress 노드 방화벽 구성은 다음 예에 지정됩니다.
Ingress 노드 방화벽 구성 오브젝트의 예
apiVersion: ingressnodefirewall.openshift.io/v1alpha1
kind: IngressNodeFirewallConfig
metadata:
name: ingressnodefirewallconfig
namespace: openshift-ingress-node-firewall
spec:
nodeSelector:
node-role.kubernetes.io/worker: ""
Operator는 CR을 사용하고 nodeSelector 와 일치하는 모든 노드에서 Ingress 노드 방화벽 데몬 세트를 생성합니다.
9.3.2. Ingress 노드 방화벽 규칙 오브젝트
Ingress 노드 방화벽 규칙 오브젝트의 필드는 다음 표에 설명되어 있습니다.
표 9.2. Ingress 노드 방화벽 규칙 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| CR 오브젝트의 이름입니다. |
|
|
|
이 오브젝트의 필드는 방화벽 규칙을 적용할 인터페이스를 지정합니다. 예를 들면 |
|
|
|
|
|
|
|
|
Ingress 오브젝트 구성
ingress 오브젝트의 값은 다음 표에 정의되어 있습니다.
표 9.3. Ingress 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| CIDR 블록을 설정할 수 있습니다. 다른 주소 제품군에서 여러 CIDR을 구성할 수 있습니다. 참고
다른 CIDR을 사용하면 동일한 순서 규칙을 사용할 수 있습니다. 동일한 노드와 겹치는 CIDR이 있는 인터페이스에 대해 |
|
|
|
Ingress 방화벽
규칙을 적용하거나 규칙을 참고 Ingress 방화벽 규칙은 잘못된 구성을 차단하는 확인 Webhook를 사용하여 확인합니다. 확인 Webhook를 사용하면 API 서버 또는 SSH와 같은 중요한 클러스터 서비스를 차단할 수 없습니다. |
Ingress 노드 방화벽 규칙 오브젝트의 예
전체 Ingress 노드 방화벽 구성은 다음 예에 지정됩니다.
Ingress 노드 방화벽 구성의 예
apiVersion: ingressnodefirewall.openshift.io/v1alpha1
kind: IngressNodeFirewall
metadata:
name: ingressnodefirewall
spec:
interfaces:
- eth0
nodeSelector:
matchLabels:
<do_node_ingress_firewall>: 'true'
ingress:
- sourceCIDRs:
- 172.16.0.0/12
rules:
- order: 10
protocolConfig:
protocol: ICMP
icmp:
icmpType: 8 #ICMP Echo request
action: Deny
- order: 20
protocolConfig:
protocol: TCP
tcp:
ports: "8000-9000"
action: Deny
- sourceCIDRs:
- fc00:f853:ccd:e793::0/64
rules:
- order: 10
protocolConfig:
protocol: ICMPv6
icmpv6:
icmpType: 128 #ICMPV6 Echo request
action: Deny
신뢰할 수 있는 Ingress 노드 방화벽 규칙 오브젝트 예
제로 트러스트된 Ingress 노드 방화벽 규칙은 다중 인터페이스 클러스터에 추가 보안을 제공할 수 있습니다. 예를 들어, 제로 트러스트 Ingress 노드 방화벽 규칙을 사용하여 SSH를 제외한 특정 인터페이스의 모든 트래픽을 삭제할 수 있습니다.
제로 신뢰 Ingress 노드 방화벽 규칙 세트의 전체 구성이 다음 예에 지정됩니다.
사용자는 적절한 기능을 보장하기 위해 다음 경우 해당 애플리케이션이 allowlist에 사용하는 모든 포트를 추가해야 합니다.
제로 신뢰 Ingress 노드 방화벽 규칙의 예
apiVersion: ingressnodefirewall.openshift.io/v1alpha1 kind: IngressNodeFirewall metadata: name: ingressnodefirewall-zero-trust spec: interfaces: - eth1 1 nodeSelector: matchLabels: <do_node_ingress_firewall>: 'true' ingress: - sourceCIDRs: - 0.0.0.0/0 2 rules: - order: 10 protocolConfig: protocol: TCP tcp: ports: 22 action: Allow - order: 20 action: Deny 3
9.4. Ingress Node Firewall Operator 규칙 보기
절차
다음 명령을 실행하여 모든 현재 규칙을 확인합니다.
$ oc get ingressnodefirewall
반환된 <
resource>이름 중 하나를 선택하고 다음 명령을 실행하여 규칙 또는 구성을 확인합니다.$ oc get <resource> <name> -o yaml
9.5. Ingress Node Firewall Operator 문제 해결
다음 명령을 실행하여 설치된 Ingress 노드 방화벽 CRD(사용자 정의 리소스 정의)를 나열합니다.
$ oc get crds | grep ingressnodefirewall
출력 예
NAME READY UP-TO-DATE AVAILABLE AGE ingressnodefirewallconfigs.ingressnodefirewall.openshift.io 2022-08-25T10:03:01Z ingressnodefirewallnodestates.ingressnodefirewall.openshift.io 2022-08-25T10:03:00Z ingressnodefirewalls.ingressnodefirewall.openshift.io 2022-08-25T10:03:00Z
다음 명령을 실행하여 Ingress Node Firewall Operator의 상태를 확인합니다.
$ oc get pods -n openshift-ingress-node-firewall
출력 예
NAME READY STATUS RESTARTS AGE ingress-node-firewall-controller-manager 2/2 Running 0 5d21h ingress-node-firewall-daemon-pqx56 3/3 Running 0 5d21h
다음 필드는 Operator 상태에 대한 정보를 제공합니다.
READY,STATUS,AGE,RESTARTS. Ingress Node Firewall Operator가 데몬 세트를 할당된 노드에 배포할 때STATUS필드가실행중입니다.다음 명령을 실행하여 모든 수신 방화벽 노드 Pod의 로그를 수집합니다.
$ oc adm must-gather – gather_ingress_node_firewall
로그는
/sos_commands/ebpfff 의 eBPFbpftool출력이 포함된 sos 노드의 보고서에서 사용할 수 있습니다. 이러한 보고서에는 수신 방화벽 XDP에서 패킷 처리, 통계 업데이트, 이벤트 발송로 사용 또는 업데이트되는 조회 테이블이 포함되어 있습니다.
10장. 수동 DNS 관리를 위한 Ingress 컨트롤러 구성
클러스터 관리자는 Ingress 컨트롤러를 생성할 때 Operator는 DNS 레코드를 자동으로 관리합니다. 이는 필수 DNS 영역이 클러스터 DNS 영역과 다르거나 DNS 영역이 클라우드 공급자 외부에서 호스팅되는 경우 몇 가지 제한 사항이 있습니다.
클러스터 관리자는 자동 DNS 관리를 중지하고 수동 DNS 관리를 시작하도록 Ingress 컨트롤러를 구성할 수 있습니다. 자동 또는 수동으로 관리해야 하는 시기를 지정하도록 dnsManagementPolicy 를 설정합니다.
Ingress 컨트롤러를 Managed 에서 Unmanaged DNS 관리 정책으로 변경하면 Operator에서 클라우드에 프로비저닝된 이전 와일드카드 DNS 레코드를 정리하지 않습니다. Ingress 컨트롤러를 Unmanaged 에서 Managed DNS 관리 정책으로 변경하면 Operator가 클라우드 공급자에 DNS 레코드를 생성하거나 이미 존재하는 경우 DNS 레코드를 업데이트합니다.
dnsManagementPolicy 를 Unmanaged 로 설정하면 클라우드 공급자의 와일드카드 DNS 레코드의 라이프사이클을 수동으로 관리해야 합니다.
10.1. 관리형 DNS 관리 정책
Ingress 컨트롤러에 대한 Managed DNS 관리 정책은 클라우드 공급자의 와일드카드 DNS 레코드의 라이프사이클이 Operator에 의해 자동으로 관리되도록 합니다.
10.2. 관리되지 않는 DNS 관리 정책
Ingress 컨트롤러에 대한 Unmanaged DNS 관리 정책에서는 클라우드 공급자의 와일드카드 DNS 레코드의 라이프사이클이 자동으로 관리되지 않으며, 대신 클러스터 관리자가 됩니다.
AWS 클라우드 플랫폼에서 Ingress 컨트롤러의 도메인이 dnsConfig.Spec.BaseDomain 과 일치하지 않으면 DNS 관리 정책이 자동으로 Unmanaged 로 설정됩니다.
10.3. 관리되지 않는 DNS 관리 정책을 사용하여 사용자 정의 Ingress 컨트롤러 생성
클러스터 관리자는 관리되지 않는 DNS 관리 정책을 사용하여 새 사용자 정의 Ingress 컨트롤러를 생성할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
다음을 포함하는
sample-ingress.yaml이라는 CR(사용자 정의 리소스) 파일을 생성합니다.apiVersion: operator.openshift.io/v1 kind: IngressController metadata: namespace: openshift-ingress-operator name: <name> 1 spec: domain: <domain> 2 endpointPublishingStrategy: type: LoadBalancerService loadBalancer: scope: External 3 dnsManagementPolicy: Unmanaged 4
파일을 저장하여 변경 사항을 적용합니다.
oc apply -f <name>.yaml 1
10.4. 기존 Ingress 컨트롤러 수정
클러스터 관리자는 기존 Ingress 컨트롤러를 수정하여 DNS 레코드 라이프사이클을 수동으로 관리할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
선택한
IngressController를 수정하여dnsManagementPolicy:을 설정합니다.SCOPE=$(oc -n openshift-ingress-operator get ingresscontroller <name> -o=jsonpath="{.status.endpointPublishingStrategy.loadBalancer.scope}") oc -n openshift-ingress-operator patch ingresscontrollers/<name> --type=merge --patch='{"spec":{"endpointPublishingStrategy":{"type":"LoadBalancerService","loadBalancer":{"dnsManagementPolicy":"Unmanaged", "scope":"${SCOPE}"}}}}'- 선택 사항: 클라우드 공급자에서 연결된 DNS 레코드를 삭제할 수 있습니다.
10.5. 추가 리소스
11장. Ingress 컨트롤러 끝점 게시 전략 구성
11.1. Ingress 컨트롤러 끝점 게시 전략
NodePortService 끝점 게시 전략
NodePortService 끝점 게시 전략에서는 Kubernetes NodePort 서비스를 사용하여 Ingress 컨트롤러를 게시합니다.
이 구성에서는 Ingress 컨트롤러를 배포하기 위해 컨테이너 네트워킹을 사용합니다. 배포를 게시하기 위해 NodePortService가 생성됩니다. 특정 노드 포트는 OpenShift Container Platform에 의해 동적으로 할당됩니다. 그러나 정적 포트 할당을 지원하기 위해 관리형 NodePortService의 노드 포트 필드에 대한 변경 사항은 유지됩니다.
그림 11.1. NodePortService 다이어그램

위의 그래픽에서는 OpenShift Container Platform Ingress NodePort 끝점 게시 전략과 관련된 다음 개념을 보여줍니다.
- 클러스터에서 사용 가능한 모든 노드에는 외부 액세스가 가능한 자체 IP 주소가 있습니다. 클러스터에서 실행 중인 서비스는 모든 노드의 고유한 NodePort에 바인딩됩니다.
-
클라이언트가 다운된 노드에 연결하는 경우(예:
10.0.128.4IP 주소를 hammer)에 연결하면 노드 포트는 서비스를 실행하는 사용 가능한 노드에 클라이언트를 직접 연결합니다. 이 시나리오에서는 로드 밸런싱이 필요하지 않습니다. 이미지에서 볼 수 있듯이10.0.128.4주소가 다운되어 다른 IP 주소를 대신 사용해야 합니다.
Ingress Operator는 서비스의 .spec.ports[].nodePort 필드에 대한 업데이트를 무시합니다.
기본적으로 포트는 자동으로 할당되며 통합을 위해 포트 할당에 액세스할 수 있습니다. 그러나 동적 포트에 대한 응답으로 쉽게 재구성할 수 없는 기존 인프라와 통합하기 위해 정적 포트 할당이 필요한 경우가 있습니다. 정적 노드 포트와 통합하기 위해 관리 서비스 리소스를 직접 업데이트할 수 있습니다.
자세한 내용은 NodePort에 대한 Kubernetes 서비스 설명서를 참조하십시오.
HostNetwork 끝점 게시 전략
HostNetwork 끝점 게시 전략에서는 Ingress 컨트롤러가 배포된 노드 포트에 Ingress 컨트롤러를 게시합니다.
HostNetwork 끝점 게시 전략이 있는 Ingress 컨트롤러는 노드당 하나의 Pod 복제본만 가질 수 있습니다. n개의 복제본이 필요한 경우에는 해당 복제본을 예약할 수 있는 n개 이상의 노드를 사용해야 합니다. 각 pod 복제본은 예약된 노드 호스트에서 포트 80 및 443을 요청하므로 동일한 노드의 다른 pod가 해당 포트를 사용하는 경우 복제본을 노드에 예약할 수 없습니다.
11.1.1. Ingress 컨트롤러 끝점 게시 범위를 Internal로 구성
클러스터 관리자가 클러스터가 비공개임을 지정하지 않고 새 클러스터를 설치하면 기본 Ingress 컨트롤러가 외부로 설정된 범위를 사용하여 생성됩니다. 클러스터 관리자는 외부 범위가 지정된 Ingress 컨트롤러를 Internal 로 변경할 수 있습니다.
사전 요구 사항
-
ocCLI를 설치했습니다.
절차
외부범위가 지정된 Ingress 컨트롤러를Internal로 변경하려면 다음 명령을 입력합니다.$ oc -n openshift-ingress-operator patch ingresscontrollers/default --type=merge --patch='{"spec":{"endpointPublishingStrategy":{"type":"LoadBalancerService","loadBalancer":{"scope":"Internal"}}}}'Ingress 컨트롤러의 상태를 확인하려면 다음 명령을 입력합니다.
$ oc -n openshift-ingress-operator get ingresscontrollers/default -o yaml
진행상태 조건은 추가 조치를 취해야 하는지 여부를 나타냅니다. 예를 들어 상태 조건은 다음 명령을 입력하여 서비스를 삭제해야 함을 나타낼 수 있습니다.$ oc -n openshift-ingress delete services/router-default
서비스를 삭제하면 Ingress Operator가 서비스를
Internal로 다시 생성합니다.
11.1.2. Ingress 컨트롤러 끝점 게시 범위를 외부로 구성
클러스터 관리자가 클러스터가 비공개임을 지정하지 않고 새 클러스터를 설치하면 기본 Ingress 컨트롤러가 외부로 설정된 범위를 사용하여 생성됩니다.
Ingress 컨트롤러의 범위는 설치 중 내부로 구성할 수 있으며 클러스터 관리자는 내부 Ingress 컨트롤러를 외부로 변경할 수 있습니다.
일부 플랫폼에서는 서비스를 삭제하고 다시 생성해야 합니다.
범위를 변경하면 몇 분 동안 잠재적으로 Ingress 트래픽이 중단될 수 있습니다. 이는 서비스를 삭제하고 재생성해야 하는 플랫폼에 적용됩니다. 이 절차를 수행하면 OpenShift Container Platform에서 기존 서비스 로드 밸런서를 프로비저닝 해제하고 새 서비스 로드 밸런서를 프로비저닝하고 DNS를 업데이트할 수 있습니다.
사전 요구 사항
-
ocCLI를 설치했습니다.
절차
내부범위가 지정된 Ingress 컨트롤러를외부로변경하려면 다음 명령을 입력합니다.$ oc -n openshift-ingress-operator patch ingresscontrollers/private --type=merge --patch='{"spec":{"endpointPublishingStrategy":{"type":"LoadBalancerService","loadBalancer":{"scope":"External"}}}}'Ingress 컨트롤러의 상태를 확인하려면 다음 명령을 입력합니다.
$ oc -n openshift-ingress-operator get ingresscontrollers/default -o yaml
진행상태 조건은 추가 조치를 취해야 하는지 여부를 나타냅니다. 예를 들어 상태 조건은 다음 명령을 입력하여 서비스를 삭제해야 함을 나타낼 수 있습니다.$ oc -n openshift-ingress delete services/router-default
서비스를 삭제하면 Ingress Operator가 서비스를 외부로 다시
생성합니다.
11.2. 추가 리소스
- 자세한 내용은 Ingress 컨트롤러 구성 매개변수를 참조하십시오.
12장. 끝점에 대한 연결 확인
CNO(Cluster Network Operator)는 클러스터 내 리소스 간에 연결 상태 검사를 수행하는 연결 확인 컨트롤러인 컨트롤러를 실행합니다. 상태 점검 결과를 검토하여 연결 문제를 진단하거나 현재 조사하고 있는 문제의 원인으로 네트워크 연결을 제거할 수 있습니다.
12.1. 연결 상태 점검 수행
클러스터 리소스에 도달할 수 있는지 확인하기 위해 다음 클러스터 API 서비스 각각에 TCP 연결이 수행됩니다.
- Kubernetes API 서버 서비스
- Kubernetes API 서버 끝점
- OpenShift API 서버 서비스
- OpenShift API 서버 끝점
- 로드 밸런서
클러스터의 모든 노드에서 서비스 및 서비스 끝점에 도달할 수 있는지 확인하기 위해 다음 대상 각각에 TCP 연결이 수행됩니다.
- 상태 점검 대상 서비스
- 상태 점검 대상 끝점
12.2. 연결 상태 점검 구현
연결 검증 컨트롤러는 클러스터의 연결 확인 검사를 오케스트레이션합니다. 연결 테스트의 결과는 openshift-network-diagnostics의 PodNetworkConnectivity 오브젝트에 저장됩니다. 연결 테스트는 병렬로 1분마다 수행됩니다.
CNO(Cluster Network Operator)는 클러스터에 여러 리소스를 배포하여 연결 상태 점검을 전달하고 수신합니다.
- 상태 점검 소스
-
이 프로그램은
Deployment오브젝트에서 관리하는 단일 포드 복제본 세트에 배포됩니다. 프로그램은PodNetworkConnectivity오브젝트를 사용하고 각 오브젝트에 지정된spec.targetEndpoint에 연결됩니다. - 상태 점검 대상
- 클러스터의 모든 노드에서 데몬 세트의 일부로 배포된 포드입니다. 포드는 인바운드 상태 점검을 수신 대기합니다. 모든 노드에 이 포드가 있으면 각 노드로의 연결을 테스트할 수 있습니다.
12.3. PodNetworkConnectivityCheck 오브젝트 필드
PodNetworkConnectivityCheck 오브젝트 필드는 다음 표에 설명되어 있습니다.
표 12.1. PodNetworkConnectivityCheck 오브젝트 필드
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
다음과 같은 형식의 오브젝트 이름:
|
|
|
|
오브젝트와 연결된 네임스페이스입니다. 이 값은 항상 |
|
|
|
연결 확인이 시작된 포드의 이름입니다(예: |
|
|
|
연결 검사의 대상입니다(예: |
|
|
| 사용할 TLS 인증서 설정입니다. |
|
|
| 해당하는 경우 사용되는 TLS 인증서의 이름입니다. 기본값은 빈 문자열입니다. |
|
|
| 연결 테스트의 조건 및 최근 연결 성공 및 실패의 로그를 나타내는 오브젝트입니다. |
|
|
| 연결 확인의 최신 상태 및 모든 이전 상태입니다. |
|
|
| 실패한 시도에서의 연결 테스트 로그입니다. |
|
|
| 중단 기간을 포함하는 테스트 로그를 연결합니다. |
|
|
| 성공적인 시도에서의 연결 테스트 로그입니다. |
다음 표에서는 status.conditions 배열에서 오브젝트 필드를 설명합니다.
표 12.2. status.conditions
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| 연결 조건이 하나의 상태에서 다른 상태로 전환된 시간입니다. |
|
|
| 사람이 읽기 쉬운 형식으로 마지막 전환에 대한 세부 정보입니다. |
|
|
| 머신에서 읽을 수 있는 형식으로 전환의 마지막 상태입니다. |
|
|
| 조건의 상태: |
|
|
| 조건의 유형입니다. |
다음 표에서는 status.conditions 배열에서 오브젝트 필드를 설명합니다.
표 12.3. status.outages
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| 연결 오류가 해결될 때부터의 타임 스탬프입니다. |
|
|
| 서비스 중단의 성공적인 종료와 관련된 로그 항목을 포함한 연결 로그 항목입니다. |
|
|
| 사람이 읽을 수 있는 형식의 중단 세부 정보에 대한 요약입니다. |
|
|
| 연결 오류가 먼저 감지될 때부터의 타임 스탬프입니다. |
|
|
| 원래 오류를 포함한 연결 로그 항목입니다. |
연결 로그 필드
연결 로그 항목의 필드는 다음 표에 설명되어 있습니다. 오브젝트는 다음 필드에서 사용됩니다.
-
status.failures[] -
status.successes[] -
status.outages[].startLogs[] -
status.outages[].endLogs[]
표 12.4. 연결 로그 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| 작업 기간을 기록합니다. |
|
|
| 사람이 읽을 수 있는 형식으로 상태를 제공합니다. |
|
|
|
머신에서 읽을 수 있는 형식으로 상태의 이유를 제공합니다. 값은 |
|
|
| 로그 항목이 성공 또는 실패인지를 나타냅니다. |
|
|
| 연결 확인 시작 시간입니다. |
12.4. 끝점에 대한 네트워크 연결 확인
클러스터 관리자는 API 서버, 로드 밸런서, 서비스 또는 포드와 같은 끝점의 연결을 확인할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
현재
PodNetworkConnectivityCheck오브젝트를 나열하려면 다음 명령을 입력합니다.$ oc get podnetworkconnectivitycheck -n openshift-network-diagnostics
출력 예
NAME AGE network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-1 73m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-2 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-apiserver-service-cluster 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-default-service-cluster 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-load-balancer-api-external 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-load-balancer-api-internal 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-master-0 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-master-1 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-master-2 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh 74m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-worker-c-n8mbf 74m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-worker-d-4hnrz 74m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-service-cluster 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-openshift-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-openshift-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-1 75m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-openshift-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-2 74m network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-openshift-apiserver-service-cluster 75m
연결 테스트 로그를 확인합니다.
- 이전 명령의 출력에서 연결 로그를 검토할 끝점을 식별합니다.
오브젝트를 확인하려면 다음 명령을 입력합니다:
$ oc get podnetworkconnectivitycheck <name> \ -n openshift-network-diagnostics -o yaml
여기서
<name>은PodNetworkConnectivityCheck오브젝트의 이름을 지정합니다.출력 예
apiVersion: controlplane.operator.openshift.io/v1alpha1 kind: PodNetworkConnectivityCheck metadata: name: network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0 namespace: openshift-network-diagnostics ... spec: sourcePod: network-check-source-7c88f6d9f-hmg2f targetEndpoint: 10.0.0.4:6443 tlsClientCert: name: "" status: conditions: - lastTransitionTime: "2021-01-13T20:11:34Z" message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnectSuccess status: "True" type: Reachable failures: - latency: 2.241775ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443: connect: connection refused' reason: TCPConnectError success: false time: "2021-01-13T20:10:34Z" - latency: 2.582129ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443: connect: connection refused' reason: TCPConnectError success: false time: "2021-01-13T20:09:34Z" - latency: 3.483578ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443: connect: connection refused' reason: TCPConnectError success: false time: "2021-01-13T20:08:34Z" outages: - end: "2021-01-13T20:11:34Z" endLogs: - latency: 2.032018ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T20:11:34Z" - latency: 2.241775ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443: connect: connection refused' reason: TCPConnectError success: false time: "2021-01-13T20:10:34Z" - latency: 2.582129ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443: connect: connection refused' reason: TCPConnectError success: false time: "2021-01-13T20:09:34Z" - latency: 3.483578ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443: connect: connection refused' reason: TCPConnectError success: false time: "2021-01-13T20:08:34Z" message: Connectivity restored after 2m59.999789186s start: "2021-01-13T20:08:34Z" startLogs: - latency: 3.483578ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443: connect: connection refused' reason: TCPConnectError success: false time: "2021-01-13T20:08:34Z" successes: - latency: 2.845865ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T21:14:34Z" - latency: 2.926345ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T21:13:34Z" - latency: 2.895796ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T21:12:34Z" - latency: 2.696844ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T21:11:34Z" - latency: 1.502064ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T21:10:34Z" - latency: 1.388857ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T21:09:34Z" - latency: 1.906383ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T21:08:34Z" - latency: 2.089073ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T21:07:34Z" - latency: 2.156994ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T21:06:34Z" - latency: 1.777043ms message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp connection to 10.0.0.4:6443 succeeded' reason: TCPConnect success: true time: "2021-01-13T21:05:34Z"
13장. 클러스터 네트워크의 MTU 변경
클러스터 관리자는 클러스터 설치 후 클러스터 네트워크의 MTU를 변경할 수 있습니다. MTU 변경을 완료하기 위해 클러스터 노드를 재부팅해야 하므로 이러한 변경이 중단됩니다. OVN-Kubernetes 또는 OpenShift SDN 네트워크 플러그인을 사용하여 클러스터의 MTU만 변경할 수 있습니다.
13.1. 클러스터 MTU 정보
설치하는 동안 클러스터 네트워크의 최대 전송 단위(MTU)는 클러스터에 있는 노드의 기본 네트워크 인터페이스의 MTU를 기반으로 자동으로 탐지됩니다. 일반적으로 감지된 MTU를 재정의할 필요는 없습니다.
다음과 같은 여러 가지 이유로 클러스터 네트워크의 MTU를 변경할 수 있습니다.
- 클러스터 설치 중에 감지된 MTU가 인프라에 적합하지 않음
- 이제 클러스터 인프라에 최적의 성능을 위해 다른 MTU가 필요한 노드 추가와 같은 다른 MTU가 필요합니다.
OVN-Kubernetes 및 OpenShift SDN 클러스터 네트워크 플러그인에 대해서만 클러스터 MTU를 변경할 수 있습니다.
13.1.1. 서비스 중단 고려 사항
클러스터에서 MTU 변경 사항을 시작하면 다음과 같은 영향이 서비스 가용성에 영향을 미칠 수 있습니다.
- 새 MTU로 마이그레이션을 완료하려면 롤링 재부팅이 두 개 이상 필요합니다. 이 시간 동안 일부 노드는 다시 시작할 때 사용할 수 없습니다.
- 절대 TCP 시간 초과 간격보다 제한 시간이 짧은 클러스터에 배포된 특정 애플리케이션에는 MTU 변경 시 중단될 수 있습니다.
13.1.2. MTU 값 선택
MTU 마이그레이션을 계획할 때 고려해야 할 두 개의 관련 MTU 값이 있습니다.
- Hardware MTU: 이 MTU 값은 네트워크 인프라의 세부 사항에 따라 설정됩니다.
클러스터 네트워크 MTU: 이 MTU 값은 항상 하드웨어 MTU보다 작아 클러스터 네트워크 오버레이 오버헤드를 고려합니다. 특정 오버헤드는 네트워크 플러그인에 따라 결정됩니다.
-
OVN-Kubernetes:
100바이트 -
OpenShift SDN:
50바이트
-
OVN-Kubernetes:
클러스터에 다른 노드에 대해 다른 MTU 값이 필요한 경우 클러스터의 노드에서 사용하는 가장 낮은 MTU 값에서 네트워크 플러그인의 오버헤드 값을 제거해야 합니다. 예를 들어, 클러스터의 일부 노드에 9001의 MTU가 있고 일부에는 1500의 MTU가 있는 경우 이 값을 1400으로 설정해야 합니다.
13.1.3. 마이그레이션 프로세스의 작동 방식
다음 표는 프로세스의 사용자 시작 단계와 마이그레이션이 수행하는 작업 간에 분할하여 마이그레이션 프로세스를 요약합니다.
표 13.1. 클러스터 MTU의 실시간 마이그레이션
| 사용자 시작 단계 | OpenShift Container Platform 활동 |
|---|---|
| Cluster Network Operator 구성에 다음 값을 설정합니다.
| CNO(Cluster Network Operator): 각 필드가 유효한 값으로 설정되어 있는지 확인합니다.
제공된 값이 유효한 경우 CNO는 MCO(Machine Config Operator): 클러스터의 각 노드를 롤링 재부팅을 수행합니다. |
| 클러스터에 있는 노드에 대한 기본 네트워크 인터페이스의 MTU를 재구성합니다. 다음을 포함하여 다양한 방법을 사용할 수 있습니다.
| 해당 없음 |
|
네트워크 플러그인의 CNO 구성에 있는 | MCO(Machine Config Operator): 클러스터의 각 노드를 새 MTU 구성으로 롤링 재부팅합니다. |
13.2. 클러스터 MTU 변경
클러스터 관리자는 클러스터의 최대 전송 단위(MTU)를 변경할 수 있습니다. 마이그레이션이 중단되고 MTU 업데이트가 롤아웃되면 클러스터의 노드를 일시적으로 사용할 수 없게 될 수 있습니다.
다음 절차에서는 시스템 구성, DHCP 또는 ISO를 사용하여 클러스터 MTU를 변경하는 방법을 설명합니다. DHCP 또는 ISO 방법을 사용하는 경우 절차를 완료하기 위해 클러스터를 설치한 후 보관한 구성 아티팩트를 참조해야 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. 클러스터의 대상 MTU를 식별했습니다. 클러스터가 사용하는 네트워크 플러그인에 따라 올바른 MTU가 다릅니다.
-
OVN-Kubernetes: 클러스터 MTU는 클러스터에서 가장 낮은 하드웨어 MTU 값보다
100작아야 합니다. -
OpenShift SDN: 클러스터 MTU는 클러스터에서 가장 낮은 하드웨어 MTU 값보다
50미만으로 설정해야 합니다.
-
OVN-Kubernetes: 클러스터 MTU는 클러스터에서 가장 낮은 하드웨어 MTU 값보다
절차
클러스터 네트워크의 MTU를 늘리거나 줄이려면 다음 절차를 완료합니다.
클러스터 네트워크의 현재 MTU를 얻으려면 다음 명령을 입력합니다.
$ oc describe network.config cluster
출력 예
... Status: Cluster Network: Cidr: 10.217.0.0/22 Host Prefix: 23 Cluster Network MTU: 1400 Network Type: OpenShiftSDN Service Network: 10.217.4.0/23 ...하드웨어 MTU를 위한 구성을 준비합니다.
DHCP로 하드웨어 MTU를 지정하면 다음 dnsmasq 구성과 같은 DHCP 구성을 업데이트합니다.
dhcp-option-force=26,<mtu>
다음과 같습니다.
<mtu>- 공개할 DHCP 서버의 하드웨어 MTU를 지정합니다.
- 하드웨어 MTU를 PXE를 사용하여 커널 명령줄로 지정하면 그에 따라 해당 구성을 업데이트합니다.
NetworkManager 연결 구성에 하드웨어 MTU가 지정된 경우 다음 단계를 완료합니다. DHCP, 커널 명령줄 또는 기타 방법으로 네트워크 구성을 명시적으로 지정하지 않는 경우 이 방법은 OpenShift Container Platform의 기본값입니다. 클러스터 노드는 다음 절차에 따라 수정되지 않은 작업을 위해 모두 동일한 기본 네트워크 구성을 사용해야 합니다.
기본 네트워크 인터페이스를 찾습니다.
OpenShift SDN 네트워크 플러그인을 사용하는 경우 다음 명령을 입력합니다.
$ oc debug node/<node_name> -- chroot /host ip route list match 0.0.0.0/0 | awk '{print $5 }'다음과 같습니다.
<node_name>- 클러스터에 있는 노드의 이름을 지정합니다.
OVN-Kubernetes 네트워크 플러그인을 사용하는 경우 다음 명령을 입력합니다.
$ oc debug node/<node_name> -- chroot /host nmcli -g connection.interface-name c show ovs-if-phys0
다음과 같습니다.
<node_name>- 클러스터에 있는 노드의 이름을 지정합니다.
<
interface>-mtu.conf 파일에 다음 NetworkManager 구성을 만듭니다.NetworkManager 연결 구성 예
[connection-<interface>-mtu] match-device=interface-name:<interface> ethernet.mtu=<mtu>
다음과 같습니다.
<mtu>- 새 하드웨어 MTU 값을 지정합니다.
<interface>- 기본 네트워크 인터페이스 이름을 지정합니다.
두 개의
MachineConfig오브젝트를 만듭니다. 하나는 컨트롤 플레인 노드용이고 다른 하나는 클러스터의 작업자 노드에 사용됩니다.control-plane-interface.bu파일에 다음 Butane 구성을 생성합니다.variant: openshift version: 4.13.0 metadata: name: 01-control-plane-interface labels: machineconfiguration.openshift.io/role: master storage: files: - path: /etc/NetworkManager/conf.d/99-<interface>-mtu.conf 1 contents: local: <interface>-mtu.conf 2 mode: 0600worker-interface.bu파일에 다음 Butane 구성을 생성합니다.variant: openshift version: 4.13.0 metadata: name: 01-worker-interface labels: machineconfiguration.openshift.io/role: worker storage: files: - path: /etc/NetworkManager/conf.d/99-<interface>-mtu.conf 1 contents: local: <interface>-mtu.conf 2 mode: 0600다음 명령을 실행하여 Butane 구성에서
MachineConfig오브젝트를 생성합니다.$ for manifest in control-plane-interface worker-interface; do butane --files-dir . $manifest.bu > $manifest.yaml done
MTU 마이그레이션을 시작하려면 다음 명령을 입력하여 마이그레이션 구성을 지정합니다. Machine Config Operator는 MTU 변경을 준비하기 위해 클러스터에서 노드를 롤링 재부팅합니다.
$ oc patch Network.operator.openshift.io cluster --type=merge --patch \ '{"spec": { "migration": { "mtu": { "network": { "from": <overlay_from>, "to": <overlay_to> } , "machine": { "to" : <machine_to> } } } } }'다음과 같습니다.
<overlay_from>- 현재 클러스터 네트워크 MTU 값을 지정합니다.
<overlay_to>-
클러스터 네트워크의 대상 MTU를 지정합니다. 이 값은 <
machine_to> 값을 기준으로 설정되며 OVN-Kubernetes의 경우100미만이어야 하며 OpenShift SDN의 경우50작아야 합니다. <machine_to>- 기본 호스트 네트워크의 기본 네트워크 인터페이스에 대한 MTU를 지정합니다.
클러스터 MTU를 늘리는 예
$ oc patch Network.operator.openshift.io cluster --type=merge --patch \ '{"spec": { "migration": { "mtu": { "network": { "from": 1400, "to": 9000 } , "machine": { "to" : 9100} } } } }'MCO는 각 머신 구성 풀의 머신을 업데이트할 때 각 노드를 하나씩 재부팅합니다. 모든 노드가 업데이트될 때까지 기다려야 합니다. 다음 명령을 입력하여 머신 구성 풀 상태를 확인합니다.
$ oc get mcp
업데이트된 노드의 상태가
UPDATED=true,UPDATING=false,DEGRADED=false입니다.참고기본적으로 MCO는 풀당 한 번에 하나의 시스템을 업데이트하므로 클러스터 크기에 따라 마이그레이션에 걸리는 총 시간이 증가합니다.
호스트의 새 머신 구성 상태를 확인합니다.
머신 구성 상태 및 적용된 머신 구성 이름을 나열하려면 다음 명령을 입력합니다.
$ oc describe node | egrep "hostname|machineconfig"
출력 예
kubernetes.io/hostname=master-0 machineconfiguration.openshift.io/currentConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/desiredConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/reason: machineconfiguration.openshift.io/state: Done
다음 구문이 올바른지 확인합니다.
-
machineconfiguration.openshift.io/state필드의 값은Done입니다. -
machineconfiguration.openshift.io/currentConfig필드의 값은machineconfiguration.openshift.io/desiredConfig필드의 값과 동일합니다.
-
머신 구성이 올바른지 확인하려면 다음 명령을 입력합니다.
$ oc get machineconfig <config_name> -o yaml | grep ExecStart
여기서
<config_name>은machineconfiguration.openshift.io/currentConfig필드에서 머신 구성의 이름입니다.머신 구성은 다음 업데이트를 systemd 구성에 포함해야 합니다.
ExecStart=/usr/local/bin/mtu-migration.sh
기본 네트워크 인터페이스 MTU 값을 업데이트합니다.
NetworkManager 연결 구성으로 새 MTU를 지정하는 경우 다음 명령을 입력합니다. MachineConfig Operator는 클러스터의 노드 롤링 재부팅을 자동으로 수행합니다.
$ for manifest in control-plane-interface worker-interface; do oc create -f $manifest.yaml done- DHCP 서버 옵션 또는 커널 명령줄 및 PXE로 새 MTU를 지정하는 경우 인프라에 필요한 변경을 수행합니다.
MCO는 각 머신 구성 풀의 머신을 업데이트할 때 각 노드를 하나씩 재부팅합니다. 모든 노드가 업데이트될 때까지 기다려야 합니다. 다음 명령을 입력하여 머신 구성 풀 상태를 확인합니다.
$ oc get mcp
업데이트된 노드의 상태가
UPDATED=true,UPDATING=false,DEGRADED=false입니다.참고기본적으로 MCO는 풀당 한 번에 하나의 시스템을 업데이트하므로 클러스터 크기에 따라 마이그레이션에 걸리는 총 시간이 증가합니다.
호스트의 새 머신 구성 상태를 확인합니다.
머신 구성 상태 및 적용된 머신 구성 이름을 나열하려면 다음 명령을 입력합니다.
$ oc describe node | egrep "hostname|machineconfig"
출력 예
kubernetes.io/hostname=master-0 machineconfiguration.openshift.io/currentConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/desiredConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/reason: machineconfiguration.openshift.io/state: Done
다음 구문이 올바른지 확인합니다.
-
machineconfiguration.openshift.io/state필드의 값은Done입니다. -
machineconfiguration.openshift.io/currentConfig필드의 값은machineconfiguration.openshift.io/desiredConfig필드의 값과 동일합니다.
-
머신 구성이 올바른지 확인하려면 다음 명령을 입력합니다.
$ oc get machineconfig <config_name> -o yaml | grep path:
여기서
<config_name>은machineconfiguration.openshift.io/currentConfig필드에서 머신 구성의 이름입니다.머신 구성이 성공적으로 배포된 경우 이전 출력에는
/etc/NetworkManager/system-connections/<connection_name> 파일 경로가 포함됩니다.머신 구성에
ExecStart=/usr/local/bin/mtu-migration.sh행이 포함되어서는 안 됩니다.
MTU 마이그레이션을 완료하려면 다음 명령 중 하나를 입력합니다.
OVN-Kubernetes 네트워크 플러그인을 사용하는 경우:
$ oc patch Network.operator.openshift.io cluster --type=merge --patch \ '{"spec": { "migration": null, "defaultNetwork":{ "ovnKubernetesConfig": { "mtu": <mtu> }}}}'다음과 같습니다.
<mtu>-
<
overlay_to>로 지정한 새 클러스터 네트워크 MTU를 지정합니다.
OpenShift SDN 네트워크 플러그인을 사용하는 경우:
$ oc patch Network.operator.openshift.io cluster --type=merge --patch \ '{"spec": { "migration": null, "defaultNetwork":{ "openshiftSDNConfig": { "mtu": <mtu> }}}}'다음과 같습니다.
<mtu>-
<
overlay_to>로 지정한 새 클러스터 네트워크 MTU를 지정합니다.
검증
클러스터의 노드가 이전 프로세스에서 지정한 MTU를 사용하는지 확인할 수 있습니다.
클러스터 네트워크의 현재 MTU를 가져오려면 다음 명령을 입력합니다.
$ oc describe network.config cluster
노드의 기본 네트워크 인터페이스에 대한 현재 MTU를 가져옵니다.
클러스터의 노드를 나열하려면 다음 명령을 입력합니다.
$ oc get nodes
노드의 기본 네트워크 인터페이스의 현재 MTU 설정을 가져오려면 다음 명령을 입력합니다.
$ oc debug node/<node> -- chroot /host ip address show <interface>
다음과 같습니다.
<node>- 이전 단계의 출력에서 노드를 지정합니다.
<interface>- 노드의 기본 네트워크 인터페이스 이름을 지정합니다.
출력 예
ens3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 8051
13.3. 추가 리소스
14장. 노드 포트 서비스 범위 구성
클러스터 관리자는 사용 가능한 노드 포트 범위를 확장할 수 있습니다. 클러스터에서 많은 수의 노드 포트를 사용하는 경우 사용 가능한 포트 수를 늘려야 할 수 있습니다.
기본 포트 범위는 30000~32767입니다. 기본 범위 이상으로 확장한 경우에도 포트 범위는 축소할 수 없습니다.
14.1. 사전 요구 사항
-
클러스터 인프라는 확장된 범위 내에서 지정한 포트에 대한 액세스를 허용해야 합니다. 예를 들어, 노드 포트 범위를
30000~32900으로 확장하는 경우 방화벽 또는 패킷 필터링 구성에서32768~32900의 포함 포트 범위를 허용해야 합니다.
14.2. 노드 포트 범위 확장
클러스터의 노드 포트 범위를 확장할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
프로세스
노드 포트 범위를 확장하려면 다음 명령을 입력합니다.
<port>를 새 범위에서 가장 큰 포트 번호로 변경합니다.$ oc patch network.config.openshift.io cluster --type=merge -p \ '{ "spec": { "serviceNodePortRange": "30000-<port>" } }'작은 정보또는 다음 YAML을 적용하여 노드 포트 범위를 업데이트할 수 있습니다.
apiVersion: config.openshift.io/v1 kind: Network metadata: name: cluster spec: serviceNodePortRange: "30000-<port>"
출력 예
network.config.openshift.io/cluster patched
구성이 활성 상태인지 확인하려면 다음 명령을 입력합니다. 업데이트가 적용되려면 몇 분 정도 걸릴 수 있습니다.
$ oc get configmaps -n openshift-kube-apiserver config \ -o jsonpath="{.data['config\.yaml']}" | \ grep -Eo '"service-node-port-range":["[[:digit:]]+-[[:digit:]]+"]'출력 예
"service-node-port-range":["30000-33000"]
14.3. 추가 리소스
15장. 클러스터 네트워크 범위 구성
클러스터 관리자는 클러스터 설치 후 클러스터 네트워크 범위를 확장할 수 있습니다. 추가 노드를 위해 더 많은 IP 주소가 필요한 경우 클러스터 네트워크 범위를 확장해야 할 수 있습니다.
예를 들어 클러스터를 배포하고 10.128.0.0/19 를 클러스터 네트워크 범위와 23 의 호스트 접두사로 지정한 경우 16개의 노드로 제한됩니다. 클러스터의 CIDR 마스크를 /14 로 변경하여 이를 510 노드로 확장할 수 있습니다.
클러스터 네트워크 주소 범위를 확장할 때 클러스터에서 OVN-Kubernetes 네트워크 플러그인 을 사용해야 합니다. 다른 네트워크 플러그인은 지원되지 않습니다.
다음 제한 사항은 클러스터 네트워크 IP 주소 범위를 수정할 때 적용됩니다.
- 지정된 CIDR 마스크 크기는 설치된 클러스터에 노드를 추가하여 IP 공간을 늘릴 수 있으므로 항상 현재 구성된 CIDR 마스크 크기보다 작아야 합니다.
- 호스트 접두사를 수정할 수 없음
- 재정의된 기본 게이트웨이로 구성된 Pod는 클러스터 네트워크를 확장한 후 다시 생성해야 합니다.
15.1. 클러스터 네트워크 IP 주소 범위 확장
클러스터 네트워크의 IP 주소 범위를 확장할 수 있습니다. 이러한 변경 사항을 적용하려면 클러스터에 새 Operator 구성을 롤아웃해야 하므로 적용하는데 최대 30분이 걸릴 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 클러스터가 OVN-Kubernetes 네트워크 플러그인을 사용하는지 확인합니다.
프로세스
클러스터의 클러스터 네트워크 범위 및 호스트 접두사를 가져오려면 다음 명령을 입력합니다.
$ oc get network.operator.openshift.io \ -o jsonpath="{.items[0].spec.clusterNetwork}"출력 예
[{"cidr":"10.217.0.0/22","hostPrefix":23}]클러스터 네트워크 IP 주소 범위를 확장하려면 다음 명령을 입력합니다. 이전 명령의 출력에서 반환된 CIDR IP 주소 범위 및 호스트 접두사를 사용합니다.
$ oc patch Network.config.openshift.io cluster --type='merge' --patch \ '{ "spec":{ "clusterNetwork": [ {"cidr":"<network>/<cidr>","hostPrefix":<prefix>} ], "networkType": "OVNKubernetes" } }'다음과 같습니다.
<network>-
이전 단계에서 얻은
cidr필드의 네트워크 부분을 지정합니다. 이 값은 변경할 수 없습니다. <cidr>-
네트워크 접두사 길이를 지정합니다. 예를 들면
14입니다. 이 값을 이전 단계의 출력 값보다 작은 숫자로 변경하여 클러스터 네트워크 범위를 확장합니다. <prefix>-
클러스터의 현재 호스트 접두사를 지정합니다. 이 값은 이전 단계에서 얻은
hostPrefix필드에 대해 동일해야 합니다.
명령 예
$ oc patch Network.config.openshift.io cluster --type='merge' --patch \ '{ "spec":{ "clusterNetwork": [ {"cidr":"10.217.0.0/14","hostPrefix": 23} ], "networkType": "OVNKubernetes" } }'출력 예
network.config.openshift.io/cluster patched
구성이 활성 상태인지 확인하려면 다음 명령을 입력합니다. 이 변경 사항을 적용하는 데 최대 30분이 걸릴 수 있습니다.
$ oc get network.operator.openshift.io \ -o jsonpath="{.items[0].spec.clusterNetwork}"출력 예
[{"cidr":"10.217.0.0/14","hostPrefix":23}]
15.2. 추가 리소스
16장. IP 페일오버 구성
다음에서는 OpenShift Container Platform 클러스터의 Pod 및 서비스에 대한 IP 페일오버 구성에 대해 설명합니다.
IP 페일오버는 노드 집합에서 VIP(가상 IP) 주소 풀을 관리합니다. 세트의 모든 VIP는 세트에서 선택한 노드에서 서비스를 제공합니다. 단일 노드를 사용할 수 있는 경우 VIP가 제공됩니다. 노드에 VIP를 명시적으로 배포할 방법은 없으므로 VIP가 없는 노드와 많은 VIP가 많은 다른 노드가 있을 수 있습니다 노드가 하나만 있는 경우 모든 VIP가 노드에 있습니다.
VIP는 클러스터 외부에서 라우팅할 수 있어야 합니다.
IP 페일오버는 각 VIP의 포트를 모니터링하여 노드에서 포트에 연결할 수 있는지 확인합니다. 포트에 연결할 수 없는 경우 VIP가 노드에 할당되지 않습니다. 포트를 0으로 설정하면 이 검사가 비활성화됩니다. 검사 스크립트는 필요한 테스트를 수행합니다.
IP 페일오버는 Keepalived를 사용하여 호스트 집합에서 외부 액세스가 가능한 VIP 주소 집합을 호스팅합니다. 각 VIP는 한 번에 하나의 호스트에서만 서비스를 제공합니다. keepalived는 VRRP(Virtual Router Redundancy Protocol: 가상 라우터 중복 프로토콜)를 사용하여 호스트 집합에서 VIP를 대상으로 서비스를 결정합니다. 호스트를 사용할 수 없게 되거나 Keepalived 서비스가 응답하지 않는 경우 VIP가 세트의 다른 호스트로 전환됩니다. 즉, 호스트를 사용할 수 있는 한 VIP는 항상 서비스됩니다.
Keepalived를 실행하는 노드가 확인 스크립트를 통과하면 해당 노드의 VIP가 우선 순위와 현재 master의 우선 순위 및 선점 전략에 따라 마스터 상태를 입력할 수 있습니다.
클러스터 관리자는 OPENSHIFT_HA_NOTIFY_SCRIPT 변수를 통해 스크립트를 제공할 수 있으며 이 스크립트는 노드의 VIP 상태가 변경될 때마다 호출됩니다. keepalived는 VIP를 서비스하는 경우 master 상태를 사용하고, 다른 노드가 VIP를 서비스할 때 backup 상태를 사용하거나 검사 스크립트가 실패할 때 fault 상태를 사용합니다. 알림 스크립트는 상태가 변경될 때마다 새 상태로 호출됩니다.
OpenShift Container Platform에서 IP 장애 조치 배포 구성을 생성할 수 있습니다. IP 장애 조치 배포 구성은 VIP 주소 집합과 서비스할 노드 집합을 지정합니다. 클러스터에는 고유한 VIP 주소 집합을 관리할 때마다 여러 IP 페일오버 배포 구성이 있을 수 있습니다. IP 장애 조치 구성의 각 노드는 IP 장애 조치 Pod를 실행하며 이 Pod는 Keepalived를 실행합니다.
VIP를 사용하여 호스트 네트워킹이 있는 pod에 액세스하는 경우 애플리케이션 pod는 IP 페일오버 pod를 실행하는 모든 노드에서 실행됩니다. 이를 통해 모든 IP 페일오버 노드가 마스터가 되고 필요한 경우 VIP에 서비스를 제공할 수 있습니다. IP 페일오버가 있는 모든 노드에서 애플리케이션 pod가 실행되지 않는 경우 일부 IP 페일오버 노드가 VIP를 서비스하지 않거나 일부 애플리케이션 pod는 트래픽을 수신하지 않습니다. 이러한 불일치를 방지하려면 IP 페일오버 및 애플리케이션 pod 모두에 동일한 선택기 및 복제 수를 사용합니다.
VIP를 사용하여 서비스에 액세스하는 동안 애플리케이션 pod가 실행 중인 위치와 상관없이 모든 노드에서 서비스에 연결할 수 있으므로 모든 노드가 IP 페일오버 노드 세트에 있을 수 있습니다. 언제든지 IP 페일오버 노드가 마스터가 될 수 있습니다. 서비스는 외부 IP와 서비스 포트를 사용하거나 NodePort를 사용할 수 있습니다.
서비스 정의에서 외부 IP를 사용하는 경우 VIP가 외부 IP로 설정되고 IP 페일오버 모니터링 포트가 서비스 포트로 설정됩니다. 노드 포트를 사용하면 포트는 클러스터의 모든 노드에서 열려 있으며, 서비스는 현재 VIP를 서비스하는 모든 노드에서 트래픽을 로드 밸런싱합니다. 이 경우 서비스 정의에서 IP 페일오버 모니터링 포트가 NodePort로 설정됩니다.
NodePort 설정은 권한 있는 작업입니다.
VIP 서비스의 가용성이 높더라도 성능은 여전히 영향을 받을 수 있습니다. keepalived는 각 VIP가 구성의 일부 노드에서 서비스되도록 하고, 다른 노드에 아무것도 없는 경우에도 여러 VIP가 동일한 노드에 배치될 수 있도록 합니다. IP 페일오버가 동일한 노드에 여러 VIP를 배치하면 일련의 VIP에 걸쳐 외부적으로 로드 밸런싱을 수행하는 전략이 좌절될 수 있습니다.
ingressIP를 사용하는 경우 ingressIP 범위와 동일한 VIP 범위를 갖도록 IP 페일오버를 설정할 수 있습니다. 모니터링 포트를 비활성화할 수도 있습니다. 이 경우 모든 VIP가 클러스터의 동일한 노드에 표시됩니다. 모든 사용자는 ingressIP를 사용하여 서비스를 설정하고 고가용성으로 설정할 수 있습니다.
클러스터에는 최대 254개의 VIP가 있습니다.
16.1. IP 페일오버 환경 변수
다음 표에는 IP 페일오버를 구성하는 데 사용되는 변수가 표시되어 있습니다.
표 16.1. IP 페일오버 환경 변수
| 변수 이름 | Default | 설명 |
|---|---|---|
|
|
|
IP 페일오버 pod는 각 가상 IP(VIP)에서 이 포트에 대한 TCP 연결을 엽니다. 연결이 설정되면 서비스가 실행 중인 것으로 간주됩니다. 이 포트가 |
|
|
IP 페일오버가 VRRP(Virtual Router Redundancy Protocol) 트래픽을 보내는 데 사용하는 인터페이스 이름입니다. 기본값은 | |
|
|
|
생성할 복제본 수입니다. 이는 IP 페일오버 배포 구성의 |
|
|
복제할 IP 주소 범위 목록입니다. 이 정보를 제공해야 합니다. 예: | |
|
|
|
가상 라우터 ID를 설정하는 데 사용되는 오프셋 값입니다. 다른 오프셋 값을 사용하면 동일한 클러스터 내에 여러 IP 페일오버 구성이 존재할 수 있습니다. 기본 오프셋은 |
|
|
VRRP에 대해 생성할 그룹 수입니다. 설정하지 않으면 | |
|
| INPUT |
VRRP 트래픽을 허용하는 iptables 규칙을 자동으로 추가하는 |
|
| 애플리케이션이 작동하는지 확인하기 위해 정기적으로 실행되는 스크립트의 Pod 파일 시스템에 있는 전체 경로 이름입니다. | |
|
|
| 확인 스크립트가 실행되는 기간(초)입니다. |
|
| 상태가 변경될 때마다 실행되는 스크립트의 Pod 파일 시스템의 전체 경로 이름입니다. | |
|
|
|
더 높은 우선 순위의 호스트를 처리하는 전략입니다. |
16.2. IP 페일오버 구성
클러스터 관리자는 레이블 선택기에 정의된 대로 전체 클러스터 또는 노드의 하위 집합에서 IP 페일오버를 구성할 수 있습니다. 클러스터에서 여러 IP 페일오버 배포 구성을 설정할 수도 있습니다. 이 배포 구성은 서로 독립적입니다.
IP 페일오버 배포 구성을 사용하면 제약 조건 또는 사용된 라벨과 일치하는 각 노드에서 페일오버 pod가 실행됩니다.
이 Pod는 Keepalived를 실행하여 엔드포인트를 모니터링하고 VRRP(Virtual Router Redundancy Protocol)를 사용하여 첫 번째 노드가 서비스 또는 엔드포인트에 연결할 수 없는 경우 한 노드에서 다른 노드로의 가상 IP(VIP)를 페일오버할 수 있습니다.
프로덕션 용도의 경우 두 개 이상의 노드를 선택하는 selector를 설정하고 선택한 노드 수와 동일한 replicas를 설정합니다.
사전 요구 사항
-
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 풀 시크릿을 생성했습니다.
프로세스
IP 페일오버 서비스 계정을 생성합니다.
$ oc create sa ipfailover
hostNetwork의 SCC(보안 컨텍스트 제약 조건)를 업데이트합니다.$ oc adm policy add-scc-to-user privileged -z ipfailover $ oc adm policy add-scc-to-user hostnetwork -z ipfailover
IP 페일오버를 구성하기 위해 배포 YAML 파일을 만듭니다.
IP 페일오버 구성을 위한 배포 YAML의 예
apiVersion: apps/v1 kind: Deployment metadata: name: ipfailover-keepalived 1 labels: ipfailover: hello-openshift spec: strategy: type: Recreate replicas: 2 selector: matchLabels: ipfailover: hello-openshift template: metadata: labels: ipfailover: hello-openshift spec: serviceAccountName: ipfailover privileged: true hostNetwork: true nodeSelector: node-role.kubernetes.io/worker: "" containers: - name: openshift-ipfailover image: quay.io/openshift/origin-keepalived-ipfailover ports: - containerPort: 63000 hostPort: 63000 imagePullPolicy: IfNotPresent securityContext: privileged: true volumeMounts: - name: lib-modules mountPath: /lib/modules readOnly: true - name: host-slash mountPath: /host readOnly: true mountPropagation: HostToContainer - name: etc-sysconfig mountPath: /etc/sysconfig readOnly: true - name: config-volume mountPath: /etc/keepalive env: - name: OPENSHIFT_HA_CONFIG_NAME value: "ipfailover" - name: OPENSHIFT_HA_VIRTUAL_IPS 2 value: "1.1.1.1-2" - name: OPENSHIFT_HA_VIP_GROUPS 3 value: "10" - name: OPENSHIFT_HA_NETWORK_INTERFACE 4 value: "ens3" #The host interface to assign the VIPs - name: OPENSHIFT_HA_MONITOR_PORT 5 value: "30060" - name: OPENSHIFT_HA_VRRP_ID_OFFSET 6 value: "0" - name: OPENSHIFT_HA_REPLICA_COUNT 7 value: "2" #Must match the number of replicas in the deployment - name: OPENSHIFT_HA_USE_UNICAST value: "false" #- name: OPENSHIFT_HA_UNICAST_PEERS #value: "10.0.148.40,10.0.160.234,10.0.199.110" - name: OPENSHIFT_HA_IPTABLES_CHAIN 8 value: "INPUT" #- name: OPENSHIFT_HA_NOTIFY_SCRIPT 9 # value: /etc/keepalive/mynotifyscript.sh - name: OPENSHIFT_HA_CHECK_SCRIPT 10 value: "/etc/keepalive/mycheckscript.sh" - name: OPENSHIFT_HA_PREEMPTION 11 value: "preempt_delay 300" - name: OPENSHIFT_HA_CHECK_INTERVAL 12 value: "2" livenessProbe: initialDelaySeconds: 10 exec: command: - pgrep - keepalived volumes: - name: lib-modules hostPath: path: /lib/modules - name: host-slash hostPath: path: / - name: etc-sysconfig hostPath: path: /etc/sysconfig # config-volume contains the check script # created with `oc create configmap keepalived-checkscript --from-file=mycheckscript.sh` - configMap: defaultMode: 0755 name: keepalived-checkscript name: config-volume imagePullSecrets: - name: openshift-pull-secret 13
- 1
- IP 페일오버 배포의 이름입니다.
- 2
- 복제할 IP 주소 범위 목록입니다. 이 정보를 제공해야 합니다. 예:
1.2.3.4-6,1.2.3.9. - 3
- VRRP에 대해 생성할 그룹 수입니다. 설정하지 않으면
OPENSHIFT_HA_VIP_GROUPS변수로 지정된 각 가상 IP 범위에 대해 그룹이 생성됩니다. - 4
- IP 페일오버가 VRRP 트래픽을 보내는 데 사용하는 인터페이스 이름입니다. 기본적으로
eth0이 사용됩니다. - 5
- IP 페일오버 pod는 각 VIP에서 이 포트에 대한 TCP 연결을 열려고 합니다. 연결이 설정되면 서비스가 실행 중인 것으로 간주됩니다. 이 포트가
0으로 설정되면 테스트가 항상 통과합니다. 기본값은80입니다. - 6
- 가상 라우터 ID를 설정하는 데 사용되는 오프셋 값입니다. 다른 오프셋 값을 사용하면 동일한 클러스터 내에 여러 IP 페일오버 구성이 존재할 수 있습니다. 기본 오프셋은
0이며 허용되는 범위는0에서255사이입니다. - 7
- 생성할 복제본 수입니다. 이는 IP 페일오버 배포 구성의
spec.replicas값과 일치해야 합니다. 기본값은2입니다. - 8
- VRRP 트래픽을 허용하는
iptables규칙을 자동으로 추가하는iptables체인의 이름입니다. 값을 설정하지 않으면iptables규칙이 추가되지 않습니다. 체인이 존재하지 않으면 이 체인이 생성되지 않으며 Keepalived는 유니캐스트 모드로 작동합니다. 기본값은INPUT입니다. - 9
- 상태가 변경될 때마다 실행되는 스크립트의 Pod 파일 시스템의 전체 경로 이름입니다.
- 10
- 애플리케이션이 작동하는지 확인하기 위해 정기적으로 실행되는 스크립트의 Pod 파일 시스템에 있는 전체 경로 이름입니다.
- 11
- 더 높은 우선 순위의 호스트를 처리하는 전략입니다. 기본값은
preempt_delay 300으로, 우선순위가 낮은 마스터가 VIP를 보유하는 경우 Keepalived 인스턴스가 5분 후에 VIP를 넘겨받습니다. - 12
- 확인 스크립트가 실행되는 기간(초)입니다. 기본값은
2입니다. - 13
- 배포를 만들기 전에 풀 시크릿을 생성합니다. 그렇지 않으면 배포를 생성할 때 오류가 발생합니다.
16.3. 가상 IP 주소 정보
keepalived는 가상 IP 주소 집합(VIP)을 관리합니다. 관리자는 다음 주소를 모두 확인해야 합니다.
- 클러스터 외부에서 구성된 호스트에서 액세스할 수 있습니다.
- 클러스터 내의 다른 용도로는 사용되지 않습니다.
각 노드의 keepalive는 필요한 서비스가 실행 중인지 여부를 결정합니다. 이 경우 VIP가 지원되고 Keepalived가 협상에 참여하여 VIP를 제공하는 노드를 결정합니다. 노드가 참여하려면 VIP의 감시 포트에서 서비스를 수신 대기하거나 검사를 비활성화해야 합니다.
세트의 각 VIP는 다른 노드에서 제공할 수 있습니다.
16.4. 검사 구성 및 스크립트 알림
keepalived는 사용자가 제공한 선택적 검사 스크립트를 주기적으로 실행하여 애플리케이션의 상태를 모니터링합니다. 예를 들어 스크립트는 요청을 발행하고 응답을 확인하여 웹 서버를 테스트할 수 있습니다.
검사 스크립트를 제공하지 않으면 TCP 연결을 테스트하는 간단한 기본 스크립트가 실행됩니다. 이 기본 테스트는 모니터 포트가 0이면 비활성화됩니다.
각 IP 페일오버 pod는 pod가 실행 중인 노드에서 하나 이상의 가상 IP(VIP)를 관리하는 Keepalived 데몬을 관리합니다. Keepalived 데몬은 해당 노드의 각 VIP 상태를 유지합니다. 특정 노드의 특정 VIP는 master, backup, fault 상태일 수 있습니다.
master 상태에 있는 노드에서 해당 VIP에 대한 검사 스크립트가 실패하면 해당 노드의 VIP가 fault 상태가 되어 재협상을 트리거합니다. 재협상하는 동안 fault 상태에 있지 않은 노드의 모든 VIP가 VIP를 인수하는 노드를 결정하는 데 참여합니다. 결과적으로 VIP는 일부 노드에서 master 상태로 전환되고 VIP는 다른 노드에서 backup 상태로 유지됩니다.
backup 상태의 VIP 노드가 실패하면 해당 노드의 VIP가 fault 상태가 됩니다. 검사 스크립트가 fault 상태의 노드에서 VIP를 다시 전달하면 해당 노드의 VIP 상태가 fault 상태를 종료하고 master 상태로 전환하도록 협상합니다. 그런 다음 해당 노드의 VIP는 master 또는 backup 상태에 들어갈 수 있습니다.
클러스터 관리자는 상태가 변경될 때마다 호출되는 선택적 알림 스크립트를 제공할 수 있습니다. keepalived는 다음 세 개의 매개변수를 스크립트에 전달합니다.
-
$1-group또는instance -
$2-group또는instance이름 -
$3- 새 상태:master,backup또는fault
검사 및 알림 스크립트가 IP 페일오버 Pod에서 실행되고 호스트 파일 시스템이 아닌 Pod 파일 시스템을 사용합니다. 그러나 IP 페일오버 Pod를 사용하면 /hosts 마운트 경로에서 호스트 파일 시스템을 사용할 수 있습니다. 검사 또는 알림 스크립트를 구성할 때 스크립트의 전체 경로를 제공해야 합니다. 스크립트를 제공하는 데 권장되는 접근 방식은 구성 맵을 사용하는 것입니다.
Keepalived가 시작될 때마다 로드되는 검사 및 알림 스크립트의 전체 경로 이름이 Keepalived 구성 파일인 _/etc/keepalived/keepalived.conf에 추가됩니다. 스크립트는 다음과 같이 구성 맵을 사용하여 Pod에 추가할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
프로세스
원하는 스크립트를 생성하고 해당 스크립트를 유지할 구성 맵을 생성합니다. 스크립트에는 입력 인수가 없으며
OK의 경우0을fail의 경우1을 반환해야 합니다.검사 스크립트,
mycheckscript.sh:#!/bin/bash # Whatever tests are needed # E.g., send request and verify response exit 0config map을 생성합니다.
$ oc create configmap mycustomcheck --from-file=mycheckscript.sh
pod에 스크립트를 추가합니다. 마운트된 구성 맵 파일의
defaultMode는oc명령을 사용하거나 배포 구성을 편집하여 실행할 수 있어야 합니다.0755,49310진수 값이 일반적입니다.$ oc set env deploy/ipfailover-keepalived \ OPENSHIFT_HA_CHECK_SCRIPT=/etc/keepalive/mycheckscript.sh$ oc set volume deploy/ipfailover-keepalived --add --overwrite \ --name=config-volume \ --mount-path=/etc/keepalive \ --source='{"configMap": { "name": "mycustomcheck", "defaultMode": 493}}'참고oc set env명령은 공백 문자를 구분합니다.=기호 양쪽에 공백이 없어야 합니다.작은 정보또는
ipfailover-keepalived배포 구성을 편집할 수 있습니다.$ oc edit deploy ipfailover-keepalived
spec: containers: - env: - name: OPENSHIFT_HA_CHECK_SCRIPT 1 value: /etc/keepalive/mycheckscript.sh ... volumeMounts: 2 - mountPath: /etc/keepalive name: config-volume dnsPolicy: ClusterFirst ... volumes: 3 - configMap: defaultMode: 0755 4 name: customrouter name: config-volume ...변경 사항을 저장하고 편집기를 종료합니다. 이렇게 하면
ipfailover-keepalived가 다시 시작됩니다.
16.5. VRRP 선점 구성
노드의 가상 IP(VIP)가 검사 스크립트를 전달하여 fault 상태를 벗어나면 노드의 VIP가 현재 master 상태에 있는 노드의 VIP보다 우선 순위가 낮은 경우 backup 상태가 됩니다. 그러나 fault 상태를 벗어나는 노드의 VIP가 우선 순위가 더 높은 경우 선점 전략이 클러스터에서 해당 역할을 결정합니다.
nopreempt 전략에서는 호스트의 우선 순위가 낮은 VIP에서 호스트의 우선 순위가 높은 VIP로 master를 이동하지 않습니다. preempt_delay 300을 사용하면 기본값인 Keepalived가 지정된 300초 동안 기다린 후 fault를 호스트의 우선 순위 VIP로 이동합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다.
프로세스
선점 기능을 지정하려면
oc edit deploy ipfailover-keepalived를 입력하여 라우터 배포 구성을 편집합니다.$ oc edit deploy ipfailover-keepalived
... spec: containers: - env: - name: OPENSHIFT_HA_PREEMPTION 1 value: preempt_delay 300 ...- 1
OPENSHIFT_HA_PREEMPTION값을 설정합니다.-
preempt_delay 300: Keepalived는 지정된 300초 동안 기다린 후 호스트의 우선 순위가 높은 VIP로master를 이동합니다. 이는 기본값입니다. -
nopreempt: 더 낮은 우선 순위 호스트에서 더 높은 우선 순위 호스트로master를 이동하지 않습니다.
-
16.6. VRRP ID 오프셋 정보
IP 페일오버 배포 구성에서 관리하는 각 IP 페일오버 pod는 노드 또는 복제본당 1개의 Pod를 실행하고 Keepalived 데몬을 실행합니다. 더 많은 IP 페일오버 배포 구성이 설정되면 더 많은 Pod가 생성되고 더 많은 데몬이 일반 VRRP(Virtual Router Redundancy Protocol) 협상에 연결됩니다. 이 협상은 모든 Keepalived 데몬에서 수행되며 어떤 노드가 어떤 VIP(가상 IP)를 서비스할 지 결정합니다.
내부적으로 Keepalived는 각 VIP에 고유한 vrrp-id를 할당합니다. 협상은 이 vrrp-id 세트를 사용하며, 결정이 내려지면 vrrp-id에 해당하는 VIP가 노드에 제공됩니다.
따라서 IP 페일오버 배포 구성에 정의된 모든 VIP에 대해 IP 페일오버 Pod에서 해당 vrrp-id를 할당해야 합니다. 이 작업은 OPENSHIFT_HA_VRRP_ID_OFFSET에서 시작하고 vrrp-ids를 VIP 목록에 순차적으로 할당하여 수행됩니다. vrrp-ids는 1..255 범위의 값이 있을 수 있습니다.
IP 페일오버 배포 구성이 여러 개인 경우 배포 구성의 VIP 수를 늘리고 vrrp-id 범위가 겹치지 않도록 OPENSHIFT_HA_VRRP_ID_OFFSET을 지정해야 합니다.
16.7. 254개 이상의 주소에 대한 IP 페일오버 구성
IP 페일오버 관리는 254개의 가상 IP(VIP) 주소 그룹으로 제한됩니다. 기본적으로 OpenShift Container Platform은 각 그룹에 하나의 IP 주소를 할당합니다. OPENSHIFT_HA_VIP_GROUPS 변수를 사용하여 이를 변경하여 여러 IP 주소가 각 그룹에 속하도록 하고 IP 페일오버를 구성할 때 각 VRRP(Virtual Router Redundancy Protocol) 인스턴스에 사용 가능한 VIP 그룹 수를 정의할 수 있습니다.
VIP 그룹화는 VRRP 페일오버 이벤트의 경우 VRRP당 VIP의 할당 범위가 넓어지며 클러스터의 모든 호스트가 로컬에서 서비스에 액세스할 수 있는 경우에 유용합니다. 예를 들어 서비스가 ExternalIP를 사용하여 노출되는 경우입니다.
페일오버에 대한 규칙으로 라우터와 같은 서비스를 하나의 특정 호스트로 제한하지 마십시오. 대신 IP 페일오버의 경우 새 호스트에서 서비스를 다시 생성할 필요가 없도록 각 호스트에 서비스를 복제해야 합니다.
OpenShift Container Platform 상태 확인을 사용하는 경우 IP 페일오버 및 그룹의 특성으로 인해 그룹의 모든 인스턴스가 확인되지 않습니다. 따라서 서비스가 활성화되어 있는지 확인하려면 Kubernetes 상태 점검을 사용해야 합니다.
사전 요구 사항
-
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
프로세스
각 그룹에 할당된 IP 주소 수를 변경하려면
OPENSHIFT_HA_VIP_GROUPS변수의 값을 변경합니다. 예를 들면 다음과 같습니다.IP 페일오버 구성을 위한
DeploymentYAML의 예... spec: env: - name: OPENSHIFT_HA_VIP_GROUPS 1 value: "3" ...- 1
- 7개의 VIP가 있는 환경에서
OPENSHIFT_HA_VIP_GROUPS가3으로 설정된 경우 3개의 그룹을 생성하여 3개의 VIP를 첫 번째 그룹에 할당하고 2개의 VIP를 나머지 2개의 그룹에 할당합니다.
OPENSHIFT_HA_VIP_GROUPS로 설정된 그룹 수가 페일오버로 설정된 IP 주소 수보다 적으면 그룹에는 두 개 이상의 IP 주소가 포함되어 있으며 모든 주소가 하나의 단위로 이동합니다.
16.8. ingressIP의 고가용성
클라우드 이외의 클러스터에서 서비스에 대한 IP 페일오버 및 ingressIP를 결합할 수 있습니다. 그 결과 ingressIP를 사용하여 서비스를 생성하는 사용자를 위한 고가용성 서비스가 생성됩니다.
사용 방법은 ingressIPNetworkCIDR 범위를 지정한 다음 ipfailover 구성을 생성할 때 동일한 범위를 사용하는 것입니다.
IP 페일오버는 전체 클러스터에 대해 최대 255개의 VIP를 지원할 수 있으므로 ingressIPNetworkCIDR은 /24 이하이어야 합니다.
16.9. IP 페일오버 제거
IP 페일오버가 처음 구성되면 클러스터의 작업자 노드는 Keepalived에 대해 224.0.0.18의 멀티 캐스트 패킷을 명시적으로 허용하는 iptables 규칙을 사용하여 수정됩니다. 노드를 변경하여 IP 페일오버를 제거하려면 iptables 규칙을 제거하고 Keepalived에서 사용하는 가상 IP 주소를 제거하는 작업을 실행해야 합니다.
프로세스
선택 사항: 구성 맵으로 저장된 점검 및 알림 스크립트를 식별하고 삭제합니다.
IP 페일오버에 대한 Pod가 구성 맵을 볼륨으로 사용하는지 여부를 확인합니다.
$ oc get pod -l ipfailover \ -o jsonpath="\ {range .items[?(@.spec.volumes[*].configMap)]} {'Namespace: '}{.metadata.namespace} {'Pod: '}{.metadata.name} {'Volumes that use config maps:'} {range .spec.volumes[?(@.configMap)]} {'volume: '}{.name} {'configMap: '}{.configMap.name}{'\n'}{end} {end}"출력 예
Namespace: default Pod: keepalived-worker-59df45db9c-2x9mn Volumes that use config maps: volume: config-volume configMap: mycustomcheck
이전 단계에서 볼륨으로 사용되는 구성 맵의 이름을 제공한 경우 구성 맵을 삭제합니다.
$ oc delete configmap <configmap_name>
IP 페일오버를 위한 기존 배포를 식별합니다.
$ oc get deployment -l ipfailover
출력 예
NAMESPACE NAME READY UP-TO-DATE AVAILABLE AGE default ipfailover 2/2 2 2 105d
배포를 삭제합니다.
$ oc delete deployment <ipfailover_deployment_name>
ipfailover서비스 계정을 제거합니다.$ oc delete sa ipfailover
IP 페일오버를 처음 구성할 때 추가된 IP 테이블 규칙을 제거하는 작업을 실행합니다.
다음 예와 유사한 콘텐츠를 사용하여
remove-ipfailover-job.yaml과 같은 파일을 생성합니다.apiVersion: batch/v1 kind: Job metadata: generateName: remove-ipfailover- labels: app: remove-ipfailover spec: template: metadata: name: remove-ipfailover spec: containers: - name: remove-ipfailover image: quay.io/openshift/origin-keepalived-ipfailover:4.13 command: ["/var/lib/ipfailover/keepalived/remove-failover.sh"] nodeSelector: kubernetes.io/hostname: <host_name> <.> restartPolicy: Never<.> IP 페일오버용으로 구성된 클러스터의 각 노드에 대해 작업을 실행하고 매번 호스트 이름을 바꿉니다.
작업을 실행합니다.
$ oc create -f remove-ipfailover-job.yaml
출력 예
job.batch/remove-ipfailover-2h8dm created
검증
작업이 IP 페일오버의 초기 구성을 제거했는지 확인합니다.
$ oc logs job/remove-ipfailover-2h8dm
출력 예
remove-failover.sh: OpenShift IP Failover service terminating. - Removing ip_vs module ... - Cleaning up ... - Releasing VIPs (interface eth0) ...
17장. 인터페이스 수준 네트워크 sysctl 구성
Linux에서 sysctl을 사용하면 관리자가 런타임에 커널 매개 변수를 수정할 수 있습니다. 튜닝 CNI(Container Network Interface) 메타 플러그인을 사용하여 인터페이스 수준 네트워크 sysctl을 수정할 수 있습니다. 튜닝 CNI 메타 플러그인은 설명된 대로 기본 CNI 플러그인이 있는 체인에서 작동합니다.

기본 CNI 플러그인은 인터페이스를 할당하고 런타임 시 튜닝 CNI 메타 플러그인에 이를 전달합니다. 튜닝 CNI 메타 플러그인을 사용하여 네트워크 네임스페이스에서 일부 sysctl 및 여러 인터페이스 속성(프로미스 모드, all-multicast 모드, MTU 및 MAC 주소)을 변경할 수 있습니다. 튜닝 CNI 메타 플러그인 구성에서 인터페이스 이름은 IFNAME 토큰으로 표시되고 런타임 시 인터페이스 이름으로 교체됩니다.
OpenShift Container Platform에서 튜닝 CNI 메타 플러그인은 인터페이스 수준 네트워크 sysctl 변경만 지원합니다.
17.1. 튜닝 CNI 구성
다음 절차에서는 인터페이스 수준 네트워크 net.ipv4.conf.IFNAME.accept_redirects sysctl을 변경하도록 튜닝 CNI를 구성합니다. 이 예제에서는 ICMP 리디렉션된 패킷을 수락하고 전송할 수 있습니다.
절차
다음 콘텐츠를 사용하여
tuning-example.yaml과 같은 네트워크 연결 정의를 생성합니다.apiVersion: "k8s.cni.cncf.io/v1" kind: NetworkAttachmentDefinition metadata: name: <name> 1 namespace: default 2 spec: config: '{ "cniVersion": "0.4.0", 3 "name": "<name>", 4 "plugins": [{ "type": "<main_CNI_plugin>" 5 }, { "type": "tuning", 6 "sysctl": { "net.ipv4.conf.IFNAME.accept_redirects": "1" 7 } } ] }
yaml 파일의 예는 다음과 같습니다.
apiVersion: "k8s.cni.cncf.io/v1" kind: NetworkAttachmentDefinition metadata: name: tuningnad namespace: default spec: config: '{ "cniVersion": "0.4.0", "name": "tuningnad", "plugins": [{ "type": "bridge" }, { "type": "tuning", "sysctl": { "net.ipv4.conf.IFNAME.accept_redirects": "1" } } ] }'다음 명령을 실행하여 yaml을 적용합니다.
$ oc apply -f tuning-example.yaml
출력 예
networkattachmentdefinition.k8.cni.cncf.io/tuningnad created
다음과 유사한 네트워크 연결 정의를 사용하여
examplepod.yaml과 같은 Pod를 생성합니다.apiVersion: v1 kind: Pod metadata: name: tunepod namespace: default annotations: k8s.v1.cni.cncf.io/networks: tuningnad 1 spec: containers: - name: podexample image: centos command: ["/bin/bash", "-c", "sleep INF"] securityContext: runAsUser: 2000 2 runAsGroup: 3000 3 allowPrivilegeEscalation: false 4 capabilities: 5 drop: ["ALL"] securityContext: runAsNonRoot: true 6 seccompProfile: 7 type: RuntimeDefault- 1
- 구성된
NetworkAttachmentDefinition의 이름을 지정합니다. - 2
RunAsUser는 컨테이너가 실행되는 사용자 ID를 제어합니다.- 3
RunAsGroup은 컨테이너를 사용하여 실행하는 기본 그룹 ID를 제어합니다.- 4
allowPrivilegeEscalation은 Pod에서 권한 에스컬레이션을 허용하도록 요청할 수 있는지 여부를 결정합니다. 지정하지 않으면 기본값은 true입니다. 이 부울은no_new_privs플래그가 컨테이너 프로세스에 설정되어 있는지 여부를 직접 제어합니다.- 5
기능을 통해완전한 루트 액세스 권한을 부여하지 않고 권한 있는 작업을 수행할 수 있습니다. 이 정책은 Pod에서 모든 기능을 삭제합니다.- 6
runAsNonRoot: true를 사용하려면 컨테이너가 0 이외의 UID가 있는 사용자로 컨테이너를 실행해야 합니다.- 7
RuntimeDefault는 Pod 또는 컨테이너 워크로드에 대한 기본 seccomp 프로필을 활성화합니다.
다음 명령을 실행하여 yaml을 적용합니다.
$ oc apply -f examplepod.yaml
다음 명령을 실행하여 Pod가 생성되었는지 확인합니다.
$ oc get pod
출력 예
NAME READY STATUS RESTARTS AGE tunepod 1/1 Running 0 47s
다음 명령을 실행하여 포드에 로그인합니다.
$ oc rsh tunepod
구성된 sysctl 플래그의 값을 확인합니다. 예를 들어 다음 명령을 실행하여
net.ipv4.conf.net1.accept_redirects값을 찾습니다.sh-4.4# sysctl net.ipv4.conf.net1.accept_redirects
예상 출력
net.ipv4.conf.net1.accept_redirects = 1
17.2. 추가 리소스
18장. 베어 메탈 클러스터에서 SCTP(Stream Control Transmission Protocol) 사용
클러스터 관리자는 클러스터에서 SCTP(Stream Control Transmission Protocol)를 사용할 수 있습니다.
18.1. OpenShift Container Platform에서의 SCTP(스트림 제어 전송 프로토콜)
클러스터 관리자는 클러스터의 호스트에서 SCTP를 활성화 할 수 있습니다. RHCOS(Red Hat Enterprise Linux CoreOS)에서 SCTP 모듈은 기본적으로 비활성화되어 있습니다.
SCTP는 IP 네트워크에서 실행되는 안정적인 메시지 기반 프로토콜입니다.
활성화하면 Pod, 서비스, 네트워크 정책에서 SCTP를 프로토콜로 사용할 수 있습니다. type 매개변수를 ClusterIP 또는 NodePort 값으로 설정하여 Service를 정의해야 합니다.
18.1.1. SCTP 프로토콜을 사용하는 구성의 예
protocol 매개변수를 포드 또는 서비스 오브젝트의 SCTP 값으로 설정하여 SCTP를 사용하도록 포드 또는 서비스를 구성할 수 있습니다.
다음 예에서는 pod가 SCTP를 사용하도록 구성되어 있습니다.
apiVersion: v1
kind: Pod
metadata:
namespace: project1
name: example-pod
spec:
containers:
- name: example-pod
...
ports:
- containerPort: 30100
name: sctpserver
protocol: SCTP다음 예에서는 서비스가 SCTP를 사용하도록 구성되어 있습니다.
apiVersion: v1
kind: Service
metadata:
namespace: project1
name: sctpserver
spec:
...
ports:
- name: sctpserver
protocol: SCTP
port: 30100
targetPort: 30100
type: ClusterIP
다음 예에서 NetworkPolicy 오브젝트는 특정 레이블이 있는 모든 Pod의 포트 80에서 SCTP 네트워크 트래픽에 적용되도록 구성되어 있습니다.
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
name: allow-sctp-on-http
spec:
podSelector:
matchLabels:
role: web
ingress:
- ports:
- protocol: SCTP
port: 8018.2. SCTP(스트림 제어 전송 프로토콜) 활성화
클러스터 관리자는 클러스터의 작업자 노드에 블랙리스트 SCTP 커널 모듈을 로드하고 활성화할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
다음 YAML 정의가 포함된
load-sctp-module.yaml파일을 생성합니다.apiVersion: machineconfiguration.openshift.io/v1 kind: MachineConfig metadata: name: load-sctp-module labels: machineconfiguration.openshift.io/role: worker spec: config: ignition: version: 3.2.0 storage: files: - path: /etc/modprobe.d/sctp-blacklist.conf mode: 0644 overwrite: true contents: source: data:, - path: /etc/modules-load.d/sctp-load.conf mode: 0644 overwrite: true contents: source: data:,sctpMachineConfig오브젝트를 생성하려면 다음 명령을 입력합니다.$ oc create -f load-sctp-module.yaml
선택 사항: MachineConfig Operator가 구성 변경 사항을 적용하는 동안 노드의 상태를 보려면 다음 명령을 입력합니다. 노드 상태가
Ready로 전환되면 구성 업데이트가 적용됩니다.$ oc get nodes
18.3. SCTP(Stream Control Transmission Protocol)의 활성화 여부 확인
SCTP 트래픽을 수신하는 애플리케이션으로 pod를 만들고 서비스와 연결한 다음, 노출된 서비스에 연결하여 SCTP가 클러스터에서 작동하는지 확인할 수 있습니다.
사전 요구 사항
-
클러스터에서 인터넷에 액세스하여
nc패키지를 설치합니다. -
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
SCTP 리스너를 시작하는 포드를 생성합니다.
다음 YAML로 pod를 정의하는
sctp-server.yaml파일을 생성합니다.apiVersion: v1 kind: Pod metadata: name: sctpserver labels: app: sctpserver spec: containers: - name: sctpserver image: registry.access.redhat.com/ubi9/ubi command: ["/bin/sh", "-c"] args: ["dnf install -y nc && sleep inf"] ports: - containerPort: 30102 name: sctpserver protocol: SCTP다음 명령을 입력하여 pod를 생성합니다.
$ oc create -f sctp-server.yaml
SCTP 리스너 pod에 대한 서비스를 생성합니다.
다음 YAML을 사용하여 서비스를 정의하는
sctp-service.yaml파일을 생성합니다.apiVersion: v1 kind: Service metadata: name: sctpservice labels: app: sctpserver spec: type: NodePort selector: app: sctpserver ports: - name: sctpserver protocol: SCTP port: 30102 targetPort: 30102서비스를 생성하려면 다음 명령을 입력합니다.
$ oc create -f sctp-service.yaml
SCTP 클라이언트에 대한 pod를 생성합니다.
다음 YAML을 사용하여
sctp-client.yaml파일을 만듭니다.apiVersion: v1 kind: Pod metadata: name: sctpclient labels: app: sctpclient spec: containers: - name: sctpclient image: registry.access.redhat.com/ubi9/ubi command: ["/bin/sh", "-c"] args: ["dnf install -y nc && sleep inf"]Pod오브젝트를 생성하려면 다음 명령을 입력합니다.$ oc apply -f sctp-client.yaml
서버에서 SCTP 리스너를 실행합니다.
서버 Pod에 연결하려면 다음 명령을 입력합니다.
$ oc rsh sctpserver
SCTP 리스너를 시작하려면 다음 명령을 입력합니다.
$ nc -l 30102 --sctp
서버의 SCTP 리스너에 연결합니다.
- 터미널 프로그램에서 새 터미널 창 또는 탭을 엽니다.
sctpservice서비스의 IP 주소를 얻습니다. 다음 명령을 실행합니다.$ oc get services sctpservice -o go-template='{{.spec.clusterIP}}{{"\n"}}'클라이언트 Pod에 연결하려면 다음 명령을 입력합니다.
$ oc rsh sctpclient
SCTP 클라이언트를 시작하려면 다음 명령을 입력합니다.
<cluster_IP>를sctpservice서비스의 클러스터 IP 주소로 변경합니다.# nc <cluster_IP> 30102 --sctp
19장. PTP 하드웨어 사용
linuxptp 서비스를 구성하고 OpenShift Container Platform 클러스터 노드에서 PTP 지원 하드웨어를 사용할 수 있습니다.
19.1. PTP 하드웨어 정보
PTP Operator를 배포하여 OpenShift Container Platform 콘솔 또는 OpenShift CLI(ocCLI)를 사용하여 PTP를 설치할 수 있습니다. PTP Operator는 linuxptp 서비스를 생성 및 관리하고 다음 기능을 제공합니다.
- 클러스터에서 PTP 가능 장치 검색.
-
linuxptp서비스의 구성 관리. -
PTP Operator
cloud-event-proxy사이드카를 사용하여 애플리케이션의 성능 및 안정성에 부정적인 영향을 주는 PTP 클록 이벤트 알림
PTP Operator는 베어 메탈 인프라에서만 프로비저닝된 클러스터에서 PTP 가능 장치와 함께 작동합니다.
19.2. PTP 정보
PTP(Precision Time Protocol)는 네트워크의 클럭을 동기화하는 데 사용됩니다. 하드웨어 지원과 함께 사용할 경우 PTP는 마이크로초 미만의 정확성을 수행할 수 있으며 NTP(Network Time Protocol)보다 더 정확합니다.
19.2.1. PTP 도메인의 요소
PTP는 네트워크에 연결된 여러 노드를 각 노드의 클럭과 동기화하는 데 사용됩니다. PTP에 의해 동기화된 클럭은 소스 대상 계층 구조로 구성됩니다. 계층 구조는 모든 클럭에서 실행되는 최상의 마스터 클럭(BMC) 알고리즘에 의해 자동으로 생성되고 업데이트됩니다. 대상 클럭은 소스 클럭에 동기화되며 대상 클럭은 다른 다운스트림 클럭의 소스일 수 있습니다. 아래에는 PTP 시계의 세 가지 기본 유형이 설명되어 있습니다.
- GRandmaster 클록
- 마스터 클록은 네트워크의 다른 클록에 표준 시간 정보를 제공하며 정확하고 안정적인 동기화를 보장합니다. 타임스탬프를 작성하고 다른 시계의 시간 요청에 응답합니다. GNSS(Global Navigation Satellite System) 시간 소스와 동기화됩니다. master 시계는 네트워크에서 신뢰할 수있는 시간 소스이며 다른 모든 장치에 시간 동기화를 제공합니다.
- 일반 클록
- 일반 클록에는 네트워크의 위치에 따라 소스 또는 대상 클록의 역할을 수행할 수 있는 단일 포트가 연결되어 있습니다. 일반 클록은 타임스탬프를 읽고 쓸 수 있습니다.
- 경계 클록
- 경계 클록에는 두 개 이상의 통신 경로에 포트가 있으며, 동시에 소스와 다른 대상 클록의 대상일 수 있습니다. 경계 클록은 대상 클록으로 작동합니다. 대상 클럭이 타이밍 메시지를 수신하고 지연을 조정한 다음 네트워크를 전달하기 위한 새 소스 시간 신호를 생성합니다. 경계 클록은 소스 클록과 정확하게 동기화되는 새로운 타이밍 패킷을 생성하며 소스 클럭에 직접 보고하는 연결된 장치의 수를 줄일 수 있습니다.
19.2.2. NTP를 통한 PTP의 이점
PTP가 NTP를 능가하는 주요 이점 중 하나는 다양한 NIC(네트워크 인터페이스 컨트롤러) 및 네트워크 스위치에 있는 하드웨어 지원입니다. 특수 하드웨어를 사용하면 PTP가 메시지 전송 지연을 고려하여 시간 동기화의 정확성을 향상시킬 수 있습니다. 최대한의 정확성을 달성하려면 PTP 클록 사이의 모든 네트워킹 구성 요소를 PTP 하드웨어를 사용하도록 설정하는 것이 좋습니다.
NIC는 전송 및 수신 즉시 PTP 패킷을 타임스탬프할 수 있으므로 하드웨어 기반 PTP는 최적의 정확성을 제공합니다. 이를 운영 체제에서 PTP 패킷을 추가로 처리해야 하는 소프트웨어 기반 PTP와 비교합니다.
PTP를 활성화하기 전에 필수 노드에 대해 NTP가 비활성화되어 있는지 확인합니다. MachineConfig 사용자 정의 리소스를 사용하여 chrony 타임 서비스 (chronyd)를 비활성화할 수 있습니다. 자세한 내용은 chrony 타임 서비스 비활성화를 참조하십시오.
19.2.3. 듀얼 NIC 하드웨어에서 PTP 사용
OpenShift Container Platform은 클러스터에서 PTP 타이밍을 위해 단일 및 듀얼 NIC 하드웨어를 지원합니다.
중간 대역의 가상 분산 장치(vDU)를 제공하는 5G 통신 네트워크의 경우 각 가상 분산 단위(vDU)는 6개의 무선 장치(RU)에 연결해야 합니다. 이러한 연결을 위해 각 vDU 호스트에는 경계 클럭으로 구성된 2개의 NIC가 필요합니다.
듀얼 NIC 하드웨어를 사용하면 각 NIC가 다운스트림 클럭을 공급하는 각 NIC에 대해 별도의 ptp4l 인스턴스를 사용하여 각 NIC를 동일한 업스트림 리더 클럭에 연결할 수 있습니다.
19.3. OpenShift Container Platform 노드의 linuxptp 개요
OpenShift Container Platform은 베어 메탈 인프라에서 높은 정밀 시스템 타이밍을 위해 PTP 및 linuxptp 를 사용합니다. linuxptp 패키지에는 시스템 클럭 동기화를 위한 ts2phc,pmc,ptp4l, phc2sys 프로그램이 포함되어 있습니다.
- ts2phc
ts2phc는 PTP 장치 전체에서 PTP 하드웨어 클럭(PHC)을 높은 수준의 정확도와 동기화합니다.ts2phc는 경수 마스터 클럭 구성에 사용됩니다. GPS(Global Navigation Satellite System)와 같은 정밀한 클럭 소스를 수신합니다. GNSS는 대규모 분산 네트워크에서 사용하기 위해 정확하고 안정적인 동기화 시간 소스를 제공합니다. GNSS 시계는 일반적으로 몇 나노초의 정확도로 시간 정보를 제공합니다.ts2phc시스템 데몬은 경직 마스터 시계에서 시간 정보를 읽고 PHC 형식으로 변환하여 네트워크의 다른 PTP 장치로 타이밍 정보를 보냅니다. PHC 시간은 네트워크의 다른 장치에 의해 시계를 그랜드 마스터 시계와 동기화하는 데 사용됩니다.- pmc
-
PMC는 IEEE 표준 1588.1588에 따라 PTP 관리 클라이언트(pmc)를 구현합니다.PMC는ptp4l시스템 데몬에 대한 기본 관리 액세스를 제공합니다.PMC는 표준 입력에서 읽고 선택한 전송에 대한 출력을 전송하여 수신한 모든 응답을 출력합니다. - ptp4l
ptp4l은 PTP 경계 클럭과 일반 시계를 구현하고 시스템 데몬으로 실행됩니다.ptp4l은 다음을 수행합니다.- 하드웨어 타임 스탬프를 사용하여 PHC를 소스 클럭과 동기화
- 소프트웨어 타임스탬프를 사용하여 시스템 시계를 소스 클럭에 동기화
- phc2sys
-
phc2sys는 시스템 시계를 NIC(네트워크 인터페이스 컨트롤러)의 PHC에 동기화합니다.phc2sys시스템 데몬은 타이밍 정보를 위해 PHC를 지속적으로 모니터링합니다. 타이밍 오류를 감지하면 PHC가 시스템 시계를 수정합니다.
19.4. CLI를 사용하여 PTP Operator 설치
클러스터 관리자는 CLI를 사용하여 Operator를 설치할 수 있습니다.
사전 요구 사항
- PTP를 지원하는 하드웨어가 있는 노드로 베어 메탈 하드웨어에 설치된 클러스터
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
PTP Operator의 네임스페이스를 생성합니다.
다음 YAML을
ptp-namespace.yaml파일에 저장합니다.apiVersion: v1 kind: Namespace metadata: name: openshift-ptp annotations: workload.openshift.io/allowed: management labels: name: openshift-ptp openshift.io/cluster-monitoring: "true"NamespaceCR을 생성합니다.$ oc create -f ptp-namespace.yaml
PTP Operator에 대한 Operator group을 생성합니다.
다음 YAML을
ptp-operatorgroup.yaml파일에 저장합니다.apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: ptp-operators namespace: openshift-ptp spec: targetNamespaces: - openshift-ptp
OperatorGroupCR을 생성합니다.$ oc create -f ptp-operatorgroup.yaml
PTP Operator에 등록합니다.
다음 YAML을
ptp-sub.yaml파일에 저장합니다.apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: ptp-operator-subscription namespace: openshift-ptp spec: channel: "stable" name: ptp-operator source: redhat-operators sourceNamespace: openshift-marketplace
SubscriptionCR을 생성합니다.$ oc create -f ptp-sub.yaml
Operator가 설치되었는지 확인하려면 다음 명령을 입력합니다.
$ oc get csv -n openshift-ptp -o custom-columns=Name:.metadata.name,Phase:.status.phase
출력 예
Name Phase 4.13.0-202301261535 Succeeded
19.5. 웹 콘솔을 사용하여 PTP Operator 설치
클러스터 관리자는 웹 콘솔을 사용하여 PTP Operator를 설치할 수 있습니다.
이전 섹션에서 언급한 것처럼 네임스페이스 및 Operator group을 생성해야 합니다.
프로세스
OpenShift Container Platform 웹 콘솔을 사용하여 PTP Operator를 설치합니다.
- OpenShift Container Platform 웹 콘솔에서 Operator → OperatorHub를 클릭합니다.
- 사용 가능한 Operator 목록에서 PTP Operator를 선택한 다음 설치를 클릭합니다.
- Operator 설치 페이지의 클러스터의 특정 네임스페이스에서 openshift-ptp를 선택합니다. 그런 다음, 설치를 클릭합니다.
선택 사항: PTP Operator가 설치되었는지 확인합니다.
- Operator → 설치된 Operator 페이지로 전환합니다.
PTP Operator가 openshift-ptp 프로젝트에 InstallSucceeded 상태로 나열되어 있는지 확인합니다.
참고설치 중에 Operator는 실패 상태를 표시할 수 있습니다. 나중에 InstallSucceeded 메시지와 함께 설치에 성공하면 이 실패 메시지를 무시할 수 있습니다.
Operator가 설치된 것으로 나타나지 않으면 다음과 같이 추가 문제 해결을 수행합니다.
- Operator → 설치된 Operator 페이지로 이동하고 Operator 서브스크립션 및 설치 계획 탭의 상태에 장애나 오류가 있는지 검사합니다.
-
Workloads → Pod 페이지로 이동하여
openshift-ptp프로젝트에서 Pod 로그를 확인합니다.
19.6. PTP 장치 구성
PTP Operator는 NodePtpDevice.ptp.openshift.io CRD(custom resource definition)를 OpenShift Container Platform에 추가합니다.
PTP Operator가 설치되면 각 노드에서 PTP 가능 네트워크 장치를 클러스터에서 검색합니다. 호환되는 PTP 가능 네트워크 장치를 제공하는 각 노드에 대해 NodePtpDevice CR(사용자 정의 리소스) 오브젝트를 생성하고 업데이트합니다.
19.6.1. 클러스터에서 PTP 지원 네트워크 장치 검색
클러스터에서 PTP 가능 네트워크 장치의 전체 목록을 반환하려면 다음 명령을 실행합니다.
$ oc get NodePtpDevice -n openshift-ptp -o yaml
출력 예
apiVersion: v1 items: - apiVersion: ptp.openshift.io/v1 kind: NodePtpDevice metadata: creationTimestamp: "2022-01-27T15:16:28Z" generation: 1 name: dev-worker-0 1 namespace: openshift-ptp resourceVersion: "6538103" uid: d42fc9ad-bcbf-4590-b6d8-b676c642781a spec: {} status: devices: 2 - name: eno1 - name: eno2 - name: eno3 - name: eno4 - name: enp5s0f0 - name: enp5s0f1 ...
19.6.2. linuxptp 서비스를 위주로 구성
호스트 NIC를 구성하는 PtpConfig CR(사용자 정의 리소스)을 생성하여 linuxptp 서비스(ptp4l,phc2sys,ts2phc)를 위 마스터 시계로 구성할 수 있습니다.
ts2phc 유틸리티를 사용하면 노드가 PTP 일반 시계 및 경계 클럭을 다운스트림하기 위해 정확도 시계 신호를 스트리밍할 수 있도록 시스템 시계를 PTP 유예 시계 시계와 동기화할 수 있습니다.
다음 예제 PtpConfig CR을 기반으로 사용하여 linuxptp 서비스를 특정 하드웨어 및 환경에 대한 그랜드마스터 시계로 구성합니다. 이 예제 CR에서는 PTP 빠른 이벤트를 구성하지 않습니다. PTP 빠른 이벤트를 구성하려면 ptp4lOpts,ptp4lConf, ptpClockThreshold 에 적절한 값을 설정합니다. ptpClockThreshold 는 이벤트가 활성화된 경우에만 사용됩니다. 자세한 내용은 " PTP 빠른 이벤트 알림 게시자 구성"을 참조하십시오.
사전 요구 사항
- 베어 메탈 클러스터 호스트에 Intel Westport Channel 네트워크 인터페이스를 설치합니다.
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - PTP Operator를 설치합니다.
절차
PtpConfig리소스를 생성합니다. 예를 들면 다음과 같습니다.다음 YAML을 Humaster
-clock-ptp-config.yaml파일에 저장합니다.권장되는 PTP 주 마스터 클럭 구성
apiVersion: ptp.openshift.io/v1 kind: PtpConfig metadata: name: grandmaster namespace: openshift-ptp spec: profile: - name: "grandmaster" ptp4lOpts: "-2 --summary_interval -4" phc2sysOpts: -r -u 0 -m -O -37 -N 8 -R 16 -s ens2f1 -n 24 ptpSchedulingPolicy: SCHED_FIFO ptpSchedulingPriority: 10 plugins: e810: enableDefaultConfig: true ts2phcOpts: " " ts2phcConf: | [nmea] ts2phc.master 1 [global] use_syslog 0 verbose 1 logging_level 7 ts2phc.pulsewidth 100000000 #GNSS module - ls /dev/gnss* -al ts2phc.nmea_serialport /dev/gnss0 leapfile /usr/share/zoneinfo/leap-seconds.list [ens2f1] ts2phc.extts_polarity rising ts2phc.extts_correction 0 ptp4lConf: | [ens2f1] masterOnly 1 [ens2f2] masterOnly 1 [ens2f3] masterOnly 1 [ens2f4] masterOnly 1 [global] # # Default Data Set # twoStepFlag 1 priority1 128 priority2 128 domainNumber 24 #utc_offset 37 clockClass 6 clockAccuracy 0x27 offsetScaledLogVariance 0xFFFF free_running 0 freq_est_interval 1 dscp_event 0 dscp_general 0 dataset_comparison G.8275.x G.8275.defaultDS.localPriority 128 # # Port Data Set # logAnnounceInterval -3 logSyncInterval -4 logMinDelayReqInterval -4 logMinPdelayReqInterval 0 announceReceiptTimeout 3 syncReceiptTimeout 0 delayAsymmetry 0 fault_reset_interval 4 neighborPropDelayThresh 20000000 masterOnly 0 G.8275.portDS.localPriority 128 # # Run time options # assume_two_step 0 logging_level 6 path_trace_enabled 0 follow_up_info 0 hybrid_e2e 0 inhibit_multicast_service 0 net_sync_monitor 0 tc_spanning_tree 0 tx_timestamp_timeout 50 unicast_listen 0 unicast_master_table 0 unicast_req_duration 3600 use_syslog 1 verbose 0 summary_interval -4 kernel_leap 1 check_fup_sync 0 # # Servo Options # pi_proportional_const 0.0 pi_integral_const 0.0 pi_proportional_scale 0.0 pi_proportional_exponent -0.3 pi_proportional_norm_max 0.7 pi_integral_scale 0.0 pi_integral_exponent 0.4 pi_integral_norm_max 0.3 step_threshold 0.0 first_step_threshold 0.00002 clock_servo pi sanity_freq_limit 200000000 ntpshm_segment 0 # # Transport options # transportSpecific 0x0 ptp_dst_mac 01:1B:19:00:00:00 p2p_dst_mac 01:80:C2:00:00:0E udp_ttl 1 udp6_scope 0x0E uds_address /var/run/ptp4l # # Default interface options # clock_type BC network_transport L2 delay_mechanism E2E time_stamping hardware tsproc_mode filter delay_filter moving_median delay_filter_length 10 egressLatency 0 ingressLatency 0 boundary_clock_jbod 0 # # Clock description # productDescription ;; revisionData ;; manufacturerIdentity 00:00:00 userDescription ; timeSource 0x20 recommend: - profile: "grandmaster" priority: 4 match: - nodeLabel: "node-role.kubernetes.io/worker"다음 명령을 실행하여 CR을 생성합니다.
$ oc create -f grandmaster-clock-ptp-config.yaml
검증
PtpConfig프로필이 노드에 적용되는지 확인합니다.다음 명령을 실행하여
openshift-ptp네임스페이스에서 Pod 목록을 가져옵니다.$ oc get pods -n openshift-ptp -o wide
출력 예
NAME READY STATUS RESTARTS AGE IP NODE linuxptp-daemon-74m2g 3/3 Running 3 4d15h 10.16.230.7 compute-1.example.com ptp-operator-5f4f48d7c-x7zkf 1/1 Running 1 4d15h 10.128.1.145 compute-1.example.com
프로필이 올바른지 확인합니다.
PtpConfig프로필에 지정한 노드에 해당하는linuxptp데몬의 로그를 검사합니다. 다음 명령을 실행합니다.$ oc logs linuxptp-daemon-74m2g -n openshift-ptp -c linuxptp-daemon-container
출력 예
ts2phc[94980.334]: [ts2phc.0.config] nmea delay: 98690975 ns ts2phc[94980.334]: [ts2phc.0.config] ens3f0 extts index 0 at 1676577329.999999999 corr 0 src 1676577330.901342528 diff -1 ts2phc[94980.334]: [ts2phc.0.config] ens3f0 master offset -1 s2 freq -1 ts2phc[94980.441]: [ts2phc.0.config] nmea sentence: GNRMC,195453.00,A,4233.24427,N,07126.64420,W,0.008,,160223,,,A,V phc2sys[94980.450]: [ptp4l.0.config] CLOCK_REALTIME phc offset 943 s2 freq -89604 delay 504 phc2sys[94980.512]: [ptp4l.0.config] CLOCK_REALTIME phc offset 1000 s2 freq -89264 delay 474
추가 리소스
19.6.2.1. ovnmaster 클럭 PtpConfig 구성 참조
다음 참조 정보는 linuxptp 서비스(ptp4l,phc2sys,ts2phc)를 경외 마스터 시계로 구성하는 PtpConfig CR(사용자 정의 리소스)의 구성 옵션을 설명합니다.
표 19.1. PTP>-<master 클럭에 대한 PtpConfig 구성 옵션
| PtpConfig CR 필드 | 설명 |
|---|---|
|
|
플러그인 메커니즘을 사용하면 PTP Operator가 자동화된 하드웨어 구성을 수행할 수 있습니다. Intel Westport Channel NIC의 경우 |
|
|
|
|
|
|
|
| 데이터를 삭제하기 전에 발신자의 전송 (TX) 타임 스탬프를 기다릴 최대 시간을 지정합니다. |
|
| JBOD 경계 클럭 지연 값을 지정합니다. 이 값은 네트워크 시간 장치 간에 전달되는 시간 값을 수정하는 데 사용됩니다. |
|
|
참고
여기에 나열된 네트워크 인터페이스가 그랜드 마스터로 구성되어 있으며 |
|
|
|
|
|
|
|
|
선택 사항: |
|
|
|
|
|
|
|
|
|
|
|
profile 섹션에 정의된 |
|
|
|
|
|
|
|
|
|
|
|
|
19.6.3. linuxptp 서비스를 일반 시계로 구성
PtpConfig CR(사용자 정의 리소스) 오브젝트를 생성하여 linuxptp 서비스(ptp4l,phc2sys)를 일반 클럭으로 구성할 수 있습니다.
다음 예제 PtpConfig CR을 기반으로 사용하여 linuxptp 서비스를 특정 하드웨어 및 환경에 대한 일반 클럭으로 구성합니다. 이 예제 CR에서는 PTP 빠른 이벤트를 구성하지 않습니다. PTP 빠른 이벤트를 구성하려면 ptp4lOpts,ptp4lConf, ptpClockThreshold 에 적절한 값을 설정합니다. ptpClockThreshold 는 이벤트가 활성화된 경우에만 필요합니다. 자세한 내용은 " PTP 빠른 이벤트 알림 게시자 구성"을 참조하십시오.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - PTP Operator를 설치합니다.
절차
다음
PtpConfigCR을 생성한 다음 YAML을ordinary-clock-ptp-config.yaml파일에 저장합니다.권장되는 PTP 일반 클럭 구성
apiVersion: ptp.openshift.io/v1 kind: PtpConfig metadata: name: ordinary-clock-ptp-config namespace: openshift-ptp spec: profile: - name: ordinary-clock interface: "<interface_name>" phc2sysOpts: "-a -r -n 24" ptp4lOpts: "-2 -s" ptpSchedulingPolicy: SCHED_FIFO ptpSchedulingPriority: 10 ptp4lConf: | [global] # # Default Data Set # twoStepFlag 1 slaveOnly 1 priority1 128 priority2 128 domainNumber 24 clockClass 255 clockAccuracy 0xFE offsetScaledLogVariance 0xFFFF free_running 0 freq_est_interval 1 dscp_event 0 dscp_general 0 dataset_comparison G.8275.x G.8275.defaultDS.localPriority 128 # # Port Data Set # logAnnounceInterval -3 logSyncInterval -4 logMinDelayReqInterval -4 logMinPdelayReqInterval -4 announceReceiptTimeout 3 syncReceiptTimeout 0 delayAsymmetry 0 fault_reset_interval 4 neighborPropDelayThresh 20000000 masterOnly 0 G.8275.portDS.localPriority 128 # # Run time options # assume_two_step 0 logging_level 6 path_trace_enabled 0 follow_up_info 0 hybrid_e2e 0 inhibit_multicast_service 0 net_sync_monitor 0 tc_spanning_tree 0 tx_timestamp_timeout 50 unicast_listen 0 unicast_master_table 0 unicast_req_duration 3600 use_syslog 1 verbose 0 summary_interval 0 kernel_leap 1 check_fup_sync 0 # # Servo Options # pi_proportional_const 0.0 pi_integral_const 0.0 pi_proportional_scale 0.0 pi_proportional_exponent -0.3 pi_proportional_norm_max 0.7 pi_integral_scale 0.0 pi_integral_exponent 0.4 pi_integral_norm_max 0.3 step_threshold 2.0 first_step_threshold 0.00002 max_frequency 900000000 clock_servo pi sanity_freq_limit 200000000 ntpshm_segment 0 # # Transport options # transportSpecific 0x0 ptp_dst_mac 01:1B:19:00:00:00 p2p_dst_mac 01:80:C2:00:00:0E udp_ttl 1 udp6_scope 0x0E uds_address /var/run/ptp4l # # Default interface options # clock_type OC network_transport L2 delay_mechanism E2E time_stamping hardware tsproc_mode filter delay_filter moving_median delay_filter_length 10 egressLatency 0 ingressLatency 0 boundary_clock_jbod 0 # # Clock description # productDescription ;; revisionData ;; manufacturerIdentity 00:00:00 userDescription ; timeSource 0xA0 recommend: - profile: ordinary-clock priority: 4 match: - nodeLabel: "node-role.kubernetes.io/worker" nodeName: "<node_name>"표 19.2. PTP 일반 클럭 CR 구성 옵션
사용자 정의 리소스 필드 설명 namePtpConfigCR의 이름입니다.profile하나 이상의
profile오브젝트의 배열을 지정합니다. 각 프로필은 고유하게 이름을 지정해야 합니다.인터페이스ptp4l서비스에서 사용할 네트워크 인터페이스를 지정합니다(예:ens787f1).ptp4lOptsptp4l서비스에 대한 시스템 구성 옵션을 지정합니다. 예를 들면-2에서 IEEE 802.3 네트워크 전송을 선택합니다. 옵션은 네트워크 인터페이스 이름과 서비스 구성 파일이 자동으로 추가되므로 네트워크 인터페이스 이름-i <interface>및 서비스 구성 파일-f /etc/ptp4l.conf를 포함하지 않아야 합니다. 이 인터페이스에서 PTP 빠른 이벤트를 사용하려면--summary_interval -4를 추가합니다.phc2sysOptsphc2sys서비스에 대한 시스템 구성 옵션을 지정합니다. 이 필드가 비어 있으면 PTP Operator에서phc2sys서비스를 시작하지 않습니다. Intel Columbiaville 800 시리즈 NIC의 경우phc2sysOpts옵션을-a -r -m -n 24 -N 8 -R 16으로 설정합니다.-m에서stdout에 메시지를 출력합니다.linuxptp-daemonDaemonSet은 로그를 구문 분석하고 Prometheus 지표를 생성합니다.ptp4lConf기본
/etc/ptp4l.conf파일을 대체할 구성이 포함된 문자열을 지정합니다. 기본 구성을 사용하려면 필드를 비워 둡니다.tx_timestamp_timeoutIntel Columbiaville 800 시리즈 NIC의 경우
tx_timestamp_timeout을50으로 설정합니다.boundary_clock_jbodIntel Columbiaville 800 시리즈 NIC의 경우
boundary_clock_jbod를0으로 설정합니다.ptpSchedulingPolicyptp4l및phc2sys프로세스에 대한 스케줄링 정책입니다. 기본값은ECDHE_OTHER입니다.FIFO 스케줄링을 지원하는 시스템에서ECDHE_FIFO를 사용합니다.ptpSchedulingPriorityptpSchedulingPolicy가ECDHE_FIFO로 설정된 경우우선 순위를 설정하는 데 사용되는 1-65의 정수 값입니다.ptp4l및phc2sys프로세스의 FIFOptpSchedulingPriority필드는ptpSchedulingPolicy가ECDHE_OTHER로 설정된 경우 사용되지 않습니다.ptpClockThreshold선택 사항:
ptpClockThreshold가 없으면 기본값이ptpClockThreshold필드에 사용됩니다.ptpClockThreshold는 PTP 이벤트가 트리거되기 전에 PTP 마스터 시계가 연결이 끊긴 후의 기간을 구성합니다.holdOverTimeout은 PTP 마스터 클럭이 연결 해제되면 PTP 클럭 이벤트 상태가 FreeRUN로 변경되는 시간 값(초)입니다.maxOffsetThreshold및minOffsetThreshold설정은CLOCK_REALTIME(phc2sys) 또는 마스터 오프셋(ptp4l)의 값과 비교하여 나노초 단위로 오프셋 값을 구성합니다.ptp4l또는phc2sys오프셋 값이 이 범위를 벗어나면 PTP 클럭 상태가FREERUN로 설정됩니다. 오프셋 값이 이 범위 내에 있으면 PTP 클럭 상태가LOCKED로 설정됩니다.권장프로필을노드에 적용하는 방법에 대한 규칙을 정의하는 하나 이상의recommend오브젝트 배열을 지정합니다..recommend.profileprofile 섹션에 정의된
.recommend.오브젝트 이름을 지정합니다.profile.recommend.priority일반 시계의 경우
.recommend.priority를0으로 설정합니다..recommend.matchnodeLabel또는nodeName으로.recommend.match규칙을 지정합니다..recommend.match.nodeLabeloc get nodes --show-labels명령을 사용하여 노드 오브젝트에서node.Labels의키로nodeLabel을 업데이트합니다. 예:node-role.kubernetes.io/worker..recommend.match.nodeLabeloc get nodes명령을 사용하여 노드 오브젝트에서node.Name의 값으로nodeName을 업데이트합니다. 예:compute-0.example.com.다음 명령을 실행하여
PtpConfigCR을 생성합니다.$ oc create -f ordinary-clock-ptp-config.yaml
검증
PtpConfig프로필이 노드에 적용되는지 확인합니다.다음 명령을 실행하여
openshift-ptp네임스페이스에서 Pod 목록을 가져옵니다.$ oc get pods -n openshift-ptp -o wide
출력 예
NAME READY STATUS RESTARTS AGE IP NODE linuxptp-daemon-4xkbb 1/1 Running 0 43m 10.1.196.24 compute-0.example.com linuxptp-daemon-tdspf 1/1 Running 0 43m 10.1.196.25 compute-1.example.com ptp-operator-657bbb64c8-2f8sj 1/1 Running 0 43m 10.129.0.61 control-plane-1.example.com
프로필이 올바른지 확인합니다.
PtpConfig프로필에 지정한 노드에 해당하는linuxptp데몬의 로그를 검사합니다. 다음 명령을 실행합니다.$ oc logs linuxptp-daemon-4xkbb -n openshift-ptp -c linuxptp-daemon-container
출력 예
I1115 09:41:17.117596 4143292 daemon.go:107] in applyNodePTPProfile I1115 09:41:17.117604 4143292 daemon.go:109] updating NodePTPProfile to: I1115 09:41:17.117607 4143292 daemon.go:110] ------------------------------------ I1115 09:41:17.117612 4143292 daemon.go:102] Profile Name: profile1 I1115 09:41:17.117616 4143292 daemon.go:102] Interface: ens787f1 I1115 09:41:17.117620 4143292 daemon.go:102] Ptp4lOpts: -2 -s I1115 09:41:17.117623 4143292 daemon.go:102] Phc2sysOpts: -a -r -n 24 I1115 09:41:17.117626 4143292 daemon.go:116] ------------------------------------
추가 리소스
- PTP 하드웨어의 FIFO 우선 순위 스케줄링에 대한 자세한 내용은 PTP 하드웨어에 대한 FIFO 우선 순위 스케줄링 구성 을 참조하십시오.
- PTP 빠른 이벤트 구성에 대한 자세한 내용은 PTP 빠른 이벤트 알림 게시자 구성을 참조하십시오.
19.6.4. linuxptp 서비스를 경계 클럭으로 구성
PtpConfig CR(사용자 정의 리소스) 오브젝트를 생성하여 linuxptp 서비스(ptp4l,phc2sys)를 경계 클럭으로 구성할 수 있습니다.
다음 예제 PtpConfig CR을 기반으로 linuxptp 서비스를 특정 하드웨어 및 환경에 대한 경계 클럭으로 구성합니다. 이 예제 CR에서는 PTP 빠른 이벤트를 구성하지 않습니다. PTP 빠른 이벤트를 구성하려면 ptp4lOpts,ptp4lConf, ptpClockThreshold 에 적절한 값을 설정합니다. ptpClockThreshold 는 이벤트가 활성화된 경우에만 사용됩니다. 자세한 내용은 " PTP 빠른 이벤트 알림 게시자 구성"을 참조하십시오.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - PTP Operator를 설치합니다.
절차
다음
PtpConfigCR을 만든 다음 YAML을boundary-clock-ptp-config.yaml파일에 저장합니다.권장되는 PTP 경계 클럭 구성
--- apiVersion: ptp.openshift.io/v1 kind: PtpConfig metadata: name: boundary-clock-ptp-config namespace: openshift-ptp spec: profile: - name: boundary-clock phc2sysOpts: "-a -r -n 24" ptp4lOpts: "-2" ptpSchedulingPolicy: SCHED_FIFO ptpSchedulingPriority: 10 ptp4lConf: | [<interface_1>] masterOnly 0 [<interface_2>] masterOnly 1 [<interface_3>] masterOnly 1 [<interface_4>] masterOnly 1 [global] # # Default Data Set # twoStepFlag 1 slaveOnly 0 priority1 128 priority2 128 domainNumber 24 clockClass 248 clockAccuracy 0xFE offsetScaledLogVariance 0xFFFF free_running 0 freq_est_interval 1 dscp_event 0 dscp_general 0 dataset_comparison G.8275.x G.8275.defaultDS.localPriority 128 # # Port Data Set # logAnnounceInterval -3 logSyncInterval -4 logMinDelayReqInterval -4 logMinPdelayReqInterval -4 announceReceiptTimeout 3 syncReceiptTimeout 0 delayAsymmetry 0 fault_reset_interval 4 neighborPropDelayThresh 20000000 masterOnly 0 G.8275.portDS.localPriority 128 # # Run time options # assume_two_step 0 logging_level 6 path_trace_enabled 0 follow_up_info 0 hybrid_e2e 0 inhibit_multicast_service 0 net_sync_monitor 0 tc_spanning_tree 0 tx_timestamp_timeout 50 unicast_listen 0 unicast_master_table 0 unicast_req_duration 3600 use_syslog 1 verbose 0 summary_interval 0 kernel_leap 1 check_fup_sync 0 # # Servo Options # pi_proportional_const 0.0 pi_integral_const 0.0 pi_proportional_scale 0.0 pi_proportional_exponent -0.3 pi_proportional_norm_max 0.7 pi_integral_scale 0.0 pi_integral_exponent 0.4 pi_integral_norm_max 0.3 step_threshold 2.0 first_step_threshold 0.00002 max_frequency 900000000 clock_servo pi sanity_freq_limit 200000000 ntpshm_segment 0 # # Transport options # transportSpecific 0x0 ptp_dst_mac 01:1B:19:00:00:00 p2p_dst_mac 01:80:C2:00:00:0E udp_ttl 1 udp6_scope 0x0E uds_address /var/run/ptp4l # # Default interface options # clock_type BC network_transport L2 delay_mechanism E2E time_stamping hardware tsproc_mode filter delay_filter moving_median delay_filter_length 10 egressLatency 0 ingressLatency 0 boundary_clock_jbod 0 # # Clock description # productDescription ;; revisionData ;; manufacturerIdentity 00:00:00 userDescription ; timeSource 0xA0 recommend: - profile: boundary-clock priority: 4 match: - nodeLabel: node-role.kubernetes.io/master nodeName: <nodename>표 19.3. PTP 경계 클럭 CR 구성 옵션
사용자 정의 리소스 필드 설명 namePtpConfigCR의 이름입니다.profile하나 이상의
profile오브젝트의 배열을 지정합니다.name프로파일 오브젝트를 고유하게 식별하는 프로파일 오브젝트의 이름을 지정합니다.
ptp4lOptsptp4l서비스에 대한 시스템 구성 옵션을 지정합니다. 옵션은 네트워크 인터페이스 이름과 서비스 구성 파일이 자동으로 추가되므로 네트워크 인터페이스 이름-i <interface>및 서비스 구성 파일-f /etc/ptp4l.conf를 포함하지 않아야 합니다.ptp4lConfptp4l을 경계 클럭으로 시작하는 데 필요한 구성을 지정합니다. 예를 들어ens1f0은 그랜드 마스터 클록에서 동기화되고ens1f3은 연결된 장치를 동기화합니다.<interface_1>동기화 시계를 수신하는 인터페이스입니다.
<interface_2>동기화 클럭을 전송하는 인터페이스입니다.
tx_timestamp_timeoutIntel Columbiaville 800 시리즈 NIC의 경우
tx_timestamp_timeout을50으로 설정합니다.boundary_clock_jbodIntel Columbiaville 800 시리즈 NIC의 경우
boundary_clock_jbod가0으로 설정되어 있는지 확인합니다. Intel Fortville X710 시리즈 NIC의 경우boundary_clock_jbod가1로 설정되어 있는지 확인합니다.phc2sysOptsphc2sys서비스에 대한 시스템 구성 옵션을 지정합니다. 이 필드가 비어 있으면 PTP Operator에서phc2sys서비스를 시작하지 않습니다.ptpSchedulingPolicyptp4l 및 phc2sys 프로세스에 대한 스케줄링 정책입니다. 기본값은ECDHE
_OTHER입니다.FIFO 스케줄링을 지원하는 시스템에서ECDHE_FIFO를 사용합니다.ptpSchedulingPriorityptpSchedulingPolicy가ECDHE_FIFO로 설정된 경우우선 순위를 설정하는 데 사용되는 1-65의 정수 값입니다.ptp4l및phc2sys프로세스의 FIFOptpSchedulingPriority필드는ptpSchedulingPolicy가ECDHE_OTHER로 설정된 경우 사용되지 않습니다.ptpClockThreshold선택 사항:
ptpClockThreshold가 없으면 기본값이ptpClockThreshold필드에 사용됩니다.ptpClockThreshold는 PTP 이벤트가 트리거되기 전에 PTP 마스터 시계가 연결이 끊긴 후의 기간을 구성합니다.holdOverTimeout은 PTP 마스터 클럭이 연결 해제되면 PTP 클럭 이벤트 상태가 FreeRUN로 변경되는 시간 값(초)입니다.maxOffsetThreshold및minOffsetThreshold설정은CLOCK_REALTIME(phc2sys) 또는 마스터 오프셋(ptp4l)의 값과 비교하여 나노초 단위로 오프셋 값을 구성합니다.ptp4l또는phc2sys오프셋 값이 이 범위를 벗어나면 PTP 클럭 상태가FREERUN로 설정됩니다. 오프셋 값이 이 범위 내에 있으면 PTP 클럭 상태가LOCKED로 설정됩니다.권장프로필을노드에 적용하는 방법에 대한 규칙을 정의하는 하나 이상의recommend오브젝트 배열을 지정합니다..recommend.profileprofile 섹션에 정의된
.recommend.오브젝트 이름을 지정합니다.profile.recommend.priority0에서99사이의 정수 값으로priority를 지정합니다. 숫자가 클수록 우선순위가 낮으므로 우선순위99는 우선순위10보다 낮습니다.match필드에 정의된 규칙에 따라 여러 프로필과 노드를 일치시킬 수 있는 경우 우선 순위가 높은 프로필이 해당 노드에 적용됩니다..recommend.matchnodeLabel또는nodeName으로.recommend.match규칙을 지정합니다..recommend.match.nodeLabeloc get nodes --show-labels명령을 사용하여 노드 오브젝트에서node.Labels의키로nodeLabel을 업데이트합니다. 예:node-role.kubernetes.io/worker..recommend.match.nodeLabeloc get nodes명령을 사용하여 노드 오브젝트에서node.Name의 값으로nodeName을 업데이트합니다. 예:compute-0.example.com.다음 명령을 실행하여 CR을 생성합니다.
$ oc create -f boundary-clock-ptp-config.yaml
검증
PtpConfig프로필이 노드에 적용되는지 확인합니다.다음 명령을 실행하여
openshift-ptp네임스페이스에서 Pod 목록을 가져옵니다.$ oc get pods -n openshift-ptp -o wide
출력 예
NAME READY STATUS RESTARTS AGE IP NODE linuxptp-daemon-4xkbb 1/1 Running 0 43m 10.1.196.24 compute-0.example.com linuxptp-daemon-tdspf 1/1 Running 0 43m 10.1.196.25 compute-1.example.com ptp-operator-657bbb64c8-2f8sj 1/1 Running 0 43m 10.129.0.61 control-plane-1.example.com
프로필이 올바른지 확인합니다.
PtpConfig프로필에 지정한 노드에 해당하는linuxptp데몬의 로그를 검사합니다. 다음 명령을 실행합니다.$ oc logs linuxptp-daemon-4xkbb -n openshift-ptp -c linuxptp-daemon-container
출력 예
I1115 09:41:17.117596 4143292 daemon.go:107] in applyNodePTPProfile I1115 09:41:17.117604 4143292 daemon.go:109] updating NodePTPProfile to: I1115 09:41:17.117607 4143292 daemon.go:110] ------------------------------------ I1115 09:41:17.117612 4143292 daemon.go:102] Profile Name: profile1 I1115 09:41:17.117616 4143292 daemon.go:102] Interface: I1115 09:41:17.117620 4143292 daemon.go:102] Ptp4lOpts: -2 I1115 09:41:17.117623 4143292 daemon.go:102] Phc2sysOpts: -a -r -n 24 I1115 09:41:17.117626 4143292 daemon.go:116] ------------------------------------
추가 리소스
- PTP 하드웨어의 FIFO 우선 순위 스케줄링에 대한 자세한 내용은 PTP 하드웨어에 대한 FIFO 우선 순위 스케줄링 구성 을 참조하십시오.
- PTP 빠른 이벤트 구성에 대한 자세한 내용은 PTP 빠른 이벤트 알림 게시자 구성을 참조하십시오.
19.6.5. Linuxptp 서비스를 듀얼 NIC 하드웨어의 경계 클럭으로 구성
경계 클럭으로 구성된 이중 NIC가 있는 PTP(Precision Time Protocol) 하드웨어는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
각 NIC에 대해 PtpConfig CR(사용자 정의 리소스) 오브젝트를 생성하여 linuxptp 서비스(ptp4l,phc2sys)를 듀얼 NIC 하드웨어의 경계 클럭으로 구성할 수 있습니다.
듀얼 NIC 하드웨어를 사용하면 각 NIC가 다운스트림 클럭을 공급하는 각 NIC에 대해 별도의 ptp4l 인스턴스를 사용하여 각 NIC를 동일한 업스트림 리더 클럭에 연결할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - PTP Operator를 설치합니다.
절차
각 CR의 기반으로 linuxptp 서비스를 경계 클럭으로 구성"의 참조 CR을 사용하여 각 NIC에 대해 별도의
PtpConfigCR을 생성합니다. 예를 들면 다음과 같습니다.boundary-clock-ptp-config-nic1.yaml을 생성하여phc2sysOpts값을 지정합니다.apiVersion: ptp.openshift.io/v1 kind: PtpConfig metadata: name: boundary-clock-ptp-config-nic1 namespace: openshift-ptp spec: profile: - name: "profile1" ptp4lOpts: "-2 --summary_interval -4" ptp4lConf: | 1 [ens5f1] masterOnly 1 [ens5f0] masterOnly 0 ... phc2sysOpts: "-a -r -m -n 24 -N 8 -R 16" 2boundary-clock-ptp-config-nic2.yaml을 생성하여phc2sysOpts필드를 완전히 제거하여 두 번째 NIC의phc2sys서비스를 비활성화합니다.apiVersion: ptp.openshift.io/v1 kind: PtpConfig metadata: name: boundary-clock-ptp-config-nic2 namespace: openshift-ptp spec: profile: - name: "profile2" ptp4lOpts: "-2 --summary_interval -4" ptp4lConf: | 1 [ens7f1] masterOnly 1 [ens7f0] masterOnly 0 ...- 1
- 두 번째 NIC에서
ptp4l을 경계 클럭으로 시작하는 데 필요한 인터페이스를 지정합니다.
참고두 번째 NIC에서
phc2sysOpts필드를 완전히 제거하려면 두 번째PtpConfigCR에서phc2sys서비스를 비활성화해야 합니다.
다음 명령을 실행하여 듀얼 NIC
PtpConfigCR을 생성합니다.첫 번째 NIC에 대해 PTP를 구성하는 CR을 생성합니다.
$ oc create -f boundary-clock-ptp-config-nic1.yaml
두 번째 NIC에 대해 PTP를 구성하는 CR을 생성합니다.
$ oc create -f boundary-clock-ptp-config-nic2.yaml
검증
PTP Operator가 두 NIC 모두에
PtpConfigCR을 적용했는지 확인합니다. 듀얼 NIC 하드웨어가 설치된 노드에 해당하는linuxptp데몬의 로그를 검사합니다. 예를 들어 다음 명령을 실행합니다.$ oc logs linuxptp-daemon-cvgr6 -n openshift-ptp -c linuxptp-daemon-container
출력 예
ptp4l[80828.335]: [ptp4l.1.config] master offset 5 s2 freq -5727 path delay 519 ptp4l[80828.343]: [ptp4l.0.config] master offset -5 s2 freq -10607 path delay 533 phc2sys[80828.390]: [ptp4l.0.config] CLOCK_REALTIME phc offset 1 s2 freq -87239 delay 539
19.6.6. Intel Columbiaville E800 시리즈 NIC as PTP 일반 클럭 참조
다음 표에서는 Intel Columbiaville E800 시리즈 NIC를 일반 시계로 사용하기 위해 참조 PTP 구성에 대한 변경 사항을 설명합니다. 클러스터에 적용하는 PtpConfig CR(사용자 정의 리소스)을 변경합니다.
표 19.4. Intel Columbiaville NIC에 권장되는 PTP 설정
| PTP 구성 | 권장 설정 |
|---|---|
|
|
|
|
|
|
|
|
|
phc2sysOpts 의 경우-m 은 메시지를 stdout 에 인쇄합니다. linuxptp-daemon DaemonSet 은 로그를 구문 분석하고 Prometheus 지표를 생성합니다.
추가 리소스
-
linuxptp서비스를 PTP 빠른 이벤트가 있는 일반 클럭으로 구성하는 완전한 예제 CR은 Linuxptp 서비스 구성을 일반 클럭으로 참조하십시오.
19.6.7. PTP 하드웨어에 대한 FIFO 우선 순위 스케줄링 구성
대기 시간이 짧은 배포 구성 또는 기타 배포 구성에서 PTP 데몬 스레드는 나머지 인프라 구성 요소와 함께 제한된 CPU 풋프린트에서 실행됩니다. 기본적으로 PTP 스레드는ECDHE _OTHER 정책과 함께 실행됩니다. 로드가 많은 경우 이러한 스레드는 오류가 없는 작업에 필요한 스케줄링 대기 시간을 얻지 못할 수 있습니다.
잠재적인 스케줄링 대기 시간 오류를 완화하려면 PTP Operator linuxptp 서비스를 구성하여 스레드가ECDHE _FIFO 정책으로 실행될 수 있도록 할 수 있습니다. dotnet _FIFO 가 PtpConfig CR에 대해 설정된 경우 PtpConfig CR의 ptpSchedulingPriority 필드에 의해 설정된 우선 순위로 ptp4l 및 phc2sys 가 부모 컨테이너에서 실행됩니다.
ptpSchedulingPolicy 설정은 선택 사항이며 대기 시간 오류가 발생하는 경우에만 필요합니다.
절차
PtpConfigCR 프로필을 편집합니다.$ oc edit PtpConfig -n openshift-ptp
ptpSchedulingPolicy및ptpSchedulingPriority필드를 변경합니다.apiVersion: ptp.openshift.io/v1 kind: PtpConfig metadata: name: <ptp_config_name> namespace: openshift-ptp ... spec: profile: - name: "profile1" ... ptpSchedulingPolicy: SCHED_FIFO 1 ptpSchedulingPriority: 10 2-
저장 후 종료하여
PtpConfigCR에 변경 사항을 적용합니다.
검증
linuxptp-daemonPod의 이름과PtpConfigCR이 적용된 해당 노드를 가져옵니다.$ oc get pods -n openshift-ptp -o wide
출력 예
NAME READY STATUS RESTARTS AGE IP NODE linuxptp-daemon-gmv2n 3/3 Running 0 1d17h 10.1.196.24 compute-0.example.com linuxptp-daemon-lgm55 3/3 Running 0 1d17h 10.1.196.25 compute-1.example.com ptp-operator-3r4dcvf7f4-zndk7 1/1 Running 0 1d7h 10.129.0.61 control-plane-1.example.com
업데이트된
chrtFIFO 우선 순위로ptp4l프로세스가 실행 중인지 확인합니다.$ oc -n openshift-ptp logs linuxptp-daemon-lgm55 -c linuxptp-daemon-container|grep chrt
출력 예
I1216 19:24:57.091872 1600715 daemon.go:285] /bin/chrt -f 65 /usr/sbin/ptp4l -f /var/run/ptp4l.0.config -2 --summary_interval -4 -m
19.6.8. linuxptp 서비스에 대한 로그 필터링 구성
linuxptp 데몬은 디버깅 목적으로 사용할 수 있는 로그를 생성합니다. 제한된 스토리지 용량을 갖춘 telco 또는 기타 배포 구성에서 이러한 로그는 스토리지 수요에 추가할 수 있습니다.
로그 메시지를 줄이기 위해 마스터 오프셋 값을 보고하는 로그 메시지를 제외하도록 PtpConfig CR(사용자 정의 리소스)을 구성할 수 있습니다. 마스터 오프셋 로그 메시지는 현재 노드의 클럭과 마스터 클럭의 나노초 단위의 차이를 보고합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - PTP Operator를 설치합니다.
절차
PtpConfigCR을 편집합니다.$ oc edit PtpConfig -n openshift-ptp
spec.profile에서ptpECDHE.logReduce 사양을추가하고 해당 값을true로 설정합니다.apiVersion: ptp.openshift.io/v1 kind: PtpConfig metadata: name: <ptp_config_name> namespace: openshift-ptp ... spec: profile: - name: "profile1" ... ptpSettings: logReduce: "true"참고디버깅을 위해 마스터 오프셋 메시지를 포함하도록 이 사양을
False로 되돌릴 수 있습니다.-
저장 후 종료하여
PtpConfigCR에 변경 사항을 적용합니다.
검증
linuxptp-daemonPod의 이름과PtpConfigCR이 적용된 해당 노드를 가져옵니다.$ oc get pods -n openshift-ptp -o wide
출력 예
NAME READY STATUS RESTARTS AGE IP NODE linuxptp-daemon-gmv2n 3/3 Running 0 1d17h 10.1.196.24 compute-0.example.com linuxptp-daemon-lgm55 3/3 Running 0 1d17h 10.1.196.25 compute-1.example.com ptp-operator-3r4dcvf7f4-zndk7 1/1 Running 0 1d7h 10.129.0.61 control-plane-1.example.com
다음 명령을 실행하여 마스터 오프셋 메시지가 로그에서 제외되었는지 확인합니다.
$ oc -n openshift-ptp logs <linux_daemon_container> -c linuxptp-daemon-container | grep "master offset" 1- 1
- <linux_daemon_container>는
linuxptp-daemonPod의 이름입니다(예:linuxptp-daemon-gmv2n).
logReduce사양을 구성하면 이 명령에서linuxptp데몬의 로그에마스터 오프셋의 인스턴스를 보고하지 않습니다.
19.7. 일반적인 PTP Operator 문제 해결
다음 단계를 수행하여 PTP Operator의 일반적인 문제를 해결합니다.
사전 요구 사항
-
OpenShift Container Platform CLI (
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - PTP를 지원하는 호스트가 있는 베어 메탈 클러스터에 PTP Operator를 설치합니다.
절차
구성된 노드를 위해 Operator 및 Operand가 클러스터에 성공적으로 배포되었는지 확인합니다.
$ oc get pods -n openshift-ptp -o wide
출력 예
NAME READY STATUS RESTARTS AGE IP NODE linuxptp-daemon-lmvgn 3/3 Running 0 4d17h 10.1.196.24 compute-0.example.com linuxptp-daemon-qhfg7 3/3 Running 0 4d17h 10.1.196.25 compute-1.example.com ptp-operator-6b8dcbf7f4-zndk7 1/1 Running 0 5d7h 10.129.0.61 control-plane-1.example.com
참고PTP 빠른 이벤트 버스가 활성화되면 준비된
linuxptp-daemonPod 수는3/3가 됩니다. PTP 빠른 이벤트 버스가 활성화되지 않으면2/2가 표시됩니다.지원되는 하드웨어가 클러스터에 있는지 확인합니다.
$ oc -n openshift-ptp get nodeptpdevices.ptp.openshift.io
출력 예
NAME AGE control-plane-0.example.com 10d control-plane-1.example.com 10d compute-0.example.com 10d compute-1.example.com 10d compute-2.example.com 10d
노드에 사용 가능한 PTP 네트워크 인터페이스를 확인합니다.
$ oc -n openshift-ptp get nodeptpdevices.ptp.openshift.io <node_name> -o yaml
다음과 같습니다.
- <node_name>
쿼리할 노드를 지정합니다 (예:
compute-0.example.com).출력 예
apiVersion: ptp.openshift.io/v1 kind: NodePtpDevice metadata: creationTimestamp: "2021-09-14T16:52:33Z" generation: 1 name: compute-0.example.com namespace: openshift-ptp resourceVersion: "177400" uid: 30413db0-4d8d-46da-9bef-737bacd548fd spec: {} status: devices: - name: eno1 - name: eno2 - name: eno3 - name: eno4 - name: enp5s0f0 - name: enp5s0f1
해당 노드의
linuxptp-daemonPod에 액세스하여 PTP 인터페이스가 기본 클록에 성공적으로 동기화되었는지 확인합니다.다음 명령을 실행하여
linuxptp-daemonPod의 이름과 문제를 해결하려는 해당 노드를 가져옵니다.$ oc get pods -n openshift-ptp -o wide
출력 예
NAME READY STATUS RESTARTS AGE IP NODE linuxptp-daemon-lmvgn 3/3 Running 0 4d17h 10.1.196.24 compute-0.example.com linuxptp-daemon-qhfg7 3/3 Running 0 4d17h 10.1.196.25 compute-1.example.com ptp-operator-6b8dcbf7f4-zndk7 1/1 Running 0 5d7h 10.129.0.61 control-plane-1.example.com
필수
linuxptp-daemon컨테이너로의 원격 쉘:$ oc rsh -n openshift-ptp -c linuxptp-daemon-container <linux_daemon_container>
다음과 같습니다.
- <linux_daemon_container>
-
진단할 컨테이너입니다 (예:
linuxptp-daemon-lmvgn).
linuxptp-daemon컨테이너에 대한 원격 쉘 연결에서 PTP 관리 클라이언트(pmc) 툴을 사용하여 네트워크 인터페이스를 진단합니다. 다음pmc명령을 실행하여 PTP 장치의 동기화 상태를 확인합니다(예:ptp4l).# pmc -u -f /var/run/ptp4l.0.config -b 0 'GET PORT_DATA_SET'
노드가 기본 클록에 성공적으로 동기화되었을 때의 출력 예
sending: GET PORT_DATA_SET 40a6b7.fffe.166ef0-1 seq 0 RESPONSE MANAGEMENT PORT_DATA_SET portIdentity 40a6b7.fffe.166ef0-1 portState SLAVE logMinDelayReqInterval -4 peerMeanPathDelay 0 logAnnounceInterval -3 announceReceiptTimeout 3 logSyncInterval -4 delayMechanism 1 logMinPdelayReqInterval -4 versionNumber 2
19.8. PTP 하드웨어 빠른 이벤트 알림 프레임워크
vRAN(가상 RAN)과 같은 클라우드 네이티브 애플리케이션에서는 전체 네트워크의 기능에 중요한 하드웨어 타이밍 이벤트에 대한 알림에 액세스해야 합니다. PTP 클럭 동기화 오류는 대기 시간이 짧은 애플리케이션의 성능과 안정성에 부정적인 영향을 미칠 수 있습니다(예: 분산 장치(DU)에서 실행되는 vRAN 애플리케이션).
19.8.1. PTP 및 클럭 동기화 오류 이벤트 정보
PTP 동기화 손실은 RAN 네트워크에 심각한 오류입니다. 노드에서 동기화가 손실된 경우 라디오가 종료될 수 있으며 네트워크 Over the Air (OTA) 트래픽이 무선 네트워크의 다른 노드로 이동될 수 있습니다. 클러스터 노드에서 PTP 클럭 동기화 상태를 DU에서 실행 중인 vRAN 애플리케이션에 통신할 수 있도록 함으로써 이벤트 알림이 워크로드 오류와 비교하여 완화됩니다.
이벤트 알림은 동일한 DU 노드에서 실행되는 vRAN 애플리케이션에서 사용할 수 있습니다. 게시-서브스크립션 REST API는 이벤트 알림을 메시징 버스에 전달합니다. 게시-서브스크립션 메시징 또는 published-sub 메시징은 모든 구독자가 해당 항목에 게시한 메시지를 즉시 수신하는 비동기 서비스 간 통신 아키텍처입니다.
PTP Operator는 모든 PTP 가능 네트워크 인터페이스에 대한 빠른 이벤트 알림을 생성합니다. HTTP 또는 AMQP(Advanced MessageECDHE Protocol) 메시지 버스를 통해 cloud-event-proxy 사이드카 컨테이너를 사용하여 이벤트에 액세스할 수 있습니다.
PTP 빠른 이벤트 알림은 PTP 일반 클럭 또는 PTP 경계 클럭을 사용하도록 구성된 네트워크 인터페이스에 사용할 수 있습니다.
가능한 경우 PTP 및 베어 메탈 이벤트에 AMQP 대신 HTTP 전송을 사용합니다. AMQ Interconnect는 2024년 6월 30일부터 EOL입니다. AMQ Interconnect의 ELS (Extended Life cycle Support)는 2029년 11월 29일에 종료됩니다. 자세한 내용은 Red Hat AMQ Interconnect 지원 상태를 참조하십시오.
19.8.2. PTP 빠른 이벤트 알림 프레임워크 정보
PTP(Precision Time Protocol) 빠른 이벤트 알림 프레임워크를 사용하여 베어 메탈 클러스터 노드가 생성하는 PTP 이벤트에 클러스터 애플리케이션을 등록합니다.
빠른 이벤트 알림 프레임워크는 통신에 REST API를 사용합니다. REST API는 O-RAN ALLIANCE 사양에서 사용할 수 있는 이벤트 소비자 3.0에 대한 O-RAN O-Cloud 알림 API 사양 을 기반으로 합니다.
프레임워크는 게시자와 구독자 애플리케이션 간의 통신을 처리하는 게시자, 구독자 및 AMQ 또는 HTTP 메시징 프로토콜로 구성됩니다. 애플리케이션은 사이드카 패턴에서 cloud-event-proxy 컨테이너를 실행하여 PTP 이벤트를 구독합니다. cloud-event-proxy 사이드카 컨테이너는 기본 애플리케이션의 리소스를 사용하지 않고 대기 시간이 크게 발생하지 않고 기본 애플리케이션 컨테이너와 동일한 리소스에 액세스할 수 있습니다.
가능한 경우 PTP 및 베어 메탈 이벤트에 AMQP 대신 HTTP 전송을 사용합니다. AMQ Interconnect는 2024년 6월 30일부터 EOL입니다. AMQ Interconnect의 ELS (Extended Life cycle Support)는 2029년 11월 29일에 종료됩니다. 자세한 내용은 Red Hat AMQ Interconnect 지원 상태를 참조하십시오.
그림 19.1. PTP 빠른 이벤트 개요

-
클러스터 호스트에서 이벤트가 생성됨 -
PTP Operator 관리 Pod의
linuxptp-daemon은 KubernetesDaemonSet으로 실행되며 다양한linuxptp프로세스(ptp4l,phc2sys, 선택 옵션으로 할머 마스터 클럭,ts2phc)를 관리합니다.linuxptp-daemon은 이벤트를 UNIX 도메인 소켓에 전달합니다. -
이벤트가 cloud-event-proxy 사이드카에 전달됩니다. -
PTP 플러그인은 UNIX 도메인 소켓에서 이벤트를 읽고 PTP Operator 관리 Pod의
cloud-event-proxy사이드카로 전달합니다.Cloud-event-proxy는 Kubernetes 인프라에서 대기 시간이 짧은 CNF(Cloud-Native Network Functions)로 이벤트를 제공합니다. -
이벤트가 유지됨 -
PTP Operator 관리 Pod의
cloud-event-proxy사이드카는 REST API를 사용하여 이벤트를 처리하고 클라우드 네이티브 이벤트를 게시합니다. -
메시지가 전송됨 -
메시지 전송기는 HTTP 또는 AMQP 1.0 QPID를 통해 애플리케이션 Pod의
cloud-event-proxy사이드카로 이벤트를 전송합니다. -
REST API에서 이벤트 사용 가능 -
애플리케이션 Pod의
cloud-event-proxy사이드카는 이벤트를 처리하고 REST API를 사용하여 이를 사용할 수 있도록 합니다. -
소비자 애플리케이션은 서브스크립션을 요청하고 서브스크립션 이벤트를 수신합니다. -
소비자 애플리케이션은 애플리케이션 Pod의
cloud-event-proxy사이드카로 API 요청을 보내 PTP 이벤트 서브스크립션을 생성합니다.cloud-event-proxy사이드카는 서브스크립션에 지정된 리소스에 대한 AMQ 또는 HTTP 메시징 리스너 프로토콜을 생성합니다.
애플리케이션 Pod의 cloud-event-proxy 사이드카는 PTP Operator 관리 Pod에서 이벤트를 수신하고, 클라우드 이벤트 오브젝트를 래핑하여 데이터를 검색하고 이벤트를 소비자 애플리케이션에 게시합니다. 소비자 애플리케이션은 리소스 한정자에 지정된 주소를 수신 대기하고 PTP 이벤트를 수신하고 처리합니다.
19.8.3. PTP 빠른 이벤트 알림 게시자 구성
클러스터에서 네트워크 인터페이스에 PTP 빠른 이벤트 알림을 사용하려면 PTP Operator PtpOperatorConfig CR(사용자 정의 리소스)에서 빠른 이벤트 게시자를 활성화하고 생성한 PtpConfig CR에서 ptpClockThreshold 값을 구성해야 합니다.
사전 요구 사항
-
OpenShift Container Platform CLI(
oc)를 설치했습니다. -
cluster-admin권한이 있는 사용자로 로그인했습니다. - PTP Operator를 설치했습니다.
절차
PTP 빠른 이벤트를 활성화하려면 기본 PTP Operator 구성을 수정합니다.
다음 YAML을
ptp-operatorconfig.yaml파일에 저장합니다.apiVersion: ptp.openshift.io/v1 kind: PtpOperatorConfig metadata: name: default namespace: openshift-ptp spec: daemonNodeSelector: node-role.kubernetes.io/worker: "" ptpEventConfig: enableEventPublisher: true 1- 1
enableEventPublisher를true로 설정하여 PTP 빠른 이벤트 알림을 활성화합니다.
참고OpenShift Container Platform 4.13 이상에서는 PTP 이벤트에 HTTP 전송을 사용할 때
PtpOperatorConfig.transportHost 리소스에서spec.ptpEventConfig.transportHost필드를 설정할 필요가 없습니다. PTP 이벤트에 AMQP 전송을 사용하는 경우에만transportHost를 설정합니다.PtpOperatorConfigCR을 업데이트합니다.$ oc apply -f ptp-operatorconfig.yaml
PTP 지원 인터페이스에 대한
PtpConfigCR(사용자 정의 리소스)을 생성하고ptpClockThreshold및ptp4lOpts에 필요한 값을 설정합니다. 다음 YAML은PtpConfigCR에 설정해야 하는 필수 값을 보여줍니다.spec: profile: - name: "profile1" interface: "enp5s0f0" ptp4lOpts: "-2 -s --summary_interval -4" 1 phc2sysOpts: "-a -r -m -n 24 -N 8 -R 16" 2 ptp4lConf: "" 3 ptpClockThreshold: 4 holdOverTimeout: 5 maxOffsetThreshold: 100 minOffsetThreshold: -100- 1
- PTP 빠른 이벤트를 사용하려면
--summary_interval -4를 추가합니다. - 2
- 필수
phc2sysOpts값.-m에서stdout에 메시지를 출력합니다.linuxptp-daemonDaemonSet은 로그를 구문 분석하고 Prometheus 지표를 생성합니다. - 3
- 기본
/etc/ptp4l.conf파일을 대체할 구성이 포함된 문자열을 지정합니다. 기본 구성을 사용하려면 필드를 비워 둡니다. - 4
- 선택 사항:
ptpClockThreshold가 없으면 기본값이ptpClockThreshold필드에 사용됩니다. 스탠자는 기본ptpClockThreshold값을 표시합니다.ptpClockThreshold값은 PTP 이벤트가 트리거되기 전에 PTP 마스터 클럭이 연결 해제된 후의 기간을 구성합니다.holdOverTimeout은 PTP 마스터 클럭의 연결이 끊어지면 PTP 클럭 이벤트 상태가FREERUN로 변경되기 전 시간(초)입니다.maxOffsetThreshold및minOffsetThreshold설정은CLOCK_REALTIME(phc2sys) 또는 마스터 오프셋(ptp4l)의 값과 비교되는 나노초에 오프셋 값을 구성합니다.ptp4l또는phc2sys오프셋 값이 이 범위를 벗어나는 경우 PTP 클럭 상태가FREERUN로 설정됩니다. 오프셋 값이 이 범위 내에 있으면 PTP 클럭 상태가LOCKED로 설정됩니다.
추가 리소스
-
linuxptp서비스를 PTP 빠른 이벤트가 있는 일반 클럭으로 구성하는 완전한 예제 CR은 Linuxptp 서비스 구성을 일반 클럭으로 참조하십시오.
19.8.4. PTP 또는 베어 메탈 이벤트에 대해 HTTP 전송을 사용하도록 소비자 애플리케이션 마이그레이션
이전에 PTP 또는 베어 메탈 이벤트 소비자 애플리케이션을 배포한 경우 HTTP 메시지 전송을 사용하도록 애플리케이션을 업데이트해야 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)가 설치되어 있습니다. -
cluster-admin권한이 있는 사용자로 로그인했습니다. - 기본적으로 HTTP 전송을 사용하는 PTP Operator 또는 Bare Metal Event Relay를 버전 4.13 이상으로 업데이트했습니다.
절차
HTTP 전송을 사용하도록 이벤트 소비자 애플리케이션을 업데이트합니다. 클라우드 이벤트 사이드카 배포에
http-event-publishers변수를 설정합니다.예를 들어 PTP 이벤트가 구성된 클러스터에서 다음 YAML 스니펫은 클라우드 이벤트 사이드카 배포를 보여줍니다.
containers: - name: cloud-event-sidecar image: cloud-event-sidecar args: - "--metrics-addr=127.0.0.1:9091" - "--store-path=/store" - "--transport-host=consumer-events-subscription-service.cloud-events.svc.cluster.local:9043" - "--http-event-publishers=ptp-event-publisher-service-NODE_NAME.openshift-ptp.svc.cluster.local:9043" 1 - "--api-port=8089"- 1
- PTP Operator는
NODE_NAME을 PTP 이벤트를 생성하는 호스트로 자동으로 확인합니다. 예:compute-1.example.com.
베어 메탈 이벤트가 구성된 클러스터에서는 클라우드 이벤트 사이드카 배포 CR에서
http-event-publishers필드를hw-event-publisher-service.openshift-bare-metal-events.svc.cluster.local:9043으로 설정합니다.이벤트 소비자 애플리케이션과 함께
consumer-events-subscription-service서비스를 배포합니다. 예를 들면 다음과 같습니다.apiVersion: v1 kind: Service metadata: annotations: prometheus.io/scrape: "true" service.alpha.openshift.io/serving-cert-secret-name: sidecar-consumer-secret name: consumer-events-subscription-service namespace: cloud-events labels: app: consumer-service spec: ports: - name: sub-port port: 9043 selector: app: consumer clusterIP: None sessionAffinity: None type: ClusterIP
19.8.5. AMQ 메시징 버스 설치
노드에서 게시자와 구독자 간에 PTP 빠른 이벤트 알림을 전달하려면 노드에서 로컬로 실행되도록 AMQ 메시징 버스를 설치하고 구성할 수 있습니다. AMQ 메시징을 사용하려면 AMQ Interconnect Operator를 설치해야 합니다.
가능한 경우 PTP 및 베어 메탈 이벤트에 AMQP 대신 HTTP 전송을 사용합니다. AMQ Interconnect는 2024년 6월 30일부터 EOL입니다. AMQ Interconnect의 ELS (Extended Life cycle Support)는 2029년 11월 29일에 종료됩니다. 자세한 내용은 Red Hat AMQ Interconnect 지원 상태를 참조하십시오.
사전 요구 사항
-
OpenShift Container Platform CLI (
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
-
AMQ Interconnect Operator를 자체
amq-interconnect네임스페이스에 설치합니다. Add the Red Hat Integration - AMQ Interconnect Operator 를 참조하십시오.
검증
AMQ Interconnect Operator를 사용할 수 있고 필요한 Pod가 실행 중인지 확인합니다.
$ oc get pods -n amq-interconnect
출력 예
NAME READY STATUS RESTARTS AGE amq-interconnect-645db76c76-k8ghs 1/1 Running 0 23h interconnect-operator-5cb5fc7cc-4v7qm 1/1 Running 0 23h
필수
linuxptp-daemonPTP 이벤트 생산자 Pod가openshift-ptp네임스페이스에서 실행되고 있는지 확인합니다.$ oc get pods -n openshift-ptp
출력 예
NAME READY STATUS RESTARTS AGE linuxptp-daemon-2t78p 3/3 Running 0 12h linuxptp-daemon-k8n88 3/3 Running 0 12h
19.8.6. PTP 이벤트 REST API 참조에 DU 애플리케이션 구독
PTP 이벤트 알림 REST API를 사용하여 상위 노드에서 생성된 PTP 이벤트에 분산 단위(DU) 애플리케이션을 구독합니다.
리소스 주소 /cluster/node/<node_name>/ptp 를 사용하여 PTP 이벤트에 애플리케이션을 서브스크립션합니다. 여기서 < node_name >은 DU 애플리케이션을 실행하는 클러스터 노드입니다.
별도의 DU 애플리케이션 Pod에 cloud-event-consumer DU 애플리케이션 컨테이너 및 cloud-event-proxy 사이드카 컨테이너를 배포합니다. cloud-event-consumer DU 애플리케이션은 애플리케이션 Pod의 cloud-event-proxy 컨테이너를 서브스크립션합니다.
다음 API 끝점을 사용하여 DU 애플리케이션 Pod의 http://localhost:8089/api/ocloudNotifications/v1/ 에서 DU 애플리케이션을 게시한 PTP 이벤트에 등록합니다.
cloud-event- consumer
/api/ocloudNotifications/v1/subscriptions-
POST: 새 서브스크립션을 생성합니다. -
GET: 서브스크립션 목록 검색합니다.
-
/api/ocloudNotifications/v1/subscriptions/<subscription_id>-
GET: 지정된 서브스크립션 ID에 대한 세부 정보를 반환합니다.
-
api/ocloudNotifications/v1/subscriptions/status/<subscription_id>-
PUT: 지정된 서브스크립션 ID에 대한 새로운 상태 ping 요청을 생성
-
/api/ocloudNotifications/v1/health-
GET:ocloudNotificationsAPI의 상태를 반환합니다.
-
api/ocloudNotifications/v1/publishers-
GET: 클러스터 노드에 대한os-clock-sync-state,ptp-clock-class-change및lock-state메시지 배열을 반환합니다.
-
/api/ocloudnotifications/v1/<resource_address>/CurrentState-
GET:os-clock-sync-state,ptp-clock-class-change,lock-state이벤트 등 하나의 현재 상태를 반환합니다.
-
9089 는 애플리케이션 Pod에 배포된 cloud-event-consumer 컨테이너의 기본 포트입니다. 필요에 따라 DU 애플리케이션의 다른 포트를 구성할 수 있습니다.
19.8.6.1. api/ocloudNotifications/v1/subscriptions
HTTP 방법
GET api/ocloudNotifications/v1/subscriptions
설명
서브스크립션 목록을 반환합니다. 서브스크립션이 존재하는 경우 200 OK 상태 코드가 서브스크립션 목록과 함께 반환됩니다.
API 응답 예
[
{
"id": "75b1ad8f-c807-4c23-acf5-56f4b7ee3826",
"endpointUri": "http://localhost:9089/event",
"uriLocation": "http://localhost:8089/api/ocloudNotifications/v1/subscriptions/75b1ad8f-c807-4c23-acf5-56f4b7ee3826",
"resource": "/cluster/node/compute-1.example.com/ptp"
}
]
HTTP 방법
POST api/ocloudNotifications/v1/subscriptions
설명
새 서브스크립션을 생성합니다. 서브스크립션이 성공적으로 생성되었거나 이미 존재하는 경우 201 Created 상태 코드가 반환됩니다.
표 19.5. 쿼리 매개변수
| 매개변수 | 유형 |
|---|---|
| subscription | data |
페이로드 예
{
"uriLocation": "http://localhost:8089/api/ocloudNotifications/v1/subscriptions",
"resource": "/cluster/node/compute-1.example.com/ptp"
}
19.8.6.2. api/ocloudNotifications/v1/subscriptions/<subscription_id>
HTTP 방법
GET api/ocloudNotifications/v1/subscriptions/<subscription_id>
설명
ID <subscription _id>를 사용한 서브스크립션에 대한 세부 정보를 반환합니다.
표 19.6. 쿼리 매개변수
| 매개변수 | 유형 |
|---|---|
|
| string |
API 응답 예
{
"id":"48210fb3-45be-4ce0-aa9b-41a0e58730ab",
"endpointUri": "http://localhost:9089/event",
"uriLocation":"http://localhost:8089/api/ocloudNotifications/v1/subscriptions/48210fb3-45be-4ce0-aa9b-41a0e58730ab",
"resource":"/cluster/node/compute-1.example.com/ptp"
}
19.8.6.3. api/ocloudNotifications/v1/subscriptions/status/<subscription_id>
HTTP 방법
PUT api/ocloudNotifications/v1/subscriptions/status/<subscription_id>
설명
ID <subscription _id>를 사용하여 서브스크립션에 대한 새 상태 ping 요청을 생성합니다. 서브스크립션이 있는 경우 상태 요청이 성공하고 202 Accepted 상태 코드가 반환됩니다.
표 19.7. 쿼리 매개변수
| 매개변수 | 유형 |
|---|---|
|
| string |
API 응답 예
{"status":"ping sent"}
19.8.6.4. api/ocloudNotifications/v1/health/
HTTP 방법
GET api/ocloudNotifications/v1/health/
설명
ocloudNotifications REST API의 상태를 반환합니다.
API 응답 예
OK
19.8.6.5. api/ocloudNotifications/v1/publishers
HTTP 방법
GET api/ocloudNotifications/v1/publishers
설명
os-clock-sync-state,ptp-clock-class-change, and lock-state details for the cluster node를 반환합니다. 시스템은 관련 장비 상태가 변경될 때 알림을 생성합니다.
-
OS
-clock-sync-statenotifications는 호스트 운영 체제 클럭 동기화 상태를 설명합니다.LOCKED또는 FreeRUN상태에 있을 수 있습니다. -
PTP-clock-class-changenotifications는 PTP 클럭 클래스의 현재 상태를 설명합니다. -
lock-statenotifications는 PTP 장비 잠금 상태의 현재 상태를 설명합니다.LOCKED,HOLDOVER또는FREERUN상태에 있을 수 있습니다.
API 응답 예
[
{
"id": "0fa415ae-a3cf-4299-876a-589438bacf75",
"endpointUri": "http://localhost:9085/api/ocloudNotifications/v1/dummy",
"uriLocation": "http://localhost:9085/api/ocloudNotifications/v1/publishers/0fa415ae-a3cf-4299-876a-589438bacf75",
"resource": "/cluster/node/compute-1.example.com/sync/sync-status/os-clock-sync-state"
},
{
"id": "28cd82df-8436-4f50-bbd9-7a9742828a71",
"endpointUri": "http://localhost:9085/api/ocloudNotifications/v1/dummy",
"uriLocation": "http://localhost:9085/api/ocloudNotifications/v1/publishers/28cd82df-8436-4f50-bbd9-7a9742828a71",
"resource": "/cluster/node/compute-1.example.com/sync/ptp-status/ptp-clock-class-change"
},
{
"id": "44aa480d-7347-48b0-a5b0-e0af01fa9677",
"endpointUri": "http://localhost:9085/api/ocloudNotifications/v1/dummy",
"uriLocation": "http://localhost:9085/api/ocloudNotifications/v1/publishers/44aa480d-7347-48b0-a5b0-e0af01fa9677",
"resource": "/cluster/node/compute-1.example.com/sync/ptp-status/lock-state"
}
]
cloud-event-proxy 컨테이너의 로그에서 os-clock-sync-state,ptp-clock-class-change 및 lock-state 이벤트를 찾을 수 있습니다. 예를 들면 다음과 같습니다.
$ oc logs -f linuxptp-daemon-cvgr6 -n openshift-ptp -c cloud-event-proxy
os-clock-sync-state 이벤트 예
{
"id":"c8a784d1-5f4a-4c16-9a81-a3b4313affe5",
"type":"event.sync.sync-status.os-clock-sync-state-change",
"source":"/cluster/compute-1.example.com/ptp/CLOCK_REALTIME",
"dataContentType":"application/json",
"time":"2022-05-06T15:31:23.906277159Z",
"data":{
"version":"v1",
"values":[
{
"resource":"/sync/sync-status/os-clock-sync-state",
"dataType":"notification",
"valueType":"enumeration",
"value":"LOCKED"
},
{
"resource":"/sync/sync-status/os-clock-sync-state",
"dataType":"metric",
"valueType":"decimal64.3",
"value":"-53"
}
]
}
}
ptp-clock-class-change 이벤트 예
{
"id":"69eddb52-1650-4e56-b325-86d44688d02b",
"type":"event.sync.ptp-status.ptp-clock-class-change",
"source":"/cluster/compute-1.example.com/ptp/ens2fx/master",
"dataContentType":"application/json",
"time":"2022-05-06T15:31:23.147100033Z",
"data":{
"version":"v1",
"values":[
{
"resource":"/sync/ptp-status/ptp-clock-class-change",
"dataType":"metric",
"valueType":"decimal64.3",
"value":"135"
}
]
}
}
lock-state 이벤트 예
{
"id":"305ec18b-1472-47b3-aadd-8f37933249a9",
"type":"event.sync.ptp-status.ptp-state-change",
"source":"/cluster/compute-1.example.com/ptp/ens2fx/master",
"dataContentType":"application/json",
"time":"2022-05-06T15:31:23.467684081Z",
"data":{
"version":"v1",
"values":[
{
"resource":"/sync/ptp-status/lock-state",
"dataType":"notification",
"valueType":"enumeration",
"value":"LOCKED"
},
{
"resource":"/sync/ptp-status/lock-state",
"dataType":"metric",
"valueType":"decimal64.3",
"value":"62"
}
]
}
}
19.8.6.6. /api/ocloudnotifications/v1/<resource_address>/CurrentState
HTTP 방법
GET api/ocloudNotifications/v1/cluster/node/<node_name>/sync/ptp-status/lock-state/CurrentState
GET api/ocloudNotifications/v1/cluster/node/<node_name>/sync/sync-status/os-clock-sync-state/CurrentState
GET api/ocloudNotifications/v1/cluster/node/<node_name>/sync/ptp-status/ptp-clock-class-change/CurrentState
설명
클러스터 노드의 os-clock-sync-state,ptp-clock-class-change, lock-state 이벤트의 현재 상태를 반환하도록 CurrentState API 엔드포인트를 구성합니다.
-
OS
-clock-sync-statenotifications는 호스트 운영 체제 클럭 동기화 상태를 설명합니다.LOCKED또는 FreeRUN상태에 있을 수 있습니다. -
PTP-clock-class-changenotifications는 PTP 클럭 클래스의 현재 상태를 설명합니다. -
lock-statenotifications는 PTP 장비 잠금 상태의 현재 상태를 설명합니다.LOCKED,HOLDOVER또는FREERUN상태에 있을 수 있습니다.
표 19.8. 쿼리 매개변수
| 매개변수 | 유형 |
|---|---|
|
| string |
lock-state API 응답 예
{
"id": "c1ac3aa5-1195-4786-84f8-da0ea4462921",
"type": "event.sync.ptp-status.ptp-state-change",
"source": "/cluster/node/compute-1.example.com/sync/ptp-status/lock-state",
"dataContentType": "application/json",
"time": "2023-01-10T02:41:57.094981478Z",
"data": {
"version": "v1",
"values": [
{
"resource": "/cluster/node/compute-1.example.com/ens5fx/master",
"dataType": "notification",
"valueType": "enumeration",
"value": "LOCKED"
},
{
"resource": "/cluster/node/compute-1.example.com/ens5fx/master",
"dataType": "metric",
"valueType": "decimal64.3",
"value": "29"
}
]
}
}
os-clock-sync-state API 응답 예
{
"specversion": "0.3",
"id": "4f51fe99-feaa-4e66-9112-66c5c9b9afcb",
"source": "/cluster/node/compute-1.example.com/sync/sync-status/os-clock-sync-state",
"type": "event.sync.sync-status.os-clock-sync-state-change",
"subject": "/cluster/node/compute-1.example.com/sync/sync-status/os-clock-sync-state",
"datacontenttype": "application/json",
"time": "2022-11-29T17:44:22.202Z",
"data": {
"version": "v1",
"values": [
{
"resource": "/cluster/node/compute-1.example.com/CLOCK_REALTIME",
"dataType": "notification",
"valueType": "enumeration",
"value": "LOCKED"
},
{
"resource": "/cluster/node/compute-1.example.com/CLOCK_REALTIME",
"dataType": "metric",
"valueType": "decimal64.3",
"value": "27"
}
]
}
}
ptp-clock-class-change API 응답 예
{
"id": "064c9e67-5ad4-4afb-98ff-189c6aa9c205",
"type": "event.sync.ptp-status.ptp-clock-class-change",
"source": "/cluster/node/compute-1.example.com/sync/ptp-status/ptp-clock-class-change",
"dataContentType": "application/json",
"time": "2023-01-10T02:41:56.785673989Z",
"data": {
"version": "v1",
"values": [
{
"resource": "/cluster/node/compute-1.example.com/ens5fx/master",
"dataType": "metric",
"valueType": "decimal64.3",
"value": "165"
}
]
}
}
19.8.7. PTP 빠른 이벤트 메트릭 모니터링
linuxptp-daemon 이 실행중인 클러스터 노드에서 PTP 빠른 이벤트 메트릭을 모니터링할 수 있습니다. 사전 구성 및 자체 업데이트 Prometheus 모니터링 스택을 사용하여 OpenShift Container Platform 웹 콘솔에서 PTP 빠른 이벤트 메트릭을 모니터링할 수도 있습니다.
사전 요구 사항
-
OpenShift Container Platform CLI
oc를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - PTP 가능 하드웨어를 사용하여 노드에 PTP Operator를 설치하고 구성합니다.
절차
linuxptp-daemon이 실행 중인 모든 노드에서 노출된 PTP 지표를 확인합니다. 예를 들어 다음 명령을 실행합니다.$ curl http://<node_name>:9091/metrics
출력 예
# HELP openshift_ptp_clock_state 0 = FREERUN, 1 = LOCKED, 2 = HOLDOVER # TYPE openshift_ptp_clock_state gauge openshift_ptp_clock_state{iface="ens1fx",node="compute-1.example.com",process="ptp4l"} 1 openshift_ptp_clock_state{iface="ens3fx",node="compute-1.example.com",process="ptp4l"} 1 openshift_ptp_clock_state{iface="ens5fx",node="compute-1.example.com",process="ptp4l"} 1 openshift_ptp_clock_state{iface="ens7fx",node="compute-1.example.com",process="ptp4l"} 1 # HELP openshift_ptp_delay_ns # TYPE openshift_ptp_delay_ns gauge openshift_ptp_delay_ns{from="master",iface="ens1fx",node="compute-1.example.com",process="ptp4l"} 842 openshift_ptp_delay_ns{from="master",iface="ens3fx",node="compute-1.example.com",process="ptp4l"} 480 openshift_ptp_delay_ns{from="master",iface="ens5fx",node="compute-1.example.com",process="ptp4l"} 584 openshift_ptp_delay_ns{from="master",iface="ens7fx",node="compute-1.example.com",process="ptp4l"} 482 openshift_ptp_delay_ns{from="phc",iface="CLOCK_REALTIME",node="compute-1.example.com",process="phc2sys"} 547 # HELP openshift_ptp_offset_ns # TYPE openshift_ptp_offset_ns gauge openshift_ptp_offset_ns{from="master",iface="ens1fx",node="compute-1.example.com",process="ptp4l"} -2 openshift_ptp_offset_ns{from="master",iface="ens3fx",node="compute-1.example.com",process="ptp4l"} -44 openshift_ptp_offset_ns{from="master",iface="ens5fx",node="compute-1.example.com",process="ptp4l"} -8 openshift_ptp_offset_ns{from="master",iface="ens7fx",node="compute-1.example.com",process="ptp4l"} 3 openshift_ptp_offset_ns{from="phc",iface="CLOCK_REALTIME",node="compute-1.example.com",process="phc2sys"} 12-
OpenShift Container Platform 웹 콘솔에서 PTP 이벤트를 보려면 쿼리할 PTP 메트릭의 이름을 복사합니다(예:
openshift_ptp_offset_ns). - OpenShift Container Platform 웹 콘솔에서 모니터링 → 메트릭을 클릭합니다.
- PTP 메트릭 이름을 표현식 필드에 붙여넣고 쿼리 실행을 클릭합니다.
추가 리소스
20장. PTP 이벤트 소비자 애플리케이션 개발
베어 메탈 클러스터 노드에서 PTP(Precision Time Protocol) 이벤트를 사용하는 소비자 애플리케이션을 개발할 때 소비자 애플리케이션 및 클라우드 이벤트 프록시 컨테이너를 별도의 애플리케이션 Pod에 배포해야 합니다. cloud-event-proxy 컨테이너는 PTP Operator Pod에서 이벤트를 수신하여 소비자 애플리케이션으로 전달합니다. 소비자 애플리케이션은 REST API를 사용하여 cloud-event-proxy 컨테이너에 게시된 이벤트를 구독합니다.
PTP 이벤트 애플리케이션 배포에 대한 자세한 내용은 PTP 빠른 이벤트 알림 프레임워크 정보를 참조하십시오.
다음 정보는 PTP 이벤트를 사용하는 소비자 애플리케이션을 개발하기 위한 일반적인 지침을 제공합니다. 전체 이벤트 소비자 애플리케이션 예는 이 정보의 범위를 벗어납니다.
20.1. PTP 이벤트 소비자 애플리케이션 참조
PTP 이벤트 소비자 애플리케이션에는 다음 기능이 필요합니다.
-
클라우드 기본 PTP 이벤트 JSON 페이로드를 수신하기 위해
POST처리기로 실행되는 웹 서비스 -
PTP 이벤트 프로듀서에 가입하는
createSubscription함수 -
PTP 이벤트 프로듀서의 현재 상태를 폴링하는
getCurrentState함수
다음 예제 Go 스니펫에서는 이러한 요구 사항을 보여줍니다.
Go의 PTP 이벤트 소비자 서버 함수의 예
func server() {
http.HandleFunc("/event", getEvent)
http.ListenAndServe("localhost:8989", nil)
}
func getEvent(w http.ResponseWriter, req *http.Request) {
defer req.Body.Close()
bodyBytes, err := io.ReadAll(req.Body)
if err != nil {
log.Errorf("error reading event %v", err)
}
e := string(bodyBytes)
if e != "" {
processEvent(bodyBytes)
log.Infof("received event %s", string(bodyBytes))
} else {
w.WriteHeader(http.StatusNoContent)
}
}
Go에서 PTP 이벤트 createSubscription 함수의 예
import (
"github.com/redhat-cne/sdk-go/pkg/pubsub"
"github.com/redhat-cne/sdk-go/pkg/types"
v1pubsub "github.com/redhat-cne/sdk-go/v1/pubsub"
)
// Subscribe to PTP events using REST API
s1,_:=createsubscription("/cluster/node/<node_name>/sync/sync-status/os-clock-sync-state") 1
s2,_:=createsubscription("/cluster/node/<node_name>/sync/ptp-status/ptp-clock-class-change")
s3,_:=createsubscription("/cluster/node/<node_name>/sync/ptp-status/lock-state")
// Create PTP event subscriptions POST
func createSubscription(resourceAddress string) (sub pubsub.PubSub, err error) {
var status int
apiPath:= "/api/ocloudNotifications/v1/"
localAPIAddr:=localhost:8989 // vDU service API address
apiAddr:= "localhost:8089" // event framework API address
subURL := &types.URI{URL: url.URL{Scheme: "http",
Host: apiAddr
Path: fmt.Sprintf("%s%s", apiPath, "subscriptions")}}
endpointURL := &types.URI{URL: url.URL{Scheme: "http",
Host: localAPIAddr,
Path: "event"}}
sub = v1pubsub.NewPubSub(endpointURL, resourceAddress)
var subB []byte
if subB, err = json.Marshal(&sub); err == nil {
rc := restclient.New()
if status, subB = rc.PostWithReturn(subURL, subB); status != http.StatusCreated {
err = fmt.Errorf("error in subscription creation api at %s, returned status %d", subURL, status)
} else {
err = json.Unmarshal(subB, &sub)
}
} else {
err = fmt.Errorf("failed to marshal subscription for %s", resourceAddress)
}
return
}
- 1
- &
lt;node_name>을 PTP 이벤트를 생성하는 노드의 FQDN으로 바꿉니다. 예:compute-1.example.com.
Go의 PTP 이벤트 소비자 getCurrentState 함수의 예
//Get PTP event state for the resource
func getCurrentState(resource string) {
//Create publisher
url := &types.URI{URL: url.URL{Scheme: "http",
Host: localhost:8989,
Path: fmt.SPrintf("/api/ocloudNotifications/v1/%s/CurrentState",resource}}
rc := restclient.New()
status, event := rc.Get(url)
if status != http.StatusOK {
log.Errorf("CurrentState:error %d from url %s, %s", status, url.String(), event)
} else {
log.Debugf("Got CurrentState: %s ", event)
}
}
20.2. 참조 cloud-event-proxy 배포 및 서비스 CR
PTP 이벤트 소비자 애플리케이션을 배포할 때 다음 예제 cloud-event-proxy 배포 및 구독자 서비스 CR을 참조로 사용합니다.
가능한 경우 PTP 및 베어 메탈 이벤트에 AMQP 대신 HTTP 전송을 사용합니다. AMQ Interconnect는 2024년 6월 30일부터 EOL입니다. AMQ Interconnect의 ELS (Extended Life cycle Support)는 2030년 11월 30일에 종료됩니다. 자세한 내용은 Red Hat AMQ Interconnect 지원 상태를 참조하십시오.
HTTP 전송을 사용하는 cloud-event-proxy 배포 참조
apiVersion: apps/v1
kind: Deployment
metadata:
name: event-consumer-deployment
namespace: <namespace>
labels:
app: consumer
spec:
replicas: 1
selector:
matchLabels:
app: consumer
template:
metadata:
labels:
app: consumer
spec:
serviceAccountName: sidecar-consumer-sa
containers:
- name: event-subscriber
image: event-subscriber-app
- name: cloud-event-proxy-as-sidecar
image: openshift4/ose-cloud-event-proxy
args:
- "--metrics-addr=127.0.0.1:9091"
- "--store-path=/store"
- "--transport-host=consumer-events-subscription-service.cloud-events.svc.cluster.local:9043"
- "--http-event-publishers=ptp-event-publisher-service-NODE_NAME.openshift-ptp.svc.cluster.local:9043"
- "--api-port=8089"
env:
- name: NODE_NAME
valueFrom:
fieldRef:
fieldPath: spec.nodeName
- name: NODE_IP
valueFrom:
fieldRef:
fieldPath: status.hostIP
volumeMounts:
- name: pubsubstore
mountPath: /store
ports:
- name: metrics-port
containerPort: 9091
- name: sub-port
containerPort: 9043
volumes:
- name: pubsubstore
emptyDir: {}
AMQ 전송을 사용한 cloud-event-proxy 배포 참조
apiVersion: apps/v1
kind: Deployment
metadata:
name: cloud-event-proxy-sidecar
namespace: cloud-events
labels:
app: cloud-event-proxy
spec:
selector:
matchLabels:
app: cloud-event-proxy
template:
metadata:
labels:
app: cloud-event-proxy
spec:
nodeSelector:
node-role.kubernetes.io/worker: ""
containers:
- name: cloud-event-sidecar
image: openshift4/ose-cloud-event-proxy
args:
- "--metrics-addr=127.0.0.1:9091"
- "--store-path=/store"
- "--transport-host=amqp://router.router.svc.cluster.local"
- "--api-port=8089"
env:
- name: <node_name>
valueFrom:
fieldRef:
fieldPath: spec.nodeName
- name: <node_ip>
valueFrom:
fieldRef:
fieldPath: status.hostIP
volumeMounts:
- name: pubsubstore
mountPath: /store
ports:
- name: metrics-port
containerPort: 9091
- name: sub-port
containerPort: 9043
volumes:
- name: pubsubstore
emptyDir: {}
참조 cloud-event-proxy 구독자 서비스
apiVersion: v1
kind: Service
metadata:
annotations:
prometheus.io/scrape: "true"
service.alpha.openshift.io/serving-cert-secret-name: sidecar-consumer-secret
name: consumer-events-subscription-service
namespace: cloud-events
labels:
app: consumer-service
spec:
ports:
- name: sub-port
port: 9043
selector:
app: consumer
clusterIP: None
sessionAffinity: None
type: ClusterIP
20.3. cloud-event-proxy 사이드카 REST API에서 PTP 이벤트 사용
PTP 이벤트 소비자 애플리케이션은 다음 PTP 타이밍 이벤트에 대해 PTP 이벤트 생산자를 폴링할 수 있습니다.
표 20.1. cloud-event-proxy 사이드카에서 사용 가능한 PTP 이벤트
| 리소스 URI | 설명 |
|---|---|
|
|
PTP 장치 잠금 상태의 현재 상태를 설명합니다. |
|
|
호스트 운영 체제 클럭 동기화 상태를 설명합니다. |
|
| PTP 클럭 클래스의 현재 상태를 설명합니다. |
20.4. PTP 이벤트에 소비자 애플리케이션 구독
PTP 이벤트 소비자 애플리케이션에서 이벤트를 폴링하려면 먼저 애플리케이션을 이벤트 프로듀서에 가입해야 합니다.
20.4.1. PTP 잠금 이벤트 구독
PTP 잠금 상태 이벤트에 대한 서브스크립션을 생성하려면 다음 페이로드를 사용하여 http://localhost:8081/api/ocloudNotifications/v1/subscriptions 의 클라우드 이벤트 API에 POST 작업을 보냅니다.
{
"endpointUri": "http://localhost:8989/event",
"resource": "/cluster/node/<node_name>/sync/ptp-status/lock-state",
}응답 예
{
"id": "e23473d9-ba18-4f78-946e-401a0caeff90",
"endpointUri": "http://localhost:8989/event",
"uriLocation": "http://localhost:8089/api/ocloudNotifications/v1/subscriptions/e23473d9-ba18-4f78-946e-401a0caeff90",
"resource": "/cluster/node/<node_name>/sync/ptp-status/lock-state",
}
20.4.2. PTP os-clock-sync-state 이벤트 구독
PTP os-clock-sync-state 이벤트에 대한 서브스크립션을 생성하려면 다음 페이로드가 있는 http://localhost:8081/api/ocloudNotifications/v1/subscriptions 에서 클라우드 이벤트 API에 POST 작업을 보냅니다.
{
"endpointUri": "http://localhost:8989/event",
"resource": "/cluster/node/<node_name>/sync/sync-status/os-clock-sync-state",
}응답 예
{
"id": "e23473d9-ba18-4f78-946e-401a0caeff90",
"endpointUri": "http://localhost:8989/event",
"uriLocation": "http://localhost:8089/api/ocloudNotifications/v1/subscriptions/e23473d9-ba18-4f78-946e-401a0caeff90",
"resource": "/cluster/node/<node_name>/sync/sync-status/os-clock-sync-state",
}
20.4.3. PTP ptp-clock-class-change 이벤트 구독
PTP ptp-clock-class-change 이벤트에 대한 서브스크립션을 생성하려면 다음 페이로드를 사용하여 http://localhost:8081/api/ocloudNotifications/v1/subscriptions 에서 클라우드 이벤트 API에 POST 작업을 보냅니다.
{
"endpointUri": "http://localhost:8989/event",
"resource": "/cluster/node/<node_name>/sync/ptp-status/ptp-clock-class-change",
}응답 예
{
"id": "e23473d9-ba18-4f78-946e-401a0caeff90",
"endpointUri": "http://localhost:8989/event",
"uriLocation": "http://localhost:8089/api/ocloudNotifications/v1/subscriptions/e23473d9-ba18-4f78-946e-401a0caeff90",
"resource": "/cluster/node/<node_name>/sync/ptp-status/ptp-clock-class-change",
}
20.5. 현재 PTP 클럭 상태 가져오기
노드의 현재 PTP 상태를 가져오려면 다음 이벤트 REST API 중 하나에 GET 작업을 보냅니다.
-
http://localhost:8081/api/ocloudNotifications/v1/cluster/node/<NODE_NAME>/sync/ptp-status/lock-state/CurrentState -
http://localhost:8081/api/ocloudNotifications/v1/cluster/node/<NODE_NAME>/sync/sync-status/os-clock-sync-state/CurrentState -
http://localhost:8081/api/ocloudNotifications/v1/cluster/node/<NODE_NAME>/sync/ptp-status/ptp-clock-class-change/CurrentState
응답은 클라우드 네이티브 이벤트 JSON 오브젝트입니다. 예를 들면 다음과 같습니다.
lock-state API 응답 예
{
"id": "c1ac3aa5-1195-4786-84f8-da0ea4462921",
"type": "event.sync.ptp-status.ptp-state-change",
"source": "/cluster/node/compute-1.example.com/sync/ptp-status/lock-state",
"dataContentType": "application/json",
"time": "2023-01-10T02:41:57.094981478Z",
"data": {
"version": "v1",
"values": [
{
"resource": "/cluster/node/compute-1.example.com/ens5fx/master",
"dataType": "notification",
"valueType": "enumeration",
"value": "LOCKED"
},
{
"resource": "/cluster/node/compute-1.example.com/ens5fx/master",
"dataType": "metric",
"valueType": "decimal64.3",
"value": "29"
}
]
}
}
20.6. PTP 이벤트 소비자 애플리케이션이 이벤트를 수신하는지 확인
애플리케이션 Pod의 cloud-event-proxy 컨테이너에서 PTP 이벤트를 수신하고 있는지 확인합니다.
사전 요구 사항
-
OpenShift CLI(
oc)가 설치되어 있습니다. -
cluster-admin권한이 있는 사용자로 로그인했습니다. - PTP Operator를 설치하고 구성했습니다.
프로세스
활성
linuxptp-daemonPod 목록을 가져옵니다. 다음 명령을 실행합니다.$ oc get pods -n openshift-ptp
출력 예
NAME READY STATUS RESTARTS AGE linuxptp-daemon-2t78p 3/3 Running 0 8h linuxptp-daemon-k8n88 3/3 Running 0 8h
다음 명령을 실행하여 필수 소비자 측
cloud-event-proxy컨테이너의 메트릭에 액세스합니다.$ oc exec -it <linuxptp-daemon> -n openshift-ptp -c cloud-event-proxy -- curl 127.0.0.1:9091/metrics
다음과 같습니다.
- <linuxptp-daemon>
쿼리할 Pod를 지정합니다(예:
linuxptp-daemon-2t78p).출력 예
# HELP cne_transport_connections_resets Metric to get number of connection resets # TYPE cne_transport_connections_resets gauge cne_transport_connection_reset 1 # HELP cne_transport_receiver Metric to get number of receiver created # TYPE cne_transport_receiver gauge cne_transport_receiver{address="/cluster/node/compute-1.example.com/ptp",status="active"} 2 cne_transport_receiver{address="/cluster/node/compute-1.example.com/redfish/event",status="active"} 2 # HELP cne_transport_sender Metric to get number of sender created # TYPE cne_transport_sender gauge cne_transport_sender{address="/cluster/node/compute-1.example.com/ptp",status="active"} 1 cne_transport_sender{address="/cluster/node/compute-1.example.com/redfish/event",status="active"} 1 # HELP cne_events_ack Metric to get number of events produced # TYPE cne_events_ack gauge cne_events_ack{status="success",type="/cluster/node/compute-1.example.com/ptp"} 18 cne_events_ack{status="success",type="/cluster/node/compute-1.example.com/redfish/event"} 18 # HELP cne_events_transport_published Metric to get number of events published by the transport # TYPE cne_events_transport_published gauge cne_events_transport_published{address="/cluster/node/compute-1.example.com/ptp",status="failed"} 1 cne_events_transport_published{address="/cluster/node/compute-1.example.com/ptp",status="success"} 18 cne_events_transport_published{address="/cluster/node/compute-1.example.com/redfish/event",status="failed"} 1 cne_events_transport_published{address="/cluster/node/compute-1.example.com/redfish/event",status="success"} 18 # HELP cne_events_transport_received Metric to get number of events received by the transport # TYPE cne_events_transport_received gauge cne_events_transport_received{address="/cluster/node/compute-1.example.com/ptp",status="success"} 18 cne_events_transport_received{address="/cluster/node/compute-1.example.com/redfish/event",status="success"} 18 # HELP cne_events_api_published Metric to get number of events published by the rest api # TYPE cne_events_api_published gauge cne_events_api_published{address="/cluster/node/compute-1.example.com/ptp",status="success"} 19 cne_events_api_published{address="/cluster/node/compute-1.example.com/redfish/event",status="success"} 19 # HELP cne_events_received Metric to get number of events received # TYPE cne_events_received gauge cne_events_received{status="success",type="/cluster/node/compute-1.example.com/ptp"} 18 cne_events_received{status="success",type="/cluster/node/compute-1.example.com/redfish/event"} 18 # HELP promhttp_metric_handler_requests_in_flight Current number of scrapes being served. # TYPE promhttp_metric_handler_requests_in_flight gauge promhttp_metric_handler_requests_in_flight 1 # HELP promhttp_metric_handler_requests_total Total number of scrapes by HTTP status code. # TYPE promhttp_metric_handler_requests_total counter promhttp_metric_handler_requests_total{code="200"} 4 promhttp_metric_handler_requests_total{code="500"} 0 promhttp_metric_handler_requests_total{code="503"} 0
21장. 외부 DNS Operator
21.1. OpenShift Container Platform의 외부 DNS Operator
외부 DNS Operator는 ExternalDNS 를 배포 및 관리하여 외부 DNS 공급자에서 OpenShift Container Platform으로 서비스 및 경로에 대한 이름 확인을 제공합니다.
21.1.1. 외부 DNS Operator
외부 DNS Operator는 olm.openshift.io API 그룹에서 외부 DNS API를 구현합니다. 외부 DNS Operator는 배포 리소스를 사용하여 ExternalDNS 를 배포합니다. ExternalDNS 배포는 클러스터의 서비스 및 경로와 같은 리소스를 감시하고 외부 DNS 공급자를 업데이트합니다.
프로세스
OperatorHub에서 필요에 따라 ExternalDNS Operator를 배포할 수 있으므로 Subscription 오브젝트가 생성됩니다.
설치 계획의 이름을 확인합니다.
$ oc -n external-dns-operator get sub external-dns-operator -o yaml | yq '.status.installplan.name'
출력 예
install-zcvlr
설치 계획의 상태를 확인합니다. 설치 계획의 상태는
Complete이어야합니다.$ oc -n external-dns-operator get ip <install_plan_name> -o yaml | yq .status.phase'
출력 예
Complete
oc get명령을 사용하여배포상태를 확인합니다.$ oc get -n external-dns-operator deployment/external-dns-operator
출력 예
NAME READY UP-TO-DATE AVAILABLE AGE external-dns-operator 1/1 1 1 23h
21.1.2. 외부 DNS Operator 로그
oc logs 명령을 사용하여 외부 DNS Operator 로그를 볼 수 있습니다.
프로세스
외부 DNS Operator의 로그를 확인합니다.
$ oc logs -n external-dns-operator deployment/external-dns-operator -c external-dns-operator
21.1.2.1. 외부 DNS Operator 도메인 이름 제한
외부 DNS Operator는 새 형식을 따르고 TXT 레코드의 접두사를 추가하는 TXT 레지스트리를 사용합니다. 이렇게 하면 TXT 레코드의 도메인 이름의 최대 길이가 줄어듭니다. 해당 TXT 레코드 없이는 DNS 레코드를 존재할 수 없으므로 DNS 레코드의 도메인 이름은 TXT 레코드와 동일한 제한을 따라야 합니다. 예를 들어 DNS 레코드는 < domain-name-from-source >이며 TXT 레코드는 external-dns-< records-type>-<domain-name-from-source >입니다.
외부 DNS Operator에서 생성한 DNS 레코드의 도메인 이름에는 다음과 같은 제한 사항이 있습니다.
| 레코드 유형 | 문자 수 |
|---|---|
| CNAME | 44 |
| AzureDNS의 와일드카드 CNAME 레코드 | 42 |
| A | 48 |
| AzureDNS의 와일드카드 A 레코드 | 46 |
외부 DNS에서 생성한 도메인 이름이 도메인 이름 제한을 초과하면 외부 DNS 인스턴스에서 다음 오류가 발생합니다.
$ oc -n external-dns-operator logs external-dns-aws-7ddbd9c7f8-2jqjh 1- 1
external-dns-aws-7ddbd9c7f8-2jqjh매개변수는 외부 DNS Pod의 이름을 지정합니다.
출력 예
time="2022-09-02T08:53:57Z" level=info msg="Desired change: CREATE external-dns-cname-hello-openshift-aaaaaaaaaa-bbbbbbbbbb-ccccccc.test.example.io TXT [Id: /hostedzone/Z06988883Q0H0RL6UMXXX]" time="2022-09-02T08:53:57Z" level=info msg="Desired change: CREATE external-dns-hello-openshift-aaaaaaaaaa-bbbbbbbbbb-ccccccc.test.example.io TXT [Id: /hostedzone/Z06988883Q0H0RL6UMXXX]" time="2022-09-02T08:53:57Z" level=info msg="Desired change: CREATE hello-openshift-aaaaaaaaaa-bbbbbbbbbb-ccccccc.test.example.io A [Id: /hostedzone/Z06988883Q0H0RL6UMXXX]" time="2022-09-02T08:53:57Z" level=error msg="Failure in zone test.example.io. [Id: /hostedzone/Z06988883Q0H0RL6UMXXX]" time="2022-09-02T08:53:57Z" level=error msg="InvalidChangeBatch: [FATAL problem: DomainLabelTooLong (Domain label is too long) encountered with 'external-dns-a-hello-openshift-aaaaaaaaaa-bbbbbbbbbb-ccccccc']\n\tstatus code: 400, request id: e54dfd5a-06c6-47b0-bcb9-a4f7c3a4e0c6"
21.2. 클라우드 공급자에 외부 DNS Operator 설치
AWS, Azure, GCP와 같은 클라우드 공급자에 External DNS Operator를 설치할 수 있습니다.
21.2.1. 외부 DNS Operator 설치
OpenShift Container Platform OperatorHub를 사용하여 External DNS Operator를 설치할 수 있습니다.
프로세스
- OpenShift Container Platform 웹 콘솔에서 Operators → OperatorHub 를 클릭합니다.
- External DNS Operator 를 클릭합니다. 키워드로 필터링 텍스트 상자 또는 필터 목록을 사용하여 Operator 목록에서 외부 DNS Operator를 검색할 수 있습니다.
-
external-dns-operator네임스페이스를 선택합니다. - External DNS Operator 페이지에서 설치를 클릭합니다.
Operator 설치 페이지에서 다음 옵션을 선택했는지 확인합니다.
- 채널을 stable-v1 로 업데이트합니다.
- 설치 모드를 클러스터의 특정 이름으로 설정합니다.
-
네임스페이스를
external-dns-operator로 설치했습니다.external-dns-operator네임스페이스가 없으면 Operator 설치 중에 생성됩니다. - 자동 또는 수동으로 승인 전략을 선택합니다. 승인 전략은 기본적으로 자동으로 설정됩니다.
- 설치를 클릭합니다.
자동 업데이트를 선택하면 OLM(Operator Lifecycle Manager)에서 개입 없이 Operator의 실행 중인 인스턴스를 자동으로 업그레이드합니다.
수동 업데이트를 선택하면 OLM에서 업데이트 요청을 생성합니다. 클러스터 관리자는 Operator를 새 버전으로 업데이트하려면 OLM 업데이트 요청을 수동으로 승인해야 합니다.
검증
External DNS Operator가 Installed Operators 대시보드에 Succeeded 로 표시되는지 확인합니다.
21.3. 외부 DNS Operator 구성 매개변수
외부 DNS Operator에는 다음 구성 매개변수가 포함되어 있습니다.
21.3.1. 외부 DNS Operator 구성 매개변수
외부 DNS Operator에는 다음 구성 매개변수가 포함되어 있습니다.
| 매개변수 | 설명 |
|---|---|
|
| 클라우드 공급자의 유형을 활성화합니다. spec:
provider:
type: AWS 1
aws:
credentials:
name: aws-access-key 2
|
|
|
도메인을 통해 DNS 영역을 지정할 수 있습니다. 영역을 지정하지 않으면 zones:
- "myzoneid" 1
|
|
|
도메인을 통해 AWS 영역을 지정할 수 있습니다. 도메인을 지정하지 않으면 domains: - filterType: Include 1 matchType: Exact 2 name: "myzonedomain1.com" 3 - filterType: Include matchType: Pattern 4 pattern: ".*\\.otherzonedomain\\.com" 5 |
|
|
DNS 레코드, source: 1 type: Service 2 service: serviceType:3 - LoadBalancer - ClusterIP labelFilter: 4 matchLabels: external-dns.mydomain.org/publish: "yes" hostnameAnnotation: "Allow" 5 fqdnTemplate: - "{{.Name}}.myzonedomain.com" 6
source: type: OpenShiftRoute 1 openshiftRouteOptions: routerName: default 2 labelFilter: matchLabels: external-dns.mydomain.org/publish: "yes" |
21.4. AWS에서 DNS 레코드 생성
외부 DNS Operator를 사용하여 AWS 및 AWS GovCloud에서 DNS 레코드를 생성할 수 있습니다.
21.4.1. Red Hat External DNS Operator를 사용하여 AWS의 퍼블릭 호스팅 영역에 DNS 레코드 생성
Red Hat External DNS Operator를 사용하여 AWS의 퍼블릭 호스팅 영역에서 DNS 레코드를 생성할 수 있습니다. 동일한 지침을 사용하여 AWS GovCloud의 호스팅 영역에서 DNS 레코드를 만들 수 있습니다.
프로세스
사용자를 확인합니다. 사용자가
kube-system네임스페이스에 액세스할 수 있어야 합니다. 인증 정보가 없는 경우kube-system네임스페이스에서 인증 정보를 가져와서 클라우드 공급자 클라이언트를 사용할 수 있습니다.$ oc whoami
출력 예
system:admin
kube-system네임스페이스에 있는 aws-creds 시크릿에서 값을 가져옵니다.$ export AWS_ACCESS_KEY_ID=$(oc get secrets aws-creds -n kube-system --template={{.data.aws_access_key_id}} | base64 -d) $ export AWS_SECRET_ACCESS_KEY=$(oc get secrets aws-creds -n kube-system --template={{.data.aws_secret_access_key}} | base64 -d)도메인을 확인할 경로를 가져옵니다.
$ oc get routes --all-namespaces | grep console
출력 예
openshift-console console console-openshift-console.apps.testextdnsoperator.apacshift.support console https reencrypt/Redirect None openshift-console downloads downloads-openshift-console.apps.testextdnsoperator.apacshift.support downloads http edge/Redirect None
dns 영역 목록을 가져와서 이전에 발견된 경로의 도메인에 해당하는 항목을 찾습니다.
$ aws route53 list-hosted-zones | grep testextdnsoperator.apacshift.support
출력 예
HOSTEDZONES terraform /hostedzone/Z02355203TNN1XXXX1J6O testextdnsoperator.apacshift.support. 5
경로소스에 대한ExternalDNS리소스 생성:$ cat <<EOF | oc create -f - apiVersion: externaldns.olm.openshift.io/v1beta1 kind: ExternalDNS metadata: name: sample-aws 1 spec: domains: - filterType: Include 2 matchType: Exact 3 name: testextdnsoperator.apacshift.support 4 provider: type: AWS 5 source: 6 type: OpenShiftRoute 7 openshiftRouteOptions: routerName: default 8 EOF
- 1
- 외부 DNS 리소스의 이름을 정의합니다.
- 2
- 기본적으로 모든 호스팅 영역은 잠재적인 대상으로 선택됩니다. 필요한 호스팅 영역을 포함할 수 있습니다.
- 3
- 대상 영역 도메인의 일치는 정확해야 합니다(정규 표현식 일치와 대조).
- 4
- 업데이트할 영역의 정확한 도메인을 지정합니다. 경로의 호스트 이름은 지정된 도메인의 하위 도메인이어야 합니다.
- 5
AWS Route53DNS 공급자를 정의합니다.- 6
- DNS 레코드 소스에 대한 옵션을 정의합니다.
- 7
- 이전에 지정된 DNS 공급자에서 생성된 DNS 레코드의 소스로 OpenShift
경로리소스를 정의합니다. - 8
- 소스가
OpenShiftRoute인 경우 OpenShift Ingress 컨트롤러 이름을 전달할 수 있습니다. 외부 DNS Operator는 CNAME 레코드를 생성하는 동안 해당 라우터의 표준 호스트 이름을 대상으로 선택합니다.
다음 명령을 사용하여 OCP 경로에 대해 생성된 레코드를 확인합니다.
$ aws route53 list-resource-record-sets --hosted-zone-id Z02355203TNN1XXXX1J6O --query "ResourceRecordSets[?Type == 'CNAME']" | grep console
21.5. Azure에서 DNS 레코드 생성
외부 DNS Operator를 사용하여 Azure에서 DNS 레코드를 생성할 수 있습니다.
21.5.1. Red Hat External DNS Operator를 사용하여 Azure의 퍼블릭 DNS 영역에서 DNS 레코드 생성
Red Hat External DNS Operator를 사용하여 Azure의 퍼블릭 DNS 영역에서 DNS 레코드를 생성할 수 있습니다.
절차
사용자를 확인합니다. 사용자가
kube-system네임스페이스에 액세스할 수 있어야 합니다. 인증 정보가 없는 경우kube-system네임스페이스에서 인증 정보를 가져와서 클라우드 공급자 클라이언트를 사용할 수 있습니다.$ oc whoami
출력 예
system:admin
kube-system네임스페이스에 있는 azure-credentials 시크릿에서 값을 가져옵니다.$ CLIENT_ID=$(oc get secrets azure-credentials -n kube-system --template={{.data.azure_client_id}} | base64 -d) $ CLIENT_SECRET=$(oc get secrets azure-credentials -n kube-system --template={{.data.azure_client_secret}} | base64 -d) $ RESOURCE_GROUP=$(oc get secrets azure-credentials -n kube-system --template={{.data.azure_resourcegroup}} | base64 -d) $ SUBSCRIPTION_ID=$(oc get secrets azure-credentials -n kube-system --template={{.data.azure_subscription_id}} | base64 -d) $ TENANT_ID=$(oc get secrets azure-credentials -n kube-system --template={{.data.azure_tenant_id}} | base64 -d)base64 디코딩된 값을 사용하여 azure에 로그인합니다.
$ az login --service-principal -u "${CLIENT_ID}" -p "${CLIENT_SECRET}" --tenant "${TENANT_ID}"도메인을 확인할 경로를 가져옵니다.
$ oc get routes --all-namespaces | grep console
출력 예
openshift-console console console-openshift-console.apps.test.azure.example.com console https reencrypt/Redirect None openshift-console downloads downloads-openshift-console.apps.test.azure.example.com downloads http edge/Redirect None
dns 영역 목록을 가져와서 이전에 발견된 경로의 도메인에 해당하는 항목을 찾습니다.
$ az network dns zone list --resource-group "${RESOURCE_GROUP}"경로소스에 대한ExternalDNS리소스 생성:apiVersion: externaldns.olm.openshift.io/v1beta1 kind: ExternalDNS metadata: name: sample-azure 1 spec: zones: - "/subscriptions/1234567890/resourceGroups/test-azure-xxxxx-rg/providers/Microsoft.Network/dnszones/test.azure.example.com" 2 provider: type: Azure 3 source: openshiftRouteOptions: 4 routerName: default 5 type: OpenShiftRoute 6 EOF
다음 명령을 사용하여 OCP 경로에 대해 생성된 레코드를 확인합니다.
$ az network dns record-set list -g "${RESOURCE_GROUP}" -z test.azure.example.com | grep console참고프라이빗 Azure dns의 개인 호스팅 영역에 레코드를 만들려면
ExternalDNS컨테이너 args의azure-private-dns에 공급자 유형을 채우는 영역에서 프라이빗영역을지정해야 합니다.
21.6. GCP에서 DNS 레코드 생성
외부 DNS Operator를 사용하여 GCP에서 DNS 레코드를 생성할 수 있습니다.
21.6.1. Red Hat External DNS Operator를 사용하여 GCP의 퍼블릭 관리 영역에서 DNS 레코드 생성
Red Hat External DNS Operator를 사용하여 GCP의 퍼블릭 관리 영역에서 DNS 레코드를 생성할 수 있습니다.
절차
사용자를 확인합니다. 사용자가
kube-system네임스페이스에 액세스할 수 있어야 합니다. 인증 정보가 없는 경우kube-system네임스페이스에서 인증 정보를 가져와서 클라우드 공급자 클라이언트를 사용할 수 있습니다.$ oc whoami
출력 예
system:admin
다음 명령을 실행하여 인코딩-gcloud.json 파일에 gcp-credentials 시크릿의 service_account.json 값을 복사합니다.
$ oc get secret gcp-credentials -n kube-system --template='{{$v := index .data "service_account.json"}}{{$v}}' | base64 -d - > decoded-gcloud.jsonGoogle 인증 정보를 내보냅니다.
$ export GOOGLE_CREDENTIALS=decoded-gcloud.json
다음 명령을 사용하여 계정을 활성화합니다.
$ gcloud auth activate-service-account <client_email as per decoded-gcloud.json> --key-file=decoded-gcloud.json
프로젝트를 설정합니다.
$ gcloud config set project <project_id as per decoded-gcloud.json>
도메인을 확인할 경로를 가져옵니다.
$ oc get routes --all-namespaces | grep console
출력 예
openshift-console console console-openshift-console.apps.test.gcp.example.com console https reencrypt/Redirect None openshift-console downloads downloads-openshift-console.apps.test.gcp.example.com downloads http edge/Redirect None
관리형 영역 목록을 가져와서 이전에 발견된 경로의 도메인에 해당하는 영역을 찾습니다.
$ gcloud dns managed-zones list | grep test.gcp.example.com qe-cvs4g-private-zone test.gcp.example.com
경로소스에 대한ExternalDNS리소스 생성:apiVersion: externaldns.olm.openshift.io/v1beta1 kind: ExternalDNS metadata: name: sample-gcp 1 spec: domains: - filterType: Include 2 matchType: Exact 3 name: test.gcp.example.com 4 provider: type: GCP 5 source: openshiftRouteOptions: 6 routerName: default 7 type: OpenShiftRoute 8 EOF
- 1
- 외부 DNS CR의 이름을 지정합니다.
- 2
- 기본적으로 모든 호스팅 영역은 잠재적인 대상으로 선택됩니다. 필요한 호스팅 영역을 포함할 수 있습니다.
- 3
- 대상 영역 도메인의 일치는 정확해야 합니다(정규 표현식 일치와 대조).
- 4
- 업데이트할 영역의 정확한 도메인을 지정합니다. 경로의 호스트 이름은 지정된 도메인의 하위 도메인이어야 합니다.
- 5
- Google Cloud DNS 공급자를 정의합니다.
- 6
- DNS 레코드 소스에 대한 옵션을 정의할 수 있습니다.
- 7
- 소스가
OpenShiftRoute인 경우 OpenShift Ingress 컨트롤러 이름을 전달할 수 있습니다. 외부 DNS는 CNAME 레코드를 생성하는 동안 해당 라우터의 정식 호스트 이름을 대상으로 선택합니다. - 8
- 이전에 지정된 DNS 공급자에서 생성된 DNS 레코드의 소스로 OpenShift
경로리소스를 정의합니다.
다음 명령을 사용하여 OCP 경로에 대해 생성된 레코드를 확인합니다.
$ gcloud dns record-sets list --zone=qe-cvs4g-private-zone | grep console
21.7. Infoblox에서 DNS 레코드 생성
Red Hat External DNS Operator를 사용하여 Infoblox에서 DNS 레코드를 생성할 수 있습니다.
21.7.1. Infoblox의 퍼블릭 DNS 영역에 DNS 레코드 생성
Red Hat External DNS Operator를 사용하여 Infoblox의 퍼블릭 DNS 영역에 DNS 레코드를 생성할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)에 액세스할 수 있습니다. - Infoblox UI에 액세스할 수 있습니다.
절차
다음 명령을 실행하여 Infoblox 자격 증명을 사용하여
보안오브젝트를 생성합니다.$ oc -n external-dns-operator create secret generic infoblox-credentials --from-literal=EXTERNAL_DNS_INFOBLOX_WAPI_USERNAME=<infoblox_username> --from-literal=EXTERNAL_DNS_INFOBLOX_WAPI_PASSWORD=<infoblox_password>
다음 명령을 실행하여 경로 오브젝트를 가져와서 클러스터 도메인을 확인합니다.
$ oc get routes --all-namespaces | grep console
출력 예
openshift-console console console-openshift-console.apps.test.example.com console https reencrypt/Redirect None openshift-console downloads downloads-openshift-console.apps.test.example.com downloads http edge/Redirect None
다음과 같이
ExternalDNS리소스 YAML 파일(예: sample-infoblox.yaml)을 생성합니다.apiVersion: externaldns.olm.openshift.io/v1beta1 kind: ExternalDNS metadata: name: sample-infoblox spec: provider: type: Infoblox infoblox: credentials: name: infoblox-credentials gridHost: ${INFOBLOX_GRID_PUBLIC_IP} wapiPort: 443 wapiVersion: "2.3.1" domains: - filterType: Include matchType: Exact name: test.example.com source: type: OpenShiftRoute openshiftRouteOptions: routerName: default다음 명령을 실행하여 Infoblox에
ExternalDNS리소스를 생성합니다.$ oc create -f sample-infoblox.yaml
Infoblox UI에서
콘솔경로에 대해 생성된 DNS 레코드를 확인합니다.- 데이터 관리 → DNS → 영역을 클릭합니다.
- 영역 이름을 선택합니다.
21.8. 외부 DNS Operator에서 클러스터 전체 프록시 구성
외부 DNS Operator에서 클러스터 전체 프록시를 구성할 수 있습니다. 외부 DNS Operator에서 클러스터 전체 프록시를 구성한 후 OLM(Operator Lifecycle Manager)은 HTTP_PROXY,HTTPS_PROXY 및 NO_PROXY 와 같은 환경 변수를 사용하여 Operator의 모든 배포를 자동으로 업데이트합니다.
21.8.1. 클러스터 전체 프록시의 인증 기관을 신뢰하도록 외부 DNS Operator 구성
클러스터 전체 프록시의 인증 기관을 신뢰하도록 외부 DNS Operator를 구성할 수 있습니다.
절차
다음 명령을 실행하여
외부-dns-operator네임스페이스에 CA 번들을 포함하도록 구성 맵을 생성합니다.$ oc -n external-dns-operator create configmap trusted-ca
신뢰할 수 있는 CA 번들을 구성 맵에 삽입하려면 다음 명령을 실행하여
config.openshift.io/inject-trusted-cabundle=true라벨을 구성 맵에 추가합니다.$ oc -n external-dns-operator label cm trusted-ca config.openshift.io/inject-trusted-cabundle=true
다음 명령을 실행하여 외부 DNS Operator의 서브스크립션을 업데이트합니다.
$ oc -n external-dns-operator patch subscription external-dns-operator --type='json' -p='[{"op": "add", "path": "/spec/config", "value":{"env":[{"name":"TRUSTED_CA_CONFIGMAP_NAME","value":"trusted-ca"}]}}]'
검증
외부 DNS Operator 배포가 완료되면 다음 명령을 실행하여 신뢰할 수 있는 CA 환경 변수가
external-dns-operator배포에 추가되었는지 확인합니다.$ oc -n external-dns-operator exec deploy/external-dns-operator -c external-dns-operator -- printenv TRUSTED_CA_CONFIGMAP_NAME
출력 예
trusted-ca
22장. 네트워크 정책
22.1. 네트워크 정책 정의
클러스터 관리자는 클러스터의 pod로 트래픽을 제한하는 네트워크 정책을 정의할 수 있습니다.
22.1.1. 네트워크 정책 정의
Kubernetes 네트워크 정책을 지원하는 네트워크 플러그인을 사용하는 클러스터에서 네트워크 격리는 NetworkPolicy 개체에 의해 전적으로 제어됩니다. OpenShift Container Platform 4.13에서 OpenShift SDN은 기본 네트워크 격리 모드에서 네트워크 정책의 사용을 지원합니다.
네트워크 정책은 호스트 네트워크 네임스페이스에 적용되지 않습니다. 호스트 네트워킹이 활성화된 Pod는 네트워크 정책 규칙의 영향을 받지 않습니다. 그러나 호스트 네트워크 pod에 연결하는 Pod는 네트워크 정책 규칙의 영향을 받을 수 있습니다.
네트워크 정책은 localhost 또는 상주 노드의 트래픽을 차단할 수 없습니다.
기본적으로 네트워크 정책 모드에서는 다른 Pod 및 네트워크 끝점에서 프로젝트의 모든 Pod에 액세스할 수 있습니다. 프로젝트에서 하나 이상의 Pod를 분리하기 위해 해당 프로젝트에서 NetworkPolicy 오브젝트를 생성하여 수신되는 연결을 표시할 수 있습니다. 프로젝트 관리자는 자신의 프로젝트 내에서 NetworkPolicy 오브젝트를 만들고 삭제할 수 있습니다.
하나 이상의 NetworkPolicy 오브젝트에서 선택기와 Pod가 일치하면 Pod는 해당 NetworkPolicy 오브젝트 중 하나 이상에서 허용되는 연결만 허용합니다. NetworkPolicy 오브젝트가 선택하지 않은 Pod에 완전히 액세스할 수 있습니다.
네트워크 정책은 TCP, UDP 및 SCTP 프로토콜에만 적용됩니다. 다른 프로토콜은 영향을 받지 않습니다.
다음 예제 NetworkPolicy 오브젝트는 다양한 시나리오 지원을 보여줍니다.
모든 트래픽 거부:
기본적으로 프로젝트를 거부하려면 모든 Pod와 일치하지만 트래픽을 허용하지 않는
NetworkPolicy오브젝트를 추가합니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: deny-by-default spec: podSelector: {} ingress: []OpenShift Container Platform Ingress 컨트롤러의 연결만 허용합니다.
프로젝트에서 OpenShift Container Platform Ingress 컨트롤러의 연결만 허용하도록 하려면 다음
NetworkPolicy개체를 추가합니다.apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: allow-from-openshift-ingress spec: ingress: - from: - namespaceSelector: matchLabels: network.openshift.io/policy-group: ingress podSelector: {} policyTypes: - Ingress프로젝트 내 Pod 연결만 허용:
Pod가 동일한 프로젝트 내 다른 Pod의 연결은 수락하지만 다른 프로젝트에 속하는 Pod의 기타 모든 연결을 거부하도록 하려면 다음
NetworkPolicy오브젝트를 추가합니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: allow-same-namespace spec: podSelector: {} ingress: - from: - podSelector: {}Pod 레이블을 기반으로 하는 HTTP 및 HTTPS 트래픽만 허용:
특정 레이블(다음 예에서
role=frontend)을 사용하여 Pod에 대한 HTTP 및 HTTPS 액세스만 활성화하려면 다음과 유사한NetworkPolicy오브젝트를 추가합니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: allow-http-and-https spec: podSelector: matchLabels: role: frontend ingress: - ports: - protocol: TCP port: 80 - protocol: TCP port: 443네임스페이스와 Pod 선택기를 모두 사용하여 연결 수락:
네임스페이스와 Pod 선택기를 결합하여 네트워크 트래픽을 일치시키려면 다음과 유사한
NetworkPolicy오브젝트를 사용하면 됩니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: allow-pod-and-namespace-both spec: podSelector: matchLabels: name: test-pods ingress: - from: - namespaceSelector: matchLabels: project: project_name podSelector: matchLabels: name: test-pods
NetworkPolicy 오브젝트는 추가 기능이므로 여러 NetworkPolicy 오브젝트를 결합하여 복잡한 네트워크 요구 사항을 충족할 수 있습니다.
예를 들어, 이전 샘플에서 정의된 NetworkPolicy 오브젝트의 경우 동일한 프로젝트 내에서 allow-same-namespace 정책과 allow-http-and-https 정책을 모두 정의할 수 있습니다. 따라서 레이블이 role=frontend로 지정된 Pod는 각 정책에서 허용하는 모든 연결을 허용할 수 있습니다. 즉 동일한 네임스페이스에 있는 Pod의 모든 포트 연결과 모든 네임스페이스에 있는 Pod에서 포트 80 및 443에 대한 연결이 허용됩니다.
22.1.1.1. allow-from-router 네트워크 정책 사용
다음 NetworkPolicy 를 사용하여 라우터 구성에 관계없이 외부 트래픽을 허용합니다.
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
name: allow-from-router
spec:
ingress:
- from:
- namespaceSelector:
matchLabels:
policy-group.network.openshift.io/ingress:""1
podSelector: {}
policyTypes:
- Ingress- 1
policy-group.network.openshift.io/ingress:"레이블은 Openshift-SDN 및 OVN-Kubernetes를 모두 지원합니다.
22.1.1.2. allow-from-hostnetwork 네트워크 정책 사용
다음 allow-from-hostnetwork NetworkPolicy 오브젝트를 추가하여 호스트 네트워크 Pod에서 트래픽을 전달합니다.
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
name: allow-from-hostnetwork
spec:
ingress:
- from:
- namespaceSelector:
matchLabels:
policy-group.network.openshift.io/host-network:""
podSelector: {}
policyTypes:
- Ingress22.1.2. OpenShift SDN을 사용한 네트워크 정책 최적화
네트워크 정책을 사용하여 네임스페이스 내의 라벨에 따라 서로 다른 포드를 분리합니다.
NetworkPolicy 오브젝트를 단일 네임스페이스에서 개별 포드의 많은 수에 적용하는 것은 비효율적입니다. 포드 라벨은 IP 주소 수준에 존재하지 않으므로 네트워크 정책은 podSelector로 선택한 모든 포드 간에 가능한 모든 링크에 대한 별도의 OVS(Open vSwitch) 흐름 규칙을 생성합니다.
예를 들어 NetworkPolicy 오브젝트 내의 spec podSelector 및 ingress podSelector가 각각 200개의 포드와 일치하는 경우 40,000(200*200)개의 OVS 흐름 규칙이 생성됩니다. 이 경우 노드가 느려질 수 있습니다.
네트워크 정책을 설계할 때 다음 지침을 참조하십시오.
분리해야 하는 포드 그룹을 포함하도록 네임스페이스를 사용하여 OVS 흐름 규칙의 수를 줄입니다.
namespaceSelector또는 빈podSelector를 사용하여 전체 네임스페이스를 선택하는NetworkPolicy오브젝트는 네임스페이스의 VXLAN 가상 네트워크 ID(VNID)와 일치하는 단일 OVS 흐름 규칙만 생성합니다.- 원래 네임스페이스에서 분리할 필요가 없는 포드를 유지하고, 분리해야 하는 포드를 하나 이상의 네임스페이스로 이동합니다.
- 분리된 포드에서 허용하려는 특정 트래픽을 허용하도록 추가 대상의 네임스페이스 간 네트워크 정책을 생성합니다.
22.1.3. OpenShift OVN을 사용한 네트워크 정책 최적화
네트워크 정책을 설계할 때 다음 지침을 참조하십시오.
-
동일한
spec.podSelector사양이 있는 네트워크 정책의 경우 수신 또는 송신 규칙의 서브 세트가 있는 여러 네트워크 정책보다 여러수신또는송신규칙이 있는 하나의 네트워크 정책을 사용하는 것이 더 효율적입니다. podSelector또는namespaceSelector사양을 기반으로 하는 모든수신또는송신규칙은수신 또는 송신 규칙에서 선택한 네트워크 정책 + Pod 수에 비례하여 OVS 흐름 수를생성합니다. 따라서 모든 Pod에 대해 개별 규칙을 생성하는 대신 하나의 규칙에서 필요한 만큼의 Pod를 선택할 수 있는podSelector또는namespaceSelector사양을 사용하는 것이 좋습니다.예를 들어 다음 정책에는 두 개의 규칙이 있습니다.
apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: test-network-policy spec: podSelector: {} ingress: - from: - podSelector: matchLabels: role: frontend - from: - podSelector: matchLabels: role: backend다음 정책은 다음과 같은 두 가지 규칙을 나타냅니다.
apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: test-network-policy spec: podSelector: {} ingress: - from: - podSelector: matchExpressions: - {key: role, operator: In, values: [frontend, backend]}spec.podSelector사양에 동일한 지침이 적용됩니다. 다른 네트워크 정책에 대해 동일한수신또는송신규칙이 있는 경우 공통spec.podSelector사양을 사용하여 하나의 네트워크 정책을 생성하는 것이 더 효과적일 수 있습니다. 예를 들어 다음 두 정책에는 다른 규칙이 있습니다.metadata: name: policy1 spec: podSelector: matchLabels: role: db ingress: - from: - podSelector: matchLabels: role: frontend metadata: name: policy2 spec: podSelector: matchLabels: role: client ingress: - from: - podSelector: matchLabels: role: frontend다음 네트워크 정책은 다음과 같은 두 가지 규칙을 나타냅니다.
metadata: name: policy3 spec: podSelector: matchExpressions: - {key: role, operator: In, values: [db, client]} ingress: - from: - podSelector: matchLabels: role: frontend이 최적화는 여러 개의 선택기만 하나의 선택기로 표시되는 경우에만 적용할 수 있습니다. 선택기가 다른 레이블을 기반으로 하는 경우 이 최적화를 적용하지 못할 수 있습니다. 이러한 경우 네트워크 정책 최적화에 새로운 레이블을 적용하는 것이 좋습니다.
22.1.4. 다음 단계
- 네트워크 정책 생성
- 선택 사항: 기본 네트워크 정책 정의
22.1.5. 추가 리소스
22.2. 네트워크 정책 생성
admin 역할이 있는 사용자는 네임스페이스에 대한 네트워크 정책을 생성할 수 있습니다.
22.2.1. NetworkPolicy 오브젝트 예
다음은 예제 NetworkPolicy 오브젝트에 대한 주석입니다.
kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: allow-27107 1 spec: podSelector: 2 matchLabels: app: mongodb ingress: - from: - podSelector: 3 matchLabels: app: app ports: 4 - protocol: TCP port: 27017
22.2.2. CLI를 사용하여 네트워크 정책 생성
클러스터의 네임스페이스에서 허용된 수신 또는 송신 네트워크 트래픽을 설명하는 세분화된 규칙을 정의하기 위해 네트워크 정책을 생성할 수 있습니다.
cluster-admin 역할로 사용자로 로그인하는 경우 클러스터의 모든 네임스페이스에서 네트워크 정책을 생성할 수 있습니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
admin권한이 있는 사용자로 클러스터에 로그인합니다. - 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
절차
다음과 같이 정책 규칙을 생성합니다.
<policy_name>.yaml파일을 생성합니다.$ touch <policy_name>.yaml
다음과 같습니다.
<policy_name>- 네트워크 정책 파일 이름을 지정합니다.
방금 만든 파일에서 다음 예와 같이 네트워크 정책을 정의합니다.
모든 네임스페이스의 모든 Pod에서 수신 거부
이는 다른 네트워크 정책 구성에서 허용하는 교차 포드 트래픽 이외의 모든 포드 간 네트워킹을 차단하는 기본 정책입니다.
kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: deny-by-default spec: podSelector: ingress: []
동일한 네임 스페이스에 있는 모든 Pod의 수신 허용
kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: allow-same-namespace spec: podSelector: ingress: - from: - podSelector: {}특정 네임스페이스에서 하나의 Pod로 들어오는 트래픽 허용
이 정책을 사용하면
namespace-y에서 실행되는 Pod의pod-a레이블이 지정된 Pod로의 트래픽을 수행할 수 있습니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: allow-traffic-pod spec: podSelector: matchLabels: pod: pod-a policyTypes: - Ingress ingress: - from: - namespaceSelector: matchLabels: kubernetes.io/metadata.name: namespace-y
다음 명령을 실행하여 네트워크 정책 오브젝트를 생성합니다.
$ oc apply -f <policy_name>.yaml -n <namespace>
다음과 같습니다.
<policy_name>- 네트워크 정책 파일 이름을 지정합니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
출력 예
networkpolicy.networking.k8s.io/deny-by-default created
cluster-admin 권한으로 웹 콘솔에 로그인하면 클러스터의 모든 네임스페이스에서 YAML로 직접 또는 웹 콘솔의 양식에서 네트워크 정책을 생성할 수 있습니다.
22.2.3. 기본 거부 모든 네트워크 정책 생성
이는 배포된 다른 네트워크 정책에서 허용하는 네트워크 트래픽 이외의 모든 교차 포드 네트워킹을 차단하는 기본 정책입니다. 이 절차에서는 기본 거부 정책을 적용합니다.
cluster-admin 역할로 사용자로 로그인하는 경우 클러스터의 모든 네임스페이스에서 네트워크 정책을 생성할 수 있습니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
admin권한이 있는 사용자로 클러스터에 로그인합니다. - 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
절차
모든 네임스페이스의 모든 Pod에서 수신을
거부하는 거부-별-기본정책을 정의하는 다음 YAML을 생성합니다. YAML을deny-by-default.yaml파일에 저장합니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: deny-by-default namespace: default 1 spec: podSelector: {} 2 ingress: [] 3
다음 명령을 입력하여 정책을 적용합니다.
$ oc apply -f deny-by-default.yaml
출력 예
networkpolicy.networking.k8s.io/deny-by-default created
22.2.4. 외부 클라이언트의 트래픽을 허용하는 네트워크 정책 생성
deny-by-default 정책을 사용하여 외부 클라이언트에서 라벨이 app=web 인 Pod로의 트래픽을 허용하는 정책을 구성할 수 있습니다.
cluster-admin 역할로 사용자로 로그인하는 경우 클러스터의 모든 네임스페이스에서 네트워크 정책을 생성할 수 있습니다.
다음 절차에 따라 공용 인터넷에서 직접 또는 Load Balancer를 사용하여 포드에 액세스할 수 있는 정책을 구성합니다. 트래픽은 app=web 레이블이 있는 Pod에만 허용됩니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
admin권한이 있는 사용자로 클러스터에 로그인합니다. - 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
절차
공용 인터넷에서 직접 또는 로드 밸런서를 사용하여 포드에 액세스하는 방식으로 트래픽을 허용하는 정책을 생성합니다.
web-allow-external.yaml파일에 YAML을 저장합니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: web-allow-external namespace: default spec: policyTypes: - Ingress podSelector: matchLabels: app: web ingress: - {}다음 명령을 입력하여 정책을 적용합니다.
$ oc apply -f web-allow-external.yaml
출력 예
networkpolicy.networking.k8s.io/web-allow-external created
이 정책은 다음 다이어그램에 설명된 대로 외부 트래픽을 포함하여 모든 리소스의 트래픽을 허용합니다.

22.2.5. 모든 네임스페이스에서 애플리케이션으로의 트래픽 허용 네트워크 정책 생성
cluster-admin 역할로 사용자로 로그인하는 경우 클러스터의 모든 네임스페이스에서 네트워크 정책을 생성할 수 있습니다.
다음 절차에 따라 모든 네임스페이스의 모든 Pod에서 특정 애플리케이션으로의 트래픽을 허용하는 정책을 구성합니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
admin권한이 있는 사용자로 클러스터에 로그인합니다. - 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
절차
모든 네임스페이스의 모든 포드에서 특정 애플리케이션으로 트래픽을 허용하는 정책을 생성합니다. YAML을
web-allow-all-namespaces.yaml파일에 저장합니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: web-allow-all-namespaces namespace: default spec: podSelector: matchLabels: app: web 1 policyTypes: - Ingress ingress: - from: - namespaceSelector: {} 2참고기본적으로
namespaceSelector를 지정하지 않으면 정책이 네트워크 정책이 배포된 네임스페이스에서만 트래픽을 허용하는 네임스페이스를 선택하지 않습니다.다음 명령을 입력하여 정책을 적용합니다.
$ oc apply -f web-allow-all-namespaces.yaml
출력 예
networkpolicy.networking.k8s.io/web-allow-all-namespaces created
검증
다음 명령을 입력하여
default네임스페이스에서 웹 서비스를 시작합니다.$ oc run web --namespace=default --image=nginx --labels="app=web" --expose --port=80
다음 명령을 실행하여
보조네임스페이스에alpine이미지를 배포하고 쉘을 시작합니다.$ oc run test-$RANDOM --namespace=secondary --rm -i -t --image=alpine -- sh
쉘에서 다음 명령을 실행하고 요청이 허용되는지 확인합니다.
# wget -qO- --timeout=2 http://web.default
예상 출력
<!DOCTYPE html> <html> <head> <title>Welcome to nginx!</title> <style> html { color-scheme: light dark; } body { width: 35em; margin: 0 auto; font-family: Tahoma, Verdana, Arial, sans-serif; } </style> </head> <body> <h1>Welcome to nginx!</h1> <p>If you see this page, the nginx web server is successfully installed and working. Further configuration is required.</p> <p>For online documentation and support please refer to <a href="http://nginx.org/">nginx.org</a>.<br/> Commercial support is available at <a href="http://nginx.com/">nginx.com</a>.</p> <p><em>Thank you for using nginx.</em></p> </body> </html>
22.2.6. 네임스페이스에서 애플리케이션으로의 트래픽을 허용하는 네트워크 정책 생성
cluster-admin 역할로 사용자로 로그인하는 경우 클러스터의 모든 네임스페이스에서 네트워크 정책을 생성할 수 있습니다.
다음 절차에 따라 특정 네임스페이스에서 app=web 레이블이 있는 Pod로의 트래픽을 허용하는 정책을 구성합니다. 다음을 수행할 수 있습니다.
- 프로덕션 워크로드가 배포된 네임스페이스로만 트래픽을 제한합니다.
- 특정 네임스페이스에 배포된 모니터링 툴을 활성화하여 현재 네임스페이스에서 지표를 스크랩할 수 있습니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
admin권한이 있는 사용자로 클러스터에 로그인합니다. - 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
절차
purpose=production레이블이 있는 특정 네임스페이스의 모든 Pod의 트래픽을 허용하는 정책을 생성합니다. YAML을web-allow-prod.yaml파일에 저장합니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: web-allow-prod namespace: default spec: podSelector: matchLabels: app: web 1 policyTypes: - Ingress ingress: - from: - namespaceSelector: matchLabels: purpose: production 2다음 명령을 입력하여 정책을 적용합니다.
$ oc apply -f web-allow-prod.yaml
출력 예
networkpolicy.networking.k8s.io/web-allow-prod created
검증
다음 명령을 입력하여
default네임스페이스에서 웹 서비스를 시작합니다.$ oc run web --namespace=default --image=nginx --labels="app=web" --expose --port=80
다음 명령을 실행하여
prod네임스페이스를 생성합니다.$ oc create namespace prod
다음 명령을 실행하여
prod네임스페이스에 레이블을 지정합니다.$ oc label namespace/prod purpose=production
다음 명령을 실행하여
dev네임스페이스를 생성합니다.$ oc create namespace dev
다음 명령을 실행하여
dev네임스페이스에 레이블을 지정합니다.$ oc label namespace/dev purpose=testing
다음 명령을 실행하여
dev네임스페이스에alpine이미지를 배포하고 쉘을 시작합니다.$ oc run test-$RANDOM --namespace=dev --rm -i -t --image=alpine -- sh
쉘에서 다음 명령을 실행하고 요청이 차단되었는지 확인합니다.
# wget -qO- --timeout=2 http://web.default
예상 출력
wget: download timed out
다음 명령을 실행하여
prod네임스페이스에alpine이미지를 배포하고 쉘을 시작합니다.$ oc run test-$RANDOM --namespace=prod --rm -i -t --image=alpine -- sh
쉘에서 다음 명령을 실행하고 요청이 허용되는지 확인합니다.
# wget -qO- --timeout=2 http://web.default
예상 출력
<!DOCTYPE html> <html> <head> <title>Welcome to nginx!</title> <style> html { color-scheme: light dark; } body { width: 35em; margin: 0 auto; font-family: Tahoma, Verdana, Arial, sans-serif; } </style> </head> <body> <h1>Welcome to nginx!</h1> <p>If you see this page, the nginx web server is successfully installed and working. Further configuration is required.</p> <p>For online documentation and support please refer to <a href="http://nginx.org/">nginx.org</a>.<br/> Commercial support is available at <a href="http://nginx.com/">nginx.com</a>.</p> <p><em>Thank you for using nginx.</em></p> </body> </html>
22.2.7. 추가 리소스
22.3. 네트워크 정책 보기
admin 역할이 있는 사용자는 네임스페이스에 대한 네트워크 정책을 볼 수 있습니다.
22.3.1. NetworkPolicy 오브젝트 예
다음은 예제 NetworkPolicy 오브젝트에 대한 주석입니다.
kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: allow-27107 1 spec: podSelector: 2 matchLabels: app: mongodb ingress: - from: - podSelector: 3 matchLabels: app: app ports: 4 - protocol: TCP port: 27017
22.3.2. CLI를 사용하여 네트워크 정책 보기
네임스페이스에서 네트워크 정책을 검사할 수 있습니다.
cluster-admin 역할을 가진 사용자로 로그인하면 클러스터의 모든 네트워크 정책을 볼 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
admin권한이 있는 사용자로 클러스터에 로그인합니다. - 네트워크 정책이 존재하는 네임스페이스에서 작업하고 있습니다.
절차
네임스페이스의 네트워크 정책을 나열합니다.
네임스페이스에 정의된 네트워크 정책 개체를 보려면 다음 명령을 입력합니다.
$ oc get networkpolicy
선택 사항: 특정 네트워크 정책을 검사하려면 다음 명령을 입력합니다.
$ oc describe networkpolicy <policy_name> -n <namespace>
다음과 같습니다.
<policy_name>- 검사할 네트워크 정책의 이름을 지정합니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
예를 들면 다음과 같습니다.
$ oc describe networkpolicy allow-same-namespace
oc describe명령의 출력Name: allow-same-namespace Namespace: ns1 Created on: 2021-05-24 22:28:56 -0400 EDT Labels: <none> Annotations: <none> Spec: PodSelector: <none> (Allowing the specific traffic to all pods in this namespace) Allowing ingress traffic: To Port: <any> (traffic allowed to all ports) From: PodSelector: <none> Not affecting egress traffic Policy Types: Ingress
cluster-admin 권한으로 웹 콘솔에 로그인하면 클러스터의 모든 네임스페이스에서 네트워크 정책을 YAML에서 직접 또는 웹 콘솔의 양식에서 볼 수 있습니다.
22.4. 네트워크 정책 편집
관리자 역할이 있는 사용자는 네임스페이스에 대한 기존 네트워크 정책을 편집할 수 있습니다.
22.4.1. 네트워크 정책 편집
네임스페이스에서 네트워크 정책을 편집할 수 있습니다.
cluster-admin 역할을 가진 사용자로 로그인하면 클러스터의 모든 네임스페이스에서 네트워크 정책을 편집할 수 있습니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
admin권한이 있는 사용자로 클러스터에 로그인합니다. - 네트워크 정책이 존재하는 네임스페이스에서 작업하고 있습니다.
절차
선택 사항: 네임스페이스의 네트워크 정책 개체를 나열하려면 다음 명령을 입력합니다.
$ oc get networkpolicy
다음과 같습니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
네트워크 정책 오브젝트를 편집합니다.
네트워크 정책 정의를 파일에 저장한 경우 파일을 편집하고 필요한 사항을 변경한 후 다음 명령을 입력합니다.
$ oc apply -n <namespace> -f <policy_file>.yaml
다음과 같습니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
<policy_file>- 네트워크 정책이 포함된 파일의 이름을 지정합니다.
네트워크 정책 개체를 직접 업데이트해야 하는 경우 다음 명령을 입력합니다.
$ oc edit networkpolicy <policy_name> -n <namespace>
다음과 같습니다.
<policy_name>- 네트워크 정책의 이름을 지정합니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
네트워크 정책 개체가 업데이트되었는지 확인합니다.
$ oc describe networkpolicy <policy_name> -n <namespace>
다음과 같습니다.
<policy_name>- 네트워크 정책의 이름을 지정합니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
cluster-admin 권한으로 웹 콘솔에 로그인하면 YAML의 모든 네임스페이스에서 또는 Actions 메뉴를 통해 웹 콘솔의 정책에서 직접 네트워크 정책을 편집할 수 있습니다.
22.4.2. NetworkPolicy 오브젝트 예
다음은 예제 NetworkPolicy 오브젝트에 대한 주석입니다.
kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: allow-27107 1 spec: podSelector: 2 matchLabels: app: mongodb ingress: - from: - podSelector: 3 matchLabels: app: app ports: 4 - protocol: TCP port: 27017
22.4.3. 추가 리소스
22.5. 네트워크 정책 삭제
admin 역할이 있는 사용자는 네임스페이스에서 네트워크 정책을 삭제할 수 있습니다.
22.5.1. CLI를 사용하여 네트워크 정책 삭제
네임스페이스에서 네트워크 정책을 삭제할 수 있습니다.
cluster-admin 역할을 가진 사용자로 로그인하면 클러스터의 모든 네트워크 정책을 삭제할 수 있습니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
admin권한이 있는 사용자로 클러스터에 로그인합니다. - 네트워크 정책이 존재하는 네임스페이스에서 작업하고 있습니다.
절차
네트워크 정책 개체를 삭제하려면 다음 명령을 입력합니다.
$ oc delete networkpolicy <policy_name> -n <namespace>
다음과 같습니다.
<policy_name>- 네트워크 정책의 이름을 지정합니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
출력 예
networkpolicy.networking.k8s.io/default-deny deleted
cluster-admin 권한으로 웹 콘솔에 로그인하는 경우 YAML의 모든 네임스페이스에서 또는 Actions 메뉴를 통해 웹 콘솔의 정책에서 직접 네트워크 정책을 삭제할 수 있습니다.
22.6. 프로젝트의 기본 네트워크 정책 정의
클러스터 관리자는 새 프로젝트를 만들 때 네트워크 정책을 자동으로 포함하도록 새 프로젝트 템플릿을 수정할 수 있습니다. 새 프로젝트에 대한 사용자 정의 템플릿이 아직 없는 경우에는 우선 생성해야 합니다.
22.6.1. 새 프로젝트의 템플릿 수정
클러스터 관리자는 사용자 정의 요구 사항을 사용하여 새 프로젝트를 생성하도록 기본 프로젝트 템플릿을 수정할 수 있습니다.
사용자 정의 프로젝트 템플릿을 만들려면:
절차
-
cluster-admin권한이 있는 사용자로 로그인합니다. 기본 프로젝트 템플릿을 생성합니다.
$ oc adm create-bootstrap-project-template -o yaml > template.yaml
-
텍스트 편집기를 사용하여 오브젝트를 추가하거나 기존 오브젝트를 수정하여 생성된
template.yaml파일을 수정합니다. 프로젝트 템플릿은
openshift-config네임스페이스에서 생성해야 합니다. 수정된 템플릿을 불러옵니다.$ oc create -f template.yaml -n openshift-config
웹 콘솔 또는 CLI를 사용하여 프로젝트 구성 리소스를 편집합니다.
웹 콘솔에 액세스:
- 관리 → 클러스터 설정으로 이동합니다.
- Configuration 을 클릭하여 모든 구성 리소스를 확인합니다.
- 프로젝트 항목을 찾아 YAML 편집을 클릭합니다.
CLI 사용:
다음과 같이
project.config.openshift.io/cluster리소스를 편집합니다.$ oc edit project.config.openshift.io/cluster
projectRequestTemplate및name매개변수를 포함하도록spec섹션을 업데이트하고 업로드된 프로젝트 템플릿의 이름을 설정합니다. 기본 이름은project-request입니다.사용자 정의 프로젝트 템플릿이 포함된 프로젝트 구성 리소스
apiVersion: config.openshift.io/v1 kind: Project metadata: ... spec: projectRequestTemplate: name: <template_name>- 변경 사항을 저장한 후 새 프로젝트를 생성하여 변경 사항이 성공적으로 적용되었는지 확인합니다.
22.6.2. 새 프로젝트 템플릿에 네트워크 정책 추가
클러스터 관리자는 네트워크 정책을 새 프로젝트의 기본 템플릿에 추가할 수 있습니다. OpenShift Container Platform은 프로젝트의 템플릿에 지정된 모든 NetworkPolicy 개체를 자동으로 생성합니다.
사전 요구 사항
-
클러스터는
NetworkPolicy오브젝트를 지원하는 기본 CNI 네트워크 공급자(예:mode: NetworkPolicy로 설정된 OpenShift SDN 네트워크 공급자)를 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다. -
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인해야 합니다. - 새 프로젝트에 대한 사용자 정의 기본 프로젝트 템플릿을 생성해야 합니다.
절차
다음 명령을 실행하여 새 프로젝트의 기본 템플릿을 편집합니다.
$ oc edit template <project_template> -n openshift-config
<project_template>을 클러스터에 대해 구성한 기본 템플릿의 이름으로 변경합니다. 기본 템플릿 이름은project-request입니다.템플릿에서 각
NetworkPolicy오브젝트를objects매개변수의 요소로 추가합니다.objects매개변수는 하나 이상의 오브젝트 컬렉션을 허용합니다.다음 예제에서
objects매개변수 컬렉션에는 여러NetworkPolicy오브젝트가 포함됩니다.objects: - apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: allow-from-same-namespace spec: podSelector: {} ingress: - from: - podSelector: {} - apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: allow-from-openshift-ingress spec: ingress: - from: - namespaceSelector: matchLabels: network.openshift.io/policy-group: ingress podSelector: {} policyTypes: - Ingress - apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: allow-from-kube-apiserver-operator spec: ingress: - from: - namespaceSelector: matchLabels: kubernetes.io/metadata.name: openshift-kube-apiserver-operator podSelector: matchLabels: app: kube-apiserver-operator policyTypes: - Ingress ...선택 사항: 다음 명령을 실행하여 새 프로젝트를 생성하고 네트워크 정책 오브젝트가 생성되었는지 확인합니다.
새 프로젝트를 생성합니다.
$ oc new-project <project> 1- 1
<project>를 생성중인 프로젝트의 이름으로 변경합니다.
새 프로젝트 템플릿의 네트워크 정책 오브젝트가 새 프로젝트에 있는지 확인합니다.
$ oc get networkpolicy NAME POD-SELECTOR AGE allow-from-openshift-ingress <none> 7s allow-from-same-namespace <none> 7s
22.7. 네트워크 정책으로 다중 테넌트 격리 구성
클러스터 관리자는 다중 테넌트 네트워크 격리를 제공하도록 네트워크 정책을 구성할 수 있습니다.
OpenShift SDN 네트워크 플러그인을 사용하는 경우 이 섹션에서 설명하는 네트워크 정책을 구성하면 다중 테넌트 모드와 유사하지만 네트워크 정책 모드가 설정됩니다.
22.7.1. 네트워크 정책을 사용하여 다중 테넌트 격리 구성
다른 프로젝트 네임스페이스의 Pod 및 서비스에서 격리하도록 프로젝트를 구성할 수 있습니다.
사전 요구 사항
-
클러스터는
NetworkPolicy오브젝트를 지원하는 네트워크 플러그인을 사용합니다(예:mode: NetworkPolicy로 설정된 OpenShift SDN 네트워크 공급자). 이 모드는 OpenShift SDN의 기본값입니다. -
OpenShift CLI(
oc)를 설치합니다. -
admin권한이 있는 사용자로 클러스터에 로그인합니다.
절차
다음
NetworkPolicy오브젝트를 생성합니다.이름이
allow-from-openshift-ingress인 정책입니다.$ cat << EOF| oc create -f - apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: allow-from-openshift-ingress spec: ingress: - from: - namespaceSelector: matchLabels: policy-group.network.openshift.io/ingress: "" podSelector: {} policyTypes: - Ingress EOF참고policy-group.network.openshift.io/ingress: ""는 OpenShift SDN의 기본 네임스페이스 선택기 레이블입니다.network.openshift.io/policy-group: ingress네임스페이스 선택기 레이블을 사용할 수 있지만 이는 레거시 레이블입니다.이름이
allow-from-openshift-monitoring인 정책:$ cat << EOF| oc create -f - apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: allow-from-openshift-monitoring spec: ingress: - from: - namespaceSelector: matchLabels: network.openshift.io/policy-group: monitoring podSelector: {} policyTypes: - Ingress EOF이름이
allow-same-namespace인 정책:$ cat << EOF| oc create -f - kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: allow-same-namespace spec: podSelector: ingress: - from: - podSelector: {} EOF이름이
allow-from-kube-apiserver-operator인 정책:$ cat << EOF| oc create -f - apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: allow-from-kube-apiserver-operator spec: ingress: - from: - namespaceSelector: matchLabels: kubernetes.io/metadata.name: openshift-kube-apiserver-operator podSelector: matchLabels: app: kube-apiserver-operator policyTypes: - Ingress EOF자세한 내용은 웹 후크 의 상태를 검증하는 새로운
kube-apiserver-operator웹 후크 컨트롤러 를 참조하십시오.
선택 사항: 현재 프로젝트에 네트워크 정책이 있는지 확인하려면 다음 명령을 입력합니다.
$ oc describe networkpolicy
출력 예
Name: allow-from-openshift-ingress Namespace: example1 Created on: 2020-06-09 00:28:17 -0400 EDT Labels: <none> Annotations: <none> Spec: PodSelector: <none> (Allowing the specific traffic to all pods in this namespace) Allowing ingress traffic: To Port: <any> (traffic allowed to all ports) From: NamespaceSelector: network.openshift.io/policy-group: ingress Not affecting egress traffic Policy Types: Ingress Name: allow-from-openshift-monitoring Namespace: example1 Created on: 2020-06-09 00:29:57 -0400 EDT Labels: <none> Annotations: <none> Spec: PodSelector: <none> (Allowing the specific traffic to all pods in this namespace) Allowing ingress traffic: To Port: <any> (traffic allowed to all ports) From: NamespaceSelector: network.openshift.io/policy-group: monitoring Not affecting egress traffic Policy Types: Ingress
22.7.2. 다음 단계
22.7.3. 추가 리소스
23장. AWS Load Balancer Operator
23.1. AWS Load Balancer Operator 릴리스 정보
AWS Load Balancer(ALB) Operator는 AWSLoadBalancerController 리소스의 인스턴스를 배포하고 관리합니다.
이 릴리스 노트는 OpenShift Container Platform에서 AWS Load Balancer Operator의 개발을 추적합니다.
AWS Load Balancer Operator에 대한 개요는 OpenShift Container Platform의 AWS Load Balancer Operator 를 참조하십시오.
23.1.1. AWS Load Balancer Operator 1.0.0
이제 이 릴리스에서 AWS Load Balancer Operator를 일반적으로 사용할 수 있습니다. AWS Load Balancer Operator 버전 1.0.0은 AWS Load Balancer 컨트롤러 버전 2.4.4를 지원합니다.
AWS Load Balancer Operator 버전 1.0.0에는 다음 권고를 사용할 수 있습니다.
23.1.1.1. 주요 변경 사항
-
이 릴리스에서는 새로운
v1API 버전을 사용합니다.
23.1.1.2. 버그 수정
- 이전에는 AWS Load Balancer Operator에서 프로비저닝한 컨트롤러가 클러스터 전체 프록시에 구성을 제대로 사용하지 않았습니다. 이제 이러한 설정이 컨트롤러에 적절하게 적용됩니다. (OCPBUGS-4052, OCPBUGS-5295)
23.1.2. 이전 버전
AWS Load Balancer Operator의 첫 번째 두 버전은 기술 프리뷰로 사용할 수 있습니다. 이러한 버전은 프로덕션 클러스터에서 사용해서는 안 됩니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
AWS Load Balancer Operator 버전 0.2.0에는 다음 권고를 사용할 수 있습니다.
AWS Load Balancer Operator 버전 0.0.1에서 다음 권고를 사용할 수 있습니다.
23.2. OpenShift Container Platform의 AWS Load Balancer Operator
AWS Load Balancer(ALB) Operator는 aws-load-balancer-controller 의 인스턴스를 배포하고 관리합니다. OpenShift Container Platform 웹 콘솔 또는 CLI를 사용하여 OperatorHub에서 ALB Operator를 설치할 수 있습니다.
23.2.1. AWS Load Balancer Operator 고려 사항
AWS Load Balancer Operator를 설치하고 사용하기 전에 다음 제한 사항을 검토하십시오.
- IP 트래픽 모드는 AWS Elastic Kubernetes Service(EKS)에서만 작동합니다. AWS Load Balancer Operator는 AWS Load Balancer Controller의 IP 트래픽 모드를 비활성화합니다. IP 트래픽 모드를 비활성화하면 AWS Load Balancer 컨트롤러에서 Pod 준비 게이트를 사용할 수 없습니다.
-
AWS Load Balancer Operator는 --disable-ingress-
class-annotation 및과 같은 명령줄 플래그를 AWS Load Balancer 컨트롤러에 추가합니다. 따라서 AWS Load Balancer Operator는--disable-ingress-group-name-annotationIngress리소스의kubernetes.io/ingress.class및alb.ingress.kubernetes.io/group.name주석을 사용할 수 없습니다.
23.2.2. AWS Load Balancer Operator
kubernetes.io/role/elb 태그가 누락된 경우 AWS Load Balancer Operator는 퍼블릭 서브넷에 태그를 지정할 수 있습니다. 또한 AWS Load Balancer Operator는 기본 AWS 클라우드에서 다음을 탐지합니다.
- Operator를 호스팅하는 클러스터가 배포되는 VPC(가상 프라이빗 클라우드)의 ID입니다.
- 검색된 VPC의 퍼블릭 및 프라이빗 서브넷.
AWS Load Balancer Operator는 인스턴스 대상 유형에서만 NLB(Network Load Balancer)를 사용하여 LoadBalancer 유형의 Kubernetes 서비스 리소스를 지원합니다.
사전 요구 사항
- AWS 인증 정보 시크릿이 있어야 합니다. 인증 정보는 서브넷 태그 및 VPC 검색을 제공하는 데 사용됩니다.
절차
Subscription오브젝트를 생성하여 OperatorHub에서 필요에 따라 AWS Load Balancer Operator를 배포할 수 있습니다.$ oc -n aws-load-balancer-operator get sub aws-load-balancer-operator --template='{{.status.installplan.name}}{{"\n"}}'출력 예
install-zlfbt
설치 계획의 상태를 확인합니다. 설치 계획의 상태는
Complete여야 합니다.$ oc -n aws-load-balancer-operator get ip <install_plan_name> --template='{{.status.phase}}{{"\n"}}'출력 예
Complete
oc get명령을 사용하여배포상태를 확인합니다.$ oc get -n aws-load-balancer-operator deployment/aws-load-balancer-operator-controller-manager
출력 예
NAME READY UP-TO-DATE AVAILABLE AGE aws-load-balancer-operator-controller-manager 1/1 1 1 23h
23.2.3. AWS Load Balancer Operator 로그
oc logs 명령을 사용하여 AWS Load Balancer Operator 로그를 확인합니다.
절차
AWS Load Balancer Operator의 로그를 확인합니다.
$ oc logs -n aws-load-balancer-operator deployment/aws-load-balancer-operator-controller-manager -c manager
23.3. AWS Load Balancer Operator 이해
AWS Load Balancer(ALB) Operator는 aws-load-balancer-controller 리소스의 인스턴스를 배포하고 관리합니다. OpenShift Container Platform 웹 콘솔 또는 CLI를 사용하여 OperatorHub에서 AWS Load Balancer Operator를 설치할 수 있습니다.
23.3.1. AWS Load Balancer Operator 설치
OpenShift Container Platform 웹 콘솔을 사용하여 OperatorHub에서 AWS Load Balancer Operator를 설치할 수 있습니다.
사전 요구 사항
-
cluster-admin권한이 있는 사용자로 OpenShift Container Platform 웹 콘솔에 로그인했습니다. - 클러스터는 플랫폼 유형 및 클라우드 공급자로 AWS로 구성되어 있습니다.
절차
- OpenShift Container Platform 웹 콘솔에서 Operators → OperatorHub 로 이동합니다.
- AWS Load Balancer Operator 를 선택합니다. 키워드로 필터링 텍스트 상자를 사용하거나 필터 목록을 사용하여 Operator 목록에서 AWS Load Balancer Operator를 검색할 수 있습니다.
-
aws-load-balancer-operator네임스페이스를 선택합니다. - 설치를 위해 Operator를 준비하려면 지침을 따르십시오.
- AWS Load Balancer Operator 페이지에서 설치를 클릭합니다.
Operator 설치 페이지에서 다음 옵션을 선택합니다.
- 채널을 stable-v1 로 업데이트합니다.
- 클러스터의 특정 네임스페이스로 설치 모드 입니다.
-
네임스페이스 를
aws-load-balancer-operator로 설치했습니다.aws-load-balancer-operator네임스페이스가 없으면 Operator 설치 중에 생성됩니다. - 자동 또는 수동으로 업데이트 승인을 선택합니다. 기본적으로 업데이트 승인 은 자동 로 설정됩니다. 자동 업데이트를 선택하면 OLM(Operator Lifecycle Manager)에서 개입 없이 Operator의 실행 중인 인스턴스를 자동으로 업그레이드합니다. 수동 업데이트를 선택하면 OLM에서 업데이트 요청을 생성합니다. 클러스터 관리자는 Operator를 새 버전으로 업데이트하려면 해당 업데이트 요청을 수동으로 승인해야 합니다.
- 설치를 클릭합니다.
검증
- AWS Load Balancer Operator가 설치된 Operator 대시보드에 Succeeded 로 표시되는지 확인합니다.
23.4. 보안 토큰 서비스 클러스터에 AWS Load Balancer Operator 설치
STS(Security Token Service) 클러스터에 AWS Load Balancer Operator를 설치할 수 있습니다.
AWS Load Balancer Operator는 CredentialsRequest 를 사용하여 Operator 및 각 AWSLoadBalancerController 인스턴스를 부트스트랩합니다. AWS Load Balancer Operator는 필요한 시크릿이 생성되고 사용 가능할 때까지 기다립니다. Cloud Credential Operator는 STS 클러스터에서 자동으로 시크릿을 프로비저닝하지 않습니다. ccoctl 바이너리를 사용하여 인증 정보 시크릿을 수동으로 설정해야 합니다.
Cloud Credential Operator를 사용하여 인증 정보 시크릿을 프로비저닝하지 않으려면 AWS load Balancer Controller CR(사용자 정의 리소스)에 인증 정보 시크릿을 지정하여 STS 클러스터에서 AWSLoadBalancerController 인스턴스를 구성할 수 있습니다.
23.4.1. 보안 토큰 서비스 클러스터에서 AWS Load Balancer Operator 부트스트랩
사전 요구 사항
-
ccoctl바이너리를 추출하고 준비해야 합니다.
절차
다음 명령을 실행하여
aws-load-balancer-operator네임스페이스를 생성합니다.$ oc create namespace aws-load-balancer-operator
AWS Load Balancer Operator의
CredentialsRequestCR(사용자 정의 리소스)을 다운로드하고 다음 명령을 실행하여 저장할 디렉터리를 생성합니다.$ curl --create-dirs -o <path-to-credrequests-dir>/cr.yaml https://raw.githubusercontent.com/openshift/aws-load-balancer-operator/main/hack/operator-credentials-request.yaml
ccoctl툴을 사용하여 다음 명령을 실행하여 AWS Load Balancer Operator의CredentialsRequest오브젝트를 처리합니다.$ ccoctl aws create-iam-roles \ --name <name> --region=<aws_region> \ --credentials-requests-dir=<path-to-credrequests-dir> \ --identity-provider-arn <oidc-arn>다음 명령을 실행하여 클러스터의 매니페스트 디렉터리에 생성된 보안을 적용합니다.
$ ls manifests/*-credentials.yaml | xargs -I{} oc apply -f {}다음 명령을 실행하여 AWS Load Balancer Operator의 인증 정보 시크릿이 생성되었는지 확인합니다.
$ oc -n aws-load-balancer-operator get secret aws-load-balancer-operator --template='{{index .data "credentials"}}' | base64 -d출력 예
[default] sts_regional_endpoints = regional role_arn = arn:aws:iam::999999999999:role/aws-load-balancer-operator-aws-load-balancer-operator web_identity_token_file = /var/run/secrets/openshift/serviceaccount/token
23.4.2. 관리되는 CredentialsRequest 오브젝트를 사용하여 보안 토큰 서비스 클러스터에서 AWS Load Balancer Operator 구성
사전 요구 사항
-
ccoctl바이너리를 추출하고 준비해야 합니다.
절차
AWS Load Balancer Operator는 각
AWSLoadBalancerController사용자 정의 리소스(CR)의openshift-cloud-credential-operator네임스페이스에CredentialsRequest오브젝트를 생성합니다. 다음 명령을 실행하여 생성된CredentialsRequest오브젝트를 디렉터리에 추출 및 저장할 수 있습니다.$ oc get credentialsrequest -n openshift-cloud-credential-operator \ aws-load-balancer-controller-<cr-name> -o yaml > <path-to-credrequests-dir>/cr.yaml 1- 1
aws-load-balancer-controller-<cr-name> 매개변수는 AWS Load Balancer Operator가 생성한 인증 정보 요청 이름을 지정합니다.cr-name은 AWS Load Balancer Controller 인스턴스의 이름을 지정합니다.
ccoctl도구를 사용하여 다음 명령을 실행하여credrequests디렉터리의 모든CredentialsRequest오브젝트를 처리합니다.$ ccoctl aws create-iam-roles \ --name <name> --region=<aws_region> \ --credentials-requests-dir=<path-to-credrequests-dir> \ --identity-provider-arn <oidc-arn>다음 명령을 실행하여 매니페스트 디렉터리에 생성된 보안을 클러스터에 적용합니다.
$ ls manifests/*-credentials.yaml | xargs -I{} oc apply -f {}aws-load-balancer-controllerPod가 생성되었는지 확인합니다.$ oc -n aws-load-balancer-operator get pods NAME READY STATUS RESTARTS AGE aws-load-balancer-controller-cluster-9b766d6-gg82c 1/1 Running 0 137m aws-load-balancer-operator-controller-manager-b55ff68cc-85jzg 2/2 Running 0 3h26m
23.4.3. 특정 인증 정보를 사용하여 보안 토큰 서비스 클러스터에서 AWS Load Balancer Operator 구성
AWS Load Balancer Controller CR(사용자 정의 리소스)에서 spec.credentials 필드를 사용하여 인증 정보 시크릿을 지정할 수 있습니다. 컨트롤러의 사전 정의된 CredentialsRequest 오브젝트를 사용하여 필요한 역할을 확인할 수 있습니다.
사전 요구 사항
-
ccoctl바이너리를 추출하고 준비해야 합니다.
절차
AWS Load Balancer 컨트롤러의 CredentialsRequest CR(사용자 정의 리소스)을 다운로드하고 다음 명령을 실행하여 저장할 디렉터리를 생성합니다.
$ curl --create-dirs -o <path-to-credrequests-dir>/cr.yaml https://raw.githubusercontent.com/openshift/aws-load-balancer-operator/main/hack/controller/controller-credentials-request.yaml
ccoctl도구를 사용하여 컨트롤러의CredentialsRequest오브젝트를 처리합니다.$ ccoctl aws create-iam-roles \ --name <name> --region=<aws_region> \ --credentials-requests-dir=<path-to-credrequests-dir> \ --identity-provider-arn <oidc-arn>클러스터에 시크릿을 적용합니다.
$ ls manifests/*-credentials.yaml | xargs -I{} oc apply -f {}컨트롤러에서 사용할 인증 정보 시크릿이 생성되었는지 확인합니다.
$ oc -n aws-load-balancer-operator get secret aws-load-balancer-controller-manual-cluster --template='{{index .data "credentials"}}' | base64 -d출력 예
[default] sts_regional_endpoints = regional role_arn = arn:aws:iam::999999999999:role/aws-load-balancer-operator-aws-load-balancer-controller web_identity_token_file = /var/run/secrets/openshift/serviceaccount/token다음과 같이
AWSLoadBalancerController리소스 YAML 파일 (예:sample-aws-lb-lb-ECDHE-creds.yaml)을 만듭니다.apiVersion: networking.olm.openshift.io/v1 kind: AWSLoadBalancerController 1 metadata: name: cluster 2 spec: credentials: name: <secret-name> 3
23.4.4. 추가 리소스
23.5. AWS Load Balancer 컨트롤러 인스턴스 생성
Operator를 설치한 후 AWS Load Balancer 컨트롤러의 인스턴스를 생성할 수 있습니다.
23.5.1. AWS Load Balancer Operator를 사용하여 AWS Load Balancer 컨트롤러 인스턴스 생성
클러스터에 aws-load-balancer-controller 의 단일 인스턴스만 설치할 수 있습니다. CLI를 사용하여 AWS Load Balancer 컨트롤러를 생성할 수 있습니다. AWS Load Balancer(ALB) Operator는 클러스터 이름으로만 리소스를 조정합니다.
사전 요구 사항
-
echoserver네임스페이스를 생성했습니다. -
OpenShift CLI(
oc)에 액세스할 수 있습니다.
프로세스
다음과 같이
aws-load-balancer-controller리소스 YAML 파일(예:sample-aws-lb.yaml)을 생성합니다.apiVersion: networking.olm.openshift.io/v1 kind: AWSLoadBalancerController 1 metadata: name: cluster 2 spec: subnetTagging: Auto 3 additionalResourceTags: 4 - key: example.org/security-scope value: staging ingressClass: cloud 5 config: replicas: 2 6 enabledAddons: 7 - AWSWAFv2 8
- 1
aws-load-balancer-controller리소스를 정의합니다.- 2
- AWS Load Balancer 컨트롤러 인스턴스 이름을 정의합니다. 이 인스턴스 이름은 모든 관련 리소스에 접미사로 추가됩니다.
- 3
- 유효한 옵션은
Auto및Manual입니다. 값이Auto로 설정되면 Operator는 클러스터에 속하는 서브넷을 확인하고 적절하게 태그를 지정합니다. 내부 서브넷 태그가 내부 서브넷에 없으면 Operator에서 올바르게 역할을 결정할 수 없습니다. 사용자 제공 인프라에 클러스터를 설치한 경우 적절한 역할 태그를 사용하여 서브넷에 수동으로 태그를 지정하고 서브넷 태그 지정 정책을Manual로 설정할 수 있습니다. - 4
- 컨트롤러에서 AWS 리소스를 프로비저닝할 때 사용하는 태그를 정의합니다.
- 5
- 이 필드의 기본값은
lb입니다. Operator는 존재하지 않는 경우 동일한 이름으로IngressClass리소스를 프로비저닝합니다. - 6
- 컨트롤러의 복제본 수를 지정합니다.
- 7
- 주석을 통해 지정된 AWS 로드 밸런서에 대한 애드온을 지정합니다.
- 8
alb.ingress.kubernetes.io/wafv2-acl-arn주석을 활성화합니다.
다음 명령을 실행하여
aws-load-balancer-controller리소스를 생성합니다.$ oc create -f sample-aws-lb.yaml
AWS Load Balancer 컨트롤러가 실행된 후
배포리소스를 생성합니다.apiVersion: apps/v1 kind: Deployment 1 metadata: name: <echoserver> 2 namespace: echoserver spec: selector: matchLabels: app: echoserver replicas: 3 3 template: metadata: labels: app: echoserver spec: containers: - image: openshift/origin-node command: - "/bin/socat" args: - TCP4-LISTEN:8080,reuseaddr,fork - EXEC:'/bin/bash -c \"printf \\\"HTTP/1.0 200 OK\r\n\r\n\\\"; sed -e \\\"/^\r/q\\\"\"' imagePullPolicy: Always name: echoserver ports: - containerPort: 8080
서비스리소스를 생성합니다.apiVersion: v1 kind: Service 1 metadata: name: <echoserver> 2 namespace: echoserver spec: ports: - port: 80 targetPort: 8080 protocol: TCP type: NodePort selector: app: echoserver
ALB 지원
Ingress리소스를 배포합니다.apiVersion: networking.k8s.io/v1 kind: Ingress 1 metadata: name: <echoserver> 2 namespace: echoserver annotations: alb.ingress.kubernetes.io/scheme: internet-facing alb.ingress.kubernetes.io/target-type: instance spec: ingressClassName: alb rules: - http: paths: - path: / pathType: Exact backend: service: name: <echoserver> 3 port: number: 80
검증
다음 명령을 실행하여 프로비저닝된 AWS Load Balancer(ALB)의 호스트를 표시하는
Ingress리소스의 상태를 확인합니다.$ HOST=$(oc get ingress -n echoserver echoserver --template='{{(index .status.loadBalancer.ingress 0).hostname}}')다음 명령을 실행하여 프로비저닝된 AWS Load Balancer(ALB) 호스트의 상태를 확인합니다.
$ curl $HOST
23.6. 여러 인그레스 생성
단일 AWS Load Balancer(ALB)를 통해 단일 도메인에 속하는 다른 서비스로 트래픽을 라우팅할 수 있습니다. 각 Ingress 리소스는 도메인의 서로 다른 끝점을 제공합니다.
23.6.1. 단일 AWS Load Balancer를 통해 여러 수신 생성
CLI를 사용하여 단일 AWS Load Balancer(ALB)를 통해 트래픽을 여러 Ingress로 라우팅할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)에 액세스할 수 있습니다.
프로세스
다음과 같이
IngressClassParams리소스 YAML 파일 (예:sample-single-lb-params.yaml)을 생성합니다.apiVersion: elbv2.k8s.aws/v1beta1 1 kind: IngressClassParams metadata: name: single-lb-params 2 spec: group: name: single-lb 3
다음 명령을 실행하여
IngressClassParams리소스를 생성합니다.$ oc create -f sample-single-lb-params.yaml
다음과 같이
IngressClass리소스 YAML 파일을 생성합니다(예:sample-single-lb-class.yaml).apiVersion: networking.k8s.io/v1 1 kind: IngressClass metadata: name: single-lb 2 spec: controller: ingress.k8s.aws/alb 3 parameters: apiGroup: elbv2.k8s.aws 4 kind: IngressClassParams 5 name: single-lb-params 6
다음 명령을 실행하여
IngressClass리소스를 생성합니다.$ oc create -f sample-single-lb-class.yaml
다음과 같이
AWSLoadBalancerController리소스 YAML 파일을 생성합니다(예:sample-single-lb.yaml).apiVersion: networking.olm.openshift.io/v1 kind: AWSLoadBalancerController metadata: name: cluster spec: subnetTagging: Auto ingressClass: single-lb 1- 1
IngressClass리소스의 이름을 정의합니다.
다음 명령을 실행하여
AWSLoadBalancerController리소스를 생성합니다.$ oc create -f sample-single-lb.yaml
다음과 같이
Ingress리소스 YAML 파일(예:sample-multiple-ingress.yaml)을 생성합니다.apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: example-1 1 annotations: alb.ingress.kubernetes.io/scheme: internet-facing 2 alb.ingress.kubernetes.io/group.order: "1" 3 alb.ingress.kubernetes.io/target-type: instance 4 spec: ingressClassName: single-lb 5 rules: - host: example.com 6 http: paths: - path: /blog 7 pathType: Prefix backend: service: name: example-1 8 port: number: 80 9 --- apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: example-2 annotations: alb.ingress.kubernetes.io/scheme: internet-facing alb.ingress.kubernetes.io/group.order: "2" alb.ingress.kubernetes.io/target-type: instance spec: ingressClassName: single-lb rules: - host: example.com http: paths: - path: /store pathType: Prefix backend: service: name: example-2 port: number: 80 --- apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: example-3 annotations: alb.ingress.kubernetes.io/scheme: internet-facing alb.ingress.kubernetes.io/group.order: "3" alb.ingress.kubernetes.io/target-type: instance spec: ingressClassName: single-lb rules: - host: example.com http: paths: - path: / pathType: Prefix backend: service: name: example-3 port: number: 80
- 1
- 수신 이름을 지정합니다.
- 2
- 공용 서브넷에서 프로비저닝할 로드 밸런서를 나타내며 인터넷을 통해 액세스할 수 있도록 합니다.
- 3
- 로드 밸런서에서 요청을 수신할 때 Ingress의 규칙과 일치하는 순서를 지정합니다.
- 4
- 로드 밸런서가 OpenShift 노드를 대상으로 서비스에 도달함을 나타냅니다.
- 5
- 이 인그레스에 속하는 Ingress 클래스를 지정합니다.
- 6
- 요청 라우팅에 사용되는 도메인의 이름을 정의합니다.
- 7
- 서비스에 라우팅해야 하는 경로를 정의합니다.
- 8
- 인그레스에 구성된 엔드포인트를 제공하는 서비스의 이름을 정의합니다.
- 9
- 엔드포인트를 제공하는 서비스의 포트를 정의합니다.
다음 명령을 실행하여
Ingress리소스를 생성합니다.$ oc create -f sample-multiple-ingress.yaml
23.7. TLS 종료 추가
AWS Load Balancer에서 TLS 종료를 추가할 수 있습니다.
23.7.1. AWS Load Balancer에서 TLS 종료 추가
도메인의 트래픽을 서비스 Pod로 라우팅하고 AWS Load Balancer에서 TLS 종료를 추가할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)에 액세스할 수 있습니다.
프로세스
Operator를 설치하고
aws-load-balancer-controller리소스의 인스턴스를 생성합니다.apiVersion: networking.olm.openshift.io/v1 kind: AWSLoadBalancerController metadata: name: cluster spec: subnetTagging: Auto ingressClass: tls-termination 1- 1
- AWS Load Balancer 컨트롤러에서 조정하는
ingressClass리소스의 이름을 정의합니다. 이ingressClass리소스는 없는 경우 생성됩니다.ingressClass값을 더 추가할 수 있습니다.spec.controller가ingress.k8s.aws/alb로 설정된 경우 컨트롤러는ingressClass값을 조정합니다.
Ingress리소스를 생성합니다.apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: <example> 1 annotations: alb.ingress.kubernetes.io/scheme: internet-facing 2 alb.ingress.kubernetes.io/certificate-arn: arn:aws:acm:us-west-2:xxxxx 3 spec: ingressClassName: tls-termination 4 rules: - host: <example.com> 5 http: paths: - path: / pathType: Exact backend: service: name: <example-service> 6 port: number: 80
23.8. 클러스터 전체 프록시 구성
AWS Load Balancer Operator에서 클러스터 전체 프록시를 구성할 수 있습니다. AWS Load Balancer Operator에서 클러스터 전체 프록시를 구성한 후 OLM(Operator Lifecycle Manager)은 HTTP_PROXY,HTTPS_PROXY 및 NO_PROXY 와 같은 환경 변수를 사용하여 Operator의 모든 배포를 자동으로 업데이트합니다. 이러한 변수는 AWS Load Balancer Operator가 관리하는 컨트롤러로 채워집니다.
23.8.1. 클러스터 전체 프록시의 인증 기관을 신뢰하도록 AWS Load Balancer Operator 구성
aws-load-balancer-operator네임스페이스에 CA(인증 기관) 번들을 포함하도록 구성 맵을 생성하고 다음 명령을 실행하여 OpenShift Container Platform에서 신뢰하는 CA 번들을 구성 맵에 삽입합니다.$ oc -n aws-load-balancer-operator create configmap trusted-ca
신뢰할 수 있는 CA 번들을 구성 맵에 삽입하려면 다음 명령을 실행하여
config.openshift.io/inject-trusted-cabundle=true라벨을 구성 맵에 추가합니다.$ oc -n aws-load-balancer-operator label cm trusted-ca config.openshift.io/inject-trusted-cabundle=true
다음 명령을 실행하여 AWS Load Balancer Operator의 서브스크립션을 업데이트하여 AWS Load Balancer Operator 배포의 구성 맵에 액세스합니다.
$ oc -n aws-load-balancer-operator patch subscription aws-load-balancer-operator --type='merge' -p '{"spec":{"config":{"env":[{"name":"TRUSTED_CA_CONFIGMAP_NAME","value":"trusted-ca"}],"volumes":[{"name":"trusted-ca","configMap":{"name":"trusted-ca"}}],"volumeMounts":[{"name":"trusted-ca","mountPath":"/etc/pki/tls/certs/albo-tls-ca-bundle.crt","subPath":"ca-bundle.crt"}]}}}'AWS Load Balancer Operator 배포가 완료되면 다음 명령을 실행하여 CA 번들이
aws-load-balancer-operator-controller-manager배포에 추가되었는지 확인합니다.$ oc -n aws-load-balancer-operator exec deploy/aws-load-balancer-operator-controller-manager -c manager -- bash -c "ls -l /etc/pki/tls/certs/albo-tls-ca-bundle.crt; printenv TRUSTED_CA_CONFIGMAP_NAME"
출력 예
-rw-r--r--. 1 root 1000690000 5875 Jan 11 12:25 /etc/pki/tls/certs/albo-tls-ca-bundle.crt trusted-ca
선택 사항: 구성 맵이 변경될 때마다 다음 명령을 실행하여 AWS Load Balancer Operator를 다시 시작합니다.
$ oc -n aws-load-balancer-operator rollout restart deployment/aws-load-balancer-operator-controller-manager
23.8.2. 추가 리소스
24장. 다중 네트워크
24.1. 다중 네트워크 이해하기
Kubernetes에서 컨테이너 네트워킹은 CNI(컨테이너 네트워크 인터페이스)를 구현하는 네트워킹 플러그인에 위임됩니다.
OpenShift Container Platform은 Multus CNI 플러그인을 사용하여 CNI 플러그인 체인을 허용합니다. 클러스터 설치 중에 기본 pod 네트워크를 구성합니다. 기본 네트워크는 클러스터의 모든 일반 네트워크 트래픽을 처리합니다. 사용 가능한 CNI 플러그인을 기반으로 추가 네트워크를 정의하고 이러한 네트워크 중 하나 이상을 Pod에 연결할 수 있습니다. 필요에 따라 클러스터에 2개 이상의 추가 네트워크를 정의 할 수 있습니다. 따라서 스위칭 또는 라우팅과 같은 네트워크 기능을 제공하는 pod를 구성할 때 유연성이 제공됩니다.
24.1.1. 추가 네트워크 사용 시나리오
데이터 플레인 및 컨트롤 플레인 분리를 포함하여 네트워크 격리가 필요한 상황에서 추가 네트워크를 사용할 수 있습니다. 네트워크 트래픽 격리는 다음과 같은 성능 및 보안상의 이유로 유용합니다.
- 성능
- 각 플레인의 트래픽 수량을 관리하기 위해 두 개의 다른 플레인으로 트래픽을 보낼 수 있습니다.
- 보안
- 보안 고려 사항을 위해 특별히 관리되는 네트워크 플레인으로 중요한 트래픽을 보낼 수 있으며 테넌트 또는 고객 간에 공유되지 않아야 하는 개인 데이터를 분리할 수 있습니다.
클러스터의 모든 pod는 여전히 클러스터 전체의 기본 네트워크를 사용하여 클러스터 전체의 연결을 유지합니다. 모든 pod에는 클러스터 전체 pod 네트워크에 연결된 eth0 인터페이스가 있습니다. oc exec -it <pod_name> -- ip a 명령을 사용하여 pod의 인터페이스를 확인할 수 있습니다. Multus CNI를 사용하는 네트워크 인터페이스를 추가하는 경우 이름은 net1, net2, … , netN입니다.
Pod에 추가 네트워크 인터페이스를 연결하려면 인터페이스 연결 방법을 정의하는 구성을 생성해야 합니다. NetworkAttachmentDefinition CR(사용자 정의 리소스)을 사용하여 각 인터페이스를 지정합니다. 각 CR 내부의 CNI 구성은 해당 인터페이스의 생성 방법을 정의합니다.
24.1.2. OpenShift Container Platform의 그룹은 중첩되지 않습니다.
OpenShift Container Platform은 클러스터에서 추가 네트워크를 생성하기 위해 다음 CNI 플러그인을 제공합니다.
- Bridge: 동일한 호스트의 Pod가 서로 및 호스트와 통신할 수 있도록브리지 기반 추가 네트워크를 구성합니다.
- host-device: Pod가 호스트 시스템의 물리적 이더넷 네트워크 장치에 액세스할 수 있도록 호스트 장치 추가 네트워크를 구성합니다.
- ipvlan: macvlan기반 추가 네트워크와 유사하게 호스트의 pod가 해당 호스트의 다른 호스트 및 Pod와 통신할 수 있도록 ipvlan 기반 추가 네트워크를 구성합니다. macvlan 기반 추가 네트워크와 달리 각 pod는 상위 물리적 네트워크 인터페이스와 동일한 MAC 주소를 공유합니다.
- macvlan: 물리적네트워크 인터페이스를 사용하여 호스트의 pod가 해당 호스트의 다른 호스트 및 Pod와 통신할 수 있도록 macvlan 기반 추가 네트워크를 구성합니다. macvlan 기반 추가 네트워크에 연결된 각 pod에는 고유 한 MAC 주소가 제공됩니다.
- SR-IOV: Pod가 호스트 시스템의SR-IOV 가능 하드웨어에서 VF(가상 기능) 인터페이스에 연결할 수 있도록 SR-IOV 기반 추가 네트워크를 구성합니다.
24.2. 추가 네트워크 구성
클러스터 관리자는 클러스터에 대한 추가 네트워크를 구성할 수 있습니다. 지원되는 네트워크 유형은 다음과 같습니다.
24.2.1. 추가 네트워크 관리 방법
두 가지 방법으로 추가 네트워크의 라이프사이클을 관리할 수 있습니다. 각 접근 방식은 상호 배타적이며 한 번에 추가 네트워크를 관리하는 데 하나의 접근 방식만 사용할 수 있습니다. 두 방법 모두 추가 네트워크는 사용자가 구성하는 CNI(Container Network Interface) 플러그인에 의해 관리됩니다.
추가 네트워크의 경우 추가 네트워크의 일부로 구성하는 IPAM(IP 주소 관리) CNI 플러그인을 통해 IP 주소가 프로비저닝됩니다. IPAM 플러그인은 DHCP 및 고정 할당을 포함한 다양한 IP 주소 할당 방식을 지원합니다.
-
CNO(Cluster Network Operator) 구성을 수정합니다. CNO는
NetworkAttachmentDefinition오브젝트를 자동으로 생성하고 관리합니다. 오브젝트 라이프사이클을 관리하는 것 외에도 CNO는 DHCP 할당된 IP 주소를 사용하는 추가 네트워크에 DHCP를 사용할 수 있도록 합니다. -
YAML 매니페스트 적용:
NetworkAttachmentDefinition오브젝트를 생성하여 추가 네트워크를 직접 관리할 수 있습니다. 이 방법을 사용하면 CNI 플러그인을 연결할 수 있습니다.
OVN SDN을 사용하여 RHOSP(Red Hat OpenStack Platform)에 여러 네트워크 인터페이스를 사용하여 OpenShift Container Platform 노드를 배포하는 경우 보조 인터페이스의 DNS 구성이 기본 인터페이스의 DNS 구성보다 우선할 수 있습니다. 이 경우 보조 인터페이스에 연결된 서브넷 ID의 DNS 네임 서버를 제거합니다.
$ openstack subnet set --dns-nameserver 0.0.0.0 <subnet_id>
24.2.2. 추가 네트워크 연결 구성
추가 네트워크는 k8s.cni.cncf.io API 그룹에서 NetworkAttachmentDefinition API를 사용하여 구성됩니다.
이 정보는 프로젝트 관리 사용자가 액세스할 수 있으므로 중요한 정보 또는 시크릿을 NetworkAttachmentDefinition 오브젝트에 저장하지 마십시오.
API의 구성은 다음 표에 설명되어 있습니다.
표 24.1. NetworkAttachmentDefinition API 필드
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| 추가 네트워크의 이름입니다. |
|
|
| 오브젝트와 연결된 네임스페이스입니다. |
|
|
| JSON 형식의 CNI 플러그인 구성입니다. |
24.2.2.1. Cluster Network Operator를 통한 추가 네트워크 구성
추가 네트워크 연결 구성은 CNO(Cluster Network Operator) 구성의 일부로 지정됩니다.
다음 YAML은 CNO를 사용하여 추가 네트워크를 관리하기 위한 구성 매개변수를 설명합니다.
CNO(Cluster Network Operator) 구성
apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: # ... additionalNetworks: 1 - name: <name> 2 namespace: <namespace> 3 rawCNIConfig: |- 4 { ... } type: Raw
24.2.2.2. YAML 매니페스트에서 추가 네트워크 구성
추가 네트워크의 구성은 다음 예와 같이 YAML 구성 파일에서 지정됩니다.
apiVersion: k8s.cni.cncf.io/v1 kind: NetworkAttachmentDefinition metadata: name: <name> 1 spec: config: |- 2 { ... }
24.2.3. 추가 네트워크 유형의 구성
추가 네트워크의 특정 구성 필드는 다음 섹션에 설명되어 있습니다.
24.2.3.1. 브리지 추가 네트워크 구성
다음 오브젝트는 브릿지 CNI 플러그인의 구성 매개변수를 설명합니다.
표 24.2. 브릿지 CNI 플러그인 JSON 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CNI 사양 버전입니다. |
|
|
|
CNO 구성에 대해 이전에 제공한 |
|
|
|
구성할 CNI 플러그인의 이름: |
|
|
| IPAM CNI 플러그인에 대한 구성 오브젝트입니다. 플러그인은 연결 정의에 대한 IP 주소 할당을 관리합니다. |
|
|
|
선택 사항: 사용할 가상 브리지의 이름을 지정합니다. 브릿지 인터페이스가 호스트에 없으면 생성됩니다. 기본값은 |
|
|
|
선택 사항: 가상 네트워크를 떠나는 트래픽에 대해 IP 마스커레이딩을 활성화하려면 |
|
|
|
선택 사항: 브릿지에 IP 주소를 할당하려면 |
|
|
|
선택 사항: 브릿지를 가상 네트워크의 기본 게이트웨이로 구성하려면 |
|
|
|
선택 사항: 이전에 할당된 IP 주소를 가상 브리지에 할당할 수 있도록 |
|
|
|
선택 사항: 가상 브리지가 수신한 가상 포트를 통해 이더넷 프레임을 다시 보낼 수 있도록 하려면 |
|
|
|
선택 사항: 브릿지에서 무차별 모드를 활성화하려면 |
|
|
| 선택 사항: VLAN(가상 LAN) 태그를 정수 값으로 지정합니다. 기본적으로 VLAN 태그는 할당되지 않습니다. |
|
|
|
선택 사항: 기본 vlan을 브리지에 연결된 |
|
|
|
선택 사항: VLAN 트렁크 태그를 할당합니다. 기본값은 |
|
|
| 선택 사항: 최대 전송 단위(MTU)를 지정된 값으로 설정합니다. 기본값은 커널에 의해 자동으로 설정됩니다. |
|
|
|
선택 사항: 컨테이너 사이드 |
|
|
|
선택 사항: mac 스푸핑 검사를 활성화하여 컨테이너에서 발생하는 트래픽을 인터페이스의 mac 주소로 제한합니다. 기본값은 |
VLAN 매개 변수는 veth 의 호스트에서 VLAN 태그를 구성하고 브리지 인터페이스에서 vlan_filtering 기능도 활성화합니다.
L2 네트워크에 대한 uplink를 구성하려면 다음 명령을 사용하여 uplink 인터페이스에서 vlan을 허용해야 합니다.
$ bridge vlan add vid VLAN_ID dev DEV
24.2.3.1.1. 브릿지 구성 예
다음 예제는 이름이 bridge-net인 추가 네트워크를 구성합니다.
{
"cniVersion": "0.3.1",
"name": "bridge-net",
"type": "bridge",
"isGateway": true,
"vlan": 2,
"ipam": {
"type": "dhcp"
}
}24.2.3.2. 호스트 장치 추가 네트워크에 대한 구성
device ,hwaddr,kernelpath 또는 pciBusID 매개변수 중 하나만 설정하여 네트워크 장치를 지정합니다.
다음 오브젝트는 호스트 장치 CNI 플러그인의 구성 매개변수를 설명합니다.
표 24.3. 호스트 장치 CNI 플러그인 JSON 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CNI 사양 버전입니다. |
|
|
|
CNO 구성에 대해 이전에 제공한 |
|
|
|
구성할 CNI 플러그인의 이름: |
|
|
|
선택사항: 장치 이름(예: |
|
|
| 선택사항: 장치 하드웨어 MAC 주소입니다. |
|
|
|
선택 사항: Linux 커널 장치 경로입니다(예: |
|
|
|
선택 사항: 네트워크 장치의 PCI 주소(예 |
24.2.3.2.1. 호스트 장치 구성 예
다음 예제는 이름이 hostdev-net인 추가 네트워크를 구성합니다.
{
"cniVersion": "0.3.1",
"name": "hostdev-net",
"type": "host-device",
"device": "eth1"
}24.2.3.3. IPVLAN 추가 네트워크 구성
다음 오브젝트는 IPVLAN CNI 플러그인의 구성 매개변수를 설명합니다.
표 24.4. IPVLAN CNI 플러그인 JSON 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CNI 사양 버전입니다. |
|
|
|
CNO 구성에 대해 이전에 제공한 |
|
|
|
구성할 CNI 플러그인의 이름: |
|
|
| IPAM CNI 플러그인에 대한 구성 오브젝트입니다. 플러그인은 연결 정의에 대한 IP 주소 할당을 관리합니다. 플러그인이 연결되어 있지 않으면 이 작업이 필요합니다. |
|
|
|
선택사항: 가상 네트워크의 작동 모드입니다. 값은 |
|
|
|
선택 사항: 네트워크 연결과 연결할 이더넷 인터페이스입니다. |
|
|
| 선택 사항: 최대 전송 단위(MTU)를 지정된 값으로 설정합니다. 기본값은 커널에 의해 자동으로 설정됩니다. |
-
ipvlan오브젝트에서는 가상 인터페이스가마스터인터페이스와 통신할 수 없습니다. 따라서 컨테이너는ipvlan인터페이스를 사용하여 호스트에 연결할 수 없습니다. 컨테이너가PTP(Precision Time Protocol)를 지원하는 네트워크와 같이 호스트에 대한 연결을 제공하는 네트워크에 참여하고 있는지 확인합니다. -
단일
마스터인터페이스는macvlan및ipvlan을 둘 다 사용하도록 동시에 구성할 수 없습니다. -
인터페이스와 무관할 수 없는 IP 할당 체계의 경우
ipvlan플러그인은 이 논리를 처리하는 이전 플러그인과 연결할 수 있습니다.마스터를 생략한 경우 이전 결과에 슬레이브를 부여하려면ipvlan플러그인에 대한 단일 인터페이스 이름이 포함되어야 합니다.ipam을 생략하면 이전 결과가ipvlan인터페이스를 구성하는 데 사용됩니다.
24.2.3.3.1. ipvlan 구성 예
다음 예제는 이름이 ipvlan-net인 추가 네트워크를 구성합니다.
{
"cniVersion": "0.3.1",
"name": "ipvlan-net",
"type": "ipvlan",
"master": "eth1",
"mode": "l3",
"ipam": {
"type": "static",
"addresses": [
{
"address": "192.168.10.10/24"
}
]
}
}24.2.3.4. MACVLAN 추가 네트워크 구성
다음 오브젝트는 macvlan CNI 플러그인의 구성 매개변수를 설명합니다.
표 24.5. MACVLAN CNI 플러그인 JSON 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CNI 사양 버전입니다. |
|
|
|
CNO 구성에 대해 이전에 제공한 |
|
|
|
구성할 CNI 플러그인의 이름입니다. |
|
|
| IPAM CNI 플러그인에 대한 구성 오브젝트입니다. 플러그인은 연결 정의에 대한 IP 주소 할당을 관리합니다. |
|
|
|
선택 사항: 가상 네트워크에 대한 트래픽 가시성을 구성합니다. |
|
|
| 선택 사항: 새로 생성된 macvlan 인터페이스와 연결할 호스트 네트워크 인터페이스입니다. 값을 지정하지 않으면 기본 경로 인터페이스가 사용됩니다. |
|
|
| 선택 사항: 지정된 값으로 최대 전송 단위(MTU)입니다. 기본값은 커널에 의해 자동으로 설정됩니다. |
플러그인 구성에 대한 마스터 키를 지정하는 경우, 가능한 충돌을 방지하려면 기본 네트워크 플러그인과 연결된 것과 다른 물리적 네트워크 인터페이스를 사용합니다.
24.2.3.4.1. macvlan 구성 예
다음 예제는 이름이 macvlan-net인 추가 네트워크를 구성합니다.
{
"cniVersion": "0.3.1",
"name": "macvlan-net",
"type": "macvlan",
"master": "eth1",
"mode": "bridge",
"ipam": {
"type": "dhcp"
}
}24.2.3.5. OVN-Kubernetes 추가 네트워크의 구성
Red Hat OpenShift Networking OVN-Kubernetes 네트워크 플러그인을 사용하면 Pod에 대한 보조 네트워크 인터페이스를 구성할 수 있습니다. 보조 네트워크 인터페이스를 구성하려면 NetworkAttachmentDefinition CRD(사용자 정의 리소스 정의)에서 구성을 정의해야 합니다.
OVN-Kubernetes 추가 네트워크에 대한 구성은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
다음 섹션에서는 OVN-Kubernetes가 현재 보조 네트워크를 허용하는 각 토폴로지에 대한 구성 예를 제공합니다.
네트워크 이름은 고유해야 합니다. 예를 들어 동일한 네트워크를 참조하는 다양한 구성으로 여러 NetworkAttachmentDefinition CRD를 생성하는 것은 지원되지 않습니다.
24.2.3.5.1. OVN-Kubernetes 네트워크 플러그인 JSON 구성 테이블
다음 표에서는 OVN-Kubernetes CNI 네트워크 플러그인의 구성 매개변수를 설명합니다.
표 24.6. OVN-Kubernetes 네트워크 플러그인 JSON 구성 테이블
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CNI 사양 버전입니다. 필수 값은 |
|
|
|
네트워크의 이름입니다. 이러한 네트워크는 네임스페이스가 지정되지 않습니다. 예를 들어 두 개의 서로 다른 네임스페이스에 존재하는 두 개의 다른 |
|
|
|
구성할 CNI 플러그인의 이름입니다. 필수 값은 |
|
|
|
네트워크의 토폴로지 구성입니다. 필요한 값은 |
|
|
|
클러스터 전체에서 네트워크에 사용할 서브넷입니다.
|
|
|
|
지정된 값의 최대 전송 단위(MTU)입니다. 기본값 |
|
|
|
메타데이터 |
|
|
| CIDR 및 IP 쉼표로 구분된 목록입니다. IPS는 할당 가능한 IP 풀에서 제거되며 Pod로 전달되지 않습니다. 생략하면 네트워크를 구현하는 논리 스위치는 계층 2 통신만 제공하며 사용자는 포드에 대한 IP를 구성해야 합니다. 포트 보안은 MAC 스푸핑만 방지합니다. |
24.2.3.5.2. 전환 토폴로지 구성
전환(레이어 2) 토폴로지 네트워크는 클러스터 전체 논리 스위치를 통해 워크로드를 상호 연결합니다. 이 구성은 IPv6 및 듀얼 스택 배포에 사용할 수 있습니다.
계층 2 전환 토폴로지 네트워크는 클러스터 내에서 Pod 간에 데이터 패킷을 전송할 때만 가능합니다.
다음 NetworkAttachmentDefinition CRD(사용자 정의 리소스 정의) YAML은 전환된 보조 네트워크를 구성하는 데 필요한 필드를 설명합니다.
{
"cniVersion": "0.3.1",
"name": "l2-network",
"type": "ovn-k8s-cni-overlay",
"topology":"layer2",
"subnets": "10.100.200.0/24",
"mtu": 1300,
"netAttachDefName": "ns1/l2-network",
"excludeSubnets": "10.100.200.0/29"
}24.2.3.5.3. 추가 네트워크의 Pod 구성
k8s.v1.cni.cncf.io/networks 주석을 통해 보조 네트워크 연결을 지정해야 합니다.
다음 예제에서는 이 가이드에 표시된 각 연결 구성에 대해 하나씩 두 개의 보조 첨부 파일이 있는 Pod를 프로비저닝합니다.
apiVersion: v1
kind: Pod
metadata:
annotations:
k8s.v1.cni.cncf.io/networks: l2-network
name: tinypod
namespace: ns1
spec:
containers:
- args:
- pause
image: k8s.gcr.io/e2e-test-images/agnhost:2.36
imagePullPolicy: IfNotPresent
name: agnhost-container24.2.3.5.4. 고정 IP 주소로 Pod 구성
다음 예제에서는 고정 IP 주소를 사용하여 Pod를 프로비저닝합니다.
- 계층 2 연결에 대한 Pod의 보조 네트워크 연결의 IP 주소만 지정할 수 있습니다.
- Pod에 고정 IP 주소를 지정하는 것은 연결 구성에 서브넷이 포함되지 않은 경우에만 가능합니다.
apiVersion: v1
kind: Pod
metadata:
annotations:
k8s.v1.cni.cncf.io/networks: '[
{
"name": "l2-network", 1
"mac": "02:03:04:05:06:07", 2
"interface": "myiface1", 3
"ips": [
"192.0.2.20/24"
] 4
}
]'
name: tinypod
namespace: ns1
spec:
containers:
- args:
- pause
image: k8s.gcr.io/e2e-test-images/agnhost:2.36
imagePullPolicy: IfNotPresent
name: agnhost-container24.2.4. 추가 네트워크의 IP 주소 할당 구성
IP 주소 관리(IPAM) CNI(Container Network Interface) 플러그인은 다른 CNI 플러그인에 대한 IP 주소를 제공합니다.
다음 IP 주소 할당 유형을 사용할 수 있습니다.
- 정적 할당
- DHCP 서버를 통한 동적 할당. 지정한 DHCP 서버는 추가 네트워크에서 연결할 수 있어야 합니다.
- Whereabouts IPAM CNI 플러그인을 통한 동적 할당
24.2.4.1. 고정 IP 주소 할당 구성
다음 표에서는 고정 IP 주소 할당 구성을 설명합니다.
표 24.7. IPAM 정적 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
IPAM 주소 유형입니다. |
|
|
| 가상 인터페이스에 할당할 IP 주소를 지정하는 오브젝트 배열입니다. IPv4 및 IPv6 IP 주소가 모두 지원됩니다. |
|
|
| Pod 내부에서 구성할 경로를 지정하는 오브젝트 배열입니다. |
|
|
| 선택 사항: DNS 구성을 지정하는 오브젝트의 배열입니다. |
addresses 어레이에는 다음 필드가 있는 오브젝트가 필요합니다.
표 24.8. ipam.addresses[] array
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
지정하는 IP 주소 및 네트워크 접두사입니다. 예를 들어 |
|
|
| 송신 네트워크 트래픽을 라우팅할 기본 게이트웨이입니다. |
표 24.9. IPAM.routes[] 배열
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CIDR 형식의 IP 주소 범위(예: 기본 경로의 경우 |
|
|
| 네트워크 트래픽이 라우팅되는 게이트웨이입니다. |
표 24.10. IPAM.dns 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| DNS 쿼리를 보낼 하나 이상의 IP 주소 배열입니다. |
|
|
|
호스트 이름에 추가할 기본 도메인입니다. 예를 들어 도메인이 |
|
|
|
DNS 조회 쿼리 중에 규정되지 않은 호스트 이름(예: |
고정 IP 주소 할당 구성 예
{
"ipam": {
"type": "static",
"addresses": [
{
"address": "191.168.1.7/24"
}
]
}
}
24.2.4.2. DHCP(Dynamic IP 주소) 할당 구성
다음 JSON은 DHCP를 사용한 동적 IP 주소 할당 구성을 설명합니다.
pod는 생성될 때 원래 DHCP 리스를 얻습니다. 리스는 클러스터에서 실행되는 최소 DHCP 서버 배포를 통해 주기적으로 갱신되어야 합니다.
DHCP 서버 배포를 트리거하려면 다음 예와 같이 Cluster Network Operator 구성을 편집하여 shim 네트워크 연결을 만들어야 합니다.
shim 네트워크 연결 정의 예
apiVersion: operator.openshift.io/v1
kind: Network
metadata:
name: cluster
spec:
additionalNetworks:
- name: dhcp-shim
namespace: default
type: Raw
rawCNIConfig: |-
{
"name": "dhcp-shim",
"cniVersion": "0.3.1",
"type": "bridge",
"ipam": {
"type": "dhcp"
}
}
# ...
표 24.11. IPAM DHCP 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
IPAM 주소 유형입니다. |
DHCP(Dynamic IP 주소) 할당 구성 예
{
"ipam": {
"type": "dhcp"
}
}
24.2.4.3. Whereabouts를 사용한 동적 IP 주소 할당 구성
Whereabouts CNI 플러그인을 사용하면 DHCP 서버를 사용하지 않고도 IP 주소를 추가 네트워크에 동적으로 할당할 수 있습니다.
다음 표에서는 Whereabouts를 사용한 동적 IP 주소 할당 구성을 설명합니다.
표 24.12. IPAM: 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
IPAM 주소 유형입니다. 필요한 경우 값을 가져옵니다 |
|
|
| CIDR 표기법의 IP 주소 및 범위입니다. IP 주소는 이 주소 범위 내에서 할당됩니다. |
|
|
| 선택 사항: CIDR 표기법의 0개 이상의 IP 주소 및 범위 목록입니다. 제외된 주소 범위 내의 IP 주소는 할당되지 않습니다. |
Whereabouts를 사용하는 동적 IP 주소 할당 구성 예
{
"ipam": {
"type": "whereabouts",
"range": "192.0.2.192/27",
"exclude": [
"192.0.2.192/30",
"192.0.2.196/32"
]
}
}
24.2.4.4. Whereabouts 조정기 데몬 세트 생성
Whereabouts 조정기는 Whereabouts IP Address Management(IPAM) 솔루션을 사용하여 클러스터 내에서 Pod의 동적 IP 주소 할당을 관리합니다. 이렇게 하면 각 pod가 지정된 IP 주소 범위에서 고유한 IP 주소를 가져옵니다. Pod가 삭제되거나 축소될 때 IP 주소 릴리스도 처리합니다.
동적 IP 주소 할당에 NetworkAttachmentDefinition 사용자 정의 리소스를 사용할 수도 있습니다.
Cluster Network Operator를 통해 추가 네트워크를 구성할 때 Whereabouts 조정기 데몬 세트가 자동으로 생성됩니다. YAML 매니페스트에서 추가 네트워크를 구성할 때 자동으로 생성되지 않습니다.
Whereabouts 조정기 데몬 세트의 배포를 트리거하려면 Cluster Network Operator 사용자 정의 리소스 파일을 편집하여 whereabouts-shim 네트워크 연결을 수동으로 생성해야 합니다.
다음 절차에 따라 Whereabouts reconciler daemonset를 배포합니다.
절차
다음 명령을 실행하여
Network.operator.openshift.ioCR(사용자 정의 리소스)을 편집합니다.$ oc edit network.operator.openshift.io cluster
CR에서
additionalNetworks매개변수를 수정하여whereabouts-shim네트워크 연결 정의를 추가합니다. 예를 들면 다음과 같습니다.apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: additionalNetworks: - name: whereabouts-shim namespace: default rawCNIConfig: |- { "name": "whereabouts-shim", "cniVersion": "0.3.1", "type": "bridge", "ipam": { "type": "whereabouts" } } type: Raw- 파일을 저장하고 텍스트 편집기를 종료합니다.
다음 명령을 실행하여
whereabouts-reconciler데몬 세트가 성공적으로 배포되었는지 확인합니다.$ oc get all -n openshift-multus | grep whereabouts-reconciler
출력 예
pod/whereabouts-reconciler-jnp6g 1/1 Running 0 6s pod/whereabouts-reconciler-k76gg 1/1 Running 0 6s pod/whereabouts-reconciler-k86t9 1/1 Running 0 6s pod/whereabouts-reconciler-p4sxw 1/1 Running 0 6s pod/whereabouts-reconciler-rvfdv 1/1 Running 0 6s pod/whereabouts-reconciler-svzw9 1/1 Running 0 6s daemonset.apps/whereabouts-reconciler 6 6 6 6 6 kubernetes.io/os=linux 6s
24.2.5. Cluster Network Operator를 사용하여 추가 네트워크 연결 생성
CNO(Cluster Network Operator)는 추가 네트워크 정의를 관리합니다. 생성할 추가 네트워크를 지정하면 CNO가 NetworkAttachmentDefinition 오브젝트를 자동으로 생성합니다.
Cluster Network Operator가 관리하는 NetworkAttachmentDefinition 오브젝트를 편집하지 마십시오. 편집하면 추가 네트워크의 네트워크 트래픽이 중단될 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
선택 사항: 추가 네트워크의 네임스페이스를 생성합니다.
$ oc create namespace <namespace_name>
CNO 구성을 편집하려면 다음 명령을 입력합니다.
$ oc edit networks.operator.openshift.io cluster
다음 예제 CR과 같이 생성할 추가 네트워크의 구성을 추가하여 생성 중인 CR을 수정합니다.
apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: # ... additionalNetworks: - name: tertiary-net namespace: namespace2 type: Raw rawCNIConfig: |- { "cniVersion": "0.3.1", "name": "tertiary-net", "type": "ipvlan", "master": "eth1", "mode": "l2", "ipam": { "type": "static", "addresses": [ { "address": "192.168.1.23/24" } ] } }- 변경 사항을 저장하고 텍스트 편집기를 종료하여 변경 사항을 커밋합니다.
검증
CNO가 다음 명령을 실행하여
NetworkAttachmentDefinition오브젝트를 생성했는지 확인합니다. CNO가 오브젝트를 생성하기 전에 지연이 발생할 수 있습니다.$ oc get network-attachment-definitions -n <namespace>
다음과 같습니다.
<namespace>- CNO 구성에 추가한 네트워크 연결의 네임스페이스를 지정합니다.
출력 예
NAME AGE test-network-1 14m
24.2.6. YAML 매니페스트를 적용하여 추가 네트워크 연결 생성
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
다음 예와 같이 추가 네트워크 구성으로 YAML 파일을 생성합니다.
apiVersion: k8s.cni.cncf.io/v1 kind: NetworkAttachmentDefinition metadata: name: next-net spec: config: |- { "cniVersion": "0.3.1", "name": "work-network", "type": "host-device", "device": "eth1", "ipam": { "type": "dhcp" } }추가 네트워크를 생성하려면 다음 명령을 입력합니다.
$ oc apply -f <file>.yaml
다음과 같습니다.
<file>- YAML 매니페스트가 포함된 파일의 이름을 지정합니다.
24.3. 가상 라우팅 및 전달 정보
24.3.1. 가상 라우팅 및 전달 정보
IP 규칙과 결합된 가상 라우팅 및 전달(VRF) 장치는 가상 라우팅 및 전달 도메인을 생성하는 기능을 제공합니다. VRF는 CNF에 필요한 권한 수를 줄이고 보조 네트워크의 네트워크 토폴로지의 가시성을 증대시킵니다. VRF는 예를 들어 각 테넌트마다 고유한 라우팅 테이블이 있고 다른 기본 게이트웨이가 필요한 멀티 테넌시 기능을 제공하는 데 사용됩니다.
프로세스는 소켓을 VRF 장치에 바인딩할 수 있습니다. 바인딩된 소켓을 통한 패킷은 VRF 장치와 연결된 라우팅 테이블을 사용합니다. VRF의 중요한 기능은 OSI 모델 레이어 3 트래픽 및 LLDP와 같은 L2 도구에만 영향을 미치지 않는다는 것입니다. 이를 통해 정책 기반 라우팅과 같은 우선순위가 높은 IP 규칙이 특정 트래픽을 지시하는 VRF 장치 규칙보다 우선합니다.
24.3.1.1. 통신 운영자의 포드에 대한 보조 네트워크 이점
통신사용 사례에서 각 CNF는 동일한 주소 공간을 공유하는 여러 다른 네트워크에 잠재적으로 연결할 수 있습니다. 이러한 보조 네트워크는 클러스터의 기본 네트워크 CIDR과 잠재적으로 충돌할 수 있습니다. CNI VRF 플러그인을 사용하여 네트워크 기능은 동일한 IP 주소를 사용하여 다른 고객의 인프라에 연결할 수 있으므로 서로 다른 고객을 분리할 수 있습니다. IP 주소는 OpenShift Container Platform IP 공간과 겹치게 됩니다. CNI VRF 플러그인은 CNF에 필요한 권한 수를 줄이고 보조 네트워크의 네트워크 토폴로지의 가시성을 높입니다.
24.4. 다중 네트워크 정책 구성
클러스터 관리자는 추가 네트워크에 대한 다중 네트워크를 구성할 수 있습니다. SR-IOV 및 macvlan 추가 네트워크에 대한 다중 네트워크 정책을 지정할 수 있습니다. macvlan 추가 네트워크가 완전히 지원됩니다. ipvlan과 같은 기타 유형의 추가 네트워크는 지원되지 않습니다.
SR-IOV 추가 네트워크에 대한 다중 네트워크 정책 구성은 기술 프리뷰 기능이며 커널 네트워크 인터페이스 카드(NIC)에서만 지원됩니다. DPDK(Data Plane Development Kit) 애플리케이션에서 SR-IOV가 지원되지 않습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
IPv6 네트워크에서 구성된 네트워크 정책은 무시됩니다.
24.4.1. 다중 네트워크 정책과 네트워크 정책의 차이점
MultiNetworkPolicy API는 NetworkPolicy API를 구현하지만 다음과 같은 몇 가지 중요한 차이점이 있습니다.
MultiNetworkPolicyAPI를 사용해야 합니다.apiVersion: k8s.cni.cncf.io/v1beta1 kind: MultiNetworkPolicy
-
CLI를 사용하여 다중 네트워크 정책과 상호 작용할 때
multi-networkpolicy리소스 이름을 사용해야 합니다. 예를 들어oc get multi-networkpolicy <name>명령을 사용하여 다중 네트워크 정책 오브젝트를 볼 수 있습니다. 여기서<name>은 다중 네트워크 정책의 이름입니다. macvlan 또는 SR-IOV 추가 네트워크를 정의하는 네트워크 연결 정의의 이름으로 주석을 지정해야 합니다.
apiVersion: k8s.cni.cncf.io/v1beta1 kind: MultiNetworkPolicy metadata: annotations: k8s.v1.cni.cncf.io/policy-for: <network_name>다음과 같습니다.
<network_name>- 네트워크 연결 정의의 이름을 지정합니다.
24.4.2. 클러스터의 다중 네트워크 정책 활성화
클러스터 관리자는 클러스터에서 다중 네트워크 정책 지원을 활성화할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
프로세스
다음 YAML을 사용하여
multinetwork-enable-patch.yaml파일을 생성합니다.apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: useMultiNetworkPolicy: true
다중 네트워크 정책을 활성화하도록 클러스터를 구성합니다.
$ oc patch network.operator.openshift.io cluster --type=merge --patch-file=multinetwork-enable-patch.yaml
출력 예
network.operator.openshift.io/cluster patched
24.4.3. 다중 네트워크 정책 작업
클러스터 관리자는 다중 네트워크 정책을 생성, 편집, 보기 및 삭제할 수 있습니다.
24.4.3.1. 사전 요구 사항
- 클러스터에 대한 다중 네트워크 정책 지원을 활성화했습니다.
24.4.3.2. CLI를 사용하여 다중 네트워크 정책 생성
클러스터의 네임스페이스에서 허용된 수신 또는 송신 네트워크 트래픽을 설명하는 세분화된 규칙을 정의하기 위해 다중 네트워크 정책을 생성할 수 있습니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 다중 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
프로세스
다음과 같이 정책 규칙을 생성합니다.
<policy_name>.yaml파일을 생성합니다.$ touch <policy_name>.yaml
다음과 같습니다.
<policy_name>- 다중 네트워크 정책 파일 이름을 지정합니다.
방금 만든 파일에서 다음 예와 같이 다중 네트워크 정책을 정의합니다.
모든 네임스페이스의 모든 Pod에서 수신 거부
이는 다른 네트워크 정책 구성에서 허용하는 교차 포드 트래픽 이외의 모든 포드 간 네트워킹을 차단하는 기본 정책입니다.
apiVersion: k8s.cni.cncf.io/v1beta1 kind: MultiNetworkPolicy metadata: name: deny-by-default annotations: k8s.v1.cni.cncf.io/policy-for: <network_name> spec: podSelector: ingress: []다음과 같습니다.
<network_name>- 네트워크 연결 정의의 이름을 지정합니다.
동일한 네임 스페이스에 있는 모든 Pod의 수신 허용
apiVersion: k8s.cni.cncf.io/v1beta1 kind: MultiNetworkPolicy metadata: name: allow-same-namespace annotations: k8s.v1.cni.cncf.io/policy-for: <network_name> spec: podSelector: ingress: - from: - podSelector: {}다음과 같습니다.
<network_name>- 네트워크 연결 정의의 이름을 지정합니다.
특정 네임스페이스에서 하나의 Pod로 들어오는 트래픽 허용
이 정책을 사용하면
namespace-y에서 실행되는 Pod의pod-a레이블이 지정된 Pod로의 트래픽을 수행할 수 있습니다.apiVersion: k8s.cni.cncf.io/v1beta1 kind: MultiNetworkPolicy metadata: name: allow-traffic-pod annotations: k8s.v1.cni.cncf.io/policy-for: <network_name> spec: podSelector: matchLabels: pod: pod-a policyTypes: - Ingress ingress: - from: - namespaceSelector: matchLabels: kubernetes.io/metadata.name: namespace-y다음과 같습니다.
<network_name>- 네트워크 연결 정의의 이름을 지정합니다.
서비스에 대한 트래픽 제한
이 정책을 적용하면
app=bookstore및role=api레이블이 모두 있는 모든 Pod는app=bookstore라벨이 있는 Pod에서만 액세스할 수 있습니다. 이 예제에서 애플리케이션은 레이블app=bookstore및role=api로 표시된 REST API 서버일 수 있습니다.이 예제에서는 다음 사용 사례를 다룹니다.
- 서비스에 대한 트래픽을 사용해야 하는 다른 마이크로 서비스로만 제한합니다.
애플리케이션 사용만 허용하도록 데이터베이스에 대한 연결 제한.
apiVersion: k8s.cni.cncf.io/v1beta1 kind: MultiNetworkPolicy metadata: name: api-allow annotations: k8s.v1.cni.cncf.io/policy-for: <network_name> spec: podSelector: matchLabels: app: bookstore role: api ingress: - from: - podSelector: matchLabels: app: bookstore다음과 같습니다.
<network_name>- 네트워크 연결 정의의 이름을 지정합니다.
다음 명령을 실행하여 다중 네트워크 정책 오브젝트를 생성합니다.
$ oc apply -f <policy_name>.yaml -n <namespace>
다음과 같습니다.
<policy_name>- 다중 네트워크 정책 파일 이름을 지정합니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
출력 예
multinetworkpolicy.k8s.cni.cncf.io/deny-by-default created
cluster-admin 권한으로 웹 콘솔에 로그인하면 클러스터의 모든 네임스페이스에서 YAML로 직접 또는 웹 콘솔의 양식에서 네트워크 정책을 생성할 수 있습니다.
24.4.3.3. 다중 네트워크 정책 편집
네임스페이스에서 다중 네트워크 정책을 편집할 수 있습니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 다중 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
프로세스
선택 사항: 네임스페이스의 다중 네트워크 정책 오브젝트를 나열하려면 다음 명령을 입력합니다.
$ oc get multi-networkpolicy
다음과 같습니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
다중 네트워크 정책 오브젝트를 편집합니다.
다중 네트워크 정책 정의를 파일에 저장한 경우 파일을 편집하고 필요한 사항을 변경한 후 다음 명령을 입력합니다.
$ oc apply -n <namespace> -f <policy_file>.yaml
다음과 같습니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
<policy_file>- 네트워크 정책이 포함된 파일의 이름을 지정합니다.
다중 네트워크 정책 오브젝트를 직접 업데이트해야 하는 경우 다음 명령을 입력합니다.
$ oc edit multi-networkpolicy <policy_name> -n <namespace>
다음과 같습니다.
<policy_name>- 네트워크 정책의 이름을 지정합니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
다중 네트워크 정책 오브젝트가 업데이트되었는지 확인합니다.
$ oc describe multi-networkpolicy <policy_name> -n <namespace>
다음과 같습니다.
<policy_name>- 다중 네트워크 정책의 이름을 지정합니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
cluster-admin 권한으로 웹 콘솔에 로그인하면 YAML의 모든 네임스페이스에서 또는 Actions 메뉴를 통해 웹 콘솔의 정책에서 직접 네트워크 정책을 편집할 수 있습니다.
24.4.3.4. CLI를 사용하여 다중 네트워크 정책 보기
네임스페이스에서 다중 네트워크 정책을 검사할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 다중 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
프로세스
네임스페이스의 다중 네트워크 정책을 나열합니다.
네임스페이스에 정의된 다중 네트워크 정책 오브젝트를 보려면 다음 명령을 입력합니다.
$ oc get multi-networkpolicy
선택 사항: 특정 다중 네트워크 정책을 검사하려면 다음 명령을 입력합니다.
$ oc describe multi-networkpolicy <policy_name> -n <namespace>
다음과 같습니다.
<policy_name>- 검사할 다중 네트워크 정책의 이름을 지정합니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
cluster-admin 권한으로 웹 콘솔에 로그인하면 클러스터의 모든 네임스페이스에서 네트워크 정책을 YAML에서 직접 또는 웹 콘솔의 양식에서 볼 수 있습니다.
24.4.3.5. CLI를 사용하여 다중 네트워크 정책 삭제
네임스페이스에서 다중 네트워크 정책을 삭제할 수 있습니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 다중 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
프로세스
다중 네트워크 정책 오브젝트를 삭제하려면 다음 명령을 입력합니다.
$ oc delete multi-networkpolicy <policy_name> -n <namespace>
다음과 같습니다.
<policy_name>- 다중 네트워크 정책의 이름을 지정합니다.
<namespace>- 선택 사항: 오브젝트가 현재 네임스페이스와 다른 네임스페이스에 정의된 경우 이를 사용하여 네임스페이스를 지정합니다.
출력 예
multinetworkpolicy.k8s.cni.cncf.io/default-deny deleted
cluster-admin 권한으로 웹 콘솔에 로그인하는 경우 YAML의 모든 네임스페이스에서 또는 Actions 메뉴를 통해 웹 콘솔의 정책에서 직접 네트워크 정책을 삭제할 수 있습니다.
24.4.3.6. 기본 거부 모든 다중 네트워크 정책 생성
이는 배포된 다른 네트워크 정책에서 허용하는 네트워크 트래픽 이외의 모든 교차 포드 네트워킹을 차단하는 기본 정책입니다. 이 절차에서는 기본 거부 정책을 적용합니다.
cluster-admin 역할을 가진 사용자로 로그인하면 클러스터의 모든 네임스페이스에서 네트워크 정책을 생성할 수 있습니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 다중 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
프로세스
모든 네임스페이스의 모든 Pod에서 수신을
거부하는 거부-별-기본정책을 정의하는 다음 YAML을 생성합니다. YAML을deny-by-default.yaml파일에 저장합니다.apiVersion: k8s.cni.cncf.io/v1beta1 kind: MultiNetworkPolicy metadata: name: deny-by-default namespace: default 1 annotations: k8s.v1.cni.cncf.io/policy-for: <network_name> 2 spec: podSelector: {} 3 ingress: [] 4
다음 명령을 입력하여 정책을 적용합니다.
$ oc apply -f deny-by-default.yaml
출력 예
multinetworkpolicy.k8s.cni.cncf.io/deny-by-default created
24.4.3.7. 외부 클라이언트의 트래픽을 허용하는 다중 네트워크 정책 생성
deny-by-default 정책을 사용하여 외부 클라이언트에서 라벨이 app=web 인 Pod로의 트래픽을 허용하는 정책을 구성할 수 있습니다.
cluster-admin 역할을 가진 사용자로 로그인하면 클러스터의 모든 네임스페이스에서 네트워크 정책을 생성할 수 있습니다.
다음 절차에 따라 공용 인터넷에서 직접 또는 Load Balancer를 사용하여 포드에 액세스할 수 있는 정책을 구성합니다. 트래픽은 app=web 레이블이 있는 Pod에만 허용됩니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 다중 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
프로세스
공용 인터넷에서 직접 또는 로드 밸런서를 사용하여 포드에 액세스하는 방식으로 트래픽을 허용하는 정책을 생성합니다.
web-allow-external.yaml파일에 YAML을 저장합니다.apiVersion: k8s.cni.cncf.io/v1beta1 kind: MultiNetworkPolicy metadata: name: web-allow-external namespace: default annotations: k8s.v1.cni.cncf.io/policy-for: <network_name> spec: policyTypes: - Ingress podSelector: matchLabels: app: web ingress: - {}다음 명령을 입력하여 정책을 적용합니다.
$ oc apply -f web-allow-external.yaml
출력 예
multinetworkpolicy.k8s.cni.cncf.io/web-allow-external created
이 정책은 다음 다이어그램에 설명된 대로 외부 트래픽을 포함하여 모든 리소스의 트래픽을 허용합니다.

24.4.3.8. 모든 네임스페이스에서 애플리케이션으로의 트래픽 허용 다중 네트워크 정책 생성
cluster-admin 역할을 가진 사용자로 로그인하면 클러스터의 모든 네임스페이스에서 네트워크 정책을 생성할 수 있습니다.
다음 절차에 따라 모든 네임스페이스의 모든 Pod에서 특정 애플리케이션으로의 트래픽을 허용하는 정책을 구성합니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 다중 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
프로세스
모든 네임스페이스의 모든 포드에서 특정 애플리케이션으로 트래픽을 허용하는 정책을 생성합니다. YAML을
web-allow-all-namespaces.yaml파일에 저장합니다.apiVersion: k8s.cni.cncf.io/v1beta1 kind: MultiNetworkPolicy metadata: name: web-allow-all-namespaces namespace: default annotations: k8s.v1.cni.cncf.io/policy-for: <network_name> spec: podSelector: matchLabels: app: web 1 policyTypes: - Ingress ingress: - from: - namespaceSelector: {} 2참고기본적으로
namespaceSelector를 지정하지 않으면 정책이 네트워크 정책이 배포된 네임스페이스에서만 트래픽을 허용하는 네임스페이스를 선택하지 않습니다.다음 명령을 입력하여 정책을 적용합니다.
$ oc apply -f web-allow-all-namespaces.yaml
출력 예
multinetworkpolicy.k8s.cni.cncf.io/web-allow-all-namespaces created
검증
다음 명령을 입력하여
default네임스페이스에서 웹 서비스를 시작합니다.$ oc run web --namespace=default --image=nginx --labels="app=web" --expose --port=80
다음 명령을 실행하여
보조네임스페이스에alpine이미지를 배포하고 쉘을 시작합니다.$ oc run test-$RANDOM --namespace=secondary --rm -i -t --image=alpine -- sh
쉘에서 다음 명령을 실행하고 요청이 허용되는지 확인합니다.
# wget -qO- --timeout=2 http://web.default
예상 출력
<!DOCTYPE html> <html> <head> <title>Welcome to nginx!</title> <style> html { color-scheme: light dark; } body { width: 35em; margin: 0 auto; font-family: Tahoma, Verdana, Arial, sans-serif; } </style> </head> <body> <h1>Welcome to nginx!</h1> <p>If you see this page, the nginx web server is successfully installed and working. Further configuration is required.</p> <p>For online documentation and support please refer to <a href="http://nginx.org/">nginx.org</a>.<br/> Commercial support is available at <a href="http://nginx.com/">nginx.com</a>.</p> <p><em>Thank you for using nginx.</em></p> </body> </html>
24.4.3.9. 네임스페이스에서 애플리케이션으로의 트래픽을 허용하는 다중 네트워크 정책 생성
cluster-admin 역할을 가진 사용자로 로그인하면 클러스터의 모든 네임스페이스에서 네트워크 정책을 생성할 수 있습니다.
다음 절차에 따라 특정 네임스페이스에서 app=web 레이블이 있는 Pod로의 트래픽을 허용하는 정책을 구성합니다. 다음을 수행할 수 있습니다.
- 프로덕션 워크로드가 배포된 네임스페이스로만 트래픽을 제한합니다.
- 특정 네임스페이스에 배포된 모니터링 툴을 활성화하여 현재 네임스페이스에서 지표를 스크랩할 수 있습니다.
사전 요구 사항
-
클러스터는
mode:로 설정된 OpenShift SDN 네트워크 공급자와 같은 NetworkPolicy 오브젝트를 지원하는 네트워크 플러그인을 사용합니다. 이 모드는 OpenShift SDN의 기본값입니다.NetworkPolicy -
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 다중 네트워크 정책이 적용되는 네임스페이스에서 작업하고 있습니다.
절차
purpose=production레이블이 있는 특정 네임스페이스의 모든 Pod의 트래픽을 허용하는 정책을 생성합니다. YAML을web-allow-prod.yaml파일에 저장합니다.apiVersion: k8s.cni.cncf.io/v1beta1 kind: MultiNetworkPolicy metadata: name: web-allow-prod namespace: default annotations: k8s.v1.cni.cncf.io/policy-for: <network_name> spec: podSelector: matchLabels: app: web 1 policyTypes: - Ingress ingress: - from: - namespaceSelector: matchLabels: purpose: production 2다음 명령을 입력하여 정책을 적용합니다.
$ oc apply -f web-allow-prod.yaml
출력 예
multinetworkpolicy.k8s.cni.cncf.io/web-allow-prod created
검증
다음 명령을 입력하여
default네임스페이스에서 웹 서비스를 시작합니다.$ oc run web --namespace=default --image=nginx --labels="app=web" --expose --port=80
다음 명령을 실행하여
prod네임스페이스를 생성합니다.$ oc create namespace prod
다음 명령을 실행하여
prod네임스페이스에 레이블을 지정합니다.$ oc label namespace/prod purpose=production
다음 명령을 실행하여
dev네임스페이스를 생성합니다.$ oc create namespace dev
다음 명령을 실행하여
dev네임스페이스에 레이블을 지정합니다.$ oc label namespace/dev purpose=testing
다음 명령을 실행하여
dev네임스페이스에alpine이미지를 배포하고 쉘을 시작합니다.$ oc run test-$RANDOM --namespace=dev --rm -i -t --image=alpine -- sh
쉘에서 다음 명령을 실행하고 요청이 차단되었는지 확인합니다.
# wget -qO- --timeout=2 http://web.default
예상 출력
wget: download timed out
다음 명령을 실행하여
prod네임스페이스에alpine이미지를 배포하고 쉘을 시작합니다.$ oc run test-$RANDOM --namespace=prod --rm -i -t --image=alpine -- sh
쉘에서 다음 명령을 실행하고 요청이 허용되는지 확인합니다.
# wget -qO- --timeout=2 http://web.default
예상 출력
<!DOCTYPE html> <html> <head> <title>Welcome to nginx!</title> <style> html { color-scheme: light dark; } body { width: 35em; margin: 0 auto; font-family: Tahoma, Verdana, Arial, sans-serif; } </style> </head> <body> <h1>Welcome to nginx!</h1> <p>If you see this page, the nginx web server is successfully installed and working. Further configuration is required.</p> <p>For online documentation and support please refer to <a href="http://nginx.org/">nginx.org</a>.<br/> Commercial support is available at <a href="http://nginx.com/">nginx.com</a>.</p> <p><em>Thank you for using nginx.</em></p> </body> </html>
24.4.4. 추가 리소스
24.5. 추가 네트워크에 pod 연결
클러스터 사용자는 pod를 추가 네트워크에 연결할 수 있습니다.
24.5.1. 추가 네트워크에 Pod 추가
추가 네트워크에 Pod를 추가할 수 있습니다. Pod는 기본 네트워크를 통해 정상적인 클러스터 관련 네트워크 트래픽을 계속 전송합니다.
Pod가 생성되면 추가 네트워크가 연결됩니다. 그러나 Pod가 이미 있는 경우에는 추가 네트워크를 연결할 수 없습니다.
Pod는 추가 네트워크와 동일한 네임스페이스에 있어야 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터에 로그인합니다.
절차
Pod오브젝트에 주석을 추가합니다. 다음 주석 형식 중 하나만 사용할 수 있습니다.사용자 정의 없이 추가 네트워크를 연결하려면 다음 형식으로 주석을 추가합니다. <
network>를 Pod와 연결할 추가 네트워크의 이름으로 변경합니다.metadata: annotations: k8s.v1.cni.cncf.io/networks: <network>[,<network>,...] 1- 1
- 둘 이상의 추가 네트워크를 지정하려면 각 네트워크를 쉼표로 구분합니다. 쉼표 사이에 공백을 포함하지 마십시오. 동일한 추가 네트워크를 여러 번 지정하면 Pod에 해당 네트워크에 대한 인터페이스가 여러 개 연결됩니다.
사용자 정의된 추가 네트워크를 연결하려면 다음 형식으로 주석을 추가합니다.
metadata: annotations: k8s.v1.cni.cncf.io/networks: |- [ { "name": "<network>", 1 "namespace": "<namespace>", 2 "default-route": ["<default-route>"] 3 } ]
Pod를 생성하려면 다음 명령을 입력합니다. &
lt;name>을 Pod 이름으로 바꿉니다.$ oc create -f <name>.yaml
선택 사항:
PodCR에 주석이 있는지 확인하려면 다음 명령을 입력하고 <name>을 Pod 이름으로 교체합니다.$ oc get pod <name> -o yaml
다음 예에서
example-podPod는net1추가 네트워크에 연결되어 있습니다.$ oc get pod example-pod -o yaml apiVersion: v1 kind: Pod metadata: annotations: k8s.v1.cni.cncf.io/networks: macvlan-bridge k8s.v1.cni.cncf.io/network-status: |- 1 [{ "name": "openshift-sdn", "interface": "eth0", "ips": [ "10.128.2.14" ], "default": true, "dns": {} },{ "name": "macvlan-bridge", "interface": "net1", "ips": [ "20.2.2.100" ], "mac": "22:2f:60:a5:f8:00", "dns": {} }] name: example-pod namespace: default spec: ... status: ...- 1
k8s.v1.cni.cncf.io/network-status매개변수는 JSON 오브젝트 배열입니다. 각 오브젝트는 Pod에 연결된 추가 네트워크의 상태를 설명합니다. 주석 값은 일반 텍스트 값으로 저장됩니다.
24.5.1.1. Pod별 주소 지정 및 라우팅 옵션 지정
추가 네트워크에 Pod를 연결할 때 특정 Pod에서 해당 네트워크에 대한 추가 속성을 지정할 수 있습니다. 이를 통해 라우팅의 일부 측면을 변경하고 고정 IP 주소 및 MAC 주소를 지정할 수 있습니다. 이를 위해 JSON 형식의 주석을 사용할 수 있습니다.
사전 요구 사항
- Pod는 추가 네트워크와 동일한 네임스페이스에 있어야 합니다.
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터에 로그인해야 합니다.
절차
주소 지정 및/또는 라우팅 옵션을 지정하는 동안 추가 네트워크에 Pod를 추가하려면 다음 단계를 완료하십시오.
Pod리소스 정의를 편집합니다. 기존Pod리소스를 편집하는 경우 다음 명령을 실행하여 기본 편집기에서 정의를 편집합니다. <name>을 편집할Pod리소스의 이름으로 변경합니다.$ oc edit pod <name>
Pod리소스 정의에서k8s.v1.cni.cncf.io/networks매개변수를 Pod메타데이터매핑에 추가합니다.k8s.v1.cni.cncf.io/networks는 추가 특성을 지정하는 것 외에도NetworkAttachmentDefinitionCR(사용자 정의 리소스) 이름을 참조하는 오브젝트 목록의 JSON 문자열을 허용합니다.metadata: annotations: k8s.v1.cni.cncf.io/networks: '[<network>[,<network>,...]]' 1- 1
- 다음 예와 같이
<network>를 JSON 오브젝트로 바꿉니다. 작은 따옴표를 사용해야 합니다.
다음 예제에서 주석은
default-route매개변수를 사용하여 기본 경로가 있을 네트워크 연결을 지정합니다.apiVersion: v1 kind: Pod metadata: name: example-pod annotations: k8s.v1.cni.cncf.io/networks: ' { "name": "net1" }, { "name": "net2", 1 "default-route": ["192.0.2.1"] 2 }' spec: containers: - name: example-pod command: ["/bin/bash", "-c", "sleep 2000000000000"] image: centos/tools
기본 경로는 다른 경로에 지정되지 않은 모든 트래픽이 게이트웨이로 라우팅되도록 합니다.
OpenShift Container Platform의 기본 네트워크 인터페이스 이외의 인터페이스로 기본 경로를 설정하면 Pod 사이에서 트래픽이 라우팅될 것으로 예상되는 트래픽이 다른 인터페이스를 통해 라우팅될 수 있습니다.
Pod의 라우팅 속성을 확인하려면 oc 명령을 사용하여 Pod에서 ip 명령을 실행할 수 있습니다.
$ oc exec -it <pod_name> -- ip route
JSON 형식의 오브젝트 목록에 default-route 키가 있는 경우 Pod의 k8s.v1.cni.cncf.io/network-status 를 참조하여 어떤 추가 네트워크가 기본 경로를 할당했는지 확인할 수도 있습니다.
Pod의 고정 IP 주소 또는 MAC 주소를 설정하려면 JSON 형식의 주석을 사용하면 됩니다. 이를 위해서는 이러한 기능을 특별하게 허용하는 네트워크를 생성해야 합니다. 이는 다음과 같이 CNO의 rawCNIConfig에서 지정할 수 있습니다.
다음 명령을 실행하여 CNO CR을 편집합니다.
$ oc edit networks.operator.openshift.io cluster
다음 YAML은 CNO의 구성 매개변수를 설명합니다.
CNO(Cluster Network Operator) YAML 구성
name: <name> 1 namespace: <namespace> 2 rawCNIConfig: '{ 3 ... }' type: Raw
다음 오브젝트는 macvlan CNI 플러그인을 사용하여 고정 MAC 주소 및 IP 주소를 사용하기 위한 구성 매개변수를 설명합니다.
고정 IP 및 MAC 주소를 사용하는 macvlan CNI 플러그인 JSON 구성 오브젝트
{
"cniVersion": "0.3.1",
"name": "<name>", 1
"plugins": [{ 2
"type": "macvlan",
"capabilities": { "ips": true }, 3
"master": "eth0", 4
"mode": "bridge",
"ipam": {
"type": "static"
}
}, {
"capabilities": { "mac": true }, 5
"type": "tuning"
}]
}
그런 다음 위의 네트워크 연결을 키와 함께 JSON 형식 주석에서 참조하여 지정된 Pod에 할당할 고정 IP 및 MAC 주소를 지정할 수 있습니다.
다음을 사용하여 Pod를 편집합니다.
$ oc edit pod <name>
고정 IP 및 MAC 주소를 사용하는 macvlan CNI 플러그인 JSON 구성 오브젝트
apiVersion: v1
kind: Pod
metadata:
name: example-pod
annotations:
k8s.v1.cni.cncf.io/networks: '[
{
"name": "<name>", 1
"ips": [ "192.0.2.205/24" ], 2
"mac": "CA:FE:C0:FF:EE:00" 3
}
]'
고정 IP 주소와 MAC 주소를 동시에 사용할 필요는 없으며 개별적으로 또는 함께 사용할 수 있습니다.
추가 네트워크가 있는 Pod의 IP 주소 및 MAC 속성을 확인하려면 oc 명령을 사용하여 Pod에서 ip 명령을 실행합니다.
$ oc exec -it <pod_name> -- ip a
24.6. 추가 네트워크에서 Pod 제거
클러스터 사용자는 추가 네트워크에서 Pod를 제거할 수 있습니다.
24.6.1. 추가 네트워크에서 Pod 제거
Pod를 삭제해야만 추가 네트워크에서 Pod를 제거할 수 있습니다.
사전 요구 사항
- Pod에 추가 네트워크가 연결되어 있어야 합니다.
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터에 로그인합니다.
절차
Pod를 삭제하려면 다음 명령을 입력합니다.
$ oc delete pod <name> -n <namespace>
-
<name>은 Pod의 이름입니다. -
<namespace>는 Pod가 포함된 네임스페이스입니다.
-
24.7. 추가 네트워크 편집
클러스터 관리자는 기존 추가 네트워크의 구성을 수정할 수 있습니다.
24.7.1. 추가 네트워크 연결 정의 수정
클러스터 관리자는 기존 추가 네트워크를 변경할 수 있습니다. 추가 네트워크에 연결된 기존 Pod는 업데이트되지 않습니다.
사전 요구 사항
- 클러스터에 추가 네트워크가 구성되어야 합니다.
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
클러스터의 추가 네트워크를 편집하려면 다음 단계를 완료하십시오.
기본 텍스트 편집기에서 CNO(Cluster Network Operator) CR을 편집하려면 다음 명령을 실행합니다.
$ oc edit networks.operator.openshift.io cluster
-
additionalNetworks컬렉션에서 변경 내용으로 추가 네트워크를 업데이트합니다. - 변경 사항을 저장하고 텍스트 편집기를 종료하여 변경 사항을 커밋합니다.
선택 사항: CNO가 다음 명령을 실행하여
NetworkAttachmentDefinition오브젝트를 업데이트했는지 확인합니다. <network-name>을 표시할 추가 네트워크의 이름으로 변경합니다. CNO가 변경 사항을 반영하기 위해NetworkAttachmentDefinition오브젝트를 업데이트하기 전에 지연이 발생할 수 있습니다.$ oc get network-attachment-definitions <network-name> -o yaml
예를 들어 다음 콘솔 출력은
net1이라는NetworkAttachmentDefinition오브젝트를 표시합니다.$ oc get network-attachment-definitions net1 -o go-template='{{printf "%s\n" .spec.config}}' { "cniVersion": "0.3.1", "type": "macvlan", "master": "ens5", "mode": "bridge", "ipam": {"type":"static","routes":[{"dst":"0.0.0.0/0","gw":"10.128.2.1"}],"addresses":[{"address":"10.128.2.100/23","gateway":"10.128.2.1"}],"dns":{"nameservers":["172.30.0.10"],"domain":"us-west-2.compute.internal","search":["us-west-2.compute.internal"]}} }
24.8. 추가 네트워크 제거
클러스터 관리자는 추가 네트워크의 연결을 제거할 수 있습니다.
24.8.1. 추가 네트워크 연결 정의 제거
클러스터 관리자는 OpenShift Container Platform 클러스터에서 추가 네트워크를 제거할 수 있습니다. 추가 네트워크는 연결된 Pod에서 제거되지 않습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
클러스터에서 추가 네트워크를 제거하려면 다음 단계를 완료하십시오.
다음 명령을 실행하여 기본 텍스트 편집기에서 CNO(Cluster Network Operator)를 편집합니다.
$ oc edit networks.operator.openshift.io cluster
제거할 네트워크 연결 정의에 대한
additionalNetworks컬렉션에서 구성을 제거하여 CR을 수정합니다.apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: additionalNetworks: [] 1- 1
additionalNetworks컬렉션에서 유일한 추가 네트워크 연결 정의에 대한 구성 매핑을 제거하는 경우 빈 컬렉션을 지정해야 합니다.
- 변경 사항을 저장하고 텍스트 편집기를 종료하여 변경 사항을 커밋합니다.
선택 사항: 추가 네트워크 CR이 삭제되었는지 확인하려면 다음 명령을 실행합니다.
$ oc get network-attachment-definition --all-namespaces
24.9. VRF에 보조 네트워크 할당
24.9.1. VRF에 보조 네트워크 할당
클러스터 관리자는 CNI VRF 플러그인을 사용하여 VRF 도메인에 대한 추가 네트워크를 구성할 수 있습니다. 이 플러그인으로 생성된 가상 네트워크는 지정한 물리적 인터페이스와 연결됩니다.
VRF를 사용하는 애플리케이션은 특정 장치에 바인딩해야 합니다. 일반적인 사용은 소켓에 SO_BINDTODEVICE 옵션을 사용하는 것입니다. SO_BINDTODEVICE 는 소켓을 전달된 인터페이스 이름(예: eth 1)에 지정된 장치에 바인딩합니다. SO_BINDTODEVICE 를 사용하려면 애플리케이션에 CAP_NET_RAW 기능이 있어야 합니다.
OpenShift Container Platform Pod에서는 ip vrf exec 명령을 통해 VRF를 사용할 수 없습니다. VRF를 사용하려면 애플리케이션을 VRF 인터페이스에 직접 바인딩합니다.
24.9.1.1. CNI VRF 플러그인으로 추가 네트워크 연결 생성
CNO(Cluster Network Operator)는 추가 네트워크 정의를 관리합니다. 생성할 추가 네트워크를 지정하면 CNO가 NetworkAttachmentDefinition CR(사용자 정의 리소스)을 자동으로 생성합니다.
Cluster Network Operator가 관리하는 NetworkAttachmentDefinition CR을 편집하지 마십시오. 편집하면 추가 네트워크의 네트워크 트래픽이 중단될 수 있습니다.
CNI VRF 플러그인으로 추가 네트워크 연결을 생성하려면 다음 절차를 수행하십시오.
사전 요구 사항
- OpenShift Container Platform CLI, oc를 설치합니다.
- cluster-admin 권한이 있는 사용자로 OpenShift 클러스터에 로그인합니다.
절차
추가
네트워크연결에 대한 네트워크 CR(사용자 정의 리소스)을 생성하고 다음 예제 CR과 같이 추가 네트워크의rawCNIConfig구성을 삽입합니다. YAML을additional-network-attachment.yaml파일로 저장합니다.apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: additionalNetworks: - name: test-network-1 namespace: additional-network-1 type: Raw rawCNIConfig: '{ "cniVersion": "0.3.1", "name": "macvlan-vrf", "plugins": [ 1 { "type": "macvlan", 2 "master": "eth1", "ipam": { "type": "static", "addresses": [ { "address": "191.168.1.23/24" } ] } }, { "type": "vrf", "vrfname": "example-vrf-name", 3 "table": 1001 4 }] }'참고VRF는 리소스의 유형이
netdevice인 경우에만 올바르게 작동합니다.Network리소스를 생성합니다.$ oc create -f additional-network-attachment.yaml
CNO가 다음 명령을 실행하여
NetworkAttachmentDefinitionCR을 생성했는지 확인합니다. <namespace>를 네트워크 연결을 구성할 때 지정한 네임스페이스(예:additional-network-1)로 바꿉니다.$ oc get network-attachment-definitions -n <namespace>
출력 예
NAME AGE additional-network-1 14m
참고CNO가 CR을 생성하기 전에 지연이 발생할 수 있습니다.
추가 VRF 네트워크 연결에 성공했는지 확인
VRF CNI가 올바르게 구성되어 추가 네트워크 연결이 연결되었는지 확인하려면 다음을 수행하십시오.
- VRF CNI를 사용하는 네트워크를 생성합니다.
- 포드에 네트워크를 할당합니다.
포드 네트워크 연결이 VRF 추가 네트워크에 연결되어 있는지 확인합니다. Pod로 원격 쉘을 설치하고 다음 명령을 실행합니다.
$ ip vrf show
출력 예
Name Table ----------------------- red 10
VRF 인터페이스가 보조 인터페이스의 마스터인지 확인합니다.
$ ip link
출력 예
5: net1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master red state UP mode
25장. 하드웨어 네트워크
25.1. SR-IOV(Single Root I/O Virtualization) 하드웨어 네트워크 정보
SR-IOV(Single Root I/O Virtualization) 사양은 단일 장치를 여러 Pod와 공유할 수 있는 PCI 장치 할당 유형의 표준입니다.
SR-IOV를 사용하면 호스트 노드에서 물리적 기능(PF)으로 인식되는 호환 네트워크 장치를 여러 VF(가상 기능)로 분할할 수 있습니다. VF는 다른 네트워크 장치와 같이 사용됩니다. 장치의 SR-IOV 네트워크 장치 드라이버는 컨테이너에서 VF가 노출되는 방식을 결정합니다.
-
netdevice드라이버: 컨테이너의netns에 있는 일반 커널 네트워크 장치 -
VFIO-pci드라이버: 컨테이너에 마운트된 문자 장치
높은 대역폭 또는 짧은 대기 시간이 필요한 애플리케이션에 대해 베어 메탈 또는 RHOSP(Red Hat OpenStack Platform) 인프라에 설치된 OpenShift Container Platform 클러스터에 추가 네트워크와 함께 SR-IOV 네트워크 장치를 사용할 수 있습니다.
SR-IOV 네트워크에 대한 다중 네트워크 정책을 구성할 수 있습니다. 이에 대한 지원은 기술 프리뷰이며 SR-IOV 추가 네트워크는 커널 NIC에서만 지원됩니다. DPDK(Data Plane Development Kit) 애플리케이션에서는 지원되지 않습니다.
SR-IOV 네트워크에서 다중 네트워크 정책을 생성하면 다중 네트워크 정책이 구성되지 않은 SR-IOV 네트워크와 비교하여 애플리케이션에 동일한 성능을 제공하지 못할 수 있습니다.
SR-IOV 네트워크의 다중 네트워크 정책은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
다음 명령을 사용하여 노드에서 SR-IOV를 활성화할 수 있습니다.
$ oc label node <node_name> feature.node.kubernetes.io/network-sriov.capable="true"
25.1.1. SR-IOV 네트워크 장치를 관리하는 구성 요소
SR-IOV 네트워크 Operator는 SR-IOV 스택의 구성 요소를 생성하고 관리합니다. 다음과 같은 기능을 수행합니다.
- SR-IOV 네트워크 장치 검색 및 관리 오케스트레이션
-
SR-IOV 컨테이너 네트워크 인터페이스(CNI)에 대한
NetworkAttachmentDefinition사용자 정의 리소스 생성 - SR-IOV 네트워크 장치 플러그인의 구성을 생성하고 업데이트
-
노드별
SriovNetworkNodeState사용자 정의 리소스 생성 -
각
SriovNetworkNodeState사용자 정의 리소스에서spec.interfaces필드 업데이트
Operator는 다음 구성 요소를 프로비저닝합니다.
- SR-IOV 네트워크 구성 데몬
- SR-IOV 네트워크 Operator가 시작될 때 작업자 노드에 배포되는 데몬 세트입니다. 데몬은 클러스터에서 SR-IOV 네트워크 장치를 검색하고 초기화합니다.
- SR-IOV 네트워크 Operator webhook
- Operator 사용자 정의 리소스의 유효성을 검증하고 설정되지 않은 필드에 적절한 기본값을 설정하는 동적 승인 컨트롤러 webhook.
- SR-IOV 네트워크 리소스 인젝터
-
SR-IOV VF와 같은 사용자 정의 네트워크 리소스에 대한 요청 및 제한으로 Kubernetes pod 사양을 패치하는 기능을 제공하는 동적 승인 컨트롤러 webhook. SR-IOV 네트워크 리소스 인젝터는 Pod의 첫 번째 컨테이너에만
resource필드를 자동으로 추가합니다. - SR-IOV 네트워크 장치 플러그인
- SR-IOV 네트워크 VF(가상 기능) 리소스를 검색, 승격 및 할당하는 장치 플러그인입니다. Kubernetes에서는 장치 플러그인을 사용하여 일반적으로 물리적 장치에서 제한된 리소스를 사용할 수 있습니다. 장치 플러그인은 Kubernetes 스케줄러에 리소스 가용성을 인식하여 스케줄러가 충분한 리소스가 있는 노드에서 Pod를 예약할 수 있도록 합니다.
- SR-IOV CNI 플러그인
- SR-IOV 네트워크 장치 플러그인에서 할당된 VF 인터페이스를 pod에 직접 연결하는 CNI 플러그인입니다.
- SR-IOV InfiniBand CNI 플러그인
- SR-IOV 네트워크 장치 플러그인에서 할당된 IB(InfiniBand) VF 인터페이스를 pod에 직접 연결하는 CNI 플러그인입니다.
SR-IOV 네트워크 리소스 인젝터 및 SR-IOV Network Operator webhook는 기본적으로 활성화되어 있으며 기본 SriovOperatorConfig CR을 편집하여 비활성화할 수 있습니다. SR-IOV Network Operator Admission Controller 웹 후크를 비활성화할 때 주의하십시오. 문제 해결과 같은 특정 상황에서 웹 후크를 비활성화하거나 지원되지 않는 장치를 사용하려는 경우 사용할 수 있습니다.
25.1.1.1. 지원되는 플랫폼
SR-IOV Network Operator는 다음 플랫폼에서 지원됩니다.
- 베어 메탈
- Red Hat OpenStack Platform (RHOSP)
25.1.1.2. 지원되는 장치
OpenShift Container Platform에서는 다음 네트워크 인터페이스 컨트롤러를 지원합니다.
표 25.1. 지원되는 네트워크 인터페이스 컨트롤러
| 제조업체 | 모델 | 벤더 ID | 장치 ID |
|---|---|---|---|
| Broadcom | BCM57414 | 14e4 | 16d7 |
| Broadcom | BCM57508 | 14e4 | 1750 |
| Intel | X710 | 8086 | 1572 |
| Intel | XL710 | 8086 | 1583 |
| Intel | XXV710 | 8086 | 158b |
| Intel | E810-CQDA2 | 8086 | 1592 |
| Intel | E810-2CQDA2 | 8086 | 1592 |
| Intel | E810-XXVDA2 | 8086 | 159b |
| Intel | E810-XXVDA4 | 8086 | 1593 |
| Intel | E810-XXVDA4T | 8086 | 1593 |
| Mellanox | MT27700 제품군 [ConnectX-4] | 15b3 | 1013 |
| Mellanox | MT27710 제품군 [ConnectX-4 Lx] | 15b3 | 1015 |
| Mellanox | MT27800 제품군 [ConnectX-5] | 15b3 | 1017 |
| Mellanox | MT28880 제품군 [ConnectX-5 Ex] | 15b3 | 1019 |
| Mellanox | MT28908 제품군 [ConnectX-6] | 15b3 | 101b |
| Mellanox | MT2892 제품군 [ConnectX-6 Dx] | 15b3 | 101d |
| Mellanox | MT2894 제품군 [ConnectX-6 Lx] | 15b3 | 101f |
| Mellanox | MT42822 ConnectX-6 NIC 모드 BlueField-2 | 15b3 | a2d6 |
| Pensando [1] | ECDHE-25 ionic 드라이버용 듀얼 포트 25G 분산 서비스 카드 | 0x1dd8 | 0x1002 |
| Pensando [1] | ECDHE-100 듀얼 포트 100G 분산 서비스 카드 (ionic 드라이버용) | 0x1dd8 | 0x1003 |
| Silicom | STS 제품군 | 8086 | 1591 |
- OpenShift SR-IOV는 지원되지만 SR-IOV를 사용할 때 SR-IOV CNI 구성 파일을 사용하여 고정 VF(가상 기능) 미디어 액세스 제어(MAC) 주소를 설정해야 합니다.
지원되는 카드 및 호환 가능한 OpenShift Container Platform 버전의 최신 목록은 Openshift Single Root I/O Virtualization (SR-IOV) 및 PTP 하드웨어 네트워크 지원 매트릭스 를 참조하십시오.
25.1.1.3. SR-IOV 네트워크 장치의 자동 검색
SR-IOV Network Operator는 작업자 노드에서 SR-IOV 가능 네트워크 장치를 클러스터에서 검색합니다. Operator는 호환되는 SR-IOV 네트워크 장치를 제공하는 각 작업자 노드에 대해 SriovNetworkNodeState CR(사용자 정의 리소스)을 생성하고 업데이트합니다.
CR에는 작업자 노드와 동일한 이름이 할당됩니다. status.interfaces 목록은 노드의 네트워크 장치에 대한 정보를 제공합니다.
SriovNetworkNodeState 오브젝트를 수정하지 마십시오. Operator는 이러한 리소스를 자동으로 생성하고 관리합니다.
25.1.1.3.1. SriovNetworkNodeState 오브젝트의 예
다음 YAML은 SR-IOV Network Operator가 생성한 SriovNetworkNodeState 오브젝트의 예입니다.
SriovNetworkNodeState 오브젝트
apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodeState metadata: name: node-25 1 namespace: openshift-sriov-network-operator ownerReferences: - apiVersion: sriovnetwork.openshift.io/v1 blockOwnerDeletion: true controller: true kind: SriovNetworkNodePolicy name: default spec: dpConfigVersion: "39824" status: interfaces: 2 - deviceID: "1017" driver: mlx5_core mtu: 1500 name: ens785f0 pciAddress: "0000:18:00.0" totalvfs: 8 vendor: 15b3 - deviceID: "1017" driver: mlx5_core mtu: 1500 name: ens785f1 pciAddress: "0000:18:00.1" totalvfs: 8 vendor: 15b3 - deviceID: 158b driver: i40e mtu: 1500 name: ens817f0 pciAddress: 0000:81:00.0 totalvfs: 64 vendor: "8086" - deviceID: 158b driver: i40e mtu: 1500 name: ens817f1 pciAddress: 0000:81:00.1 totalvfs: 64 vendor: "8086" - deviceID: 158b driver: i40e mtu: 1500 name: ens803f0 pciAddress: 0000:86:00.0 totalvfs: 64 vendor: "8086" syncStatus: Succeeded
25.1.1.4. Pod에서 가상 함수 사용 예
SR-IOV VF가 연결된 pod에서 RDMA(Remote Direct Memory Access) 또는 DPDK(Data Plane Development Kit) 애플리케이션을 실행할 수 있습니다.
이 예는 RDMA 모드에서 VF(가상 기능)를 사용하는 pod를 보여줍니다.
RDMA 모드를 사용하는 Pod 사양
apiVersion: v1
kind: Pod
metadata:
name: rdma-app
annotations:
k8s.v1.cni.cncf.io/networks: sriov-rdma-mlnx
spec:
containers:
- name: testpmd
image: <RDMA_image>
imagePullPolicy: IfNotPresent
securityContext:
runAsUser: 0
capabilities:
add: ["IPC_LOCK","SYS_RESOURCE","NET_RAW"]
command: ["sleep", "infinity"]
다음 예는 DPDK 모드에서 VF가 있는 pod를 보여줍니다.
DPDK 모드를 사용하는 Pod 사양
apiVersion: v1
kind: Pod
metadata:
name: dpdk-app
annotations:
k8s.v1.cni.cncf.io/networks: sriov-dpdk-net
spec:
containers:
- name: testpmd
image: <DPDK_image>
securityContext:
runAsUser: 0
capabilities:
add: ["IPC_LOCK","SYS_RESOURCE","NET_RAW"]
volumeMounts:
- mountPath: /dev/hugepages
name: hugepage
resources:
limits:
memory: "1Gi"
cpu: "2"
hugepages-1Gi: "4Gi"
requests:
memory: "1Gi"
cpu: "2"
hugepages-1Gi: "4Gi"
command: ["sleep", "infinity"]
volumes:
- name: hugepage
emptyDir:
medium: HugePages
25.1.1.5. 컨테이너 애플리케이션에서 사용하는 DPDK 라이브러리
선택적 라이브러리 인app-netutil 은 해당 Pod 내에서 실행되는 컨테이너 내에서 포드에 대한 네트워크 정보를 수집하기 위한 여러 API 메서드를 제공합니다.
이 라이브러리는 DPDK(Data Plane Development Kit) 모드의 SR-IOV VF(가상 기능)를 컨테이너에 통합하는 데 도움이 될 수 있습니다. 라이브러리는 Golang API와 C API를 모두 제공합니다.
현재 세 가지 API 메서드가 구현되어 있습니다.
GetCPUInfo()- 이 함수는 컨테이너에서 사용할 수 있는 CPU를 결정하고 목록을 반환합니다.
GetHugepages()-
이 함수는 각 컨테이너에 대해
Pod사양에 요청된 대규모 페이지 메모리의 양을 결정하고 값을 반환합니다. GetInterfaces()- 이 함수는 컨테이너의 인터페이스 집합을 결정하고 목록을 반환합니다. 반환 값에는 각 인터페이스에 대한 인터페이스 유형 및 유형별 데이터가 포함됩니다.
라이브러리 리포지토리에는 컨테이너 이미지 dpdk-app-centos 를 빌드하는 샘플 Dockerfile이 포함되어 있습니다. 컨테이너 이미지는 Pod 사양의 환경 변수에 따라 다음 DPDK 샘플 애플리케이션 중 하나를 실행할 수 있습니다. l2fwd,l3wd 또는 testpmd. 컨테이너 이미지는 app-netutil 라이브러리를 컨테이너 이미지 자체에 통합하는 예를 제공합니다. 라이브러리는 init 컨테이너에 통합할 수도 있습니다. init 컨테이너는 필요한 데이터를 수집하고 기존 DPDK 워크로드에 데이터를 전달할 수 있습니다.
25.1.1.6. Downward API 에 대한 대규보 페이지 리소스 주입
Pod 사양에 대규모 페이지에 대한 리소스 요청 또는 제한이 포함된 경우 Network Resources Injector는 컨테이너에 대규모 페이지 정보를 제공하기 위해 Pod 사양에 Downward API 필드를 자동으로 추가합니다.
Network Resources Injector는 podnetinfo 라는 볼륨을 추가하고 Pod의 각 컨테이너에 대해 /etc/podnetinfo 에 마운트됩니다. 볼륨은 Downward API를 사용하며 대규모 페이지 요청 및 제한에 대한 파일을 포함합니다. 파일 이름 지정 규칙은 다음과 같습니다.
-
/etc/podnetinfo/hugepages_1G_request_<container-name> -
/etc/podnetinfo/hugepages_1G_limit_<container-name> -
/etc/podnetinfo/hugepages_2M_request_<container-name> -
/etc/podnetinfo/hugepages_2M_limit_<container-name>
이전 목록에 지정된 경로는 app-netutil 라이브러리와 호환됩니다. 기본적으로 라이브러리는 /etc/podnetinfo 디렉터리에서 리소스 정보를 검색하도록 구성됩니다. Downward API 경로 항목을 수동으로 지정하도록 선택하는 경우 app-netutil 라이브러리는 이전 목록의 경로 외에도 다음 경로를 검색합니다.
-
/etc/podnetinfo/hugepages_request -
/etc/podnetinfo/hugepages_limit -
/etc/podnetinfo/hugepages_1G_request -
/etc/podnetinfo/hugepages_1G_limit -
/etc/podnetinfo/hugepages_2M_request -
/etc/podnetinfo/hugepages_2M_limit
Network Resources Injector에서 생성할 수 있는 경로와 마찬가지로 이전 목록의 경로는 선택적으로 _<container-name > 접미사로 종료할 수 있습니다.
25.1.2. 추가 리소스
25.1.3. 다음 단계
- SR-IOV Network Operator 설치
- 선택사항: SR-IOV Network Operator 구성
- SR-IOV 네트워크 장치 구성
- OpenShift Virtualization을 사용하는 경우: 가상 머신을 SR-IOV 네트워크에 연결
- SR-IOV 네트워크 연결 구성
- SR-IOV 추가 네트워크에 pod 추가
25.2. SR-IOV Network Operator 설치
SR-IOV(Single Root I/O Virtualization) Network Operator를 클러스터에 설치하여 SR-IOV 네트워크 장치 및 네트워크 연결을 관리할 수 있습니다.
25.2.1. SR-IOV Network Operator 설치
클러스터 관리자는 OpenShift Container Platform CLI 또는 웹 콘솔을 사용하여 SR-IOV Network Operator를 설치할 수 있습니다.
25.2.1.1. CLI: SR-IOV Network Operator 설치
클러스터 관리자는 CLI를 사용하여 Operator를 설치할 수 있습니다.
사전 요구 사항
- SR-IOV를 지원하는 하드웨어가 있는 노드로 베어 메탈 하드웨어에 설치된 클러스터.
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 계정.
프로세스
openshift-sriov-network-operator네임스페이스를 생성하려면 다음 명령을 입력합니다.$ cat << EOF| oc create -f - apiVersion: v1 kind: Namespace metadata: name: openshift-sriov-network-operator annotations: workload.openshift.io/allowed: management EOFOperatorGroup CR을 생성하려면 다음 명령을 입력합니다.
$ cat << EOF| oc create -f - apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: sriov-network-operators namespace: openshift-sriov-network-operator spec: targetNamespaces: - openshift-sriov-network-operator EOF
SR-IOV Network Operator를 서브스크립션합니다.
다음 명령을 실행하여 OpenShift Container Platform 주 버전 및 부 버전을 가져옵니다. 다음 단계의
channel값에 필요합니다.$ OC_VERSION=$(oc version -o yaml | grep openshiftVersion | \ grep -o '[0-9]*[.][0-9]*' | head -1)SR-IOV Network Operator에 대한 서브스크립션 CR을 만들려면 다음 명령을 입력합니다.
$ cat << EOF| oc create -f - apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: sriov-network-operator-subscription namespace: openshift-sriov-network-operator spec: channel: "${OC_VERSION}" name: sriov-network-operator source: redhat-operators sourceNamespace: openshift-marketplace EOF
Operator가 설치되었는지 확인하려면 다음 명령을 입력합니다.
$ oc get csv -n openshift-sriov-network-operator \ -o custom-columns=Name:.metadata.name,Phase:.status.phase
출력 예
Name Phase sriov-network-operator.4.13.0-202310121402 Succeeded
25.2.1.2. 웹 콘솔 : SR-IOV Network Operator 설치
클러스터 관리자는 웹 콘솔을 사용하여 Operator를 설치할 수 있습니다.
사전 요구 사항
- SR-IOV를 지원하는 하드웨어가 있는 노드로 베어 메탈 하드웨어에 설치된 클러스터.
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 계정.
프로세스
SR-IOV Network Operator 설치:
- OpenShift Container Platform 웹 콘솔에서 Operator → OperatorHub 를 클릭합니다.
- 사용 가능한 Operator 목록에서 SR-IOV Network Operator 를 선택한 다음 설치를 클릭합니다.
- Operator 설치 페이지의 설치된 네임스페이스 에서 Operator 권장 네임스페이스를 선택합니다.
- 설치를 클릭합니다.
SR-IOV Network Operator가 설치되었는지 확인하십시오.
- Operator → 설치된 Operator 페이지로 이동합니다.
SR-IOV Network Operator 가 openshift-sriov-network-operator 프로젝트에 InstallSucceeded 상태로 나열되어 있는지 확인합니다.
참고설치 중에 Operator가 실패 상태를 표시할 수 있습니다. 나중에 InstallSucceeded 메시지와 함께 설치에 성공하면 Failed 메시지를 무시할 수 있습니다.
Operator가 설치된 것으로 나타나지 않으면 다음과 같이 추가 문제 해결을 수행합니다.
- Operator 서브스크립션 및 설치 계획 탭의 상태 아래에서 실패 또는 오류가 있는지 검사합니다.
-
Workloads → Pod 페이지로 이동하여
openshift-sriov-network-operator프로젝트에서 Pod 로그를 확인합니다. YAML 파일의 네임스페이스를 확인합니다. 주석이 없는 경우 다음 명령을 사용하여 주석
workload.openshift.io/allowed=management를 Operator 네임스페이스에 추가할 수 있습니다.$ oc annotate ns/openshift-sriov-network-operator workload.openshift.io/allowed=management
참고단일 노드 OpenShift 클러스터의 경우 네임스페이스에 주석
workload.openshift.io/allowed=management가 필요합니다.
25.2.2. 다음 단계
25.3. SR-IOV Network Operator 구성
SR-IOV(Single Root I/O Virtualization) Network Operator는 클러스터의 SR-IOV 네트워크 장치 및 네트워크 첨부 파일을 관리합니다.
25.3.1. SR-IOV Network Operator 구성
SR-IOV Network Operator 구성 수정은 일반적으로 필요하지 않습니다. 대부분의 사용 사례에는 기본 구성이 권장됩니다. Operator의 기본 동작이 사용 사례와 호환되지 않는 경우에만 관련 구성을 수정하는 단계를 완료하십시오.
SR-IOV Network Operator는 SriovOperatorConfig.sriovnetwork.openshift.io CustomResourceDefinition 리소스를 추가합니다. Operator는 openshift-sriov-network-operator 네임스페이스에 default 라는 SriovOperatorConfig CR(사용자 정의 리소스)을 자동으로 생성합니다.
default CR에는 클러스터의 SR-IOV Network Operator 구성이 포함되어 있습니다. Operator 구성을 변경하려면 이 CR을 수정해야 합니다.
25.3.1.1. SR-IOV Network Operator 구성 사용자 정의 리소스
sriovoperatorconfig 사용자 정의 리소스의 필드는 다음 표에 설명되어 있습니다.
표 25.2. SR-IOV Network Operator 구성 사용자 정의 리소스
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
SR-IOV Network Operator 인스턴스의 이름을 지정합니다. 기본값은 |
|
|
|
SR-IOV Network Operator 인스턴스의 네임스페이스를 지정합니다. 기본값은 |
|
|
| 선택한 노드에서 SR-IOV Network Config Daemon 예약을 제어하기 위해 노드 선택을 지정합니다. 기본적으로 이 필드가 설정되지 않고 Operator는 작업자 노드에 SR-IOV Network Config 데몬 세트를 배포합니다. |
|
|
|
새 정책을 적용하여 노드에서 NIC를 구성할 때 노드 드레이닝 프로세스를 비활성화하거나 노드 드레이닝 프로세스를 활성화할지 여부를 지정합니다. 이 필드를
단일 노드 클러스터의 경우 Operator를 설치한 후 이 필드를 |
|
|
|
Network Resources Injector 데몬 세트를 활성화하거나 비활성화할지 여부를 지정합니다. 기본적으로 이 필드는 |
|
|
|
Operator Admission Controller 웹 후크 데몬 세트를 활성화하거나 비활성화할지 여부를 지정합니다. 기본적으로 이 필드는 |
|
|
|
Operator의 로그 세부 정보 표시 수준을 지정합니다. 기본 로그만 표시하려면 |
25.3.1.2. Network Resources Injector 정보
Network Resources Injector는 Kubernetes Dynamic Admission Controller 애플리케이션입니다. 다음과 같은 기능을 제공합니다.
- SR-IOV 네트워크 연결 정의 주석에 따라 SR-IOV 리소스 이름을 추가하기 위해 Pod 사양의 리소스 요청 및 제한 변경
-
Pod 사양을 Downward API 볼륨으로 변경하여 Pod 주석, 라벨 및 대규모 페이지 요청 및 제한을 노출합니다. Pod에서 실행되는 컨테이너는
/etc/podnetinfo경로에 있는 파일로 노출된 정보에 액세스할 수 있습니다.
기본적으로 Network Resources Injector는 SR-IOV Network Operator에 의해 활성화되며 모든 컨트롤 플레인 노드에서 데몬 세트로 실행됩니다. 다음은 3개의 컨트롤 플레인 노드가 있는 클러스터에서 실행 중인 Network Resources Injector Pod의 예입니다.
$ oc get pods -n openshift-sriov-network-operator
출력 예
NAME READY STATUS RESTARTS AGE network-resources-injector-5cz5p 1/1 Running 0 10m network-resources-injector-dwqpx 1/1 Running 0 10m network-resources-injector-lktz5 1/1 Running 0 10m
25.3.1.3. SR-IOV 네트워크 Operator Admission Controller webhook 정보
SR-IOV 네트워크 Operator Admission Controller webhook은 Kubernetes Dynamic Admission Controller 애플리케이션입니다. 다음과 같은 기능을 제공합니다.
-
SriovNetworkNodePolicyCR이 생성 또는 업데이트될 때 유효성 검사 -
CR을 만들거나 업데이트할 때
priority및deviceType필드의 기본값을 설정하여SriovNetworkNodePolicyCR 변경
기본적으로 SR-IOV 네트워크 Operator Admission Controller 웹 후크는 Operator에서 활성화하며 모든 컨트롤 플레인 노드에서 데몬 세트로 실행됩니다.
SR-IOV Network Operator Admission Controller 웹 후크를 비활성화할 때 주의하십시오. 문제 해결과 같은 특정 상황에서 웹 후크를 비활성화하거나 지원되지 않는 장치를 사용하려는 경우 사용할 수 있습니다.
다음은 3개의 컨트롤 플레인 노드가 있는 클러스터에서 실행되는 Operator Admission Controller 웹 후크 Pod의 예입니다.
$ oc get pods -n openshift-sriov-network-operator
출력 예
NAME READY STATUS RESTARTS AGE operator-webhook-9jkw6 1/1 Running 0 16m operator-webhook-kbr5p 1/1 Running 0 16m operator-webhook-rpfrl 1/1 Running 0 16m
25.3.1.4. 사용자 정의 노드 선택기 정보
SR-IOV Network Config 데몬은 클러스터 노드에서 SR-IOV 네트워크 장치를 검색하고 구성합니다. 기본적으로 클러스터의 모든 작업자 노드에 배포됩니다. 노드 레이블을 사용하여 SR-IOV Network Config 데몬이 실행되는 노드를 지정할 수 있습니다.
25.3.1.5. Network Resources Injector 비활성화 또는 활성화
기본적으로 활성화되어 있는 Network Resources Injector를 비활성화하거나 활성화하려면 다음 절차를 완료하십시오.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - SR-IOV Network Operator가 설치되어 있어야 합니다.
프로세스
enableInjector필드를 설정합니다. 기능을 비활성화하려면 <value>를false로 바꾸고 기능을 활성화하려면true로 바꿉니다.$ oc patch sriovoperatorconfig default \ --type=merge -n openshift-sriov-network-operator \ --patch '{ "spec": { "enableInjector": <value> } }'작은 정보또는 다음 YAML을 적용하여 Operator를 업데이트할 수 있습니다.
apiVersion: sriovnetwork.openshift.io/v1 kind: SriovOperatorConfig metadata: name: default namespace: openshift-sriov-network-operator spec: enableInjector: <value>
25.3.1.6. SR-IOV 네트워크 Operator Admission Controller webhook 비활성화 또는 활성화
Admission Controller webhook를 비활성화하거나 활성화하려면(기본적으로 활성화되어 있음) 다음 절차를 완료하십시오.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - SR-IOV Network Operator가 설치되어 있어야 합니다.
프로세스
enableOperatorWebhook필드를 설정합니다. 기능을 비활성화하려면 <value>를false로 바꾸고 활성화하려면true로 바꿉니다.$ oc patch sriovoperatorconfig default --type=merge \ -n openshift-sriov-network-operator \ --patch '{ "spec": { "enableOperatorWebhook": <value> } }'작은 정보또는 다음 YAML을 적용하여 Operator를 업데이트할 수 있습니다.
apiVersion: sriovnetwork.openshift.io/v1 kind: SriovOperatorConfig metadata: name: default namespace: openshift-sriov-network-operator spec: enableOperatorWebhook: <value>
25.3.1.7. SR-IOV Network Config 데몬에 대한 사용자 정의 NodeSelector 구성
SR-IOV Network Config 데몬은 클러스터 노드에서 SR-IOV 네트워크 장치를 검색하고 구성합니다. 기본적으로 클러스터의 모든 작업자 노드에 배포됩니다. 노드 레이블을 사용하여 SR-IOV Network Config 데몬이 실행되는 노드를 지정할 수 있습니다.
SR-IOV Network Config 데몬이 배포된 노드를 지정하려면 다음 절차를 완료하십시오.
configDaemonNodeSelector 필드를 업데이트하면 선택한 각 노드에서 SR-IOV Network Config 데몬이 다시 생성됩니다. 데몬이 다시 생성되는 동안 클러스터 사용자는 새로운 SR-IOV 네트워크 노드 정책을 적용하거나 새로운 SR-IOV Pod를 만들 수 없습니다.
프로세스
Operator의 노드 선택기를 업데이트하려면 다음 명령을 입력합니다.
$ oc patch sriovoperatorconfig default --type=json \ -n openshift-sriov-network-operator \ --patch '[{ "op": "replace", "path": "/spec/configDaemonNodeSelector", "value": {<node_label>} }]'">을 레이블로 바꿉니다.node-role.kubernetes.io/worker": ""에서와 같이 적용하려면 <node_label작은 정보또는 다음 YAML을 적용하여 Operator를 업데이트할 수 있습니다.
apiVersion: sriovnetwork.openshift.io/v1 kind: SriovOperatorConfig metadata: name: default namespace: openshift-sriov-network-operator spec: configDaemonNodeSelector: <node_label>
25.3.1.8. 단일 노드 설치를 위해 SR-IOV Network Operator 구성
기본적으로 SR-IOV Network Operator는 모든 정책이 변경되기 전에 노드에서 워크로드를 드레인합니다. Operator는 이 작업을 수행하여 재구성 전에 가상 기능을 사용하는 워크로드가 없는지 확인합니다.
단일 노드에 설치하는 경우 워크로드를 수신할 다른 노드가 없습니다. 결과적으로 Operator는 단일 노드에서 워크로드를 드레이닝하지 않도록 구성해야 합니다.
드레이닝 워크로드를 비활성화하기 위해 다음 절차를 수행한 후 SR-IOV 네트워크 인터페이스를 사용하는 워크로드를 제거한 후 SR-IOV 네트워크 노드 정책을 변경해야 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - SR-IOV Network Operator가 설치되어 있어야 합니다.
프로세스
disableDrain필드를true로 설정하려면 다음 명령을 입력합니다.$ oc patch sriovoperatorconfig default --type=merge \ -n openshift-sriov-network-operator \ --patch '{ "spec": { "disableDrain": true } }'작은 정보또는 다음 YAML을 적용하여 Operator를 업데이트할 수 있습니다.
apiVersion: sriovnetwork.openshift.io/v1 kind: SriovOperatorConfig metadata: name: default namespace: openshift-sriov-network-operator spec: disableDrain: true
25.3.1.9. 호스트 컨트롤 플레인에 대한 SR-IOV Operator 배포
호스트 컨트롤 플레인은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
호스팅 서비스 클러스터를 구성하고 배포한 후 호스팅 클러스터에서 SR-IOV Operator에 대한 서브스크립션을 생성할 수 있습니다. SR-IOV Pod는 컨트롤 플레인이 아닌 작업자 머신에서 실행됩니다.
사전 요구 사항
AWS에 호스팅 클러스터를 구성하고 배포해야 합니다. 자세한 내용은 AWS에서 호스팅 클러스터 구성 (기술 프리뷰) 을 참조하십시오.
프로세스
네임스페이스 및 Operator 그룹을 생성합니다.
apiVersion: v1 kind: Namespace metadata: name: openshift-sriov-network-operator --- apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: sriov-network-operators namespace: openshift-sriov-network-operator spec: targetNamespaces: - openshift-sriov-network-operator
SR-IOV Operator에 대한 서브스크립션을 생성합니다.
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: sriov-network-operator-subsription namespace: openshift-sriov-network-operator spec: channel: "4.13" name: sriov-network-operator config: nodeSelector: node-role.kubernetes.io/worker: "" source: s/qe-app-registry/redhat-operators sourceNamespace: openshift-marketplace
검증
SR-IOV Operator가 준비되었는지 확인하려면 다음 명령을 실행하고 결과 출력을 확인합니다.
$ oc get csv -n openshift-sriov-network-operator
출력 예
NAME DISPLAY VERSION REPLACES PHASE sriov-network-operator.4.13.0-202211021237 SR-IOV Network Operator 4.13.0-202211021237 sriov-network-operator.4.13.0-202210290517 Succeeded
SR-IOV Pod가 배포되었는지 확인하려면 다음 명령을 실행합니다.
$ oc get pods -n openshift-sriov-network-operator
25.3.2. 다음 단계
25.4. SR-IOV 네트워크 장치 구성
클러스터에서 SR-IOV(Single Root I/O Virtualization) 장치를 구성할 수 있습니다.
25.4.1. SR-IOV 네트워크 노드 구성 오브젝트
SR-IOV 네트워크 노드 정책을 생성하여 노드의 SR-IOV 네트워크 장치 구성을 지정합니다. 정책의 API 오브젝트는 sriovnetwork.openshift.io API 그룹의 일부입니다.
다음 YAML은 SR-IOV 네트워크 노드 정책을 설명합니다.
apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: <name> 1 namespace: openshift-sriov-network-operator 2 spec: resourceName: <sriov_resource_name> 3 nodeSelector: feature.node.kubernetes.io/network-sriov.capable: "true" 4 priority: <priority> 5 mtu: <mtu> 6 needVhostNet: false 7 numVfs: <num> 8 nicSelector: 9 vendor: "<vendor_code>" 10 deviceID: "<device_id>" 11 pfNames: ["<pf_name>", ...] 12 rootDevices: ["<pci_bus_id>", ...] 13 netFilter: "<filter_string>" 14 deviceType: <device_type> 15 isRdma: false 16 linkType: <link_type> 17 eSwitchMode: "switchdev" 18
- 1
- 사용자 정의 리소스 오브젝트의 이름입니다.
- 2
- SR-IOV Network Operator가 설치된 네임스페이스입니다.
- 3
- SR-IOV 네트워크 장치 플러그인의 리소스 이름입니다. 리소스 이름에 대한 SR-IOV 네트워크 노드 정책을 여러 개 생성할 수 있습니다.
이름을 지정할 때
resourceName에서 허용되는 구문 표현식^[a-zA-Z0-9_]+$를 사용해야 합니다. - 4
- 노드 선택기는 구성할 노드를 지정합니다. 선택한 노드의 SR-IOV 네트워크 장치만 구성됩니다. SR-IOV CNI(Container Network Interface) 플러그인 및 장치 플러그인은 선택한 노드에만 배포됩니다.
- 5
- 선택 사항: 우선순위는
0에서99사이의 정수 값입니다. 작은 값은 우선순위가 높습니다. 예를 들어 우선순위10은 우선순위99보다 높습니다. 기본값은99입니다. - 6
- 선택사항: 가상 기능의 최대 전송 단위(MTU)입니다. 최대 MTU 값은 네트워크 인터페이스 컨트롤러(NIC) 모델마다 다를 수 있습니다.중요
기본 네트워크 인터페이스에서 가상 기능을 생성하려면 MTU가 클러스터 MTU와 일치하는 값으로 설정되어 있는지 확인합니다.
- 7
- 선택 사항: pod에
/dev/vhost-net장치를 마운트하려면needVhostNet을true로 설정합니다. DPDK(Data Plane Development Kit)와 함께 마운트된/dev/vhost-net장치를 사용하여 트래픽을 커널 네트워크 스택으로 전달합니다. - 8
- SR-IOV 물리적 네트워크 장치에 생성할 VF(가상 기능) 수입니다. Intel NIC(Network Interface Controller)의 경우 VF 수는 장치에서 지원하는 총 VF보다 클 수 없습니다. Mellanox NIC의 경우 VF 수는
128보다 클 수 없습니다. - 9
- NIC 선택기는 Operator가 구성할 장치를 식별합니다. 모든 매개변수에 값을 지정할 필요는 없습니다. 실수로 장치를 선택하지 않도록 네트워크 장치를 정확하게 파악하는 것이 좋습니다.
rootDevices를 지정하는 경우vendor,deviceID, 또는pfNames의 값도 지정해야 합니다.pfNames와rootDevices를 동시에 지정하는 경우 동일한 장치를 참조하는지 확인하십시오.netFilter의 값을 지정하는 경우 네트워크 ID가 고유하므로 다른 매개변수를 지정할 필요가 없습니다. - 10
- 선택 사항: SR-IOV 네트워크 장치의 벤더 16진수 코드입니다. 허용되는 유일한 값은
8086및15b3입니다. - 11
- 선택사항: SR-IOV 네트워크 장치의 장치 16진수 코드입니다. 예를 들어
101b는 Mellanox ConnectX-6 장치의 장치 ID입니다. - 12
- 선택사항: 장치에 대해 하나 이상의 물리적 기능(PF) 이름으로 구성된 배열입니다.
- 13
- 선택 사항: 장치의 PF에 대해 하나 이상의 PCI 버스 주소로 구성된 배열입니다. 주소를
0000:02:00.1형식으로 입력합니다. - 14
- 선택 사항: 플랫폼별 네트워크 필터입니다. 지원되는 유일한 플랫폼은 RHOSP(Red Hat OpenStack Platform)입니다. 허용 가능한 값은 다음 형식을 사용합니다.
openstack/NetworkID:xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx.xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx를/var/config/openstack/latest/network_data.json메타데이터 파일의 값으로 바꿉니다. - 15
- 선택사항: 가상 기능의 드라이버 유형입니다. 허용되는 유일한 값은
netdevice및vfio-pci입니다. 기본값은netdevice입니다.베어 메탈 노드의 DPDK 모드에서 Mellanox NIC가 작동하려면
netdevice드라이버 유형을 사용하고isRdma를true로 설정합니다. - 16
- 선택 사항: 원격 직접 메모리 액세스(RDMA) 모드를 활성화할지 여부를 구성합니다. 기본값은
false입니다.isRdma매개변수가true로 설정된 경우 RDMA 가능 VF를 일반 네트워크 장치로 계속 사용할 수 있습니다. 어느 모드에서나 장치를 사용할 수 있습니다.isRdma를true로 설정하고 추가로needVhostNet을true로 설정하여 Fast Datapath DPDK 애플리케이션과 함께 사용할 Mellanox NIC를 구성합니다. - 17
- 선택사항: VF의 링크 유형입니다. 기본값은 이더넷의
eth입니다. 이 값을 InfiniBand의 'ib'로 변경합니다.linkType이ibib로 설정되면isRdma는 SR-IOV Network Operator 웹 후크에 의해 자동으로true로 설정됩니다.linkType을ib로 설정하면deviceType을vfio-pci로 설정하지 않아야 합니다.SriovNetworkNodePolicy에 대해 linkType을 'eth'로 설정하지 마십시오. 장치 플러그인에서 보고한 사용 가능한 장치가 잘못된 수 있기 때문입니다.
- 18
- 선택 사항: 하드웨어 오프로드를 활성화하려면 'eSwitchMode' 필드를
"switchdev"로 설정해야 합니다.
25.4.1.1. SR-IOV 네트워크 노드 구성 예
다음 예제에서는 InfiniBand 장치의 구성을 설명합니다.
InfiniBand 장치의 구성 예
apiVersion: sriovnetwork.openshift.io/v1
kind: SriovNetworkNodePolicy
metadata:
name: policy-ib-net-1
namespace: openshift-sriov-network-operator
spec:
resourceName: ibnic1
nodeSelector:
feature.node.kubernetes.io/network-sriov.capable: "true"
numVfs: 4
nicSelector:
vendor: "15b3"
deviceID: "101b"
rootDevices:
- "0000:19:00.0"
linkType: ib
isRdma: true
다음 예제에서는 RHOSP 가상 머신의 SR-IOV 네트워크 장치에 대한 구성을 설명합니다.
가상 머신의 SR-IOV 장치 구성 예
apiVersion: sriovnetwork.openshift.io/v1
kind: SriovNetworkNodePolicy
metadata:
name: policy-sriov-net-openstack-1
namespace: openshift-sriov-network-operator
spec:
resourceName: sriovnic1
nodeSelector:
feature.node.kubernetes.io/network-sriov.capable: "true"
numVfs: 1 1
nicSelector:
vendor: "15b3"
deviceID: "101b"
netFilter: "openstack/NetworkID:ea24bd04-8674-4f69-b0ee-fa0b3bd20509" 2
25.4.1.2. SR-IOV 장치의 VF(가상 기능) 파티셔닝
경우에 따라 동일한 물리적 기능(PF)의 VF(가상 기능)를 여러 리소스 풀로 분할할 수 있습니다. 예를 들어 일부 VF가 기본 드라이버를 사용하여 로드되고 나머지 VF가 vfio-pci 드라이버를 사용하여 로드되도록 할 수 있습니다. 이러한 배포에서 SriovNetworkNodePolicy CR(사용자 정의 리소스)의 pfNames 선택기를 사용하여 < pfname>#<first_vf>-<last_vf > 형식을 사용하여 풀의 VF 범위를 지정할 수 있습니다.
예를 들어 다음 YAML은 VF 2 에서 7 까지의 netpf0 인터페이스에 대한 선택기를 보여줍니다.
pfNames: ["netpf0#2-7"]
-
netpf0은 PF 인터페이스 이름입니다. -
2는 범위에 포함된 첫 번째 VF 인덱스(0 기반)입니다. -
7은 범위에 포함된 마지막 VF 인덱스(0 기반)입니다.
다음 요구 사항이 충족되면 다른 정책 CR을 사용하여 동일한 PF에서 VF를 선택할 수 있습니다.
-
동일한 PF를 선택하는 정책의 경우
numVfs값이 동일해야 합니다. -
VF 인덱스는
0~ <numVfs>-1범위에 있어야 합니다. 예를 들어numVfs가8로 설정된 정책이 있는 경우 <first_vf> 값은0보다 작아야 하며 <last_vf>는7보다 클 수 없습니다. - 다른 정책의 VF 범위는 겹치지 않아야 합니다.
-
<
;first_vf>는 <last_vf>보다 클 수 없습니다.
다음 예는 SR-IOV 장치의 NIC 파티셔닝을 보여줍니다.
정책 policy-net-1 은 기본 VF 드라이버와 함께 PF net pf 을 정의합니다. 정책 0 의 VF 0을 포함하는 리소스 풀 net -1policy-net-1-dpdk 는 vfio VF 드라이버와 함께 PF netpf0 의 VF 8 ~15 가 포함된 리소스 풀 net-1-dpdk 를 정의합니다.
정책 policy-net-1:
apiVersion: sriovnetwork.openshift.io/v1
kind: SriovNetworkNodePolicy
metadata:
name: policy-net-1
namespace: openshift-sriov-network-operator
spec:
resourceName: net1
nodeSelector:
feature.node.kubernetes.io/network-sriov.capable: "true"
numVfs: 16
nicSelector:
pfNames: ["netpf0#0-0"]
deviceType: netdevice
정책 policy-net-1-dpdk:
apiVersion: sriovnetwork.openshift.io/v1
kind: SriovNetworkNodePolicy
metadata:
name: policy-net-1-dpdk
namespace: openshift-sriov-network-operator
spec:
resourceName: net1dpdk
nodeSelector:
feature.node.kubernetes.io/network-sriov.capable: "true"
numVfs: 16
nicSelector:
pfNames: ["netpf0#8-15"]
deviceType: vfio-pci인터페이스가 성공적으로 분할되었는지 확인
다음 명령을 실행하여 SR-IOV 장치의 VF(가상 기능)로 분할된 인터페이스가 있는지 확인합니다.
$ ip link show <interface> 1- 1
- &
lt;interface>를 SR-IOV 장치의 VF로 분할할 때 지정한 인터페이스 (예:ens3f1)로 바꿉니다.
출력 예
5: ens3f1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP mode DEFAULT group default qlen 1000 link/ether 3c:fd:fe:d1:bc:01 brd ff:ff:ff:ff:ff:ff vf 0 link/ether 5a:e7:88:25:ea:a0 brd ff:ff:ff:ff:ff:ff, spoof checking on, link-state auto, trust off vf 1 link/ether 3e:1d:36:d7:3d:49 brd ff:ff:ff:ff:ff:ff, spoof checking on, link-state auto, trust off vf 2 link/ether ce:09:56:97:df:f9 brd ff:ff:ff:ff:ff:ff, spoof checking on, link-state auto, trust off vf 3 link/ether 5e:91:cf:88:d1:38 brd ff:ff:ff:ff:ff:ff, spoof checking on, link-state auto, trust off vf 4 link/ether e6:06:a1:96:2f:de brd ff:ff:ff:ff:ff:ff, spoof checking on, link-state auto, trust off
25.4.2. SR-IOV 네트워크 장치 구성
SR-IOV Network Operator는 SriovNetworkNodePolicy.sriovnetwork.openshift.io CustomResourceDefinition을 OpenShift Container Platform에 추가합니다. SriovNetworkNodePolicy CR(사용자 정의 리소스)을 만들어 SR-IOV 네트워크 장치를 구성할 수 있습니다.
SriovNetworkNodePolicy 오브젝트에 지정된 구성을 적용하면 SR-IOV Operator가 노드를 비우고 경우에 따라 노드를 재부팅할 수 있습니다.
구성 변경 사항을 적용하는 데 몇 분이 걸릴 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다. - SR-IOV Network Operator가 설치되어 있습니다.
- 비운 노드에서 제거된 워크로드를 처리하기 위해 클러스터에 사용 가능한 노드가 충분합니다.
- SR-IOV 네트워크 장치 구성에 대한 컨트롤 플레인 노드를 선택하지 않았습니다.
절차
-
SriovNetworkNodePolicy오브젝트를 생성한 다음 YAML을 <name>-sriov-node-network.yaml파일에 저장합니다. <name>을 이 구성의 이름으로 바꿉니다. -
선택 사항: SR-IOV 가능 클러스터 노드에
SriovNetworkNodePolicy.Spec.NodeSelector에 레이블이 지정되지 않은 경우 레이블을 지정합니다. 노드에 레이블 지정에 대한 자세한 내용은 "노드에서 라벨을 업데이트하는 방법"을 참조하십시오. SriovNetworkNodePolicy오브젝트를 생성합니다.$ oc create -f <name>-sriov-node-network.yaml
여기서 &
lt;name>은 이 구성의 이름을 지정합니다.구성 업데이트를 적용하면
sriov-network-operator네임스페이스의 모든 Pod가Running상태로 전환됩니다.SR-IOV 네트워크 장치가 구성되어 있는지 확인하려면 다음 명령을 입력합니다. &
lt;node_name>을 방금 구성한 SR-IOV 네트워크 장치가 있는 노드 이름으로 바꿉니다.$ oc get sriovnetworknodestates -n openshift-sriov-network-operator <node_name> -o jsonpath='{.status.syncStatus}'
추가 리소스
25.4.3. SR-IOV 구성 문제 해결
SR-IOV 네트워크 장치를 구성하는 절차를 수행한 후 다음 섹션에서는 일부 오류 조건을 다룹니다.
노드 상태를 표시하려면 다음 명령을 실행합니다.
$ oc get sriovnetworknodestates -n openshift-sriov-network-operator <node_name>
여기서 & lt;node_name >은 SR-IOV 네트워크 장치가 있는 노드의 이름을 지정합니다.
오류 출력 : 메모리를 할당할 수 없음
"lastSyncError": "write /sys/bus/pci/devices/0000:3b:00.1/sriov_numvfs: cannot allocate memory"
노드가 메모리를 할당할 수 없음을 나타내는 경우 다음 항목을 확인합니다.
- 글로벌 SR-IOV 설정이 노드의 BIOS에서 활성화되어 있는지 확인합니다.
- BIOS에서 노드에 대해 VT-d가 활성화되어 있는지 확인합니다.
25.4.4. SR-IOV 네트워크를 VRF에 할당
클러스터 관리자는 CNI VRF 플러그인을 사용하여 SR-IOV 네트워크 인터페이스를 VRF 도메인에 할당할 수 있습니다.
이렇게 하려면 SriovNetwork 리소스의 선택적 metaPlugins 매개변수에 VRF 구성을 추가합니다.
VRF를 사용하는 애플리케이션은 특정 장치에 바인딩해야 합니다. 일반적인 사용은 소켓에 SO_BINDTODEVICE 옵션을 사용하는 것입니다. SO_BINDTODEVICE 는 소켓을 전달된 인터페이스 이름(예: eth 1)에 지정된 장치에 바인딩합니다. SO_BINDTODEVICE 를 사용하려면 애플리케이션에 CAP_NET_RAW 기능이 있어야 합니다.
OpenShift Container Platform Pod에서는 ip vrf exec 명령을 통해 VRF를 사용할 수 없습니다. VRF를 사용하려면 애플리케이션을 VRF 인터페이스에 직접 바인딩합니다.
25.4.4.1. CNI VRF 플러그인으로 추가 SR-IOV 네트워크 연결 생성
SR-IOV Network Operator는 추가 네트워크 정의를 관리합니다. 생성할 추가 SR-IOV 네트워크를 지정하면 SR-IOV Network Operator가 NetworkAttachmentDefinition CR(사용자 정의 리소스)을 자동으로 생성합니다.
SR-IOV Network Operator에서 관리하는 NetworkAttachmentDefinition 사용자 정의 리소스를 편집하지 마십시오. 편집하면 추가 네트워크의 네트워크 트래픽이 중단될 수 있습니다.
CNI VRF 플러그인으로 추가 SR-IOV 네트워크 연결을 생성하려면 다음 절차를 수행합니다.
사전 요구 사항
- OpenShift Container Platform CLI, oc를 설치합니다.
- cluster-admin 역할의 사용자로 OpenShift Container Platform 클러스터에 로그인합니다.
절차
추가 SR-IOV 네트워크 연결에 대한
SriovNetworkCR(사용자 정의 리소스)을 생성하고 다음 예제 CR과 같이metaPlugins구성을 삽입합니다. YAML을sriov-network-attachment.yaml파일로 저장합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetwork metadata: name: example-network namespace: additional-sriov-network-1 spec: ipam: | { "type": "host-local", "subnet": "10.56.217.0/24", "rangeStart": "10.56.217.171", "rangeEnd": "10.56.217.181", "routes": [{ "dst": "0.0.0.0/0" }], "gateway": "10.56.217.1" } vlan: 0 resourceName: intelnics metaPlugins : | { "type": "vrf", 1 "vrfname": "example-vrf-name" 2 }SriovNetwork리소스를 생성합니다.$ oc create -f sriov-network-attachment.yaml
NetworkAttachmentDefinition CR이 성공적으로 생성되었는지 확인
SR-IOV Network Operator가 다음 명령을 실행하여
NetworkAttachmentDefinitionCR을 생성했는지 확인합니다.$ oc get network-attachment-definitions -n <namespace> 1- 1
- &
lt;namespace>를 네트워크 연결을 구성할 때 지정한 네임스페이스(예:additional-sriov-network-1)로 바꿉니다.
출력 예
NAME AGE additional-sriov-network-1 14m
참고SR-IOV Network Operator가 CR을 생성하기 전에 지연이 발생할 수 있습니다.
추가 SR-IOV 네트워크 연결에 성공했는지 확인
VRF CNI가 올바르게 구성되어 추가 SR-IOV 네트워크 연결이 연결되었는지 확인하려면 다음을 수행하십시오.
- VRF CNI를 사용하는 SR-IOV 네트워크를 생성합니다.
- 포드에 네트워크를 할당합니다.
포드 네트워크 연결이 SR-IOV 추가 네트워크에 연결되어 있는지 확인합니다. Pod로 원격 쉘을 설치하고 다음 명령을 실행합니다.
$ ip vrf show
출력 예
Name Table ----------------------- red 10
VRF 인터페이스가 보조 인터페이스의 마스터인지 확인합니다.
$ ip link
출력 예
... 5: net1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master red state UP mode ...
25.4.5. 다음 단계
25.5. SR-IOV 이더넷 네트워크 연결 구성
클러스터에서 SR-IOV(Single Root I/O Virtualization) 장치에 대한 이더넷 네트워크 연결을 구성할 수 있습니다.
25.5.1. 이더넷 장치 구성 오브젝트
SriovNetwork 오브젝트를 정의하여 이더넷 네트워크 장치를 구성할 수 있습니다.
다음 YAML은 SriovNetwork 오브젝트를 설명합니다.
apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetwork metadata: name: <name> 1 namespace: openshift-sriov-network-operator 2 spec: resourceName: <sriov_resource_name> 3 networkNamespace: <target_namespace> 4 vlan: <vlan> 5 spoofChk: "<spoof_check>" 6 ipam: |- 7 {} linkState: <link_state> 8 maxTxRate: <max_tx_rate> 9 minTxRate: <min_tx_rate> 10 vlanQoS: <vlan_qos> 11 trust: "<trust_vf>" 12 capabilities: <capabilities> 13
- 1
- 오브젝트의 이름입니다. SR-IOV Network Operator는 동일한 이름으로
NetworkAttachmentDefinition오브젝트를 생성합니다. - 2
- SR-IOV Network Operator가 설치된 네임스페이스입니다.
- 3
- 이 추가 네트워크에 대한 SR-IOV 하드웨어를 정의하는
SriovNetworkNodePolicy오브젝트의spec.resourceName매개변수 값입니다. - 4
SriovNetwork오브젝트의 대상 네임스페이스입니다. 대상 네임스페이스의 포드만 추가 네트워크에 연결할 수 있습니다.- 5
- 선택사항: 추가 네트워크의 VLAN(Virtual LAN) ID입니다. 정수 값은
0에서4095사이여야 합니다. 기본값은0입니다. - 6
- 선택사항: VF의 스푸핑 검사 모드입니다. 허용되는 값은 문자열
"on"및"off"입니다.중요SR-IOV Network Operator가 지정한 값을 따옴표로 묶거나 오브젝트를 거부해야 합니다.
- 7
- YAML 블록 스칼라 IPAM CNI 플러그인에 대한 구성 오브젝트입니다. 플러그인은 연결 정의에 대한 IP 주소 할당을 관리합니다.
- 8
- 선택사항: VF(가상 기능)의 링크 상태입니다. 허용되는 값은
enable,disable및auto입니다. - 9
- 선택사항: VF의 경우 최대 전송 속도(Mbps)입니다.
- 10
- 선택사항: VF의 경우 최소 전송 속도(Mbps)입니다. 이 값은 최대 전송 속도보다 작거나 같아야 합니다.참고
Intel NIC는
minTxRate매개변수를 지원하지 않습니다. 자세한 내용은 BZ#1772847에서 참조하십시오. - 11
- 선택사항: VF의 IEEE 802.1p 우선순위 수준입니다. 기본값은
0입니다. - 12
- 선택사항: VF의 신뢰 모드입니다. 허용되는 값은 문자열
"on"및"off"입니다.중요지정한 값을 따옴표로 묶어야 합니다. 그렇지 않으면 SR-IOV Network Operator에서 오브젝트를 거부합니다.
- 13
- 선택사항: 이 추가 네트워크에 구성할 수 있는 기능입니다. IP 주소 지원을 사용하려면
"{ "ips": true }"를 지정하고 MAC 주소 지원을 활성화하려면"{ "mac": true }"를 지정할 수 있습니다.
25.5.1.1. 추가 네트워크의 IP 주소 할당 구성
IP 주소 관리(IPAM) CNI(Container Network Interface) 플러그인은 다른 CNI 플러그인에 대한 IP 주소를 제공합니다.
다음 IP 주소 할당 유형을 사용할 수 있습니다.
- 정적 할당
- DHCP 서버를 통한 동적 할당. 지정한 DHCP 서버는 추가 네트워크에서 연결할 수 있어야 합니다.
- Whereabouts IPAM CNI 플러그인을 통한 동적 할당
25.5.1.1.1. 고정 IP 주소 할당 구성
다음 표에서는 고정 IP 주소 할당 구성을 설명합니다.
표 25.3. IPAM 고정 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
IPAM 주소 유형입니다. |
|
|
| 가상 인터페이스에 할당할 IP 주소를 지정하는 오브젝트 배열입니다. IPv4 및 IPv6 IP 주소가 모두 지원됩니다. |
|
|
| Pod 내부에서 구성할 경로를 지정하는 오브젝트 배열입니다. |
|
|
| 선택 사항: DNS 구성을 지정하는 오브젝트의 배열입니다. |
addresses 배열에는 다음 필드가 있는 오브젝트가 필요합니다.
표 25.4. IPAM.addresses[] 배열
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
지정하는 IP 주소 및 네트워크 접두사입니다. 예를 들어 |
|
|
| 송신 네트워크 트래픽을 라우팅할 기본 게이트웨이입니다. |
표 25.5. IPAM.routes[] 배열
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CIDR 형식의 IP 주소 범위(예: 기본 경로의 경우 |
|
|
| 네트워크 트래픽이 라우팅되는 게이트웨이입니다. |
표 25.6. IPAM.dns 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| DNS 쿼리를 보낼 하나 이상의 IP 주소 배열입니다. |
|
|
|
호스트 이름에 추가할 기본 도메인입니다. 예를 들어 도메인이 |
|
|
|
DNS 조회 쿼리 중 정규화되지 않은 호스트 이름(예: |
고정 IP 주소 할당 구성 예
{
"ipam": {
"type": "static",
"addresses": [
{
"address": "191.168.1.7/24"
}
]
}
}
25.5.1.1.2. DHCP(Dynamic IP 주소) 할당 구성
다음 JSON은 DHCP를 사용한 동적 IP 주소 할당 구성을 설명합니다.
pod는 생성될 때 원래 DHCP 리스를 얻습니다. 리스는 클러스터에서 실행되는 최소 DHCP 서버 배포를 통해 주기적으로 갱신되어야 합니다.
SR-IOV Network Operator는 DHCP 서버 배포를 생성하지 않습니다. Cluster Network Operator자는 최소 DHCP 서버 배포를 생성합니다.
DHCP 서버 배포를 트리거하려면 다음 예와 같이 Cluster Network Operator 구성을 편집하여 shim 네트워크 연결을 만들어야 합니다.
shim 네트워크 연결 정의 예
apiVersion: operator.openshift.io/v1
kind: Network
metadata:
name: cluster
spec:
additionalNetworks:
- name: dhcp-shim
namespace: default
type: Raw
rawCNIConfig: |-
{
"name": "dhcp-shim",
"cniVersion": "0.3.1",
"type": "bridge",
"ipam": {
"type": "dhcp"
}
}
# ...
표 25.7. IPAM DHCP 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
IPAM 주소 유형입니다. |
DHCP(Dynamic IP 주소) 할당 구성 예
{
"ipam": {
"type": "dhcp"
}
}
25.5.1.1.3. Whereabouts를 사용한 동적 IP 주소 할당 구성
Whereabouts CNI 플러그인을 사용하면 DHCP 서버를 사용하지 않고도 IP 주소를 추가 네트워크에 동적으로 할당할 수 있습니다.
다음 표에서는 Whereabouts를 사용한 동적 IP 주소 할당 구성을 설명합니다.
표 25.8. IPAM whereabouts 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
IPAM 주소 유형입니다. whereabouts |
|
|
| CIDR 표기법의 IP 주소 및 범위입니다. IP 주소는 이 주소 범위 내에서 할당됩니다. |
|
|
| 선택 사항: CIDR 표기법의 0개 이상의 IP 주소 및 범위 목록입니다. 제외된 주소 범위 내의 IP 주소는 할당되지 않습니다. |
Whereabouts를 사용하는 동적 IP 주소 할당 구성 예
{
"ipam": {
"type": "whereabouts",
"range": "192.0.2.192/27",
"exclude": [
"192.0.2.192/30",
"192.0.2.196/32"
]
}
}
25.5.1.1.4. Whereabouts 조정기 데몬 세트 생성
Whereabouts 조정기는 Whereabouts IP Address Management(IPAM) 솔루션을 사용하여 클러스터 내에서 Pod의 동적 IP 주소 할당을 관리합니다. 이렇게 하면 각 pod가 지정된 IP 주소 범위에서 고유한 IP 주소를 가져옵니다. Pod가 삭제되거나 축소될 때 IP 주소 릴리스도 처리합니다.
동적 IP 주소 할당에 NetworkAttachmentDefinition 사용자 정의 리소스를 사용할 수도 있습니다.
Cluster Network Operator를 통해 추가 네트워크를 구성할 때 Whereabouts 조정기 데몬 세트가 자동으로 생성됩니다. YAML 매니페스트에서 추가 네트워크를 구성할 때 자동으로 생성되지 않습니다.
Whereabouts 조정기 데몬 세트의 배포를 트리거하려면 Cluster Network Operator 사용자 정의 리소스 파일을 편집하여 whereabouts-shim 네트워크 연결을 수동으로 생성해야 합니다.
다음 절차에 따라 Whereabouts reconciler daemonset를 배포합니다.
프로세스
다음 명령을 실행하여
Network.operator.openshift.ioCR(사용자 정의 리소스)을 편집합니다.$ oc edit network.operator.openshift.io cluster
CR에서
additionalNetworks매개변수를 수정하여whereabouts-shim네트워크 연결 정의를 추가합니다. 예를 들면 다음과 같습니다.apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: additionalNetworks: - name: whereabouts-shim namespace: default rawCNIConfig: |- { "name": "whereabouts-shim", "cniVersion": "0.3.1", "type": "bridge", "ipam": { "type": "whereabouts" } } type: Raw- 파일을 저장하고 텍스트 편집기를 종료합니다.
다음 명령을 실행하여
whereabouts-reconciler데몬 세트가 성공적으로 배포되었는지 확인합니다.$ oc get all -n openshift-multus | grep whereabouts-reconciler
출력 예
pod/whereabouts-reconciler-jnp6g 1/1 Running 0 6s pod/whereabouts-reconciler-k76gg 1/1 Running 0 6s pod/whereabouts-reconciler-k86t9 1/1 Running 0 6s pod/whereabouts-reconciler-p4sxw 1/1 Running 0 6s pod/whereabouts-reconciler-rvfdv 1/1 Running 0 6s pod/whereabouts-reconciler-svzw9 1/1 Running 0 6s daemonset.apps/whereabouts-reconciler 6 6 6 6 6 kubernetes.io/os=linux 6s
25.5.2. SR-IOV 추가 네트워크 구성
SriovNetwork 오브젝트를 생성하여 SR-IOV 하드웨어를 사용하는 추가 네트워크를 구성할 수 있습니다. SriovNetwork 오브젝트를 생성하면 SR-IOV Network Operator에서 NetworkAttachmentDefinition 오브젝트를 자동으로 생성합니다.
SriovNetwork 오브젝트가 running 상태의 Pod에 연결된 경우 수정하거나 삭제하지 마십시오.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
프로세스
SriovNetwork오브젝트를 생성한 다음 <name>.yaml 파일에 YAML을 저장합니다.여기서 <name>은 이 추가 네트워크의 이름입니다. 오브젝트 사양은 다음 예와 유사할 수 있습니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetwork metadata: name: attach1 namespace: openshift-sriov-network-operator spec: resourceName: net1 networkNamespace: project2 ipam: |- { "type": "host-local", "subnet": "10.56.217.0/24", "rangeStart": "10.56.217.171", "rangeEnd": "10.56.217.181", "gateway": "10.56.217.1" }오브젝트를 생성하려면 다음 명령을 입력합니다:
$ oc create -f <name>.yaml
여기서
<name>은 추가 네트워크의 이름을 지정합니다.선택사항: 이전 단계에서 생성한
SriovNetwork오브젝트에 연결된NetworkAttachmentDefinition오브젝트가 존재하는지 확인하려면 다음 명령을 입력합니다. <namespace>를SriovNetwork오브젝트에 지정한 networkNamespace로 바꿉니다.$ oc get net-attach-def -n <namespace>
25.5.3. 다음 단계
25.5.4. 추가 리소스
25.6. SR-IOV InfiniBand 네트워크 연결 구성
클러스터에서 SR-IOV(Single Root I/O Virtualization) 장치에 대한 IB(InfiniBand) 네트워크 연결을 구성할 수 있습니다.
25.6.1. InfiniBand 장치 구성 오브젝트
SriovIBNetwork 오브젝트를 정의하여 IB(InfiniBand) 네트워크 장치를 구성할 수 있습니다.
다음 YAML은 SriovIBNetwork 오브젝트를 설명합니다.
apiVersion: sriovnetwork.openshift.io/v1 kind: SriovIBNetwork metadata: name: <name> 1 namespace: openshift-sriov-network-operator 2 spec: resourceName: <sriov_resource_name> 3 networkNamespace: <target_namespace> 4 ipam: |- 5 {} linkState: <link_state> 6 capabilities: <capabilities> 7
- 1
- 오브젝트의 이름입니다. SR-IOV Network Operator는 동일한 이름으로
NetworkAttachmentDefinition오브젝트를 생성합니다. - 2
- SR-IOV Operator가 설치된 네임스페이스입니다.
- 3
- 이 추가 네트워크에 대한 SR-IOV 하드웨어를 정의하는
SriovNetworkNodePolicy오브젝트의spec.resourceName매개변수 값입니다. - 4
SriovIBNetwork오브젝트의 대상 네임스페이스입니다. 대상 네임스페이스의 포드만 네트워크 장치에 연결할 수 있습니다.- 5
- 선택사항: YAML 블록 스칼라인 IPAM CNI 플러그인에 대한 구성 오브젝트입니다. 플러그인은 연결 정의에 대한 IP 주소 할당을 관리합니다.
- 6
- 선택사항: VF(가상 기능)의 링크 상태입니다. 허용되는 값은
enable,disable,auto입니다. - 7
- 선택사항: 이 네트워크에 구성할 수 있는 기능입니다. IP 주소 지원을 사용하려면
"{ "ips": true }"를 지정하고 IB GUID(Global Unique Identifier) 지원을 활성화하려면"{ "infinibandGUID": true }"를 지정할 수 있습니다.
25.6.1.1. 추가 네트워크의 IP 주소 할당 구성
IP 주소 관리(IPAM) CNI(Container Network Interface) 플러그인은 다른 CNI 플러그인에 대한 IP 주소를 제공합니다.
다음 IP 주소 할당 유형을 사용할 수 있습니다.
- 정적 할당
- DHCP 서버를 통한 동적 할당. 지정한 DHCP 서버는 추가 네트워크에서 연결할 수 있어야 합니다.
- Whereabouts IPAM CNI 플러그인을 통한 동적 할당
25.6.1.1.1. 고정 IP 주소 할당 구성
다음 표에서는 고정 IP 주소 할당 구성을 설명합니다.
표 25.9. IPAM 고정 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
IPAM 주소 유형입니다. |
|
|
| 가상 인터페이스에 할당할 IP 주소를 지정하는 오브젝트 배열입니다. IPv4 및 IPv6 IP 주소가 모두 지원됩니다. |
|
|
| Pod 내부에서 구성할 경로를 지정하는 오브젝트 배열입니다. |
|
|
| 선택 사항: DNS 구성을 지정하는 오브젝트의 배열입니다. |
addresses 배열에는 다음 필드가 있는 오브젝트가 필요합니다.
표 25.10. IPAM.addresses[] 배열
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
지정하는 IP 주소 및 네트워크 접두사입니다. 예를 들어 |
|
|
| 송신 네트워크 트래픽을 라우팅할 기본 게이트웨이입니다. |
표 25.11. IPAM.routes[] 배열
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CIDR 형식의 IP 주소 범위(예: 기본 경로의 경우 |
|
|
| 네트워크 트래픽이 라우팅되는 게이트웨이입니다. |
표 25.12. IPAM.dns 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| DNS 쿼리를 보낼 하나 이상의 IP 주소 배열입니다. |
|
|
|
호스트 이름에 추가할 기본 도메인입니다. 예를 들어 도메인이 |
|
|
|
DNS 조회 쿼리 중 정규화되지 않은 호스트 이름(예: |
고정 IP 주소 할당 구성 예
{
"ipam": {
"type": "static",
"addresses": [
{
"address": "191.168.1.7/24"
}
]
}
}
25.6.1.1.2. DHCP(Dynamic IP 주소) 할당 구성
다음 JSON은 DHCP를 사용한 동적 IP 주소 할당 구성을 설명합니다.
pod는 생성될 때 원래 DHCP 리스를 얻습니다. 리스는 클러스터에서 실행되는 최소 DHCP 서버 배포를 통해 주기적으로 갱신되어야 합니다.
DHCP 서버 배포를 트리거하려면 다음 예와 같이 Cluster Network Operator 구성을 편집하여 shim 네트워크 연결을 만들어야 합니다.
shim 네트워크 연결 정의 예
apiVersion: operator.openshift.io/v1
kind: Network
metadata:
name: cluster
spec:
additionalNetworks:
- name: dhcp-shim
namespace: default
type: Raw
rawCNIConfig: |-
{
"name": "dhcp-shim",
"cniVersion": "0.3.1",
"type": "bridge",
"ipam": {
"type": "dhcp"
}
}
# ...
표 25.13. IPAM DHCP 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
IPAM 주소 유형입니다. |
DHCP(Dynamic IP 주소) 할당 구성 예
{
"ipam": {
"type": "dhcp"
}
}
25.6.1.1.3. Whereabouts를 사용한 동적 IP 주소 할당 구성
Whereabouts CNI 플러그인을 사용하면 DHCP 서버를 사용하지 않고도 IP 주소를 추가 네트워크에 동적으로 할당할 수 있습니다.
다음 표에서는 Whereabouts를 사용한 동적 IP 주소 할당 구성을 설명합니다.
표 25.14. IPAM whereabouts 구성 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
IPAM 주소 유형입니다. whereabouts |
|
|
| CIDR 표기법의 IP 주소 및 범위입니다. IP 주소는 이 주소 범위 내에서 할당됩니다. |
|
|
| 선택 사항: CIDR 표기법의 0개 이상의 IP 주소 및 범위 목록입니다. 제외된 주소 범위 내의 IP 주소는 할당되지 않습니다. |
Whereabouts를 사용하는 동적 IP 주소 할당 구성 예
{
"ipam": {
"type": "whereabouts",
"range": "192.0.2.192/27",
"exclude": [
"192.0.2.192/30",
"192.0.2.196/32"
]
}
}
25.6.1.1.4. Whereabouts 조정기 데몬 세트 생성
Whereabouts 조정기는 Whereabouts IP Address Management(IPAM) 솔루션을 사용하여 클러스터 내에서 Pod의 동적 IP 주소 할당을 관리합니다. 이렇게 하면 각 pod가 지정된 IP 주소 범위에서 고유한 IP 주소를 가져옵니다. Pod가 삭제되거나 축소될 때 IP 주소 릴리스도 처리합니다.
동적 IP 주소 할당에 NetworkAttachmentDefinition 사용자 정의 리소스를 사용할 수도 있습니다.
Cluster Network Operator를 통해 추가 네트워크를 구성할 때 Whereabouts 조정기 데몬 세트가 자동으로 생성됩니다. YAML 매니페스트에서 추가 네트워크를 구성할 때 자동으로 생성되지 않습니다.
Whereabouts 조정기 데몬 세트의 배포를 트리거하려면 Cluster Network Operator 사용자 정의 리소스 파일을 편집하여 whereabouts-shim 네트워크 연결을 수동으로 생성해야 합니다.
다음 절차에 따라 Whereabouts reconciler daemonset를 배포합니다.
프로세스
다음 명령을 실행하여
Network.operator.openshift.ioCR(사용자 정의 리소스)을 편집합니다.$ oc edit network.operator.openshift.io cluster
CR에서
additionalNetworks매개변수를 수정하여whereabouts-shim네트워크 연결 정의를 추가합니다. 예를 들면 다음과 같습니다.apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: additionalNetworks: - name: whereabouts-shim namespace: default rawCNIConfig: |- { "name": "whereabouts-shim", "cniVersion": "0.3.1", "type": "bridge", "ipam": { "type": "whereabouts" } } type: Raw- 파일을 저장하고 텍스트 편집기를 종료합니다.
다음 명령을 실행하여
whereabouts-reconciler데몬 세트가 성공적으로 배포되었는지 확인합니다.$ oc get all -n openshift-multus | grep whereabouts-reconciler
출력 예
pod/whereabouts-reconciler-jnp6g 1/1 Running 0 6s pod/whereabouts-reconciler-k76gg 1/1 Running 0 6s pod/whereabouts-reconciler-k86t9 1/1 Running 0 6s pod/whereabouts-reconciler-p4sxw 1/1 Running 0 6s pod/whereabouts-reconciler-rvfdv 1/1 Running 0 6s pod/whereabouts-reconciler-svzw9 1/1 Running 0 6s daemonset.apps/whereabouts-reconciler 6 6 6 6 6 kubernetes.io/os=linux 6s
25.6.2. SR-IOV 추가 네트워크 구성
SriovIBNetwork 오브젝트를 생성하여 SR-IOV 하드웨어를 사용하는 추가 네트워크를 구성할 수 있습니다. SriovIBNetwork 오브젝트를 생성하면 SR-IOV Network Operator에서 NetworkAttachmentDefinition 오브젝트를 자동으로 생성합니다.
SriovIBNetwork 오브젝트가 running 상태의 Pod에 연결된 경우 해당 오브젝트를 수정하거나 삭제하지 마십시오.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
프로세스
SriovIBNetwork오브젝트를 생성한 다음 <name>.yaml 파일에 YAML을 저장합니다.여기서 <name>은 이 추가 네트워크의 이름입니다. 오브젝트 사양은 다음 예와 유사할 수 있습니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovIBNetwork metadata: name: attach1 namespace: openshift-sriov-network-operator spec: resourceName: net1 networkNamespace: project2 ipam: |- { "type": "host-local", "subnet": "10.56.217.0/24", "rangeStart": "10.56.217.171", "rangeEnd": "10.56.217.181", "gateway": "10.56.217.1" }오브젝트를 생성하려면 다음 명령을 입력합니다:
$ oc create -f <name>.yaml
여기서
<name>은 추가 네트워크의 이름을 지정합니다.선택 사항: 이전 단계에서 생성한
SriovIBNetwork오브젝트에 연결된NetworkAttachmentDefinition오브젝트가 존재하는지 확인하려면 다음 명령을 입력합니다. <namespace>를SriovIBNetwork오브젝트에 지정한 networkNamespace로 바꿉니다.$ oc get net-attach-def -n <namespace>
25.6.3. 다음 단계
25.6.4. 추가 리소스
25.7. SR-IOV 추가 네트워크에 pod 추가
기존 SR-IOV(Single Root I/O Virtualization) 네트워크에 pod를 추가할 수 있습니다.
25.7.1. 네트워크 연결을 위한 런타임 구성
추가 네트워크에 pod를 연결할 때 런타임 구성을 지정하여 pod에 대한 특정 사용자 정의를 수행할 수 있습니다. 예를 들어 특정 MAC 하드웨어 주소를 요청할 수 있습니다.
Pod 사양에서 주석을 설정하여 런타임 구성을 지정합니다. 주석 키는 k8s.v1.cni.cncf.io/networks 이며 런타임 구성을 설명하는 JSON 오브젝트를 허용합니다.
25.7.1.1. 이더넷 기반 SR-IOV 연결을 위한 런타임 구성
다음 JSON은 이더넷 기반 SR-IOV 네트워크 연결에 대한 런타임 구성 옵션을 설명합니다.
[
{
"name": "<name>", 1
"mac": "<mac_address>", 2
"ips": ["<cidr_range>"] 3
}
]- 1
- SR-IOV 네트워크 연결 정의 CR의 이름입니다.
- 2
- 선택사항: SR-IOV 네트워크 연결 정의 CR에 정의된 리소스 유형에서 할당된 SR-IOV 장치의 MAC 주소입니다. 이 기능을 사용하려면
SriovNetwork오브젝트에{ "mac": true }도 지정해야 합니다. - 3
- 선택사항: SR-IOV 네트워크 연결 정의 CR에 정의된 리소스 유형에서 할당된 SR-IOV 장치의 IP 주소입니다. IPv4 및 IPv6 주소가 모두 지원됩니다. 이 기능을 사용하려면
SriovNetwork오브젝트에{ "ips": true }도 지정해야 합니다.
런타임 구성 예
apiVersion: v1
kind: Pod
metadata:
name: sample-pod
annotations:
k8s.v1.cni.cncf.io/networks: |-
[
{
"name": "net1",
"mac": "20:04:0f:f1:88:01",
"ips": ["192.168.10.1/24", "2001::1/64"]
}
]
spec:
containers:
- name: sample-container
image: <image>
imagePullPolicy: IfNotPresent
command: ["sleep", "infinity"]
25.7.1.2. InfiniBand 기반 SR-IOV 연결을 위한 런타임 구성
다음 JSON은 InfiniBand 기반 SR-IOV 네트워크 연결에 대한 런타임 구성 옵션을 설명합니다.
[
{
"name": "<network_attachment>", 1
"infiniband-guid": "<guid>", 2
"ips": ["<cidr_range>"] 3
}
]런타임 구성 예
apiVersion: v1
kind: Pod
metadata:
name: sample-pod
annotations:
k8s.v1.cni.cncf.io/networks: |-
[
{
"name": "ib1",
"infiniband-guid": "c2:11:22:33:44:55:66:77",
"ips": ["192.168.10.1/24", "2001::1/64"]
}
]
spec:
containers:
- name: sample-container
image: <image>
imagePullPolicy: IfNotPresent
command: ["sleep", "infinity"]
25.7.2. 추가 네트워크에 Pod 추가
추가 네트워크에 Pod를 추가할 수 있습니다. Pod는 기본 네트워크를 통해 정상적인 클러스터 관련 네트워크 트래픽을 계속 전송합니다.
Pod가 생성되면 추가 네트워크가 연결됩니다. 그러나 Pod가 이미 있는 경우에는 추가 네트워크를 연결할 수 없습니다.
Pod는 추가 네트워크와 동일한 네임스페이스에 있어야 합니다.
SR-IOV Network Resource Injector는 리소스 필드를 Pod의 첫 번째 컨테이너에 자동으로 추가합니다.
DPDK(Data Plane Development Kit) 모드에서 Intel NIC(네트워크 인터페이스 컨트롤러)를 사용하는 경우 Pod의 첫 번째 컨테이너만 NIC에 액세스하도록 구성됩니다. SriovNetworkNodePolicy 오브젝트에서 deviceType 을 vfio-pci 로 설정된 경우 SR-IOV 추가 네트워크가 DPDK 모드에 대해 구성됩니다.
NIC에 액세스해야 하는 컨테이너가 Pod 오브젝트에 정의된 첫 번째 컨테이너인지 확인하거나 Network Resource Injector를 비활성화하여 이 문제를 해결할 수 있습니다. 자세한 내용은 BZ#1990953 에서 참조하십시오.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터에 로그인합니다.
- SR-IOV Operator를 설치합니다.
-
Pod를 연결할
SriovNetwork오브젝트 또는SriovIBNetwork오브젝트를 생성합니다.
프로세스
Pod오브젝트에 주석을 추가합니다. 다음 주석 형식 중 하나만 사용할 수 있습니다.사용자 정의 없이 추가 네트워크를 연결하려면 다음 형식으로 주석을 추가합니다. <
network>를 Pod와 연결할 추가 네트워크의 이름으로 변경합니다.metadata: annotations: k8s.v1.cni.cncf.io/networks: <network>[,<network>,...] 1- 1
- 둘 이상의 추가 네트워크를 지정하려면 각 네트워크를 쉼표로 구분합니다. 쉼표 사이에 공백을 포함하지 마십시오. 동일한 추가 네트워크를 여러 번 지정하면 Pod에 해당 네트워크에 대한 인터페이스가 여러 개 연결됩니다.
사용자 정의된 추가 네트워크를 연결하려면 다음 형식으로 주석을 추가합니다.
metadata: annotations: k8s.v1.cni.cncf.io/networks: |- [ { "name": "<network>", 1 "namespace": "<namespace>", 2 "default-route": ["<default-route>"] 3 } ]
Pod를 생성하려면 다음 명령을 입력합니다. &
lt;name>을 Pod 이름으로 바꿉니다.$ oc create -f <name>.yaml
선택 사항:
PodCR에 주석이 있는지 확인하려면 다음 명령을 입력하고 <name>을 Pod 이름으로 교체합니다.$ oc get pod <name> -o yaml
다음 예에서
example-podPod는net1추가 네트워크에 연결되어 있습니다.$ oc get pod example-pod -o yaml apiVersion: v1 kind: Pod metadata: annotations: k8s.v1.cni.cncf.io/networks: macvlan-bridge k8s.v1.cni.cncf.io/network-status: |- 1 [{ "name": "openshift-sdn", "interface": "eth0", "ips": [ "10.128.2.14" ], "default": true, "dns": {} },{ "name": "macvlan-bridge", "interface": "net1", "ips": [ "20.2.2.100" ], "mac": "22:2f:60:a5:f8:00", "dns": {} }] name: example-pod namespace: default spec: ... status: ...- 1
k8s.v1.cni.cncf.io/network-status매개변수는 JSON 오브젝트 배열입니다. 각 오브젝트는 Pod에 연결된 추가 네트워크의 상태를 설명합니다. 주석 값은 일반 텍스트 값으로 저장됩니다.
25.7.3. NUMA(Non-Uniform Memory Access) 정렬 SR-IOV Pod 생성
SR-IOV 및 제한된 또는 single-numa-node 토폴로지 관리자 정책으로 동일한 NUMA 노드에서 할당된 CPU 리소스를 제한하여 NUMA 정렬 SR-IOV Pod를 생성할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치했습니다. -
CPU 관리자 정책을
static으로 구성했습니다. CPU 관리자에 대한 자세한 내용은 "추가 리소스" 섹션을 참조하십시오. 토폴로지 관리자 정책을
single-numa-node로 구성했습니다.참고single-numa-node가 요청을 충족할 수 없는 경우 Topology Manager 정책을restricted로 구성할 수 있습니다.
프로세스
다음 SR-IOV Pod 사양을 생성한 다음 YAML을 <
name>-sriov-pod.yaml파일에 저장합니다. <name>을 이 Pod의 이름으로 바꿉니다.다음 예는 SR-IOV Pod 사양을 보여줍니다.
apiVersion: v1 kind: Pod metadata: name: sample-pod annotations: k8s.v1.cni.cncf.io/networks: <name> 1 spec: containers: - name: sample-container image: <image> 2 command: ["sleep", "infinity"] resources: limits: memory: "1Gi" 3 cpu: "2" 4 requests: memory: "1Gi" cpu: "2"다음 명령을 실행하여 샘플 SR-IOV Pod를 만듭니다.
$ oc create -f <filename> 1- 1
- &
lt;filename>을 이전 단계에서 생성한 파일 이름으로 바꿉니다.
sample-pod가 보장된 QoS로 구성되어 있는지 확인합니다.$ oc describe pod sample-pod
sample-pod에 전용 CPU가 할당되었는지 확인합니다.$ oc exec sample-pod -- cat /sys/fs/cgroup/cpuset/cpuset.cpus
sample-pod에 할당된 SR-IOV 장치 및 CPU가 동일한 NUMA 노드에 있는지 확인합니다.$ oc exec sample-pod -- cat /sys/fs/cgroup/cpuset/cpuset.cpus
25.7.4. OpenStack에서 SR-IOV를 사용하는 클러스터의 테스트 Pod 템플릿
다음 testpmd Pod는 대규모 페이지, 예약된 CPU 및 SR-IOV 포트를 사용하여 컨테이너 생성을 보여줍니다.
testpmd Pod 예
apiVersion: v1
kind: Pod
metadata:
name: testpmd-sriov
namespace: mynamespace
annotations:
cpu-load-balancing.crio.io: "disable"
cpu-quota.crio.io: "disable"
# ...
spec:
containers:
- name: testpmd
command: ["sleep", "99999"]
image: registry.redhat.io/openshift4/dpdk-base-rhel8:v4.9
securityContext:
capabilities:
add: ["IPC_LOCK","SYS_ADMIN"]
privileged: true
runAsUser: 0
resources:
requests:
memory: 1000Mi
hugepages-1Gi: 1Gi
cpu: '2'
openshift.io/sriov1: 1
limits:
hugepages-1Gi: 1Gi
cpu: '2'
memory: 1000Mi
openshift.io/sriov1: 1
volumeMounts:
- mountPath: /dev/hugepages
name: hugepage
readOnly: False
runtimeClassName: performance-cnf-performanceprofile 1
volumes:
- name: hugepage
emptyDir:
medium: HugePages
- 1
- 이 예에서는 성능 프로파일의 이름이
cnf-performance 프로파일이라고 가정합니다.
25.7.5. 추가 리소스
25.8. SR-IOV 네트워크에 대한 인터페이스 수준 네트워크 sysctl 설정 구성
클러스터 관리자는 SR-IOV 네트워크 장치에 연결된 Pod의 CNI(Container Network Interface) 메타 플러그인을 사용하여 인터페이스 수준 네트워크 sysctl을 수정할 수 있습니다.
25.8.1. SR-IOV가 활성화된 NIC를 사용하여 노드에 레이블 지정
SR-IOV 가능 노드에서만 SR-IOV를 활성화하려면 다음을 수행하는 몇 가지 방법이 있습니다.
-
NFD(Node Feature Discovery) Operator를 설치합니다. NFD는 SR-IOV가 활성화된 NIC의 존재를 감지하고
node.alpha.kubernetes-incubator.io/nfd-network-sriov.enabled = true로 노드에 레이블을 지정합니다. 각 노드에 대해
SriovNetworkNodeStateCR을 검사합니다.인터페이스스탠자에는 작업자 노드에서 SR-IOV Network Operator가 검색한 모든 SR-IOV 장치 목록이 포함되어 있습니다. 다음 명령을 사용하여 각 노드에feature.node.kubernetes.io/network-sriov.enabled: "true"로 레이블을 지정합니다.$ oc label node <node_name> feature.node.kubernetes.io/network-sriov.capable="true"
참고원하는 이름으로 노드에 레이블을 지정할 수 있습니다.
25.8.2. 하나의 sysctl 플래그 설정
SR-IOV 네트워크 장치에 연결된 Pod의 인터페이스 수준 네트워크 sysctl 설정을 설정할 수 있습니다.
이 예에서 생성된 가상 인터페이스에서 net.ipv4.conf.IFNAME.accept_redirects 가 1 로 설정됩니다.
sysctl-tuning-test 는 이 예제에서 사용되는 네임스페이스입니다.
다음 명령을 사용하여
sysctl-tuning-test네임스페이스를 생성합니다.$ oc create namespace sysctl-tuning-test
25.8.2.1. SR-IOV 네트워크 장치를 사용하여 노드에서 하나의 sysctl 플래그 설정
SR-IOV Network Operator는 SriovNetworkNodePolicy.sriovnetwork.openshift.io CRD(사용자 정의 리소스 정의)를 OpenShift Container Platform에 추가합니다. SriovNetworkNodePolicy CR(사용자 정의 리소스)을 생성하여 SR-IOV 네트워크 장치를 구성할 수 있습니다.
SriovNetworkNodePolicy 오브젝트에 지정된 구성을 적용하면 SR-IOV Operator가 노드를 비우고 재부팅할 수 있습니다.
구성 변경 사항을 적용하는 데 몇 분이 걸릴 수 있습니다.
SriovNetworkNodePolicy CR(사용자 정의 리소스)을 생성하려면 다음 절차를 따르십시오.
프로세스
SriovNetworkNodePolicyCR(사용자 정의 리소스)을 생성합니다. 예를 들어 다음 YAML을policyoneflag-sriov-node-network.yaml파일로 저장합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: policyoneflag 1 namespace: openshift-sriov-network-operator 2 spec: resourceName: policyoneflag 3 nodeSelector: 4 feature.node.kubernetes.io/network-sriov.capable="true" priority: 10 5 numVfs: 5 6 nicSelector: 7 pfNames: ["ens5"] 8 deviceType: "netdevice" 9 isRdma: false 10
- 1
- 사용자 정의 리소스 오브젝트의 이름입니다.
- 2
- SR-IOV Network Operator가 설치된 네임스페이스입니다.
- 3
- SR-IOV 네트워크 장치 플러그인의 리소스 이름입니다. 리소스 이름에 대한 SR-IOV 네트워크 노드 정책을 여러 개 생성할 수 있습니다.
- 4
- 노드 선택기는 구성할 노드를 지정합니다. 선택한 노드의 SR-IOV 네트워크 장치만 구성됩니다. SR-IOV CNI(Container Network Interface) 플러그인 및 장치 플러그인은 선택한 노드에만 배포됩니다.
- 5
- 선택 사항: 우선순위는
0에서99사이의 정수 값입니다. 작은 값은 우선순위가 높습니다. 예를 들어 우선순위10은 우선순위99보다 높습니다. 기본값은99입니다. - 6
- SR-IOV 물리적 네트워크 장치에 생성할 VF(가상 기능) 수입니다. Intel NIC(Network Interface Controller)의 경우 VF 수는 장치에서 지원하는 총 VF보다 클 수 없습니다. Mellanox NIC의 경우 VF 수는
128보다 클 수 없습니다. - 7
- NIC 선택기는 Operator가 구성할 장치를 식별합니다. 모든 매개변수에 값을 지정할 필요는 없습니다. 실수로 장치를 선택하지 않도록 네트워크 장치를 정확하게 파악하는 것이 좋습니다.
rootDevices를 지정하는 경우vendor,deviceID, 또는pfNames의 값도 지정해야 합니다.pfNames와rootDevices를 동시에 지정하는 경우 동일한 장치를 참조하는지 확인하십시오.netFilter의 값을 지정하는 경우 네트워크 ID가 고유하므로 다른 매개변수를 지정할 필요가 없습니다. - 8
- 선택사항: 장치에 대해 하나 이상의 물리적 기능(PF) 이름으로 구성된 배열입니다.
- 9
- 선택사항: 가상 기능의 드라이버 유형입니다. 허용되는 유일한 값은
netdevice입니다. 베어 메탈 노드의 DPDK 모드에서 Mellanox NIC가 작동하려면isRdma를true로 설정합니다. - 10
- 선택 사항: 원격 직접 메모리 액세스(RDMA) 모드를 활성화할지 여부를 구성합니다. 기본값은
false입니다.isRdma매개변수가true로 설정된 경우 RDMA 가능 VF를 일반 네트워크 장치로 계속 사용할 수 있습니다. 어느 모드에서나 장치를 사용할 수 있습니다.isRdma를true로 설정하고 추가로needVhostNet을true로 설정하여 Fast Datapath DPDK 애플리케이션과 함께 사용할 Mellanox NIC를 구성합니다.
참고vfio-pci드라이버 유형은 지원되지 않습니다.SriovNetworkNodePolicy오브젝트를 생성합니다.$ oc create -f policyoneflag-sriov-node-network.yaml
구성 업데이트를 적용하면
sriov-network-operator네임스페이스의 모든 Pod가실행중 상태로 변경됩니다.SR-IOV 네트워크 장치가 구성되어 있는지 확인하려면 다음 명령을 입력합니다. &
lt;node_name>을 방금 구성한 SR-IOV 네트워크 장치가 있는 노드 이름으로 바꿉니다.$ oc get sriovnetworknodestates -n openshift-sriov-network-operator <node_name> -o jsonpath='{.status.syncStatus}'출력 예
Succeeded
25.8.2.2. SR-IOV 네트워크에서 sysctl 구성
SriovNetwork 리소스의 선택적 metaPlugins 매개변수에 튜닝 구성을 추가하여 SR-IOV에서 생성한 가상 인터페이스에 인터페이스별 sysctl 설정을 설정할 수 있습니다.
SR-IOV Network Operator는 추가 네트워크 정의를 관리합니다. 생성할 추가 SR-IOV 네트워크를 지정하면 SR-IOV Network Operator가 NetworkAttachmentDefinition CR(사용자 정의 리소스)을 자동으로 생성합니다.
SR-IOV Network Operator에서 관리하는 NetworkAttachmentDefinition 사용자 정의 리소스를 편집하지 마십시오. 편집하면 추가 네트워크의 네트워크 트래픽이 중단될 수 있습니다.
인터페이스 수준 네트워크 net.ipv4.conf.IFNAME.accept_redirects sysctl 설정을 변경하려면 CNI(Container Network Interface) 튜닝 플러그인을 사용하여 추가 SR-IOV 네트워크를 생성합니다.
사전 요구 사항
- OpenShift Container Platform CLI, oc를 설치합니다.
- cluster-admin 역할의 사용자로 OpenShift Container Platform 클러스터에 로그인합니다.
절차
추가 SR-IOV 네트워크 연결에 대한
SriovNetworkCR(사용자 정의 리소스)을 생성하고 다음 예제 CR과 같이metaPlugins구성을 삽입합니다. YAML을sriov-network-interface-sysctl.yaml파일로 저장합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetwork metadata: name: onevalidflag 1 namespace: openshift-sriov-network-operator 2 spec: resourceName: policyoneflag 3 networkNamespace: sysctl-tuning-test 4 ipam: '{ "type": "static" }' 5 capabilities: '{ "mac": true, "ips": true }' 6 metaPlugins : | 7 { "type": "tuning", "capabilities":{ "mac":true }, "sysctl":{ "net.ipv4.conf.IFNAME.accept_redirects": "1" } }
- 1
- 오브젝트의 이름입니다. SR-IOV Network Operator는 동일한 이름으로 NetworkAttachmentDefinition 오브젝트를 생성합니다.
- 2
- SR-IOV Network Operator가 설치된 네임스페이스입니다.
- 3
- 이 추가 네트워크에 대한 SR-IOV 하드웨어를 정의하는
SriovNetworkNodePolicy오브젝트의spec.resourceName매개변수 값입니다. - 4
SriovNetwork오브젝트의 대상 네임스페이스입니다. 대상 네임스페이스의 포드만 추가 네트워크에 연결할 수 있습니다.- 5
- YAML 블록 스칼라 IPAM CNI 플러그인에 대한 구성 오브젝트입니다. 플러그인은 연결 정의에 대한 IP 주소 할당을 관리합니다.
- 6
- 선택 사항: 추가 네트워크에 대한 기능을 설정합니다. IP 주소 지원을 사용하려면
"{ "ips": true }"를 지정하고 MAC 주소 지원을 활성화하려면"{ "mac": true }"를 지정할 수 있습니다. - 7
- 선택 사항: metaPlugins 매개변수는 장치에 기능을 추가하는 데 사용됩니다. 이 사용 사례에서
유형필드를튜닝으로 설정합니다. sysctl 필드에 설정할 인터페이스 수준 네트워크을 지정합니다.sysctl
SriovNetwork리소스를 생성합니다.$ oc create -f sriov-network-interface-sysctl.yaml
NetworkAttachmentDefinition CR이 성공적으로 생성되었는지 확인
SR-IOV Network Operator가 다음 명령을 실행하여
NetworkAttachmentDefinitionCR을 생성했는지 확인합니다.$ oc get network-attachment-definitions -n <namespace> 1- 1
- &
lt;namespace>를SriovNetwork오브젝트에 지정한networkNamespace의 값으로 바꿉니다. 예를 들면sysctl-tuning-test입니다.
출력 예
NAME AGE onevalidflag 14m
참고SR-IOV Network Operator가 CR을 생성하기 전에 지연이 발생할 수 있습니다.
추가 SR-IOV 네트워크 연결에 성공했는지 확인
튜닝 CNI가 올바르게 구성되어 추가 SR-IOV 네트워크 연결이 연결되었는지 확인하려면 다음을 수행하십시오.
PodCR을 생성합니다. 다음 YAML을examplepod.yaml파일로 저장합니다.apiVersion: v1 kind: Pod metadata: name: tunepod namespace: sysctl-tuning-test annotations: k8s.v1.cni.cncf.io/networks: |- [ { "name": "onevalidflag", 1 "mac": "0a:56:0a:83:04:0c", 2 "ips": ["10.100.100.200/24"] 3 } ] spec: containers: - name: podexample image: centos command: ["/bin/bash", "-c", "sleep INF"] securityContext: runAsUser: 2000 runAsGroup: 3000 allowPrivilegeEscalation: false capabilities: drop: ["ALL"] securityContext: runAsNonRoot: true seccompProfile: type: RuntimeDefault- 1
- SR-IOV 네트워크 연결 정의 CR의 이름입니다.
- 2
- 선택사항: SR-IOV 네트워크 연결 정의 CR에 정의된 리소스 유형에서 할당된 SR-IOV 장치의 MAC 주소입니다. 이 기능을 사용하려면 SriovNetwork 오브젝트에
{ "mac": true }도 지정해야 합니다. - 3
- 선택사항: SR-IOV 네트워크 연결 정의 CR에 정의된 리소스 유형에서 할당된 SR-IOV 장치의 IP 주소입니다. IPv4 및 IPv6 주소가 모두 지원됩니다. 이 기능을 사용하려면
SriovNetwork오브젝트에{ "ips": true }도 지정해야 합니다.
PodCR을 생성합니다.$ oc apply -f examplepod.yaml
다음 명령을 실행하여 Pod가 생성되었는지 확인합니다.
$ oc get pod -n sysctl-tuning-test
출력 예
NAME READY STATUS RESTARTS AGE tunepod 1/1 Running 0 47s
다음 명령을 실행하여 포드에 로그인합니다.
$ oc rsh -n sysctl-tuning-test tunepod
구성된 sysctl 플래그의 값을 확인합니다. 다음 명령을 실행하여
net.ipv4.conf.IFNAME.accept_redirects값을 찾습니다.$ sysctl net.ipv4.conf.net1.accept_redirects
출력 예
net.ipv4.conf.net1.accept_redirects = 1
25.8.3. 본딩 SR-IOV 인터페이스 플래그와 연결된 Pod의 sysctl 설정 구성
결합된 SR-IOV 네트워크 장치에 연결된 Pod의 인터페이스 수준 네트워크 sysctl 설정을 설정할 수 있습니다.
이 예에서는 본딩된 인터페이스에 구성할 수 있는 특정 네트워크 인터페이스 수준 sysctl 설정이 설정됩니다.
sysctl-tuning-test 는 이 예제에서 사용되는 네임스페이스입니다.
다음 명령을 사용하여
sysctl-tuning-test네임스페이스를 생성합니다.$ oc create namespace sysctl-tuning-test
25.8.3.1. 본딩 SR-IOV 네트워크 장치가 있는 노드에서 모든 sysctl 플래그 설정
SR-IOV Network Operator는 SriovNetworkNodePolicy.sriovnetwork.openshift.io CRD(사용자 정의 리소스 정의)를 OpenShift Container Platform에 추가합니다. SriovNetworkNodePolicy CR(사용자 정의 리소스)을 생성하여 SR-IOV 네트워크 장치를 구성할 수 있습니다.
SriovNetworkNodePolicy 오브젝트에 지정된 구성을 적용하면 SR-IOV Operator가 노드를 비우고 경우에 따라 노드를 재부팅할 수 있습니다.
구성 변경 사항을 적용하는 데 몇 분이 걸릴 수 있습니다.
SriovNetworkNodePolicy CR(사용자 정의 리소스)을 생성하려면 다음 절차를 따르십시오.
절차
SriovNetworkNodePolicyCR(사용자 정의 리소스)을 생성합니다. 다음 YAML을policyallflags-sriov-node-network.yaml파일로 저장합니다.policyallflags를 구성 이름으로 교체합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: policyallflags 1 namespace: openshift-sriov-network-operator 2 spec: resourceName: policyallflags 3 nodeSelector: 4 node.alpha.kubernetes-incubator.io/nfd-network-sriov.capable = `true` priority: 10 5 numVfs: 5 6 nicSelector: 7 pfNames: ["ens1f0"] 8 deviceType: "netdevice" 9 isRdma: false 10
- 1
- 사용자 정의 리소스 오브젝트의 이름입니다.
- 2
- SR-IOV Network Operator가 설치된 네임스페이스입니다.
- 3
- SR-IOV 네트워크 장치 플러그인의 리소스 이름입니다. 리소스 이름에 대한 SR-IOV 네트워크 노드 정책을 여러 개 생성할 수 있습니다.
- 4
- 노드 선택기는 구성할 노드를 지정합니다. 선택한 노드의 SR-IOV 네트워크 장치만 구성됩니다. SR-IOV CNI(Container Network Interface) 플러그인 및 장치 플러그인은 선택한 노드에만 배포됩니다.
- 5
- 선택 사항: 우선순위는
0에서99사이의 정수 값입니다. 작은 값은 우선순위가 높습니다. 예를 들어 우선순위10은 우선순위99보다 높습니다. 기본값은99입니다. - 6
- SR-IOV 물리적 네트워크 장치에 생성할 VF(가상 기능) 수입니다. Intel NIC(Network Interface Controller)의 경우 VF 수는 장치에서 지원하는 총 VF보다 클 수 없습니다. Mellanox NIC의 경우 VF 수는
128보다 클 수 없습니다. - 7
- NIC 선택기는 Operator가 구성할 장치를 식별합니다. 모든 매개변수에 값을 지정할 필요는 없습니다. 실수로 장치를 선택하지 않도록 네트워크 장치를 정확하게 파악하는 것이 좋습니다.
rootDevices를 지정하는 경우vendor,deviceID, 또는pfNames의 값도 지정해야 합니다.pfNames와rootDevices를 동시에 지정하는 경우 동일한 장치를 참조하는지 확인하십시오.netFilter의 값을 지정하는 경우 네트워크 ID가 고유하므로 다른 매개변수를 지정할 필요가 없습니다. - 8
- 선택사항: 장치에 대해 하나 이상의 물리적 기능(PF) 이름으로 구성된 배열입니다.
- 9
- 선택사항: 가상 기능의 드라이버 유형입니다. 허용되는 유일한 값은
netdevice입니다. 베어 메탈 노드의 DPDK 모드에서 Mellanox NIC가 작동하려면isRdma를true로 설정합니다. - 10
- 선택 사항: 원격 직접 메모리 액세스(RDMA) 모드를 활성화할지 여부를 구성합니다. 기본값은
false입니다.isRdma매개변수가true로 설정된 경우 RDMA 가능 VF를 일반 네트워크 장치로 계속 사용할 수 있습니다. 어느 모드에서나 장치를 사용할 수 있습니다.isRdma를true로 설정하고 추가로needVhostNet을true로 설정하여 Fast Datapath DPDK 애플리케이션과 함께 사용할 Mellanox NIC를 구성합니다.
참고vfio-pci드라이버 유형은 지원되지 않습니다.SriovNetworkNodePolicy 오브젝트를 생성합니다.
$ oc create -f policyallflags-sriov-node-network.yaml
구성 업데이트를 적용하면 sriov-network-operator 네임스페이스의 모든 Pod가
실행중 상태로 변경됩니다.SR-IOV 네트워크 장치가 구성되어 있는지 확인하려면 다음 명령을 입력합니다. &
lt;node_name>을 방금 구성한 SR-IOV 네트워크 장치가 있는 노드 이름으로 바꿉니다.$ oc get sriovnetworknodestates -n openshift-sriov-network-operator <node_name> -o jsonpath='{.status.syncStatus}'출력 예
Succeeded
25.8.3.2. 결합된 SR-IOV 네트워크에서 sysctl 구성
두 개의 SR-IOV 인터페이스에서 생성된 결합된 인터페이스에서 인터페이스별 sysctl 설정을 설정할 수 있습니다. 본딩 네트워크 연결 정의의 선택적 Plugins 매개변수에 튜닝 구성을 추가하여 이 작업을 수행합니다.
SR-IOV Network Operator에서 관리하는 NetworkAttachmentDefinition 사용자 정의 리소스를 편집하지 마십시오. 편집하면 추가 네트워크의 네트워크 트래픽이 중단될 수 있습니다.
특정 인터페이스 수준 네트워크 sysctl 설정을 변경하려면 다음 절차를 사용하여 CNI(Container Network Interface) 튜닝 플러그인으로 SriovNetwork CR(사용자 정의 리소스)을 생성합니다.
사전 요구 사항
- OpenShift Container Platform CLI, oc를 설치합니다.
- cluster-admin 역할의 사용자로 OpenShift Container Platform 클러스터에 로그인합니다.
절차
다음 예제 CR과 같이 결합된 인터페이스에 대한
SriovNetworkCR(사용자 정의 리소스)을 생성합니다. YAML을sriov-network-attachment.yaml파일로 저장합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetwork metadata: name: allvalidflags 1 namespace: openshift-sriov-network-operator 2 spec: resourceName: policyallflags 3 networkNamespace: sysctl-tuning-test 4 capabilities: '{ "mac": true, "ips": true }' 5
- 1
- 오브젝트의 이름입니다. SR-IOV Network Operator는 동일한 이름으로 NetworkAttachmentDefinition 오브젝트를 생성합니다.
- 2
- SR-IOV Network Operator가 설치된 네임스페이스입니다.
- 3
- 이 추가 네트워크에 대한 SR-IOV 하드웨어를 정의하는
SriovNetworkNodePolicy오브젝트의spec.resourceName매개변수 값입니다. - 4
SriovNetwork오브젝트의 대상 네임스페이스입니다. 대상 네임스페이스의 포드만 추가 네트워크에 연결할 수 있습니다.- 5
- 선택사항: 이 추가 네트워크에 구성할 수 있는 기능입니다. IP 주소 지원을 사용하려면
"{ "ips": true }"를 지정하고 MAC 주소 지원을 활성화하려면"{ "mac": true }"를 지정할 수 있습니다.
SriovNetwork리소스를 생성합니다.$ oc create -f sriov-network-attachment.yaml
다음 예제 CR에서와 같이 본딩 네트워크 연결 정의를 생성합니다. YAML을
sriov-bond-network-interface.yaml파일로 저장합니다.apiVersion: "k8s.cni.cncf.io/v1" kind: NetworkAttachmentDefinition metadata: name: bond-sysctl-network namespace: sysctl-tuning-test spec: config: '{ "cniVersion":"0.4.0", "name":"bound-net", "plugins":[ { "type":"bond", 1 "mode": "active-backup", 2 "failOverMac": 1, 3 "linksInContainer": true, 4 "miimon": "100", "links": [ 5 {"name": "net1"}, {"name": "net2"} ], "ipam":{ 6 "type":"static" } }, { "type":"tuning", 7 "capabilities":{ "mac":true }, "sysctl":{ "net.ipv4.conf.IFNAME.accept_redirects": "0", "net.ipv4.conf.IFNAME.accept_source_route": "0", "net.ipv4.conf.IFNAME.disable_policy": "1", "net.ipv4.conf.IFNAME.secure_redirects": "0", "net.ipv4.conf.IFNAME.send_redirects": "0", "net.ipv6.conf.IFNAME.accept_redirects": "0", "net.ipv6.conf.IFNAME.accept_source_route": "1", "net.ipv6.neigh.IFNAME.base_reachable_time_ms": "20000", "net.ipv6.neigh.IFNAME.retrans_time_ms": "2000" } } ] }'- 1
- 유형은
bond입니다. - 2
mode속성은 본딩 모드를 지정합니다. 지원되는 본딩 모드는 다음과 같습니다.-
balance-rr- 0 -
active-backup- 1 balance-xor- 2balance-rr또는balance-xor모드의 경우 SR-IOV 가상 기능의신뢰모드를on으로 설정해야 합니다.
-
- 3
- active-backup 모드에 대해
failover속성이 필수입니다. - 4
linksInContainer=true플래그는 Bond CNI에 필요한 인터페이스가 컨테이너 내에서 찾을 수 있음을 알립니다. 기본적으로 Bond CNI는 SRIOV 및 Multus와의 통합이 작동하지 않는 호스트에서 이러한 인터페이스를 찾습니다.- 5
links섹션에서는 본딩을 생성하는 데 사용할 인터페이스를 정의합니다. 기본적으로 Multus는 연결된 인터페이스의 이름을 "net"으로 지정하고 연속된 수로 지정합니다.- 6
- YAML 블록 스칼라 IPAM CNI 플러그인에 대한 구성 오브젝트입니다. 플러그인은 연결 정의에 대한 IP 주소 할당을 관리합니다. 이 Pod 예에서 IP 주소는 수동으로 구성되므로 이 경우
ipam이 static으로 설정됩니다. - 7
- 장치에 기능을 추가합니다. 예를 들어
type필드를tuning으로 설정합니다. sysctl 필드에 설정할 인터페이스 수준 네트워크sysctl을 지정합니다. 이 예에서는 설정할 수 있는 모든 인터페이스 수준 네트워크sysctl설정을 설정합니다.
본딩 네트워크 연결 리소스를 만듭니다.
$ oc create -f sriov-bond-network-interface.yaml
NetworkAttachmentDefinition CR이 성공적으로 생성되었는지 확인
SR-IOV Network Operator가 다음 명령을 실행하여
NetworkAttachmentDefinitionCR을 생성했는지 확인합니다.$ oc get network-attachment-definitions -n <namespace> 1- 1
- &
lt;namespace>를 네트워크 연결을 구성할 때 지정한 networkNamespace로 교체합니다(예:sysctl-tuning-test).
출력 예
NAME AGE bond-sysctl-network 22m allvalidflags 47m
참고SR-IOV Network Operator가 CR을 생성하기 전에 지연이 발생할 수 있습니다.
추가 SR-IOV 네트워크 리소스가 성공했는지 확인
튜닝 CNI가 올바르게 구성되어 추가 SR-IOV 네트워크 연결이 연결되었는지 확인하려면 다음을 수행하십시오.
PodCR을 생성합니다. 예를 들어 다음 YAML을examplepod.yaml파일로 저장합니다.apiVersion: v1 kind: Pod metadata: name: tunepod namespace: sysctl-tuning-test annotations: k8s.v1.cni.cncf.io/networks: |- [ {"name": "allvalidflags"}, 1 {"name": "allvalidflags"}, { "name": "bond-sysctl-network", "interface": "bond0", "mac": "0a:56:0a:83:04:0c", 2 "ips": ["10.100.100.200/24"] 3 } ] spec: containers: - name: podexample image: centos command: ["/bin/bash", "-c", "sleep INF"] securityContext: runAsUser: 2000 runAsGroup: 3000 allowPrivilegeEscalation: false capabilities: drop: ["ALL"] securityContext: runAsNonRoot: true seccompProfile: type: RuntimeDefault- 1
- SR-IOV 네트워크 연결 정의 CR의 이름입니다.
- 2
- 선택사항: SR-IOV 네트워크 연결 정의 CR에 정의된 리소스 유형에서 할당된 SR-IOV 장치의 MAC 주소입니다. 이 기능을 사용하려면 SriovNetwork 오브젝트에
{ "mac": true }도 지정해야 합니다. - 3
- 선택사항: SR-IOV 네트워크 연결 정의 CR에 정의된 리소스 유형에서 할당된 SR-IOV 장치의 IP 주소입니다. IPv4 및 IPv6 주소가 모두 지원됩니다. 이 기능을 사용하려면
SriovNetwork오브젝트에{ "ips": true }도 지정해야 합니다.
YAML을 적용합니다.
$ oc apply -f examplepod.yaml
다음 명령을 실행하여 Pod가 생성되었는지 확인합니다.
$ oc get pod -n sysctl-tuning-test
출력 예
NAME READY STATUS RESTARTS AGE tunepod 1/1 Running 0 47s
다음 명령을 실행하여 포드에 로그인합니다.
$ oc rsh -n sysctl-tuning-test tunepod
구성된
sysctl플래그 값을 확인합니다. 다음 명령을 실행하여net.ipv6.neigh.IFNAME.base_reachable_time_ms값을 찾습니다.$ sysctl net.ipv6.neigh.bond0.base_reachable_time_ms
출력 예
net.ipv6.neigh.bond0.base_reachable_time_ms = 20000
25.9. 고성능 멀티 캐스트 사용
SR-IOV(Single Root I/O Virtualization) 하드웨어 네트워크에서 멀티 캐스트를 사용할 수 있습니다.
25.9.1. 고성능 멀티 캐스트
OpenShift SDN 네트워크 플러그인은 기본 네트워크의 pod 간 멀티 캐스트를 지원합니다. 이는 고 대역폭 애플리케이션이 아닌 저 대역폭 조정 또는 서비스 검색에 가장 적합합니다. IPTV(Internet Protocol Television) 및 멀티 포인트 화상 회의와 같은 스트리밍 미디어와 같은 애플리케이션의 경우 SR-IOV(Single Root I/O Virtualization) 하드웨어를 사용하여 거의 네이티브와 같은 성능을 제공할 수 있습니다.
멀티 캐스트에 추가 SR-IOV 인터페이스를 사용하는 경우:
- 멀티 캐스트 패키지는 추가 SR-IOV 인터페이스를 통해 pod에서 보내거나 받아야 합니다.
- SR-IOV 인터페이스를 연결하는 물리적 네트워크는 멀티 캐스트 라우팅 및 토폴로지를 결정하며 OpenShift Container Platform에서 제어하지 않습니다.
25.9.2. 멀티 캐스트의 SR-IOV 인터페이스 구성
다음 프로시저는 멀티 캐스트용 SR-IOV 인터페이스 예제를 만듭니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할이 있는 사용자로 클러스터에 로그인해야 합니다.
절차
SriovNetworkNodePolicy오브젝트를 생성합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: policy-example namespace: openshift-sriov-network-operator spec: resourceName: example nodeSelector: feature.node.kubernetes.io/network-sriov.capable: "true" numVfs: 4 nicSelector: vendor: "8086" pfNames: ['ens803f0'] rootDevices: ['0000:86:00.0']SriovNetwork오브젝트를 생성합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetwork metadata: name: net-example namespace: openshift-sriov-network-operator spec: networkNamespace: default ipam: | 1 { "type": "host-local", 2 "subnet": "10.56.217.0/24", "rangeStart": "10.56.217.171", "rangeEnd": "10.56.217.181", "routes": [ {"dst": "224.0.0.0/5"}, {"dst": "232.0.0.0/5"} ], "gateway": "10.56.217.1" } resourceName: example
멀티 캐스트 애플리케이션으로 pod를 생성합니다.
apiVersion: v1 kind: Pod metadata: name: testpmd namespace: default annotations: k8s.v1.cni.cncf.io/networks: nic1 spec: containers: - name: example image: rhel7:latest securityContext: capabilities: add: ["NET_ADMIN"] 1 command: [ "sleep", "infinity"]- 1
NET_ADMIN기능은 애플리케이션이 멀티 캐스트 IP 주소를 SR-IOV 인터페이스에 할당해야 하는 경우에만 필요합니다. 그 밖의 경우에는 생략할 수 있습니다.
25.10. DPDK 및 RDMA 사용
컨테이너화된 DPDK(Data Plane Development Kit) 애플리케이션은 OpenShift Container Platform에서 지원됩니다. DPDK(Data Plane Development Kit) 및 RDMA(Remote Direct Memory Access)와 함께 SR-IOV(Single Root I/O Virtualization) 네트워크 하드웨어를 사용할 수 있습니다.
지원되는 장치에 대한 자세한 내용은 지원되는 장치를 참조하십시오.
25.10.1. Intel NIC와 함께 DPDK 모드에서 가상 기능 사용
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - SR-IOV Network Operator 설치.
-
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
다음
SriovNetworkNodePolicy오브젝트를 생성한 다음 YAML을intel-dpdk-node-policy.yaml파일에 저장합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: intel-dpdk-node-policy namespace: openshift-sriov-network-operator spec: resourceName: intelnics nodeSelector: feature.node.kubernetes.io/network-sriov.capable: "true" priority: <priority> numVfs: <num> nicSelector: vendor: "8086" deviceID: "158b" pfNames: ["<pf_name>", ...] rootDevices: ["<pci_bus_id>", "..."] deviceType: vfio-pci 1- 1
- 가상 기능의 드라이버 유형을
vfio-pci로 지정합니다.
참고SriovNetworkNodePolicy의 각 옵션에 대한 자세한 설명은SR-IOV 네트워크 장치 구성섹션을 참조하십시오.SriovNetworkNodePolicy오브젝트에 지정된 구성을 적용하면 SR-IOV Operator가 노드를 비우고 경우에 따라 노드를 재부팅할 수 있습니다. 구성 변경 사항을 적용하는 데 몇 분이 걸릴 수 있습니다. 제거된 워크로드를 사전에 처리하는 데 클러스터에 사용 가능한 노드가 충분한지 확인하십시오.구성 업데이트가 적용되면
openshift-sriov-network-operator네임스페이스의 모든 Pod 상태가Running으로 변경됩니다.다음 명령을 실행하여
SriovNetworkNodePolicy오브젝트를 생성합니다.$ oc create -f intel-dpdk-node-policy.yaml
다음
SriovNetwork오브젝트를 생성한 다음 YAML을intel-dpdk-network.yaml파일에 저장합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetwork metadata: name: intel-dpdk-network namespace: openshift-sriov-network-operator spec: networkNamespace: <target_namespace> ipam: |- # ... 1 vlan: <vlan> resourceName: intelnics- 1
- ipam CNI 플러그인의 구성 오브젝트를 YAML 블록 스칼라로 지정합니다. 플러그인은 연결 정의에 대한 IP 주소 할당을 관리합니다.
참고SriovNetwork의 각 옵션에 대한 자세한 설명은 " SR-IOV 추가 네트워크 구성" 섹션을 참조하십시오.선택적 라이브러리인 app-netutil은 컨테이너의 상위 pod에 대한 네트워크 정보를 수집하기 위한 여러 API 메서드를 제공합니다.
다음 명령을 실행하여
SriovNetwork오브젝트를 생성합니다.$ oc create -f intel-dpdk-network.yaml
다음
Pod사양을 생성한 다음 YAML을intel-dpdk-pod.yaml파일에 저장합니다.apiVersion: v1 kind: Pod metadata: name: dpdk-app namespace: <target_namespace> 1 annotations: k8s.v1.cni.cncf.io/networks: intel-dpdk-network spec: containers: - name: testpmd image: <DPDK_image> 2 securityContext: runAsUser: 0 capabilities: add: ["IPC_LOCK","SYS_RESOURCE","NET_RAW"] 3 volumeMounts: - mountPath: /dev/hugepages 4 name: hugepage resources: limits: openshift.io/intelnics: "1" 5 memory: "1Gi" cpu: "4" 6 hugepages-1Gi: "4Gi" 7 requests: openshift.io/intelnics: "1" memory: "1Gi" cpu: "4" hugepages-1Gi: "4Gi" command: ["sleep", "infinity"] volumes: - name: hugepage emptyDir: medium: HugePages
- 1
SriovNetwork오브젝트intel-dpdk-network가 생성되는 동일한target_namespace를 지정합니다. 다른 네임스페이스에서 Pod를 생성하려면Pod사양과SriovNetwork오브젝트 모두에서target_namespace를 변경합니다.- 2
- 애플리케이션 및 애플리케이션이 사용하는 DPDK 라이브러리를 포함하는 DPDK 이미지를 지정합니다.
- 3
- hugepage 할당, 시스템 리소스 할당 및 네트워크 인터페이스 액세스를 위해 컨테이너 내부의 애플리케이션에 필요한 추가 기능을 지정합니다.
- 4
/dev/hugepages아래의 DPDK Pod에 hugepage 볼륨을 마운트합니다. hugepage 볼륨은 매체가Hugepages인 emptyDir 볼륨 유형으로 지원됩니다.- 5
- 선택사항: DPDK Pod에 할당된 DPDK 장치 수를 지정합니다. 명시적으로 지정되지 않은 경우 이 리소스 요청 및 제한은 SR-IOV 네트워크 리소스 인젝터에 의해 자동으로 추가됩니다. SR-IOV 네트워크 리소스 인젝터는 SR-IOV Operator에서 관리하는 승인 컨트롤러 구성 요소입니다. 기본적으로 활성화되어 있으며 기본
SriovOperatorConfigCR에서enableInjector옵션을false로 설정하여 비활성화할 수 있습니다. - 6
- CPU 수를 지정합니다. DPDK pod는 일반적으로 kubelet에서 배타적 CPU를 할당해야 합니다. 이를 위해 CPU 관리자 정책을
static으로 설정하고 QoS가보장된Pod를 생성합니다. - 7
- hugepage 크기
hugepages-1Gi또는hugepages-2Mi를 지정하고 DPDK Pod에 할당될 hugepages의 수량을 지정합니다.2Mi및1Gihugepages를 별도로 구성합니다.1Gihugepage를 구성하려면 커널 인수를 노드에 추가해야 합니다. 예를 들어 커널 인수default_hugepagesz=1GB,hugepagesz=1G및hugepages=16을 추가하면 시스템 부팅 중에16*1Gihugepages가 할당됩니다.
다음 명령을 실행하여 DPDK Pod를 생성합니다.
$ oc create -f intel-dpdk-pod.yaml
25.10.2. Mellanox NIC와 함께 DPDK 모드에서 가상 기능 사용
Mellanox NIC와 함께 DPDK 모드에서 가상 기능을 사용하여 네트워크 노드 정책을 생성하고 DPDK(Data Plane Development Kit) Pod를 생성할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치했습니다. - SR-IOV(Single Root I/O Virtualization) Network Operator가 설치되어 있습니다.
-
cluster-admin권한이 있는 사용자로 로그인했습니다.
절차
다음
SriovNetworkNodePolicyYAML 구성을mlx-dpdk-node-policy.yaml파일에 저장합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: mlx-dpdk-node-policy namespace: openshift-sriov-network-operator spec: resourceName: mlxnics nodeSelector: feature.node.kubernetes.io/network-sriov.capable: "true" priority: <priority> numVfs: <num> nicSelector: vendor: "15b3" deviceID: "1015" 1 pfNames: ["<pf_name>", ...] rootDevices: ["<pci_bus_id>", "..."] deviceType: netdevice 2 isRdma: true 3참고SriovNetworkNodePolicy오브젝트의 각 옵션에 대한 자세한 설명은 SR-IOV 네트워크 장치 구성을 참조하십시오.SriovNetworkNodePolicy오브젝트에 지정된 구성을 적용하면 SR-IOV Operator가 노드를 비우고 경우에 따라 노드를 재부팅할 수 있습니다. 구성 변경 사항을 적용하는 데 몇 분이 걸릴 수 있습니다. 제거된 워크로드를 사전에 처리하는 데 클러스터에 사용 가능한 노드가 충분한지 확인하십시오.구성 업데이트가 적용되면
openshift-sriov-network-operator네임스페이스의 모든 Pod 상태가Running으로 변경됩니다.다음 명령을 실행하여
SriovNetworkNodePolicy오브젝트를 생성합니다.$ oc create -f mlx-dpdk-node-policy.yaml
다음
SriovNetworkYAML 구성을mlx-dpdk-network.yaml파일에 저장합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetwork metadata: name: mlx-dpdk-network namespace: openshift-sriov-network-operator spec: networkNamespace: <target_namespace> ipam: |- 1 ... vlan: <vlan> resourceName: mlxnics- 1
- IP 주소 관리(IPAM) CNI(Container Network Interface) 플러그인의 구성 오브젝트를 YAML 블록 스칼라로 지정합니다. 플러그인은 연결 정의에 대한 IP 주소 할당을 관리합니다.
참고SriovNetwork오브젝트 의 각 옵션에 대한 자세한 설명은 SR-IOV 네트워크 장치 구성을 참조하십시오.app-netutil옵션 라이브러리는 컨테이너의 상위 Pod에 대한 네트워크 정보를 수집하기 위한 여러 API 메서드를 제공합니다.다음 명령을 실행하여
SriovNetwork오브젝트를 생성합니다.$ oc create -f mlx-dpdk-network.yaml
다음
PodYAML 구성을mlx-dpdk-pod.yaml파일에 저장합니다.apiVersion: v1 kind: Pod metadata: name: dpdk-app namespace: <target_namespace> 1 annotations: k8s.v1.cni.cncf.io/networks: mlx-dpdk-network spec: containers: - name: testpmd image: <DPDK_image> 2 securityContext: runAsUser: 0 capabilities: add: ["IPC_LOCK","SYS_RESOURCE","NET_RAW"] 3 volumeMounts: - mountPath: /dev/hugepages 4 name: hugepage resources: limits: openshift.io/mlxnics: "1" 5 memory: "1Gi" cpu: "4" 6 hugepages-1Gi: "4Gi" 7 requests: openshift.io/mlxnics: "1" memory: "1Gi" cpu: "4" hugepages-1Gi: "4Gi" command: ["sleep", "infinity"] volumes: - name: hugepage emptyDir: medium: HugePages
- 1
SriovNetwork오브젝트mlx-dpdk-network가 생성되는 동일한target_namespace를 지정합니다. 다른 네임스페이스에 Pod를 생성하려면Pod사양 및SriovNetwork오브젝트 모두에서target_namespace를 변경합니다.- 2
- 애플리케이션 및 애플리케이션에서 사용하는 DPDK 라이브러리를 포함하는 DPDK 이미지를 지정합니다.
- 3
- hugepage 할당, 시스템 리소스 할당 및 네트워크 인터페이스 액세스를 위해 컨테이너 내부의 애플리케이션에 필요한 추가 기능을 지정합니다.
- 4
- hugepage 볼륨을
/dev/hugepages아래의 DPDK Pod에 마운트합니다. hugepage 볼륨은 매체가Hugepages인emptyDir볼륨 유형으로 지원됩니다. - 5
- 선택 사항: DPDK Pod에 할당된 DPDK 장치 수를 지정합니다. 명시적으로 지정하지 않으면 SR-IOV 네트워크 리소스 인젝터에 의해 이 리소스 요청 및 제한이 자동으로 추가됩니다. SR-IOV 네트워크 리소스 인젝터는 SR-IOV Operator에서 관리하는 승인 컨트롤러 구성 요소입니다. 기본적으로 활성화되어 있으며 기본
SriovOperatorConfigCR에서enableInjector옵션을false로 설정하여 비활성화할 수 있습니다. - 6
- CPU 수를 지정합니다. DPDK Pod는 일반적으로 kubelet에서 전용 CPU를 할당해야 합니다. 이렇게 하려면 CPU 관리자 정책을
static으로 설정하고 QoS(Quality of Service)가보장된Pod를 생성합니다. - 7
- hugepage 크기
hugepages-1Gi또는hugepages-2Mi를 지정하고 DPDK Pod에 할당될 hugepages의 수량을 지정합니다.2Mi및1Gihugepages를 별도로 구성합니다.1Gihugepages를 구성하려면 커널 인수를 노드에 추가해야 합니다.
다음 명령을 실행하여 DPDK Pod를 생성합니다.
$ oc create -f mlx-dpdk-pod.yaml
25.10.3. 특정 DPDK 라인 비율 달성 개요
특정 DPDK(Data Plane Development Kit) 라인 속도를 달성하려면 Node Tuning Operator를 배포하고 SR-IOV(Single Root I/O Virtualization)를 구성합니다. 다음 리소스에 대해 DPDK 설정도 조정해야 합니다.
- 분리된 CPU
- hugepages
- 토폴로지 스케줄러
이전 버전의 OpenShift Container Platform에서는 Performance Addon Operator를 사용하여 OpenShift Container Platform 애플리케이션의 대기 시간을 단축할 수 있도록 자동 튜닝을 구현했습니다. OpenShift Container Platform 4.11 이상에서는 이 기능은 Node Tuning Operator의 일부입니다.
DPDK 테스트 환경
다음 다이어그램에서는 트래픽 테스트 환경의 구성 요소를 보여줍니다.

- 트래픽 생성기: 대량의 패킷 트래픽을 생성할 수 있는 애플리케이션입니다.
- SR-IOV-supporting NIC: SR-IOV와 호환되는 네트워크 인터페이스 카드입니다. 카드는 물리적 인터페이스에서 여러 가상 기능을 실행합니다.
- PF(물리적 기능 ): SR-IOV 인터페이스를 지원하는 네트워크 어댑터의 PCIe( PCI Express) 기능입니다.
- VF(가상 기능): SR-IOV를 지원하는 네트워크 어댑터의 경량 PCIe 기능입니다. VF는 네트워크 어댑터의 PCIe PF와 연결되어 있습니다. VF는 네트워크 어댑터의 가상화된 인스턴스를 나타냅니다.
- switch: 네트워크 스위치. 노드를 back-to-back으로 연결할 수도 있습니다.
-
testpmd: DPDK에 포함된 애플리케이션의 예입니다.testpmd애플리케이션은 패킷 전달 모드에서 DPDK를 테스트하는 데 사용할 수 있습니다.testpmd애플리케이션은 DPDK 소프트웨어 개발 키트(SDK)를 사용하여 완전한 애플리케이션을 빌드하는 방법의 예이기도 합니다. - worker 0 및 worker 1: OpenShift Container Platform 노드
25.10.4. SR-IOV 및 Node Tuning Operator를 사용하여 DPDK 라인 비율 달성
Node Tuning Operator를 사용하여 분리된 CPU, hugepages 및 토폴로지 스케줄러를 구성할 수 있습니다. 그런 다음 SR-IOV(Single Root I/O Virtualization)와 함께 Node Tuning Operator를 사용하여 특정 DPDK(Data Plane Development Kit) 라인 속도를 얻을 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치했습니다. - SR-IOV Network Operator가 설치되어 있습니다.
-
cluster-admin권한이 있는 사용자로 로그인했습니다. 독립 실행형 Node Tuning Operator를 배포했습니다.
참고이전 버전의 OpenShift Container Platform에서는 Performance Addon Operator를 사용하여 OpenShift 애플리케이션에 대한 대기 시간을 단축할 수 있도록 자동 튜닝을 구현했습니다. OpenShift Container Platform 4.11 이상에서는 이 기능은 Node Tuning Operator의 일부입니다.
프로세스
다음 예제를 기반으로
PerformanceProfile오브젝트를 생성합니다.apiVersion: performance.openshift.io/v2 kind: PerformanceProfile metadata: name: performance spec: globallyDisableIrqLoadBalancing: true cpu: isolated: 21-51,73-103 1 reserved: 0-20,52-72 2 hugepages: defaultHugepagesSize: 1G 3 pages: - count: 32 size: 1G net: userLevelNetworking: true numa: topologyPolicy: "single-numa-node" nodeSelector: node-role.kubernetes.io/worker-cnf: ""- 1
- 시스템에서 하이퍼 스레딩을 활성화하면 관련 심볼릭 링크를
분리및예약된CPU 그룹에 할당합니다. 시스템에 NUMA(메모리 액세스 노드)가 여러 개 포함된 경우 두 NUMA에서 두 그룹으로 모두 CPU를 할당합니다. 이 작업에 Performance Profile Creator를 사용할 수도 있습니다. 자세한 내용은 성능 프로파일 생성을 참조하십시오. - 2
- 대기열이 예약된 CPU 수로 설정될 장치 목록을 지정할 수도 있습니다. 자세한 내용은 Node Tuning Operator를 사용하여 NIC 대기열 단축을 참조하십시오.
- 3
- 필요한 hugepage 수와 크기를 할당합니다. hugepages에 대한 NUMA 구성을 지정할 수 있습니다. 기본적으로 시스템은 시스템의 모든 NUMA 노드에 짝수를 할당합니다. 필요한 경우 노드에 대한 실시간 커널 사용을 요청할 수 있습니다. 자세한 내용은 실시간 기능을 사용하여 작업자 프로비저닝 을 참조하십시오.
-
yaml파일을mlx-dpdk-perfprofile-policy.yaml로 저장합니다. 다음 명령을 사용하여 성능 프로필을 적용합니다.
$ oc create -f mlx-dpdk-perfprofile-policy.yaml
25.10.4.1. 가상 기능에 대한 SR-IOV Network Operator의 예
SR-IOV(Single Root I/O Virtualization) Network Operator를 사용하여 노드의 SR-IOV 지원 물리적 기능 NIC에서 VF(가상 기능)를 할당하고 구성할 수 있습니다.
Operator 배포에 대한 자세한 내용은 SR-IOV Network Operator 설치를 참조하십시오. SR-IOV 네트워크 장치 구성에 대한 자세한 내용은 SR-IOV 네트워크 장치 구성을 참조하십시오.
Intel VF 및 Mellanox VF에서 DPDK(Data Plane Development Kit) 워크로드를 실행하는 데는 몇 가지 차이점이 있습니다. 이 섹션에서는 두 VF 유형에 대한 오브젝트 구성 예제를 제공합니다. 다음은 Intel NIC에서 DPDK 애플리케이션을 실행하는 데 사용되는 sriovNetworkNodePolicy 오브젝트의 예입니다.
apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: dpdk-nic-1 namespace: openshift-sriov-network-operator spec: deviceType: vfio-pci 1 needVhostNet: true 2 nicSelector: pfNames: ["ens3f0"] nodeSelector: node-role.kubernetes.io/worker-cnf: "" numVfs: 10 priority: 99 resourceName: dpdk_nic_1 --- apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: dpdk-nic-1 namespace: openshift-sriov-network-operator spec: deviceType: vfio-pci needVhostNet: true nicSelector: pfNames: ["ens3f1"] nodeSelector: node-role.kubernetes.io/worker-cnf: "" numVfs: 10 priority: 99 resourceName: dpdk_nic_2
다음은 Mellanox NIC의 sriovNetworkNodePolicy 오브젝트의 예입니다.
apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: dpdk-nic-1 namespace: openshift-sriov-network-operator spec: deviceType: netdevice 1 isRdma: true 2 nicSelector: rootDevices: - "0000:5e:00.1" nodeSelector: node-role.kubernetes.io/worker-cnf: "" numVfs: 5 priority: 99 resourceName: dpdk_nic_1 --- apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: dpdk-nic-2 namespace: openshift-sriov-network-operator spec: deviceType: netdevice isRdma: true nicSelector: rootDevices: - "0000:5e:00.0" nodeSelector: node-role.kubernetes.io/worker-cnf: "" numVfs: 5 priority: 99 resourceName: dpdk_nic_2
25.10.4.2. SR-IOV 네트워크 Operator의 예
다음은 sriovNetwork 오브젝트 정의의 예입니다. 이 경우 Intel 및 Mellanox 구성은 동일합니다.
apiVersion: sriovnetwork.openshift.io/v1
kind: SriovNetwork
metadata:
name: dpdk-network-1
namespace: openshift-sriov-network-operator
spec:
ipam: '{"type": "host-local","ranges": [[{"subnet": "10.0.1.0/24"}]],"dataDir":
"/run/my-orchestrator/container-ipam-state-1"}' 1
networkNamespace: dpdk-test 2
spoofChk: "off"
trust: "on"
resourceName: dpdk_nic_1 3
---
apiVersion: sriovnetwork.openshift.io/v1
kind: SriovNetwork
metadata:
name: dpdk-network-2
namespace: openshift-sriov-network-operator
spec:
ipam: '{"type": "host-local","ranges": [[{"subnet": "10.0.2.0/24"}]],"dataDir":
"/run/my-orchestrator/container-ipam-state-1"}'
networkNamespace: dpdk-test
spoofChk: "off"
trust: "on"
resourceName: dpdk_nic_225.10.4.3. DPDK 기본 워크로드 예
다음은 DPDK(Data Plane Development Kit) 컨테이너의 예입니다.
apiVersion: v1
kind: Namespace
metadata:
name: dpdk-test
---
apiVersion: v1
kind: Pod
metadata:
annotations:
k8s.v1.cni.cncf.io/networks: '[ 1
{
"name": "dpdk-network-1",
"namespace": "dpdk-test"
},
{
"name": "dpdk-network-2",
"namespace": "dpdk-test"
}
]'
irq-load-balancing.crio.io: "disable" 2
cpu-load-balancing.crio.io: "disable"
cpu-quota.crio.io: "disable"
labels:
app: dpdk
name: testpmd
namespace: dpdk-test
spec:
runtimeClassName: performance-performance 3
containers:
- command:
- /bin/bash
- -c
- sleep INF
image: registry.redhat.io/openshift4/dpdk-base-rhel8
imagePullPolicy: Always
name: dpdk
resources: 4
limits:
cpu: "16"
hugepages-1Gi: 8Gi
memory: 2Gi
requests:
cpu: "16"
hugepages-1Gi: 8Gi
memory: 2Gi
securityContext:
capabilities:
add:
- IPC_LOCK
- SYS_RESOURCE
- NET_RAW
- NET_ADMIN
runAsUser: 0
volumeMounts:
- mountPath: /mnt/huge
name: hugepages
terminationGracePeriodSeconds: 5
volumes:
- emptyDir:
medium: HugePages
name: hugepages
SLEEP 를 사용하여 Pod를 시작한 다음 Pod를 Pod로 실행하여 testpmd 또는 DPDK 워크로드를 시작합니다. 이는 exec 프로세스가 임의의 CPU에 고정되어 있지 않으므로 추가 인터럽트를 추가할 수 있습니다.
25.10.4.4. testpmd 스크립트 예
다음은 testpmd 를 실행하기 위한 스크립트 예제입니다.
#!/bin/bash
set -ex
export CPU=$(cat /sys/fs/cgroup/cpuset/cpuset.cpus)
echo ${CPU}
dpdk-testpmd -l ${CPU} -a ${PCIDEVICE_OPENSHIFT_IO_DPDK_NIC_1} -a ${PCIDEVICE_OPENSHIFT_IO_DPDK_NIC_2} -n 4 -- -i --nb-cores=15 --rxd=4096 --txd=4096 --rxq=7 --txq=7 --forward-mode=mac --eth-peer=0,50:00:00:00:00:01 --eth-peer=1,50:00:00:00:00:02
이 예에서는 두 가지 sriovNetwork CR을 사용합니다. 환경 변수에는 Pod에 할당된 VF(Virtual Function) PCI 주소가 포함됩니다. 포드 정의에서 동일한 네트워크를 사용하는 경우 pciAddress 를 분할해야 합니다. 트래픽 생성기의 올바른 MAC 주소를 구성하는 것이 중요합니다. 이 예에서는 사용자 정의 MAC 주소를 사용합니다.
25.10.5. Mellanox NIC와 함께 RDMA 모드에서 가상 기능 사용
RoCE(RDMA over Converged Ethernet)는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
OpenShift Container Platform에서 RDMA를 사용할 때 RoCE(RDMA over Converged Ethernet)가 지원되는 유일한 모드입니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - SR-IOV Network Operator 설치.
-
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
다음
SriovNetworkNodePolicy오브젝트를 생성한 다음 YAML을mlx-rdma-node-policy.yaml파일에 저장합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: mlx-rdma-node-policy namespace: openshift-sriov-network-operator spec: resourceName: mlxnics nodeSelector: feature.node.kubernetes.io/network-sriov.capable: "true" priority: <priority> numVfs: <num> nicSelector: vendor: "15b3" deviceID: "1015" 1 pfNames: ["<pf_name>", ...] rootDevices: ["<pci_bus_id>", "..."] deviceType: netdevice 2 isRdma: true 3참고SriovNetworkNodePolicy의 각 옵션에 대한 자세한 설명은SR-IOV 네트워크 장치 구성섹션을 참조하십시오.SriovNetworkNodePolicy오브젝트에 지정된 구성을 적용하면 SR-IOV Operator가 노드를 비우고 경우에 따라 노드를 재부팅할 수 있습니다. 구성 변경 사항을 적용하는 데 몇 분이 걸릴 수 있습니다. 제거된 워크로드를 사전에 처리하는 데 클러스터에 사용 가능한 노드가 충분한지 확인하십시오.구성 업데이트가 적용되면
openshift-sriov-network-operator네임스페이스의 모든 Pod 상태가Running으로 변경됩니다.다음 명령을 실행하여
SriovNetworkNodePolicy오브젝트를 생성합니다.$ oc create -f mlx-rdma-node-policy.yaml
다음
SriovNetwork오브젝트를 생성한 다음 YAML을mlx-rdma-network.yaml파일에 저장합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetwork metadata: name: mlx-rdma-network namespace: openshift-sriov-network-operator spec: networkNamespace: <target_namespace> ipam: |- 1 # ... vlan: <vlan> resourceName: mlxnics- 1
- ipam CNI 플러그인의 구성 오브젝트를 YAML 블록 스칼라로 지정합니다. 플러그인은 연결 정의에 대한 IP 주소 할당을 관리합니다.
참고SriovNetwork의 각 옵션에 대한 자세한 설명은 " SR-IOV 추가 네트워크 구성" 섹션을 참조하십시오.선택적 라이브러리인 app-netutil은 컨테이너의 상위 pod에 대한 네트워크 정보를 수집하기 위한 여러 API 메서드를 제공합니다.
다음 명령을 실행하여
SriovNetworkNodePolicy오브젝트를 생성합니다.$ oc create -f mlx-rdma-network.yaml
다음
Pod사양을 생성한 다음 YAML을mlx-rdma-pod.yaml파일에 저장합니다.apiVersion: v1 kind: Pod metadata: name: rdma-app namespace: <target_namespace> 1 annotations: k8s.v1.cni.cncf.io/networks: mlx-rdma-network spec: containers: - name: testpmd image: <RDMA_image> 2 securityContext: runAsUser: 0 capabilities: add: ["IPC_LOCK","SYS_RESOURCE","NET_RAW"] 3 volumeMounts: - mountPath: /dev/hugepages 4 name: hugepage resources: limits: memory: "1Gi" cpu: "4" 5 hugepages-1Gi: "4Gi" 6 requests: memory: "1Gi" cpu: "4" hugepages-1Gi: "4Gi" command: ["sleep", "infinity"] volumes: - name: hugepage emptyDir: medium: HugePages
- 1
SriovNetwork오브젝트mlx-rdma-network가 생성되는 동일한target_namespace를 지정합니다. 다른 네임스페이스에서 Pod를 생성하려면Pod사양과SriovNetwork오브젝트 모두에서target_namespace를 변경합니다.- 2
- 애플리케이션 및 애플리케이션에서 사용하는 RDMA 라이브러리를 포함하는 RDMA 이미지를 지정합니다.
- 3
- hugepage 할당, 시스템 리소스 할당 및 네트워크 인터페이스 액세스를 위해 컨테이너 내부의 애플리케이션에 필요한 추가 기능을 지정합니다.
- 4
- hugepage 볼륨을
/dev/hugepages아래의 RDMA Pod에 마운트합니다. hugepage 볼륨은 매체가Hugepages인 emptyDir 볼륨 유형으로 지원됩니다. - 5
- CPU 수를 지정합니다. RDMA Pod는 일반적으로 kubelet에서 전용 CPU를 할당해야 합니다. 이를 위해 CPU 관리자 정책을
static으로 설정하고 QoS가GuaranteedPod를 생성합니다. - 6
- hugepage 크기
hugepages-1Gi또는hugepages-2Mi를 지정하고 RDMA Pod에 할당될 hugepages의 수량을 지정합니다.2Mi및1Gihugepages를 별도로 구성합니다.1Gihugepage를 구성하려면 커널 인수를 노드에 추가해야 합니다.
다음 명령을 실행하여 RDMA Pod를 생성합니다.
$ oc create -f mlx-rdma-pod.yaml
25.10.6. OpenStack에서 OVS-DPDK를 사용하는 클러스터의 테스트 Pod 템플릿
다음 testpmd Pod는 대규모 페이지, 예약된 CPU 및 SR-IOV 포트를 사용하여 컨테이너 생성을 보여줍니다.
testpmd Pod 예
apiVersion: v1
kind: Pod
metadata:
name: testpmd-dpdk
namespace: mynamespace
annotations:
cpu-load-balancing.crio.io: "disable"
cpu-quota.crio.io: "disable"
# ...
spec:
containers:
- name: testpmd
command: ["sleep", "99999"]
image: registry.redhat.io/openshift4/dpdk-base-rhel8:v4.9
securityContext:
capabilities:
add: ["IPC_LOCK","SYS_ADMIN"]
privileged: true
runAsUser: 0
resources:
requests:
memory: 1000Mi
hugepages-1Gi: 1Gi
cpu: '2'
openshift.io/dpdk1: 1 1
limits:
hugepages-1Gi: 1Gi
cpu: '2'
memory: 1000Mi
openshift.io/dpdk1: 1
volumeMounts:
- mountPath: /dev/hugepages
name: hugepage
readOnly: False
runtimeClassName: performance-cnf-performanceprofile 2
volumes:
- name: hugepage
emptyDir:
medium: HugePages
25.10.7. OpenStack에서 OVS 하드웨어를 오프로드하는 클러스터의 테스트 Pod 템플릿
다음 testpmd Pod는 RHOSP(Red Hat OpenStack Platform)에서 OVS(Open vSwitch) 하드웨어 오프로드를 보여줍니다.
testpmd Pod 예
apiVersion: v1
kind: Pod
metadata:
name: testpmd-sriov
namespace: mynamespace
annotations:
k8s.v1.cni.cncf.io/networks: hwoffload1
spec:
runtimeClassName: performance-cnf-performanceprofile 1
containers:
- name: testpmd
command: ["sleep", "99999"]
image: registry.redhat.io/openshift4/dpdk-base-rhel8:v4.9
securityContext:
capabilities:
add: ["IPC_LOCK","SYS_ADMIN"]
privileged: true
runAsUser: 0
resources:
requests:
memory: 1000Mi
hugepages-1Gi: 1Gi
cpu: '2'
limits:
hugepages-1Gi: 1Gi
cpu: '2'
memory: 1000Mi
volumeMounts:
- mountPath: /dev/hugepages
name: hugepage
readOnly: False
volumes:
- name: hugepage
emptyDir:
medium: HugePages
- 1
- 성능 프로필의 이름이
cnf-performance 프로필인 경우 해당 문자열을 올바른 성능 프로필 이름으로 교체합니다.
25.10.8. 추가 리소스
- 성능 프로파일 작성
- Node Tuning Operator를 사용하여 NIC 큐 감소
- 실시간 기능이 있는 작업자 프로비저닝
- SR-IOV Network Operator 설치
- SR-IOV 네트워크 장치 구성
- Whereabouts를 사용한 동적 IP 주소 할당 구성
- 개별 pod에 대한 인터럽트 처리 비활성화
- SR-IOV 이더넷 네트워크 연결 구성
- app-netutil 라이브러리는 컨테이너의 상위 포드에 대한 네트워크 정보를 수집하기 위한 여러 API 메서드를 제공합니다.
25.11. Pod 수준 본딩 사용
Pod 수준의 본딩은 고가용성과 처리량이 필요한 Pod 내부의 워크로드를 활성화하는 데 중요합니다. Pod 수준 본딩을 사용하면 커널 모드 인터페이스에서 여러 SR-IOV(Single Root I/O Virtualization) 가상 기능 인터페이스에서 본딩 인터페이스를 생성할 수 있습니다. SR-IOV 가상 기능은 Pod에 전달되고 커널 드라이버에 연결됩니다.
Pod 수준 본딩이 필요한 시나리오 중 하나는 다른 물리적 기능의 여러 SR-IOV 가상 함수에서 본딩 인터페이스를 생성하는 것입니다. 호스트의 두 가지 물리적 기능에서 본딩 인터페이스를 생성하여 Pod 수준에서 고가용성 및 처리량을 달성하는 데 사용할 수 있습니다.
SR-IOV 네트워크, 네트워크 정책, 네트워크 연결 정의 및 Pod 생성과 같은 작업에 대한 지침은 SR-IOV 네트워크 장치 구성을 참조하십시오.
25.11.1. 두 개의 SR-IOV 인터페이스에서 본딩 인터페이스 구성
본딩을 사용하면 여러 네트워크 인터페이스를 단일 논리 "보딩" 인터페이스로 집계할 수 있습니다. 본딩 컨테이너 네트워크 인터페이스(Bond-CNI)는 본딩 기능을 컨테이너에 제공합니다.
본딩-CNI는 SR-IOV(Single Root I/O Virtualization) 가상 기능을 사용하여 생성하여 컨테이너 네트워크 네임스페이스에 배치할 수 있습니다.
OpenShift Container Platform은 SR-IOV 가상 기능을 사용하는 본딩 CNI만 지원합니다. SR-IOV Network Operator는 가상 기능을 관리하는 데 필요한 SR-IOV CNI 플러그인을 제공합니다. 기타 CNI 또는 인터페이스 유형은 지원되지 않습니다.
사전 요구 사항
- 컨테이너의 가상 기능을 가져오도록 SR-IOV Network Operator를 설치하고 구성해야 합니다.
- SR-IOV 인터페이스를 구성하려면 각 인터페이스에 대해 SR-IOV 네트워크 및 정책을 생성해야 합니다.
- SR-IOV Network Operator는 정의된 SR-IOV 네트워크 및 정책을 기반으로 각 SR-IOV 인터페이스에 대한 네트워크 연결 정의를 생성합니다.
-
linkState는 SR-IOV 가상 기능의 default 값auto로 설정됩니다.
25.11.1.1. 본딩 네트워크 연결 정의 생성
SR-IOV 가상 기능을 사용할 수 있으므로 본딩 네트워크 연결 정의를 생성할 수 있습니다.
apiVersion: "k8s.cni.cncf.io/v1"
kind: NetworkAttachmentDefinition
metadata:
name: bond-net1
namespace: demo
spec:
config: '{
"type": "bond", 1
"cniVersion": "0.3.1",
"name": "bond-net1",
"mode": "active-backup", 2
"failOverMac": 1, 3
"linksInContainer": true, 4
"miimon": "100",
"mtu": 1500,
"links": [ 5
{"name": "net1"},
{"name": "net2"}
],
"ipam": {
"type": "host-local",
"subnet": "10.56.217.0/24",
"routes": [{
"dst": "0.0.0.0/0"
}],
"gateway": "10.56.217.1"
}
}'- 1
- cni-type은 항상
bond로 설정됩니다. - 2
mode속성은 본딩 모드를 지정합니다.참고지원되는 본딩 모드는 다음과 같습니다.
-
balance-rr- 0 -
active-backup- 1 -
balance-xor- 2
balance-rr또는balance-xor모드의 경우 SR-IOV 가상 기능의신뢰모드를on으로 설정해야 합니다.-
- 3
- active-backup 모드에 대해
failover속성이 필수이며 1로 설정해야 합니다. - 4
linksInContainer=true플래그는 Bond CNI에 필요한 인터페이스가 컨테이너 내에서 찾을 수 있음을 알립니다. 기본적으로 Bond CNI는 SRIOV 및 Multus와의 통합이 작동하지 않는 호스트에서 이러한 인터페이스를 찾습니다.- 5
links섹션에서는 본딩을 생성하는 데 사용할 인터페이스를 정의합니다. 기본적으로 Multus는 연결된 인터페이스의 이름을 "net"으로 지정하고 연속된 수로 지정합니다.
25.11.1.2. 본딩 인터페이스를 사용하여 Pod 생성
다음과 유사한 콘텐츠를 사용하여 YAML 파일(예:
podbonding.yaml)을 사용하여 Pod를 생성하여 설정을 테스트합니다.apiVersion: v1 kind: Pod metadata: name: bondpod1 namespace: demo annotations: k8s.v1.cni.cncf.io/networks: demo/sriovnet1, demo/sriovnet2, demo/bond-net1 1 spec: containers: - name: podexample image: quay.io/openshift/origin-network-interface-bond-cni:4.11.0 command: ["/bin/bash", "-c", "sleep INF"]- 1
- 네트워크 주석: SR-IOV 네트워크 연결 두 개와 하나의 본딩 네트워크 연결이 포함되어 있습니다. 본딩 연결에서는 두 개의 SR-IOV 인터페이스를 결합된 포트 인터페이스로 사용합니다.
다음 명령을 실행하여 yaml을 적용합니다.
$ oc apply -f podbonding.yaml
다음 명령을 사용하여 Pod 인터페이스를 검사합니다.
$ oc rsh -n demo bondpod1 sh-4.4# sh-4.4# ip a 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever 3: eth0@if150: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1450 qdisc noqueue state UP link/ether 62:b1:b5:c8:fb:7a brd ff:ff:ff:ff:ff:ff inet 10.244.1.122/24 brd 10.244.1.255 scope global eth0 valid_lft forever preferred_lft forever 4: net3: <BROADCAST,MULTICAST,UP,LOWER_UP400> mtu 1500 qdisc noqueue state UP qlen 1000 link/ether 9e:23:69:42:fb:8a brd ff:ff:ff:ff:ff:ff 1 inet 10.56.217.66/24 scope global bond0 valid_lft forever preferred_lft forever 43: net1: <BROADCAST,MULTICAST,UP,LOWER_UP800> mtu 1500 qdisc mq master bond0 state UP qlen 1000 link/ether 9e:23:69:42:fb:8a brd ff:ff:ff:ff:ff:ff 2 44: net2: <BROADCAST,MULTICAST,UP,LOWER_UP800> mtu 1500 qdisc mq master bond0 state UP qlen 1000 link/ether 9e:23:69:42:fb:8a brd ff:ff:ff:ff:ff:ff 3
참고Pod 주석에 인터페이스 이름이 구성되지 않은 경우 인터페이스 이름은
net<n>으로 자동으로 할당되며 <n>은1부터 시작합니다.선택 사항:
bond0과 같은 특정 인터페이스 이름을 설정하려면k8s.v1.cni.cncf.io/networks주석을 편집하고bond0을 인터페이스 이름으로 설정합니다.annotations: k8s.v1.cni.cncf.io/networks: demo/sriovnet1, demo/sriovnet2, demo/bond-net1@bond0
25.12. 하드웨어 오프로드 구성
클러스터 관리자는 호환 가능한 노드에서 하드웨어 오프로드를 구성하여 데이터 처리 성능을 높이고 호스트 CPU의 부하를 줄일 수 있습니다.
25.12.1. 하드웨어 오프로드 정보
Open vSwitch 하드웨어 오프로드는 CPU에서 벗어나 네트워크 인터페이스 컨트롤러의 전용 프로세서로 오프로드하여 네트워크 작업을 처리하는 방법입니다. 결과적으로 클러스터는 데이터 전송 속도를 높이고 CPU 워크로드를 줄이며 컴퓨팅 비용을 절감할 수 있습니다.
이 기능의 주요 요소는 SmartNICs라는 최신 네트워크 인터페이스 컨트롤러 클래스입니다. SmartNIC는 과도하게 많은 네트워크 처리 작업을 처리할 수 있는 네트워크 인터페이스 컨트롤러입니다. 전용 그래픽 카드가 그래픽 성능을 향상시킬 수있는 것과 마찬가지로 SmartNIC는 네트워크 성능을 향상시킬 수 있습니다. 각 경우 전용 프로세서는 특정 유형의 처리 작업에 대한 성능을 향상시킵니다.
OpenShift Container Platform에서는 호환되는 SmartNIC가 있는 베어 메탈 노드에 대한 하드웨어 오프로드를 구성할 수 있습니다. 하드웨어 오프로드는 SR-IOV Network Operator에 의해 구성 및 활성화됩니다.
하드웨어 오프로드는 모든 워크로드 또는 애플리케이션 유형과 호환되지 않습니다. 다음 두 가지 통신 유형만 지원됩니다.
- pod-to-pod
- pod-to-service - 서비스는 일반 Pod에서 지원하는 ClusterIP 서비스
모든 경우에서 하드웨어 오프로드는 해당 Pod 및 서비스가 호환되는 SmartNIC 노드에 할당되는 경우에만 수행됩니다. 예를 들어 하드웨어 오프로드가 있는 노드의 Pod가 일반 노드에서 서비스와 통신하려고 한다고 가정합니다. 일반 노드에서 모든 처리가 커널에서 수행되므로 pod-to-service 통신의 전반적인 성능은 해당 일반 노드의 최대 성능으로 제한됩니다. 하드웨어 오프로드는 DPDK 애플리케이션과 호환되지 않습니다.
노드에서 하드웨어 오프로드를 활성화하지만 사용할 Pod를 구성하지 않으면 Pod 트래픽에 대한 처리량 성능이 저하될 수 있습니다. OpenShift Container Platform에서 관리하는 Pod의 하드웨어 오프로드는 구성할 수 없습니다.
25.12.2. 지원되는 장치
하드웨어 오프로드는 다음 네트워크 인터페이스 컨트롤러에서 지원됩니다.
표 25.15. 지원되는 네트워크 인터페이스 컨트롤러
| 제조업체 | 모델 | 벤더 ID | 장치 ID |
|---|---|---|---|
| Mellanox | MT27800 제품군 [ConnectX-5] | 15b3 | 1017 |
| Mellanox | MT28880 제품군 [ConnectX-5 Ex] | 15b3 | 1019 |
| Mellanox | MT2892 제품군 [ConnectX-6 Dx] | 15b3 | 101d |
| Mellanox | MT2894 제품군 [ConnectX-6 Lx] | 15b3 | 101f |
| Mellanox | MT42822 ConnectX-6 NIC 모드 BlueField-2 | 15b3 | a2d6 |
25.12.3. 사전 요구 사항
- 클러스터에는 하드웨어 오프로드에 지원되는 네트워크 인터페이스 컨트롤러가 하나 이상 있는 베어 메탈 머신이 있습니다.
- SR-IOV Network Operator가 설치되어 있어야 합니다.
- 클러스터는 OVN-Kubernetes 네트워크 플러그인을 사용합니다.
-
OVN-Kubernetes 네트워크 플러그인 구성에서
gatewayConfig.routingViaHost필드가false로 설정됩니다.
25.12.4. 하드웨어 오프로드를 위한 머신 구성 풀 구성
하드웨어 오프로드를 활성화하려면 먼저 전용 머신 구성 풀을 생성하고 SR-IOV Network Operator에서 작동하도록 구성해야 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다.
절차
하드웨어 오프로드를 사용할 머신의 머신 구성 풀을 생성합니다.
다음 예와 같은 콘텐츠와 함께
mcp-offloading.yaml과 같은 파일을 생성합니다.apiVersion: machineconfiguration.openshift.io/v1 kind: MachineConfigPool metadata: name: mcp-offloading 1 spec: machineConfigSelector: matchExpressions: - {key: machineconfiguration.openshift.io/role, operator: In, values: [worker,mcp-offloading]} 2 nodeSelector: matchLabels: node-role.kubernetes.io/mcp-offloading: "" 3
머신 구성 풀의 구성을 적용합니다.
$ oc create -f mcp-offloading.yaml
머신 구성 풀에 노드를 추가합니다. 풀의 노드 역할 라벨을 사용하여 각 노드에 레이블을 지정합니다.
$ oc label node worker-2 node-role.kubernetes.io/mcp-offloading=""
선택 사항: 새 풀이 생성되었는지 확인하려면 다음 명령을 실행합니다.
$ oc get nodes
출력 예
NAME STATUS ROLES AGE VERSION master-0 Ready master 2d v1.26.0 master-1 Ready master 2d v1.26.0 master-2 Ready master 2d v1.26.0 worker-0 Ready worker 2d v1.26.0 worker-1 Ready worker 2d v1.26.0 worker-2 Ready mcp-offloading,worker 47h v1.26.0 worker-3 Ready mcp-offloading,worker 47h v1.26.0
이 머신 구성 풀을
SriovNetworkPoolConfig사용자 정의 리소스에 추가합니다.다음 예와 같은 콘텐츠와 함께
sriov-pool-config.yaml과 같은 파일을 생성합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkPoolConfig metadata: name: sriovnetworkpoolconfig-offload namespace: openshift-sriov-network-operator spec: ovsHardwareOffloadConfig: name: mcp-offloading 1- 1
- 하드웨어 오프로드를 위한 머신 구성 풀의 이름입니다.
설정을 적용합니다.
$ oc create -f <SriovNetworkPoolConfig_name>.yaml
참고SriovNetworkPoolConfig오브젝트에 지정된 구성을 적용하면 SR-IOV Operator가 머신 구성 풀의 노드를 비우고 다시 시작합니다.구성 변경 사항을 적용하는 데 몇 분이 걸릴 수 있습니다.
25.12.5. SR-IOV 네트워크 노드 정책 구성
SR-IOV 네트워크 노드 정책을 생성하여 노드의 SR-IOV 네트워크 장치 구성을 생성할 수 있습니다. 하드웨어 오프로드를 활성화하려면 값이 "switchdev" 인 .spec.eSwitchMode 필드를 정의해야 합니다.
다음 절차에서는 하드웨어 오프로드가 있는 네트워크 인터페이스 컨트롤러에 대한 SR-IOV 인터페이스를 생성합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다.
절차
다음 예와 같은 콘텐츠와 함께
sriov-node-policy.yaml과 같은 파일을 생성합니다.apiVersion: sriovnetwork.openshift.io/v1 kind: SriovNetworkNodePolicy metadata: name: sriov-node-policy <.> namespace: openshift-sriov-network-operator spec: deviceType: netdevice <.> eSwitchMode: "switchdev" <.> nicSelector: deviceID: "1019" rootDevices: - 0000:d8:00.0 vendor: "15b3" pfNames: - ens8f0 nodeSelector: feature.node.kubernetes.io/network-sriov.capable: "true" numVfs: 6 priority: 5 resourceName: mlxnics<.> 사용자 정의 리소스 오브젝트의 이름입니다. <.> 필수 항목입니다.
vfio-pci에서 하드웨어 오프로드는 지원되지 않습니다. <.> 필수 항목입니다.정책에 대한 구성을 적용합니다.
$ oc create -f sriov-node-policy.yaml
참고SriovNetworkPoolConfig오브젝트에 지정된 구성을 적용하면 SR-IOV Operator가 머신 구성 풀의 노드를 비우고 다시 시작합니다.구성 변경 사항을 적용하는 데 몇 분이 걸릴 수 있습니다.
25.12.5.1. OpenStack의 SR-IOV 네트워크 노드 정책의 예
다음 예제에서는 RHOSP(Red Hat OpenStack Platform)에서 하드웨어를 오프로드하는 NIC(네트워크 인터페이스 컨트롤러)의 SR-IOV 인터페이스를 설명합니다.
RHOSP에서 하드웨어 오프로드가 있는 NIC용 SR-IOV 인터페이스
apiVersion: sriovnetwork.openshift.io/v1
kind: SriovNetworkNodePolicy
metadata:
name: ${name}
namespace: openshift-sriov-network-operator
spec:
deviceType: switchdev
isRdma: true
nicSelector:
netFilter: openstack/NetworkID:${net_id}
nodeSelector:
feature.node.kubernetes.io/network-sriov.capable: 'true'
numVfs: 1
priority: 99
resourceName: ${name}
25.12.6. 네트워크 연결 정의 생성
머신 구성 풀과 SR-IOV 네트워크 노드 정책을 정의한 후 사용자가 지정한 네트워크 인터페이스 카드에 대한 네트워크 연결 정의를 생성할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다.
절차
다음 예와 같은 콘텐츠를 사용하여
net-attach-def.yaml과 같은 파일을 생성합니다.apiVersion: "k8s.cni.cncf.io/v1" kind: NetworkAttachmentDefinition metadata: name: net-attach-def <.> namespace: net-attach-def <.> annotations: k8s.v1.cni.cncf.io/resourceName: openshift.io/mlxnics <.> spec: config: '{"cniVersion":"0.3.1","name":"ovn-kubernetes","type":"ovn-k8s-cni-overlay","ipam":{},"dns":{}}'<.> 네트워크 연결 정의의 이름입니다. <.> 네트워크 연결 정의의 네임스페이스입니다. <.>
SriovNetworkNodePolicy오브젝트에 지정한spec.resourceName필드의 값입니다.네트워크 연결 정의에 대한 구성을 적용합니다.
$ oc create -f net-attach-def.yaml
검증
다음 명령을 실행하여 새 정의가 있는지 확인합니다.
$ oc get net-attach-def -A
출력 예
NAMESPACE NAME AGE net-attach-def net-attach-def 43h
25.12.7. Pod에 네트워크 연결 정의 추가
머신 구성 풀, SriovNetworkPoolConfig 및 SriovNetworkNodePolicy 사용자 정의 리소스 및 네트워크 연결 정의를 생성한 후 pod 사양에 네트워크 연결 정의를 추가하여 이러한 구성을 Pod에 적용할 수 있습니다.
절차
Pod 사양에서
.metadata.annotations.k8s.v1.cni.cncf.io/networks필드를 추가하고 하드웨어 오프로드를 위해 생성한 네트워크 연결 정의를 지정합니다..... metadata: annotations: v1.multus-cni.io/default-network: net-attach-def/net-attach-def <.><.> 값은 하드웨어 오프로드를 위해 생성한 네트워크 연결 정의의 이름과 네임스페이스여야 합니다.
25.13. Bluefield-2를 DPU에서 NIC로 전환
Bluefield-2 네트워크 장치를 DPDK(Data Processing Unit) 모드에서 NIC(네트워크 인터페이스 컨트롤러) 모드로 전환할 수 있습니다.
25.13.1. Bluefield-2를 DPU 모드에서 NIC 모드로 전환
다음 절차에 따라 Bluefield-2를 DPDK(데이터 처리 장치) 모드에서 NIC(네트워크 인터페이스 컨트롤러) 모드로 전환합니다.
현재 Bluefield-2를 DPU에서 NIC 모드로 전환만 지원됩니다. NIC 모드에서 DPU 모드로 전환하는 것은 지원되지 않습니다.
사전 요구 사항
- SR-IOV Network Operator가 설치되어 있습니다. 자세한 내용은 " SR-IOV Network Operator 설치"를 참조하십시오.
- Bluefield-2를 최신 펌웨어로 업데이트했습니다. 자세한 내용은 NVIDIA BlueField-2 펌웨어를 참조하십시오.
절차
다음 명령을 입력하여 각 작업자 노드에 다음 라벨을 추가합니다.
$ oc label node <example_node_name_one> node-role.kubernetes.io/sriov=
$ oc label node <example_node_name_two> node-role.kubernetes.io/sriov=
SR-IOV Network Operator의 머신 구성 풀을 생성합니다. 예를 들면 다음과 같습니다.
apiVersion: machineconfiguration.openshift.io/v1 kind: MachineConfigPool metadata: name: sriov spec: machineConfigSelector: matchExpressions: - {key: machineconfiguration.openshift.io/role, operator: In, values: [worker,sriov]} nodeSelector: matchLabels: node-role.kubernetes.io/sriov: ""다음
machineconfig.yaml파일을 작업자 노드에 적용합니다.apiVersion: machineconfiguration.openshift.io/v1 kind: MachineConfig metadata: labels: machineconfiguration.openshift.io/role: sriov name: 99-bf2-dpu spec: config: ignition: version: 3.2.0 storage: files: - contents: source: data:text/plain;charset=utf-8;base64,ZmluZF9jb250YWluZXIoKSB7CiAgY3JpY3RsIHBzIC1vIGpzb24gfCBqcSAtciAnLmNvbnRhaW5lcnNbXSB8IHNlbGVjdCgubWV0YWRhdGEubmFtZT09InNyaW92LW5ldHdvcmstY29uZmlnLWRhZW1vbiIpIHwgLmlkJwp9CnVudGlsIG91dHB1dD0kKGZpbmRfY29udGFpbmVyKTsgW1sgLW4gIiRvdXRwdXQiIF1dOyBkbwogIGVjaG8gIndhaXRpbmcgZm9yIGNvbnRhaW5lciB0byBjb21lIHVwIgogIHNsZWVwIDE7CmRvbmUKISBzdWRvIGNyaWN0bCBleGVjICRvdXRwdXQgL2JpbmRhdGEvc2NyaXB0cy9iZjItc3dpdGNoLW1vZGUuc2ggIiRAIgo= mode: 0755 overwrite: true path: /etc/default/switch_in_sriov_config_daemon.sh systemd: units: - name: dpu-switch.service enabled: true contents: | [Unit] Description=Switch BlueField2 card to NIC/DPU mode RequiresMountsFor=%t/containers Wants=network.target After=network-online.target kubelet.service [Service] SuccessExitStatus=0 120 RemainAfterExit=True ExecStart=/bin/bash -c '/etc/default/switch_in_sriov_config_daemon.sh nic || shutdown -r now' 1 Type=oneshot [Install] WantedBy=multi-user.target- 1
- 선택 사항: 특정 카드의 PCI 주소를 선택적으로 지정할 수 있습니다. 예를 들어
ExecStart=/bin/bash -c '/etc/default/switch_in_sriov_config_daemon.sh nic 0000:5e:00.0 || echo done'. 기본적으로 첫 번째 장치가 선택됩니다. 둘 이상의 장치가 있는 경우 사용할 PCI 주소를 지정해야 합니다. PCI 주소는 Bluefield-2를 DPU 모드에서 NIC 모드로 전환하는 모든 노드에서 동일해야 합니다.
- 작업자 노드가 다시 시작될 때까지 기다립니다. 다시 시작한 후 작업자 노드의 Bluefield-2 네트워크 장치는 NIC 모드로 전환됩니다.
추가 리소스
25.14. SR-IOV Network Operator 설치 제거
SR-IOV Network Operator를 설치 제거하려면 실행 중인 SR-IOV 워크로드를 삭제하고 Operator를 설치 제거하며 Operator에서 사용한 Webhook를 삭제해야 합니다.
25.14.1. SR-IOV Network Operator 설치 제거
클러스터 관리자는 SR-IOV Network Operator를 설치 제거할 수 있습니다.
사전 요구 사항
-
cluster-admin권한이 있는 계정을 사용하여 OpenShift Container Platform 클러스터에 액세스할 수 있습니다. - SR-IOV Network Operator가 설치되어 있어야 합니다.
절차
모든 SR-IOV 사용자 정의 리소스(CR)를 삭제합니다.
$ oc delete sriovnetwork -n openshift-sriov-network-operator --all
$ oc delete sriovnetworknodepolicy -n openshift-sriov-network-operator --all
$ oc delete sriovibnetwork -n openshift-sriov-network-operator --all
- "클러스터에서 Operator 삭제" 섹션의 지침에 따라 SR-IOV Network Operator를 클러스터에서 제거합니다.
SR-IOV Network Operator가 제거된 후에도 클러스터에 남아 있는 SR-IOV 사용자 정의 리소스 정의를 삭제합니다.
$ oc delete crd sriovibnetworks.sriovnetwork.openshift.io
$ oc delete crd sriovnetworknodepolicies.sriovnetwork.openshift.io
$ oc delete crd sriovnetworknodestates.sriovnetwork.openshift.io
$ oc delete crd sriovnetworkpoolconfigs.sriovnetwork.openshift.io
$ oc delete crd sriovnetworks.sriovnetwork.openshift.io
$ oc delete crd sriovoperatorconfigs.sriovnetwork.openshift.io
SR-IOV Webhook를 삭제합니다.
$ oc delete mutatingwebhookconfigurations network-resources-injector-config
$ oc delete MutatingWebhookConfiguration sriov-operator-webhook-config
$ oc delete ValidatingWebhookConfiguration sriov-operator-webhook-config
SR-IOV Network Operator 네임스페이스를 삭제합니다.
$ oc delete namespace openshift-sriov-network-operator
추가 리소스
26장. OVN-Kubernetes 네트워크 플러그인
26.1. OVN-Kubernetes 네트워크 플러그인 정보
OpenShift Container Platform 클러스터는 pod 및 service 네트워크에 가상화된 네트워크를 사용합니다.
Red Hat OpenShift Networking의 일부인 OVN-Kubernetes 네트워크 플러그인은 OpenShift Container Platform의 기본 네트워크 공급자입니다. OVN-Kubernetes는 OVN(Open Virtual Network)을 기반으로 하며 오버레이 기반 네트워킹 구현을 제공합니다. OVN-Kubernetes 플러그인을 사용하는 클러스터도 각 노드에서 OVS(Open vSwitch)를 실행합니다. OVN은 각 노드에서 선언된 네트워크 구성을 구현하도록 OVS를 구성합니다.
OVN-Kubernetes는 OpenShift Container Platform 및 단일 노드 OpenShift 배포를 위한 기본 네트워킹 솔루션입니다.
OVS 프로젝트에서 발생한 OVN-Kubernetes는 오픈 흐름 규칙과 같은 많은 동일한 구성을 사용하여 패킷이 네트워크를 통과하는 방식을 결정합니다. 자세한 내용은 Open Virtual Network 웹 사이트를 참조하십시오.
OVN-Kubernetes는 가상 네트워크 구성을 OpenFlow 규칙으로 변환하는 OVS의 일련의 데몬입니다. OpenFlow 는 네트워크 스위치 및 라우터와 통신하기 위한 프로토콜로, 네트워크 장치에서 네트워크 트래픽 흐름을 원격으로 제어하는 수단을 제공하여 네트워크 관리자가 네트워크 트래픽 흐름을 구성, 관리 및 모니터링할 수 있습니다.
OVN-Kubernetes는 OpenFlow 에서 사용할 수 없는 고급 기능을 더 제공합니다. OVN은 분산 가상 라우팅, 분산 논리 스위치, 액세스 제어, DHCP 및 DNS를 지원합니다. OVN은 개방형 흐름과 같은 논리 흐름 내에서 분산 가상 라우팅을 구현합니다. 예를 들어 네트워크에서 DHCP 요청을 보내는 Pod가 있는 경우 DHCP 주소를 찾는 브로드캐스트가 해당 패킷과 일치하는 논리 흐름 규칙이 되고, DNS 서버에서 IP 주소를 제공하는 논리 흐름 규칙이 표시됩니다.
OVN-Kubernetes는 각 노드에서 데몬을 실행합니다. 데이터베이스 및 모든 노드에서 실행되는 OVN 컨트롤러에 대한 데몬 세트가 있습니다. OVN 컨트롤러는 네트워크 공급자 기능, 송신 IP, 방화벽, 라우터, 하이브리드 네트워킹, IPSEC 암호화, IPv6, 네트워크 정책, 네트워크 정책 로그, 하드웨어 오프로드 및 멀티 캐스트를 지원하기 위해 노드의 Open vSwitch 데몬을 프로그래밍합니다.
26.1.1. OVN-Kubernetes 목적
OVN-Kubernetes 네트워크 플러그인은 OVN(Open Virtual Network)을 사용하여 네트워크 트래픽 흐름을 관리하는 완전한 기능을 갖춘 오픈 소스 Kubernetes CNI 플러그인입니다. OVN은 커뮤니티에서 개발한 벤더와 무관한 네트워크 가상화 솔루션입니다. OVN-Kubernetes 네트워크 플러그인:
- OVN(Open Virtual Network)을 사용하여 네트워크 트래픽 흐름을 관리합니다. OVN은 커뮤니티에서 개발한 벤더와 무관한 네트워크 가상화 솔루션입니다.
- 수신 및 송신 규칙을 포함한 Kubernetes 네트워크 정책 지원을 구현합니다.
- VXLAN 대신 Geneve(Generic Network Virtualization Encapsulation) 프로토콜을 사용하여 노드 간에 오버레이 네트워크를 만듭니다.
OVN-Kubernetes 네트워크 플러그인은 OpenShift SDN에 비해 다음과 같은 이점을 제공합니다.
- 지원되는 플랫폼에서 IPv6 단일 스택 및 IPv4/IPv6 듀얼 스택 네트워킹을 완전히 지원합니다.
- Linux 및 Microsoft Windows 워크로드가 모두 있는 하이브리드 클러스터 지원
- 클러스터 내부 통신의 선택적 IPsec 암호화
- 호스트 CPU에서 호환되는 네트워크 카드 및 DPDK(데이터 처리 장치)에 대한 네트워크 데이터 처리 오프로드
26.1.2. 지원되는 네트워크 플러그인 기능 매트릭스
Red Hat OpenShift Networking은 네트워크 플러그인에 대해 네트워크 플러그인의 두 가지 옵션인 OpenShift SDN 및 OVN-Kubernetes를 제공합니다. 다음 표에는 두 네트워크 플러그인에 대한 현재 기능 지원이 요약되어 있습니다.
표 26.1. 기본 CNI 네트워크 플러그인 기능 비교
| 기능 | OVN-Kubernetes | OpenShift SDN |
|---|---|---|
| 송신 IP | 지원됨 | 지원됨 |
| 송신 방화벽 [1] | 지원됨 | 지원됨 |
| 송신 라우터 | 지원됨 [2] | 지원됨 |
| 하이브리드 네트워킹 | 지원됨 | 지원되지 않음 |
| 클러스터 내 통신에 대한 IPsec 암호화 | 지원됨 | 지원되지 않음 |
| IPv6 | 지원됨 [3 ] | 지원되지 않음 |
| Kubernetes 네트워크 정책 | 지원됨 | 지원됨 |
| Kubernetes 네트워크 정책 로그 | 지원됨 | 지원되지 않음 |
| 하드웨어 오프로드 | 지원됨 | 지원되지 않음 |
| 멀티 캐스트 | 지원됨 | 지원됨 |
- 송신 방화벽은 OpenShift SDN에서 송신 네트워크 정책이라고도 합니다. 이것은 네트워크 정책 송신과 동일하지 않습니다.
- OVN-Kubernetes용 송신 라우터는 리디렉션 모드만 지원합니다.
- IPv6는 베어 메탈, IBM Power 및 IBM Z 클러스터에서만 지원됩니다.
- IPv6 단일 스택은 Kubernetes NMState 를 지원하지 않습니다.
26.1.3. OVN-Kubernetes IPv6 및 듀얼 스택 제한 사항
OVN-Kubernetes 네트워크 플러그인에는 다음과 같은 제한 사항이 있습니다.
듀얼 스택 네트워킹용으로 구성된 클러스터의 경우 IPv4 및 IPv6 트래픽 모두 기본 게이트웨이와 동일한 네트워크 인터페이스를 사용해야 합니다. 이 요구 사항이 충족되지 않으면
ovnkube-node데몬 세트의 호스트의 Pod가CrashLoopBackOff상태가 됩니다.oc get pod -n openshift-ovn-kubernetes -l app=ovnkube-node -o yaml과 같은 명령을 사용하여 Pod를 표시하는 경우status필드에는 다음 출력에 표시된 것처럼 기본 게이트웨이에 대한 메시지가 두 개 이상 포함됩니다.I1006 16:09:50.985852 60651 helper_linux.go:73] Found default gateway interface br-ex 192.168.127.1 I1006 16:09:50.985923 60651 helper_linux.go:73] Found default gateway interface ens4 fe80::5054:ff:febe:bcd4 F1006 16:09:50.985939 60651 ovnkube.go:130] multiple gateway interfaces detected: br-ex ens4
유일한 해결 방법은 두 IP 제품군이 기본 게이트웨이에 동일한 네트워크 인터페이스를 사용하도록 호스트 네트워킹을 재구성하는 것입니다.
듀얼 스택 네트워킹용으로 구성된 클러스터의 경우 IPv4 및 IPv6 라우팅 테이블 모두에 기본 게이트웨이가 포함되어야 합니다. 이 요구 사항이 충족되지 않으면
ovnkube-node데몬 세트의 호스트의 Pod가CrashLoopBackOff상태가 됩니다.oc get pod -n openshift-ovn-kubernetes -l app=ovnkube-node -o yaml과 같은 명령을 사용하여 Pod를 표시하는 경우status필드에는 다음 출력에 표시된 것처럼 기본 게이트웨이에 대한 메시지가 두 개 이상 포함됩니다.I0512 19:07:17.589083 108432 helper_linux.go:74] Found default gateway interface br-ex 192.168.123.1 F0512 19:07:17.589141 108432 ovnkube.go:133] failed to get default gateway interface
유일한 해결 방법은 두 IP 제품군에 기본 게이트웨이가 포함되도록 호스트 네트워킹을 재구성하는 것입니다.
26.1.4. 세션 선호도
세션 선호도는 Kubernetes Service 오브젝트에 적용되는 기능입니다. <service_VIP>:<Port>에 연결할 때마다 트래픽이 항상 동일한 백엔드에 분산되도록 세션 선호도 를 사용할 수 있습니다. 클라이언트의 IP 주소를 기반으로 세션 선호도를 설정하는 방법을 포함한 자세한 내용은 세션 선호도 를 참조하십시오.
세션 선호도에 대한 고정 시간 제한
OpenShift Container Platform의 OVN-Kubernetes 네트워크 플러그인은 마지막 패킷을 기반으로 클라이언트에서 세션에 대한 고정 제한 시간을 계산합니다. 예를 들어, curl 명령을 10 번 실행하면 고정 세션 타이머가 첫 번째 패킷이 아닌 10번째 패킷에서 시작됩니다. 결과적으로 클라이언트가 서비스에 지속적으로 연결하는 경우 세션은 시간 초과되지 않습니다. 시간 초과는 서비스가 timeoutSeconds 매개변수에 의해 설정된 시간 동안 패킷을 수신하지 않은 경우 시작됩니다.
26.2. OVN-Kubernetes 아키텍처
26.2.1. OVN-Kubernetes 아키텍처 소개
다음 다이어그램은 OVN-Kubernetes 아키텍처를 보여줍니다.
그림 26.1. OVK-Kubernetes 아키텍처

주요 구성 요소는 다음과 같습니다.
- CMS(Cloud Management System) - OVN 통합을 위해 CMS 특정 플러그인을 제공하는 OVN용 플랫폼별 클라이언트입니다. 플러그인은 CMS 고유의 형식으로 CMS 구성 데이터베이스에 저장된 클라우드 관리 시스템의 논리적 네트워크 구성 개념을 OVN에서 인식하는 중간 표현으로 변환합니다.
-
OVN Northbound 데이터베이스(
nbdb) - CMS 플러그인에서 전달하는 논리적 네트워크 구성을 저장합니다. -
OVN Southbound 데이터베이스(
sbdb) - 바인딩 테이블을 포함하여 각 노드에 OVS(OpenVswitch) 시스템의 물리적 및 논리적 네트워크 구성 상태를 저장합니다. -
OVN-northd -
nbdb와sbdb간의 중간 클라이언트입니다. 이는 기존 네트워크 개념에 대해 논리적 네트워크 구성을 변환하고nbdb에서 얻은 논리 데이터 경로 흐름이 아래sbdb의 논리 데이터 경로로 변환됩니다. 컨테이너 이름은북쪽이며ovnkube-masterPod에서 실행됩니다. -
OVN-controller -
sbdb에 필요한 정보 또는 업데이트의 경우 OVS 및 하이퍼바이저와 상호 작용하는 OVN 에이전트입니다.ovn-controller는sbdb에서 논리 흐름을 읽고 해당 흐름을OpenFlow흐름으로 변환하여 노드의 OVS 데몬으로 전송합니다. 컨테이너 이름은ovn-controller이며ovnkube-nodePod에서 실행됩니다.
OVN northbound 데이터베이스에는 클라우드 관리 시스템(CMS)에 의해 전달된 논리 네트워크 구성이 있습니다. OVN northbound 데이터베이스에는 현재 원하는 네트워크 상태가 포함되며, 논리 포트, 논리 스위치, 논리 라우터 등으로 표시됩니다. ovn- (북부 컨테이너)는 OVN northbound 데이터베이스 및 OVN southbound 데이터베이스에 연결합니다. OVN northbound 데이터베이스에서 가져온 기존 네트워크 개념의 관점에서 논리적 네트워크 구성을 OVN southbound 데이터베이스의 논리 데이터 경로로 변환합니다.
northd
OVN southbound 데이터베이스에는 연결된 네트워크 및 바인딩 테이블에 대한 물리적 및 논리적 표현이 있습니다. 클러스터의 모든 노드는 southbound 데이터베이스에 표시되고 연결된 포트를 볼 수 있습니다. 또한 모든 논리 흐름이 포함되어 있으며 논리 흐름은 각 노드에서 실행되는 ovn-controller 프로세스와 공유되고 ovn-controller 는 해당 논리를 OpenFlow 규칙으로 프로그램 Open vSwitch 로 전환합니다.
Kubernetes 컨트롤 플레인 노드에는 각각 OVN northbound 및 southbound 데이터베이스의 컨테이너를 호스팅하는 ovnkube-master Pod가 포함되어 있습니다. 모든 OVN northbound 데이터베이스는 Raft 클러스터를 형성하고 모든 southbound 데이터베이스는 별도의 Raft 클러스터를 형성합니다. 언제든지 하나의 ovnkube-master 가 리더이고 다른 ovnkube-master Pod는 포괄자입니다.
26.2.2. OVN-Kubernetes 프로젝트의 모든 리소스 나열
OVN-Kubernetes 프로젝트에서 실행되는 리소스 및 컨테이너를 찾는 것은 OVN-Kubernetes 네트워킹 구현을 이해하는 데 도움이 됩니다.
사전 요구 사항
-
cluster-admin역할의 사용자로 클러스터에 액세스합니다. -
OpenShift CLI(
oc)가 설치되어 있어야 합니다.
절차
다음 명령을 실행하여 OVN-Kubernetes 프로젝트의 모든 리소스, 끝점 및
ConfigMap을 가져옵니다.$ oc get all,ep,cm -n openshift-ovn-kubernetes
출력 예
NAME READY STATUS RESTARTS AGE pod/ovnkube-master-9g7zt 6/6 Running 1 (48m ago) 57m pod/ovnkube-master-lqs4v 6/6 Running 0 57m pod/ovnkube-master-vxhtq 6/6 Running 0 57m pod/ovnkube-node-9k9kc 5/5 Running 0 57m pod/ovnkube-node-jg52r 5/5 Running 0 51m pod/ovnkube-node-k8wf7 5/5 Running 0 57m pod/ovnkube-node-tlwk6 5/5 Running 0 47m pod/ovnkube-node-xsvnk 5/5 Running 0 57m NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE service/ovn-kubernetes-master ClusterIP None <none> 9102/TCP 57m service/ovn-kubernetes-node ClusterIP None <none> 9103/TCP,9105/TCP 57m service/ovnkube-db ClusterIP None <none> 9641/TCP,9642/TCP 57m NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE daemonset.apps/ovnkube-master 3 3 3 3 3 beta.kubernetes.io/os=linux,node-role.kubernetes.io/master= 57m daemonset.apps/ovnkube-node 5 5 5 5 5 beta.kubernetes.io/os=linux 57m NAME ENDPOINTS AGE endpoints/ovn-kubernetes-master 10.0.132.11:9102,10.0.151.18:9102,10.0.192.45:9102 57m endpoints/ovn-kubernetes-node 10.0.132.11:9105,10.0.143.72:9105,10.0.151.18:9105 + 7 more... 57m endpoints/ovnkube-db 10.0.132.11:9642,10.0.151.18:9642,10.0.192.45:9642 + 3 more... 57m NAME DATA AGE configmap/control-plane-status 1 55m configmap/kube-root-ca.crt 1 57m configmap/openshift-service-ca.crt 1 57m configmap/ovn-ca 1 57m configmap/ovn-kubernetes-master 0 55m configmap/ovnkube-config 1 57m configmap/signer-ca 1 57m
컨트롤 플레인 노드에서 실행되는
세 개와 ovnkube-master 및ovnkube-masterovnkube-nodePod를 배포하는 데 사용되는 두 개의 데몬 세트가 있습니다. 클러스터의 각 노드에 대해 하나의ovnkube-nodePod가 있습니다. 이 예제에는 5개가 있으며 클러스터에 노드당 하나의ovnkube-node가 있으므로 클러스터에 5개의 노드가 있습니다.ovnkube-configConfigMap에는 온라인 마스터 및ovnkube-node에서 시작하는 OpenShift Container Platform OVN-Kubernetes 구성이 있습니다.ovn-kubernetes-masterConfigMap에는 현재 온라인 마스터 리더의 정보가 있습니다.다음 명령을 실행하여
ovnkube-masterPod의 모든 컨테이너를 나열합니다.$ oc get pods ovnkube-master-9g7zt \ -o jsonpath='{.spec.containers[*].name}' -n openshift-ovn-kubernetes예상 출력
northd nbdb kube-rbac-proxy sbdb ovnkube-master ovn-dbchecker
ovnkube-masterPod는 여러 컨테이너로 구성됩니다. northbound 데이터베이스(nbdb컨테이너), southbound 데이터베이스(sbdb컨테이너), Pod, egressIP, 서비스, 끝점, 송신 방화벽 및 네트워크 정책에 대한 클러스터 이벤트를 조사하고 이를 northbound 데이터베이스(ovnkube-masterPod)에 작성하고 노드에 Pod 서브넷 할당을 관리하는 역할을 합니다.다음 명령을 실행하여
ovnkube-nodePod의 모든 컨테이너를 나열합니다.$ oc get pods ovnkube-node-jg52r \ -o jsonpath='{.spec.containers[*].name}' -n openshift-ovn-kubernetes예상 출력
ovn-controller ovn-acl-logging kube-rbac-proxy kube-rbac-proxy-ovn-metrics ovnkube-node
ovnkube-nodePod에는 각 OpenShift Container Platform 노드에 상주하는 컨테이너(ovn-controller)가 있습니다. 각 노드의ovn-controller는 OVN northbound를 OVN southbound 데이터베이스에 연결하여 OVN 구성에 대해 알아봅니다.ovn-controller는 southbound를ovs-vswitchd에 OpenFlow 컨트롤러로 연결하여 네트워크 트래픽을 제어하고 로컬ovsdb-server에 연결하여 Open vSwitch 구성을 모니터링하고 제어할 수 있습니다.
26.2.3. OVN-Kubernetes northbound 데이터베이스 콘텐츠 나열
논리 흐름 규칙을 이해하려면 northbound 데이터베이스를 검사하고 어떤 오브젝트가 논리 흐름 규칙으로 어떻게 변환되는지 이해해야 합니다. 최신 정보는 OVN Raft 리더에 있으며, 이 절차에서는 Raft 리더를 찾아 나중에 OVN northbound 데이터베이스 콘텐츠를 나열하는 방법을 설명합니다.
사전 요구 사항
-
cluster-admin역할의 사용자로 클러스터에 액세스합니다. -
OpenShift CLI(
oc)가 설치되어 있어야 합니다.
절차
northbound 데이터베이스의 OVN Raft 리더를 찾습니다.
참고Raft 리더는 최신 정보를 가장 많이 저장합니다.
다음 명령을 실행하여 Pod를 나열합니다.
$ oc get po -n openshift-ovn-kubernetes
출력 예
NAME READY STATUS RESTARTS AGE ovnkube-master-7j97q 6/6 Running 2 (148m ago) 149m ovnkube-master-gt4ms 6/6 Running 1 (140m ago) 147m ovnkube-master-mk6p6 6/6 Running 0 148m ovnkube-node-8qvtr 5/5 Running 0 149m ovnkube-node-fqdc9 5/5 Running 0 149m ovnkube-node-tlfwv 5/5 Running 0 149m ovnkube-node-wlwkn 5/5 Running 0 142m
무작위로 마스터 Pod 중 하나를 선택하고 다음 명령을 실행합니다.
$ oc exec -n openshift-ovn-kubernetes ovnkube-master-7j97q \ -- /usr/bin/ovn-appctl -t /var/run/ovn/ovnnb_db.ctl \ --timeout=3 cluster/status OVN_Northbound
출력 예
Defaulted container "northd" out of: northd, nbdb, kube-rbac-proxy, sbdb, ovnkube-master, ovn-dbchecker 1c57 Name: OVN_Northbound Cluster ID: c48a (c48aa5c0-a704-4c77-a066-24fe99d9b338) Server ID: 1c57 (1c57b6fc-2849-49b7-8679-fbf18bafe339) Address: ssl:10.0.147.219:9643 Status: cluster member Role: follower 1 Term: 5 Leader: 2b4f 2 Vote: unknown Election timer: 10000 Log: [2, 3018] Entries not yet committed: 0 Entries not yet applied: 0 Connections: ->0000 ->0000 <-8844 <-2b4f Disconnections: 0 Servers: 1c57 (1c57 at ssl:10.0.147.219:9643) (self) 8844 (8844 at ssl:10.0.163.212:9643) last msg 8928047 ms ago 2b4f (2b4f at ssl:10.0.242.240:9643) last msg 620 ms ago 3
다음 명령을 사용하여 IP 주소
10.0.242.240에서 실행되는ovnkube-masterPod를 찾습니다.$ oc get po -o wide -n openshift-ovn-kubernetes | grep 10.0.242.240 | grep -v ovnkube-node
출력 예
ovnkube-master-gt4ms 6/6 Running 1 (143m ago) 150m 10.0.242.240 ip-10-0-242-240.ec2.internal <none> <none>
ovnkube-master-gt4msPod는 IP 주소 10.0.242.240에서 실행됩니다.
다음 명령을 실행하여 northbound 데이터베이스의 모든 오브젝트를 표시합니다.
$ oc exec -n openshift-ovn-kubernetes -it ovnkube-master-gt4ms \ -c northd -- ovn-nbctl show
여기에 나열하기에는 너무 긴 출력이 표시됩니다. 목록에는 NAT 규칙, 논리 스위치, 로드 밸런서 등이 포함됩니다.
다음 명령을 실행하여
ovn-nbctl명령으로 사용 가능한 옵션을 표시합니다.$ oc exec -n openshift-ovn-kubernetes -it ovnkube-master-mk6p6 \ -c northd ovn-nbctl --help
다음 명령 중 일부를 사용하여 특정 구성 요소에 중점을 두고 특정 구성 요소에 중점을 둘 수 있습니다.
다음 명령을 실행하여 논리 라우터 목록을 표시합니다.
$ oc exec -n openshift-ovn-kubernetes -it ovnkube-master-gt4ms \ -c northd -- ovn-nbctl lr-list
출력 예
f971f1f3-5112-402f-9d1e-48f1d091ff04 (GR_ip-10-0-145-205.ec2.internal) 69c992d8-a4cf-429e-81a3-5361209ffe44 (GR_ip-10-0-147-219.ec2.internal) 7d164271-af9e-4283-b84a-48f2a44851cd (GR_ip-10-0-163-212.ec2.internal) 111052e3-c395-408b-97b2-8dd0a20a29a5 (GR_ip-10-0-165-9.ec2.internal) ed50ce33-df5d-48e8-8862-2df6a59169a0 (GR_ip-10-0-209-170.ec2.internal) f44e2a96-8d1e-4a4d-abae-ed8728ac6851 (GR_ip-10-0-242-240.ec2.internal) ef3d0057-e557-4b1a-b3c6-fcc3463790b0 (ovn_cluster_router)
참고이 출력에서 각 노드에 라우터가 있고
ovn_cluster_router가 있음을 확인할 수 있습니다.다음 명령을 실행하여 논리 스위치 목록을 표시합니다.
$ oc exec -n openshift-ovn-kubernetes -it ovnkube-master-gt4ms \ -c northd -- ovn-nbctl ls-list
출력 예
82808c5c-b3bc-414a-bb59-8fec4b07eb14 (ext_ip-10-0-145-205.ec2.internal) 3d22444f-0272-4c51-afc6-de9e03db3291 (ext_ip-10-0-147-219.ec2.internal) bf73b9df-59ab-4c58-a456-ce8205b34ac5 (ext_ip-10-0-163-212.ec2.internal) bee1e8d0-ec87-45eb-b98b-63f9ec213e5e (ext_ip-10-0-165-9.ec2.internal) 812f08f2-6476-4abf-9a78-635f8516f95e (ext_ip-10-0-209-170.ec2.internal) f65e710b-32f9-482b-8eab-8d96a44799c1 (ext_ip-10-0-242-240.ec2.internal) 84dad700-afb8-4129-86f9-923a1ddeace9 (ip-10-0-145-205.ec2.internal) 1b7b448b-e36c-4ca3-9f38-4a2cf6814bfd (ip-10-0-147-219.ec2.internal) d92d1f56-2606-4f23-8b6a-4396a78951de (ip-10-0-163-212.ec2.internal) 6864a6b2-de15-4de3-92d8-f95014b6f28f (ip-10-0-165-9.ec2.internal) c26bf618-4d7e-4afd-804f-1a2cbc96ec6d (ip-10-0-209-170.ec2.internal) ab9a4526-44ed-4f82-ae1c-e20da04947d9 (ip-10-0-242-240.ec2.internal) a8588aba-21da-4276-ba0f-9d68e88911f0 (join)
참고이 출력에서 각 노드에 대해 ext 스위치와 노드 이름 자체 및 조인 스위치를 사용한 스위치가 있음을 확인할 수 있습니다.
다음 명령을 실행하여 로드 밸런서 목록을 표시합니다.
$ oc exec -n openshift-ovn-kubernetes -it ovnkube-master-gt4ms \ -c northd -- ovn-nbctl lb-list
출력 예
UUID LB PROTO VIP IPs f0fb50f9-4968-4b55-908c-616bae4db0a2 Service_default/ tcp 172.30.0.1:443 10.0.147.219:6443,10.0.163.212:6443,169.254.169.2:6443 0dc42012-4f5b-432e-ae01-2cc4bfe81b00 Service_default/ tcp 172.30.0.1:443 10.0.147.219:6443,169.254.169.2:6443,10.0.242.240:6443 f7fff5d5-5eff-4a40-98b1-3a4ba8f7f69c Service_default/ tcp 172.30.0.1:443 169.254.169.2:6443,10.0.163.212:6443,10.0.242.240:6443 12fe57a0-50a4-4a1b-ac10-5f288badee07 Service_default/ tcp 172.30.0.1:443 10.0.147.219:6443,10.0.163.212:6443,10.0.242.240:6443 3f137fbf-0b78-4875-ba44-fbf89f254cf7 Service_openshif tcp 172.30.23.153:443 10.130.0.14:8443 174199fe-0562-4141-b410-12094db922a7 Service_openshif tcp 172.30.69.51:50051 10.130.0.84:50051 5ee2d4bd-c9e2-4d16-a6df-f54cd17c9ac3 Service_openshif tcp 172.30.143.87:9001 10.0.145.205:9001,10.0.147.219:9001,10.0.163.212:9001,10.0.165.9:9001,10.0.209.170:9001,10.0.242.240:9001 a056ae3d-83f8-45bc-9c80-ef89bce7b162 Service_openshif tcp 172.30.164.74:443 10.0.147.219:6443,10.0.163.212:6443,10.0.242.240:6443 bac51f3d-9a6f-4f5e-ac02-28fd343a332a Service_openshif tcp 172.30.0.10:53 10.131.0.6:5353 tcp 172.30.0.10:9154 10.131.0.6:9154 48105bbc-51d7-4178-b975-417433f9c20a Service_openshif tcp 172.30.26.159:2379 10.0.147.219:2379,169.254.169.2:2379,10.0.242.240:2379 tcp 172.30.26.159:9979 10.0.147.219:9979,169.254.169.2:9979,10.0.242.240:9979 7de2b8fc-342a-415f-ac13-1a493f4e39c0 Service_openshif tcp 172.30.53.219:443 10.128.0.7:8443 tcp 172.30.53.219:9192 10.128.0.7:9192 2cef36bc-d720-4afb-8d95-9350eff1d27a Service_openshif tcp 172.30.81.66:443 10.128.0.23:8443 365cb6fb-e15e-45a4-a55b-21868b3cf513 Service_openshif tcp 172.30.96.51:50051 10.130.0.19:50051 41691cbb-ec55-4cdb-8431-afce679c5e8d Service_openshif tcp 172.30.98.218:9099 169.254.169.2:9099 82df10ba-8143-400b-977a-8f5f416a4541 Service_openshif tcp 172.30.26.159:2379 10.0.147.219:2379,10.0.163.212:2379,169.254.169.2:2379 tcp 172.30.26.159:9979 10.0.147.219:9979,10.0.163.212:9979,169.254.169.2:9979 debe7f3a-39a8-490e-bc0a-ebbfafdffb16 Service_openshif tcp 172.30.23.244:443 10.128.0.48:8443,10.129.0.27:8443,10.130.0.45:8443 8a749239-02d9-4dc2-8737-716528e0da7b Service_openshif tcp 172.30.124.255:8443 10.128.0.14:8443 880c7c78-c790-403d-a3cb-9f06592717a3 Service_openshif tcp 172.30.0.10:53 10.130.0.20:5353 tcp 172.30.0.10:9154 10.130.0.20:9154 d2f39078-6751-4311-a161-815bbaf7f9c7 Service_openshif tcp 172.30.26.159:2379 169.254.169.2:2379,10.0.163.212:2379,10.0.242.240:2379 tcp 172.30.26.159:9979 169.254.169.2:9979,10.0.163.212:9979,10.0.242.240:9979 30948278-602b-455c-934a-28e64c46de12 Service_openshif tcp 172.30.157.35:9443 10.130.0.43:9443 2cc7e376-7c02-4a82-89e8-dfa1e23fb003 Service_openshif tcp 172.30.159.212:17698 10.128.0.48:17698,10.129.0.27:17698,10.130.0.45:17698 e7d22d35-61c2-40c2-bc30-265cff8ed18d Service_openshif tcp 172.30.143.87:9001 10.0.145.205:9001,10.0.147.219:9001,10.0.163.212:9001,10.0.165.9:9001,10.0.209.170:9001,169.254.169.2:9001 75164e75-e0c5-40fb-9636-bfdbf4223a02 Service_openshif tcp 172.30.150.68:1936 10.129.4.8:1936,10.131.0.10:1936 tcp 172.30.150.68:443 10.129.4.8:443,10.131.0.10:443 tcp 172.30.150.68:80 10.129.4.8:80,10.131.0.10:80 7bc4ee74-dccf-47e9-9149-b011f09aff39 Service_openshif tcp 172.30.164.74:443 10.0.147.219:6443,10.0.163.212:6443,169.254.169.2:6443 0db59e74-1cc6-470c-bf44-57c520e0aa8f Service_openshif tcp 10.0.163.212:31460 tcp 10.0.163.212:32361 c300e134-018c-49af-9f84-9deb1d0715f8 Service_openshif tcp 172.30.42.244:50051 10.130.0.47:50051 5e352773-429b-4881-afb3-a13b7ba8b081 Service_openshif tcp 172.30.244.66:443 10.129.0.8:8443,10.130.0.8:8443 54b82d32-1939-4465-a87d-f26321442a7a Service_openshif tcp 172.30.12.9:8443 10.128.0.35:8443참고이 잘린 출력에서 많은 OVN-Kubernetes 로드 밸런서가 있음을 확인할 수 있습니다. OVN-Kubernetes의 로드 밸런서는 서비스를 나타냅니다.
26.2.4. ovn-nbctl에 대한 명령행 인수로 northbound 데이터베이스 콘텐츠를 검사합니다.
다음 표에서는 ovn-nbctl 과 함께 사용하여 northbound 데이터베이스의 콘텐츠를 검사할 수 있는 명령줄 인수를 설명합니다.
표 26.2. northbound 데이터베이스 콘텐츠를 검사하기 위한 명령줄 인수
| 인수 | 설명 |
|---|---|
|
| northbound 데이터베이스 콘텐츠의 개요입니다. |
|
| 지정된 스위치 또는 라우터와 연결된 세부 정보를 표시합니다. |
|
| 논리 라우터를 표시합니다. |
|
|
|
|
| 지정된 라우터의 네트워크 주소 변환 세부 정보를 표시합니다. |
|
| 논리 스위치 표시 |
|
|
|
|
| 논리 포트의 유형을 가져옵니다. |
|
| 로드 밸런서를 표시합니다. |
26.2.5. OVN-Kubernetes southbound 데이터베이스 콘텐츠 나열
논리 흐름 규칙은 인프라를 나타내는 southbound 데이터베이스에 저장됩니다. 최신 정보는 OVN Raft 리더에 있으며, 이 절차에서는 Raft 리더를 찾아 쿼리하여 OVN southbound 데이터베이스 콘텐츠를 나열하는 방법을 설명합니다.
사전 요구 사항
-
cluster-admin역할을 가진 사용자로 클러스터에 액세스합니다. -
OpenShift CLI(
oc)가 설치되어 있어야 합니다.
절차
southbound 데이터베이스의 OVN Raft 리더를 찾습니다.
참고Raft 리더는 최신 정보를 가장 많이 저장합니다.
다음 명령을 실행하여 Pod를 나열합니다.
$ oc get po -n openshift-ovn-kubernetes
출력 예
NAME READY STATUS RESTARTS AGE ovnkube-master-7j97q 6/6 Running 2 (134m ago) 135m ovnkube-master-gt4ms 6/6 Running 1 (126m ago) 133m ovnkube-master-mk6p6 6/6 Running 0 134m ovnkube-node-8qvtr 5/5 Running 0 135m ovnkube-node-bqztb 5/5 Running 0 117m ovnkube-node-fqdc9 5/5 Running 0 135m ovnkube-node-tlfwv 5/5 Running 0 135m ovnkube-node-wlwkn 5/5 Running 0 128m
임의로 마스터 Pod 중 하나를 선택하고 다음 명령을 실행하여 OVN southbound Raft 리더를 찾습니다.
$ oc exec -n openshift-ovn-kubernetes ovnkube-master-7j97q \ -- /usr/bin/ovn-appctl -t /var/run/ovn/ovnsb_db.ctl \ --timeout=3 cluster/status OVN_Southbound
출력 예
Defaulted container "northd" out of: northd, nbdb, kube-rbac-proxy, sbdb, ovnkube-master, ovn-dbchecker 1930 Name: OVN_Southbound Cluster ID: f772 (f77273c0-7986-42dd-bd3c-a9f18e25701f) Server ID: 1930 (1930f4b7-314b-406f-9dcb-b81fe2729ae1) Address: ssl:10.0.147.219:9644 Status: cluster member Role: follower 1 Term: 3 Leader: 7081 2 Vote: unknown Election timer: 16000 Log: [2, 2423] Entries not yet committed: 0 Entries not yet applied: 0 Connections: ->0000 ->7145 <-7081 <-7145 Disconnections: 0 Servers: 7081 (7081 at ssl:10.0.163.212:9644) last msg 59 ms ago 3 1930 (1930 at ssl:10.0.147.219:9644) (self) 7145 (7145 at ssl:10.0.242.240:9644) last msg 7871735 ms ago
다음 명령을 사용하여 IP 주소
10.0.163.212에서 실행되는ovnkube-masterPod를 찾습니다.$ oc get po -o wide -n openshift-ovn-kubernetes | grep 10.0.163.212 | grep -v ovnkube-node
출력 예
ovnkube-master-mk6p6 6/6 Running 0 136m 10.0.163.212 ip-10-0-163-212.ec2.internal <none> <none>
ovnkube-master-mk6p6Pod는 IP 주소 10.0.163.212에서 실행됩니다.
다음 명령을 실행하여 southbound 데이터베이스에 저장된 모든 정보를 표시합니다.
$ oc exec -n openshift-ovn-kubernetes -it ovnkube-master-mk6p6 \ -c northd -- ovn-sbctl show
출력 예
Chassis "8ca57b28-9834-45f0-99b0-96486c22e1be" hostname: ip-10-0-156-16.ec2.internal Encap geneve ip: "10.0.156.16" options: {csum="true"} Port_Binding k8s-ip-10-0-156-16.ec2.internal Port_Binding etor-GR_ip-10-0-156-16.ec2.internal Port_Binding jtor-GR_ip-10-0-156-16.ec2.internal Port_Binding openshift-ingress-canary_ingress-canary-hsblx Port_Binding rtoj-GR_ip-10-0-156-16.ec2.internal Port_Binding openshift-monitoring_prometheus-adapter-658fc5967-9l46x Port_Binding rtoe-GR_ip-10-0-156-16.ec2.internal Port_Binding openshift-multus_network-metrics-daemon-77nvz Port_Binding openshift-ingress_router-default-64fd8c67c7-df598 Port_Binding openshift-dns_dns-default-ttpcq Port_Binding openshift-monitoring_alertmanager-main-0 Port_Binding openshift-e2e-loki_loki-promtail-g2pbh Port_Binding openshift-network-diagnostics_network-check-target-m6tn4 Port_Binding openshift-monitoring_thanos-querier-75b5cf8dcb-qf8qj Port_Binding cr-rtos-ip-10-0-156-16.ec2.internal Port_Binding openshift-image-registry_image-registry-7b7bc44566-mp9b8이 상세 출력에서는 섀시 및 섀시에 연결된 포트를 보여줍니다. 이 경우 모든 라우터 포트와 호스트 네트워킹과 같이 실행되는 모든 항목이 있습니다. 모든 pod는 소스 네트워크 주소 변환(SNAT)을 사용하여 더 광범위한 네트워크와 통신합니다. 해당 IP 주소는 포드가 실행 중인 노드의 IP 주소로 변환된 다음 네트워크로 전송됩니다.
섀시 정보 외에도 southbound 데이터베이스에는 모든 논리 흐름이 있으며 이러한 논리 흐름은 각 노드에서 실행되는
ovn-controller로 전송됩니다.ovn-controller는 논리 흐름을 오픈 흐름 규칙으로 변환하고 궁극적으로OpenvSwitch프로그램을 통해 Pod가 개방형 흐름 규칙을 따르고 네트워크에서 만들 수 있습니다.다음 명령을 실행하여
ovn-sbctl명령으로 사용 가능한 옵션을 표시합니다.$ oc exec -n openshift-ovn-kubernetes -it ovnkube-master-mk6p6 \ -c northd -- ovn-sbctl --help
26.2.6. ovn-sbctl에 대한 명령행 인수로 southbound 데이터베이스 콘텐츠를 검사합니다.
다음 표에서는 ovn-sbctl 과 함께 사용하여 southbound 데이터베이스의 콘텐츠를 검사할 수 있는 명령줄 인수를 설명합니다.
표 26.3. southbound 데이터베이스 콘텐츠를 검사하기 위한 명령줄 인수
| 인수 | 설명 |
|---|---|
|
| southbound 데이터베이스 콘텐츠의 개요입니다. |
|
| 지정된 포트에 대한 southbound 데이터베이스의 콘텐츠를 나열합니다. |
|
| 논리 흐름을 나열합니다. |
26.2.7. OVN-Kubernetes 논리 아키텍처
OVN은 네트워크 가상화 솔루션입니다. 논리 스위치 및 라우터를 생성합니다. 이러한 스위치 및 라우터는 네트워크 토폴로지를 생성하기 위해 조정됩니다. 로그 수준이 2 또는 5로 설정된 ovnkube-trace 를 실행하면 OVN-Kubernetes 논리 구성 요소가 노출됩니다. 다음 다이어그램에서는 OpenShift Container Platform에서 라우터 및 스위치를 연결하는 방법을 보여줍니다.
그림 26.2. OVN-Kubernetes 라우터 및 스위치 구성 요소

패킷 처리와 관련된 주요 구성 요소는 다음과 같습니다.
- 게이트웨이 라우터
-
일반적으로 L3 게이트웨이 라우터라고 하는 게이트웨이 라우터는 일반적으로 분산 라우터와 물리적 네트워크 간에 사용됩니다. 논리 패치 포트를 포함하는 게이트웨이 라우터는 물리적 위치(분산되지 않음) 또는 섀시에 바인딩됩니다. 이 라우터의 패치 포트는 ovn-southbound 데이터베이스(
ovn-sbdb)에서 l3gateway 포트라고 합니다. - 분산 논리 라우터
- 가상 시스템과 컨테이너가 연결되는 분산 논리 라우터와 논리 스위치는 각 하이퍼바이저에 효과적으로 상주합니다.
- 로컬 스위치에 가입
- 로컬 스위치 조인은 분산 라우터 및 게이트웨이 라우터를 연결하는 데 사용됩니다. 분산 라우터에 필요한 IP 주소 수를 줄입니다.
- 패치 포트가 있는 논리 스위치
- 패치 포트가 있는 논리 스위치는 네트워크 스택을 가상화하는 데 사용됩니다. 원격 논리 포트를 터널을 통해 연결합니다.
- localnet 포트가 있는 논리 스위치
- localnet 포트가 있는 논리 스위치는 OVN을 물리적 네트워크에 연결하는 데 사용됩니다. 로컬넷 포트를 사용하여 직접 연결된 물리적 L2 세그먼트에 패킷을 브리징하여 원격 논리 포트를 연결합니다.
- 패치 포트
- 패치 포트는 논리 스위치와 논리 라우터 간 연결과 피어 논리 라우터 간 연결을 나타냅니다. 단일 연결에는 이러한 연결 지점마다 한 쌍의 패치 포트가 있으며 각 포트에 하나씩 있습니다.
- l3gateway 포트
-
l3gateway 포트는 게이트웨이 라우터에서 사용되는 논리 패치 포트의
ovn-sbdb의 포트 바인딩 항목입니다. 이러한 포트는 게이트웨이 라우터 자체와 마찬가지로 섀시에 바인딩되어 있다는 팩트를 포트하기 위해 패치 포트가 아닌 l3gateway 포트라고 합니다. - localnet 포트
-
로컬넷 포트는 각
ovn-controller인스턴스에서 로컬로 액세스 가능한 네트워크에 연결할 수 있는 브리지 논리 스위치에 있습니다. 이를 통해 논리 스위치에서 물리적 네트워크에 직접 연결할 수 있습니다. 논리 스위치는 단일 localnet 포트만 연결할 수 있습니다.
26.2.7.1. 로컬 호스트에 network-tools 설치
로컬 호스트에 network-tools 를 설치하여 OpenShift Container Platform 클러스터 네트워크 문제를 디버깅하는 데 사용할 수 있는 툴을 수집합니다.
프로세스
다음 명령을 사용하여
network-tools리포지토리를 워크스테이션에 복제합니다.$ git clone git@github.com:openshift/network-tools.git
방금 복제한 리포지토리의 디렉터리로 변경합니다.
$ cd network-tools
선택 사항: 사용 가능한 모든 명령을 나열합니다.
$ ./debug-scripts/network-tools -h
26.2.7.2. network-tools 실행
network-tools 를 실행하여 논리 스위치 및 라우터에 대한 정보를 가져옵니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. -
로컬 호스트에
network-tools를 설치했습니다.
프로세스
다음 명령을 실행하여 라우터를 나열합니다.
$ ./debug-scripts/network-tools ovn-db-run-command ovn-nbctl lr-list
출력 예
Leader pod is ovnkube-master-vslqm 5351ddd1-f181-4e77-afc6-b48b0a9df953 (GR_helix13.lab.eng.tlv2.redhat.com) ccf9349e-1948-4df8-954e-39fb0c2d4d06 (GR_helix14.lab.eng.tlv2.redhat.com) e426b918-75a8-4220-9e76-20b7758f92b7 (GR_hlxcl7-master-0.hlxcl7.lab.eng.tlv2.redhat.com) dded77c8-0cc3-4b99-8420-56cd2ae6a840 (GR_hlxcl7-master-1.hlxcl7.lab.eng.tlv2.redhat.com) 4f6747e6-e7ba-4e0c-8dcd-94c8efa51798 (GR_hlxcl7-master-2.hlxcl7.lab.eng.tlv2.redhat.com) 52232654-336e-4952-98b9-0b8601e370b4 (ovn_cluster_router)
다음 명령을 실행하여 로컬net 포트를 나열합니다.
$ ./debug-scripts/network-tools ovn-db-run-command \ ovn-sbctl find Port_Binding type=localnet
출력 예
Leader pod is ovnkube-master-vslqm _uuid : 3de79191-cca8-4c28-be5a-a228f0f9ebfc additional_chassis : [] additional_encap : [] chassis : [] datapath : 3f1a4928-7ff5-471f-9092-fe5f5c67d15c encap : [] external_ids : {} gateway_chassis : [] ha_chassis_group : [] logical_port : br-ex_helix13.lab.eng.tlv2.redhat.com mac : [unknown] nat_addresses : [] options : {network_name=physnet} parent_port : [] port_security : [] requested_additional_chassis: [] requested_chassis : [] tag : [] tunnel_key : 2 type : localnet up : false virtual_parent : [] _uuid : dbe21daf-9594-4849-b8f0-5efbfa09a455 additional_chassis : [] additional_encap : [] chassis : [] datapath : db2a6067-fe7c-4d11-95a7-ff2321329e11 encap : [] external_ids : {} gateway_chassis : [] ha_chassis_group : [] logical_port : br-ex_hlxcl7-master-2.hlxcl7.lab.eng.tlv2.redhat.com mac : [unknown] nat_addresses : [] options : {network_name=physnet} parent_port : [] port_security : [] requested_additional_chassis: [] requested_chassis : [] tag : [] tunnel_key : 2 type : localnet up : false virtual_parent : [] [...]다음 명령을 실행하여
l3gateway포트를 나열합니다.$ ./debug-scripts/network-tools ovn-db-run-command \ ovn-sbctl find Port_Binding type=l3gateway
출력 예
Leader pod is ovnkube-master-vslqm _uuid : 9314dc80-39e1-4af7-9cc0-ae8a9708ed59 additional_chassis : [] additional_encap : [] chassis : 336a923d-99e8-4e71-89a6-12564fde5760 datapath : db2a6067-fe7c-4d11-95a7-ff2321329e11 encap : [] external_ids : {} gateway_chassis : [] ha_chassis_group : [] logical_port : etor-GR_hlxcl7-master-2.hlxcl7.lab.eng.tlv2.redhat.com mac : ["52:54:00:3e:95:d3"] nat_addresses : ["52:54:00:3e:95:d3 10.46.56.77"] options : {l3gateway-chassis="7eb1f1c3-87c2-4f68-8e89-60f5ca810971", peer=rtoe-GR_hlxcl7-master-2.hlxcl7.lab.eng.tlv2.redhat.com} parent_port : [] port_security : [] requested_additional_chassis: [] requested_chassis : [] tag : [] tunnel_key : 1 type : l3gateway up : true virtual_parent : [] _uuid : ad7eb303-b411-4e9f-8d36-d07f1f268e27 additional_chassis : [] additional_encap : [] chassis : f41453b8-29c5-4f39-b86b-e82cf344bce4 datapath : 082e7a60-d9c7-464b-b6ec-117d3426645a encap : [] external_ids : {} gateway_chassis : [] ha_chassis_group : [] logical_port : etor-GR_helix14.lab.eng.tlv2.redhat.com mac : ["34:48:ed:f3:e2:2c"] nat_addresses : ["34:48:ed:f3:e2:2c 10.46.56.14"] options : {l3gateway-chassis="2e8abe3a-cb94-4593-9037-f5f9596325e2", peer=rtoe-GR_helix14.lab.eng.tlv2.redhat.com} parent_port : [] port_security : [] requested_additional_chassis: [] requested_chassis : [] tag : [] tunnel_key : 1 type : l3gateway up : true virtual_parent : [] [...]다음 명령을 실행하여 패치 포트를 나열합니다.
$ ./debug-scripts/network-tools ovn-db-run-command \ ovn-sbctl find Port_Binding type=patch
출력 예
Leader pod is ovnkube-master-vslqm _uuid : c48b1380-ff26-4965-a644-6bd5b5946c61 additional_chassis : [] additional_encap : [] chassis : [] datapath : 72734d65-fae1-4bd9-a1ee-1bf4e085a060 encap : [] external_ids : {} gateway_chassis : [] ha_chassis_group : [] logical_port : jtor-ovn_cluster_router mac : [router] nat_addresses : [] options : {peer=rtoj-ovn_cluster_router} parent_port : [] port_security : [] requested_additional_chassis: [] requested_chassis : [] tag : [] tunnel_key : 4 type : patch up : false virtual_parent : [] _uuid : 5df51302-f3cd-415b-a059-ac24389938f7 additional_chassis : [] additional_encap : [] chassis : [] datapath : 0551c90f-e891-4909-8e9e-acc7909e06d0 encap : [] external_ids : {} gateway_chassis : [] ha_chassis_group : [] logical_port : rtos-hlxcl7-master-1.hlxcl7.lab.eng.tlv2.redhat.com mac : ["0a:58:0a:82:00:01 10.130.0.1/23"] nat_addresses : [] options : {chassis-redirect-port=cr-rtos-hlxcl7-master-1.hlxcl7.lab.eng.tlv2.redhat.com, peer=stor-hlxcl7-master-1.hlxcl7.lab.eng.tlv2.redhat.com} parent_port : [] port_security : [] requested_additional_chassis: [] requested_chassis : [] tag : [] tunnel_key : 4 type : patch up : false virtual_parent : [] [...]
26.2.8. 추가 리소스
26.3. OVN-Kubernetes 문제 해결
OVN-Kubernetes에는 여러 가지 기본 상태 점검 및 로그 소스가 있습니다.
26.3.1. 준비 상태 프로브를 사용하여 OVN-Kubernetes 상태 모니터링
ovnkube-master 및 ovnkube-node Pod에는 준비 프로브로 컨테이너가 구성되어 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)에 액세스합니다. -
cluster-admin권한이 있는 클러스터에 액세스할 수 있습니다. -
jq를 설치했습니다.
프로세스
다음 명령을 실행하여
ovnkube-masterreadiness 프로브의 세부 정보를 검토합니다.$ oc get pods -n openshift-ovn-kubernetes -l app=ovnkube-master \ -o json | jq '.items[0].spec.containers[] | .name,.readinessProbe'
ovnkube-masterPod의 northbound 및 southbound 데이터베이스 컨테이너의 준비 상태 프로브는 데이터베이스를 호스팅하는 Raft 클러스터의 상태를 확인합니다.다음 명령을 실행하여
ovnkube-node준비 상태 프로브의 세부 정보를 검토합니다.$ oc get pods -n openshift-ovn-kubernetes -l app=ovnkube-master \ -o json | jq '.items[0].spec.containers[] | .name,.readinessProbe'
ovnkube-nodePod의ovnkube-node컨테이너에는 ovn-kubernetes CNI 구성 파일이 있는지 확인할 준비 상태 프로브가 있으며, Pod가 실행되지 않거나 Pod 구성 요청을 수락할 준비가 되지 않았음을 나타냅니다.다음 명령을 사용하여 네임스페이스에 대한 프로브 오류를 포함하여 모든 이벤트를 표시합니다.
$ oc get events -n openshift-ovn-kubernetes
이 Pod에만 대한 이벤트를 표시합니다.
$ oc describe pod ovnkube-master-tp2z8 -n openshift-ovn-kubernetes
클러스터 네트워크 Operator의 메시지 및 상태를 표시합니다.
$ oc get co/network -o json | jq '.status.conditions[]'
다음 스크립트를 실행하여
ovnkube-masterPod에서 각 컨테이너의준비상태를 표시합니다.$ for p in $(oc get pods --selector app=ovnkube-master -n openshift-ovn-kubernetes \ -o jsonpath='{range.items[*]}{" "}{.metadata.name}'); do echo === $p ===; \ oc get pods -n openshift-ovn-kubernetes $p -o json | jq '.status.containerStatuses[] | .name, .ready'; \ done참고모든 컨테이너 상태는
true로 보고되는 것입니다. 준비 상태 프로브가 실패하면 상태가false로 설정됩니다.
추가 리소스
26.3.2. 콘솔에서 OVN-Kubernetes 경고 보기
경고 UI는 경고 및 관리 경고 규칙과 음소거에 대한 자세한 정보를 제공합니다.
사전 요구 사항
- 개발자로 또는 메트릭을 확인하는 프로젝트에 대한 보기 권한이 있는 사용자로 클러스터에 액세스할 수 있습니다.
프로세스(UI)
- 관리자 관점에서 모니터링 → 경고를 선택합니다. 이 관점에서 경고 UI의 세 가지 주요 페이지는 경고, 음소거 및 경고 규칙 페이지입니다.
- 모니터링 → 경고 → 경고 규칙 을 선택하여 OVN -Kubernetes 경고 규칙을 확인합니다.
26.3.3. CLI에서 OVN-Kubernetes 경고 보기
명령줄에서 경고 및 관리 경고 규칙 및 음소거에 대한 정보를 가져올 수 있습니다.
사전 요구 사항
-
cluster-admin역할을 가진 사용자로 클러스터에 액세스합니다. -
OpenShift CLI(
oc)가 설치되어 있어야 합니다. -
jq를 설치했습니다.
프로세스
다음 명령을 실행하여 활성 또는 실행 경고를 확인합니다.
다음 명령을 실행하여 경고 관리자 경로 환경 변수를 설정합니다.
$ ALERT_MANAGER=$(oc get route alertmanager-main -n openshift-monitoring \ -o jsonpath='{@.spec.host}')다음 명령을 실행하여 특정 필드를 요청하는 올바른 권한 부여 세부 정보를 사용하여 경고 관리자 경로 API에 대한
curl요청을 실행합니다.$ curl -s -k -H "Authorization: Bearer \ $(oc create token prometheus-k8s -n openshift-monitoring)" \ https://$ALERT_MANAGER/api/v1/alerts \ | jq '.data[] | "\(.labels.severity) \(.labels.alertname) \(.labels.pod) \(.labels.container) \(.labels.endpoint) \(.labels.instance)"'
다음 명령을 실행하여 경고 규칙을 확인합니다.
$ oc -n openshift-monitoring exec -c prometheus prometheus-k8s-0 -- curl -s 'http://localhost:9090/api/v1/rules' | jq '.data.groups[].rules[] | select(((.name|contains("ovn")) or (.name|contains("OVN")) or (.name|contains("Ovn")) or (.name|contains("North")) or (.name|contains("South"))) and .type=="alerting")'
26.3.4. CLI를 사용하여 OVN-Kubernetes 로그 보기
OpenShift CLI(oc)를 사용하여 ovnkube-master 및 ovnkube-node Pod의 각 Pod의 로그를 볼 수 있습니다.
사전 요구 사항
-
cluster-admin역할을 가진 사용자로 클러스터에 액세스합니다. -
OpenShift CLI(
oc)에 액세스합니다. -
jq를 설치했습니다.
프로세스
특정 Pod의 로그를 확인합니다.
$ oc logs -f <pod_name> -c <container_name> -n <namespace>
다음과 같습니다.
-f- 선택 사항: 출력에서 로그에 기록되는 내용을 따르도록 지정합니다.
<pod_name>- pod 이름을 지정합니다.
<container_name>- 선택 사항: 컨테이너의 이름을 지정합니다. Pod에 여러 컨테이너가 있는 경우 컨테이너 이름을 지정해야 합니다.
<namespace>- Pod가 실행 중인 네임스페이스를 지정합니다.
예를 들면 다음과 같습니다.
$ oc logs ovnkube-master-7h4q7 -n openshift-ovn-kubernetes
$ oc logs -f ovnkube-master-7h4q7 -n openshift-ovn-kubernetes -c ovn-dbchecker
로그 파일의 내용이 출력됩니다.
ovnkube-masterPod의 모든 컨테이너의 최신 항목을 검사합니다.$ for p in $(oc get pods --selector app=ovnkube-master -n openshift-ovn-kubernetes \ -o jsonpath='{range.items[*]}{" "}{.metadata.name}'); \ do echo === $p ===; for container in $(oc get pods -n openshift-ovn-kubernetes $p \ -o json | jq -r '.status.containerStatuses[] | .name');do echo ---$container---; \ oc logs -c $container $p -n openshift-ovn-kubernetes --tail=5; done; done다음 명령을 사용하여
ovnkube-masterPod의 모든 컨테이너에 있는 모든 로그의 마지막 5행을 확인합니다.$ oc logs -l app=ovnkube-master -n openshift-ovn-kubernetes --all-containers --tail 5
26.3.5. 웹 콘솔을 사용하여 OVN-Kubernetes 로그 보기
웹 콘솔의 ovnkube-master 및 ovnkube-node Pod에서 각 Pod의 로그를 볼 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)에 액세스합니다.
프로세스
- OpenShift Container Platform 콘솔에서 워크로드 → Pod 로 이동하거나 조사하려는 리소스를 통해 Pod로 이동합니다.
-
드롭다운 메뉴에서
openshift-ovn-kubernetes프로젝트를 선택합니다. - 조사할 Pod 이름을 클릭합니다.
-
로그를 클릭합니다. 기본적으로
ovnkube-master의 경우북쪽컨테이너와 연결된 로그가 표시됩니다. - 다운 다운 메뉴를 사용하여 각 컨테이너의 로그를 차례로 선택합니다.
26.3.5.1. OVN-Kubernetes 로그 수준 변경
OVN-Kubernetes의 기본 로그 수준은 2입니다. OVN-Kubernetes를 디버깅하려면 로그 수준을 5로 설정합니다. 문제를 디버깅하는 데 도움이 되도록 OVN-Kubernetes의 로그 수준을 늘리려면 다음 절차를 따르십시오.
사전 요구 사항
-
cluster-admin권한이 있는 클러스터에 액세스할 수 있습니다. - OpenShift Container Platform 웹 콘솔에 액세스할 수 있습니다.
프로세스
다음 명령을 실행하여 OVN-Kubernetes 프로젝트의 모든 Pod에 대한 자세한 정보를 가져옵니다.
$ oc get po -o wide -n openshift-ovn-kubernetes
출력 예
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES ovnkube-master-84nc9 6/6 Running 0 50m 10.0.134.156 ip-10-0-134-156.ec2.internal <none> <none> ovnkube-master-gmlqv 6/6 Running 0 50m 10.0.209.180 ip-10-0-209-180.ec2.internal <none> <none> ovnkube-master-nhts2 6/6 Running 1 (48m ago) 50m 10.0.147.31 ip-10-0-147-31.ec2.internal <none> <none> ovnkube-node-2cbh8 5/5 Running 0 43m 10.0.217.114 ip-10-0-217-114.ec2.internal <none> <none> ovnkube-node-6fvzl 5/5 Running 0 50m 10.0.147.31 ip-10-0-147-31.ec2.internal <none> <none> ovnkube-node-f4lzz 5/5 Running 0 24m 10.0.146.76 ip-10-0-146-76.ec2.internal <none> <none> ovnkube-node-jf67d 5/5 Running 0 50m 10.0.209.180 ip-10-0-209-180.ec2.internal <none> <none> ovnkube-node-np9mf 5/5 Running 0 40m 10.0.165.191 ip-10-0-165-191.ec2.internal <none> <none> ovnkube-node-qjldg 5/5 Running 0 50m 10.0.134.156 ip-10-0-134-156.ec2.internal <none> <none>
다음 예제와 유사한
ConfigMap파일을 생성하고env-overrides.yaml과 같은 파일 이름을 사용합니다.예제
ConfigMap파일kind: ConfigMap apiVersion: v1 metadata: name: env-overrides namespace: openshift-ovn-kubernetes data: ip-10-0-217-114.ec2.internal: | 1 # This sets the log level for the ovn-kubernetes node process: OVN_KUBE_LOG_LEVEL=5 # You might also/instead want to enable debug logging for ovn-controller: OVN_LOG_LEVEL=dbg ip-10-0-209-180.ec2.internal: | # This sets the log level for the ovn-kubernetes node process: OVN_KUBE_LOG_LEVEL=5 # You might also/instead want to enable debug logging for ovn-controller: OVN_LOG_LEVEL=dbg _master: | 2 # This sets the log level for the ovn-kubernetes master process as well as the ovn-dbchecker: OVN_KUBE_LOG_LEVEL=5 # You might also/instead want to enable debug logging for northd, nbdb and sbdb on all masters: OVN_LOG_LEVEL=dbg
다음 명령을 사용하여
ConfigMap파일을 적용합니다.$ oc create configmap env-overrides.yaml -n openshift-ovn-kubernetes
출력 예
configmap/env-overrides.yaml created
다음 명령을 사용하여
ovnkubePod를 다시 시작하여 새 로그 수준을 적용합니다.$ oc delete pod -n openshift-ovn-kubernetes \ --field-selector spec.nodeName=ip-10-0-217-114.ec2.internal -l app=ovnkube-node
$ oc delete pod -n openshift-ovn-kubernetes \ --field-selector spec.nodeName=ip-10-0-209-180.ec2.internal -l app=ovnkube-node
$ oc delete pod -n openshift-ovn-kubernetes -l app=ovnkube-master
26.3.6. OVN-Kubernetes Pod 네트워크 연결 확인
OpenShift Container Platform 4.10 이상에서 연결 확인 컨트롤러는 클러스터의 연결 확인 검사를 오케스트레이션합니다. 여기에는 Kubernetes API, OpenShift API 및 개별 노드가 포함됩니다. 연결 테스트의 결과는 openshift-network-diagnostics 의 PodNetworkConnectivity 오브젝트에 저장됩니다. 연결 테스트는 병렬로 1분마다 수행됩니다.
사전 요구 사항
-
OpenShift CLI(
oc)에 액세스합니다. -
cluster-admin역할을 가진 사용자로 클러스터에 액세스합니다. -
jq를 설치했습니다.
프로세스
현재
PodNetworkConnectivityCheck오브젝트를 나열하려면 다음 명령을 입력합니다.$ oc get podnetworkconnectivitychecks -n openshift-network-diagnostics
다음 명령을 사용하여 각 연결 오브젝트의 최신 성공 상태를 확인합니다.
$ oc get podnetworkconnectivitychecks -n openshift-network-diagnostics \ -o json | jq '.items[]| .spec.targetEndpoint,.status.successes[0]'
다음 명령을 사용하여 각 연결 오브젝트의 최근 실패를 확인합니다.
$ oc get podnetworkconnectivitychecks -n openshift-network-diagnostics \ -o json | jq '.items[]| .spec.targetEndpoint,.status.failures[0]'
다음 명령을 사용하여 각 연결 오브젝트의 최근 중단을 확인합니다.
$ oc get podnetworkconnectivitychecks -n openshift-network-diagnostics \ -o json | jq '.items[]| .spec.targetEndpoint,.status.outages[0]'
연결 확인 컨트롤러는 이러한 확인 지표의 메트릭도 Prometheus에 기록합니다.
다음 명령을 실행하여 모든 메트릭을 확인합니다.
$ oc exec prometheus-k8s-0 -n openshift-monitoring -- \ promtool query instant http://localhost:9090 \ '{component="openshift-network-diagnostics"}'최근 5분 동안 소스 Pod와 openshift api 서비스 간 대기 시간을 확인합니다.
$ oc exec prometheus-k8s-0 -n openshift-monitoring -- \ promtool query instant http://localhost:9090 \ '{component="openshift-network-diagnostics"}'
26.3.7. 추가 리소스
26.4. ovnkube-trace를 사용하여 Openflow 추적
OVN 및 OVS 트래픽 흐름은 ovnkube-trace 라는 단일 유틸리티에서 시뮬레이션할 수 있습니다. ovnkube-trace 유틸리티는 ovn-trace,ovs-appctl ofproto/trace 및 ovn-detrace 를 실행하고 단일 출력에서 해당 정보를 연관시킵니다.
전용 컨테이너에서 ovnkube-trace 바이너리를 실행할 수 있습니다. OpenShift Container Platform 4.7 이후 릴리스의 경우 바이너리를 로컬 호스트에 복사하여 해당 호스트에서 실행할 수도 있습니다.
Quay 이미지의 바이너리는 현재 듀얼 IP 스택 또는 IPv6 환경에서만 작동하지 않습니다. 이러한 환경의 경우 소스에서 빌드해야 합니다.
26.4.1. 로컬 호스트에 ovnkube-trace 설치
ovnkube-trace 툴은 OVN-Kubernetes 중심 OpenShift Container Platform 클러스터의 포인트 간 임의의 UDP 또는 TCP 트래픽에 대한 패킷 시뮬레이션을 추적합니다. ovnkube-trace 바이너리를 로컬 호스트에 복사하여 클러스터에 대해 실행할 수 있도록 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
프로세스
다음 명령을 사용하여 Pod 변수를 생성합니다.
$ POD=$(oc get pods -n openshift-ovn-kubernetes -l app=ovnkube-master -o name | head -1 | awk -F '/' '{print $NF}')로컬 호스트에서 다음 명령을 실행하여
ovnkube-masterPod에서 바이너리를 복사합니다.$ oc cp -n openshift-ovn-kubernetes $POD:/usr/bin/ovnkube-trace ovnkube-trace
다음 명령을 실행하여
ovnkube-trace를 실행 가능하게 설정합니다.$ chmod +x ovnkube-trace
다음 명령을 실행하여
ovnkube-trace에서 사용 가능한 옵션을 표시합니다.$ ./ovnkube-trace -help
예상 출력
I0111 15:05:27.973305 204872 ovs.go:90] Maximum command line arguments set to: 191102 Usage of ./ovnkube-trace: -dst string dest: destination pod name -dst-ip string destination IP address (meant for tests to external targets) -dst-namespace string k8s namespace of dest pod (default "default") -dst-port string dst-port: destination port (default "80") -kubeconfig string absolute path to the kubeconfig file -loglevel string loglevel: klog level (default "0") -ovn-config-namespace string namespace used by ovn-config itself -service string service: destination service name -skip-detrace skip ovn-detrace command -src string src: source pod name -src-namespace string k8s namespace of source pod (default "default") -tcp use tcp transport protocol -udp use udp transport protocol지원되는 명령줄 인수는 네임스페이스, pod, 서비스와 같은 친숙한 Kubernetes 구조이므로 MAC 주소, 대상 노드의 IP 주소 또는 ICMP 유형을 찾을 필요가 없습니다.
로그 수준은 다음과 같습니다.
- 0 (최소 출력)
- 2 (추적 명령 결과를 보여주는 자세한 출력)
- 5 (디버그 출력)
26.4.2. ovnkube-trace 실행
ovn-trace 를 실행하여 OVN 논리 네트워크 내에서 패킷 전달을 시뮬레이션합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. -
로컬 호스트에
ovnkube-trace를 설치했습니다.
예: 배포된 Pod에서 DNS 확인이 작동하는 테스트
이 예제에서는 배포된 Pod에서 클러스터에서 실행되는 코어 DNS pod로의 DNS 확인을 테스트하는 방법을 보여줍니다.
프로세스
다음 명령을 입력하여 default 네임스페이스에서 웹 서비스를 시작합니다.
$ oc run web --namespace=default --image=nginx --labels="app=web" --expose --port=80
openshift-dns네임스페이스에서 실행 중인 포드를 나열합니다.oc get pods -n openshift-dns
출력 예
NAME READY STATUS RESTARTS AGE dns-default-467qw 2/2 Running 0 49m dns-default-6prvx 2/2 Running 0 53m dns-default-fkqr8 2/2 Running 0 53m dns-default-qv2rg 2/2 Running 0 49m dns-default-s29vr 2/2 Running 0 49m dns-default-vdsbn 2/2 Running 0 53m node-resolver-6thtt 1/1 Running 0 53m node-resolver-7ksdn 1/1 Running 0 49m node-resolver-8sthh 1/1 Running 0 53m node-resolver-c5ksw 1/1 Running 0 50m node-resolver-gbvdp 1/1 Running 0 53m node-resolver-sxhkd 1/1 Running 0 50m
다음
ovn-kube-trace명령을 실행하여 DNS 확인이 작동하는지 확인합니다.$ ./ovnkube-trace \ -src-namespace default \ 1 -src web \ 2 -dst-namespace openshift-dns \ 3 -dst dns-default-467qw \ 4 -udp -dst-port 53 \ 5 -loglevel 0 6
예상 출력
I0116 10:19:35.601303 17900 ovs.go:90] Maximum command line arguments set to: 191102 ovn-trace source pod to destination pod indicates success from web to dns-default-467qw ovn-trace destination pod to source pod indicates success from dns-default-467qw to web ovs-appctl ofproto/trace source pod to destination pod indicates success from web to dns-default-467qw ovs-appctl ofproto/trace destination pod to source pod indicates success from dns-default-467qw to web ovn-detrace source pod to destination pod indicates success from web to dns-default-467qw ovn-detrace destination pod to source pod indicates success from dns-default-467qw to web
강조 표시는 배포된 Pod에서 DNS 포트로의 성공을 나타내며 다른 방향으로 되돌아가는 것을 나타냅니다. 따라서 웹 pod가 코어 DNS에서 dns 확인을 원하는 경우 UDP 포트 53에서 양방향 트래픽이 지원됩니다.
예를 들어 작동하지 않고 ovn-trace, ovs-appctl ofproto/trace 및 ovn-detrace 를 가져오고 더 디버그 유형 정보는 로그 수준을 2로 늘리고 명령을 다시 실행합니다.
$ ./ovnkube-trace \ -src-namespace default \ -src web \ -dst-namespace openshift-dns \ -dst dns-default-467qw \ -udp -dst-port 53 \ -loglevel 2
이 증가된 로그 수준의 출력은 여기에 나열하기에는 너무 많습니다. 실패 상황에서 이 명령의 출력은 해당 트래픽을 삭제하는 흐름을 보여줍니다. 예를 들어 송신 또는 수신 네트워크 정책은 해당 트래픽을 허용하지 않는 클러스터에 구성할 수 있습니다.
예: debug 출력을 사용하여 구성된 기본 거부 확인
이 예제에서는 Ingress 기본 거부 정책이 트래픽을 차단하는 디버그 출력을 사용하여 식별하는 방법을 보여줍니다.
프로세스
모든 네임스페이스의 모든 Pod에서 수신을
거부하는 거부-별-기본정책을 정의하는 다음 YAML을 생성합니다. YAML을deny-by-default.yaml파일에 저장합니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: deny-by-default namespace: default spec: podSelector: {} ingress: []다음 명령을 입력하여 정책을 적용합니다.
$ oc apply -f deny-by-default.yaml
출력 예
networkpolicy.networking.k8s.io/deny-by-default created
다음 명령을 입력하여
default네임스페이스에서 웹 서비스를 시작합니다.$ oc run web --namespace=default --image=nginx --labels="app=web" --expose --port=80
다음 명령을 실행하여
prod네임스페이스를 생성합니다.$ oc create namespace prod
다음 명령을 실행하여
prod네임스페이스에 레이블을 지정합니다.$ oc label namespace/prod purpose=production
다음 명령을 실행하여
prod네임스페이스에alpine이미지를 배포하고 쉘을 시작합니다.$ oc run test-6459 --namespace=prod --rm -i -t --image=alpine -- sh
- 다른 터미널 세션을 엽니다.
이 새 터미널 세션에서
ovn-trace를 실행하여 네임스페이스prod에서 실행 중인 소스 Podtest-6459와기본네임스페이스에서 실행 중인 대상 Pod 간 통신 실패를 확인합니다.$ ./ovnkube-trace \ -src-namespace prod \ -src test-6459 \ -dst-namespace default \ -dst web \ -tcp -dst-port 80 \ -loglevel 0
예상 출력
I0116 14:20:47.380775 50822 ovs.go:90] Maximum command line arguments set to: 191102 ovn-trace source pod to destination pod indicates failure from test-6459 to web
다음 명령을 실행하여 실패 이유를 노출하려면 로그 수준을 2로 늘립니다.
$ ./ovnkube-trace \ -src-namespace prod \ -src test-6459 \ -dst-namespace default \ -dst web \ -tcp -dst-port 80 \ -loglevel 2
예상 출력
ct_lb_mark /* default (use --ct to customize) */ ------------------------------------------------ 3. ls_out_acl_hint (northd.c:6092): !ct.new && ct.est && !ct.rpl && ct_mark.blocked == 0, priority 4, uuid 32d45ad4 reg0[8] = 1; reg0[10] = 1; next; 4. ls_out_acl (northd.c:6435): reg0[10] == 1 && (outport == @a16982411286042166782_ingressDefaultDeny), priority 2000, uuid f730a887 1 ct_commit { ct_mark.blocked = 1; };- 1
- Ingress 트래픽은 기본 거부 정책 시행으로 인해 차단됩니다.
purpose=production레이블이 있는 특정 네임스페이스의 모든 Pod의 트래픽을 허용하는 정책을 생성합니다. YAML을web-allow-prod.yaml파일에 저장합니다.kind: NetworkPolicy apiVersion: networking.k8s.io/v1 metadata: name: web-allow-prod namespace: default spec: podSelector: matchLabels: app: web policyTypes: - Ingress ingress: - from: - namespaceSelector: matchLabels: purpose: production다음 명령을 입력하여 정책을 적용합니다.
$ oc apply -f web-allow-prod.yaml
ovnkube-trace를 실행하여 다음 명령을 입력하여 트래픽이 허용되는지 확인합니다.$ ./ovnkube-trace \ -src-namespace prod \ -src test-6459 \ -dst-namespace default \ -dst web \ -tcp -dst-port 80 \ -loglevel 0
예상 출력
I0116 14:25:44.055207 51695 ovs.go:90] Maximum command line arguments set to: 191102 ovn-trace source pod to destination pod indicates success from test-6459 to web ovn-trace destination pod to source pod indicates success from web to test-6459 ovs-appctl ofproto/trace source pod to destination pod indicates success from test-6459 to web ovs-appctl ofproto/trace destination pod to source pod indicates success from web to test-6459 ovn-detrace source pod to destination pod indicates success from test-6459 to web ovn-detrace destination pod to source pod indicates success from web to test-6459
열려 있는 쉘에서 다음 명령을 실행합니다.
wget -qO- --timeout=2 http://web.default
예상 출력
<!DOCTYPE html> <html> <head> <title>Welcome to nginx!</title> <style> html { color-scheme: light dark; } body { width: 35em; margin: 0 auto; font-family: Tahoma, Verdana, Arial, sans-serif; } </style> </head> <body> <h1>Welcome to nginx!</h1> <p>If you see this page, the nginx web server is successfully installed and working. Further configuration is required.</p> <p>For online documentation and support please refer to <a href="http://nginx.org/">nginx.org</a>.<br/> Commercial support is available at <a href="http://nginx.com/">nginx.com</a>.</p> <p><em>Thank you for using nginx.</em></p> </body> </html>
26.4.3. 추가 리소스
26.5. OpenShift SDN 네트워크 플러그인에서 마이그레이션
클러스터 관리자는 OpenShift SDN 네트워크 플러그인에서 OVN-Kubernetes 네트워크 플러그인으로 마이그레이션할 수 있습니다.
OVN-Kubernetes에 대한 자세한 내용은 OVN-Kubernetes 네트워크 플러그인 정보를 참조하십시오.
26.5.1. OVN-Kubernetes 네트워크 플러그인으로 마이그레이션
OVN-Kubernetes 네트워크 플러그인으로 마이그레이션하는 것은 클러스터에 연결할 수 없는 몇 가지 다운 타임이 포함된 수동 프로세스입니다. 롤백 절차가 제공되지만 마이그레이션은 단방향 프로세스로 설정됩니다.
다음 플랫폼에서 OVN-Kubernetes 네트워크 플러그인으로의 마이그레이션이 지원됩니다.
- 베어 메탈 하드웨어
- AWS(Amazon Web Services)
- GCP(Google Cloud Platform)
- IBM Cloud
- Microsoft Azure
- Red Hat OpenStack Platform (RHOSP)
- RHV(Red Hat Virtualization)
- VMware vSphere
26.5.1.1. OVN-Kubernetes 네트워크 플러그인으로 마이그레이션하기 위한 고려 사항
OpenShift Container Platform 클러스터에 150개 이상의 노드가 있는 경우 OVN-Kubernetes 네트워크 플러그인으로 마이그레이션하기 위한 지원 케이스를 엽니다.
노드에 할당된 서브넷과 개별 포드에 할당된 IP 주소는 마이그레이션 중에 유지되지 않습니다.
OVN-Kubernetes 네트워크 플러그인은 OpenShift SDN 네트워크 플러그인에 있는 많은 기능을 구현하지만 구성은 동일하지 않습니다.
클러스터에서 다음 OpenShift SDN 네트워크 플러그인 기능을 사용하는 경우 OVN-Kubernetes 네트워크 플러그인에서 동일한 기능을 수동으로 구성해야 합니다.
- 네임스페이스 격리
- 송신 라우터 Pod
다음 섹션에서는 OVN-Kubernetes 및 OpenShift SDN 네트워크 플러그인의 앞서 언급한 기능 간의 구성 차이점을 설명합니다.
네임스페이스 격리
OVN-Kubernetes는 네트워크 정책 격리 모드만 지원합니다.
클러스터가 다중 테넌트 또는 서브넷 격리 모드에서 구성된 OpenShift SDN을 사용하는 경우 OVN-Kubernetes 네트워크 플러그인으로 마이그레이션할 수 없습니다.
송신 IP 주소
OpenShift SDN은 두 가지 다른 Egress IP 모드를 지원합니다.
마이그레이션 프로세스에서는 자동으로 할당된 모드를 사용하는 Egress IP 구성 마이그레이션을 지원합니다.
OVN-Kubernetes와 OpenShift SDN 간의 송신 IP 주소를 구성하는 데 있어서 차이점은 다음 표에 설명되어 있습니다.
표 26.4. 송신 IP 주소 구성의 차이점
| OVN-Kubernetes | OpenShift SDN |
|---|---|
| | |
OVN-Kubernetes에서 송신 IP 주소를 사용하는 방법에 대한 자세한 내용은 " 송신 IP 주소 구성"을 참조하십시오.
송신 네트워크 정책
OVN-Kubernetes와 OpenShift SDN 간의 송신 방화벽이라고도 하는 송신 네트워크 정책 구성의 차이점은 다음 표에 설명되어 있습니다.
표 26.5. 송신 네트워크 정책 구성의 차이점
| OVN-Kubernetes | OpenShift SDN |
|---|---|
| | |
OVN-Kubernetes에서 송신 방화벽을 사용하는 방법에 대한 자세한 내용은 "프로젝트에 대한 송신 방화벽 구성"을 참조하십시오.
송신 라우터 Pod
OVN-Kubernetes는 리디렉션 모드에서 송신 라우터 pod를 지원합니다. OVN-Kubernetes는 HTTP 프록시 모드 또는 DNS 프록시 모드에서 송신 라우터 Pod를 지원하지 않습니다.
Cluster Network Operator를 사용하여 송신 라우터를 배포할 때 송신 라우터 Pod를 호스팅하는 데 사용되는 노드를 제어하기 위해 노드 선택기를 지정할 수 없습니다.
멀티 캐스트
OVN-Kubernetes 및 OpenShift SDN에서 멀티 캐스트 트래픽 활성화의 차이점은 다음 표에 설명되어 있습니다.
표 26.6. 멀티 캐스트 구성의 차이점
| OVN-Kubernetes | OpenShift SDN |
|---|---|
| | |
OVN-Kubernetes에서 멀티 캐스트를 사용하는 방법에 대한 자세한 내용은 "프로젝션에 멀티 캐스트 사용"을 참조하십시오.
네트워크 정책
OpenShift SDN에서 마이그레이션할 때 네트워크 정책에 변경 사항이 필요하지 않습니다.
26.5.1.2. 마이그레이션 프로세스의 작동 방식
다음 표는 프로세스의 사용자 시작 단계와 마이그레이션이 수행하는 작업 간에 분할하여 마이그레이션 프로세스를 요약합니다.
표 26.7. OpenShift SDN에서 OVN-Kubernetes로 마이그레이션
| 사용자 시작 단계 | 마이그레이션 활동 |
|---|---|
|
|
|
|
|
|
| 클러스터의 각 노드를 재부팅합니다. |
|
OpenShift SDN으로의 롤백이 필요한 경우 다음 표에서 프로세스를 설명합니다.
표 26.8. OpenShift SDN으로 롤백 수행
| 사용자 시작 단계 | 마이그레이션 활동 |
|---|---|
| MCO가 마이그레이션을 중단하지 않도록 일시 중지합니다. | MCO가 중지됩니다. |
|
|
|
|
|
|
| 클러스터의 각 노드를 재부팅합니다. |
|
| 클러스터 재부팅의 모든 노드 후에 MCO를 활성화합니다. |
|
26.5.2. OVN-Kubernetes 네트워크 플러그인으로 마이그레이션
클러스터 관리자는 클러스터의 네트워크 플러그인을 OVN-Kubernetes로 변경할 수 있습니다. 마이그레이션하는 동안 클러스터의 모든 노드를 재부팅해야 합니다.
마이그레이션을 수행하는 동안 클러스터를 사용할 수 없으며 워크로드가 중단될 수 있습니다. 서비스 중단이 허용되는 경우에만 마이그레이션을 수행합니다.
사전 요구 사항
- 네트워크 정책 격리 모드에서 OpenShift SDN CNI 네트워크 플러그인으로 구성된 클러스터입니다.
-
OpenShift CLI(
oc)를 설치합니다. - etcd 데이터베이스의 최근 백업을 사용할 수 있습니다.
- 각 노드에 대해 재부팅을 수동으로 트리거할 수 있습니다.
- 클러스터가 오류 없이 알려진 정상 상태입니다.
프로세스
클러스터 네트워크의 구성을 백업하려면 다음 명령을 입력합니다.
$ oc get Network.config.openshift.io cluster -o yaml > cluster-openshift-sdn.yaml
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": { "networkType": "OVNKubernetes" } } }'참고이 단계는 OVN-Kubernetes를 즉시 배포하지 않습니다.
선택 사항: OVN-쿠버네티스에 대한 여러 OpenShift SDN 기능의 자동 마이그레이션을 비활성화할 수 있습니다.
- 송신 IP
- 송신 방화벽
- 멀티 캐스트
이전에 명시된 OpenShift SDN 기능에 대한 구성 자동 마이그레이션을 비활성화하려면 다음 키를 지정합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": { "networkType": "OVNKubernetes", "features": { "egressIP": <bool>, "egressFirewall": <bool>, "multicast": <bool> } } } }'다음과 같습니다.
기본값은
true입니다.선택 사항: OVN-Kubernetes에 대해 다음 설정을 사용자 정의하여 네트워크 인프라 요구 사항을 충족할 수 있습니다.
- 최대 전송 단위(MTU)
- Geneve(Generic Network Virtualization Encapsulation) 오버레이 네트워크 포트
- OVN-Kubernetes IPv4 내부 서브넷
- OVN-Kubernetes IPv6 내부 서브넷
이전에 명시된 설정 중 하나를 사용자 정의하려면 다음 명령을 입력하고 사용자 정의합니다. 기본값을 변경할 필요가 없는 경우 패치에서 키를 생략합니다.
$ oc patch Network.operator.openshift.io cluster --type=merge \ --patch '{ "spec":{ "defaultNetwork":{ "ovnKubernetesConfig":{ "mtu":<mtu>, "genevePort":<port>, "v4InternalSubnet":"<ipv4_subnet>", "v6InternalSubnet":"<ipv6_subnet>" }}}}'다음과 같습니다.
mtu- Geneve 오버레이 네트워크용 MTU입니다.
port- Geneve 오버레이 네트워크용 UDP 포트입니다. 이 포트는 OpenShift SDN에서 사용하는 VXLAN 포트와 같을 수 없습니다.
ipv4_subnet- OVN-Kubernetes에서 내부용으로 사용할 IPv4 주소 범위입니다. IP 주소 범위가 OpenShift Container Platform 설치에 사용된 다른 서브넷과 겹치지 않도록 해야 합니다. IP 주소 범위는 클러스터에 추가할 수 있는 최대 노드 수보다 커야 합니다.
ipv6_subnet- OVN-Kubernetes에서 내부용으로 사용할 IPv6 주소 범위입니다. IP 주소 범위가 OpenShift Container Platform 설치에 사용된 다른 서브넷과 겹치지 않도록 해야 합니다. IP 주소 범위는 클러스터에 추가할 수 있는 최대 노드 수보다 커야 합니다.
$ oc patch Network.operator.openshift.io cluster --type=merge \ --patch '{ "spec":{ "defaultNetwork":{ "ovnKubernetesConfig":{ "mtu":1200 }}}}'MCO는 각 머신 구성 풀의 머신을 업데이트할 때 각 노드를 하나씩 재부팅합니다. 모든 노드가 업데이트될 때까지 기다려야 합니다. 다음 명령을 입력하여 머신 구성 풀 상태를 확인합니다.
$ oc get mcp
참고기본적으로 MCO는 풀당 한 번에 하나의 시스템을 업데이트하므로 클러스터 크기에 따라 마이그레이션에 걸리는 총 시간이 증가합니다.
호스트의 새 머신 구성 상태를 확인합니다.
머신 구성 상태 및 적용된 머신 구성 이름을 나열하려면 다음 명령을 입력합니다.
$ oc describe node | egrep "hostname|machineconfig"
출력 예
kubernetes.io/hostname=master-0 machineconfiguration.openshift.io/currentConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/desiredConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/reason: machineconfiguration.openshift.io/state: Done
다음 구문이 올바른지 확인합니다.
머신 구성이 올바른지 확인하려면 다음 명령을 입력합니다.
$ oc get machineconfig <config_name> -o yaml | grep ExecStart
머신 구성은 다음 업데이트를 systemd 구성에 포함해야 합니다.
ExecStart=/usr/local/bin/configure-ovs.sh OVNKubernetes
포드를 나열하려면 다음 명령을 입력합니다.
$ oc get pod -n openshift-machine-config-operator
출력 예
NAME READY STATUS RESTARTS AGE machine-config-controller-75f756f89d-sjp8b 1/1 Running 0 37m machine-config-daemon-5cf4b 2/2 Running 0 43h machine-config-daemon-7wzcd 2/2 Running 0 43h machine-config-daemon-fc946 2/2 Running 0 43h machine-config-daemon-g2v28 2/2 Running 0 43h machine-config-daemon-gcl4f 2/2 Running 0 43h machine-config-daemon-l5tnv 2/2 Running 0 43h machine-config-operator-79d9c55d5-hth92 1/1 Running 0 37m machine-config-server-bsc8h 1/1 Running 0 43h machine-config-server-hklrm 1/1 Running 0 43h machine-config-server-k9rtx 1/1 Running 0 43h
다음 명령을 입력하여 이전 출력에 표시된 첫 번째 머신 구성 데몬 포드에 대한 포드 로그를 표시합니다.
$ oc logs <pod> -n openshift-machine-config-operator
- 이전 명령의 출력에 표시된 로그의 오류를 해결합니다.
마이그레이션을 시작하려면 다음 명령 중 하나를 사용하여 OVN-Kubernetes 네트워크 플러그인을 구성합니다.
클러스터 네트워크 IP 주소 블록을 변경하지 않고 네트워크 공급자를 지정하려면 다음 명령을 입력합니다.
$ oc patch Network.config.openshift.io cluster \ --type='merge' --patch '{ "spec": { "networkType": "OVNKubernetes" } }'다른 클러스터 네트워크 IP 주소 블록을 지정하려면 다음 명령을 입력합니다.
$ oc patch Network.config.openshift.io cluster \ --type='merge' --patch '{ "spec": { "clusterNetwork": [ { "cidr": "<cidr>", "hostPrefix": <prefix> } ], "networkType": "OVNKubernetes" } }'중요마이그레이션 중에 서비스 네트워크 주소 블록을 변경할 수 없습니다.
후속 단계를 계속 진행하기 전에 Multus 데몬 세트 롤아웃이 완료되었는지 확인합니다.
$ oc -n openshift-multus rollout status daemonset/multus
포드를 다시 시작하는 데 시간이 다소 걸릴 수 있습니다.
출력 예
Waiting for daemon set "multus" rollout to finish: 1 out of 6 new pods have been updated... ... Waiting for daemon set "multus" rollout to finish: 5 of 6 updated pods are available... daemon set "multus" successfully rolled out
#!/bin/bash readarray -t POD_NODES <<< "$(oc get pod -n openshift-machine-config-operator -o wide| grep daemon|awk '{print $1" "$7}')" for i in "${POD_NODES[@]}" do read -r POD NODE <<< "$i" until oc rsh -n openshift-machine-config-operator "$POD" chroot /rootfs shutdown -r +1 do echo "cannot reboot node $NODE, retry" && sleep 3 done done#!/bin/bash for ip in $(oc get nodes -o jsonpath='{.items[*].status.addresses[?(@.type=="InternalIP")].address}') do echo "reboot node $ip" ssh -o StrictHostKeyChecking=no core@$ip sudo shutdown -r -t 3 done
마이그레이션이 성공했는지 확인합니다.
네트워크 플러그인이 OVN-Kubernetes인지 확인하려면 다음 명령을 입력합니다.
$ oc get network.config/cluster -o jsonpath='{.status.networkType}{"\n"}'$ oc get nodes
Pod가 오류 상태가 아닌지 확인하려면 다음 명령을 입력합니다.
$ oc get pods --all-namespaces -o wide --sort-by='{.spec.nodeName}'노드의 Pod가 오류 상태인 경우 해당 노드를 재부팅합니다.
모든 클러스터 Operator가 비정상적인 상태가 아닌지 확인하려면 다음 명령을 입력합니다.
$ oc get co
클러스터 Operator를 사용할 수 없거나 성능이 저하된 경우 자세한 내용은 클러스터 Operator의 로그를 확인합니다.
마이그레이션이 성공하고 클러스터가 양호한 상태인 경우에만 다음 단계를 완료합니다.
CNO 구성 오브젝트에서 마이그레이션 구성을 제거하려면 다음 명령을 입력합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": null } }'OpenShift SDN 네트워크 제공자에 대한 사용자 정의 구성을 제거하려면 다음 명령을 입력합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "defaultNetwork": { "openshiftSDNConfig": null } } }'OpenShift SDN 네트워크 공급자 네임스페이스를 제거하려면 다음 명령을 입력합니다.
$ oc delete namespace openshift-sdn
26.5.3. 추가 리소스
- OVN-Kubernetes 네트워크 플러그인의 구성 매개변수
- etcd 백업
- 네트워크 정책 정의
OVN-Kubernetes 기능
OpenShift SDN 기능
- Network [operator.openshift.io/v1]
26.6. OpenShift SDN 네트워크 공급자로 롤백
클러스터 관리자는 OVN-Kubernetes로의 마이그레이션이 실패한 경우 OVN-Kubernetes 네트워크 플러그인에서 OpenShift SDN 네트워크 플러그인으로 롤백할 수 있습니다.
26.6.1.
OVN-Kubernetes로의 마이그레이션이 실패한 경우에만 OpenShift SDN으로 롤백하십시오.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - OVN-Kubernetes 네트워크 플러그인으로 구성된 인프라에 설치된 클러스터입니다.
- etcd 데이터베이스의 최근 백업을 사용할 수 있습니다.
- 각 노드에 대해 재부팅을 수동으로 트리거할 수 있습니다.
- 클러스터가 오류 없이 알려진 정상 상태입니다.
프로세스
MCO(Machine Config Operator)에서 관리하는 모든 머신 구성 풀을 중지합니다.
마스터 구성 풀을 중지합니다.
$ oc patch MachineConfigPool master --type='merge' --patch \ '{ "spec": { "paused": true } }'작업자 머신 구성 풀을 중지합니다.
$ oc patch MachineConfigPool worker --type='merge' --patch \ '{ "spec":{ "paused": true } }'
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": null } }'마이그레이션을 시작하려면 다음 명령을 입력하여 네트워크 플러그인을 OpenShift SDN으로 다시 설정합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": { "networkType": "OpenShiftSDN" } } }' $ oc patch Network.config.openshift.io cluster --type='merge' \ --patch '{ "spec": { "networkType": "OpenShiftSDN" } }'선택 사항: OpenShift SDN에 해당하는 여러 OVN-Kubernetes 기능의 자동 마이그레이션을 비활성화할 수 있습니다.
- 송신 IP
- 송신 방화벽
- 멀티 캐스트
이전에 명시된 OpenShift SDN 기능에 대한 구성 자동 마이그레이션을 비활성화하려면 다음 키를 지정합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": { "networkType": "OpenShiftSDN", "features": { "egressIP": <bool>, "egressFirewall": <bool>, "multicast": <bool> } } } }'다음과 같습니다.
기본값은
true입니다.선택 사항: OpenShift SDN에 대해 네트워크 인프라 요구 사항을 충족하도록 다음 설정을 사용자 정의할 수 있습니다.
- 최대 전송 단위(MTU)
- VXLAN 포트
이전에 명시된 설정 중 하나 또는 둘 다 사용자 정의하려면 사용자 정의하고 다음 명령을 입력합니다. 기본값을 변경할 필요가 없는 경우 패치에서 키를 생략합니다.
$ oc patch Network.operator.openshift.io cluster --type=merge \ --patch '{ "spec":{ "defaultNetwork":{ "openshiftSDNConfig":{ "mtu":<mtu>, "vxlanPort":<port> }}}}'mtu- VXLAN 오버레이 네트워크의 MTU입니다.
port- VXLAN 오버레이 네트워크용 UDP 포트입니다. 이 포트는 OVN-Kubernetes에서 사용하는 Geneve 포트와 같을 수 없습니다.
패치 명령 예
$ oc patch Network.operator.openshift.io cluster --type=merge \ --patch '{ "spec":{ "defaultNetwork":{ "openshiftSDNConfig":{ "mtu":1200 }}}}'Multus 데몬 세트 롤아웃이 완료될 때까지 기다립니다.
$ oc -n openshift-multus rollout status daemonset/multus
포드를 다시 시작하는 데 시간이 다소 걸릴 수 있습니다.
출력 예
Waiting for daemon set "multus" rollout to finish: 1 out of 6 new pods have been updated... ... Waiting for daemon set "multus" rollout to finish: 5 of 6 updated pods are available... daemon set "multus" successfully rolled out
#!/bin/bash readarray -t POD_NODES <<< "$(oc get pod -n openshift-machine-config-operator -o wide| grep daemon|awk '{print $1" "$7}')" for i in "${POD_NODES[@]}" do read -r POD NODE <<< "$i" until oc rsh -n openshift-machine-config-operator "$POD" chroot /rootfs shutdown -r +1 do echo "cannot reboot node $NODE, retry" && sleep 3 done done#!/bin/bash for ip in $(oc get nodes -o jsonpath='{.items[*].status.addresses[?(@.type=="InternalIP")].address}') do echo "reboot node $ip" ssh -o StrictHostKeyChecking=no core@$ip sudo shutdown -r -t 3 done
클러스터의 노드가 재부팅된 후 모든 머신 구성 풀을 시작합니다.
마스터 구성 풀을 시작합니다.
$ oc patch MachineConfigPool master --type='merge' --patch \ '{ "spec": { "paused": false } }'작업자 구성 풀을 시작합니다.
$ oc patch MachineConfigPool worker --type='merge' --patch \ '{ "spec": { "paused": false } }'
MCO는 각 구성 풀에서 머신을 업데이트하므로 각 노드를 재부팅합니다.
기본적으로 MCO는 한 번에 풀당 단일 머신을 업데이트하므로 마이그레이션이 완료하는 데 필요한 시간은 클러스터 크기와 함께 증가합니다.
호스트의 새 머신 구성 상태를 확인합니다.
머신 구성 상태 및 적용된 머신 구성 이름을 나열하려면 다음 명령을 입력합니다.
$ oc describe node | egrep "hostname|machineconfig"
출력 예
kubernetes.io/hostname=master-0 machineconfiguration.openshift.io/currentConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/desiredConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/reason: machineconfiguration.openshift.io/state: Done
다음 구문이 올바른지 확인합니다.
머신 구성이 올바른지 확인하려면 다음 명령을 입력합니다.
$ oc get machineconfig <config_name> -o yaml
마이그레이션이 성공했는지 확인합니다.
네트워크 플러그인이 OpenShift SDN인지 확인하려면 다음 명령을 입력합니다.
$ oc get network.config/cluster -o jsonpath='{.status.networkType}{"\n"}'$ oc get nodes
포드를 나열하려면 다음 명령을 입력합니다.
$ oc get pod -n openshift-machine-config-operator
출력 예
NAME READY STATUS RESTARTS AGE machine-config-controller-75f756f89d-sjp8b 1/1 Running 0 37m machine-config-daemon-5cf4b 2/2 Running 0 43h machine-config-daemon-7wzcd 2/2 Running 0 43h machine-config-daemon-fc946 2/2 Running 0 43h machine-config-daemon-g2v28 2/2 Running 0 43h machine-config-daemon-gcl4f 2/2 Running 0 43h machine-config-daemon-l5tnv 2/2 Running 0 43h machine-config-operator-79d9c55d5-hth92 1/1 Running 0 37m machine-config-server-bsc8h 1/1 Running 0 43h machine-config-server-hklrm 1/1 Running 0 43h machine-config-server-k9rtx 1/1 Running 0 43h
이전 출력에 표시된 각 머신 구성 데몬 포드에 대한 포드 로그를 표시하려면 다음 명령을 입력합니다.
$ oc logs <pod> -n openshift-machine-config-operator
- 이전 명령의 출력에 표시된 로그의 오류를 해결합니다.
Pod가 오류 상태가 아닌지 확인하려면 다음 명령을 입력합니다.
$ oc get pods --all-namespaces -o wide --sort-by='{.spec.nodeName}'노드의 Pod가 오류 상태인 경우 해당 노드를 재부팅합니다.
마이그레이션이 성공하고 클러스터가 양호한 상태인 경우에만 다음 단계를 완료합니다.
Cluster Network Operator 구성 오브젝트에서 마이그레이션 구성을 제거하려면 다음 명령을 입력합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": null } }'OVN-Kubernetes 구성을 제거하려면 다음 명령을 입력합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "defaultNetwork": { "ovnKubernetesConfig":null } } }'OVN-Kubernetes 네트워크 공급자 네임스페이스를 제거하려면 다음 명령을 입력합니다.
$ oc delete namespace openshift-ovn-kubernetes
26.7.
기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
OVN-Kubernetes에 대한 자세한 내용은 OVN-Kubernetes 네트워크 플러그인 정보를 참조하십시오.
26.7.1. OVN-Kubernetes 네트워크 공급자로 마이그레이션
26.7.1.1.
26.7.1.2. 마이그레이션 프로세스의 작동 방식
표 26.9.
| 사용자 시작 단계 | 마이그레이션 활동 |
|---|---|
|
|
|
|
|
|
| 클러스터의 각 노드를 재부팅합니다. |
|
|
|
|
26.7.2. OVN-Kubernetes 네트워크 플러그인으로 마이그레이션
클러스터 관리자는 클러스터의 네트워크 플러그인을 OVN-Kubernetes로 변경할 수 있습니다.
마이그레이션하는 동안 클러스터의 모든 노드를 재부팅해야 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다.
프로세스
$ oc get Network.config.openshift.io cluster -o yaml > cluster-kuryr.yaml
$ CLUSTERID=$(oc get infrastructure.config.openshift.io cluster -o=jsonpath='{.status.infrastructureName}')$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": { "networkType": "OVNKubernetes" } } }'참고이 단계는 OVN-Kubernetes를 즉시 배포하지 않습니다.
- 최대 전송 단위(MTU)
- Geneve(Generic Network Virtualization Encapsulation) 오버레이 네트워크 포트
- OVN-Kubernetes IPv4 내부 서브넷
- OVN-Kubernetes IPv6 내부 서브넷
$ oc patch Network.operator.openshift.io cluster --type=merge \ --patch '{ "spec":{ "defaultNetwork":{ "ovnKubernetesConfig":{ "mtu":<mtu>, "genevePort":<port>, "v4InternalSubnet":"<ipv4_subnet>", "v6InternalSubnet":"<ipv6_subnet>" }}}}'다음과 같습니다.
mtuportipv4_subnet- IP 주소 범위가 OpenShift Container Platform 설치에 사용된 다른 서브넷과 겹치지 않도록 해야 합니다. IP 주소 범위는 클러스터에 추가할 수 있는 최대 노드 수보다 커야 합니다.
ipv6_subnet- IP 주소 범위가 OpenShift Container Platform 설치에 사용된 다른 서브넷과 겹치지 않도록 해야 합니다. IP 주소 범위는 클러스터에 추가할 수 있는 최대 노드 수보다 커야 합니다.
기본값을 변경할 필요가 없는 경우 패치에서 키를 생략합니다.
$ oc patch Network.operator.openshift.io cluster --type=merge \ --patch '{ "spec":{ "defaultNetwork":{ "ovnKubernetesConfig":{ "mtu":1200 }}}}'다음 명령을 입력하여 머신 구성 풀 상태를 확인합니다.
$ oc get mcp
참고호스트의 새 머신 구성 상태를 확인합니다.
머신 구성 상태 및 적용된 머신 구성 이름을 나열하려면 다음 명령을 입력합니다.
$ oc describe node | egrep "hostname|machineconfig"
출력 예
kubernetes.io/hostname=master-0 machineconfiguration.openshift.io/currentConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b 1 machineconfiguration.openshift.io/desiredConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b 2 machineconfiguration.openshift.io/reason: machineconfiguration.openshift.io/state: Done
머신 구성이 올바른지 확인하려면 다음 명령을 입력합니다.
$ oc get machineconfig <config_name> -o yaml | grep ExecStart
다음과 같습니다.
- <config_name>
머신 구성은 다음 업데이트를 systemd 구성에 포함해야 합니다.
출력 예
ExecStart=/usr/local/bin/configure-ovs.sh OVNKubernetes
포드를 나열하려면 다음 명령을 입력합니다.
$ oc get pod -n openshift-machine-config-operator
출력 예
NAME READY STATUS RESTARTS AGE machine-config-controller-75f756f89d-sjp8b 1/1 Running 0 37m machine-config-daemon-5cf4b 2/2 Running 0 43h machine-config-daemon-7wzcd 2/2 Running 0 43h machine-config-daemon-fc946 2/2 Running 0 43h machine-config-daemon-g2v28 2/2 Running 0 43h machine-config-daemon-gcl4f 2/2 Running 0 43h machine-config-daemon-l5tnv 2/2 Running 0 43h machine-config-operator-79d9c55d5-hth92 1/1 Running 0 37m machine-config-server-bsc8h 1/1 Running 0 43h machine-config-server-hklrm 1/1 Running 0 43h machine-config-server-k9rtx 1/1 Running 0 43h
다음 명령을 입력하여 이전 출력에 표시된 첫 번째 머신 구성 데몬 포드에 대한 포드 로그를 표시합니다.
$ oc logs <pod> -n openshift-machine-config-operator
다음과 같습니다.
- <pod>
- 이전 명령의 출력에 표시된 로그의 오류를 해결합니다.
마이그레이션을 시작하려면 다음 명령 중 하나를 사용하여 OVN-Kubernetes 네트워크 플러그인을 구성합니다.
클러스터 네트워크 IP 주소 블록을 변경하지 않고 네트워크 공급자를 지정하려면 다음 명령을 입력합니다.
$ oc patch Network.config.openshift.io cluster \ --type='merge' --patch '{ "spec": { "networkType": "OVNKubernetes" } }'다른 클러스터 네트워크 IP 주소 블록을 지정하려면 다음 명령을 입력합니다.
$ oc patch Network.config.openshift.io cluster \ --type='merge' --patch '{ "spec": { "clusterNetwork": [ { "cidr": "<cidr>", "hostPrefix": "<prefix>" } ] "networkType": "OVNKubernetes" } }'다음과 같습니다.
- <cidr>
- <prefix>
- 중요
마이그레이션 중에 서비스 네트워크 주소 블록을 변경할 수 없습니다.
$ oc -n openshift-multus rollout status daemonset/multus
포드를 다시 시작하는 데 시간이 다소 걸릴 수 있습니다.
출력 예
Waiting for daemon set "multus" rollout to finish: 1 out of 6 new pods have been updated... ... Waiting for daemon set "multus" rollout to finish: 5 of 6 updated pods are available... daemon set "multus" successfully rolled out
마이그레이션을 완료하려면 클러스터의 각 노드를 재부팅합니다. 예를 들어 다음 예와 유사한 bash 스크립트를 사용할 수 있습니다. 이 스크립트는
ssh를 사용하여 각 호스트에 연결할 수 있고 암호를 묻지 않도록sudo를 구성했다고 가정합니다.#!/bin/bash for ip in $(oc get nodes -o jsonpath='{.items[*].status.addresses[?(@.type=="InternalIP")].address}') do echo "reboot node $ip" ssh -o StrictHostKeyChecking=no core@$ip sudo shutdown -r -t 3 done참고SSH 액세스를 사용할 수 없는 경우
openstack명령을 사용할 수 있습니다.$ for name in $(openstack server list --name ${CLUSTERID}\* -f value -c Name); do openstack server reboot $name; done또는 인프라 공급자의 관리 포털을 통해 각 노드를 재부팅할 수 있습니다. 그렇지 않으면 SSH 또는 관리 포털 및 OpenStack 클라이언트를 통해 가상 시스템에 액세스할 수 있는 적절한 기관에 문의하십시오.
검증
마이그레이션이 성공했는지 확인한 다음 마이그레이션 리소스를 제거합니다.
네트워크 플러그인이 OVN-Kubernetes인지 확인하려면 다음 명령을 입력합니다.
$ oc get network.config/cluster -o jsonpath='{.status.networkType}{"\n"}'status.networkType의 값은OVNKubernetes여야 합니다.클러스터 노드가
Ready상태인지 확인하려면 다음 명령을 입력합니다.$ oc get nodes
Pod가 오류 상태가 아닌지 확인하려면 다음 명령을 입력합니다.
$ oc get pods --all-namespaces -o wide --sort-by='{.spec.nodeName}'노드의 Pod가 오류 상태인 경우 해당 노드를 재부팅합니다.
모든 클러스터 Operator가 비정상적인 상태가 아닌지 확인하려면 다음 명령을 입력합니다.
$ oc get co
모든 클러스터 Operator의 상태는
AVAILABLE="True",PROGRESSING="False",DEGRADED="False"여야 합니다. 클러스터 Operator를 사용할 수 없거나 성능이 저하된 경우 자세한 내용은 클러스터 Operator의 로그를 확인합니다.중요이전 확인 단계에서 오류가 표시되면 진행하지 마십시오. 정리 중에 제거된 종료자로 인해
Terminating상태가 있는 Pod가 표시될 수 있습니다. 오류 표시가 아닙니다.
마이그레이션이 완료되고 클러스터가 정상 상태인 경우 다음 명령을 입력하여 CNO 구성 오브젝트에서 마이그레이션 구성을 제거합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": null } }'
26.7.3. 마이그레이션 후 리소스 정리
Kuryr 네트워크 플러그인에서 OVN-Kubernetes 네트워크 플러그인으로 마이그레이션한 후 Kuryr가 이전에 생성한 리소스를 정리해야 합니다.
정리 프로세스는 Python 가상 환경을 사용하여 Octavia 오브젝트에 대한 지원 태그를 사용하는 패키지 버전이 있는지 확인합니다. 환경이 최소 사용 중인지 확실하지 않은 경우 가상 환경이 필요하지 않습니다. * openstacksdk 버전 0.54.0 * python-openstackclient 버전 5.5.0 * python-octaviaclient 버전 2.3.0
사전 요구 사항
-
OpenShift Container Platform CLI(
oc)가 설치되어 있어야 합니다. - Python 인터프리터를 설치했습니다.
-
openstacksdkPython 패키지를 설치했습니다. -
openstackCLI를 설치했습니다. - 기본 RHOSP 클라우드에 액세스할 수 있습니다.
-
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다.
프로세스
정리 Python 가상 환경을 생성합니다.
환경에 사용할 임시 디렉터리를 생성합니다. 예를 들면 다음과 같습니다.
$ python3 -m venv /tmp/venv
/tmp/venv디렉터리에 있는 가상 환경은 모든 정리 예제에 사용됩니다.가상 환경을 입력합니다. 예를 들면 다음과 같습니다.
$ source /tmp/venv/bin/activate
다음 명령을 실행하여 가상 환경에서
pip명령을 업그레이드합니다.(venv) $ pip install pip --upgrade
다음 명령을 실행하여 필요한 Python 패키지를 설치합니다.
(venv) $ pip install openstacksdk==0.54.0 python-openstackclient==5.5.0 python-octaviaclient==2.3.0
터미널에서 다음 명령을 실행하여 변수를 클러스터 및 Kuryr 식별자로 설정합니다.
클러스터 ID를 설정합니다.
(venv) $ CLUSTERID=$(oc get infrastructure.config.openshift.io cluster -o=jsonpath='{.status.infrastructureName}')클러스터 태그를 설정합니다.
(venv) $ CLUSTERTAG="openshiftClusterID=${CLUSTERID}"라우터 ID를 설정합니다.
(venv) $ ROUTERID=$(oc get kuryrnetwork -A --no-headers -o custom-columns=":status.routerId"|head -n 1)
다음 명령을 실행하여 지정된 리소스에서 종료자를 제거하는 Bash 함수를 생성합니다.
(venv) $ function REMFIN { local resource=$1 local finalizer=$2 for res in $(oc get $resource -A --template='{{range $i,$p := .items}}{{ $p.metadata.name }}|{{ $p.metadata.namespace }}{{"\n"}}{{end}}'); do name=${res%%|*} ns=${res##*|} yaml=$(oc get -n $ns $resource $name -o yaml) if echo "${yaml}" | grep -q "${finalizer}"; then echo "${yaml}" | grep -v "${finalizer}" | oc replace -n $ns $resource $name -f - fi done }함수에는 두 개의 매개 변수가 사용됩니다. 첫 번째 매개 변수는 리소스 이름이고 두 번째 매개 변수는 제거할 종료자입니다. 지정된 리소스는 클러스터에서 제거되고 지정된 종료자를 제외하고 해당 정의는 복사된 데이터로 교체됩니다.
서비스에서 Kuryr 종료자를 제거하려면 다음 명령을 입력합니다.
(venv) $ REMFIN services kuryr.openstack.org/service-finalizer
Kuryr
service-subnet-gateway-ip서비스를 제거하려면 다음 명령을 입력합니다.(venv) $ if $(oc get -n openshift-kuryr service service-subnet-gateway-ip &>/dev/null); then oc -n openshift-kuryr delete service service-subnet-gateway-ip fiOctavia에서 태그가 지정된 모든 RHOSP 로드 밸런서를 제거하려면 다음 명령을 입력합니다.
(venv) $ for lb in $(openstack loadbalancer list --tags $CLUSTERTAG -f value -c id); do openstack loadbalancer delete --cascade $lb done모든
KuryrLoadBalancerCR에서 Kuryr 종료자를 제거하려면 다음 명령을 입력합니다.(venv) $ REMFIN kuryrloadbalancers.openstack.org kuryr.openstack.org/kuryrloadbalancer-finalizers
openshift-kuryr네임스페이스를 제거하려면 다음 명령을 입력합니다.(venv) $ oc delete namespace openshift-kuryr
라우터에서 Kuryr 서비스 서브넷을 제거하려면 다음 명령을 입력합니다.
(venv) $ openstack router remove subnet $ROUTERID ${CLUSTERID}-kuryr-service-subnetKuryr 서비스 네트워크를 제거하려면 다음 명령을 입력합니다.
(venv) $ openstack network delete ${CLUSTERID}-kuryr-service-network모든 Pod에서 Kuryr 종료자를 제거하려면 다음 명령을 입력합니다.
(venv) $ REMFIN pods kuryr.openstack.org/pod-finalizer
모든
KuryrPortCR에서 Kuryr 종료자를 제거하려면 다음 명령을 입력합니다.(venv) $ REMFIN kuryrports.openstack.org kuryr.openstack.org/kuryrport-finalizer
이 명령은
KuryrPortCR을 삭제합니다.네트워크 정책에서 Kuryr 종료자를 제거하려면 다음 명령을 입력합니다.
(venv) $ REMFIN networkpolicy kuryr.openstack.org/networkpolicy-finalizer
나머지 네트워크 정책에서 Kuryr 종료자를 제거하려면 다음 명령을 입력합니다.
(venv) $ REMFIN kuryrnetworkpolicies.openstack.org kuryr.openstack.org/networkpolicy-finalizer
트렁크에서 Kuryr가 생성한 하위 포트를 제거하려면 다음 명령을 입력합니다.
(venv) $ read -ra trunks <<< $(python -c "import openstack; n = openstack.connect().network; print(' '.join([x.id for x in n.trunks(any_tags='$CLUSTERTAG')]))") && \ i=0 && \ for trunk in "${trunks[@]}"; do i=$((i+1)) echo "Processing trunk $trunk, ${i}/${#trunks[@]}." subports=() for subport in $(python -c "import openstack; n = openstack.connect().network; print(' '.join([x['port_id'] for x in n.get_trunk('$trunk').sub_ports if '$CLUSTERTAG' in n.get_port(x['port_id']).tags]))"); do subports+=("$subport"); done args=() for sub in "${subports[@]}" ; do args+=("--subport $sub") done if [ ${#args[@]} -gt 0 ]; then openstack network trunk unset ${args[*]} $trunk fi doneKuryrNetworkCR에서 모든 네트워크 및 서브넷을 검색하고 포트, 라우터 인터페이스 및 네트워크 자체를 제거하려면 다음 명령을 입력합니다.(venv) $ mapfile -t kuryrnetworks < <(oc get kuryrnetwork -A --template='{{range $i,$p := .items}}{{ $p.status.netId }}|{{ $p.status.subnetId }}{{"\n"}}{{end}}') && \ i=0 && \ for kn in "${kuryrnetworks[@]}"; do i=$((i+1)) netID=${kn%%|*} subnetID=${kn##*|} echo "Processing network $netID, ${i}/${#kuryrnetworks[@]}" # Remove all ports from the network. for port in $(python -c "import openstack; n = openstack.connect().network; print(' '.join([x.id for x in n.ports(network_id='$netID') if x.device_owner != 'network:router_interface']))"); do ( openstack port delete $port ) & # Only allow 20 jobs in parallel. if [[ $(jobs -r -p | wc -l) -ge 20 ]]; then wait -n fi done wait # Remove the subnet from the router. openstack router remove subnet $ROUTERID $subnetID # Remove the network. openstack network delete $netID doneKuryr 보안 그룹을 제거하려면 다음 명령을 입력합니다.
(venv) $ openstack security group delete ${CLUSTERID}-kuryr-pods-security-group태그가 지정된 서브넷 풀을 모두 제거하려면 다음 명령을 입력합니다.
(venv) $ for subnetpool in $(openstack subnet pool list --tags $CLUSTERTAG -f value -c ID); do openstack subnet pool delete $subnetpool doneKuryrNetworkCR을 기반으로 하는 모든 네트워크가 제거되었는지 확인하려면 다음 명령을 입력합니다.(venv) $ networks=$(oc get kuryrnetwork -A --no-headers -o custom-columns=":status.netId") && \ for existingNet in $(openstack network list --tags $CLUSTERTAG -f value -c ID); do if [[ $networks =~ $existingNet ]]; then echo "Network still exists: $existingNet" fi done명령에서 기존 네트워크를 반환하는 경우 계속하기 전에 Intestigate를 수행합니다.
네트워크 정책과 관련된 보안 그룹을 제거하려면 다음 명령을 입력합니다.
(venv) $ for sgid in $(openstack security group list -f value -c ID -c Description | grep 'Kuryr-Kubernetes Network Policy' | cut -f 1 -d ' '); do openstack security group delete $sgid doneKuryrNetworkCR에서 종료자를 제거하려면 다음 명령을 입력합니다.(venv) $ REMFIN kuryrnetworks.openstack.org kuryrnetwork.finalizers.kuryr.openstack.org
Kuryr 라우터를 제거하려면 다음 명령을 입력합니다.
(venv) $ if $(python3 -c "import sys; import openstack; n = openstack.connect().network; r = n.get_router('$ROUTERID'); sys.exit(0) if r.description != 'Created By OpenShift Installer' else sys.exit(1)"); then openstack router delete $ROUTERID fi
26.7.4. 추가 리소스
- OVN-Kubernetes 네트워크 플러그인의 구성 매개변수
- etcd 백업
- 네트워크 정책 정의
OVN-Kubernetes 기능에 대한 자세한 내용은 다음을 참조하십시오.
26.8. IPv4/IPv6 듀얼 스택 네트워킹으로 변환
클러스터 관리자는 IPv4 단일 스택 클러스터를 IPv4 및 IPv6 주소 제품군을 지원하는 듀얼 네트워크 클러스터 네트워크로 변환할 수 있습니다. 듀얼 스택으로 변환한 후 새로 생성된 모든 pod는 듀얼 스택이 활성화됩니다.
듀얼 스택 네트워크는 베어 메탈, IBM Power, IBM Z 인프라 및 단일 노드 OpenShift 클러스터에서 프로비저닝된 클러스터에서 지원됩니다.
듀얼 스택 네트워킹을 사용하는 동안 ::FFFF:198.51.100.1.1과 같은 IPv4 매핑 IPv6 주소를 사용할 수 없습니다. 여기서 IPv6가 필요합니다.
26.8.1. 듀얼 스택 클러스터 네트워크로 변환
클러스터 관리자는 단일 스택 클러스터 네트워크를 듀얼 스택 클러스터 네트워크로 변환할 수 있습니다.
듀얼 스택 네트워킹으로 변환한 후에는 새로 생성된 pod만 IPv6 주소에 할당됩니다. IPv6 주소를 받으려면 변환하기 전에 생성된 모든 Pod를 다시 생성해야 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 클러스터는 OVN-Kubernetes 네트워크 플러그인을 사용합니다.
- 클러스터 노드에는 IPv6 주소가 있습니다.
- 인프라를 기반으로 IPv6 지원 라우터를 구성했습니다.
프로세스
클러스터 및 서비스 네트워크에 대한 IPv6 주소 블록을 지정하려면 다음 YAML이 포함된 파일을 생성합니다.
- op: add path: /spec/clusterNetwork/- value: 1 cidr: fd01::/48 hostPrefix: 64 - op: add path: /spec/serviceNetwork/- value: fd02::/112 2
클러스터 네트워크 구성을 패치하려면 다음 명령을 입력합니다.
$ oc patch network.config.openshift.io cluster \ --type='json' --patch-file <file>.yaml
다음과 같습니다.
file- 이전 단계에서 만든 파일의 이름을 지정합니다.
출력 예
network.config.openshift.io/cluster patched
검증
다음 단계를 완료하여 클러스터 네트워크가 이전 프로세스에서 지정한 IPv6 주소 블록을 인식하는지 확인합니다.
네트워크 구성을 표시합니다.
$ oc describe network
출력 예
Status: Cluster Network: Cidr: 10.128.0.0/14 Host Prefix: 23 Cidr: fd01::/48 Host Prefix: 64 Cluster Network MTU: 1400 Network Type: OVNKubernetes Service Network: 172.30.0.0/16 fd02::/112
26.8.2. 단일 스택 클러스터 네트워크로 변환
클러스터 관리자는 듀얼 스택 클러스터 네트워크를 단일 스택 클러스터 네트워크로 변환할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 클러스터는 OVN-Kubernetes 네트워크 플러그인을 사용합니다.
- 클러스터 노드에는 IPv6 주소가 있습니다.
- 듀얼 스택 네트워킹을 활성화했습니다.
프로세스
다음 명령을 실행하여
networks.config.openshift.ioCR(사용자 정의 리소스)을 편집합니다.$ oc edit networks.config.openshift.io
-
이전 절차의
cidr및hostPrefix필드에 추가한 IPv6 특정 구성을 제거합니다.
26.9. 송신 방화벽 및 네트워크 정책 규칙에 대한 로깅
클러스터 관리자는 클러스터에 대한 감사 로깅을 구성하고 하나 이상의 네임스페이스에 대해 로깅을 활성화할 수 있습니다. OpenShift Container Platform은 송신 방화벽 및 네트워크 정책 모두에 대한 감사 로그를 생성합니다.
감사 로깅은 OVN-Kubernetes 네트워크 플러그인 에서만 사용할 수 있습니다.
26.9.1. 감사 로깅
OVN-Kubernetes 네트워크 플러그인은 OVN(Open Virtual Network) ACL을 사용하여 송신 방화벽 및 네트워크 정책을 관리합니다. 감사 로깅은 ACL 이벤트를 허용 및 거부합니다.
syslog 서버 또는 UNIX 도메인 소켓과 같은 감사 로그의 대상을 구성할 수 있습니다. 추가 구성에 관계없이 감사 로그는 항상 클러스터의 각 OVN-Kubernetes Pod의 /var/log/ovn/acl-audit-log.log 에 저장됩니다.
다음 예와 같이 k8s.ovn.org/acl-logging 키로 네임스페이스에 주석을 달아 네임스페이스별로 감사 로깅이 활성화됩니다.
네임스페이스 주석의 예
kind: Namespace
apiVersion: v1
metadata:
name: example1
annotations:
k8s.ovn.org/acl-logging: |-
{
"deny": "info",
"allow": "info"
}
로깅 형식은 RFC5424에 정의된 대로 syslog와 호환됩니다. syslog 기능은 구성 가능하며 기본값은 local0 입니다. 예제 로그 항목은 다음과 유사합니다.
네트워크 정책의 ACL 거부 로그 항목 예
2021-06-13T19:33:11.590Z|00005|acl_log(ovn_pinctrl0)|INFO|name="verify-audit-logging_deny-all", verdict=drop, severity=alert: icmp,vlan_tci=0x0000,dl_src=0a:58:0a:80:02:39,dl_dst=0a:58:0a:80:02:37,nw_src=10.128.2.57,nw_dst=10.128.2.55,nw_tos=0,nw_ecn=0,nw_ttl=64,icmp_type=8,icmp_code=0
다음 표에서는 네임스페이스 주석 값에 대해 설명합니다.
표 26.10. 감사 로깅 네임스페이스 주석
| 주석 | 현재의 |
|---|---|
|
|
네임스페이스에 대한 감사 로깅을 활성화하려면
|
26.9.2. 감사 구성
감사 로깅 구성은 OVN-Kubernetes 클러스터 네트워크 공급자 구성의 일부로 지정됩니다. 다음 YAML은 감사 로깅의 기본값을 보여줍니다.
감사 로깅 구성
apiVersion: operator.openshift.io/v1
kind: Network
metadata:
name: cluster
spec:
defaultNetwork:
ovnKubernetesConfig:
policyAuditConfig:
destination: "null"
maxFileSize: 50
rateLimit: 20
syslogFacility: local0
다음 표에서는 감사 로깅을 위한 구성 필드를 설명합니다.
표 26.11. policyAuditConfig 오브젝트
| 필드 | 유형 | 설명 |
|---|---|---|
|
| integer |
노드당 1초마다 생성할 최대 메시지 수입니다. 기본값은 초당 |
|
| integer |
감사 로그의 최대 크기(바이트)입니다. 기본값은 |
|
| string | 다음 추가 감사 로그 대상 중 하나입니다.
|
|
| string |
RFC5424에 정의된 |
26.9.3. 클러스터에 대한 송신 방화벽 및 네트워크 정책 감사 구성
클러스터 관리자는 클러스터에 대한 감사 로깅을 사용자 지정할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
프로세스
감사 로깅 구성을 사용자 정의하려면 다음 명령을 입력합니다.
$ oc edit network.operator.openshift.io/cluster
작은 정보또는 다음 YAML을 사용자 지정하고 적용하여 감사 로깅을 구성할 수 있습니다.
apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: defaultNetwork: ovnKubernetesConfig: policyAuditConfig: destination: "null" maxFileSize: 50 rateLimit: 20 syslogFacility: local0
검증
네트워크 정책을 사용하여 네임스페이스를 생성하려면 다음 단계를 완료합니다.
검증을 위해 네임스페이스를 생성합니다.
$ cat <<EOF| oc create -f - kind: Namespace apiVersion: v1 metadata: name: verify-audit-logging annotations: k8s.ovn.org/acl-logging: '{ "deny": "alert", "allow": "alert" }' EOF출력 예
namespace/verify-audit-logging created
감사 로깅을 활성화합니다.
$ oc annotate namespace verify-audit-logging k8s.ovn.org/acl-logging='{ "deny": "alert", "allow": "alert" }'namespace/verify-audit-logging annotated
네임스페이스의 네트워크 정책을 생성합니다.
$ cat <<EOF| oc create -n verify-audit-logging -f - apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: deny-all spec: podSelector: matchLabels: policyTypes: - Ingress - Egress --- apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: allow-from-same-namespace spec: podSelector: {} policyTypes: - Ingress - Egress ingress: - from: - podSelector: {} egress: - to: - namespaceSelector: matchLabels: namespace: verify-audit-logging EOF출력 예
networkpolicy.networking.k8s.io/deny-all created networkpolicy.networking.k8s.io/allow-from-same-namespace created
기본네임스페이스에서 소스 트래픽에 대한 Pod를 생성합니다.$ cat <<EOF| oc create -n default -f - apiVersion: v1 kind: Pod metadata: name: client spec: containers: - name: client image: registry.access.redhat.com/rhel7/rhel-tools command: ["/bin/sh", "-c"] args: ["sleep inf"] EOFverify-audit-logging네임스페이스에 두 개의 Pod를 생성합니다.$ for name in client server; do cat <<EOF| oc create -n verify-audit-logging -f - apiVersion: v1 kind: Pod metadata: name: ${name} spec: containers: - name: ${name} image: registry.access.redhat.com/rhel7/rhel-tools command: ["/bin/sh", "-c"] args: ["sleep inf"] EOF done출력 예
pod/client created pod/server created
트래픽을 생성하고 네트워크 정책 감사 로그 항목을 생성하려면 다음 단계를 완료합니다.
verify-audit-logging네임스페이스에서server라는 Pod의 IP 주소를 가져옵니다.$ POD_IP=$(oc get pods server -n verify-audit-logging -o jsonpath='{.status.podIP}')default네임스페이스의client라는 포드에서 이전 명령의 IP 주소를 ping하고 모든 패킷이 삭제되었는지 확인합니다.$ oc exec -it client -n default -- /bin/ping -c 2 $POD_IP
출력 예
PING 10.128.2.55 (10.128.2.55) 56(84) bytes of data. --- 10.128.2.55 ping statistics --- 2 packets transmitted, 0 received, 100% packet loss, time 2041ms
verify-audit-logging네임스페이스의client라는 Pod에서POD_IP쉘 환경 변수에 저장된 IP 주소를 ping하고 모든 패킷이 허용되는지 확인합니다.$ oc exec -it client -n verify-audit-logging -- /bin/ping -c 2 $POD_IP
출력 예
PING 10.128.0.86 (10.128.0.86) 56(84) bytes of data. 64 bytes from 10.128.0.86: icmp_seq=1 ttl=64 time=2.21 ms 64 bytes from 10.128.0.86: icmp_seq=2 ttl=64 time=0.440 ms --- 10.128.0.86 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 1001ms rtt min/avg/max/mdev = 0.440/1.329/2.219/0.890 ms
네트워크 정책 감사 로그의 최신 항목을 표시합니다.
$ for pod in $(oc get pods -n openshift-ovn-kubernetes -l app=ovnkube-node --no-headers=true | awk '{ print $1 }') ; do oc exec -it $pod -n openshift-ovn-kubernetes -- tail -4 /var/log/ovn/acl-audit-log.log done출력 예
Defaulting container name to ovn-controller. Use 'oc describe pod/ovnkube-node-hdb8v -n openshift-ovn-kubernetes' to see all of the containers in this pod. 2021-06-13T19:33:11.590Z|00005|acl_log(ovn_pinctrl0)|INFO|name="verify-audit-logging_deny-all", verdict=drop, severity=alert: icmp,vlan_tci=0x0000,dl_src=0a:58:0a:80:02:39,dl_dst=0a:58:0a:80:02:37,nw_src=10.128.2.57,nw_dst=10.128.2.55,nw_tos=0,nw_ecn=0,nw_ttl=64,icmp_type=8,icmp_code=0 2021-06-13T19:33:12.614Z|00006|acl_log(ovn_pinctrl0)|INFO|name="verify-audit-logging_deny-all", verdict=drop, severity=alert: icmp,vlan_tci=0x0000,dl_src=0a:58:0a:80:02:39,dl_dst=0a:58:0a:80:02:37,nw_src=10.128.2.57,nw_dst=10.128.2.55,nw_tos=0,nw_ecn=0,nw_ttl=64,icmp_type=8,icmp_code=0 2021-06-13T19:44:10.037Z|00007|acl_log(ovn_pinctrl0)|INFO|name="verify-audit-logging_allow-from-same-namespace_0", verdict=allow, severity=alert: icmp,vlan_tci=0x0000,dl_src=0a:58:0a:80:02:3b,dl_dst=0a:58:0a:80:02:3a,nw_src=10.128.2.59,nw_dst=10.128.2.58,nw_tos=0,nw_ecn=0,nw_ttl=64,icmp_type=8,icmp_code=0 2021-06-13T19:44:11.037Z|00008|acl_log(ovn_pinctrl0)|INFO|name="verify-audit-logging_allow-from-same-namespace_0", verdict=allow, severity=alert: icmp,vlan_tci=0x0000,dl_src=0a:58:0a:80:02:3b,dl_dst=0a:58:0a:80:02:3a,nw_src=10.128.2.59,nw_dst=10.128.2.58,nw_tos=0,nw_ecn=0,nw_ttl=64,icmp_type=8,icmp_code=0
26.9.4. 네임스페이스에 대한 송신 방화벽 및 네트워크 정책 감사 로깅 활성화
클러스터 관리자는 네임스페이스에 대한 감사 로깅을 활성화할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
프로세스
네임스페이스에 대한 감사 로깅을 활성화하려면 다음 명령을 입력합니다.
$ oc annotate namespace <namespace> \ k8s.ovn.org/acl-logging='{ "deny": "alert", "allow": "notice" }'다음과 같습니다.
<namespace>- 네임스페이스의 이름을 지정합니다.
작은 정보다음 YAML을 적용하여 감사 로깅을 활성화할 수 있습니다.
kind: Namespace apiVersion: v1 metadata: name: <namespace> annotations: k8s.ovn.org/acl-logging: |- { "deny": "alert", "allow": "notice" }출력 예
namespace/verify-audit-logging annotated
검증
감사 로그의 최신 항목을 표시합니다.
$ for pod in $(oc get pods -n openshift-ovn-kubernetes -l app=ovnkube-node --no-headers=true | awk '{ print $1 }') ; do oc exec -it $pod -n openshift-ovn-kubernetes -- tail -4 /var/log/ovn/acl-audit-log.log done출력 예
2021-06-13T19:33:11.590Z|00005|acl_log(ovn_pinctrl0)|INFO|name="verify-audit-logging_deny-all", verdict=drop, severity=alert: icmp,vlan_tci=0x0000,dl_src=0a:58:0a:80:02:39,dl_dst=0a:58:0a:80:02:37,nw_src=10.128.2.57,nw_dst=10.128.2.55,nw_tos=0,nw_ecn=0,nw_ttl=64,icmp_type=8,icmp_code=0
26.9.5. 네임스페이스에 대한 송신 방화벽 및 네트워크 정책 감사 로깅 비활성화
클러스터 관리자는 네임스페이스에 대한 감사 로깅을 비활성화할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
프로세스
네임스페이스에 대한 감사 로깅을 비활성화하려면 다음 명령을 입력합니다.
$ oc annotate --overwrite namespace <namespace> k8s.ovn.org/acl-logging-
다음과 같습니다.
<namespace>- 네임스페이스의 이름을 지정합니다.
작은 정보다음 YAML을 적용하여 감사 로깅을 비활성화할 수 있습니다.
kind: Namespace apiVersion: v1 metadata: name: <namespace> annotations: k8s.ovn.org/acl-logging: null출력 예
namespace/verify-audit-logging annotated
26.9.6. 추가 리소스
26.10. IPsec 암호화 구성
IPsec을 사용하면 OVN-Kubernetes 클러스터 네트워크의 노드 간 모든 pod-to-pod 네트워크 트래픽은 IPsec 전송 모드로 암호화됩니다.
IPsec은 기본적으로 비활성화되어 있습니다. 클러스터를 설치한 후 또는 동안 활성화할 수 있습니다. 클러스터 설치에 대한 자세한 내용은 OpenShift Container Platform 설치 개요 를 참조하십시오. 클러스터 설치 후 IPsec을 활성화해야 하는 경우 IPsec ESP IP 헤더의 오버헤드를 고려하여 먼저 클러스터 MTU의 크기를 조정해야 합니다.
다음 문서에서는 클러스터 설치 후 IPSec를 활성화 및 비활성화하는 방법을 설명합니다.
26.10.1. 사전 요구 사항
-
IPsec ESP 헤더의 추가 오버헤드를 허용하기 위해 클러스터 MTU의 크기가
46바이트 감소했습니다. 클러스터가 사용하는 MTU 크기 조정에 대한 자세한 내용은 클러스터 네트워크의 MTU 변경을 참조하십시오.
26.10.2. IPsec에서 암호화하는 네트워크 트래픽 흐름 유형
IPsec을 활성화하면 포드 간 다음 네트워크 트래픽 흐름만 암호화됩니다.
- 클러스터 네트워크의 서로 다른 노드에 있는 pod 간 트래픽
- 호스트 네트워크의 포드에서 클러스터 네트워크의 포드로의 트래픽
다음 트래픽 흐름은 암호화되지 않습니다.
- 클러스터 네트워크의 동일한 노드에 있는 pod 간 트래픽
- 호스트 네트워크의 포드 간 트래픽
- 클러스터 네트워크의 포드에서 호스트 네트워크 포드로의 트래픽
암호화되거나 암호화되지 않은 흐름은 다음 다이어그램에 설명되어 있습니다.

26.10.2.1. IPsec이 활성화된 경우 네트워크 연결 요구 사항
OpenShift Container Platform 클러스터 구성 요소가 통신할 수 있도록 시스템 간 네트워크 연결을 구성해야 합니다. 각 시스템에서 클러스터에 있는 다른 모든 시스템의 호스트 이름을 확인할 수 있어야 합니다.
표 26.12. 모든 시스템 간 통신에 사용되는 포트
| 프로토콜 | 포트 | 설명 |
|---|---|---|
| UDP |
| IPsec IKE 패킷 |
|
| IPsec NAT-T 패킷 | |
| ESP | 해당 없음 | IPsec 캡슐화 보안 페이로드(ESP) |
26.10.3. 암호화 프로토콜 및 IPsec 모드
사용된 암호화 암호는 AES-GCM-16-256 입니다. 무결성 검사 값(ICV)은 16 바이트입니다. 키 길이는 256 비트입니다.
사용된 IPsec 모드는 전송 모드 입니다. ESP(Encapsulated Security Payload) 헤더를 원래 패킷의 IP 헤더에 추가하고 패킷 데이터를 암호화하여 엔드 투 엔드 통신을 암호화하는 모드입니다. OpenShift Container Platform은 현재 pod-to-pod 통신을 위해 IPsec CloudEvent 모드를 사용하거나 지원하지 않습니다.
26.10.4. 보안 인증서 생성 및 교체
CNO(Cluster Network Operator)는 암호화에 IPsec에서 사용하는 자체 서명된 X.509 인증 기관(CA)을 생성합니다. 각 노드의 CSR(인증서 서명 요청)은 CNO에서 자동으로 충족됩니다.
CA는 10년 동안 유효합니다. 개별 노드 인증서는 5년간 유효하며 4년 6개월 경과 후 자동으로 교체됩니다.
26.10.5. IPsec 암호화 활성화
클러스터 관리자는 클러스터를 설치한 후 IPsec 암호화를 활성화할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. -
IPsec ESP 헤더의 오버헤드를 허용하기 위해 클러스터 MTU 크기를
46바이트로 줄였습니다.
프로세스
IPsec 암호화를 활성화하려면 다음 명령을 입력합니다.
$ oc patch networks.operator.openshift.io cluster --type=merge \ -p '{"spec":{"defaultNetwork":{"ovnKubernetesConfig":{"ipsecConfig":{ }}}}}'
26.10.6. IPsec이 활성화되어 있는지 확인
클러스터 관리자는 IPsec이 활성화되어 있는지 확인할 수 있습니다.
검증
OVN-Kubernetes 컨트롤 플레인 Pod의 이름을 찾으려면 다음 명령을 입력합니다.
$ oc get pods -n openshift-ovn-kubernetes | grep ovnkube-master
출력 예
ovnkube-master-4496s 1/1 Running 0 6h39m ovnkube-master-d6cht 1/1 Running 0 6h42m ovnkube-master-skblc 1/1 Running 0 6h51m ovnkube-master-vf8rf 1/1 Running 0 6h51m ovnkube-master-w7hjr 1/1 Running 0 6h51m ovnkube-master-zsk7x 1/1 Running 0 6h42m
클러스터에서 IPsec이 활성화되어 있는지 확인합니다.
$ oc -n openshift-ovn-kubernetes -c nbdb rsh ovnkube-master-<XXXXX> \ ovn-nbctl --no-leader-only get nb_global . ipsec
다음과 같습니다.
<XXXXX>- 이전 단계에서 Pod의 임의 문자 시퀀스를 지정합니다.
출력 예
true
26.10.7. IPsec 암호화 비활성화
클러스터 관리자는 클러스터 설치 후 IPsec을 활성화한 경우에만 IPsec 암호화를 비활성화할 수 있습니다.
클러스터를 설치할 때 IPsec을 활성화한 경우 이 절차를 통해 IPsec을 비활성화할 수 없습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
프로세스
IPsec 암호화를 비활성화하려면 다음 명령을 입력합니다.
$ oc patch networks.operator.openshift.io/cluster --type=json \ -p='[{"op":"remove", "path":"/spec/defaultNetwork/ovnKubernetesConfig/ipsecConfig"}]'-
선택 사항: IP 패킷의 IPsec ESP 헤더에 더 이상 오버헤드가 없기 때문에 클러스터 MTU 크기를
46바이트까지 늘릴 수 있습니다.
26.10.8. 추가 리소스
26.11. 프로젝트에 대한 송신 방화벽 구성
클러스터 관리자는 OpenShift Container Platform 클러스터에서 나가는 송신 트래픽을 제한하는 프로젝트에 대한 송신 방화벽을 생성할 수 있습니다.
26.11.1. 프로젝트에서 송신 방화벽이 작동하는 방식
클러스터 관리자는 송신 방화벽 을 사용하여 일부 또는 모든 Pod가 클러스터 내에서 액세스할 수 있는 외부 호스트를 제한할 수 있습니다. 송신 방화벽은 다음 시나리오를 지원합니다.
- Pod는 내부 호스트에만 연결할 수 있으며 공용 인터넷 연결을 시작할 수 없습니다.
- Pod는 공용 인터넷에만 연결할 수 있으며 OpenShift Container Platform 클러스터 외부에 있는 내부 호스트에 대한 연결을 시작할 수 없습니다.
- Pod는 지정된 내부 서브넷이나 OpenShift Container Platform 클러스터 외부의 호스트에 연결할 수 없습니다.
- Pod는 특정 외부 호스트에만 연결할 수 있습니다.
예를 들어, 한 프로젝트가 지정된 IP 범위에 액세스하도록 허용하지만 다른 프로젝트에 대한 동일한 액세스는 거부할 수 있습니다. 또는 애플리케이션 개발자가 Python pip 미러에서 업데이트하지 못하도록 하고 승인된 소스에서만 업데이트를 수행하도록 할 수 있습니다.
송신 방화벽은 호스트 네트워크 네임스페이스에 적용되지 않습니다. 호스트 네트워킹이 활성화된 Pod는 송신 방화벽 규칙의 영향을 받지 않습니다.
EgressFirewall CR(사용자 정의 리소스) 오브젝트를 만들어 송신 방화벽 정책을 구성합니다. 송신 방화벽은 다음 기준 중 하나를 충족하는 네트워크 트래픽과 일치합니다.
- CIDR 형식의 IP 주소 범위
- IP 주소로 확인되는 DNS 이름
- 포트 번호
- 다음 프로토콜 중 하나인 프로토콜 : TCP, UDP 및 SCTP
송신 방화벽에 0.0.0.0/0 에 대한 거부 규칙이 포함된 경우 OpenShift Container Platform API 서버에 대한 액세스가 차단됩니다. 각 IP 주소에 대한 허용 규칙을 추가하거나 송신 정책 규칙에서 nodeSelector 유형 허용 규칙을 사용하여 API 서버에 연결해야 합니다.
다음 예제에서는 API 서버 액세스를 확인하는 데 필요한 송신 방화벽 규칙의 순서를 보여줍니다.
apiVersion: k8s.ovn.org/v1 kind: EgressFirewall metadata: name: default namespace: <namespace> 1 spec: egress: - to: cidrSelector: <api_server_address_range> 2 type: Allow # ... - to: cidrSelector: 0.0.0.0/0 3 type: Deny
API 서버의 IP 주소를 찾으려면 oc get ep kubernetes -n default 를 실행합니다.
자세한 내용은 BZ#1988324에서 참조하십시오.
송신 방화벽 규칙은 라우터를 통과하는 트래픽에는 적용되지 않습니다. Route CR 오브젝트를 생성할 권한이 있는 모든 사용자는 허용되지 않은 대상을 가리키는 경로를 생성하여 송신 방화벽 정책 규칙을 바이패스할 수 있습니다.
26.11.1.1. 송신 방화벽의 제한
송신 방화벽에는 다음과 같은 제한이 있습니다.
- EgressFirewall 오브젝트를 두 개 이상 보유할 수 있는 프로젝트는 없습니다.
- 프로젝트당 최대 50개의 규칙이 있는 최대 하나의 EgressFirewall 오브젝트를 정의할 수 있습니다.
- Red Hat OpenShift Networking에서 공유 게이트웨이 모드와 함께 OVN-Kubernetes 네트워크 플러그인을 사용하는 경우 수신 응답을 송신 방화벽 규칙의 영향을 받습니다. 송신 방화벽 규칙이 수신 응답 대상 IP를 삭제하면 트래픽이 삭제됩니다.
이러한 제한 사항을 위반하면 프로젝트의 송신 방화벽이 손상되고 모든 외부 네트워크 트래픽이 삭제될 수 있습니다.
Egress 방화벽 리소스는 kube-node-lease,kube-public,kube-system,openshift 및 openshift- 프로젝트에서 생성할 수 있습니다.
26.11.1.2. 송신 방화벽 정책 규칙에 대한 일치 순서
송신 방화벽 정책 규칙은 정의된 순서대로 처음부터 마지막까지 평가됩니다. Pod의 송신 연결과 일치하는 첫 번째 규칙이 적용됩니다. 해당 연결에 대한 모든 후속 규칙은 무시됩니다.
26.11.1.3. DNS(Domain Name Server) 확인 작동 방식
송신 방화벽 정책 규칙에서 DNS 이름을 사용하는 경우 도메인 이름의 적절한 확인에는 다음 제한 사항이 적용됩니다.
- 도메인 이름 업데이트는 TTL(Time To- Live) 기간에 따라 폴링됩니다. 기본적으로 기간은 30분입니다. 송신 방화벽 컨트롤러가 로컬 이름 서버에 도메인 이름을 쿼리할 때 응답에 TTL이 포함되고 TTL이 30분 미만이면 컨트롤러는 해당 DNS 이름의 기간을 반환된 값으로 설정합니다. 각 DNS 이름은 DNS 레코드의 TTL이 만료된 후에 쿼리됩니다.
- Pod는 필요한 경우 동일한 로컬 이름 서버에서 도메인을 확인해야 합니다. 확인하지 않으면 송신 방화벽 컨트롤러와 Pod에 의해 알려진 도메인의 IP 주소가 다를 수 있습니다. 호스트 이름의 IP 주소가 다르면 송신 방화벽이 일관되게 적용되지 않을 수 있습니다.
- 송신 방화벽 컨트롤러와 Pod는 동일한 로컬 이름 서버를 비동기적으로 폴링하기 때문에 Pod가 송신 컨트롤러보다 먼저 업데이트된 IP 주소를 얻을 수 있으며 이로 인해 경쟁 조건이 발생합니다. 현재 이런 제한으로 인해 EgressFirewall 오브젝트의 도메인 이름 사용은 IP 주소가 자주 변경되지 않는 도메인에만 권장됩니다.
송신 방화벽은 Pod가 DNS 확인을 위해 Pod가 있는 노드의 외부 인터페이스에 항상 액세스할 수 있도록 합니다.
송신 방화벽 정책에서 도메인 이름을 사용하고 로컬 노드의 DNS 서버에서 DNS 확인을 처리하지 않으면 Pod에서 도메인 이름을 사용하는 경우, DNS 서버의 IP 주소에 대한 액세스를 허용하는 송신 방화벽 규칙을 추가해야 합니다.
26.11.2. EgressFirewall CR(사용자 정의 리소스) 오브젝트
송신 방화벽에 대해 하나 이상의 규칙을 정의할 수 있습니다. 규칙이 적용되는 트래픽에 대한 사양을 포함한 허용 규칙 또는 거부 규칙입니다.
다음 YAML은 EgressFirewall CR 오브젝트를 설명합니다.
EgressFirewall 오브젝트
apiVersion: k8s.ovn.org/v1 kind: EgressFirewall metadata: name: <name> 1 spec: egress: 2 ...
26.11.2.1. EgressFirewall 규칙
다음 YAML은 송신 방화벽 규칙 오브젝트를 설명합니다. 사용자는 CIDR 형식, 도메인 이름에서 IP 주소 범위를 선택하거나 nodeSelector 를 사용하여 송신 트래픽을 허용하거나 거부할 수 있습니다. 송신 스탠자는 하나 이상의 오브젝트 배열을 예상합니다.
송신 정책 규칙 스탠자
egress: - type: <type> 1 to: 2 cidrSelector: <cidr> 3 dnsName: <dns_name> 4 nodeSelector: <label_name>: <label_value> 5 ports: 6 ...
- 1
- 규칙 유형입니다. 값은
Allow또는Deny여야 합니다. - 2
cidrSelector필드 또는dnsName필드를 지정하는 송신 트래픽 일치 규칙을 설명하는 스탠자입니다. 동일한 규칙에서 두 필드를 모두 사용할 수 없습니다.- 3
- CIDR 형식의 IP 주소 범위입니다,
- 4
- DNS 도메인 이름입니다.
- 5
- 레이블은 사용자가 정의하는 키/값 쌍입니다. 레이블은 Pod와 같은 오브젝트에 연결됩니다.
nodeSelector를 사용하면 하나 이상의 노드 레이블을 선택하고 Pod에 연결할 수 있습니다. - 6
- 선택 사항: 규칙에 대한 네트워크 포트 및 프로토콜 컬렉션을 설명하는 스탠자입니다.
포트 스탠자
ports: - port: <port> 1 protocol: <protocol> 2
26.11.2.2. EgressFirewall CR 오브젝트의 예
다음 예는 여러 가지 송신 방화벽 정책 규칙을 정의합니다.
apiVersion: k8s.ovn.org/v1
kind: EgressFirewall
metadata:
name: default
spec:
egress: 1
- type: Allow
to:
cidrSelector: 1.2.3.0/24
- type: Deny
to:
cidrSelector: 0.0.0.0/0- 1
- 송신 방화벽 정책 규칙 오브젝트의 컬렉션입니다.
다음 예제에서는 트래픽이 TCP 프로토콜 및 대상 포트 80 또는 임의의 프로토콜 및 대상 포트 443 을 사용하는 경우 172.16.1.1 IP 주소에서 호스트에 대한 트래픽을 거부하는 정책 규칙을 정의합니다.
apiVersion: k8s.ovn.org/v1
kind: EgressFirewall
metadata:
name: default
spec:
egress:
- type: Deny
to:
cidrSelector: 172.16.1.1
ports:
- port: 80
protocol: TCP
- port: 44326.11.2.3. EgressFirewall의 nodeSelector 예
클러스터 관리자는 nodeSelector 를 사용하여 라벨을 지정하여 클러스터의 노드로 송신 트래픽을 허용하거나 거부할 수 있습니다. 레이블은 하나 이상의 노드에 적용할 수 있습니다. 다음은 region=east 라벨이 있는 예입니다.
apiVersion: k8s.ovn.org/v1
kind: EgressFirewall
metadata:
name: default
spec:
egress:
- to:
nodeSelector:
matchLabels:
region: east
type: Allow노드 IP 주소당 수동 규칙을 추가하는 대신 노드 선택기를 사용하여 송신 방화벽 뒤의 pod가 호스트 네트워크 Pod에 액세스할 수 있는 레이블을 생성합니다.
26.11.3. 송신 방화벽 정책 오브젝트 생성
클러스터 관리자는 프로젝트에 대한 송신 방화벽 정책 오브젝트를 만들 수 있습니다.
프로젝트에 이미 EgressFirewall 오브젝트가 정의되어 있는 경우 기존 정책을 편집하여 송신 방화벽 규칙을 변경해야 합니다.
사전 요구 사항
- OVN-Kubernetes 네트워크 플러그인을 사용하는 클러스터입니다.
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터 관리자로 클러스터에 로그인해야 합니다.
프로세스
다음과 같이 정책 규칙을 생성합니다.
-
<
policy_name>.yaml파일을 생성합니다. 여기서 <policy_name>은 송신 정책 규칙을 설명합니다. - 생성한 파일에서 송신 정책 오브젝트를 정의합니다.
-
<
다음 명령을 입력하여 정책 오브젝트를 생성합니다. &
lt;policy_name>을 정책 이름으로 바꾸고 <project>를 규칙이 적용되는 프로젝트로 바꿉니다.$ oc create -f <policy_name>.yaml -n <project>
다음 예제에서는
project1이라는 프로젝트에 새 EgressFirewall 오브젝트가 생성됩니다.$ oc create -f default.yaml -n project1
출력 예
egressfirewall.k8s.ovn.org/v1 created
-
선택사항: 나중에 변경할 수 있도록 <
;policy_name>.yaml파일을 저장합니다.
26.12. 프로젝트의 송신 방화벽 보기
클러스터 관리자는 기존 송신 방화벽의 이름을 나열하고 특정 송신 방화벽에 대한 트래픽 규칙을 볼 수 있습니다.
26.12.1. EgressFirewall 오브젝트 보기
클러스터의 EgressFirewall 오브젝트를 볼 수 있습니다.
사전 요구 사항
- OVN-Kubernetes 네트워크 플러그인을 사용하는 클러스터입니다.
-
oc로 알려진 OpenShift CLI(명령줄 인터페이스)를 설치합니다. - 클러스터에 로그인해야 합니다.
프로세스
선택사항: 클러스터에 정의된 EgressFirewall 오브젝트의 이름을 보려면 다음 명령을 입력합니다.
$ oc get egressfirewall --all-namespaces
정책을 검사하려면 다음 명령을 입력하십시오. <
policy_name>을 검사할 정책의 이름으로 변경합니다.$ oc describe egressfirewall <policy_name>
출력 예
Name: default Namespace: project1 Created: 20 minutes ago Labels: <none> Annotations: <none> Rule: Allow to 1.2.3.0/24 Rule: Allow to www.example.com Rule: Deny to 0.0.0.0/0
26.13. 프로젝트의 송신 방화벽 편집
클러스터 관리자는 기존 송신 방화벽에 대한 네트워크 트래픽 규칙을 수정할 수 있습니다.
26.13.1. EgressFirewall 오브젝트 편집
클러스터 관리자는 프로젝트의 송신 방화벽을 업데이트할 수 있습니다.
사전 요구 사항
- OVN-Kubernetes 네트워크 플러그인을 사용하는 클러스터입니다.
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터 관리자로 클러스터에 로그인해야 합니다.
프로세스
프로젝트의 EgressFirewall 오브젝트 이름을 찾습니다. &
lt;project>를 프로젝트 이름으로 바꿉니다.$ oc get -n <project> egressfirewall
선택 사항: 송신 네트워크 방화벽을 만들 때 EgressFirewall 오브젝트의 사본을 저장하지 않은 경우 다음 명령을 입력하여 사본을 생성합니다.
$ oc get -n <project> egressfirewall <name> -o yaml > <filename>.yaml
&
lt;project>를 프로젝트 이름으로 바꿉니다. <name>을 오브젝트 이름으로 변경합니다. YAML을 저장할파일 이름으로 <filename>을 바꿉니다.정책 규칙을 변경한 후 다음 명령을 입력하여 EgressFirewall 오브젝트를 바꿉니다. 업데이트된 EgressFirewall 오브젝트가 포함된 파일 이름으로 <
filename>을 바꿉니다.$ oc replace -f <filename>.yaml
26.14. 프로젝트에서 송신 방화벽 제거
클러스터 관리자는 프로젝트에서 송신 방화벽을 제거하여 OpenShift Container Platform 클러스터를 나가는 프로젝트에서 네트워크 트래픽에 대한 모든 제한을 제거할 수 있습니다.
26.14.1. EgressFirewall 오브젝트 제거
클러스터 관리자는 프로젝트에서 송신 방화벽을 제거할 수 있습니다.
사전 요구 사항
- OVN-Kubernetes 네트워크 플러그인을 사용하는 클러스터입니다.
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터 관리자로 클러스터에 로그인해야 합니다.
프로세스
프로젝트의 EgressFirewall 오브젝트 이름을 찾습니다. &
lt;project>를 프로젝트 이름으로 바꿉니다.$ oc get -n <project> egressfirewall
다음 명령을 입력하여 EgressFirewall 오브젝트를 삭제합니다. &
lt;project>를 프로젝트 이름으로 바꾸고 <name>을 오브젝트 이름으로 바꿉니다.$ oc delete -n <project> egressfirewall <name>
26.15. 송신 IP 주소 구성
클러스터 관리자는 OVN-Kubernetes CNI(Container Network Interface) 네트워크 플러그인을 구성하여 하나 이상의 송신 IP 주소를 네임스페이스 또는 네임스페이스의 특정 Pod에 할당할 수 있습니다.
26.15.1. 송신 IP 주소 아키텍처 설계 및 구현
OpenShift Container Platform 송신 IP 주소 기능을 사용하면 하나 이상의 네임스페이스에 있는 하나 이상의 Pod에서 발생하는 트래픽의 소스 IP 주소가 클러스터 네트워크 외부 서비스에 일관되게 표시되도록 할 수 있습니다.
예를 들어 클러스터 외부 서버에서 호스팅되는 데이터베이스를 주기적으로 쿼리하는 Pod가 있을 수 있습니다. 서버에 대한 액세스 요구 사항을 적용하기 위해 패킷 필터링 장치는 특정 IP 주소의 트래픽만 허용하도록 구성됩니다. 특정 Pod에서만 서버에 안정적으로 액세스할 수 있도록 허용하려면 서버에 요청하는 Pod에 대해 특정 송신 IP 주소를 구성하면 됩니다.
네임스페이스에 할당된 송신 IP 주소는 특정 대상으로 트래픽을 보내는 데 사용되는 송신 라우터와 다릅니다.
일부 클러스터 구성에서 애플리케이션 Pod 및 수신 라우터 Pod는 동일한 노드에서 실행됩니다. 이 시나리오에서 애플리케이션 프로젝트의 송신 IP 주소를 구성하면 애플리케이션 프로젝트의 경로에 요청을 보낼 때 IP 주소가 사용되지 않습니다.
송신 IP 주소는 ifcfg-eth0 과 같은 Linux 네트워크 구성 파일에서 구성해서는 안 됩니다.
26.15.1.1. 플랫폼 지원
다음 표에는 다양한 플랫폼의 송신 IP 주소 기능에 대한 지원이 요약되어 있습니다.
| 플랫폼 | 지원됨 |
|---|---|
| 베어 메탈 | 제공됨 |
| VMware vSphere | 제공됨 |
| Red Hat OpenStack Platform (RHOSP) | 제공됨 |
| AWS(Amazon Web Services) | 제공됨 |
| GCP(Google Cloud Platform) | 제공됨 |
| Microsoft Azure | 제공됨 |
| IBM Z 및 IBM® LinuxONE | 제공됨 |
| IBM Z 및 IBM® LinuxONE for Red Hat Enterprise Linux (RHEL) KVM | 제공됨 |
| IBM Power | 제공됨 |
EgressIP 기능을 사용하여 컨트롤 플레인 노드에 송신 IP 주소 할당은 AWS(Amazon Web Services)에서 프로비저닝된 클러스터에서 지원되지 않습니다. (BZ#2039656)
26.15.1.2. 퍼블릭 클라우드 플랫폼 고려 사항
퍼블릭 클라우드 인프라에 프로비저닝된 클러스터의 경우 노드당 할당 가능한 IP 주소 수에 제약 조건이 있습니다. 노드당 할당 가능한 최대 IP 주소 수 또는 IP 용량은 다음 공식에서 설명할 수 있습니다.
IP capacity = public cloud default capacity - sum(current IP assignments)
Egress IPs 기능은 노드당 IP 주소 용량을 관리하지만 배포에서 이 제약 조건을 계획해야 합니다. 예를 들어 8개의 노드로 베어 메탈 인프라에 설치된 클러스터의 경우 150개 송신 IP 주소를 구성할 수 있습니다. 그러나 퍼블릭 클라우드 공급자가 노드당 IP 주소 용량을 10개로 제한하는 경우 할당 가능한 총 IP 주소 수는 80입니다. 이 예제 클라우드 공급자에서 동일한 IP 주소 용량을 얻으려면 7 개의 추가 노드를 할당해야 합니다.
퍼블릭 클라우드 환경에서 모든 노드의 IP 용량과 서브넷을 확인하려면 oc get node <node_name> -o yaml 명령을 입력합니다. cloud.network.openshift.io/egress-ipconfig 주석에는 노드의 용량 및 서브넷 정보가 포함됩니다.
주석 값은 기본 네트워크 인터페이스에 대해 다음 정보를 제공하는 필드가 있는 단일 오브젝트가 있는 배열입니다.
-
Interface: AWS 및 Azure의 인터페이스 ID와 GCP의 인터페이스 이름을 지정합니다. -
ifaddr: 하나 또는 둘 다 IP 주소 제품군에 대해 서브넷 마스크를 지정합니다. -
capacity: 노드의 IP 주소 용량을 지정합니다. AWS에서는 IP 주소 제품군별로 IP 주소 용량이 제공됩니다. Azure 및 GCP에서 IP 주소 용량에는 IPv4 및 IPv6 주소가 모두 포함됩니다.
노드 간 트래픽에 대한 송신 IP 주소 자동 연결 및 분리를 사용할 수 있습니다. 이렇게 하면 네임스페이스의 많은 Pod에서 트래픽이 클러스터 외부의 위치와 일관된 소스 IP 주소를 가질 수 있습니다. 이는 OpenShift Container Platform 4.13의 Red Hat OpenShift Networking의 기본 네트워킹 플러그인인 OpenShift SDN 및 OVN-Kubernetes도 지원합니다.
RHOSP 클러스터 관리자가 예약 포트에 유동 IP를 할당하면 OpenShift Container Platform에서 예약 포트를 삭제할 수 없습니다. RHOSP 클러스터 관리자가 예약 포트에서 유동 IP를 할당 해제할 때까지 CloudPrivateIPConfig 개체는 삭제 및 작업 이동 작업을 수행할 수 없습니다.
다음 예제에서는 여러 퍼블릭 클라우드 공급자에 있는 노드의 주석을 보여줍니다. 가독성을 위해 주석이 들여쓰기됩니다.
AWS의 cloud.network.openshift.io/egress-ipconfig 주석 예
cloud.network.openshift.io/egress-ipconfig: [
{
"interface":"eni-078d267045138e436",
"ifaddr":{"ipv4":"10.0.128.0/18"},
"capacity":{"ipv4":14,"ipv6":15}
}
]
GCP의 cloud.network.openshift.io/egress-ipconfig 주석 예
cloud.network.openshift.io/egress-ipconfig: [
{
"interface":"nic0",
"ifaddr":{"ipv4":"10.0.128.0/18"},
"capacity":{"ip":14}
}
]
다음 섹션에서는 용량 계산에 사용할 지원되는 퍼블릭 클라우드 환경에 대한 IP 주소 용량을 설명합니다.
26.15.1.2.1. AWS(Amazon Web Services) IP 주소 용량 제한
AWS에서 IP 주소 할당에 대한 제약 조건은 구성된 인스턴스 유형에 따라 달라집니다. 자세한 내용은 인스턴스 유형당 네트워크 인터페이스당 IP 주소를참조하십시오.
26.15.1.2.2. GCP(Google Cloud Platform) IP 주소 용량 제한
GCP에서 네트워킹 모델은 IP 주소 할당이 아닌 IP 주소 별칭을 통해 추가 노드 IP 주소를 구현합니다. 그러나 IP 주소 용량은 IP 별칭 용량에 직접 매핑됩니다.
IP 별칭 할당을 위해 다음 용량 제한이 있습니다.
- 노드당 최대 IP 별칭 수, IPv4 및 IPv6 모두 100입니다.
- VPC당 최대 IP 별칭은 지정되지 않지만 OpenShift Container Platform 확장성 테스트에서는 최대 IP가 약 15,000개임을 보여줍니다.
자세한 내용은 Per instance Quota and Alias IP ranges overview 를 참조하십시오.
26.15.1.2.3. Microsoft Azure IP 주소 용량 제한
Azure에서 IP 주소 할당에 대해 다음 용량 제한이 있습니다.
- NIC당 IPv4 및 IPv6의 할당 가능 IP 주소의 최대 수는 256입니다.
- 가상 네트워크당 할당된 IP 주소의 최대 수는 65,536개를 초과할 수 없습니다.
자세한 내용은 네트워킹 제한 항목을 참조하십시오.
26.15.1.3. Pod에 송신 IP 할당
하나 이상의 송신 IP를 네임스페이스 또는 네임스페이스의 특정 Pod에 할당하려면 다음 조건을 충족해야 합니다.
-
클러스터에서 하나 이상의 노드에
k8s.ovn.org/egress-assignable: ""레이블이 있어야 합니다. -
네임스페이스의 Pod에서 클러스터를 떠나는 트래픽의 소스 IP 주소로 사용할 하나 이상의 송신 IP 주소를 정의하는
EgressIP오브젝트가 있습니다.
송신 IP 할당을 위해 클러스터의 노드에 레이블을 지정하기 전에 EgressIP 오브젝트를 생성하면 OpenShift Container Platform에서 모든 송신 IP 주소를 k8s.ovn.org/egress-assignable: "" 레이블이 있는 첫 번째 노드에 할당할 수 있습니다.
송신 IP 주소가 클러스터의 여러 노드에 널리 분산되도록 하려면 EgressIP 오브젝트를 생성하기 전에 송신 IP 주소를 호스팅할 노드에 항상 레이블을 적용합니다.
26.15.1.4. 노드에 송신 IP 할당
EgressIP 오브젝트를 생성할 때 k8s.ovn.org/egress-assignable: "" 레이블이 지정된 노드에 다음 조건이 적용됩니다.
- 송신 IP 주소는 한 번에 두 개 이상의 노드에 할당되지 않습니다.
- 송신 IP 주소는 송신 IP 주소를 호스팅할 수 있는 사용 가용한 노드 간에 균형을 이룹니다.
EgressIP오브젝트의spec.EgressIPs배열에서 두 개 이상의 IP 주소를 지정하는 경우 다음 조건이 적용됩니다.- 지정된 IP 주소 중 두 개 이상을 호스팅할 노드는 없습니다.
- 지정된 네임스페이스에 대해 지정된 IP 주소 간에 트래픽이 거의 동일하게 분산됩니다.
- 노드를 사용할 수 없게 되면 할당된 모든 송신 IP 주소가 이전에 설명한 조건에 따라 자동으로 재할당됩니다.
Pod가 여러 EgressIP 오브젝트의 선택기와 일치하는 경우 EgressIP 오브젝트에 지정된 송신 IP 주소 중 어느 것이 Pod의 송신 IP 주소로 할당되는지 보장할 수 없습니다.
또한 EgressIP 오브젝트가 여러 송신 IP 주소를 지정하는 경우 사용할 수 있는 송신 IP 주소를 보장할 수 없습니다. 예를 들어 Pod가 두 개의 송신 IP 주소가 있는 EgressIP 오브젝트의 선택기와 일치하는 경우 10.10.20.1 및 10.10.20.2, 둘 다 각 TCP 연결 또는 UDP 대화에 사용될 수 있습니다.
26.15.1.5. 송신 IP 주소 구성에 대한 아키텍처 다이어그램
다음 다이어그램에서는 송신 IP 주소 구성을 보여줍니다. 다이어그램은 클러스터의 세 개 노드에서 실행 중인 두 개의 다른 네임스페이스에 있는 포드 4개를 설명합니다. 노드는 호스트 네트워크의 192.168.126.0/18 CIDR 블록에서 할당된 IP 주소입니다.
노드 1과 노드 3은 모두 k8s.ovn.org/egress-assignable: "" 로 레이블이 지정되어 있으므로 송신 IP 주소 할당에 사용할 수 있습니다.
다이어그램에 있는 점선은 노드 1 및 노드 3에서 클러스터를 나가기 위해 포드 네트워크를 통해 이동하는 pod1, pod2, pod3의 트래픽 흐름을 나타냅니다. 외부 서비스에서 예제 EgressIP 오브젝트에서 선택한 Pod 중 하나에서 트래픽을 수신하는 경우 소스 IP 주소는 192.168.126.10 또는 192.168.126.102 입니다. 트래픽은 이 두 노드 간에 대략적으로 균등하게 분산됩니다.
다이어그램의 다음 리소스는 자세히 설명되어 있습니다.
네임스페이스오브젝트네임스페이스는 다음 매니페스트에 정의됩니다.
네임스페이스 오브젝트
apiVersion: v1 kind: Namespace metadata: name: namespace1 labels: env: prod --- apiVersion: v1 kind: Namespace metadata: name: namespace2 labels: env: prodEgressIP오브젝트다음
EgressIP오브젝트는env레이블이prod로 설정된 모든 포드를 선택하는 구성을 설명합니다. 선택한 Pod의 송신 IP 주소는192.168.126.10및192.168.126.102입니다.EgressIP오브젝트apiVersion: k8s.ovn.org/v1 kind: EgressIP metadata: name: egressips-prod spec: egressIPs: - 192.168.126.10 - 192.168.126.102 namespaceSelector: matchLabels: env: prod status: items: - node: node1 egressIP: 192.168.126.10 - node: node3 egressIP: 192.168.126.102이전 예제의 구성에 대해 OpenShift Container Platform은 두 송신 IP 주소를 사용 가능한 노드에 할당합니다.
status필드는 송신 IP 주소가 할당되었는지 여부와 위치를 반영합니다.
26.15.2. EgressIP 오브젝트
다음 YAML은 EgressIP 오브젝트의 API를 설명합니다. 오브젝트의 범위는 클러스터 전체이며 네임스페이스에 생성되지 않습니다.
apiVersion: k8s.ovn.org/v1 kind: EgressIP metadata: name: <name> 1 spec: egressIPs: 2 - <ip_address> namespaceSelector: 3 ... podSelector: 4 ...
다음 YAML은 네임스페이스 선택기에 대한 스탠자를 설명합니다.
네임스페이스 선택기 스탠자
namespaceSelector: 1
matchLabels:
<label_name>: <label_value>
- 1
- 네임스페이스에 대해 일치하는 하나 이상의 규칙입니다. 둘 이상의 일치 규칙이 제공되면 일치하는 모든 네임스페이스가 선택됩니다.
다음 YAML은 Pod 선택기에 대한 선택적 스탠자를 설명합니다.
Pod 선택기 스탠자
podSelector: 1
matchLabels:
<label_name>: <label_value>
- 1
- 선택사항: 지정된
namespaceSelector규칙과 일치하는 네임스페이스의 Pod에 대해 일치하는 하나 이상의 규칙입니다. 지정된 경우 일치하는 Pod만 선택됩니다. 네임스페이스의 다른 Pod는 선택되지 않습니다.
다음 예에서 EgressIP 오브젝트는 192.168.126.11 및 192.168.126.102 송신 IP 주소를 app 레이블을 web 으로 설정하고 env 레이블이 prod:로 설정된 네임스페이스에 있는 Pod와 연결합니다.
EgressIP 오브젝트의 예
apiVersion: k8s.ovn.org/v1
kind: EgressIP
metadata:
name: egress-group1
spec:
egressIPs:
- 192.168.126.11
- 192.168.126.102
podSelector:
matchLabels:
app: web
namespaceSelector:
matchLabels:
env: prod
다음 예에서 EgressIP 오브젝트는 192.168.127.30 및 192.168.127.40 송신 IP 주소를 environment 레이블이 development 로 설정되지 않은 모든 Pod와 연결합니다.
EgressIP 오브젝트의 예
apiVersion: k8s.ovn.org/v1
kind: EgressIP
metadata:
name: egress-group2
spec:
egressIPs:
- 192.168.127.30
- 192.168.127.40
namespaceSelector:
matchExpressions:
- key: environment
operator: NotIn
values:
- development
26.15.3. EgressIPconfig 오브젝트
송신 IP의 기능으로 reachabilityTotalTimeoutSeconds 매개변수는 프로브에서 IP 노드로 전송되는 검사에 대한 총 타임아웃을 구성합니다. egressIPConfig 오브젝트를 사용하면 사용자가 reachabilityTotalTimeoutSeconds 사양 을 설정할 수 있습니다. 이 시간 초과 내에 EgressIP 노드에 도달할 수 없는 경우 노드가 다운됩니다.
네트워크가 안정적이지 않은 경우 현재 기본값 1 초를 처리할 수 있는 경우 이 값을 늘릴 수 있습니다.
다음 YAML에서는 기본 1초 프로브에서 5초 프로브로 reachabilityTotalTimeoutSeconds 를 변경하는 방법을 설명합니다.
apiVersion: k8s.ovn.org/v1
kind: EgressIP
name: networks.operator.openshift.io
spec:
clusterNetwork:
- cidr: 10.128.0.0/14
hostPrefix: 23
defaultNetwork:
ovnKubernetesConfig:
egressIPConfig: 1
reachabilityTotalTimeoutSeconds: 5 2
gatewayConfig:
routingViaHost: false
genevePort: 608126.15.4. 송신 IP 주소 호스팅을 위해 노드에 레이블 지정
OpenShift Container Platform에서 노드에 하나 이상의 송신 IP 주소를 할당할 수 있도록 k8s.ovn.org/egress-assignable="" 레이블을 클러스터의 노드에 적용할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터 관리자로 클러스터에 로그인합니다.
프로세스
하나 이상의 송신 IP 주소를 호스팅할 수 있도록 노드에 레이블을 지정하려면 다음 명령을 입력합니다.
$ oc label nodes <node_name> k8s.ovn.org/egress-assignable="" 1- 1
- 레이블을 지정할 노드 이름입니다.
작은 정보다음 YAML을 적용하여 노드에 레이블을 추가할 수 있습니다.
apiVersion: v1 kind: Node metadata: labels: k8s.ovn.org/egress-assignable: "" name: <node_name>
26.15.5. 다음 단계
26.15.6. 추가 리소스
26.16. 송신 IP 주소 할당
클러스터 관리자는 네임스페이스 또는 네임스페이스의 특정 Pod에서 클러스터를 떠나는 트래픽에 송신 IP 주소를 할당할 수 있습니다.
26.16.1. 네임스페이스에 송신 IP 주소 할당
하나 이상의 송신 IP 주소를 네임스페이스 또는 네임스페이스의 특정 Pod에 할당할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터 관리자로 클러스터에 로그인합니다.
- 송신 IP 주소를 호스팅할 하나 이상의 노드를 구성합니다.
프로세스
EgressIP오브젝트를 생성합니다.-
<
egressips_name>.yaml파일을 생성합니다. 여기서 <egressips_name>은 오브젝트의 이름입니다. 생성한 파일에서 다음 예와 같이
EgressIP오브젝트를 정의합니다.apiVersion: k8s.ovn.org/v1 kind: EgressIP metadata: name: egress-project1 spec: egressIPs: - 192.168.127.10 - 192.168.127.11 namespaceSelector: matchLabels: env: qa
-
<
오브젝트를 생성하려면 다음 명령을 입력합니다.
$ oc apply -f <egressips_name>.yaml 1- 1
- &
lt;egressips_name>을 오브젝트 이름으로 바꿉니다.
출력 예
egressips.k8s.ovn.org/<egressips_name> created
-
선택사항: 나중에 변경할 수 있도록 <
egressips_name>.yaml파일을 저장합니다. 송신 IP 주소가 필요한 네임스페이스에 라벨을 추가합니다. 1단계에서 정의된
EgressIP오브젝트의 네임스페이스에 라벨을 추가하려면 다음 명령을 실행합니다.$ oc label ns <namespace> env=qa 1- 1
- &
lt;namespace>를 송신 IP 주소가 필요한 네임스페이스로 바꿉니다.
26.16.2. 추가 리소스
26.17. 송신 라우터 Pod 사용에 대한 고려 사항
26.17.1. 송신 라우터 Pod 정보
OpenShift Container Platform 송신 라우터 포드는 다른 용도로 사용되지 않는 프라이빗 소스 IP 주소에서 지정된 원격 서버로 트래픽을 리디렉션합니다. 송신 라우터 포드를 통해 특정 IP 주소에서만 액세스할 수 있도록 설정된 서버로 네트워크 트래픽을 보낼 수 있습니다.
송신 라우터 Pod는 모든 발신 연결을 위한 것은 아닙니다. 다수의 송신 라우터 Pod를 생성하는 경우 네트워크 하드웨어 제한을 초과할 수 있습니다. 예를 들어 모든 프로젝트 또는 애플리케이션에 대해 송신 라우터 Pod를 생성하면 소프트웨어에서 MAC 주소 필터링으로 돌아가기 전에 네트워크 인터페이스에서 처리할 수 있는 로컬 MAC 주소 수를 초과할 수 있습니다.
송신 라우터 이미지는 Amazon AWS, Azure Cloud 또는 macvlan 트래픽과의 비호환성으로 인해 계층 2 조작을 지원하지 않는 기타 클라우드 플랫폼과 호환되지 않습니다.
26.17.1.1. 송신 라우터 모드
리디렉션 모드에서 송신 라우터 포드는 자체 IP 주소에서 하나 이상의 대상 IP 주소로 트래픽을 리디렉션하도록 iptables 규칙을 구성합니다. 예약된 소스 IP 주소를 사용해야 하는 클라이언트 Pod는 대상 IP에 직접 연결하는 대신 송신 라우터의 서비스에 액세스하도록 구성해야 합니다. curl 명령을 사용하여 애플리케이션 포드에서 대상 서비스 및 포트에 액세스할 수 있습니다. 예를 들면 다음과 같습니다.
$ curl <router_service_IP> <port>
송신 라우터 CNI 플러그인은 리디렉션 모드만 지원합니다. 이는 OpenShift SDN과 함께 배포할 수 있는 송신 라우터 구현의 차이점입니다. OpenShift SDN의 송신 라우터와 달리 송신 라우터 CNI 플러그인은 HTTP 프록시 모드 또는 DNS 프록시 모드를 지원하지 않습니다.
26.17.1.2. 송신 라우터 Pod 구현
송신 라우터 구현에서는 송신 라우터 CNI(Container Network Interface) 플러그인을 사용합니다. 플러그인은 보조 네트워크 인터페이스를 포드에 추가합니다.
송신 라우터는 두 개의 네트워크 인터페이스가 있는 포드입니다. 예를 들어 포드에는 eth0 및 net1 네트워크 인터페이스가 있을 수 있습니다. eth0 인터페이스는 클러스터 네트워크에 있으며 포드는 일반 클러스터 관련 네트워크 트래픽에 대한 인터페이스를 계속 사용합니다. net1 인터페이스는 보조 네트워크에 있으며 해당 네트워크에 대한 IP 주소 및 게이트웨이가 있습니다. OpenShift Container Platform 클러스터의 다른 포드는 송신 라우터 서비스에 액세스할 수 있으며, 서비스를 통해 포드가 외부 서비스에 액세스할 수 있습니다. 송신 라우터는 포드와 외부 시스템 간의 브리지 역할을 합니다.
송신 라우터를 나가는 트래픽은 노드를 통해 종료되지만 패킷에는 송신 라우터 Pod에서 net1 인터페이스의 MAC 주소가 있습니다.
송신 라우터 사용자 정의 리소스를 추가하면 Cluster Network Operator에서 다음 오브젝트를 생성합니다.
-
Pod의
net1보조 네트워크 인터페이스에 대한 네트워크 연결 정의입니다. - 출력 라우터에 대한 배포입니다.
송신 라우터 사용자 정의 리소스를 삭제하는 경우 Operator는 송신 라우터와 연결된 이전 목록에서 두 개의 오브젝트를 삭제합니다.
26.17.1.3. 배포 고려 사항
송신 라우터 Pod는 노드의 기본 네트워크 인터페이스에 추가 IP 주소와 MAC 주소를 추가합니다. 따라서 추가 주소를 허용하도록 하이퍼바이저 또는 클라우드 공급자를 구성해야 할 수 있습니다.
- Red Hat OpenStack Platform (RHOSP)
RHOSP에서 OpenShift Container Platform을 배포하는 경우 OpenStack 환경에서 송신 라우터 포드의 IP 및 MAC 주소의 트래픽을 허용해야 합니다. 트래픽을 허용하지 않으면 통신이 실패합니다.
$ openstack port set --allowed-address \ ip_address=<ip_address>,mac_address=<mac_address> <neutron_port_uuid>
- RHV(Red Hat Virtualization)
- RHV 를 사용하는 경우 가상 네트워크 인터페이스 컨트롤러(vNIC)에 대해 네트워크 필터 없음을 선택해야 합니다.
- VMware vSphere
- VMware vSphere를 사용하는 경우 vSphere 표준 스위치 보안을 위한 VMware 설명서를 참조하십시오. vSphere Web Client에서 호스트 가상 스위치를 선택하여 VMware vSphere 기본 설정을 보고 변경합니다.
특히 다음이 활성화되어 있는지 확인하십시오.
26.17.1.4. 장애 조치 구성
다운타임을 방지하기 위해 Cluster Network Operator는 송신 라우터 Pod를 배포 리소스로 배포합니다. 배포 이름은 egress-router-cni-deployment 입니다. 배포에 해당하는 pod에는 app=egress-router-cni 레이블이 있습니다.
배포에 사용할 새 서비스를 생성하려면 oc expose deployment/egress-router-cni-deployment --port <port_number > 명령을 사용하거나 다음 예와 같이 파일을 생성합니다.
apiVersion: v1
kind: Service
metadata:
name: app-egress
spec:
ports:
- name: tcp-8080
protocol: TCP
port: 8080
- name: tcp-8443
protocol: TCP
port: 8443
- name: udp-80
protocol: UDP
port: 80
type: ClusterIP
selector:
app: egress-router-cni26.17.2. 추가 리소스
26.18. 리디렉션 모드에서 송신 라우터 Pod 배포
클러스터 관리자는 예약된 소스 IP 주소에서 지정된 대상 IP 주소로 트래픽을 리디렉션하도록 송신 라우터 포드를 배포할 수 있습니다.
송신 라우터 구현에서는 송신 라우터 CNI(Container Network Interface) 플러그인을 사용합니다.
26.18.1. 송신 라우터 사용자 정의 리소스
송신 라우터 사용자 정의 리소스에서 송신 라우터 Pod에 대한 구성을 정의합니다. 다음 YAML은 리디렉션 모드에서 송신 라우터 구성을 위한 필드를 설명합니다.
apiVersion: network.operator.openshift.io/v1
kind: EgressRouter
metadata:
name: <egress_router_name>
namespace: <namespace> <.>
spec:
addresses: [ <.>
{
ip: "<egress_router>", <.>
gateway: "<egress_gateway>" <.>
}
]
mode: Redirect
redirect: {
redirectRules: [ <.>
{
destinationIP: "<egress_destination>",
port: <egress_router_port>,
targetPort: <target_port>, <.>
protocol: <network_protocol> <.>
},
...
],
fallbackIP: "<egress_destination>" <.>
}
<.> 선택 사항: namespace 필드는 송신 라우터를 생성할 네임스페이스를 지정합니다. 파일 또는 명령줄에 값을 지정하지 않으면 default 네임스페이스가 사용됩니다.
<.> address 필드는 보조 네트워크 인터페이스에서 구성할 IP 주소를 지정합니다.
<.> ip 필드는 노드가 송신 라우터 Pod와 함께 사용할 물리적 네트워크에서 예약된 소스 IP 주소와 넷마스크를 지정합니다. CIDR 표기법을 사용하여 IP 주소와 넷마스크를 지정합니다.
<.> gateway 필드는 네트워크 게이트웨이의 IP 주소를 지정합니다.
<.> 선택 사항: redirectRules 필드는 송신 대상 IP 주소, 송신 라우터 포트 및 프로토콜의 조합을 지정합니다. 지정된 포트 및 프로토콜의 출력 라우터에 대한 수신 연결은 대상 IP 주소로 라우팅됩니다.
<.> 선택 사항: targetPort 필드는 대상 IP 주소에 네트워크 포트를 지정합니다. 이 필드를 지정하지 않으면 트래픽이 도달한 동일한 네트워크 포트로 라우팅됩니다.
<.> protocol 필드는 TCP, UDP 또는 SCTP를 지원합니다.
<.> 선택 사항: fallbackIP 필드는 대상 IP 주소를 지정합니다. 리디렉션 규칙을 지정하지 않으면 송신 라우터에서 모든 트래픽을 이 폴백 IP 주소로 보냅니다. 리디렉션 규칙을 지정하면 규칙에 정의되지 않은 네트워크 포트에 대한 모든 연결이 송신 라우터에서 이 대체 IP 주소로 전송됩니다. 이 필드를 지정하지 않으면 송신 라우터는 규칙에 정의되지 않은 네트워크 포트에 대한 연결을 거부합니다.
송신 라우터 사양의 예
apiVersion: network.operator.openshift.io/v1
kind: EgressRouter
metadata:
name: egress-router-redirect
spec:
networkInterface: {
macvlan: {
mode: "Bridge"
}
}
addresses: [
{
ip: "192.168.12.99/24",
gateway: "192.168.12.1"
}
]
mode: Redirect
redirect: {
redirectRules: [
{
destinationIP: "10.0.0.99",
port: 80,
protocol: UDP
},
{
destinationIP: "203.0.113.26",
port: 8080,
targetPort: 80,
protocol: TCP
},
{
destinationIP: "203.0.113.27",
port: 8443,
targetPort: 443,
protocol: TCP
}
]
}
26.18.2. 리디렉션 모드에서 송신 라우터 배포
송신 라우터 pod를 배포하여 자체 예약된 소스 IP 주소에서 하나 이상의 대상 IP 주소로 트래픽을 리디렉션할 수 있습니다.
송신 라우터 pod를 추가한 후 예약된 소스 IP 주소를 사용해야 하는 클라이언트 pod는 대상 IP에 직접 연결하는 대신 송신 라우터에 연결하도록 수정해야 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
프로세스
- 송신 라우터 정의를 생성합니다.
다른 포드에서 송신 라우터 pod의 IP 주소를 찾을 수 있도록 하려면 다음 예제와 같이 송신 라우터를 사용하는 서비스를 만듭니다.
apiVersion: v1 kind: Service metadata: name: egress-1 spec: ports: - name: web-app protocol: TCP port: 8080 type: ClusterIP selector: app: egress-router-cni <.><.> 송신 라우터의 레이블을 지정합니다. 표시된 값은 Cluster Network Operator에서 추가하며 구성 불가능합니다.
서비스를 생성한 후 포드가 서비스에 연결할 수 있습니다. 송신 라우터 pod는 트래픽을 대상 IP 주소의 해당 포트로 리디렉션합니다. 이 연결은 예약된 소스 IP 주소에서 시작됩니다.
검증
Cluster Network Operator가 송신 라우터를 시작했는지 확인하려면 다음 절차를 완료합니다.
송신 라우터에 대해 Operator가 생성한 네트워크 연결 정의를 확인합니다.
$ oc get network-attachment-definition egress-router-cni-nad
네트워크 연결 정의의 이름은 구성할 수 없습니다.
출력 예
NAME AGE egress-router-cni-nad 18m
송신 라우터 pod에 대한 배포를 확인합니다.
$ oc get deployment egress-router-cni-deployment
배포 이름은 구성할 수 없습니다.
출력 예
NAME READY UP-TO-DATE AVAILABLE AGE egress-router-cni-deployment 1/1 1 1 18m
송신 라우터 pod의 상태를 확인합니다.
$ oc get pods -l app=egress-router-cni
출력 예
NAME READY STATUS RESTARTS AGE egress-router-cni-deployment-575465c75c-qkq6m 1/1 Running 0 18m
- 송신 라우터 pod의 로그 및 라우팅 테이블을 확인합니다.
송신 라우터 pod에 대한 노드 이름을 가져옵니다.
$ POD_NODENAME=$(oc get pod -l app=egress-router-cni -o jsonpath="{.items[0].spec.nodeName}")대상 노드에서 디버그 세션으로 들어갑니다. 이 단계는 <
node_name>-debug라는 디버그Pod를 인스턴스화합니다.$ oc debug node/$POD_NODENAME
디버그 쉘 내에서
/host를 root 디렉터리로 설정합니다. 디버그 Pod는 Pod 내의/host에 호스트의 root 파일 시스템을 마운트합니다. 루트 디렉터리를/host로 변경하면 호스트의 실행 경로에서 바이너리를 실행할 수 있습니다.# chroot /host
chroot환경 콘솔에서 송신 라우터 로그를 표시합니다.# cat /tmp/egress-router-log
출력 예
2021-04-26T12:27:20Z [debug] Called CNI ADD 2021-04-26T12:27:20Z [debug] Gateway: 192.168.12.1 2021-04-26T12:27:20Z [debug] IP Source Addresses: [192.168.12.99/24] 2021-04-26T12:27:20Z [debug] IP Destinations: [80 UDP 10.0.0.99/30 8080 TCP 203.0.113.26/30 80 8443 TCP 203.0.113.27/30 443] 2021-04-26T12:27:20Z [debug] Created macvlan interface 2021-04-26T12:27:20Z [debug] Renamed macvlan to "net1" 2021-04-26T12:27:20Z [debug] Adding route to gateway 192.168.12.1 on macvlan interface 2021-04-26T12:27:20Z [debug] deleted default route {Ifindex: 3 Dst: <nil> Src: <nil> Gw: 10.128.10.1 Flags: [] Table: 254} 2021-04-26T12:27:20Z [debug] Added new default route with gateway 192.168.12.1 2021-04-26T12:27:20Z [debug] Added iptables rule: iptables -t nat PREROUTING -i eth0 -p UDP --dport 80 -j DNAT --to-destination 10.0.0.99 2021-04-26T12:27:20Z [debug] Added iptables rule: iptables -t nat PREROUTING -i eth0 -p TCP --dport 8080 -j DNAT --to-destination 203.0.113.26:80 2021-04-26T12:27:20Z [debug] Added iptables rule: iptables -t nat PREROUTING -i eth0 -p TCP --dport 8443 -j DNAT --to-destination 203.0.113.27:443 2021-04-26T12:27:20Z [debug] Added iptables rule: iptables -t nat -o net1 -j SNAT --to-source 192.168.12.99로깅 파일 위치 및 로깅 수준은 이 프로세스에 설명된 대로
EgressRouter오브젝트를 생성하여 송신 라우터를 시작할 때 구성할 수 없습니다.chroot환경 콘솔에서 컨테이너 ID를 가져옵니다.# crictl ps --name egress-router-cni-pod | awk '{print $1}'출력 예
CONTAINER bac9fae69ddb6
컨테이너의 프로세스 ID를 확인합니다. 이 예에서 컨테이너 ID는
bac9fae69ddb6입니다.# crictl inspect -o yaml bac9fae69ddb6 | grep 'pid:' | awk '{print $2}'출력 예
68857
컨테이너의 네트워크 네임스페이스를 입력합니다.
# nsenter -n -t 68857
라우팅 테이블을 표시합니다.
# ip route
다음 예제 출력에서
net1네트워크 인터페이스가 기본 경로입니다. 클러스터 네트워크의 트래픽은eth0네트워크 인터페이스를 사용합니다.192.168.12.0/24네트워크의 트래픽은net1네트워크 인터페이스를 사용하며 예약된 소스 IP 주소192.168.12.99에서 시작됩니다. 포드는 다른 모든 트래픽을 IP 주소192.168.12.1의 게이트웨이로 라우팅합니다. 서비스 네트워크의 라우팅이 표시되지 않습니다.출력 예
default via 192.168.12.1 dev net1 10.128.10.0/23 dev eth0 proto kernel scope link src 10.128.10.18 192.168.12.0/24 dev net1 proto kernel scope link src 192.168.12.99 192.168.12.1 dev net1
26.19. 프로젝트에 멀티 캐스트 사용
26.19.1. 멀티 캐스트 정보
IP 멀티 캐스트를 사용하면 데이터가 여러 IP 주소로 동시에 브로드캐스트됩니다.
현재 멀티 캐스트는 고 대역폭 솔루션이 아닌 저 대역폭 조정 또는 서비스 검색에 가장 적합합니다.
OpenShift Container Platform Pod 간 멀티 캐스트 트래픽은 기본적으로 비활성화되어 있습니다. OVN-Kubernetes 네트워크 플러그인을 사용하는 경우 프로젝트별로 멀티 캐스트를 활성화할 수 있습니다.
26.19.2. Pod 간 멀티 캐스트 활성화
프로젝트의 Pod 간 멀티 캐스트를 활성화할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할이 있는 사용자로 클러스터에 로그인해야 합니다.
절차
다음 명령을 실행하여 프로젝트에 대한 멀티 캐스트를 활성화합니다. 멀티 캐스트를 활성화하려는 프로젝트의 네임스페이스로 <namespace>를 바꿉니다.
$ oc annotate namespace <namespace> \ k8s.ovn.org/multicast-enabled=true작은 정보다음 YAML을 적용하여 주석을 추가할 수도 있습니다.
apiVersion: v1 kind: Namespace metadata: name: <namespace> annotations: k8s.ovn.org/multicast-enabled: "true"
검증
프로젝트에 멀티 캐스트가 활성화되어 있는지 확인하려면 다음 절차를 완료합니다.
멀티 캐스트를 활성화한 프로젝트로 현재 프로젝트를 변경합니다. <
;project>를 프로젝트 이름으로 바꿉니다.$ oc project <project>
멀티 캐스트 수신자 역할을 할 pod를 만듭니다.
$ cat <<EOF| oc create -f - apiVersion: v1 kind: Pod metadata: name: mlistener labels: app: multicast-verify spec: containers: - name: mlistener image: registry.access.redhat.com/ubi9 command: ["/bin/sh", "-c"] args: ["dnf -y install socat hostname && sleep inf"] ports: - containerPort: 30102 name: mlistener protocol: UDP EOF멀티 캐스트 발신자 역할을 할 pod를 만듭니다.
$ cat <<EOF| oc create -f - apiVersion: v1 kind: Pod metadata: name: msender labels: app: multicast-verify spec: containers: - name: msender image: registry.access.redhat.com/ubi9 command: ["/bin/sh", "-c"] args: ["dnf -y install socat && sleep inf"] EOF새 터미널 창 또는 탭에서 멀티 캐스트 리스너를 시작합니다.
Pod의 IP 주소를 가져옵니다.
$ POD_IP=$(oc get pods mlistener -o jsonpath='{.status.podIP}')다음 명령을 입력하여 멀티 캐스트 리스너를 시작합니다.
$ oc exec mlistener -i -t -- \ socat UDP4-RECVFROM:30102,ip-add-membership=224.1.0.1:$POD_IP,fork EXEC:hostname
멀티 캐스트 송신기를 시작합니다.
Pod 네트워크 IP 주소 범위를 가져옵니다.
$ CIDR=$(oc get Network.config.openshift.io cluster \ -o jsonpath='{.status.clusterNetwork[0].cidr}')멀티 캐스트 메시지를 보내려면 다음 명령을 입력합니다.
$ oc exec msender -i -t -- \ /bin/bash -c "echo | socat STDIO UDP4-DATAGRAM:224.1.0.1:30102,range=$CIDR,ip-multicast-ttl=64"멀티 캐스트가 작동하는 경우 이전 명령은 다음 출력을 반환합니다.
mlistener
26.20. 프로젝트에 대한 멀티 캐스트 비활성화
26.20.1. Pod 간 멀티 캐스트 비활성화
프로젝트의 Pod 간 멀티 캐스트를 비활성화할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할이 있는 사용자로 클러스터에 로그인해야 합니다.
절차
다음 명령을 실행하여 멀티 캐스트를 비활성화합니다.
$ oc annotate namespace <namespace> \ 1 k8s.ovn.org/multicast-enabled-- 1
- 멀티 캐스트를 비활성화하려는 프로젝트의
네임스페이스입니다.
작은 정보다음 YAML을 적용하여 주석을 삭제할 수도 있습니다.
apiVersion: v1 kind: Namespace metadata: name: <namespace> annotations: k8s.ovn.org/multicast-enabled: null
26.21. 네트워크 흐름 추적
클러스터 관리자는 다음 영역을 지원하기 위해 클러스터에서 Pod 네트워크 흐름에 대한 정보를 수집할 수 있습니다.
- pod 네트워크에서 수신 및 송신 트래픽을 모니터링합니다.
- 성능 문제를 해결합니다.
- 용량 계획 및 보안 감사를 위한 데이터를 수집합니다.
네트워크 흐름 컬렉션을 활성화하면 트래픽에 대한 메타데이터만 수집됩니다. 예를 들어 패킷 데이터는 수집되지 않지만 프로토콜, 소스 주소, 대상 주소, 포트 번호, 바이트 수 및 기타 패킷 수준 정보가 수집됩니다.
데이터는 다음 레코드 형식 중 하나로 수집됩니다.
- NetFlow
- sFlow
- IPFIX
하나 이상의 컬렉터 IP 주소와 포트 번호를 사용하여 CNO(Cluster Network Operator)를 구성하는 경우 Operator는 각 노드에 OVS(Open vSwitch)를 구성하여 네트워크 흐름 레코드를 각 컬렉터에 전송합니다.
여러 유형의 네트워크 흐름 수집기로 레코드를 보내도록 Operator를 구성할 수 있습니다. 예를 들어 NetFlow 컬렉터에 레코드를 보내고 레코드를 sFlow 수집기에 전송할 수도 있습니다.
OVS가 수집기에 데이터를 보내면 각 유형의 컬렉터는 동일한 레코드를 수신합니다. 예를 들어 노드의 OVS가 두 개의 NetFlow 컬렉터를 구성하는 경우 두 컬렉터에 동일한 레코드를 보냅니다. 또한 두 개의 sFlow 컬렉터를 구성하는 경우 두 개의 sFlow 수집기는 동일한 레코드를 받습니다. 그러나 각 컬렉터 유형에는 고유한 레코드 형식이 있습니다.
네트워크 흐름 데이터를 수집하고 컬렉터로 레코드를 전송하면 성능에 영향을 미칩니다. 노드는 더 느린 속도로 패킷을 처리합니다. 성능 영향이 너무 크면 컬렉터의 대상을 삭제하여 네트워크 흐름 데이터 수집 및 복원 성능을 비활성화할 수 있습니다.
네트워크 흐름 수집기를 활성화하면 클러스터 네트워크의 전반적인 성능에 영향을 미칠 수 있습니다.
26.21.1. 네트워크 흐름 추적을 위한 네트워크 오브젝트 구성
CNO(Cluster Network Operator)에서 네트워크 흐름 수집기를 구성하는 필드는 다음 표에 표시되어 있습니다.
표 26.13. 네트워크 흐름 구성
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
CNO 개체 이름입니다. 이 이름은 항상 |
|
|
|
|
|
|
| 최대 10개의 컬렉터에 대한 IP 주소 및 네트워크 포트 쌍 목록입니다. |
|
|
| 최대 10개의 컬렉터에 대한 IP 주소 및 네트워크 포트 쌍 목록입니다. |
|
|
| 최대 10개의 컬렉터에 대한 IP 주소 및 네트워크 포트 쌍 목록입니다. |
CNO에 다음 매니페스트를 적용한 후 Operator는 클러스터의 각 노드에서 OVS(Open vSwitch)를 구성하여 네트워크 흐름 레코드를 192.168.1.99:2056 에서 수신 대기하는 NetFlow 수집기로 보냅니다.
네트워크 흐름 추적을 위한 구성 예
apiVersion: operator.openshift.io/v1
kind: Network
metadata:
name: cluster
spec:
exportNetworkFlows:
netFlow:
collectors:
- 192.168.1.99:2056
26.21.2. 네트워크 흐름 수집기 추가
클러스터 관리자는 pod 네트워크에 대한 네트워크 흐름 메타데이터를 네트워크 흐름 수집기로 보내도록 CNO(Cluster Network Operator)를 구성할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 네트워크 흐름 수집기가 있고 수신 대기하는 IP 주소와 포트를 알고 있습니다.
절차
네트워크 흐름 수집기 유형과 컬렉터의 IP 주소 및 포트 정보를 지정하는 패치 파일을 생성합니다.
spec: exportNetworkFlows: netFlow: collectors: - 192.168.1.99:2056네트워크 흐름 수집기를 사용하여 CNO를 구성합니다.
$ oc patch network.operator cluster --type merge -p "$(cat <file_name>.yaml)"
출력 예
network.operator.openshift.io/cluster patched
검증
일반적으로 검증은 필요하지 않습니다. 다음 명령을 실행하여 각 노드의 OVS(Open vSwitch)가 하나 이상의 컬렉터에 네트워크 흐름 레코드를 전송하도록 구성되어 있는지 확인할 수 있습니다.
Operator 구성을 보고
exportNetworkFlows필드가 구성되었는지 확인합니다.$ oc get network.operator cluster -o jsonpath="{.spec.exportNetworkFlows}"출력 예
{"netFlow":{"collectors":["192.168.1.99:2056"]}}각 노드에서 OVS의 네트워크 흐름 구성을 확인합니다.
$ for pod in $(oc get pods -n openshift-ovn-kubernetes -l app=ovnkube-node -o jsonpath='{range@.items[*]}{.metadata.name}{"\n"}{end}'); do ; echo; echo $pod; oc -n openshift-ovn-kubernetes exec -c ovnkube-node $pod \ -- bash -c 'for type in ipfix sflow netflow ; do ovs-vsctl find $type ; done'; done출력 예
ovnkube-node-xrn4p _uuid : a4d2aaca-5023-4f3d-9400-7275f92611f9 active_timeout : 60 add_id_to_interface : false engine_id : [] engine_type : [] external_ids : {} targets : ["192.168.1.99:2056"] ovnkube-node-z4vq9 _uuid : 61d02fdb-9228-4993-8ff5-b27f01a29bd6 active_timeout : 60 add_id_to_interface : false engine_id : [] engine_type : [] external_ids : {} targets : ["192.168.1.99:2056"]- ...
26.21.3. 네트워크 흐름 수집기의 모든 대상 삭제
클러스터 관리자는 네트워크 흐름 수집기로 네트워크 흐름 메타데이터를 중지하도록 CNO(Cluster Network Operator)를 구성할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다.
절차
모든 네트워크 흐름 수집기를 제거합니다.
$ oc patch network.operator cluster --type='json' \ -p='[{"op":"remove", "path":"/spec/exportNetworkFlows"}]'출력 예
network.operator.openshift.io/cluster patched
26.21.4. 추가 리소스
26.22. 하이브리드 네트워킹 구성
클러스터 관리자는 Linux 및 Windows 노드에서 각각 Linux 및 Windows 워크로드를 호스팅할 수 있도록 Red Hat OpenShift Networking OVN-Kubernetes 네트워크 플러그인을 구성할 수 있습니다.
26.22.1. OVN-Kubernetes로 하이브리드 네트워킹 구성
OVN-Kubernetes 네트워크 플러그인에서 하이브리드 네트워킹을 사용하도록 클러스터를 구성할 수 있습니다. 이를 통해 다양한 노드 네트워킹 구성을 지원하는 하이브리드 클러스터를 사용할 수 있습니다.
이 구성은 동일한 클러스터에서 Linux 및 Windows 노드를 모두 실행하려면 필요합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 클러스터에 로그인합니다. - 클러스터가 OVN-Kubernetes 네트워크 플러그인을 사용하는지 확인합니다.
프로세스
OVN-Kubernetes 하이브리드 네트워크 오버레이를 구성하려면 다음 명령을 입력합니다.
$ oc patch networks.operator.openshift.io cluster --type=merge \ -p '{ "spec":{ "defaultNetwork":{ "ovnKubernetesConfig":{ "hybridOverlayConfig":{ "hybridClusterNetwork":[ { "cidr": "<cidr>", "hostPrefix": <prefix> } ], "hybridOverlayVXLANPort": <overlay_port> } } } } }'다음과 같습니다.
cidr- 추가 오버레이 네트워크의 노드에 사용되는 CIDR 구성을 지정합니다. 이 CIDR은 클러스터 네트워크 CIDR과 중복될 수 없습니다.
hostPrefix-
각 개별 노드에 할당할 서브넷 접두사 길이를 지정합니다. 예를 들어
hostPrefix를23으로 설정하면 지정된cidr이외/23서브넷이 각 노드에 할당되어 510(2^(32 - 23) - 2) Pod IP 주소가 허용됩니다. 외부 네트워크에서 노드에 액세스해야 하는 경우 트래픽을 관리하도록 로드 밸런서와 라우터를 구성합니다. hybridOverlayVXLANPort-
추가 오버레이 네트워크에 대한 사용자 정의 VXLAN 포트를 지정합니다. 이는 vSphere에 설치된 클러스터에서 Windows 노드를 실행해야 하며 다른 클라우드 공급자에 대해 구성해서는 안 됩니다. 사용자 정의 포트는 기본
4789포트를 제외한 모든 열려 있는 포트일 수 있습니다. 이 요구 사항에 대한 자세한 내용은 호스트 간의 포드 투 포트 연결 중단에 대한 Microsoft 문서를 참조하십시오.
참고Windows Server LTSC(Long-Term Servicing Channel): 이 Windows 서버 버전이 사용자 지정 VXLAN 포트 선택을 지원하지 않기 때문에 사용자 지정
hybridOverlayVXLANPort값이 있는 클러스터에서 Windows Server 2019가 지원되지 않습니다.출력 예
network.operator.openshift.io/cluster patched
구성이 활성 상태인지 확인하려면 다음 명령을 입력합니다. 업데이트가 적용되려면 몇 분 정도 걸릴 수 있습니다.
$ oc get network.operator.openshift.io -o jsonpath="{.items[0].spec.defaultNetwork.ovnKubernetesConfig}"
26.22.2. 추가 리소스
27장. OpenShift SDN 네트워크 플러그인
27.1. OpenShift SDN 네트워크 플러그인 정보
Red Hat OpenShift Networking의 일부인 OpenShift SDN은 소프트웨어 정의 네트워킹(SDN) 접근법을 사용하여 OpenShift Container Platform 클러스터 전체의 포드 간 통신이 가능한 통합 클러스터 네트워크를 제공하는 네트워크 플러그인입니다. 이 pod 네트워크는 OVS(Open vSwitch)를 사용하여 오버레이 네트워크를 구성하는 OpenShift SDN에 의해 설정 및 유지 관리됩니다.
27.1.1. OpenShift SDN 네트워크 격리 모드
OpenShift SDN은 pod 네트워크 구성을 위한 세 가지 SDN 모드를 제공합니다.
-
네트워크 정책 모드를 사용하면 프로젝트 관리자가
NetworkPolicy오브젝트를 사용하여 자체 격리 정책을 구성할 수 있습니다. 네트워크 정책은 OpenShift Container Platform 4.13의 기본 모드입니다. - 다중 테넌트 모드를 사용하면 Pod 및 서비스에 대한 프로젝트 수준 격리를 제공합니다. 다른 프로젝트의 Pod는 다른 프로젝트의 Pod 및 Service에서 패킷을 보내거나 받을 수 없습니다. 프로젝트에 대한 격리를 비활성화하여 전체 클러스터의 모든 pod 및 service에 네트워크 트래픽을 보내고 해당 pod 및 service로부터 네트워크 트래픽을 수신할 수 있습니다.
- 서브넷 모드는 모든 Pod가 다른 모든 Pod 및 서비스와 통신할 수 있는 플랫 Pod 네트워크를 제공합니다. 네트워크 정책 모드는 서브넷 모드와 동일한 기능을 제공합니다.
27.1.2. 지원되는 네트워크 플러그인 기능 매트릭스
Red Hat OpenShift Networking은 네트워크 플러그인에 대해 네트워크 플러그인의 두 가지 옵션인 OpenShift SDN 및 OVN-Kubernetes를 제공합니다. 다음 표에는 두 네트워크 플러그인에 대한 현재 기능 지원이 요약되어 있습니다.
표 27.1. 기본 CNI 네트워크 플러그인 기능 비교
| 기능 | OpenShift SDN | OVN-Kubernetes |
|---|---|---|
| 송신 IP | 지원됨 | 지원됨 |
| 송신 방화벽 [1] | 지원됨 | 지원됨 |
| 송신 라우터 | 지원됨 | 지원됨 [2] |
| 하이브리드 네트워킹 | 지원되지 않음 | 지원됨 |
| IPsec 암호화 | 지원되지 않음 | 지원됨 |
| IPv6 | 지원되지 않음 | 지원됨 [3 ] |
| Kubernetes 네트워크 정책 | 지원됨 | 지원됨 |
| Kubernetes 네트워크 정책 로그 | 지원되지 않음 | 지원됨 |
| 멀티 캐스트 | 지원됨 | 지원됨 |
| 하드웨어 오프로드 | 지원되지 않음 | 지원됨 |
- 송신 방화벽은 OpenShift SDN에서 송신 네트워크 정책이라고도 합니다. 이것은 네트워크 정책 송신과 동일하지 않습니다.
- OVN-Kubernetes용 송신 라우터는 리디렉션 모드만 지원합니다.
- IPv6는 베어 메탈, IBM Power 및 IBM Z 클러스터에서만 지원됩니다.
- IPv6 단일 스택은 Kubernetes NMState 를 지원하지 않습니다.
27.2. OpenShift SDN 네트워크 플러그인으로 마이그레이션
클러스터 관리자는 OVN-Kubernetes 네트워크 플러그인에서 OpenShift SDN 네트워크 플러그인으로 마이그레이션할 수 있습니다.
OpenShift SDN에 대한 자세한 내용은 OpenShift SDN 네트워크 플러그인 정보를 참조하십시오.
27.2.1. 마이그레이션 프로세스의 작동 방식
다음 표는 프로세스의 사용자 시작 단계와 마이그레이션이 수행하는 작업 간에 분할하여 마이그레이션 프로세스를 요약합니다.
표 27.2. OVN-Kubernetes에서 OpenShift SDN으로 마이그레이션
| 사용자 시작 단계 | 마이그레이션 활동 |
|---|---|
|
|
|
|
|
|
| 클러스터의 각 노드를 재부팅합니다. |
|
27.2.2. OpenShift SDN 네트워크 플러그인으로 마이그레이션
클러스터 관리자는 OpenShift SDN CNI(Container Network Interface) 네트워크 플러그인으로 마이그레이션할 수 있습니다. 마이그레이션 중에 클러스터의 모든 노드를 재부팅해야 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할의 사용자로 클러스터에 액세스합니다. - OVN-Kubernetes 네트워크 플러그인으로 구성된 인프라에 설치된 클러스터입니다.
- etcd 데이터베이스의 최근 백업을 사용할 수 있습니다.
- 각 노드에 대해 재부팅을 수동으로 트리거할 수 있습니다.
- 클러스터가 오류 없이 알려진 정상 상태입니다.
절차
MCO(Machine Config Operator)에서 관리하는 모든 머신 구성 풀을 중지합니다.
마스터 구성 풀을 중지합니다.
$ oc patch MachineConfigPool master --type='merge' --patch \ '{ "spec": { "paused": true } }'작업자 머신 구성 풀을 중지합니다.
$ oc patch MachineConfigPool worker --type='merge' --patch \ '{ "spec":{ "paused": true } }'
마이그레이션을 준비하려면 다음 명령을 입력하여 migration 필드를
null로 설정합니다.$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": null } }'마이그레이션을 시작하려면 다음 명령을 입력하여 네트워크 플러그인을 OpenShift SDN으로 다시 설정합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": { "networkType": "OpenShiftSDN" } } }' $ oc patch Network.config.openshift.io cluster --type='merge' \ --patch '{ "spec": { "networkType": "OpenShiftSDN" } }'선택 사항: OpenShift SDN에 해당하는 여러 OVN-Kubernetes 기능의 자동 마이그레이션을 비활성화할 수 있습니다.
- 송신 IP
- 송신 방화벽
- 멀티 캐스트
이전에 명시된 OpenShift SDN 기능에 대한 구성 자동 마이그레이션을 비활성화하려면 다음 키를 지정합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": { "networkType": "OpenShiftSDN", "features": { "egressIP": <bool>, "egressFirewall": <bool>, "multicast": <bool> } } } }'다음과 같습니다.
bool: 기능의 마이그레이션을 활성화할지 여부를 지정합니다. 기본값은true입니다.선택 사항: OpenShift SDN에 대해 네트워크 인프라 요구 사항을 충족하도록 다음 설정을 사용자 정의할 수 있습니다.
- 최대 전송 단위(MTU)
- VXLAN 포트
이전에 명시된 설정 중 하나 또는 둘 다 사용자 정의하려면 사용자 정의하고 다음 명령을 입력합니다. 기본값을 변경할 필요가 없는 경우 패치에서 키를 생략합니다.
$ oc patch Network.operator.openshift.io cluster --type=merge \ --patch '{ "spec":{ "defaultNetwork":{ "openshiftSDNConfig":{ "mtu":<mtu>, "vxlanPort":<port> }}}}'mtu- VXLAN 오버레이 네트워크의 MTU입니다.
port- VXLAN 오버레이 네트워크용 UDP 포트입니다. 이 포트는 OVN-Kubernetes에서 사용하는 Geneve 포트와 같을 수 없습니다.
패치 명령 예
$ oc patch Network.operator.openshift.io cluster --type=merge \ --patch '{ "spec":{ "defaultNetwork":{ "openshiftSDNConfig":{ "mtu":1200 }}}}'Multus 데몬 세트 롤아웃이 완료될 때까지 기다립니다.
$ oc -n openshift-multus rollout status daemonset/multus
포드를 다시 시작하는 데 시간이 다소 걸릴 수 있습니다.
출력 예
Waiting for daemon set "multus" rollout to finish: 1 out of 6 new pods have been updated... ... Waiting for daemon set "multus" rollout to finish: 5 of 6 updated pods are available... daemon set "multus" successfully rolled out
#!/bin/bash readarray -t POD_NODES <<< "$(oc get pod -n openshift-machine-config-operator -o wide| grep daemon|awk '{print $1" "$7}')" for i in "${POD_NODES[@]}" do read -r POD NODE <<< "$i" until oc rsh -n openshift-machine-config-operator "$POD" chroot /rootfs shutdown -r +1 do echo "cannot reboot node $NODE, retry" && sleep 3 done done#!/bin/bash for ip in $(oc get nodes -o jsonpath='{.items[*].status.addresses[?(@.type=="InternalIP")].address}') do echo "reboot node $ip" ssh -o StrictHostKeyChecking=no core@$ip sudo shutdown -r -t 3 done
클러스터의 노드가 재부팅된 후 모든 머신 구성 풀을 시작합니다.
마스터 구성 풀을 시작합니다.
$ oc patch MachineConfigPool master --type='merge' --patch \ '{ "spec": { "paused": false } }'작업자 구성 풀을 시작합니다.
$ oc patch MachineConfigPool worker --type='merge' --patch \ '{ "spec": { "paused": false } }'
MCO는 각 구성 풀에서 머신을 업데이트하므로 각 노드를 재부팅합니다.
기본적으로 MCO는 한 번에 풀당 단일 머신을 업데이트하므로 마이그레이션이 완료하는 데 필요한 시간은 클러스터 크기와 함께 증가합니다.
호스트의 새 머신 구성 상태를 확인합니다.
머신 구성 상태 및 적용된 머신 구성 이름을 나열하려면 다음 명령을 입력합니다.
$ oc describe node | egrep "hostname|machineconfig"
출력 예
kubernetes.io/hostname=master-0 machineconfiguration.openshift.io/currentConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/desiredConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/reason: machineconfiguration.openshift.io/state: Done
다음 구문이 올바른지 확인합니다.
머신 구성이 올바른지 확인하려면 다음 명령을 입력합니다.
$ oc get machineconfig <config_name> -o yaml
마이그레이션이 성공했는지 확인합니다.
네트워크 플러그인이 OpenShift SDN인지 확인하려면 다음 명령을 입력합니다.
$ oc get network.config/cluster -o jsonpath='{.status.networkType}{"\n"}'$ oc get nodes
포드를 나열하려면 다음 명령을 입력합니다.
$ oc get pod -n openshift-machine-config-operator
출력 예
NAME READY STATUS RESTARTS AGE machine-config-controller-75f756f89d-sjp8b 1/1 Running 0 37m machine-config-daemon-5cf4b 2/2 Running 0 43h machine-config-daemon-7wzcd 2/2 Running 0 43h machine-config-daemon-fc946 2/2 Running 0 43h machine-config-daemon-g2v28 2/2 Running 0 43h machine-config-daemon-gcl4f 2/2 Running 0 43h machine-config-daemon-l5tnv 2/2 Running 0 43h machine-config-operator-79d9c55d5-hth92 1/1 Running 0 37m machine-config-server-bsc8h 1/1 Running 0 43h machine-config-server-hklrm 1/1 Running 0 43h machine-config-server-k9rtx 1/1 Running 0 43h
이전 출력에 표시된 각 머신 구성 데몬 포드에 대한 포드 로그를 표시하려면 다음 명령을 입력합니다.
$ oc logs <pod> -n openshift-machine-config-operator
- 이전 명령의 출력에 표시된 로그의 오류를 해결합니다.
Pod가 오류 상태가 아닌지 확인하려면 다음 명령을 입력합니다.
$ oc get pods --all-namespaces -o wide --sort-by='{.spec.nodeName}'노드의 Pod가 오류 상태인 경우 해당 노드를 재부팅합니다.
마이그레이션이 성공하고 클러스터가 양호한 상태인 경우에만 다음 단계를 완료합니다.
Cluster Network Operator 구성 오브젝트에서 마이그레이션 구성을 제거하려면 다음 명령을 입력합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": null } }'OVN-Kubernetes 구성을 제거하려면 다음 명령을 입력합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "defaultNetwork": { "ovnKubernetesConfig":null } } }'OVN-Kubernetes 네트워크 공급자 네임스페이스를 제거하려면 다음 명령을 입력합니다.
$ oc delete namespace openshift-ovn-kubernetes
27.2.3. 추가 리소스
27.3.
27.3.1. OVN-Kubernetes 네트워크 플러그인으로 마이그레이션
클러스터 관리자는 클러스터의 네트워크 플러그인을 OVN-Kubernetes로 변경할 수 있습니다. 마이그레이션하는 동안 클러스터의 모든 노드를 재부팅해야 합니다.
마이그레이션을 수행하는 동안 클러스터를 사용할 수 없으며 워크로드가 중단될 수 있습니다. 서비스 중단이 허용되는 경우에만 마이그레이션을 수행합니다.
사전 요구 사항
- 네트워크 정책 격리 모드에서 OpenShift SDN CNI 네트워크 플러그인으로 구성된 클러스터입니다.
-
OpenShift CLI(
oc)를 설치합니다. - etcd 데이터베이스의 최근 백업을 사용할 수 있습니다.
- 각 노드에 대해 재부팅을 수동으로 트리거할 수 있습니다.
- 클러스터가 오류 없이 알려진 정상 상태입니다.
프로세스
클러스터 네트워크의 구성을 백업하려면 다음 명령을 입력합니다.
$ oc get Network.config.openshift.io cluster -o yaml > cluster-openshift-sdn.yaml
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": { "networkType": "OVNKubernetes" } } }'참고이 단계는 OVN-Kubernetes를 즉시 배포하지 않습니다.
선택 사항: OVN-쿠버네티스에 대한 여러 OpenShift SDN 기능의 자동 마이그레이션을 비활성화할 수 있습니다.
- 송신 IP
- 송신 방화벽
- 멀티 캐스트
이전에 명시된 OpenShift SDN 기능에 대한 구성 자동 마이그레이션을 비활성화하려면 다음 키를 지정합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": { "networkType": "OVNKubernetes", "features": { "egressIP": <bool>, "egressFirewall": <bool>, "multicast": <bool> } } } }'다음과 같습니다.
기본값은
true입니다.선택 사항: OVN-Kubernetes에 대해 다음 설정을 사용자 정의하여 네트워크 인프라 요구 사항을 충족할 수 있습니다.
- 최대 전송 단위(MTU)
- Geneve(Generic Network Virtualization Encapsulation) 오버레이 네트워크 포트
- OVN-Kubernetes IPv4 내부 서브넷
- OVN-Kubernetes IPv6 내부 서브넷
이전에 명시된 설정 중 하나를 사용자 정의하려면 다음 명령을 입력하고 사용자 정의합니다. 기본값을 변경할 필요가 없는 경우 패치에서 키를 생략합니다.
$ oc patch Network.operator.openshift.io cluster --type=merge \ --patch '{ "spec":{ "defaultNetwork":{ "ovnKubernetesConfig":{ "mtu":<mtu>, "genevePort":<port>, "v4InternalSubnet":"<ipv4_subnet>", "v6InternalSubnet":"<ipv6_subnet>" }}}}'다음과 같습니다.
mtu- Geneve 오버레이 네트워크용 MTU입니다.
port- Geneve 오버레이 네트워크용 UDP 포트입니다. 이 포트는 OpenShift SDN에서 사용하는 VXLAN 포트와 같을 수 없습니다.
ipv4_subnet- OVN-Kubernetes에서 내부용으로 사용할 IPv4 주소 범위입니다. IP 주소 범위가 OpenShift Container Platform 설치에 사용된 다른 서브넷과 겹치지 않도록 해야 합니다. IP 주소 범위는 클러스터에 추가할 수 있는 최대 노드 수보다 커야 합니다.
ipv6_subnet- OVN-Kubernetes에서 내부용으로 사용할 IPv6 주소 범위입니다. IP 주소 범위가 OpenShift Container Platform 설치에 사용된 다른 서브넷과 겹치지 않도록 해야 합니다. IP 주소 범위는 클러스터에 추가할 수 있는 최대 노드 수보다 커야 합니다.
$ oc patch Network.operator.openshift.io cluster --type=merge \ --patch '{ "spec":{ "defaultNetwork":{ "ovnKubernetesConfig":{ "mtu":1200 }}}}'MCO는 각 머신 구성 풀의 머신을 업데이트할 때 각 노드를 하나씩 재부팅합니다. 모든 노드가 업데이트될 때까지 기다려야 합니다. 다음 명령을 입력하여 머신 구성 풀 상태를 확인합니다.
$ oc get mcp
참고기본적으로 MCO는 풀당 한 번에 하나의 시스템을 업데이트하므로 클러스터 크기에 따라 마이그레이션에 걸리는 총 시간이 증가합니다.
호스트의 새 머신 구성 상태를 확인합니다.
머신 구성 상태 및 적용된 머신 구성 이름을 나열하려면 다음 명령을 입력합니다.
$ oc describe node | egrep "hostname|machineconfig"
출력 예
kubernetes.io/hostname=master-0 machineconfiguration.openshift.io/currentConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/desiredConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b machineconfiguration.openshift.io/reason: machineconfiguration.openshift.io/state: Done
다음 구문이 올바른지 확인합니다.
머신 구성이 올바른지 확인하려면 다음 명령을 입력합니다.
$ oc get machineconfig <config_name> -o yaml | grep ExecStart
머신 구성은 다음 업데이트를 systemd 구성에 포함해야 합니다.
ExecStart=/usr/local/bin/configure-ovs.sh OVNKubernetes
포드를 나열하려면 다음 명령을 입력합니다.
$ oc get pod -n openshift-machine-config-operator
출력 예
NAME READY STATUS RESTARTS AGE machine-config-controller-75f756f89d-sjp8b 1/1 Running 0 37m machine-config-daemon-5cf4b 2/2 Running 0 43h machine-config-daemon-7wzcd 2/2 Running 0 43h machine-config-daemon-fc946 2/2 Running 0 43h machine-config-daemon-g2v28 2/2 Running 0 43h machine-config-daemon-gcl4f 2/2 Running 0 43h machine-config-daemon-l5tnv 2/2 Running 0 43h machine-config-operator-79d9c55d5-hth92 1/1 Running 0 37m machine-config-server-bsc8h 1/1 Running 0 43h machine-config-server-hklrm 1/1 Running 0 43h machine-config-server-k9rtx 1/1 Running 0 43h
다음 명령을 입력하여 이전 출력에 표시된 첫 번째 머신 구성 데몬 포드에 대한 포드 로그를 표시합니다.
$ oc logs <pod> -n openshift-machine-config-operator
- 이전 명령의 출력에 표시된 로그의 오류를 해결합니다.
마이그레이션을 시작하려면 다음 명령 중 하나를 사용하여 OVN-Kubernetes 네트워크 플러그인을 구성합니다.
클러스터 네트워크 IP 주소 블록을 변경하지 않고 네트워크 공급자를 지정하려면 다음 명령을 입력합니다.
$ oc patch Network.config.openshift.io cluster \ --type='merge' --patch '{ "spec": { "networkType": "OVNKubernetes" } }'다른 클러스터 네트워크 IP 주소 블록을 지정하려면 다음 명령을 입력합니다.
$ oc patch Network.config.openshift.io cluster \ --type='merge' --patch '{ "spec": { "clusterNetwork": [ { "cidr": "<cidr>", "hostPrefix": <prefix> } ], "networkType": "OVNKubernetes" } }'중요마이그레이션 중에 서비스 네트워크 주소 블록을 변경할 수 없습니다.
후속 단계를 계속 진행하기 전에 Multus 데몬 세트 롤아웃이 완료되었는지 확인합니다.
$ oc -n openshift-multus rollout status daemonset/multus
포드를 다시 시작하는 데 시간이 다소 걸릴 수 있습니다.
출력 예
Waiting for daemon set "multus" rollout to finish: 1 out of 6 new pods have been updated... ... Waiting for daemon set "multus" rollout to finish: 5 of 6 updated pods are available... daemon set "multus" successfully rolled out
#!/bin/bash readarray -t POD_NODES <<< "$(oc get pod -n openshift-machine-config-operator -o wide| grep daemon|awk '{print $1" "$7}')" for i in "${POD_NODES[@]}" do read -r POD NODE <<< "$i" until oc rsh -n openshift-machine-config-operator "$POD" chroot /rootfs shutdown -r +1 do echo "cannot reboot node $NODE, retry" && sleep 3 done done#!/bin/bash for ip in $(oc get nodes -o jsonpath='{.items[*].status.addresses[?(@.type=="InternalIP")].address}') do echo "reboot node $ip" ssh -o StrictHostKeyChecking=no core@$ip sudo shutdown -r -t 3 done
마이그레이션이 성공했는지 확인합니다.
네트워크 플러그인이 OVN-Kubernetes인지 확인하려면 다음 명령을 입력합니다.
$ oc get network.config/cluster -o jsonpath='{.status.networkType}{"\n"}'$ oc get nodes
Pod가 오류 상태가 아닌지 확인하려면 다음 명령을 입력합니다.
$ oc get pods --all-namespaces -o wide --sort-by='{.spec.nodeName}'노드의 Pod가 오류 상태인 경우 해당 노드를 재부팅합니다.
모든 클러스터 Operator가 비정상적인 상태가 아닌지 확인하려면 다음 명령을 입력합니다.
$ oc get co
클러스터 Operator를 사용할 수 없거나 성능이 저하된 경우 자세한 내용은 클러스터 Operator의 로그를 확인합니다.
마이그레이션이 성공하고 클러스터가 양호한 상태인 경우에만 다음 단계를 완료합니다.
CNO 구성 오브젝트에서 마이그레이션 구성을 제거하려면 다음 명령을 입력합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "migration": null } }'OpenShift SDN 네트워크 제공자에 대한 사용자 정의 구성을 제거하려면 다음 명령을 입력합니다.
$ oc patch Network.operator.openshift.io cluster --type='merge' \ --patch '{ "spec": { "defaultNetwork": { "openshiftSDNConfig": null } } }'OpenShift SDN 네트워크 공급자 네임스페이스를 제거하려면 다음 명령을 입력합니다.
$ oc delete namespace openshift-sdn
27.4. 프로젝트의 송신 IP 구성
클러스터 관리자는 OpenShift SDN CNI(Container Network Interface) 네트워크 플러그인을 구성하여 하나 이상의 송신 IP 주소를 프로젝트에 할당할 수 있습니다.
27.4.1. 송신 IP 주소 아키텍처 설계 및 구현
OpenShift Container Platform 송신 IP 주소 기능을 사용하면 하나 이상의 네임스페이스에 있는 하나 이상의 Pod에서 발생하는 트래픽의 소스 IP 주소가 클러스터 네트워크 외부 서비스에 일관되게 표시되도록 할 수 있습니다.
예를 들어 클러스터 외부 서버에서 호스팅되는 데이터베이스를 주기적으로 쿼리하는 Pod가 있을 수 있습니다. 서버에 대한 액세스 요구 사항을 적용하기 위해 패킷 필터링 장치는 특정 IP 주소의 트래픽만 허용하도록 구성됩니다. 특정 Pod에서만 서버에 안정적으로 액세스할 수 있도록 허용하려면 서버에 요청하는 Pod에 대해 특정 송신 IP 주소를 구성하면 됩니다.
네임스페이스에 할당된 송신 IP 주소는 특정 대상으로 트래픽을 보내는 데 사용되는 송신 라우터와 다릅니다.
일부 클러스터 구성에서 애플리케이션 Pod 및 수신 라우터 Pod는 동일한 노드에서 실행됩니다. 이 시나리오에서 애플리케이션 프로젝트의 송신 IP 주소를 구성하면 애플리케이션 프로젝트의 경로에 요청을 보낼 때 IP 주소가 사용되지 않습니다.
송신 IP 주소는 노드의 기본 네트워크 인터페이스에서 추가 IP 주소로 구현되며 노드의 기본 IP 주소와 동일한 서브넷에 있어야 합니다. 추가 IP 주소를 클러스터의 다른 노드에 할당해서는 안 됩니다.
송신 IP 주소는 ifcfg-eth0 과 같은 Linux 네트워크 구성 파일에서 구성해서는 안 됩니다.
27.4.1.1. 플랫폼 지원
다음 표에는 다양한 플랫폼의 송신 IP 주소 기능에 대한 지원이 요약되어 있습니다.
| 플랫폼 | 지원됨 |
|---|---|
| 베어 메탈 | 제공됨 |
| VMware vSphere | 제공됨 |
| Red Hat OpenStack Platform (RHOSP) | 제공됨 |
| AWS(Amazon Web Services) | 제공됨 |
| GCP(Google Cloud Platform) | 제공됨 |
| Microsoft Azure | 제공됨 |
|
| 제공됨 |
|
| 제공됨 |
| IBM Power | 제공됨 |
EgressIP 기능을 사용하여 컨트롤 플레인 노드에 송신 IP 주소 할당은 AWS(Amazon Web Services)에서 프로비저닝된 클러스터에서 지원되지 않습니다. (BZ#2039656)
27.4.1.2. 퍼블릭 클라우드 플랫폼 고려 사항
퍼블릭 클라우드 인프라에 프로비저닝된 클러스터의 경우 노드당 할당 가능한 IP 주소 수에 제약 조건이 있습니다. 노드당 할당 가능한 최대 IP 주소 수 또는 IP 용량은 다음 공식에서 설명할 수 있습니다.
IP capacity = public cloud default capacity - sum(current IP assignments)
Egress IPs 기능은 노드당 IP 주소 용량을 관리하지만 배포에서 이 제약 조건을 계획해야 합니다. 예를 들어 8개의 노드로 베어 메탈 인프라에 설치된 클러스터의 경우 150개 송신 IP 주소를 구성할 수 있습니다. 그러나 퍼블릭 클라우드 공급자가 노드당 IP 주소 용량을 10개로 제한하는 경우 할당 가능한 총 IP 주소 수는 80입니다. 이 예제 클라우드 공급자에서 동일한 IP 주소 용량을 얻으려면 7 개의 추가 노드를 할당해야 합니다.
퍼블릭 클라우드 환경에서 모든 노드의 IP 용량과 서브넷을 확인하려면 oc get node <node_name> -o yaml 명령을 입력합니다. cloud.network.openshift.io/egress-ipconfig 주석에는 노드의 용량 및 서브넷 정보가 포함됩니다.
주석 값은 기본 네트워크 인터페이스에 대해 다음 정보를 제공하는 필드가 있는 단일 오브젝트가 있는 배열입니다.
-
Interface: AWS 및 Azure의 인터페이스 ID와 GCP의 인터페이스 이름을 지정합니다. -
ifaddr: 하나 또는 둘 다 IP 주소 제품군에 대해 서브넷 마스크를 지정합니다. -
capacity: 노드의 IP 주소 용량을 지정합니다. AWS에서는 IP 주소 제품군별로 IP 주소 용량이 제공됩니다. Azure 및 GCP에서 IP 주소 용량에는 IPv4 및 IPv6 주소가 모두 포함됩니다.
노드 간 트래픽에 대한 송신 IP 주소 자동 연결 및 분리를 사용할 수 있습니다. 이렇게 하면 네임스페이스의 많은 Pod에서 트래픽이 클러스터 외부의 위치와 일관된 소스 IP 주소를 가질 수 있습니다. 이는 OpenShift Container Platform 4.13의 Red Hat OpenShift Networking의 기본 네트워킹 플러그인인 OpenShift SDN 및 OVN-Kubernetes도 지원합니다.
RHOSP 송신 IP 주소 기능은 egressip-<IP address>라고 하는 Neutron 예약 포트를 생성합니다. OpenShift Container Platform 클러스터 설치에 사용된 RHOSP 사용자와 동일한 RHOSP 사용자를 사용하면 이 예약 포트에 유동 IP 주소를 할당하여 송신 트래픽에 대해 예측 가능한 SNAT 주소를 보유할 수 있습니다. RHOSP 네트워크의 송신 IP 주소가 한 노드에서 다른 노드로 이동되면 노드 장애 조치로 인해 Neutron 예약 포트가 제거되고 다시 생성됩니다. 즉, 유동 IP 연결이 손실되고 유동 IP 주소를 새 예약 포트에 수동으로 다시 할당해야 합니다.
다음 예제에서는 여러 퍼블릭 클라우드 공급자에 있는 노드의 주석을 보여줍니다. 가독성을 위해 주석이 들여쓰기됩니다.
AWS의 cloud.network.openshift.io/egress-ipconfig 주석 예
cloud.network.openshift.io/egress-ipconfig: [
{
"interface":"eni-078d267045138e436",
"ifaddr":{"ipv4":"10.0.128.0/18"},
"capacity":{"ipv4":14,"ipv6":15}
}
]
GCP의 cloud.network.openshift.io/egress-ipconfig 주석 예
cloud.network.openshift.io/egress-ipconfig: [
{
"interface":"nic0",
"ifaddr":{"ipv4":"10.0.128.0/18"},
"capacity":{"ip":14}
}
]
다음 섹션에서는 용량 계산에 사용할 지원되는 퍼블릭 클라우드 환경에 대한 IP 주소 용량을 설명합니다.
27.4.1.2.1. AWS(Amazon Web Services) IP 주소 용량 제한
AWS에서 IP 주소 할당에 대한 제약 조건은 구성된 인스턴스 유형에 따라 달라집니다. 자세한 내용은 인스턴스 유형당 네트워크 인터페이스당 IP 주소를참조하십시오.
27.4.1.2.2. GCP(Google Cloud Platform) IP 주소 용량 제한
GCP에서 네트워킹 모델은 IP 주소 할당이 아닌 IP 주소 별칭을 통해 추가 노드 IP 주소를 구현합니다. 그러나 IP 주소 용량은 IP 별칭 용량에 직접 매핑됩니다.
IP 별칭 할당을 위해 다음 용량 제한이 있습니다.
- VPC당 최대 IP 별칭은 지정되지 않지만 OpenShift Container Platform 확장성 테스트에서는 최대 IP가 약 15,000개임을 보여줍니다.
자세한 내용은 Per instance Quota and Alias IP ranges overview 를 참조하십시오.
27.4.1.2.3. Microsoft Azure IP 주소 용량 제한
Azure에서 IP 주소 할당에 대해 다음 용량 제한이 있습니다.
- NIC당 IPv4 및 IPv6의 할당 가능 IP 주소의 최대 수는 256입니다.
- 가상 네트워크당 할당된 IP 주소의 최대 수는 65,536개를 초과할 수 없습니다.
자세한 내용은 네트워킹 제한 항목을 참조하십시오.
27.4.1.3. 제한
다음 제한 사항은 OpenShift SDN 네트워크 플러그인과 함께 송신 IP 주소를 사용하는 경우 적용됩니다.
- 동일한 노드에서 수동 할당 및 자동 할당 송신 IP 주소를 사용할 수 없습니다.
- IP 주소 범위에서 송신 IP 주소를 수동으로 할당하는 경우 해당 범위를 자동 IP 할당에 사용할 수 있도록 설정해서는 안 됩니다.
- OpenShift SDN 송신 IP 주소 구현을 사용하여 여러 네임스페이스에서 송신 IP 주소를 공유할 수 없습니다.
네임스페이스 간에 IP 주소를 공유해야 하는 경우 OVN-Kubernetes 네트워크 플러그인 송신 IP 주소 구현을 통해 여러 네임스페이스에서 IP 주소를 확장할 수 있습니다.
다중 테넌트 모드에서 OpenShift SDN을 사용하는 경우 연결된 프로젝트에 의해 다른 네임스페이스에 조인된 네임스페이스와 함께 송신 IP 주소를 사용할 수 없습니다. 예를 들어 oc adm pod-network join-projects --to= 를 조인하면 두 프로젝트 모두 송신 IP 주소를 사용할 수 없습니다. 자세한 내용은 BZ#1645577를 참조하십시오.
project1 project2 명령을 실행하여 project1 및 project2
27.4.1.4. IP 주소 할당 접근 방식
NetNamespace 오브젝트의 egressIPs 매개변수를 설정하여 네임스페이스에 송신 IP 주소를 할당할 수 있습니다. 송신 IP 주소가 프로젝트와 연결된 후 OpenShift SDN을 사용하면 다음 두 가지 방법으로 송신 IP 주소를 호스트에 할당할 수 있습니다.
- 자동 할당 방식에서 송신 IP 주소 범위가 노드에 할당됩니다.
- 수동 할당 방식에서는 하나 이상의 송신 IP 주소 목록이 노드에 할당됩니다.
송신 IP 주소를 요청하는 네임스페이스는 해당 송신 IP 주소를 호스트할 수 있는 노드와 일치되며 송신 IP 주소가 해당 노드에 할당됩니다. egressIPs 매개변수가 NetNamespace 오브젝트에 설정되었지만 IP 주소를 송신하는 노드 호스트가 없는 경우 네임스페이스에서 송신하는 트래픽이 삭제됩니다.
노드의 고가용성은 자동입니다. 송신 IP 주소를 호스팅하는 노드에 도달할 수 없고 해당 송신 IP 주소를 호스트할 수 있는 노드가 있으면 송신 IP 주소가 새 노드로 이동합니다. 연결할 수 없는 노드가 다시 온라인 상태가 되면 송신 IP 주소가 자동으로 이동하여 노드 간에 송신 IP 주소의 균형을 조정합니다.
27.4.1.4.1. 자동 할당된 송신 IP 주소 사용 시 고려사항
송신 IP 주소에 자동 할당 방식을 사용할 때는 다음 사항을 고려해야 합니다.
-
각 노드의
HostSubnet리소스의egressCIDRs매개변수를 설정하여 노드가 호스팅할 수 있는 송신 IP 주소 범위를 나타냅니다. OpenShift Container Platform은 지정한 IP 주소 범위를 기반으로HostSubnet리소스의egressIPs매개변수를 설정합니다.
네임스페이스의 송신 IP 주소를 호스팅하는 노드에 도달할 수 없는 경우 OpenShift Container Platform은 호환되는 송신 IP 주소 범위를 가진 다른 노드에 송신 IP 주소를 다시 할당합니다. 자동 할당 방식은 추가 IP 주소를 노드와 연결할 수 있는 유연성이 있는 환경에 설치된 클러스터에 가장 적합합니다.
27.4.1.4.2. 수동으로 할당된 송신 IP 주소 사용 시 고려사항
이 방법을 사용하면 송신 IP 주소를 호스팅할 수 있는 노드를 제어할 수 있습니다.
클러스터가 퍼블릭 클라우드 인프라에 설치된 경우 송신 IP 주소를 할당하는 각 노드에 IP 주소를 호스팅할 수 있는 충분한 예비 용량이 있는지 확인해야 합니다. 자세한 내용은 이전 섹션의 "플랫사이트 고려 사항"을 참조하십시오.
송신 IP 주소에 수동 할당 방식을 사용할 때는 다음 사항을 고려해야 합니다.
-
각 노드의
HostSubnet리소스의egressIPs매개변수를 설정하여 노드가 호스트할 수 있는 IP 주소를 표시합니다. - 네임스페이스당 여러 개의 송신 IP 주소가 지원됩니다.
네임스페이스에 여러 송신 IP 주소가 있고 해당 주소가 여러 노드에서 호스팅되는 경우 다음과 같은 추가 고려 사항이 적용됩니다.
- Pod가 송신 IP 주소를 호스팅하는 노드에 있는 경우 해당 pod는 항상 노드에서 송신 IP 주소를 사용합니다.
- Pod가 송신 IP 주소를 호스팅하는 노드에 없는 경우 해당 Pod는 송신 IP 주소를 임의로 사용합니다.
27.4.2. 네임스페이스에 자동으로 할당된 송신 IP 주소 구성
OpenShift Container Platform에서는 하나 이상의 노드에서 특정 네임스페이스에 대한 송신 IP 주소를 자동으로 할당할 수 있습니다.
사전 요구 사항
-
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다. -
OpenShift CLI(
oc)를 설치했습니다.
프로세스
다음 JSON을 사용하여 송신 IP 주소로
NetNamespace오브젝트를 업데이트합니다.$ oc patch netnamespace <project_name> --type=merge -p \ '{ "egressIPs": [ "<ip_address>" ] }'다음과 같습니다.
<project_name>- 프로젝트 이름을 지정합니다.
<ip_address>-
egressIPs배열에 대해 하나 이상의 송신 IP 주소를 지정합니다.
예를 들어
project1을 IP 주소 192.168.1.100에 할당하고project2를 IP 주소 192.168.1.101에 할당하려면 다음을 수행합니다.$ oc patch netnamespace project1 --type=merge -p \ '{"egressIPs": ["192.168.1.100"]}' $ oc patch netnamespace project2 --type=merge -p \ '{"egressIPs": ["192.168.1.101"]}'참고OpenShift SDN은
NetNamespace오브젝트를 관리하므로 기존NetNamespace오브젝트를 수정하려면만 변경할 수 있습니다. 새NetNamespace오브젝트를 생성하지 마십시오.다음 JSON을 사용하여 각 호스트에 대해
egressCIDRs매개변수를 설정하여 송신 IP 주소를 호스팅할 수 있는 노드를 나타냅니다.$ oc patch hostsubnet <node_name> --type=merge -p \ '{ "egressCIDRs": [ "<ip_address_range>", "<ip_address_range>" ] }'다음과 같습니다.
<node_name>- 노드 이름을 지정합니다.
<ip_address_range>-
CIDR 형식의 IP 주소 범위를 지정합니다.
egressCIDRs배열에 대해 두 개 이상의 주소 범위를 지정할 수 있습니다.
예를 들어
node1및node2를 192.168.1.0에서 192.168.1.255 범위의 송신 IP 주소를 호스팅하도록 설정하려면 다음을 수행합니다.$ oc patch hostsubnet node1 --type=merge -p \ '{"egressCIDRs": ["192.168.1.0/24"]}' $ oc patch hostsubnet node2 --type=merge -p \ '{"egressCIDRs": ["192.168.1.0/24"]}'OpenShift Container Platform은 특정 송신 IP 주소를 균형 잡힌 방식으로 사용 가능한 노드에 자동으로 할당합니다. 이 경우 송신 IP 주소 192.168.1.100을
node1에 할당하고 송신 IP 주소 192.168.1.101을node2에 할당하거나 그 반대의 경우도 마찬가지입니다.
27.4.3. 네임스페이스에 수동으로 할당된 송신 IP 주소 구성
OpenShift Container Platform에서 하나 이상의 송신 IP 주소를 네임스페이스와 연결할 수 있습니다.
사전 요구 사항
-
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다. -
OpenShift CLI(
oc)를 설치했습니다.
프로세스
원하는 IP 주소로 다음 JSON 오브젝트를 지정하여
NetNamespace오브젝트를 업데이트합니다.$ oc patch netnamespace <project_name> --type=merge -p \ '{ "egressIPs": [ "<ip_address>" ] }'다음과 같습니다.
<project_name>- 프로젝트 이름을 지정합니다.
<ip_address>-
egressIPs배열에 대해 하나 이상의 송신 IP 주소를 지정합니다.
예를 들어
project1프로젝트를 IP 주소192.168.1.100및192.168.1.101에 할당하려면 다음을 수행합니다.$ oc patch netnamespace project1 --type=merge \ -p '{"egressIPs": ["192.168.1.100","192.168.1.101"]}'고가용성을 제공하려면
egressIPs값을 다른 노드에서 둘 이상의 IP 주소로 설정합니다. 여러 송신 IP 주소가 설정되면 Pod는 모든 송신 IP 주소를 거의 동일하게 사용합니다.참고OpenShift SDN은
NetNamespace오브젝트를 관리하므로 기존NetNamespace오브젝트를 수정하려면만 변경할 수 있습니다. 새NetNamespace오브젝트를 생성하지 마십시오.송신 IP 주소를 노드 호스트에 수동으로 할당합니다.
클러스터가 퍼블릭 클라우드 인프라에 설치된 경우 노드에 사용 가능한 IP 주소 용량이 있는지 확인해야 합니다.
노드 호스트의
HostSubnet오브젝트에서egressIPs매개변수를 설정합니다. 다음 JSON을 사용하여 해당 노드 호스트에 할당하려는 만큼의 IP 주소를 포함합니다.$ oc patch hostsubnet <node_name> --type=merge -p \ '{ "egressIPs": [ "<ip_address>", "<ip_address>" ] }'다음과 같습니다.
<node_name>- 노드 이름을 지정합니다.
<ip_address>-
IP 주소를 지정합니다.
egressIPs배열에 대해 두 개 이상의 IP 주소를 지정할 수 있습니다.
예를 들어
node1에 송신 IP192.168.1.100,192.168.1.101및192.168.1.102가 있도록 지정하려면 다음을 수행합니다.$ oc patch hostsubnet node1 --type=merge -p \ '{"egressIPs": ["192.168.1.100", "192.168.1.101", "192.168.1.102"]}'이전 예에서
project1의 모든 송신 트래픽은 지정된 송신 IP를 호스팅하는 노드로 라우팅된 다음 NAT(Network Address Translation)를 통해 해당 IP 주소에 연결됩니다.
27.4.4. 추가 리소스
- 수동 송신 IP 주소 할당을 구성하는 경우 IP 용량 계획에 대한 자세한 내용은 플랫폼 고려 사항을 참조하십시오.
27.5. 프로젝트에 대한 송신 방화벽 구성
클러스터 관리자는 OpenShift Container Platform 클러스터에서 나가는 송신 트래픽을 제한하는 프로젝트에 대한 송신 방화벽을 생성할 수 있습니다.
27.5.1. 프로젝트에서 송신 방화벽이 작동하는 방식
클러스터 관리자는 송신 방화벽 을 사용하여 일부 또는 모든 Pod가 클러스터 내에서 액세스할 수 있는 외부 호스트를 제한할 수 있습니다. 송신 방화벽은 다음 시나리오를 지원합니다.
- Pod는 내부 호스트에만 연결할 수 있으며 공용 인터넷 연결을 시작할 수 없습니다.
- Pod는 공용 인터넷에만 연결할 수 있으며 OpenShift Container Platform 클러스터 외부에 있는 내부 호스트에 대한 연결을 시작할 수 없습니다.
- Pod는 지정된 내부 서브넷이나 OpenShift Container Platform 클러스터 외부의 호스트에 연결할 수 없습니다.
- Pod는 특정 외부 호스트에만 연결할 수 있습니다.
예를 들어, 한 프로젝트가 지정된 IP 범위에 액세스하도록 허용하지만 다른 프로젝트에 대한 동일한 액세스는 거부할 수 있습니다. 또는 애플리케이션 개발자가 Python pip 미러에서 업데이트하지 못하도록 하고 승인된 소스에서만 업데이트를 수행하도록 할 수 있습니다.
송신 방화벽은 호스트 네트워크 네임스페이스에 적용되지 않습니다. 호스트 네트워킹이 활성화된 Pod는 송신 방화벽 규칙의 영향을 받지 않습니다.
EgressNetworkPolicy CR(사용자 정의 리소스) 오브젝트를 만들어 송신 방화벽 정책을 구성합니다. 송신 방화벽은 다음 기준 중 하나를 충족하는 네트워크 트래픽과 일치합니다.
- CIDR 형식의 IP 주소 범위
- IP 주소로 확인되는 DNS 이름
송신 방화벽에 0.0.0.0/0 에 대한 거부 규칙이 포함된 경우 OpenShift Container Platform API 서버에 대한 액세스가 차단됩니다. 각 IP 주소에 대한 허용 규칙을 추가하거나 송신 정책 규칙에서 nodeSelector 유형 허용 규칙을 사용하여 API 서버에 연결해야 합니다.
다음 예제에서는 API 서버 액세스를 확인하는 데 필요한 송신 방화벽 규칙의 순서를 보여줍니다.
apiVersion: network.openshift.io/v1 kind: EgressNetworkPolicy metadata: name: default namespace: <namespace> 1 spec: egress: - to: cidrSelector: <api_server_address_range> 2 type: Allow # ... - to: cidrSelector: 0.0.0.0/0 3 type: Deny
API 서버의 IP 주소를 찾으려면 oc get ep kubernetes -n default 를 실행합니다.
자세한 내용은 BZ#1988324에서 참조하십시오.
송신 방화벽을 구성하려면 네트워크 정책 또는 다중 테넌트 모드를 사용하도록 OpenShift SDN을 구성해야 합니다.
네트워크 정책 모드를 사용하는 경우 송신 방화벽은 네임스페이스당 하나의 정책과만 호환되며 글로벌 프로젝트와 같이 네트워크를 공유하는 프로젝트에서는 작동하지 않습니다.
송신 방화벽 규칙은 라우터를 통과하는 트래픽에는 적용되지 않습니다. Route CR 오브젝트를 생성할 권한이 있는 모든 사용자는 허용되지 않은 대상을 가리키는 경로를 생성하여 송신 방화벽 정책 규칙을 바이패스할 수 있습니다.
27.5.1.1. 송신 방화벽의 제한
송신 방화벽에는 다음과 같은 제한이 있습니다.
- EgressNetworkPolicy 오브젝트를 두 개 이상 보유할 수 있는 프로젝트는 없습니다.
- 프로젝트당 최대 1000개의 규칙이 있는 최대 하나의 EgressNetworkPolicy 오브젝트를 정의할 수 있습니다.
-
기본프로젝트에서는 송신 방화벽을 사용할 수 없습니다. 다중 테넌트 모드에서 OpenShift SDN 네트워크 플러그인을 사용하는 경우 다음과 같은 제한 사항이 적용됩니다.
-
글로벌 프로젝트는 송신 방화벽을 사용할 수 없습니다.
oc adm pod-network make-projects-global명령을 사용하여 프로젝트를 글로벌로 만들 수 있습니다. -
oc adm pod-network join-projects명령을 사용하여 병합된 프로젝트는 결합된 프로젝트에서 송신 방화벽을 사용할 수 없습니다.
-
글로벌 프로젝트는 송신 방화벽을 사용할 수 없습니다.
이러한 제한 사항을 위반하면 프로젝트의 송신 방화벽이 손상되고 모든 외부 네트워크 트래픽이 삭제될 수 있습니다.
Egress 방화벽 리소스는 kube-node-lease,kube-public,kube-system,openshift 및 openshift- 프로젝트에서 생성할 수 있습니다.
27.5.1.2. 송신 방화벽 정책 규칙에 대한 일치 순서
송신 방화벽 정책 규칙은 정의된 순서대로 처음부터 마지막까지 평가됩니다. Pod의 송신 연결과 일치하는 첫 번째 규칙이 적용됩니다. 해당 연결에 대한 모든 후속 규칙은 무시됩니다.
27.5.1.3. DNS(Domain Name Server) 확인 작동 방식
송신 방화벽 정책 규칙에서 DNS 이름을 사용하는 경우 도메인 이름의 적절한 확인에는 다음 제한 사항이 적용됩니다.
- 도메인 이름 업데이트는 TTL(Time To- Live) 기간에 따라 폴링됩니다. 기본적으로 기간은 30초입니다. 송신 방화벽 컨트롤러가 도메인 이름을 위해 로컬 이름 서버를 쿼리할 때 응답에 30초 미만 TTL이 포함된 경우 컨트롤러는 반환된 값으로 기간을 설정합니다. 응답의 TTL이 30분보다 크면 컨트롤러에서 기간을 30분으로 설정합니다. TTL이 30초에서 30분 사이인 경우 컨트롤러는 값을 무시하고 기간을 30초로 설정합니다.
- Pod는 필요한 경우 동일한 로컬 이름 서버에서 도메인을 확인해야 합니다. 확인하지 않으면 송신 방화벽 컨트롤러와 Pod에 의해 알려진 도메인의 IP 주소가 다를 수 있습니다. 호스트 이름의 IP 주소가 다르면 송신 방화벽이 일관되게 적용되지 않을 수 있습니다.
- 송신 방화벽 컨트롤러와 Pod는 동일한 로컬 이름 서버를 비동기적으로 폴링하기 때문에 Pod가 송신 컨트롤러보다 먼저 업데이트된 IP 주소를 얻을 수 있으며 이로 인해 경쟁 조건이 발생합니다. 현재 이런 제한으로 인해 EgressNetworkPolicy 오브젝트의 도메인 이름 사용은 IP 주소가 자주 변경되지 않는 도메인에만 권장됩니다.
송신 방화벽은 Pod가 DNS 확인을 위해 Pod가 있는 노드의 외부 인터페이스에 항상 액세스할 수 있도록 합니다.
송신 방화벽 정책에서 도메인 이름을 사용하고 로컬 노드의 DNS 서버에서 DNS 확인을 처리하지 않으면 Pod에서 도메인 이름을 사용하는 경우, DNS 서버의 IP 주소에 대한 액세스를 허용하는 송신 방화벽 규칙을 추가해야 합니다.
27.5.2. EgressNetworkPolicy CR(사용자 정의 리소스) 오브젝트
송신 방화벽에 대해 하나 이상의 규칙을 정의할 수 있습니다. 규칙이 적용되는 트래픽에 대한 사양을 포함한 허용 규칙 또는 거부 규칙입니다.
다음 YAML은 EgressNetworkPolicy CR 오브젝트를 설명합니다.
EgressNetworkPolicy 오브젝트
apiVersion: network.openshift.io/v1 kind: EgressNetworkPolicy metadata: name: <name> 1 spec: egress: 2 ...
27.5.2.1. EgressNetworkPolicy 규칙
다음 YAML은 송신 방화벽 규칙 오브젝트를 설명합니다. 사용자는 CIDR 형식, 도메인 이름에서 IP 주소 범위를 선택하거나 nodeSelector 를 사용하여 송신 트래픽을 허용하거나 거부할 수 있습니다. 송신 스탠자는 하나 이상의 오브젝트 배열을 예상합니다.
송신 정책 규칙 스탠자
egress: - type: <type> 1 to: 2 cidrSelector: <cidr> 3 dnsName: <dns_name> 4
27.5.2.2. EgressNetworkPolicy CR 오브젝트의 예
다음 예는 여러 가지 송신 방화벽 정책 규칙을 정의합니다.
apiVersion: network.openshift.io/v1
kind: EgressNetworkPolicy
metadata:
name: default
spec:
egress: 1
- type: Allow
to:
cidrSelector: 1.2.3.0/24
- type: Allow
to:
dnsName: www.example.com
- type: Deny
to:
cidrSelector: 0.0.0.0/0- 1
- 송신 방화벽 정책 규칙 오브젝트의 컬렉션입니다.
27.5.3. 송신 방화벽 정책 오브젝트 생성
클러스터 관리자는 프로젝트에 대한 송신 방화벽 정책 오브젝트를 만들 수 있습니다.
프로젝트에 이미 EgressNetworkPolicy 오브젝트가 정의되어 있으면 기존 정책을 편집하여 송신 방화벽 규칙을 변경해야 합니다.
사전 요구 사항
- OpenShift SDN 네트워크 플러그인을 사용하는 클러스터입니다.
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터 관리자로 클러스터에 로그인해야 합니다.
프로세스
다음과 같이 정책 규칙을 생성합니다.
-
<
policy_name>.yaml파일을 생성합니다. 여기서 <policy_name>은 송신 정책 규칙을 설명합니다. - 생성한 파일에서 송신 정책 오브젝트를 정의합니다.
-
<
다음 명령을 입력하여 정책 오브젝트를 생성합니다. &
lt;policy_name>을 정책 이름으로 바꾸고 <project>를 규칙이 적용되는 프로젝트로 바꿉니다.$ oc create -f <policy_name>.yaml -n <project>
다음 예제에서는
project1이라는 프로젝트에 새 EgressNetworkPolicy 오브젝트가 생성됩니다.$ oc create -f default.yaml -n project1
출력 예
egressnetworkpolicy.network.openshift.io/v1 created
-
선택사항: 나중에 변경할 수 있도록 <
;policy_name>.yaml파일을 저장합니다.
27.6. 프로젝트의 송신 방화벽 편집
클러스터 관리자는 기존 송신 방화벽에 대한 네트워크 트래픽 규칙을 수정할 수 있습니다.
27.6.1. EgressNetworkPolicy 오브젝트 보기
클러스터의 EgressNetworkPolicy 오브젝트를 확인할 수 있습니다.
사전 요구 사항
- OpenShift SDN 네트워크 플러그인을 사용하는 클러스터입니다.
-
oc로 알려진 OpenShift CLI(명령줄 인터페이스)를 설치합니다. - 클러스터에 로그인해야 합니다.
프로세스
선택사항: 클러스터에 정의된 EgressNetworkPolicy 오브젝트의 이름을 보려면 다음 명령을 입력합니다.
$ oc get egressnetworkpolicy --all-namespaces
정책을 검사하려면 다음 명령을 입력하십시오. <
policy_name>을 검사할 정책의 이름으로 변경합니다.$ oc describe egressnetworkpolicy <policy_name>
출력 예
Name: default Namespace: project1 Created: 20 minutes ago Labels: <none> Annotations: <none> Rule: Allow to 1.2.3.0/24 Rule: Allow to www.example.com Rule: Deny to 0.0.0.0/0
27.7. 프로젝트의 송신 방화벽 편집
클러스터 관리자는 기존 송신 방화벽에 대한 네트워크 트래픽 규칙을 수정할 수 있습니다.
27.7.1. EgressNetworkPolicy 오브젝트 편집
클러스터 관리자는 프로젝트의 송신 방화벽을 업데이트할 수 있습니다.
사전 요구 사항
- OpenShift SDN 네트워크 플러그인을 사용하는 클러스터입니다.
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터 관리자로 클러스터에 로그인해야 합니다.
프로세스
프로젝트의 EgressNetworkPolicy 오브젝트 찾습니다. &
lt;project>를 프로젝트 이름으로 바꿉니다.$ oc get -n <project> egressnetworkpolicy
선택 사항: 송신 네트워크 방화벽을 생성할 때 EgressNetworkPolicy 오브젝트 사본을 저장하지 않은 경우 다음 명령을 입력하여 사본을 생성합니다.
$ oc get -n <project> egressnetworkpolicy <name> -o yaml > <filename>.yaml
&
lt;project>를 프로젝트 이름으로 바꿉니다. <name>을 오브젝트 이름으로 변경합니다. YAML을 저장할파일 이름으로 <filename>을 바꿉니다.정책 규칙을 변경한 후 다음 명령을 입력하여 EgressNetworkPolicy 오브젝트를 바꿉니다. 업데이트된 EgressNetworkPolicy 오브젝트가 포함된 파일 이름으로 <
filename>을 바꿉니다.$ oc replace -f <filename>.yaml
27.8. 프로젝트에서 송신 방화벽 제거
클러스터 관리자는 프로젝트에서 송신 방화벽을 제거하여 OpenShift Container Platform 클러스터를 나가는 프로젝트에서 네트워크 트래픽에 대한 모든 제한을 제거할 수 있습니다.
27.8.1. EgressNetworkPolicy 오브젝트 제거
클러스터 관리자는 프로젝트에서 송신 방화벽을 제거할 수 있습니다.
사전 요구 사항
- OpenShift SDN 네트워크 플러그인을 사용하는 클러스터입니다.
-
OpenShift CLI(
oc)를 설치합니다. - 클러스터 관리자로 클러스터에 로그인해야 합니다.
프로세스
프로젝트의 EgressNetworkPolicy 오브젝트 찾습니다. &
lt;project>를 프로젝트 이름으로 바꿉니다.$ oc get -n <project> egressnetworkpolicy
EgressNetworkPolicy 오브젝트를 삭제하려면 다음 명령을 입력합니다. &
lt;project>를 프로젝트 이름으로 바꾸고 <name>을 오브젝트 이름으로 바꿉니다.$ oc delete -n <project> egressnetworkpolicy <name>
27.9. 송신 라우터 Pod 사용에 대한 고려 사항
27.9.1. 송신 라우터 Pod 정보
OpenShift Container Platform 송신 라우터 포드는 다른 용도로 사용되지 않는 프라이빗 소스 IP 주소에서 지정된 원격 서버로 트래픽을 리디렉션합니다. 송신 라우터 포드를 통해 특정 IP 주소에서만 액세스할 수 있도록 설정된 서버로 네트워크 트래픽을 보낼 수 있습니다.
송신 라우터 Pod는 모든 발신 연결을 위한 것은 아닙니다. 다수의 송신 라우터 Pod를 생성하는 경우 네트워크 하드웨어 제한을 초과할 수 있습니다. 예를 들어 모든 프로젝트 또는 애플리케이션에 대해 송신 라우터 Pod를 생성하면 소프트웨어에서 MAC 주소 필터링으로 돌아가기 전에 네트워크 인터페이스에서 처리할 수 있는 로컬 MAC 주소 수를 초과할 수 있습니다.
송신 라우터 이미지는 Amazon AWS, Azure Cloud 또는 macvlan 트래픽과의 비호환성으로 인해 계층 2 조작을 지원하지 않는 기타 클라우드 플랫폼과 호환되지 않습니다.
27.9.1.1. 송신 라우터 모드
리디렉션 모드에서 송신 라우터 포드는 자체 IP 주소에서 하나 이상의 대상 IP 주소로 트래픽을 리디렉션하도록 iptables 규칙을 구성합니다. 예약된 소스 IP 주소를 사용해야 하는 클라이언트 Pod는 대상 IP에 직접 연결하는 대신 송신 라우터의 서비스에 액세스하도록 구성해야 합니다. curl 명령을 사용하여 애플리케이션 포드에서 대상 서비스 및 포트에 액세스할 수 있습니다. 예를 들면 다음과 같습니다.
$ curl <router_service_IP> <port>
HTTP 프록시 모드에서 송신 라우터 Pod는 포트 8080 에서 HTTP 프록시로 실행됩니다. 이 모드는 HTTP 기반 또는 HTTPS 기반 서비스에 연결하는 클라이언트에 대해서만 작동하지만 일반적으로 클라이언트 Pod를 덜 변경해야 작동합니다. 대부분의 프로그램은 환경 변수를 설정하여 HTTP 프록시를 사용하도록 지시할 수 있습니다.
DNS 프록시 모드에서 송신 라우터 Pod는 자체 IP 주소에서 하나 이상의 대상 IP 주소로 TCP 기반 서비스의 DNS 프록시로 실행됩니다. 예약된 소스 IP 주소를 사용하려면 대상 IP 주소에 직접 연결하는 대신 송신 라우터 Pod에 연결하도록 클라이언트 Pod를 수정해야 합니다. 이렇게 수정하면 외부 대상에서 트래픽을 알려진 소스에서 발생하는 것처럼 처리합니다.
리디렉션 모드는 HTTP 및 HTTPS를 제외한 모든 서비스에서 작동합니다. HTTP 및 HTTPS 서비스의 경우 HTTP 프록시 모드를 사용하십시오. IP 주소 또는 도메인 이름이 있는 TCP 기반 서비스는 DNS 프록시 모드를 사용하십시오.
27.9.1.2. 송신 라우터 Pod 구현
송신 라우터 Pod 설정은 초기화 컨테이너에서 수행합니다. 해당 컨테이너는 macvlan 인터페이스를 구성하고 iptables 규칙을 설정할 수 있도록 권한 있는 컨텍스트에서 실행됩니다. 초기화 컨테이너는 iptables 규칙 설정을 완료한 후 종료됩니다. 그런 다음 송신 라우터 포드는 컨테이너를 실행하여 송신 라우터 트래픽을 처리합니다. 사용되는 이미지는 송신 라우터 모드에 따라 다릅니다.
환경 변수는 송신 라우터 이미지에서 사용하는 주소를 결정합니다. 이미지는 IP 주소로 EGRESS_SOURCE 를, 게이트웨이의 IP 주소로 EGRESS_GATEWAY 를 사용하도록 macvlan 인터페이스를 구성합니다.
NAT(Network Address Translation) 규칙은 TCP 또는 UDP 포트에서 포드의 클러스터 IP 주소에 대한 연결이 EGRESS_DESTINATION 변수에서 지정하는 IP 주소의 동일한 포트로 리디렉션되도록 설정됩니다.
클러스터의 일부 노드만 지정된 소스 IP 주소를 요청하고 지정된 게이트웨이를 사용할 수 있는 경우 허용 가능한 노드를 식별하는 nodeName 또는 nodeSelector 를 지정할 수 있습니다.
27.9.1.3. 배포 고려 사항
송신 라우터 Pod는 노드의 기본 네트워크 인터페이스에 추가 IP 주소와 MAC 주소를 추가합니다. 따라서 추가 주소를 허용하도록 하이퍼바이저 또는 클라우드 공급자를 구성해야 할 수 있습니다.
- Red Hat OpenStack Platform (RHOSP)
RHOSP에서 OpenShift Container Platform을 배포하는 경우 OpenStack 환경에서 송신 라우터 포드의 IP 및 MAC 주소의 트래픽을 허용해야 합니다. 트래픽을 허용하지 않으면 통신이 실패합니다.
$ openstack port set --allowed-address \ ip_address=<ip_address>,mac_address=<mac_address> <neutron_port_uuid>
- RHV(Red Hat Virtualization)
- RHV 를 사용하는 경우 가상 네트워크 인터페이스 컨트롤러(vNIC)에 대해 네트워크 필터 없음을 선택해야 합니다.
- VMware vSphere
- VMware vSphere를 사용하는 경우 vSphere 표준 스위치 보안을 위한 VMware 설명서를 참조하십시오. vSphere Web Client에서 호스트 가상 스위치를 선택하여 VMware vSphere 기본 설정을 보고 변경합니다.
특히 다음이 활성화되어 있는지 확인하십시오.
27.9.1.4. 장애 조치 구성
다운타임을 방지하기 위해 다음 예와 같이 Deployment 리소스를 사용하여 송신 라우터 Pod를 배포할 수 있습니다. 예제 배포를 위해 새 Service 오브젝트를 생성하려면 oc expose deployment/egress-demo-controller 명령을 사용합니다.
apiVersion: apps/v1 kind: Deployment metadata: name: egress-demo-controller spec: replicas: 1 1 selector: matchLabels: name: egress-router template: metadata: name: egress-router labels: name: egress-router annotations: pod.network.openshift.io/assign-macvlan: "true" spec: 2 initContainers: ... containers: ...
27.9.2. 추가 리소스
27.10. 리디렉션 모드에서 송신 라우터 Pod 배포
클러스터 관리자는 트래픽을 지정된 대상 IP 주소로 리디렉션하도록 구성된 송신 라우터 Pod를 배포할 수 있습니다.
27.10.1. 리디렉션 모드에 대한 송신 라우터 Pod 사양
Pod 오브젝트에서 송신 라우터 Pod에 대한 구성을 정의합니다. 다음 YAML은 리디렉션 모드에서 송신 라우터 Pod를 구성하는 데 필요한 필드를 나타냅니다.
apiVersion: v1
kind: Pod
metadata:
name: egress-1
labels:
name: egress-1
annotations:
pod.network.openshift.io/assign-macvlan: "true" 1
spec:
initContainers:
- name: egress-router
image: registry.redhat.io/openshift4/ose-egress-router
securityContext:
privileged: true
env:
- name: EGRESS_SOURCE 2
value: <egress_router>
- name: EGRESS_GATEWAY 3
value: <egress_gateway>
- name: EGRESS_DESTINATION 4
value: <egress_destination>
- name: EGRESS_ROUTER_MODE
value: init
containers:
- name: egress-router-wait
image: registry.redhat.io/openshift4/ose-pod- 1
- 주석은 OpenShift Container Platform에 기본 네트워크 인터페이스 컨트롤러(NIC)에서 macvlan 네트워크 인터페이스를 생성하고 해당 macvlan 인터페이스를 Pod의 네트워크 네임스페이스로 이동하도록 지시합니다.
"true"값을 따옴표로 묶어야 합니다. OpenShift Container Platform에서 다른 NIC 인터페이스에서 macvlan 인터페이스를 생성하려면 주석 값을 해당 인터페이스 이름으로 설정합니다. 예를 들면eth1입니다. - 2
- 송신 라우터 Pod에서 사용하도록 예약된 노드가 있는 물리적 네트워크의 IP 주소입니다. 선택 사항: 서브넷 길이,
/24접미사를 포함하여 로컬 서브넷 경로를 적절하게 설정할 수 있습니다. 서브넷 길이를 지정하지 않으면 송신 라우터에서EGRESS_GATEWAY변수로 지정된 호스트에만 액세스하고 서브넷의 다른 호스트에는 액세스할 수 없습니다. - 3
- 노드에서 사용하는 기본 게이트웨이와 동일한 값입니다.
- 4
- 트래픽을 전달할 외부 서버입니다. 이 예제를 사용하면 Pod에 대한 연결이 소스 IP 주소가
192.168.12.99인203.0.113.25로 리디렉션됩니다.
송신 라우터 pod 사양의 예
apiVersion: v1
kind: Pod
metadata:
name: egress-multi
labels:
name: egress-multi
annotations:
pod.network.openshift.io/assign-macvlan: "true"
spec:
initContainers:
- name: egress-router
image: registry.redhat.io/openshift4/ose-egress-router
securityContext:
privileged: true
env:
- name: EGRESS_SOURCE
value: 192.168.12.99/24
- name: EGRESS_GATEWAY
value: 192.168.12.1
- name: EGRESS_DESTINATION
value: |
80 tcp 203.0.113.25
8080 tcp 203.0.113.26 80
8443 tcp 203.0.113.26 443
203.0.113.27
- name: EGRESS_ROUTER_MODE
value: init
containers:
- name: egress-router-wait
image: registry.redhat.io/openshift4/ose-pod
27.10.2. 송신 대상 구성 형식
송신 라우터 Pod가 리디렉션 모드로 배포되면 다음 형식 중 하나 이상을 사용하여 리디렉션 규칙을 지정할 수 있습니다.
-
<
port> <protocol> <ip_address> - 지정된 <port>에 들어오는 연결을 지정된 <ip_address>의 동일한 포트로 리디렉션해야 합니다.<protocol>은tcp또는udp입니다. -
<
port> <protocol> <ip_address> <remote_port> - 연결이 <ip_address>의 다른 <remote_port>로 리디렉션된다는 점을 제외하고는 위와 같습니다. -
<ip_address> - 마지막 줄이 단일 IP 주소인 경우 다른 포트의 모든 연결이 해당 IP 주소의 해당 포트로 리디렉션됩니다. 대체 IP 주소가 없으면 기타 포트의 연결이 거부됩니다.
이어지는 예제에서는 몇 가지 규칙이 정의됩니다.
-
첫 번째 줄은 트래픽을 로컬 포트
80에서203.0.113.25의 포트80으로 리디렉션합니다. -
두 번째 및 세 번째 줄에서는 로컬 포트
8080및8443을203.0.113.26의 원격 포트80및443으로 리디렉션합니다. - 마지막 줄은 이전 규칙에 지정되지 않은 모든 포트의 트래픽과 일치합니다.
설정 예
80 tcp 203.0.113.25 8080 tcp 203.0.113.26 80 8443 tcp 203.0.113.26 443 203.0.113.27
27.10.3. 리디렉션 모드에서 송신 라우터 Pod 배포
리디렉션 모드에서 송신 라우터 Pod는 자체 IP 주소에서 하나 이상의 대상 IP 주소로 트래픽을 리디렉션하도록 iptables 규칙을 설정합니다. 예약된 소스 IP 주소를 사용해야 하는 클라이언트 pod는 대상 IP에 직접 연결하는 대신 송신 라우터의 서비스에 액세스하도록 구성해야 합니다. curl 명령을 사용하여 애플리케이션 포드에서 대상 서비스 및 포트에 액세스할 수 있습니다. 예를 들면 다음과 같습니다.
$ curl <router_service_IP> <port>
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
프로세스
- 송신 라우터 Pod를 생성합니다.
다른 Pod에서 송신 라우터 Pod의 IP 주소를 찾을 수 있도록 하려면 다음 예제와 같이 송신 라우터 Pod를 가리키는 서비스를 만듭니다.
apiVersion: v1 kind: Service metadata: name: egress-1 spec: ports: - name: http port: 80 - name: https port: 443 type: ClusterIP selector: name: egress-1이제 Pod에서 이 서비스에 연결할 수 있습니다. 이러한 연결은 예약된 송신 IP 주소를 사용하여 외부 서버의 해당 포트로 리디렉션됩니다.
27.10.4. 추가 리소스
27.11. HTTP 프록시 모드에서 송신 라우터 Pod 배포
클러스터 관리자는 지정된 HTTP 및 HTTPS 기반 서비스로 트래픽을 프록시하도록 구성된 송신 라우터 Pod를 배포할 수 있습니다.
27.11.1. HTTP 모드에 대한 송신 라우터 Pod 사양
Pod 오브젝트에서 송신 라우터 Pod에 대한 구성을 정의합니다. 다음 YAML은 HTTP 모드에서 송신 라우터 Pod를 구성하는 데 필요한 필드를 나타냅니다.
apiVersion: v1
kind: Pod
metadata:
name: egress-1
labels:
name: egress-1
annotations:
pod.network.openshift.io/assign-macvlan: "true" 1
spec:
initContainers:
- name: egress-router
image: registry.redhat.io/openshift4/ose-egress-router
securityContext:
privileged: true
env:
- name: EGRESS_SOURCE 2
value: <egress-router>
- name: EGRESS_GATEWAY 3
value: <egress-gateway>
- name: EGRESS_ROUTER_MODE
value: http-proxy
containers:
- name: egress-router-pod
image: registry.redhat.io/openshift4/ose-egress-http-proxy
env:
- name: EGRESS_HTTP_PROXY_DESTINATION 4
value: |-
...
...- 1
- 주석은 OpenShift Container Platform에 기본 네트워크 인터페이스 컨트롤러(NIC)에서 macvlan 네트워크 인터페이스를 생성하고 해당 macvlan 인터페이스를 Pod의 네트워크 네임스페이스로 이동하도록 지시합니다.
"true"값을 따옴표로 묶어야 합니다. OpenShift Container Platform에서 다른 NIC 인터페이스에서 macvlan 인터페이스를 생성하려면 주석 값을 해당 인터페이스 이름으로 설정합니다. 예를 들면eth1입니다. - 2
- 송신 라우터 Pod에서 사용하도록 예약된 노드가 있는 물리적 네트워크의 IP 주소입니다. 선택 사항: 서브넷 길이,
/24접미사를 포함하여 로컬 서브넷 경로를 적절하게 설정할 수 있습니다. 서브넷 길이를 지정하지 않으면 송신 라우터에서EGRESS_GATEWAY변수로 지정된 호스트에만 액세스하고 서브넷의 다른 호스트에는 액세스할 수 없습니다. - 3
- 노드에서 사용하는 기본 게이트웨이와 동일한 값입니다.
- 4
- 프록시 구성 방법을 지정하는 문자열 또는 여러 줄로 된 YAML 문자열입니다. 이 문자열은 init 컨테이너의 다른 환경 변수가 아닌 HTTP 프록시 컨테이너의 환경 변수로 지정됩니다.
27.11.2. 송신 대상 구성 형식
송신 라우터 Pod가 HTTP 프록시 모드로 배포되면 다음 형식 중 하나 이상을 사용하여 리디렉션 규칙을 지정할 수 있습니다. 구성의 각 줄은 허용 또는 거부할 하나의 연결 그룹을 지정합니다.
-
IP 주소는
192.168.1.1과 같은 해당 IP 주소에 대한 연결을 허용합니다. -
CIDR 범위는
192.168.1.0/24와 같은 해당 CIDR 범위에 대한 연결을 허용합니다. -
호스트 이름을 사용하면
www.example.com과 같은 해당 호스트에 대한 프록시를 사용할 수 있습니다. -
*.로 시작하는 도메인 이름은 해당 도메인 및*.example.com과 같은 모든 하위 도메인에 대한 프록시를 허용합니다. -
위의 일치 표현식 뒤에
!가 있으면 연결이 거부됩니다. -
마지막 줄이
*이면 명시적으로 거부되지 않은 모든 것이 허용됩니다. 또는 허용되지 않은 모든 것이 거부됩니다.
* 를 사용하여 모든 원격 대상에 대한 연결을 허용할 수도 있습니다.
설정 예
!*.example.com !192.168.1.0/24 192.168.2.1 *
27.11.3. HTTP 프록시 모드에서 송신 라우터 Pod 배포
HTTP 프록시 모드에서 송신 라우터 Pod는 포트 8080 에서 HTTP 프록시로 실행됩니다. 이 모드는 HTTP 기반 또는 HTTPS 기반 서비스에 연결하는 클라이언트에 대해서만 작동하지만 일반적으로 클라이언트 Pod를 덜 변경해야 작동합니다. 대부분의 프로그램은 환경 변수를 설정하여 HTTP 프록시를 사용하도록 지시할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
프로세스
- 송신 라우터 Pod를 생성합니다.
다른 Pod에서 송신 라우터 Pod의 IP 주소를 찾을 수 있도록 하려면 다음 예제와 같이 송신 라우터 Pod를 가리키는 서비스를 만듭니다.
apiVersion: v1 kind: Service metadata: name: egress-1 spec: ports: - name: http-proxy port: 8080 1 type: ClusterIP selector: name: egress-1- 1
http포트가8080으로 설정되어 있는지 확인합니다.
HTTP 프록시를 사용하도록 클라이언트 Pod(송신 프록시 Pod가 아님)를 구성하려면
http_proxy또는https_proxy변수를 설정합니다.apiVersion: v1 kind: Pod metadata: name: app-1 labels: name: app-1 spec: containers: env: - name: http_proxy value: http://egress-1:8080/ 1 - name: https_proxy value: http://egress-1:8080/ ...- 1
- 이전 단계에서 생성한 서비스입니다.
참고모든 설정에
http_proxy및https_proxy환경 변수를 사용할 필요는 없습니다. 위 방법으로 유효한 설정이 생성되지 않으면 Pod에서 실행 중인 툴이나 소프트웨어에 대한 설명서를 참조하십시오.
27.11.4. 추가 리소스
27.12. DNS 프록시 모드에서 송신 라우터 Pod 배포
클러스터 관리자는 지정된 DNS 이름 및 IP 주소로 트래픽을 프록시하도록 구성된 송신 라우터 Pod를 배포할 수 있습니다.
27.12.1. DNS 모드에 대한 송신 라우터 Pod 사양
Pod 오브젝트에서 송신 라우터 Pod에 대한 구성을 정의합니다. 다음 YAML은 DNS 모드에서 송신 라우터 Pod를 구성하는 데 필요한 필드를 나타냅니다.
apiVersion: v1
kind: Pod
metadata:
name: egress-1
labels:
name: egress-1
annotations:
pod.network.openshift.io/assign-macvlan: "true" 1
spec:
initContainers:
- name: egress-router
image: registry.redhat.io/openshift4/ose-egress-router
securityContext:
privileged: true
env:
- name: EGRESS_SOURCE 2
value: <egress-router>
- name: EGRESS_GATEWAY 3
value: <egress-gateway>
- name: EGRESS_ROUTER_MODE
value: dns-proxy
containers:
- name: egress-router-pod
image: registry.redhat.io/openshift4/ose-egress-dns-proxy
securityContext:
privileged: true
env:
- name: EGRESS_DNS_PROXY_DESTINATION 4
value: |-
...
- name: EGRESS_DNS_PROXY_DEBUG 5
value: "1"
...- 1
- 주석은 OpenShift Container Platform에 기본 네트워크 인터페이스 컨트롤러(NIC)에서 macvlan 네트워크 인터페이스를 생성하고 해당 macvlan 인터페이스를 Pod의 네트워크 네임스페이스로 이동하도록 지시합니다.
"true"값을 따옴표로 묶어야 합니다. OpenShift Container Platform에서 다른 NIC 인터페이스에서 macvlan 인터페이스를 생성하려면 주석 값을 해당 인터페이스 이름으로 설정합니다. 예를 들면eth1입니다. - 2
- 송신 라우터 Pod에서 사용하도록 예약된 노드가 있는 물리적 네트워크의 IP 주소입니다. 선택 사항: 서브넷 길이,
/24접미사를 포함하여 로컬 서브넷 경로를 적절하게 설정할 수 있습니다. 서브넷 길이를 지정하지 않으면 송신 라우터에서EGRESS_GATEWAY변수로 지정된 호스트에만 액세스하고 서브넷의 다른 호스트에는 액세스할 수 없습니다. - 3
- 노드에서 사용하는 기본 게이트웨이와 동일한 값입니다.
- 4
- 하나 이상의 프록시 대상 목록을 지정합니다.
- 5
- 선택 사항: DNS 프록시 로그 출력을
stdout로 출력하도록 지정합니다.
27.12.2. 송신 대상 구성 형식
라우터가 DNS 프록시 모드에서 배포되면 포트 및 대상 매핑 목록을 지정합니다. 대상은 IP 주소 또는 DNS 이름일 수 있습니다.
송신 라우터 Pod는 포트 및 대상 매핑을 지정하기 위해 다음 형식을 지원합니다.
- 포트 및 원격 주소
-
두 가지 필드 형식인 <port> <
remote_address>를 사용하여 소스 포트와 대상 호스트를 지정할 수 있습니다.
호스트는 IP 주소 또는 DNS 이름일 수 있습니다. DNS 이름을 제공하면 런타임에 DNS를 확인합니다. 지정된 호스트의 경우 프록시는 대상 호스트 IP 주소에 연결할 때 대상 호스트의 지정된 소스 포트에 연결합니다.
포트 및 원격 주소 쌍의 예
80 172.16.12.11 100 example.com
- 포트, 원격 주소, 원격 포트
-
세 가지 필드 형식인 <port> <remote
_address> <remote_port>를 사용하여 소스 포트, 대상 호스트, 대상 포트를지정할 수 있습니다.
세 가지 필드 형식은 대상 포트가 소스 포트와 다를 수 있다는 점을 제외하고 두 가지 필드 버전과 동일하게 작동합니다.
포트, 원격 주소, 원격 포트의 예
8080 192.168.60.252 80 8443 web.example.com 443
27.12.3. DNS 프록시 모드에서 송신 라우터 Pod 배포
DNS 프록시 모드에서 송신 라우터 Pod는 자체 IP 주소에서 하나 이상의 대상 IP 주소로 TCP 기반 서비스의 DNS 프록시 역할을 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
프로세스
- 송신 라우터 Pod를 생성합니다.
송신 라우터 Pod에 대한 서비스를 생성합니다.
다음 YAML이 포함된
egress-router-service.yaml파일을 생성합니다.spec.ports를EGRESS_DNS_PROXY_DESTINATION환경 변수에 대해 이전에 정의한 포트 목록으로 설정합니다.apiVersion: v1 kind: Service metadata: name: egress-dns-svc spec: ports: ... type: ClusterIP selector: name: egress-dns-proxy예를 들면 다음과 같습니다.
apiVersion: v1 kind: Service metadata: name: egress-dns-svc spec: ports: - name: con1 protocol: TCP port: 80 targetPort: 80 - name: con2 protocol: TCP port: 100 targetPort: 100 type: ClusterIP selector: name: egress-dns-proxy서비스를 생성하려면 다음 명령을 입력합니다.
$ oc create -f egress-router-service.yaml
이제 Pod에서 이 서비스에 연결할 수 있습니다. 이러한 연결은 예약된 송신 IP 주소를 사용하여 외부 서버의 해당 포트에 프록시로 연결됩니다.
27.12.4. 추가 리소스
27.13. 구성 맵에서 송신 라우터 Pod 대상 목록 구성
클러스터 관리자는 송신 라우터 Pod에 대한 대상 매핑을 지정하는 ConfigMap 오브젝트를 정의할 수 있습니다. 구체적인 구성 형식은 송신 라우터 Pod 유형에 따라 다릅니다. 형식에 대한 자세한 내용은 해당 송신 라우터 Pod에 대한 설명서를 참조하십시오.
27.13.1. 구성 맵을 사용하여 송신 라우터 대상 매핑 구성
대규모 또는 자주 변경되는 대상 매핑 집합의 경우 구성 맵을 사용하여 목록을 외부에서 관리할 수 있습니다. 이 접근 방식의 장점은 구성 맵을 편집할 수 있는 권한을 cluster-admin 권한이 없는 사용자에게 위임할 수 있다는 점입니다. 송신 라우터 Pod에는 권한 있는 컨테이너가 필요하므로 cluster-admin 권한이 없는 사용자는 Pod 정의를 직접 편집할 수 없습니다.
송신 라우터 Pod는 구성 맵이 변경될 때 자동으로 업데이트되지 않습니다. 업데이트하려면 송신 라우터 Pod를 재시작해야 합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
프로세스
다음 예와 같이 송신 라우터 Pod에 대한 매핑 데이터가 포함된 파일을 만듭니다.
# Egress routes for Project "Test", version 3 80 tcp 203.0.113.25 8080 tcp 203.0.113.26 80 8443 tcp 203.0.113.26 443 # Fallback 203.0.113.27
이 파일에 빈 줄과 주석을 넣을 수 있습니다.
파일에서
ConfigMap오브젝트를 생성합니다.$ oc delete configmap egress-routes --ignore-not-found
$ oc create configmap egress-routes \ --from-file=destination=my-egress-destination.txt
이전 명령에서
egress-routes값은 생성할ConfigMap오브젝트의 이름이고my-egress-destination.txt는 데이터를 읽는 파일의 이름입니다.작은 정보다음 YAML을 적용하여 구성 맵을 만들 수 있습니다.
apiVersion: v1 kind: ConfigMap metadata: name: egress-routes data: destination: | # Egress routes for Project "Test", version 3 80 tcp 203.0.113.25 8080 tcp 203.0.113.26 80 8443 tcp 203.0.113.26 443 # Fallback 203.0.113.27송신 라우터 Pod 정의를 생성하고 환경 스탠자의
EGRESS_DESTINATION필드에configMapKeyRef스탠자를 지정합니다.... env: - name: EGRESS_DESTINATION valueFrom: configMapKeyRef: name: egress-routes key: destination ...
27.13.2. 추가 리소스
27.14. 프로젝트에 멀티 캐스트 사용
27.14.1. 멀티 캐스트 정보
IP 멀티 캐스트를 사용하면 데이터가 여러 IP 주소로 동시에 브로드캐스트됩니다.
현재 멀티 캐스트는 고 대역폭 솔루션이 아닌 저 대역폭 조정 또는 서비스 검색에 가장 적합합니다.
OpenShift Container Platform Pod 간 멀티 캐스트 트래픽은 기본적으로 비활성화되어 있습니다. OpenShift SDN 네트워크 플러그인을 사용하는 경우 프로젝트별로 멀티 캐스트를 활성화할 수 있습니다.
networkpolicy 격리 모드에서 OpenShift SDN 네트워크 플러그인을 사용하는 경우:
-
Pod에서 전송한 멀티 캐스트 패킷은
NetworkPolicy오브젝트에 관계없이 프로젝트의 다른 모든 Pod로 전달됩니다. Pod는 유니 캐스트를 통해 통신할 수 없는 경우에도 멀티 캐스트를 통해 통신할 수 있습니다. -
한 프로젝트에서 Pod가 전송한 멀티 캐스트 패킷은 프로젝트 간에 통신을 허용하는
NetworkPolicy오브젝트가 있더라도 다른 프로젝트의 Pod로 전달되지 않습니다.
다중 테넌트 격리 모드에서 OpenShift SDN 네트워크 플러그인을 사용하는 경우:
- Pod에서 전송한 멀티 캐스트 패킷은 프로젝트의 다른 모든 Pod로 전달됩니다.
- 한 프로젝트에서 Pod가 전송한 멀티 캐스트 패킷은 각 프로젝트가 함께 결합되고 각 참여 프로젝트에서 멀티 캐스트가 활성화된 경우에만 다른 프로젝트의 Pod로 전달됩니다.
27.14.2. Pod 간 멀티 캐스트 활성화
프로젝트의 Pod 간 멀티 캐스트를 활성화할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할이 있는 사용자로 클러스터에 로그인해야 합니다.
프로세스
다음 명령을 실행하여 프로젝트에 대한 멀티 캐스트를 활성화합니다. 멀티 캐스트를 활성화하려는 프로젝트의 네임스페이스로 <namespace>를 바꿉니다.
$ oc annotate netnamespace <namespace> \ netnamespace.network.openshift.io/multicast-enabled=true
검증
프로젝트에 멀티 캐스트가 활성화되어 있는지 확인하려면 다음 절차를 완료합니다.
멀티 캐스트를 활성화한 프로젝트로 현재 프로젝트를 변경합니다. <
;project>를 프로젝트 이름으로 바꿉니다.$ oc project <project>
멀티 캐스트 수신자 역할을 할 pod를 만듭니다.
$ cat <<EOF| oc create -f - apiVersion: v1 kind: Pod metadata: name: mlistener labels: app: multicast-verify spec: containers: - name: mlistener image: registry.access.redhat.com/ubi9 command: ["/bin/sh", "-c"] args: ["dnf -y install socat hostname && sleep inf"] ports: - containerPort: 30102 name: mlistener protocol: UDP EOF멀티 캐스트 발신자 역할을 할 pod를 만듭니다.
$ cat <<EOF| oc create -f - apiVersion: v1 kind: Pod metadata: name: msender labels: app: multicast-verify spec: containers: - name: msender image: registry.access.redhat.com/ubi9 command: ["/bin/sh", "-c"] args: ["dnf -y install socat && sleep inf"] EOF새 터미널 창 또는 탭에서 멀티 캐스트 리스너를 시작합니다.
Pod의 IP 주소를 가져옵니다.
$ POD_IP=$(oc get pods mlistener -o jsonpath='{.status.podIP}')다음 명령을 입력하여 멀티 캐스트 리스너를 시작합니다.
$ oc exec mlistener -i -t -- \ socat UDP4-RECVFROM:30102,ip-add-membership=224.1.0.1:$POD_IP,fork EXEC:hostname
멀티 캐스트 송신기를 시작합니다.
Pod 네트워크 IP 주소 범위를 가져옵니다.
$ CIDR=$(oc get Network.config.openshift.io cluster \ -o jsonpath='{.status.clusterNetwork[0].cidr}')멀티 캐스트 메시지를 보내려면 다음 명령을 입력합니다.
$ oc exec msender -i -t -- \ /bin/bash -c "echo | socat STDIO UDP4-DATAGRAM:224.1.0.1:30102,range=$CIDR,ip-multicast-ttl=64"멀티 캐스트가 작동하는 경우 이전 명령은 다음 출력을 반환합니다.
mlistener
27.15. 프로젝트에 대한 멀티 캐스트 비활성화
27.15.1. Pod 간 멀티 캐스트 비활성화
프로젝트의 Pod 간 멀티 캐스트를 비활성화할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할이 있는 사용자로 클러스터에 로그인해야 합니다.
프로세스
다음 명령을 실행하여 멀티 캐스트를 비활성화합니다.
$ oc annotate netnamespace <namespace> \ 1 netnamespace.network.openshift.io/multicast-enabled-- 1
- 멀티 캐스트를 비활성화하려는 프로젝트의
네임스페이스입니다.
27.16. OpenShift SDN을 사용하여 네트워크 격리 구성
OpenShift SDN 네트워크 플러그인에 다중 테넌트 격리 모드를 사용하도록 클러스터를 구성하면 기본적으로 각 프로젝트가 격리됩니다. 다중 테넌트 격리 모드에서 다른 프로젝트의 pod 또는 Service 간에 네트워크 트래픽이 허용되지 않습니다.
두 가지 방법으로 프로젝트의 다중 테넌트 격리 동작을 변경할 수 있습니다.
- 하나 이상의 프로젝트에 참여하여 다른 프로젝트의 pod와 service 간에 네트워크 트래픽을 허용할 수 있습니다.
- 프로젝트의 네트워크 격리를 비활성화할 수 있습니다. 다른 모든 프로젝트에서 pod 및 service의 네트워크 트래픽을 수락하여 전역에서 액세스할 수 있습니다. 전역에서 액세스 가능한 프로젝트는 다른 모든 프로젝트의 pod 및 service에 액세스할 수 있습니다.
27.16.1. 사전 요구 사항
- 다중 테넌트 격리 모드에서 OpenShift SDN 네트워크 플러그인을 사용하도록 구성된 클러스터가 있어야 합니다.
27.16.2. 프로젝트 참여
두 개 이상의 프로젝트에 참여하여 다른 프로젝트의 Pod와 Service 간 네트워크 트래픽을 허용할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할이 있는 사용자로 클러스터에 로그인해야 합니다.
프로세스
다음 명령을 사용하여 기존 프로젝트 네트워크에 프로젝트를 결합합니다.
$ oc adm pod-network join-projects --to=<project1> <project2> <project3>
또는 특정 프로젝트 이름을 지정하는 대신
--selector=<project_selector> 옵션을 사용하여 관련 레이블을 기반으로 프로젝트를 지정할 수 있습니다.선택 사항: 다음 명령을 실행하여 결합한 Pod 네트워크를 봅니다.
$ oc get netnamespaces
동일한 pod-network의 프로젝트는 NETID 열에서 동일한 네트워크 ID를 갖습니다.
27.16.3. 프로젝트 격리
다른 프로젝트의 Pod 및 Service가 해당 Pod 및 Service에 액세스할 수 없도록 프로젝트를 격리할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할이 있는 사용자로 클러스터에 로그인해야 합니다.
프로세스
클러스터에서 프로젝트를 격리하려면 다음 명령을 실행합니다.
$ oc adm pod-network isolate-projects <project1> <project2>
또는 특정 프로젝트 이름을 지정하는 대신
--selector=<project_selector> 옵션을 사용하여 관련 레이블을 기반으로 프로젝트를 지정할 수 있습니다.
27.16.4. 프로젝트의 네트워크 격리 비활성화
프로젝트의 네트워크 격리를 비활성화할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할이 있는 사용자로 클러스터에 로그인해야 합니다.
프로세스
프로젝트에 대해 다음 명령을 실행합니다.
$ oc adm pod-network make-projects-global <project1> <project2>
또는 특정 프로젝트 이름을 지정하는 대신
--selector=<project_selector> 옵션을 사용하여 관련 레이블을 기반으로 프로젝트를 지정할 수 있습니다.
27.17. kube-proxy 설정
Kubernetes 네트워크 프록시(kube-proxy)는 각 노드에서 실행되며 CNO(Cluster Network Operator)에 의해 관리됩니다. kube-proxy는 서비스와 관련된 끝점에 대한 연결을 전달하기 위한 네트워크 규칙을 유지 관리합니다.
27.17.1. iptables 규칙 동기화 정보
동기화 기간은 Kubernetes 네트워크 프록시(kube-proxy)가 노드에서 iptables 규칙을 동기화하는 빈도를 결정합니다.
다음 이벤트 중 하나가 발생하면 동기화가 시작됩니다.
- 서비스 또는 끝점과 같은 이벤트가 클러스터에 추가되거나 클러스터에서 제거됩니다.
- 마지막 동기화 이후 시간이 kube-proxy에 대해 정의된 동기화 기간을 초과합니다.
27.17.2. kube-proxy 구성 매개변수
다음 kubeProxyConfig 매개변수를 수정할 수 있습니다.
OpenShift Container Platform 4.3 이상에서는 성능이 개선되어 더 이상 iptablesSyncPeriod 매개변수를 조정할 필요가 없습니다.
표 27.3. 매개변수
| 매개변수 | 설명 | 값 | Default |
|---|---|---|---|
|
|
|
|
|
|
|
|
|
|
27.17.3. kube-proxy 구성 수정
클러스터의 Kubernetes 네트워크 프록시 구성을 수정할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할을 사용하여 실행 중인 클러스터에 로그인합니다.
프로세스
다음 명령을 실행하여
Network.operator.openshift.ioCR(사용자 정의 리소스)을 편집합니다.$ oc edit network.operator.openshift.io cluster
다음 예제 CR과 같이 kube-proxy 구성을 변경하여 CR의
kubeProxyConfig매개변수를 수정합니다.apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: kubeProxyConfig: iptablesSyncPeriod: 30s proxyArguments: iptables-min-sync-period: ["30s"]파일을 저장하고 텍스트 편집기를 종료합니다.
파일을 저장하고 편집기를 종료할 때
oc명령에 의해 구문의 유효성이 검사됩니다. 수정 사항에 구문 오류가 포함되어 있으면 편집기가 파일을 열고 오류 메시지를 표시합니다.다음 명령을 입력하여 구성 업데이트를 확인하십시오.
$ oc get networks.operator.openshift.io -o yaml
출력 예
apiVersion: v1 items: - apiVersion: operator.openshift.io/v1 kind: Network metadata: name: cluster spec: clusterNetwork: - cidr: 10.128.0.0/14 hostPrefix: 23 defaultNetwork: type: OpenShiftSDN kubeProxyConfig: iptablesSyncPeriod: 30s proxyArguments: iptables-min-sync-period: - 30s serviceNetwork: - 172.30.0.0/16 status: {} kind: List선택 사항: Cluster Network Operator가 구성 변경을 승인했는지 확인하려면 다음 명령을 입력합니다.
$ oc get clusteroperator network
출력 예
NAME VERSION AVAILABLE PROGRESSING DEGRADED SINCE network 4.1.0-0.9 True False False 1m
구성 업데이트가 성공적으로 적용되면
AVAILABLE필드는True입니다.
28장. 경로 구성
28.1. 경로 구성
28.1.1. HTTP 기반 경로 생성
경로를 사용하면 공용 URL에서 애플리케이션을 호스팅할 수 있습니다. 애플리케이션의 네트워크 보안 구성에 따라 보안 또는 비보안일 수 있습니다. HTTP 기반 경로는 기본 HTTP 라우팅 프로토콜을 사용하고 보안되지 않은 애플리케이션 포트에 서비스를 노출하는 비보안 경로입니다.
다음 절차에서는 hello-openshift 애플리케이션을 예로 사용하여 웹 애플리케이션에 대한 간단한 HTTP 기반 경로를 생성하는 방법을 설명합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - 관리자로 로그인되어 있습니다.
- 포트 및 TCP 끝점이 포트의 트래픽을 청취하는 웹 애플리케이션이 있습니다.
프로세스
다음 명령을 실행하여
hello-openshift라는 프로젝트를 생성합니다.$ oc new-project hello-openshift
다음 명령을 실행하여 프로젝트에서 Pod를 생성합니다.
$ oc create -f https://raw.githubusercontent.com/openshift/origin/master/examples/hello-openshift/hello-pod.json
다음 명령을 실행하여
hello-openshift라는 서비스를 생성합니다.$ oc expose pod/hello-openshift
다음 명령을 실행하여
hello-openshift애플리케이션에 대한 비보안 경로를 생성합니다.$ oc expose svc hello-openshift
검증
생성한
경로리소스가 있는지 확인하려면 다음 명령을 실행합니다.$ oc get routes -o yaml <name of resource> 1- 1
- 이 예제에서 경로 이름은
hello-openshift입니다.
생성된 비보안 경로에 대한 샘플 YAML 정의:
apiVersion: route.openshift.io/v1 kind: Route metadata: name: hello-openshift spec: host: hello-openshift-hello-openshift.<Ingress_Domain> 1 port: targetPort: 8080 2 to: kind: Service name: hello-openshift
28.1.2. Ingress 컨트롤러 샤딩 경로 생성
경로를 사용하면 URL에서 애플리케이션을 호스팅할 수 있습니다. 이 경우 호스트 이름이 설정되지 않고 경로에서 하위 도메인을 대신 사용합니다. 하위 도메인을 지정하면 경로를 노출하는 Ingress 컨트롤러의 도메인을 자동으로 사용합니다. 여러 Ingress 컨트롤러에서 경로를 노출하는 경우 경로가 여러 URL에서 호스팅됩니다.
다음 절차에서는 hello-openshift 애플리케이션을 예로 사용하여 Ingress 컨트롤러 샤딩 경로를 생성하는 방법을 설명합니다.
Ingress 컨트롤러 분할은 들어오는 트래픽 부하를 일련의 Ingress 컨트롤러에 균형 있게 분배하고 트래픽을 특정 Ingress 컨트롤러에 격리할 때 유용합니다. 예를 들어, 회사 A는 하나의 Ingress 컨트롤러로, 회사 B는 다른 Ingress 컨트롤러로 이동합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - 프로젝트 관리자로 로그인되어 있습니다.
- 포트의 트래픽을 청취하는 HTTP 또는 TLS 엔드포인트를 노출하는 웹 애플리케이션이 있습니다.
- 샤딩을 위해 Ingress 컨트롤러가 구성되어 있습니다.
프로세스
다음 명령을 실행하여
hello-openshift라는 프로젝트를 생성합니다.$ oc new-project hello-openshift
다음 명령을 실행하여 프로젝트에서 Pod를 생성합니다.
$ oc create -f https://raw.githubusercontent.com/openshift/origin/master/examples/hello-openshift/hello-pod.json
다음 명령을 실행하여
hello-openshift라는 서비스를 생성합니다.$ oc expose pod/hello-openshift
hello-openshift-route.yaml이라는 경로 정의를 생성합니다.분할을 위해 생성된 경로에 대한 YAML 정의:
apiVersion: route.openshift.io/v1 kind: Route metadata: labels: type: sharded 1 name: hello-openshift-edge namespace: hello-openshift spec: subdomain: hello-openshift 2 tls: termination: edge to: kind: Service name: hello-openshifthello-openshift-route.yaml을 사용하여 다음 명령을 실행하여hello-openshift애플리케이션에 대한 경로를 생성합니다.$ oc -n hello-openshift create -f hello-openshift-route.yaml
검증
다음 명령을 사용하여 경로 상태를 가져옵니다.
$ oc -n hello-openshift get routes/hello-openshift-edge -o yaml
결과
Route리소스는 다음과 유사해야 합니다.출력 예
apiVersion: route.openshift.io/v1 kind: Route metadata: labels: type: sharded name: hello-openshift-edge namespace: hello-openshift spec: subdomain: hello-openshift tls: termination: edge to: kind: Service name: hello-openshift status: ingress: - host: hello-openshift.<apps-sharded.basedomain.example.net> 1 routerCanonicalHostname: router-sharded.<apps-sharded.basedomain.example.net> 2 routerName: sharded 3
28.1.3. 경로 시간 초과 구성
SLA(Service Level Availability) 목적에 필요한 낮은 시간 초과 또는 백엔드가 느린 경우 높은 시간 초과가 필요한 서비스가 있는 경우 기존 경로에 대한 기본 시간 초과를 구성할 수 있습니다.
사전 요구 사항
- 실행 중인 클러스터에 배포된 Ingress 컨트롤러가 필요합니다.
프로세스
oc annotate명령을 사용하여 경로에 시간 초과를 추가합니다.$ oc annotate route <route_name> \ --overwrite haproxy.router.openshift.io/timeout=<timeout><time_unit> 1- 1
- 지원되는 시간 단위는 마이크로초(us), 밀리초(ms), 초(s), 분(m), 시간(h) 또는 일(d)입니다.
다음 예제에서는 이름이
myroute인 경로에서 2초의 시간 초과를 설정합니다.$ oc annotate route myroute --overwrite haproxy.router.openshift.io/timeout=2s
28.1.4. HSTS(HTTP Strict Transport Security)
HSTS(HTTP Strict Transport Security) 정책은 라우트 호스트에서 HTTPS 트래픽만 허용됨을 브라우저 클라이언트에 알리는 보안 강화 정책입니다. 또한 HSTS는 HTTP 리디렉션을 사용하지 않고 HTTPS 전송 신호를 통해 웹 트래픽을 최적화합니다. HSTS는 웹사이트와의 상호 작용을 가속화하는 데 유용합니다.
HSTS 정책이 적용되면 HSTS는 사이트의 HTTP 및 HTTPS 응답에 Strict Transport Security 헤더를 추가합니다. 경로에서 insecureEdgeTerminationPolicy 값을 사용하여 HTTP를 HTTPS로 리디렉션할 수 있습니다. HSTS를 적용하면 클라이언트는 요청을 전송하기 전에 HTTP URL의 모든 요청을 HTTPS로 변경하여 리디렉션이 필요하지 않습니다.
클러스터 관리자는 다음을 수행하도록 HSTS를 구성할 수 있습니다.
- 경로당 HSTS 활성화
- 라우팅당 HSTS 비활성화
- 도메인당 HSTS 시행, 도메인 집합 또는 도메인과 함께 네임스페이스 라벨 사용
HSTS는 보안 경로(엣지 종료 또는 재암호화)에서만 작동합니다. HTTP 또는 패스스루(passthrough) 경로에서는 구성이 유효하지 않습니다.
28.1.4.1. 라우팅당 HSTS(HTTP Strict Transport Security) 활성화
HSTS(HTTP Strict Transport Security)는 HAProxy 템플릿에 구현되며 haproxy.router.openshift.io/hsts_header 주석이 있는 에지 및 재암호화 경로에 적용됩니다.
사전 요구 사항
- 프로젝트에 대한 관리자 권한이 있는 사용자로 클러스터에 로그인했습니다.
-
ocCLI를 설치했습니다.
프로세스
경로에서 HSTS를 활성화하려면
haproxy.router.openshift.io/hsts_header값을 에지 종료 또는 재암호화 경로에 추가합니다.oc annotate툴을 사용하여 다음 명령을 실행하여 이 작업을 수행할 수 있습니다.$ oc annotate route <route_name> -n <namespace> --overwrite=true "haproxy.router.openshift.io/hsts_header"="max-age=31536000;\ 1 includeSubDomains;preload"- 1
- 이 예에서 최대 기간은
31536000ms로 설정되며 약 8시간 반입니다.
참고이 예제에서는 등호(
=)는 따옴표로 묶습니다. 이 명령은 annotate 명령을 올바르게 실행하는 데 필요합니다.주석으로 구성된 경로 예
apiVersion: route.openshift.io/v1 kind: Route metadata: annotations: haproxy.router.openshift.io/hsts_header: max-age=31536000;includeSubDomains;preload 1 2 3 ... spec: host: def.abc.com tls: termination: "reencrypt" ... wildcardPolicy: "Subdomain"- 1
- 필수 항목입니다.
Max-age는 HSTS 정책이 적용되는 시간(초)을 측정합니다.0으로 설정하면 정책이 무효화됩니다. - 2
- 선택 사항: 포함된 경우
includeSubDomains는 호스트의 모든 하위 도메인에 호스트와 동일한 HSTS 정책이 있어야 함을 알려줍니다. - 3
- 선택 사항:
max-age가 0보다 크면haproxy.router.openshift.io/hsts_header에preload를 추가하여 외부 서비스에서 이 사이트를 HSTS 사전 로드 목록에 포함할 수 있습니다. 예를 들어 Google과 같은 사이트는사전로드가 설정된 사이트 목록을 구성할 수 있습니다. 그런 다음 브라우저는 이 목록을 사용하여 사이트와 상호 작용하기 전에 HTTPS를 통해 통신할 수 있는 사이트를 결정할 수 있습니다.사전 로드를 설정하지않으면 브라우저가 HTTPS를 통해 사이트와 상호 작용하여 헤더를 가져와야 합니다.
28.1.4.2. 라우팅당 HSTS(HTTP Strict Transport Security) 비활성화
경로당 HSTS(HTTP Strict Transport Security)를 비활성화하려면 경로 주석에서 max-age 값을 0 으로 설정하면 됩니다.
사전 요구 사항
- 프로젝트에 대한 관리자 권한이 있는 사용자로 클러스터에 로그인했습니다.
-
ocCLI를 설치했습니다.
프로세스
HSTS를 비활성화하려면 다음 명령을 입력하여 경로 주석의
max-age값을0으로 설정합니다.$ oc annotate route <route_name> -n <namespace> --overwrite=true "haproxy.router.openshift.io/hsts_header"="max-age=0"
작은 정보다음 YAML을 적용하여 구성 맵을 만들 수 있습니다.
경로당 HSTS 비활성화 예
metadata: annotations: haproxy.router.openshift.io/hsts_header: max-age=0네임스페이스의 모든 경로에 대해 HSTS를 비활성화하려면 다음 명령을 입력합니다.
$ oc annotate route --all -n <namespace> --overwrite=true "haproxy.router.openshift.io/hsts_header"="max-age=0"
검증
모든 경로에 대한 주석을 쿼리하려면 다음 명령을 입력합니다.
$ oc get route --all-namespaces -o go-template='{{range .items}}{{if .metadata.annotations}}{{$a := index .metadata.annotations "haproxy.router.openshift.io/hsts_header"}}{{$n := .metadata.name}}{{with $a}}Name: {{$n}} HSTS: {{$a}}{{"\n"}}{{else}}{{""}}{{end}}{{end}}{{end}}'출력 예
Name: routename HSTS: max-age=0
28.1.4.3. 도메인별 HSTS(HTTP Strict Transport Security) 적용
도메인당 HSTS(HTTP Strict Transport Security)를 적용하여 보안 경로에 requiredHSTSPolicies 레코드를 Ingress 사양에 추가하여 HSTS 정책 구성을 캡처합니다.
HSTS를 적용하기 위해 requiredHSTSPolicy 를 구성하는 경우 규정 준수 HSTS 정책 주석을 사용하여 새로 생성된 경로를 구성해야 합니다.
준수하지 않는 HSTS 경로를 사용하여 업그레이드된 클러스터를 처리하려면 소스에서 매니페스트를 업데이트하고 업데이트를 적용할 수 있습니다.
oc expose route 또는 oc create route 명령을 사용하여 이러한 명령의 API에서 주석을 허용하지 않기 때문에 HSTS를 적용하는 도메인에 경로를 추가할 수 없습니다.
HSTS는 전 세계의 모든 경로에 HSTS가 요청된 경우에도 비보안 또는 비TLS 경로에 적용할 수 없습니다.
사전 요구 사항
- 프로젝트에 대한 관리자 권한이 있는 사용자로 클러스터에 로그인했습니다.
-
ocCLI를 설치했습니다.
프로세스
Ingress 구성 파일을 편집합니다.
$ oc edit ingresses.config.openshift.io/cluster
HSTS 정책 예
apiVersion: config.openshift.io/v1 kind: Ingress metadata: name: cluster spec: domain: 'hello-openshift-default.apps.username.devcluster.openshift.com' requiredHSTSPolicies: 1 - domainPatterns: 2 - '*hello-openshift-default.apps.username.devcluster.openshift.com' - '*hello-openshift-default2.apps.username.devcluster.openshift.com' namespaceSelector: 3 matchLabels: myPolicy: strict maxAge: 4 smallestMaxAge: 1 largestMaxAge: 31536000 preloadPolicy: RequirePreload 5 includeSubDomainsPolicy: RequireIncludeSubDomains 6 - domainPatterns: 7 - 'abc.example.com' - '*xyz.example.com' namespaceSelector: matchLabels: {} maxAge: {} preloadPolicy: NoOpinion includeSubDomainsPolicy: RequireNoIncludeSubDomains
- 1
- 필수 항목입니다.
requiredHSTSPolicies는 순서대로 검증되며 일치하는 첫 번째domainPatterns가 적용됩니다. - 2 7
- 필수 항목입니다. 하나 이상의
domainPatterns호스트 이름을 지정해야 합니다. 도메인 수를 나열할 수 있습니다. 다른domainPatterns에 대한 시행 옵션의 여러 섹션을 포함할 수 있습니다. - 3
- 선택 사항:
namespaceSelector를 포함하는 경우 경로가 있는 프로젝트의 레이블과 일치하여 경로에 설정된 HSTS 정책을 적용해야 합니다.namespaceSelector만 일치하고domainPatterns와 일치하지 않는 경로는 검증되지 않습니다. - 4
- 필수 항목입니다.
Max-age는 HSTS 정책이 적용되는 시간(초)을 측정합니다. 이 정책 설정을 사용하면 최소 및 가장 큰max-age를 적용할 수 있습니다.-
largestMaxAge값은0에서2147483647사이여야 합니다. 지정되지 않은 상태로 둘 수 있습니다. 즉, 상한이 적용되지 않습니다. -
smallestMaxAge값은0에서2147483647사이여야 합니다. 문제 해결을 위해 HSTS를 비활성화하려면0을 입력합니다. HSTS를 비활성화하지 않으려면1을 입력합니다. 지정되지 않은 상태로 둘 수 있습니다. 즉, 더 낮은 제한이 적용되지 않습니다.
-
- 5
- 선택 사항:
haproxy.router.openshift.io/hsts_header에preload를 포함하면 외부 서비스에서 이 사이트를 HSTS 사전 로드 목록에 포함할 수 있습니다. 그런 다음 브라우저는 이 목록을 사용하여 사이트와 상호 작용하기 전에 HTTPS를 통해 통신할 수 있는 사이트를 결정할 수 있습니다.사전 로드를 설정하지않으면 브라우저가 헤더를 얻기 위해 사이트와 한 번 이상 상호 작용해야 합니다. 다음 중 하나를 사용하여사전로드를 설정할 수 있습니다.-
RequirePreload:에 사전 로드해야 합니다.RequiredHSTSPolicy -
RequireNoPreload:에서 사전 로드하지 않습니다.RequiredHSTSPolicy -
NoOpinion:에 사전 로드되지 않습니다.RequiredHSTSPolicy
-
- 6
- 선택 사항:
includeSubDomainsPolicy는 다음 중 하나를 사용하여 설정할 수 있습니다.-
RequireIncludeSubDomains:includeSubDomains는RequiredHSTSPolicy에 필요합니다. -
RequireNoIncludeSubDomains:includeSubDomains는RequiredHSTSPolicy에서 금지합니다. -
NoOpinion:includeSubDomains는RequiredHSTSPolicy와 관련이 없습니다.
-
oc annotate command를 입력하여 클러스터의 모든 경로 또는 특정 네임스페이스에 HSTS를 적용할 수 있습니다.클러스터의 모든 경로에 HSTS를 적용하려면
oc annotate command를 입력합니다. 예를 들면 다음과 같습니다.$ oc annotate route --all --all-namespaces --overwrite=true "haproxy.router.openshift.io/hsts_header"="max-age=31536000"
특정 네임스페이스의 모든 경로에 HSTS를 적용하려면
oc annotate command를 입력합니다. 예를 들면 다음과 같습니다.$ oc annotate route --all -n my-namespace --overwrite=true "haproxy.router.openshift.io/hsts_header"="max-age=31536000"
검증
구성한 HSTS 정책을 검토할 수 있습니다. 예를 들면 다음과 같습니다.
필요한 HSTS 정책에 대한
maxAge세트를 검토하려면 다음 명령을 입력합니다.$ oc get clusteroperator/ingress -n openshift-ingress-operator -o jsonpath='{range .spec.requiredHSTSPolicies[*]}{.spec.requiredHSTSPolicies.maxAgePolicy.largestMaxAge}{"\n"}{end}'모든 경로에서 HSTS 주석을 검토하려면 다음 명령을 입력합니다.
$ oc get route --all-namespaces -o go-template='{{range .items}}{{if .metadata.annotations}}{{$a := index .metadata.annotations "haproxy.router.openshift.io/hsts_header"}}{{$n := .metadata.name}}{{with $a}}Name: {{$n}} HSTS: {{$a}}{{"\n"}}{{else}}{{""}}{{end}}{{end}}{{end}}'출력 예
Name: <_routename_> HSTS: max-age=31536000;preload;includeSubDomains
28.1.5. 처리량 문제 해결 방법
OpenShift Container Platform을 사용하여 애플리케이션을 배포하면 특정 서비스 간에 대기 시간이 비정상적으로 길어지는 등 네트워크 처리량 문제가 발생할 수 있습니다.
Pod 로그에 문제의 원인이 드러나지 않으면 다음 방법을 사용하여 성능 문제를 분석하십시오.
ping또는tcpdump와 같은 패킷 Analyzer를 사용하여 Pod와 해당 노드 간 트래픽을 분석합니다.예를 들어 각 pod에서
tcpdump도구를 실행하여 문제의 원인이 되는 동작을 재현합니다. Pod에서 나가거나 Pod로 들어오는 트래픽의 대기 시간을 분석하기 위해 전송 및 수신 타임 스탬프를 비교하려면 전송 캡처와 수신 캡처를 둘 다 검토하십시오. 다른 Pod, 스토리지 장치 또는 데이터 플레인의 트래픽으로 노드 인터페이스가 과부하된 경우 OpenShift Container Platform에서 대기 시간이 발생할 수 있습니다.$ tcpdump -s 0 -i any -w /tmp/dump.pcap host <podip 1> && host <podip 2> 1- 1
podIP는 Pod의 IP 주소입니다.oc get pod <pod_name> -o wide명령을 실행하여 Pod의 IP 주소를 가져옵니다.
tcpdump명령은/tmp/dump.pcap에 이 두 포드 간의 모든 트래픽을 포함하는 파일을 생성합니다. 문제가 재현되기 직전에 Analyzer를 실행하고 문제 재현이 완료된 직후 Analyzer를 중지하여 파일 크기를 최소화할 수 있습니다. 다음을 사용하여 노드 간에 패킷 Analyzer를 실행할 수도 있습니다(방정식에서 SDN 제거).$ tcpdump -s 0 -i any -w /tmp/dump.pcap port 4789
스트리밍 처리량 및 UDP 처리량을 측정하려면
iperf와 같은 대역폭 측정 도구를 사용합니다. 먼저 Pod에서 툴을 실행한 다음 노드에서 실행하여 병목 현상이 발생합니다.-
iperf설치 및 사용에 대한 자세한 내용은 이 Red Hat 솔루션을 참조하십시오.
-
- 경우에 따라 클러스터에서 대기 시간 문제로 인해 라우터 pod로 노드를 비정상으로 표시할 수 있습니다. 작업자 대기 시간 프로필을 사용하여 조치를 수행하기 전에 클러스터가 노드에서 상태 업데이트를 대기하는 빈도를 조정합니다.
-
클러스터가 대기 시간이 짧은 노드와 대기 시간이 긴 경우 Ingress 컨트롤러에서
spec.nodePlacement필드를 구성하여 라우터 Pod의 배치를 제어합니다.
28.1.6. 쿠키를 사용하여 경로 상태 유지
OpenShift Container Platform은 모든 트래픽이 동일한 끝점에 도달하도록 하여 스테이트풀(stateful) 애플리케이션 트래픽을 사용할 수 있는 고정 세션을 제공합니다. 그러나 재시작, 스케일링 또는 구성 변경 등으로 인해 끝점 pod가 종료되면 이러한 상태 저장 특성이 사라질 수 있습니다.
OpenShift Container Platform에서는 쿠키를 사용하여 세션 지속성을 구성할 수 있습니다. Ingress 컨트롤러에서는 사용자 요청을 처리할 끝점을 선택하고 세션에 대한 쿠키를 생성합니다. 쿠키는 요청에 대한 응답으로 다시 전달되고 사용자는 세션의 다음 요청과 함께 쿠키를 다시 보냅니다. 쿠키는 세션을 처리하는 끝점을 Ingress 컨트롤러에 알려 클라이언트 요청이 쿠키를 사용하여 동일한 Pod로 라우팅되도록 합니다.
HTTP 트래픽을 표시할 수 없기 때문에 쿠키는 패스스루 경로에 설정할 수 없습니다. 대신 백엔드를 결정하는 소스 IP 주소를 기반으로 숫자를 계산합니다.
백엔드가 변경되면 트래픽이 잘못된 서버로 전송되어 고정이 줄어들 수 있습니다. 소스 IP를 숨기는 로드 밸런서를 사용하는 경우 모든 연결에 대해 동일한 번호가 설정되고 트래픽이 동일한 Pod로 전송됩니다.
28.1.6.1. 쿠키를 사용하여 경로에 주석 달기
쿠키 이름을 설정하여 경로에 자동 생성되는 기본 쿠키 이름을 덮어쓸 수 있습니다. 그러면 경로 트래픽을 수신하는 애플리케이션에서 쿠키 이름을 확인할 수 있게 됩니다. 쿠키를 삭제하여 다음 요청에서 끝점을 다시 선택하도록 할 수 있습니다. 그러므로 서버에 과부하가 걸리면 클라이언트의 요청을 제거하고 재분배합니다.
프로세스
지정된 쿠키 이름으로 경로에 주석을 답니다.
$ oc annotate route <route_name> router.openshift.io/cookie_name="<cookie_name>"
다음과 같습니다.
<route_name>- 경로 이름을 지정합니다.
<cookie_name>- 쿠키 이름을 지정합니다.
예를 들어 쿠키 이름
my_cookie로my_route경로에 주석을 달 수 있습니다.$ oc annotate route my_route router.openshift.io/cookie_name="my_cookie"
경로 호스트 이름을 변수에 캡처합니다.
$ ROUTE_NAME=$(oc get route <route_name> -o jsonpath='{.spec.host}')다음과 같습니다.
<route_name>- 경로 이름을 지정합니다.
쿠키를 저장한 다음 경로에 액세스합니다.
$ curl $ROUTE_NAME -k -c /tmp/cookie_jar
경로에 연결할 때 이전 명령으로 저장된 쿠키를 사용합니다.
$ curl $ROUTE_NAME -k -b /tmp/cookie_jar
28.1.7. 경로 기반 라우터
경로 기반 라우터는 URL과 비교할 수 있는 경로 구성 요소를 지정하며 이를 위해 라우트의 트래픽이 HTTP 기반이어야 합니다. 따라서 동일한 호스트 이름을 사용하여 여러 경로를 제공할 수 있으며 각각 다른 경로가 있습니다. 라우터는 가장 구체적인 경로를 기반으로 하는 라우터와 일치해야 합니다. 그러나 이는 라우터 구현에 따라 다릅니다.
다음 표에서는 경로 및 액세스 가능성을 보여줍니다.
표 28.1. 경로 가용성
| 경로 | 비교 대상 | 액세스 가능 |
|---|---|---|
| www.example.com/test | www.example.com/test | 제공됨 |
| www.example.com | 없음 | |
| www.example.com/test 및 www.example.com | www.example.com/test | 제공됨 |
| www.example.com | 제공됨 | |
| www.example.com | www.example.com/text | 예 (경로가 아닌 호스트에 의해 결정됨) |
| www.example.com | 제공됨 |
경로가 있는 보안되지 않은 라우터
apiVersion: route.openshift.io/v1
kind: Route
metadata:
name: route-unsecured
spec:
host: www.example.com
path: "/test" 1
to:
kind: Service
name: service-name
- 1
- 경로는 경로 기반 라우터에 대해 추가된 유일한 속성입니다.
라우터가 해당 경우 TLS를 종료하지 않고 요청 콘텐츠를 읽을 수 없기 때문에 패스스루 TLS를 사용할 때 경로 기반 라우팅을 사용할 수 없습니다.
28.1.8. 경로별 주석
Ingress 컨트롤러는 노출하는 모든 경로에 기본 옵션을 설정할 수 있습니다. 개별 경로는 주석에 특정 구성을 제공하는 방식으로 이러한 기본값 중 일부를 덮어쓸 수 있습니다. Red Hat은 operator 관리 경로에 경로 주석 추가를 지원하지 않습니다.
여러 소스 IP 또는 서브넷이 있는 화이트리스트를 생성하려면 공백으로 구분된 목록을 사용합니다. 다른 구분 기호 유형으로 인해 경고 또는 오류 메시지 없이 목록이 무시됩니다.
표 28.2. 경로 주석
| Variable | 설명 | 기본값으로 사용되는 환경 변수 |
|---|---|---|
|
|
로드 밸런싱 알고리즘을 설정합니다. 사용 가능한 옵션은 |
통과 경로의 경우 |
|
|
쿠키를 사용하여 관련 연결을 추적하지 않도록 설정합니다. | |
|
| 이 경로에 사용할 선택적 쿠키를 지정합니다. 이름은 대문자와 소문자, 숫자, ‘_’, ‘-’의 조합으로 구성해야 합니다. 기본값은 경로의 해시된 내부 키 이름입니다. | |
|
|
라우터에서 백업 pod로 허용되는 최대 연결 수를 설정합니다. | |
|
|
| |
|
|
동일한 소스 IP 주소를 통해 만든 동시 TCP 연결 수를 제한합니다. 숫자 값을 허용합니다. | |
|
|
동일한 소스 IP 주소가 있는 클라이언트에서 HTTP 요청을 수행할 수 있는 속도를 제한합니다. 숫자 값을 허용합니다. | |
|
|
동일한 소스 IP 주소가 있는 클라이언트에서 TCP 연결을 수행할 수 있는 속도를 제한합니다. 숫자 값을 허용합니다. | |
|
| 경로에 대한 서버 쪽 타임아웃을 설정합니다. (TimeUnits) |
|
|
| 이 제한 시간은 터널 연결(예: 일반 텍스트, 에지, 재암호화 또는 패스스루 라우팅)에 적용됩니다. 일반 텍스트, 에지 또는 재암호화 경로 유형을 사용하면 이 주석이 기존 시간 초과 값이 있는 시간 제한 터널로 적용됩니다. passthrough 경로 유형의 경우 주석은 설정된 기존 시간 초과 값보다 우선합니다. |
|
|
|
IngressController 또는 Ingress 구성을 설정할 수 있습니다. 이 주석은 라우터를 재배포하고 전체 소프트 중지를 수행하는 데 허용되는 최대 시간을 정의하는 haproxy |
|
|
| 백엔드 상태 점검 간격을 설정합니다. (TimeUnits) |
|
|
| 경로에 대한 화이트리스트를 설정합니다. 화이트리스트는 승인된 소스 주소에 대한 IP 주소 및 CIDR 범위가 공백으로 구분된 목록입니다. 화이트리스트에 없는 IP 주소의 요청은 삭제됩니다. 화이트리스트에 허용되는 최대 IP 주소 및 CIDR 범위 수는 61개입니다. | |
|
| 엣지 종단 경로 또는 재암호화 경로에 Strict-Transport-Security 헤더를 설정합니다. | |
|
|
Syslog 헤더에 | |
|
| 백엔드의 요청 재작성 경로를 설정합니다. | |
|
| 쿠키를 제한하는 값을 설정합니다. 값은 다음과 같습니다.
이 값은 재암호화 및 엣지 경로에만 적용됩니다. 자세한 내용은 SameSite 쿠키 설명서를 참조하십시오. | |
|
|
경로당
|
|
환경 변수는 편집할 수 없습니다.
라우터 시간 제한 변수
TimeUnits 는 us *(마이크로초), ms (밀리초, 기본값), s (초), m (분), h *(시간), d (일)로 표시됩니다.
정규식은 [1-9][0-9]*(us\|ms\|s\|m\|h\|d)입니다.
| Variable | Default | 설명 |
|---|---|---|
|
|
| 백엔드에서 후속 활성 검사 사이의 시간입니다. |
|
|
| 경로에 연결된 클라이언트의 TCP FIN 시간 제한 기간을 제어합니다. FIN이 연결을 닫도록 전송한 경우 지정된 시간 내에 응답하지 않으면 HAProxy가 연결을 종료합니다. 낮은 값으로 설정하면 문제가 없으며 라우터에서 더 적은 리소스를 사용합니다. |
|
|
| 클라이언트가 데이터를 승인하거나 보내야 하는 시간입니다. |
|
|
| 최대 연결 시간입니다. |
|
|
| 라우터에서 경로를 지원하는 pod로의 TCP FIN 시간 초과를 제어합니다. |
|
|
| 서버에서 데이터를 승인하거나 보내야 하는 시간입니다. |
|
|
| TCP 또는 WebSocket 연결이 열린 상태로 유지되는 동안의 시간입니다. 이 시간 제한 기간은 HAProxy를 다시 로드할 때마다 재설정됩니다. |
|
|
|
새 HTTP 요청이 표시될 때까지 대기할 최대 시간을 설정합니다. 이 값을 너무 낮게 설정하면 작은
일부 유효한 시간 제한 값은 예상되는 특정 시간 초과가 아니라 특정 변수의 합계일 수 있습니다. 예를 들어 |
|
|
| HTTP 요청 전송에 걸리는 시간입니다. |
|
|
| 라우터의 최소 빈도가 새 변경 사항을 다시 로드하고 승인하도록 허용합니다. |
|
|
| HAProxy 메트릭 수집에 대한 시간 제한입니다. |
경로 설정 사용자 정의 타임아웃
apiVersion: route.openshift.io/v1
kind: Route
metadata:
annotations:
haproxy.router.openshift.io/timeout: 5500ms 1
...
- 1
- HAProxy 지원 단위를 사용하여 새 시간 초과를 지정합니다(예:
ms,s,m,h,d).단위를 제공하지 않으면ms가 기본값입니다.
패스스루(passthrough) 경로에 대한 서버 쪽 타임아웃 값을 너무 낮게 설정하면 해당 경로에서 WebSocket 연결이 자주 시간 초과될 수 있습니다.
하나의 특정 IP 주소만 허용하는 경로
metadata:
annotations:
haproxy.router.openshift.io/ip_whitelist: 192.168.1.10
여러 IP 주소를 허용하는 경로
metadata:
annotations:
haproxy.router.openshift.io/ip_whitelist: 192.168.1.10 192.168.1.11 192.168.1.12
IP 주소 CIDR 네트워크를 허용하는 경로
metadata:
annotations:
haproxy.router.openshift.io/ip_whitelist: 192.168.1.0/24
IP 주소 및 IP 주소 CIDR 네트워크를 둘 다 허용하는 경로
metadata:
annotations:
haproxy.router.openshift.io/ip_whitelist: 180.5.61.153 192.168.1.0/24 10.0.0.0/8
재작성 대상을 지정하는 경로
apiVersion: route.openshift.io/v1
kind: Route
metadata:
annotations:
haproxy.router.openshift.io/rewrite-target: / 1
...
- 1
/를 백엔드의 요청 재작성 경로로 설정합니다.
경로에 haproxy.router.openshift.io/rewrite-target 주석을 설정하면 Ingress 컨트롤러에서 요청을 백엔드 애플리케이션으로 전달하기 전에 이 경로를 사용하여 HTTP 요청의 경로를 다시 작성하도록 지정합니다. spec.path 에 지정된 경로와 일치하는 요청 경로 부분은 주석에 지정된 재작성 대상으로 교체됩니다.
다음 표에서는 spec.path 의 다양한 조합에 대한 경로 재작성 동작, 요청 경로 및 재작성 대상의 예를 제공합니다.
표 28.3. 재작성 대상의 예:
| Route.spec.path | 요청 경로 | 재작성 대상 | 전달된 요청 경로 |
|---|---|---|---|
| /foo | /foo | / | / |
| /foo | /foo/ | / | / |
| /foo | /foo/bar | / | /bar |
| /foo | /foo/bar/ | / | /bar/ |
| /foo | /foo | /bar | /bar |
| /foo | /foo/ | /bar | /bar/ |
| /foo | /foo/bar | /baz | /baz/bar |
| /foo | /foo/bar/ | /baz | /baz/bar/ |
| /foo/ | /foo | / | N/A(요청 경로가 라우팅 경로와 일치하지 않음) |
| /foo/ | /foo/ | / | / |
| /foo/ | /foo/bar | / | /bar |
28.1.9. 경로 허용 정책 구성
관리자 및 애플리케이션 개발자는 도메인 이름이 동일한 여러 네임스페이스에서 애플리케이션을 실행할 수 있습니다. 이는 여러 팀이 동일한 호스트 이름에 노출되는 마이크로 서비스를 개발하는 조직을 위한 것입니다.
네임스페이스 간 클레임은 네임스페이스 간 신뢰가 있는 클러스터에 대해서만 허용해야 합니다. 그렇지 않으면 악의적인 사용자가 호스트 이름을 인수할 수 있습니다. 따라서 기본 승인 정책에서는 네임스페이스 간에 호스트 이름 클레임을 허용하지 않습니다.
사전 요구 사항
- 클러스터 관리자 권한이 있어야 합니다.
절차
다음 명령을 사용하여
ingresscontroller리소스 변수의.spec.routeAdmission필드를 편집합니다.$ oc -n openshift-ingress-operator patch ingresscontroller/default --patch '{"spec":{"routeAdmission":{"namespaceOwnership":"InterNamespaceAllowed"}}}' --type=merge샘플 Ingress 컨트롤러 구성
spec: routeAdmission: namespaceOwnership: InterNamespaceAllowed ...작은 정보다음 YAML을 적용하여 경로 승인 정책을 구성할 수 있습니다.
apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: default namespace: openshift-ingress-operator spec: routeAdmission: namespaceOwnership: InterNamespaceAllowed
28.1.10. Ingress 오브젝트를 통해 경로 생성
일부 에코시스템 구성 요소는 Ingress 리소스와 통합되지만 경로 리소스와는 통합되지 않습니다. 이러한 경우를 처리하기 위해 OpenShift Container Platform에서는 Ingress 오브젝트가 생성될 때 관리형 경로 오브젝트를 자동으로 생성합니다. 이러한 경로 오브젝트는 해당 Ingress 오브젝트가 삭제될 때 삭제됩니다.
절차
OpenShift Container Platform 콘솔에서 또는
oc create명령을 입력하여 Ingress 오브젝트를 정의합니다.Ingress의 YAML 정의
apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: frontend annotations: route.openshift.io/termination: "reencrypt" 1 route.openshift.io/destination-ca-certificate-secret: secret-ca-cert 2 spec: rules: - host: www.example.com 3 http: paths: - backend: service: name: frontend port: number: 443 path: / pathType: Prefix tls: - hosts: - www.example.com secretName: example-com-tls-certificate- 1
route.openshift.io/termination주석을 사용하여경로의spec.tls.termination필드를Ingress에 이에 대한 필드가 없습니다. 허용되는 값은edge,passthrough및reencrypt입니다. 다른 모든 값은 자동으로 무시됩니다. 주석 값이 설정되지 않으면edge가 기본 경로입니다. 기본 엣지 경로를 구현하려면 TLS 인증서 세부 정보를 템플릿 파일에 정의해야 합니다.- 3
Ingress오브젝트로 작업할 때 경로를 사용할 때와 달리 명시적 호스트 이름을 지정해야 합니다. <host_name>.<cluster_ingress_domain> 구문을 사용하여apps.openshiftdemos.com.<cluster_ingress_domain> 와일드카드 DNS 레코드를 활용하고 클러스터에 대한 인증서를 제공할 수 있습니다. 그렇지 않으면 선택한 호스트 이름에 대한 DNS 레코드가 있는지 확인해야 합니다.route.openshift.io/termination주석에passthrough값을 지정하는 경우path를''로 설정하고 spec에서pathType을ImplementationSpecific으로 설정합니다.spec: rules: - host: www.example.com http: paths: - path: '' pathType: ImplementationSpecific backend: service: name: frontend port: number: 443$ oc apply -f ingress.yaml
- 2
- Ingress 오브젝트에서
route.openshift.io/destination-ca-certificate-secret을 사용하여 사용자 정의 대상 인증서(CA)로 경로를 정의할 수 있습니다. 이 주석은 생성된 경로에 삽입할 kubernetes 시크릿 secret secret secretsecret-ca-cert를 참조합니다.-
수신 오브젝트에서 대상 CA를 사용하여 경로 오브젝트를 지정하려면 시크릿의
data.tls.crtdotnet에서 PEM으로 인코딩된 형식의 인증서를 사용하여kubernetes.io/tls또는Opaque유형 보안을 생성해야 합니다.
-
수신 오브젝트에서 대상 CA를 사용하여 경로 오브젝트를 지정하려면 시크릿의
노드를 나열합니다.
$ oc get routes
결과에는 이름이
frontend-로 시작하는 자동 생성 경로가 포함됩니다.NAME HOST/PORT PATH SERVICES PORT TERMINATION WILDCARD frontend-gnztq www.example.com frontend 443 reencrypt/Redirect None
이 경로를 살펴보면 다음과 같습니다.
자동 생성 경로의 YAML 정의
apiVersion: route.openshift.io/v1 kind: Route metadata: name: frontend-gnztq ownerReferences: - apiVersion: networking.k8s.io/v1 controller: true kind: Ingress name: frontend uid: 4e6c59cc-704d-4f44-b390-617d879033b6 spec: host: www.example.com path: / port: targetPort: https tls: certificate: | -----BEGIN CERTIFICATE----- [...] -----END CERTIFICATE----- insecureEdgeTerminationPolicy: Redirect key: | -----BEGIN RSA PRIVATE KEY----- [...] -----END RSA PRIVATE KEY----- termination: reencrypt destinationCACertificate: | -----BEGIN CERTIFICATE----- [...] -----END CERTIFICATE----- to: kind: Service name: frontend
28.1.11. Ingress 오브젝트를 통해 기본 인증서를 사용하여 경로 생성
TLS 구성을 지정하지 않고 Ingress 오브젝트를 생성하면 OpenShift Container Platform에서 비보안 경로를 생성합니다. 기본 수신 인증서를 사용하여 보안 엣지 종료 경로를 생성하는 Ingress 오브젝트를 생성하려면 다음과 같이 빈 TLS 구성을 지정할 수 있습니다.
사전 요구 사항
- 노출하려는 서비스가 있습니다.
-
OpenShift CLI(
oc)에 액세스할 수 있습니다.
절차
Ingress 오브젝트에 대한 YAML 파일을 생성합니다. 이 예제에서는 파일을
example-ingress.yaml이라고 합니다.Ingress 오브젝트의 YAML 정의
apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: frontend ... spec: rules: ... tls: - {} 1- 1
- 이 정확한 구문을 사용하여 사용자 정의 인증서를 지정하지 않고 TLS를 지정합니다.
다음 명령을 실행하여 Ingress 오브젝트를 생성합니다.
$ oc create -f example-ingress.yaml
검증
다음 명령을 실행하여 OpenShift Container Platform에서 Ingress 오브젝트에 대한 예상 경로를 생성했는지 확인합니다.
$ oc get routes -o yaml
출력 예
apiVersion: v1 items: - apiVersion: route.openshift.io/v1 kind: Route metadata: name: frontend-j9sdd 1 ... spec: ... tls: 2 insecureEdgeTerminationPolicy: Redirect termination: edge 3 ...
28.1.12. Ingress 주석에서 대상 CA 인증서를 사용하여 경로 생성
route.openshift.io/destination-ca-certificate-secret 주석을 Ingress 오브젝트에서 사용하여 사용자 정의 대상 CA 인증서로 경로를 정의할 수 있습니다.
사전 요구 사항
- PEM 인코딩 파일에 인증서/키 쌍이 있을 수 있습니다. 여기서 인증서가 경로 호스트에 유효합니다.
- 인증서 체인을 완성하는 PEM 인코딩 파일에 별도의 CA 인증서가 있을 수 있습니다.
- PEM 인코딩 파일에 별도의 대상 CA 인증서가 있어야 합니다.
- 노출하려는 서비스가 있어야 합니다.
절차
Ingress 주석에
route.openshift.io/destination-ca-certificate-secret을 추가합니다.apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: frontend annotations: route.openshift.io/termination: "reencrypt" route.openshift.io/destination-ca-certificate-secret: secret-ca-cert 1 ...- 1
- 주석은 kubernetes 보안을 참조합니다.
이 주석에서 참조하는 보안이 생성된 경로에 삽입됩니다.
출력 예
apiVersion: route.openshift.io/v1 kind: Route metadata: name: frontend annotations: route.openshift.io/termination: reencrypt route.openshift.io/destination-ca-certificate-secret: secret-ca-cert spec: ... tls: insecureEdgeTerminationPolicy: Redirect termination: reencrypt destinationCACertificate: | -----BEGIN CERTIFICATE----- [...] -----END CERTIFICATE----- ...
28.1.13. 듀얼 스택 네트워킹을 위한 OpenShift Container Platform Ingress 컨트롤러 구성
OpenShift Container Platform 클러스터가 IPv4 및 IPv6 이중 스택 네트워킹에 맞게 구성된 경우 OpenShift Container Platform 경로에서 외부에서 클러스터에 연결할 수 있습니다.
Ingress 컨트롤러는 IPv4 및 IPv6 엔드 포인트가 모두 있는 서비스를 자동으로 제공하지만 단일 스택 또는 듀얼 스택 서비스에 대해 Ingress 컨트롤러를 구성할 수 있습니다.
사전 요구 사항
- 베어메탈에 OpenShift Container Platform 클러스터를 배포했습니다.
-
OpenShift CLI(
oc)를 설치합니다.
절차
Ingress 컨트롤러가 워크로드에 IPv4/IPv6을 통해 트래픽을 제공하도록 하려면
ipFamilies및ipFamilyPolicy필드를 설정하여 서비스 YAML 파일을 생성하거나 기존 서비스 YAML 파일을 수정할 수 있습니다. 예를 들면 다음과 같습니다.샘플 서비스 YAML 파일
apiVersion: v1 kind: Service metadata: creationTimestamp: yyyy-mm-ddT00:00:00Z labels: name: <service_name> manager: kubectl-create operation: Update time: yyyy-mm-ddT00:00:00Z name: <service_name> namespace: <namespace_name> resourceVersion: "<resource_version_number>" selfLink: "/api/v1/namespaces/<namespace_name>/services/<service_name>" uid: <uid_number> spec: clusterIP: 172.30.0.0/16 clusterIPs: 1 - 172.30.0.0/16 - <second_IP_address> ipFamilies: 2 - IPv4 - IPv6 ipFamilyPolicy: RequireDualStack 3 ports: - port: 8080 protocol: TCP targetport: 8080 selector: name: <namespace_name> sessionAffinity: None type: ClusterIP status: loadbalancer: {}이러한 리소스는 해당
끝점을 생성합니다. Ingress 컨트롤러는 이제endpointslices를 감시합니다.끝점을 보려면 다음 명령을 입력합니다.$ oc get endpoints
endpointslices를 보려면 다음 명령을 입력합니다.$ oc get endpointslices
28.2. 보안 경로
보안 경로는 여러 유형의 TLS 종료를 사용하여 클라이언트에 인증서를 제공하는 기능을 제공합니다. 다음 섹션에서는 사용자 정의 인증서를 사용하여 재암호화 에지 및 패스스루 경로를 생성하는 방법을 설명합니다.
공용 끝점을 통해 Microsoft Azure에서 경로를 생성하는 경우 리소스 이름에 제한이 적용됩니다. 특정 용어를 사용하는 리소스를 생성할 수 없습니다. Azure에서 제한하는 용어 목록은 Azure 설명서의 예약된 리소스 이름 오류 해결을 참조하십시오.
28.2.1. 사용자 정의 인증서를 사용하여 재암호화 경로 생성
oc create route 명령을 사용하여 재암호화 TLS 종료와 사용자 정의 인증서로 보안 경로를 구성할 수 있습니다.
사전 요구 사항
- PEM 인코딩 파일에 인증서/키 쌍이 있고 해당 인증서가 경로 호스트에 유효해야 합니다.
- 인증서 체인을 완성하는 PEM 인코딩 파일에 별도의 CA 인증서가 있을 수 있습니다.
- PEM 인코딩 파일에 별도의 대상 CA 인증서가 있어야 합니다.
- 노출하려는 서비스가 있어야 합니다.
암호로 보호되는 키 파일은 지원되지 않습니다. 키 파일에서 암호를 제거하려면 다음 명령을 사용하십시오.
$ openssl rsa -in password_protected_tls.key -out tls.key
절차
이 절차에서는 사용자 정의 인증서를 사용하여 Route 리소스를 생성하고 TLS 종료를 재암호화합니다. 다음은 인증서/키 쌍이 현재 작업 디렉터리의 tls.crt 및 tls.key 파일에 있다고 가정합니다. Ingress 컨트롤러에서 서비스의 인증서를 신뢰하도록 하려면 대상 CA 인증서도 지정해야 합니다. 인증서 체인을 완료하는 데 필요한 경우 CA 인증서를 지정할 수도 있습니다. tls.crt,tls.key,cacert.crt 및 ca.crt 에 실제 경로 이름을 사용하십시오. frontend 에는 노출하려는 서비스 리소스 이름을 사용합니다. www.example.com 의 적절한 호스트 이름을 대체합니다.
재암호화 TLS 종료 및 사용자 정의 인증서를 사용하여 보안
경로리소스를 생성합니다.$ oc create route reencrypt --service=frontend --cert=tls.crt --key=tls.key --dest-ca-cert=destca.crt --ca-cert=ca.crt --hostname=www.example.com
생성된
Route리소스는 다음과 유사합니다.보안 경로의 YAML 정의
apiVersion: route.openshift.io/v1 kind: Route metadata: name: frontend spec: host: www.example.com to: kind: Service name: frontend tls: termination: reencrypt key: |- -----BEGIN PRIVATE KEY----- [...] -----END PRIVATE KEY----- certificate: |- -----BEGIN CERTIFICATE----- [...] -----END CERTIFICATE----- caCertificate: |- -----BEGIN CERTIFICATE----- [...] -----END CERTIFICATE----- destinationCACertificate: |- -----BEGIN CERTIFICATE----- [...] -----END CERTIFICATE-----자세한 옵션은
oc create route reencrypt --help를 참조하십시오.
28.2.2. 사용자 정의 인증서를 사용하여 엣지 경로 생성
oc create route 명령을 사용하여 엣지 TLS 종료와 사용자 정의 인증서로 보안 경로를 구성할 수 있습니다. 엣지 경로를 사용하면 Ingress 컨트롤러에서 트래픽을 대상 Pod로 전달하기 전에 TLS 암호화를 종료합니다. 이 경로는 Ingress 컨트롤러가 경로에 사용하는 TLS 인증서 및 키를 지정합니다.
사전 요구 사항
- PEM 인코딩 파일에 인증서/키 쌍이 있고 해당 인증서가 경로 호스트에 유효해야 합니다.
- 인증서 체인을 완성하는 PEM 인코딩 파일에 별도의 CA 인증서가 있을 수 있습니다.
- 노출하려는 서비스가 있어야 합니다.
암호로 보호되는 키 파일은 지원되지 않습니다. 키 파일에서 암호를 제거하려면 다음 명령을 사용하십시오.
$ openssl rsa -in password_protected_tls.key -out tls.key
절차
이 절차에서는 사용자 정의 인증서 및 엣지 TLS 종료를 사용하여 Route 리소스를 생성합니다. 다음은 인증서/키 쌍이 현재 작업 디렉터리의 tls.crt 및 tls.key 파일에 있다고 가정합니다. 인증서 체인을 완료하는 데 필요한 경우 CA 인증서를 지정할 수도 있습니다. tls.crt,tls.key 및 ca.crt (선택 사항)에 실제 경로 이름을 사용하십시오. frontend 에는 노출하려는 서비스 이름을 사용합니다. www.example.com 의 적절한 호스트 이름을 대체합니다.
엣지 TLS 종료 및 사용자 정의 인증서를 사용하여 보안
경로리소스를 생성합니다.$ oc create route edge --service=frontend --cert=tls.crt --key=tls.key --ca-cert=ca.crt --hostname=www.example.com
생성된
Route리소스는 다음과 유사합니다.보안 경로의 YAML 정의
apiVersion: route.openshift.io/v1 kind: Route metadata: name: frontend spec: host: www.example.com to: kind: Service name: frontend tls: termination: edge key: |- -----BEGIN PRIVATE KEY----- [...] -----END PRIVATE KEY----- certificate: |- -----BEGIN CERTIFICATE----- [...] -----END CERTIFICATE----- caCertificate: |- -----BEGIN CERTIFICATE----- [...] -----END CERTIFICATE-----자세한 옵션은
oc create route edge --help를 참조하십시오.
28.2.3. 패스스루 라우팅 생성
oc create route 명령을 사용하여 패스스루 종료를 사용하여 보안 경로를 구성할 수 있습니다. 패스스루 종료를 사용하면 암호화된 트래픽이 라우터에서 TLS 종료를 제공하지 않고 바로 대상으로 전송됩니다. 따라서 라우터에 키 또는 인증서가 필요하지 않습니다.
사전 요구 사항
- 노출하려는 서비스가 있어야 합니다.
절차
Route리소스를 생성합니다.$ oc create route passthrough route-passthrough-secured --service=frontend --port=8080
생성된
Route리소스는 다음과 유사합니다.패스스루 종료를 사용하는 보안 경로
apiVersion: route.openshift.io/v1 kind: Route metadata: name: route-passthrough-secured 1 spec: host: www.example.com port: targetPort: 8080 tls: termination: passthrough 2 insecureEdgeTerminationPolicy: None 3 to: kind: Service name: frontend
대상 Pod는 끝점의 트래픽에 대한 인증서를 제공해야 합니다. 현재 이 방법은 양방향 인증이라고도 하는 클라이언트 인증서도 지원할 수 있는 유일한 방법입니다.
29장. 수신 클러스터 트래픽 구성
29.1. 수신 클러스터 트래픽 구성 개요
OpenShift Container Platform에서는 다음 방법을 통해 클러스터에서 실행되는 서비스와 클러스터 외부에서 통신할 수 있습니다.
순서 또는 기본 설정에 따라 권장되는 방법입니다.
- HTTP/HTTPS가 있는 경우 Ingress 컨트롤러를 사용합니다.
- HTTPS 이외의 TLS 암호화 프로토콜이 있는 경우(예: SNI 헤더가 있는 TLS), Ingress 컨트롤러를 사용합니다.
-
그렇지 않으면 로드 밸런서, 외부 IP 또는
NodePort를 사용합니다.
| 방법 | 목적 |
|---|---|
| HTTPS 이외의 HTTP/HTTPS 트래픽 및 TLS 암호화 프로토콜(예: SNI 헤더가 있는 TLS)에 액세스할 수 있습니다. | |
| 풀에서 할당된 IP 주소를 통해 비표준 포트로의 트래픽을 허용합니다. 대부분의 클라우드 플랫폼은 로드 밸런서 IP 주소로 서비스를 시작하는 방법을 제공합니다. | |
| 시스템 네트워크의 풀에서 특정 IP 주소 또는 주소로의 트래픽을 허용합니다. 베어 메탈과 같은 베어 메탈 설치 또는 플랫폼의 경우 MetalLB는 로드 밸런서 IP 주소로 서비스를 시작하는 방법을 제공합니다. | |
| 특정 IP 주소를 통해 비표준 포트로의 트래픽을 허용합니다. | |
| 클러스터의 모든 노드에 서비스를 공개합니다. |
29.1.1. 비교: 외부 IP 주소에 대한 내결함성 액세스
외부 IP 주소에 대한 액세스를 제공하는 통신 방법의 경우 IP 주소에 대한 내결함성 액세스를 고려해야 합니다. 다음 기능은 외부 IP 주소에 대한 내결함성 액세스를 제공합니다.
- IP 페일오버
- IP 페일오버는 노드 집합의 가상 IP 주소 풀을 관리합니다. Keepalived 및 VRRP(Virtual Router Redundancy Protocol)로 구현됩니다. IP 페일오버는 계층 2 메커니즘일 뿐이며 멀티캐스트를 사용합니다. 멀티캐스트에는 일부 네트워크에 대한 단점이 있을 수 있습니다.
- MetalLB
- MetalLB에는 계층 2 모드가 있지만 멀티캐스트를 사용하지 않습니다. 계층 2 모드에는 하나의 노드를 통해 외부 IP 주소에 대한 모든 트래픽을 전송하는 단점이 있습니다.
- 수동으로 외부 IP 주소 할당
- 외부 IP 주소를 서비스에 할당하는 데 사용되는 IP 주소 블록을 사용하여 클러스터를 구성할 수 있습니다. 이 기능은 기본적으로 비활성화되어 있습니다. 이 기능은 유연하지만 클러스터 또는 네트워크 관리자에게 가장 큰 부담이 됩니다. 클러스터는 외부 IP로 향하는 트래픽을 수신할 준비가 되지만 각 고객은 트래픽을 노드로 라우팅하는 방법을 결정해야 합니다.
29.2. 서비스의 ExternalIP 구성
클러스터 관리자는 클러스터의 서비스로 트래픽을 보낼 수 있는 클러스터 외부의 IP 주소 블록을 지정할 수 있습니다.
이 기능은 일반적으로 베어 메탈 하드웨어에 설치된 클러스터에 가장 유용합니다.
29.2.1. 사전 요구 사항
- 네트워크 인프라는 외부 IP 주소에 대한 트래픽을 클러스터로 라우팅해야 합니다.
29.2.2. ExternalIP 정보
클라우드 환경이 아닌 경우 OpenShift Container Platform은 ExternalIP 기능을 통해 Service 오브젝트 spec.externalIPs[] 필드에 외부 IP 주소 할당을 지원합니다. 이 필드를 설정하면 OpenShift Container Platform에서 추가 가상 IP 주소를 서비스에 할당합니다. IP 주소는 클러스터에 정의된 서비스 네트워크 외부에 있을 수 있습니다. ExternalIP 함수로 구성된 서비스는 type=NodePort 인 서비스와 유사하게 작동하므로 부하 분산을 위해 트래픽을 로컬 노드로 보낼 수 있습니다.
정의한 외부 IP 주소 블록이 클러스터로 라우팅되도록 네트워킹 인프라를 구성해야 합니다.
OpenShift Container Platform은 다음 기능을 추가하여 Kubernetes의 ExternalIP 기능을 확장합니다.
- 구성 가능한 정책을 통해 사용자가 외부 IP 주소 사용 제한
- 요청 시 서비스에 자동으로 외부 IP 주소 할당
ExternalIP 기능은 기본적으로 비활성화되어 있으며, 사용 시 외부 IP 주소에 대한 클러스터 내 트래픽이 해당 서비스로 전달되기 때문에 보안 위험이 발생할 수 있습니다. 이 경우 클러스터 사용자가 외부 리소스로 향하는 민감한 트래픽을 가로챌 수 있습니다.
이 기능은 클라우드 배포가 아닌 경우에만 지원됩니다. 클라우드 배포의 경우 클라우드 로드 밸런서 자동 배포를 위한 로드 밸런서 서비스를 사용하여 서비스 끝점을 대상으로 합니다.
다음과 같은 방법으로 외부 IP 주소를 할당할 수 있습니다.
- 외부 IP 자동 할당
-
OpenShift Container Platform은
spec.type=LoadBalancer가 설정된Service오브젝트를 생성할 때autoAssignCIDRsCIDR 블록의 IP 주소를spec.externalIPs[]배열에 자동으로 할당합니다. 이 경우 OpenShift Container Platform은 로드 밸런서 서비스 유형의 비클라우드 버전을 구현하고 서비스에 IP 주소를 할당합니다. 자동 할당은 기본적으로 비활성화되어 있으며 다음 섹션에 설명된 대로 클러스터 관리자가 구성해야 합니다. - 외부 IP 수동 할당
-
OpenShift Container Platform에서는
Service오브젝트를 생성할 때spec.externalIPs[]배열에 할당된 IP 주소를 사용합니다. 다른 서비스에서 이미 사용 중인 IP 주소는 지정할 수 없습니다.
29.2.2.1. ExternalIP 구성
OpenShift Container Platform에서 외부 IP 주소 사용은 cluster 라는 Network.config.openshift.io CR에 있는 다음 필드로 관리합니다.
-
spec.externalIP.autoAssignCIDRs는 서비스에 대한 외부 IP 주소를 선택할 때 로드 밸런서에서 사용하는 IP 주소 블록을 정의합니다. OpenShift Container Platform에서는 자동 할당에 대해 하나의 IP 주소 블록만 지원합니다. 이렇게 하면 서비스에 ExternalIP를 수동으로 할당 때 제한된 수의 공유 IP 주소로 구성된 포트 공간을 관리하는 것보다 더 간단할 수 있습니다. 자동 할당을 활성화하면spec.type=LoadBalancer인Service에 외부 IP 주소가 할당됩니다. -
spec.externalIP.policy는 IP 주소를 수동으로 지정할 때 허용되는 IP 주소 블록을 정의합니다. OpenShift Container Platform은spec.externalIP.autoAssignCIDRs로 정의된 IP 주소 블록에 정책 규칙을 적용하지 않습니다.
올바르게 라우팅되면 구성된 외부 IP 주소 블록의 외부 트래픽이 서비스에서 노출하는 TCP 또는 UDP 포트를 통해 서비스 끝점에 도달할 수 있습니다.
클러스터 관리자는 OpenShiftSDN 및 OVN-Kubernetes 네트워크 유형 모두에서 externalIP로 라우팅을 구성해야 합니다. 또한 할당하는 IP 주소 블록이 클러스터의 하나 이상의 노드에서 종료되어야 합니다. 자세한 내용은 Kubernetes 외부 IP를 참조하십시오.
OpenShift Container Platform에서는 IP 주소의 자동 및 수동 할당을 모두 지원하며 각 주소는 최대 하나의 서비스에 할당됩니다. 따라서 각 서비스는 다른 서비스에서 노출하는 포트와 관계없이 선택한 포트를 노출할 수 있습니다.
OpenShift Container Platform에서 autoAssignCIDRs 로 정의된 IP 주소 블록을 사용하려면 호스트 네트워크에 필요한 IP 주소 할당 및 라우팅을 구성해야 합니다.
다음 YAML에서는 외부 IP 주소가 구성된 서비스를 설명합니다.
spec.externalIPs[] 가 설정된 Service 오브젝트의 예
apiVersion: v1
kind: Service
metadata:
name: http-service
spec:
clusterIP: 172.30.163.110
externalIPs:
- 192.168.132.253
externalTrafficPolicy: Cluster
ports:
- name: highport
nodePort: 31903
port: 30102
protocol: TCP
targetPort: 30102
selector:
app: web
sessionAffinity: None
type: LoadBalancer
status:
loadBalancer:
ingress:
- ip: 192.168.132.253
29.2.2.2. 외부 IP 주소 할당 제한 사항
클러스터 관리자는 허용 및 거부할 IP 주소 블록을 지정할 수 있습니다.
제한 사항은 cluster-admin 권한이 없는 사용자에게만 적용됩니다. 클러스터 관리자는 서비스 spec.externalIPs[] 필드를 IP 주소로 항상 설정할 수 있습니다.
spec.ExternalIP. 구성합니다. 정책 오브젝트의 형태는 다음과 같습니다.
policy 필드를 지정하여 정의된 정책 오브젝트로 IP 주소 정책을
{
"policy": {
"allowedCIDRs": [],
"rejectedCIDRs": []
}
}정책 제한을 구성할 때는 다음 규칙이 적용됩니다.
-
policy={}가 설정된 경우spec.ExternalIPs[]가 설정된Service오브젝트를 생성할 수 없습니다. 이는 OpenShift Container Platform의 기본값입니다.policy=null이 설정된 동작은 동일합니다. policy가 설정되고policy.allowedCIDRs[]또는policy.rejectedCIDRs[]가 설정된 경우 다음 규칙이 적용됩니다.-
allowedCIDRs[]및rejectedCIDRs[]가 둘 다 설정된 경우rejectedCIDRs[]가allowedCIDRs[]보다 우선합니다. -
allowedCIDRs[]가 설정된 경우 지정된 IP 주소가 허용되는 경우에만spec.ExternalIPs[]를 사용하여Service를 생성할 수 있습니다. -
rejectedCIDRs[]가 설정된 경우 지정된 IP 주소가 거부되지 않는 경우에만spec.ExternalIPs[]를 사용하여Service를 생성할 수 있습니다.
-
29.2.2.3. 정책 오브젝트의 예
다음 예제에서는 다양한 정책 구성을 보여줍니다.
다음 예에서 정책은 OpenShift Container Platform에서 외부 IP 주소가 지정된 서비스를 생성하지 못하도록 합니다.
Service오브젝트spec.externalIPs[]에 지정된 값을 거부하는 정책의 예apiVersion: config.openshift.io/v1 kind: Network metadata: name: cluster spec: externalIP: policy: {} ...다음 예에서는
allowedCIDRs및rejectedCIDRs필드가 모두 설정됩니다.허용되거나 거부된 CIDR 블록을 모두 포함하는 정책의 예
apiVersion: config.openshift.io/v1 kind: Network metadata: name: cluster spec: externalIP: policy: allowedCIDRs: - 172.16.66.10/23 rejectedCIDRs: - 172.16.66.10/24 ...다음 예에서
policy는null로 설정됩니다.null로 설정하면oc get networks.config.openshift.io -o yaml을 입력하여 구성 오브젝트를 검사할 때policy필드가 출력에 표시되지 않습니다.Service오브젝트spec.externalIPs[]에 지정된 모든 값을 허용하는 정책의 예apiVersion: config.openshift.io/v1 kind: Network metadata: name: cluster spec: externalIP: policy: null ...
29.2.3. ExternalIP 주소 블록 구성
ExternalIP 주소 블록에 대한 구성은 cluster 라는 네트워크 CR(사용자 정의 리소스)에 의해 정의됩니다. 네트워크 CR은 config.openshift.io API 그룹의 일부입니다.
CVO(Cluster Version Operator)는 클러스터 설치 중에 cluster 라는 네트워크 CR을 자동으로 생성합니다. 이 유형의 다른 CR 오브젝트는 생성할 수 없습니다.
다음 YAML에서는 ExternalIP 구성을 설명합니다.
cluster라는 Network.config.openshift.io CR
apiVersion: config.openshift.io/v1
kind: Network
metadata:
name: cluster
spec:
externalIP:
autoAssignCIDRs: [] 1
policy: 2
...
다음 YAML에서는 policy 스탠자의 필드를 설명합니다.
Network.config.openshift.io 정책 스탠자
policy: allowedCIDRs: [] 1 rejectedCIDRs: [] 2
외부 IP 구성의 예
외부 IP 주소 풀에 사용 가능한 몇 가지 구성이 다음 예에 표시되어 있습니다.
다음 YAML에서는 자동으로 할당된 외부 IP 주소를 사용하는 구성을 설명합니다.
spec.externalIP.autoAssignCIDRs가 설정된 구성의 예apiVersion: config.openshift.io/v1 kind: Network metadata: name: cluster spec: ... externalIP: autoAssignCIDRs: - 192.168.132.254/29다음 YAML에서는 허용되거나 거부된 CIDR 범위에 대한 정책 규칙을 구성합니다.
spec.externalIP.policy가 설정된 구성의 예apiVersion: config.openshift.io/v1 kind: Network metadata: name: cluster spec: ... externalIP: policy: allowedCIDRs: - 192.168.132.0/29 - 192.168.132.8/29 rejectedCIDRs: - 192.168.132.7/32
29.2.4. 클러스터에 대한 외부 IP 주소 블록 구성
클러스터 관리자는 다음 ExternalIP 설정을 구성할 수 있습니다.
-
Service오브젝트의spec.clusterIP필드를 자동으로 채우기 위해 OpenShift Container Platform에서 사용하는 ExternalIP 주소 블록입니다. -
Service오브젝트의spec.clusterIP배열에 수동으로 할당할 수 있는 IP 주소를 제한하는 정책 오브젝트입니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin역할의 사용자로 클러스터에 액세스합니다.
프로세스
선택 사항: 현재 외부 IP 구성을 표시하려면 다음 명령을 입력합니다.
$ oc describe networks.config cluster
구성을 편집하려면 다음 명령을 입력합니다.
$ oc edit networks.config cluster
다음 예와 같이 ExternalIP 구성을 수정합니다.
apiVersion: config.openshift.io/v1 kind: Network metadata: name: cluster spec: ... externalIP: 1 ...- 1
externalIP스탠자에 대한 구성을 지정합니다.
업데이트된 ExternalIP 구성을 확인하려면 다음 명령을 입력합니다.
$ oc get networks.config cluster -o go-template='{{.spec.externalIP}}{{"\n"}}'
29.2.5. 다음 단계
29.3. Ingress 컨트롤러를 사용한 수신 클러스터 트래픽 구성
OpenShift Container Platform에서는 클러스터에서 실행되는 서비스와 클러스터 외부에서 통신할 수 있습니다. 이 방법에서는 Ingress 컨트롤러를 사용합니다.
29.3.1. Ingress 컨트롤러 및 경로 사용
Ingress Operator에서는 Ingress 컨트롤러 및 와일드카드 DNS를 관리합니다.
OpenShift Container Platform 클러스터에 대한 외부 액세스를 허용하는 가장 일반적인 방법은 Ingress 컨트롤러를 사용하는 것입니다.
Ingress 컨트롤러는 외부 요청을 수락하고 구성된 경로를 기반으로 이러한 요청을 프록시하도록 구성되어 있습니다. 이는 HTTP, SNI를 사용하는 HTTPS, SNI를 사용하는 TLS로 제한되며, SNI를 사용하는 TLS를 통해 작동하는 웹 애플리케이션 및 서비스에 충분합니다.
관리자와 협력하여 구성된 경로를 기반으로 외부 요청을 수락하고 프록시하도록 Ingress 컨트롤러를 구성하십시오.
관리자는 와일드카드 DNS 항목을 생성한 다음 Ingress 컨트롤러를 설정할 수 있습니다. 그러면 관리자에게 문의하지 않고도 엣지 Ingress 컨트롤러로 작업할 수 있습니다.
기본적으로 클러스터의 모든 Ingress 컨트롤러는 클러스터의 모든 프로젝트에서 생성된 경로를 허용할 수 있습니다.
Ingress 컨트롤러의 경우
- 기본적으로 두 개의 복제본이 있으므로 두 개의 작업자 노드에서 실행되어야 합니다.
- 더 많은 노드에 더 많은 복제본을 갖도록 확장할 수 있습니다.
이 섹션의 절차에는 클러스터 관리자가 수행해야 하는 사전 요구 사항이 필요합니다.
29.3.2. 사전 요구 사항
다음 절차를 시작하기 전에 관리자는 다음을 수행해야 합니다.
- 요청이 클러스터에 도달할 수 있도록 외부 포트를 클러스터 네트워킹 환경으로 설정합니다.
클러스터 관리자 역할의 사용자가 한 명 이상 있는지 확인합니다. 이 역할을 사용자에게 추가하려면 다음 명령을 실행합니다.
$ oc adm policy add-cluster-role-to-user cluster-admin username
- 클러스터에 대한 네트워크 액세스 권한이 있는 마스터와 노드가 클러스터 외부에 각각 1개 이상씩 있는 OpenShift Container Platform 클러스터가 있어야 합니다. 이 절차에서는 외부 시스템이 클러스터와 동일한 서브넷에 있다고 가정합니다. 다른 서브넷에 있는 외부 시스템에 필요한 추가 네트워킹은 이 주제에서 다루지 않습니다.
29.3.3. 프로젝트 및 서비스 생성
노출하려는 프로젝트 및 서비스가 존재하지 않는 경우 먼저 프로젝트를 생성한 다음 서비스를 생성합니다.
프로젝트와 서비스가 이미 존재하는 경우에는 서비스 노출 절차로 건너뛰어 경로를 생성합니다.
사전 요구 사항
-
ocCLI를 설치하고 클러스터 관리자로 로그인합니다.
프로세스
oc new-project명령을 실행하여 서비스에 대한 새 프로젝트를 생성합니다.$ oc new-project myproject
oc new-app명령을 사용하여 서비스를 생성합니다.$ oc new-app nodejs:12~https://github.com/sclorg/nodejs-ex.git
서비스가 생성되었는지 확인하려면 다음 명령을 실행합니다.
$ oc get svc -n myproject
출력 예
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE nodejs-ex ClusterIP 172.30.197.157 <none> 8080/TCP 70s
기본적으로 새 서비스에는 외부 IP 주소가 없습니다.
29.3.4. 경로를 생성하여 서비스 노출
oc expose 명령을 사용하여 서비스를 경로로 노출할 수 있습니다.
프로세스
서비스를 노출하려면 다음을 수행하십시오.
- OpenShift Container Platform 4에 로그인합니다.
노출하려는 서비스가 있는 프로젝트에 로그인합니다.
$ oc project myproject
oc expose service명령을 실행하여 경로를 노출합니다.$ oc expose service nodejs-ex
출력 예
route.route.openshift.io/nodejs-ex exposed
서비스가 노출되었는지 확인하려면 cURL과 같은 툴을 사용하여 클러스터 외부에서 서비스에 액세스할 수 있는지 확인할 수 있습니다.
oc get route명령을 사용하여 경로의 호스트 이름을 찾습니다.$ oc get route
출력 예
NAME HOST/PORT PATH SERVICES PORT TERMINATION WILDCARD nodejs-ex nodejs-ex-myproject.example.com nodejs-ex 8080-tcp None
cURL을 사용하여 호스트가 GET 요청에 응답하는지 확인합니다.
$ curl --head nodejs-ex-myproject.example.com
출력 예
HTTP/1.1 200 OK ...
29.3.5. 경로 라벨을 사용하여 Ingress 컨트롤러 분할 구성
경로 라벨을 사용한 Ingress 컨트롤러 분할이란 Ingress 컨트롤러가 경로 선택기에서 선택한 모든 네임스페이스의 모든 경로를 제공한다는 뜻입니다.
그림 29.1. 경로 라벨을 사용한 Ingress 분할

Ingress 컨트롤러 분할은 들어오는 트래픽 부하를 일련의 Ingress 컨트롤러에 균형 있게 분배하고 트래픽을 특정 Ingress 컨트롤러에 격리할 때 유용합니다. 예를 들어, 회사 A는 하나의 Ingress 컨트롤러로, 회사 B는 다른 Ingress 컨트롤러로 이동합니다.
프로세스
router-internal.yaml파일을 편집합니다.# cat router-internal.yaml apiVersion: v1 items: - apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: sharded namespace: openshift-ingress-operator spec: domain: <apps-sharded.basedomain.example.net> 1 nodePlacement: nodeSelector: matchLabels: node-role.kubernetes.io/worker: "" routeSelector: matchLabels: type: sharded status: {} kind: List metadata: resourceVersion: "" selfLink: ""- 1
- Ingress 컨트롤러에서 사용할 도메인을 지정합니다. 이 도메인은 기본 Ingress 컨트롤러 도메인과 달라야 합니다.
Ingress 컨트롤러
router-internal.yaml파일을 적용합니다.# oc apply -f router-internal.yaml
Ingress 컨트롤러는
type: sharded라벨이 있는 네임스페이스에서 경로를 선택합니다.router-internal.yaml에 구성된 도메인을 사용하여 새 경로를 생성합니다.$ oc expose svc <service-name> --hostname <route-name>.apps-sharded.basedomain.example.net
29.3.6. 네임스페이스 라벨을 사용하여 Ingress 컨트롤러 분할 구성
네임스페이스 라벨을 사용한 Ingress 컨트롤러 분할이란 Ingress 컨트롤러가 네임스페이스 선택기에서 선택한 모든 네임스페이스의 모든 경로를 제공한다는 뜻입니다.
그림 29.2. 네임스페이스 라벨을 사용한 Ingress 분할

Ingress 컨트롤러 분할은 들어오는 트래픽 부하를 일련의 Ingress 컨트롤러에 균형 있게 분배하고 트래픽을 특정 Ingress 컨트롤러에 격리할 때 유용합니다. 예를 들어, 회사 A는 하나의 Ingress 컨트롤러로, 회사 B는 다른 Ingress 컨트롤러로 이동합니다.
프로세스
router-internal.yaml파일을 편집합니다.# cat router-internal.yaml
출력 예
apiVersion: v1 items: - apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: sharded namespace: openshift-ingress-operator spec: domain: <apps-sharded.basedomain.example.net> 1 nodePlacement: nodeSelector: matchLabels: node-role.kubernetes.io/worker: "" namespaceSelector: matchLabels: type: sharded status: {} kind: List metadata: resourceVersion: "" selfLink: ""- 1
- Ingress 컨트롤러에서 사용할 도메인을 지정합니다. 이 도메인은 기본 Ingress 컨트롤러 도메인과 달라야 합니다.
Ingress 컨트롤러
router-internal.yaml파일을 적용합니다.# oc apply -f router-internal.yaml
Ingress 컨트롤러는 네임스페이스 선택기에서 선택한
type: sharded라벨이 있는 네임스페이스에서 경로를 선택합니다.router-internal.yaml에 구성된 도메인을 사용하여 새 경로를 생성합니다.$ oc expose svc <service-name> --hostname <route-name>.apps-sharded.basedomain.example.net
29.3.7. Ingress 컨트롤러 샤딩 경로 생성
경로를 사용하면 URL에서 애플리케이션을 호스팅할 수 있습니다. 이 경우 호스트 이름이 설정되지 않고 경로에서 하위 도메인을 대신 사용합니다. 하위 도메인을 지정하면 경로를 노출하는 Ingress 컨트롤러의 도메인을 자동으로 사용합니다. 여러 Ingress 컨트롤러에서 경로를 노출하는 경우 경로가 여러 URL에서 호스팅됩니다.
다음 절차에서는 hello-openshift 애플리케이션을 예로 사용하여 Ingress 컨트롤러 샤딩 경로를 생성하는 방법을 설명합니다.
Ingress 컨트롤러 분할은 들어오는 트래픽 부하를 일련의 Ingress 컨트롤러에 균형 있게 분배하고 트래픽을 특정 Ingress 컨트롤러에 격리할 때 유용합니다. 예를 들어, 회사 A는 하나의 Ingress 컨트롤러로, 회사 B는 다른 Ingress 컨트롤러로 이동합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - 프로젝트 관리자로 로그인되어 있습니다.
- 포트의 트래픽을 청취하는 HTTP 또는 TLS 엔드포인트를 노출하는 웹 애플리케이션이 있습니다.
- 샤딩을 위해 Ingress 컨트롤러가 구성되어 있습니다.
프로세스
다음 명령을 실행하여
hello-openshift라는 프로젝트를 생성합니다.$ oc new-project hello-openshift
다음 명령을 실행하여 프로젝트에서 Pod를 생성합니다.
$ oc create -f https://raw.githubusercontent.com/openshift/origin/master/examples/hello-openshift/hello-pod.json
다음 명령을 실행하여
hello-openshift라는 서비스를 생성합니다.$ oc expose pod/hello-openshift
hello-openshift-route.yaml이라는 경로 정의를 생성합니다.분할을 위해 생성된 경로에 대한 YAML 정의:
apiVersion: route.openshift.io/v1 kind: Route metadata: labels: type: sharded 1 name: hello-openshift-edge namespace: hello-openshift spec: subdomain: hello-openshift 2 tls: termination: edge to: kind: Service name: hello-openshifthello-openshift-route.yaml을 사용하여 다음 명령을 실행하여hello-openshift애플리케이션에 대한 경로를 생성합니다.$ oc -n hello-openshift create -f hello-openshift-route.yaml
검증
다음 명령을 사용하여 경로 상태를 가져옵니다.
$ oc -n hello-openshift get routes/hello-openshift-edge -o yaml
결과
Route리소스는 다음과 유사해야 합니다.출력 예
apiVersion: route.openshift.io/v1 kind: Route metadata: labels: type: sharded name: hello-openshift-edge namespace: hello-openshift spec: subdomain: hello-openshift tls: termination: edge to: kind: Service name: hello-openshift status: ingress: - host: hello-openshift.<apps-sharded.basedomain.example.net> 1 routerCanonicalHostname: router-sharded.<apps-sharded.basedomain.example.net> 2 routerName: sharded 3
29.3.8. 추가 리소스
Ingress Operator는 와일드카드 DNS를 관리합니다. 자세한 내용은 다음을 참조하십시오.
29.4. 로드 밸런서를 사용하여 수신 클러스터 트래픽 구성
OpenShift Container Platform에서는 클러스터에서 실행되는 서비스와 클러스터 외부에서 통신할 수 있습니다. 이 방법에서는 로드 밸런서를 사용합니다.
29.4.1. 로드 밸런서를 사용하여 클러스터로 트래픽 가져오기
특정 외부 IP 주소가 필요하지 않은 경우 OpenShift Container Platform 클러스터에 대한 외부 액세스를 허용하도록 로드 밸런서 서비스를 구성할 수 있습니다.
로드 밸런서 서비스에서는 고유 IP를 할당합니다. 로드 밸런서에는 VIP(가상 IP)일 수 있는 단일 엣지 라우터 IP가 있지만 이는 초기 로드 밸런싱을 위한 단일 머신에 불과합니다.
풀이 구성된 경우 클러스터 관리자가 아닌 인프라 수준에서 수행됩니다.
이 섹션의 절차에는 클러스터 관리자가 수행해야 하는 사전 요구 사항이 필요합니다.
29.4.2. 사전 요구 사항
다음 절차를 시작하기 전에 관리자는 다음을 수행해야 합니다.
- 요청이 클러스터에 도달할 수 있도록 외부 포트를 클러스터 네트워킹 환경으로 설정합니다.
클러스터 관리자 역할의 사용자가 한 명 이상 있는지 확인합니다. 이 역할을 사용자에게 추가하려면 다음 명령을 실행합니다.
$ oc adm policy add-cluster-role-to-user cluster-admin username
- 클러스터에 대한 네트워크 액세스 권한이 있는 마스터와 노드가 클러스터 외부에 각각 1개 이상씩 있는 OpenShift Container Platform 클러스터가 있어야 합니다. 이 절차에서는 외부 시스템이 클러스터와 동일한 서브넷에 있다고 가정합니다. 다른 서브넷에 있는 외부 시스템에 필요한 추가 네트워킹은 이 주제에서 다루지 않습니다.
29.4.3. 프로젝트 및 서비스 생성
노출하려는 프로젝트 및 서비스가 존재하지 않는 경우 먼저 프로젝트를 생성한 다음 서비스를 생성합니다.
프로젝트와 서비스가 이미 존재하는 경우에는 서비스 노출 절차로 건너뛰어 경로를 생성합니다.
사전 요구 사항
-
ocCLI를 설치하고 클러스터 관리자로 로그인합니다.
프로세스
oc new-project명령을 실행하여 서비스에 대한 새 프로젝트를 생성합니다.$ oc new-project myproject
oc new-app명령을 사용하여 서비스를 생성합니다.$ oc new-app nodejs:12~https://github.com/sclorg/nodejs-ex.git
서비스가 생성되었는지 확인하려면 다음 명령을 실행합니다.
$ oc get svc -n myproject
출력 예
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE nodejs-ex ClusterIP 172.30.197.157 <none> 8080/TCP 70s
기본적으로 새 서비스에는 외부 IP 주소가 없습니다.
29.4.4. 경로를 생성하여 서비스 노출
oc expose 명령을 사용하여 서비스를 경로로 노출할 수 있습니다.
프로세스
서비스를 노출하려면 다음을 수행하십시오.
- OpenShift Container Platform 4에 로그인합니다.
노출하려는 서비스가 있는 프로젝트에 로그인합니다.
$ oc project myproject
oc expose service명령을 실행하여 경로를 노출합니다.$ oc expose service nodejs-ex
출력 예
route.route.openshift.io/nodejs-ex exposed
서비스가 노출되었는지 확인하려면 cURL과 같은 툴을 사용하여 클러스터 외부에서 서비스에 액세스할 수 있는지 확인할 수 있습니다.
oc get route명령을 사용하여 경로의 호스트 이름을 찾습니다.$ oc get route
출력 예
NAME HOST/PORT PATH SERVICES PORT TERMINATION WILDCARD nodejs-ex nodejs-ex-myproject.example.com nodejs-ex 8080-tcp None
cURL을 사용하여 호스트가 GET 요청에 응답하는지 확인합니다.
$ curl --head nodejs-ex-myproject.example.com
출력 예
HTTP/1.1 200 OK ...
29.4.5. 로드 밸런서 서비스 생성
다음 절차에 따라 로드 밸런서 서비스를 생성합니다.
사전 요구 사항
- 노출하려는 프로젝트와 서비스가 존재하는지 확인합니다.
- 클라우드 공급자는 로드 밸런서를 지원합니다.
프로세스
로드 밸런서 서비스를 생성하려면 다음을 수행합니다.
- OpenShift Container Platform 4에 로그인합니다.
노출하려는 서비스가 있는 프로젝트를 로드합니다.
$ oc project project1
필요에 따라 컨트롤 플레인 노드에서 텍스트 파일을 열고 다음 텍스트를 붙여넣고 파일을 편집합니다.
로드 밸런서 구성 파일 샘플
apiVersion: v1 kind: Service metadata: name: egress-2 1 spec: ports: - name: db port: 3306 2 loadBalancerIP: loadBalancerSourceRanges: 3 - 10.0.0.0/8 - 192.168.0.0/16 type: LoadBalancer 4 selector: name: mysql 5
참고로드 밸런서를 통한 트래픽을 특정 IP 주소로 제한하려면 Ingress 컨트롤러 필드
spec.endpointPublishingStrategy.loadBalancer.allowedSourceRanges를 사용하는 것이 좋습니다.loadBalancerSourceRanges필드를 설정하지 마십시오.- 파일을 저장하고 종료합니다.
다음 명령을 실행하여 서비스를 생성합니다.
$ oc create -f <file-name>
예를 들면 다음과 같습니다.
$ oc create -f mysql-lb.yaml
새 서비스를 보려면 다음 명령을 실행합니다.
$ oc get svc
출력 예
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE egress-2 LoadBalancer 172.30.22.226 ad42f5d8b303045-487804948.example.com 3306:30357/TCP 15m
활성화된 클라우드 공급자가 있는 경우 서비스에 외부 IP 주소가 자동으로 할당됩니다.
마스터에서 cURL과 같은 도구를 사용하여 공개 IP 주소로 서비스에 도달할 수 있는지 확인합니다.
$ curl <public-ip>:<port>
예를 들면 다음과 같습니다.
$ curl 172.29.121.74:3306
이 섹션의 예제에서는 클라이언트 애플리케이션이 필요한 MySQL 서비스를 사용합니다.
패킷이 잘못됨이라는 메시지가 포함된 문자열이 표시되면 서비스에 연결하는 것입니다.MySQL 클라이언트가 있는 경우 표준 CLI 명령으로 로그인하십시오.
$ mysql -h 172.30.131.89 -u admin -p
출력 예
Enter password: Welcome to the MariaDB monitor. Commands end with ; or \g. MySQL [(none)]>
29.5. AWS에서 수신 클러스터 트래픽 구성
OpenShift Container Platform에서는 클러스터에서 실행되는 서비스와 클러스터 외부에서 통신할 수 있습니다. 이 방법은 AWS의 로드 밸런서, 특히 NLB(Network Load Balancer) 또는 Classic Load Balancer(CLB)를 사용합니다. 두 유형의 로드 밸런서 모두 클라이언트의 IP 주소를 노드로 전달할 수 있지만 CLB에는 OpenShift Container Platform이 자동으로 활성화하는 프록시 프로토콜 지원이 필요합니다.
NLB를 사용하도록 Ingress 컨트롤러를 구성하는 방법은 다음 두 가지가 있습니다.
-
현재 CLB를 사용하고 있는 Ingress 컨트롤러를 강제로 교체합니다. 이렇게 하면 새 DNS 레코드가 전파되고 NLB가 프로비저닝되는 동안
IngressController오브젝트와 중단이 삭제됩니다. -
CLB를 사용하여 NLB를 사용하는 기존 Ingress 컨트롤러를 편집합니다. 이렇게 하면
IngressController오브젝트를 삭제하지 않고 로드 밸런서가 변경됩니다.
두 방법 모두 NLB에서 CLB로 전환하는 데 사용할 수 있습니다.
이러한 로드 밸런서를 신규 또는 기존 AWS 클러스터에서 구성할 수 있습니다.
29.5.1. AWS에서 Classic 로드 밸런서 타임아웃 구성
OpenShift Container Platform에서는 특정 경로 또는 Ingress 컨트롤러에 대한 사용자 정의 시간 제한 기간을 설정하는 방법을 제공합니다. 또한 AWS Classic Load Balancer(CLB)에는 기본 시간이 60초인 자체 시간 초과 기간이 있습니다.
CLB의 시간 초과 기간이 경로 시간 초과 또는 Ingress 컨트롤러 타임아웃보다 짧은 경우 로드 밸런서에서 연결을 조기 종료할 수 있습니다. 경로의 시간 제한 기간과 CLB를 모두 늘려 이 문제를 방지할 수 있습니다.
29.5.1.1. 경로 시간 초과 구성
SLA(Service Level Availability) 목적에 필요한 낮은 시간 초과 또는 백엔드가 느린 경우 높은 시간 초과가 필요한 서비스가 있는 경우 기존 경로에 대한 기본 시간 초과를 구성할 수 있습니다.
사전 요구 사항
- 실행 중인 클러스터에 배포된 Ingress 컨트롤러가 필요합니다.
절차
oc annotate명령을 사용하여 경로에 시간 초과를 추가합니다.$ oc annotate route <route_name> \ --overwrite haproxy.router.openshift.io/timeout=<timeout><time_unit> 1- 1
- 지원되는 시간 단위는 마이크로초(us), 밀리초(ms), 초(s), 분(m), 시간(h) 또는 일(d)입니다.
다음 예제에서는 이름이
myroute인 경로에서 2초의 시간 초과를 설정합니다.$ oc annotate route myroute --overwrite haproxy.router.openshift.io/timeout=2s
29.5.1.2. Classic 로드 밸런서 타임아웃 구성
유휴 연결을 확장하도록 CLB( Classic Load Balancer)의 기본 타임아웃을 구성할 수 있습니다.
사전 요구 사항
- 실행 중인 클러스터에 배포된 Ingress 컨트롤러가 있어야 합니다.
절차
다음 명령을 실행하여 기본
ingresscontroller에 대해 AWS 연결 유휴 상태 타임아웃을 5분으로 설정합니다.$ oc -n openshift-ingress-operator patch ingresscontroller/default \ --type=merge --patch='{"spec":{"endpointPublishingStrategy": \ {"type":"LoadBalancerService", "loadBalancer": \ {"scope":"External", "providerParameters":{"type":"AWS", "aws": \ {"type":"Classic", "classicLoadBalancer": \ {"connectionIdleTimeout":"5m"}}}}}}}'선택 사항: 다음 명령을 실행하여 시간 초과의 기본값을 복원합니다.
$ oc -n openshift-ingress-operator patch ingresscontroller/default \ --type=merge --patch='{"spec":{"endpointPublishingStrategy": \ {"loadBalancer":{"providerParameters":{"aws":{"classicLoadBalancer": \ {"connectionIdleTimeout":null}}}}}}}'
현재 범위가 이미 설정되어 있지 않으면 연결 시간 초과 값을 변경할 때 범위 필드를 지정해야 합니다. 범위 필드를 설정하면 기본 시간 초과 값을 복원하는 경우 다시 수행할 필요가 없습니다.
29.5.2. 네트워크 로드 밸런서를 사용하여 AWS에서 수신 클러스터 트래픽 구성
OpenShift Container Platform은 클러스터에서 실행되는 서비스와 클러스터 외부에서 통신할 수 있는 방법을 제공합니다. 이러한 방법 중 하나는 NLB(Network Load Balancer)를 사용합니다. 신규 또는 기존 AWS 클러스터에서 NLB를 구성할 수 있습니다.
29.5.2.1. Ingress 컨트롤러를 Classic Load Balancer를 네트워크 로드 밸런서로 전환
CLB(Network Load Balancer)를 AWS의 NLB(Network Load Balancer)를 사용하는 Ingress 컨트롤러를 사용할 수 있습니다.
이러한 로드 밸런서 간 전환은 IngressController 오브젝트를 삭제하지 않습니다.
이 절차에서는 다음과 같은 문제가 발생할 수 있습니다.
- 새로운 DNS 레코드 전파, 새로운 로드 밸런서 프로비저닝 및 기타 요인으로 인해 몇 분 정도 걸릴 수 있는 중단입니다. 이 절차를 적용한 후 Ingress 컨트롤러 로드 밸런서의 IP 주소 및 정식 이름이 변경될 수 있습니다.
- 서비스 주석이 변경되어 로드 밸런서 리소스가 유출되었습니다.
절차
NLB를 사용하여 전환할 기존 Ingress 컨트롤러를 수정합니다. 이 예에서는 기본 Ingress 컨트롤러에
외부범위가 있고 다른 사용자 정의가 없다고 가정합니다.ingresscontroller.yaml파일 예apiVersion: operator.openshift.io/v1 kind: IngressController metadata: creationTimestamp: null name: default namespace: openshift-ingress-operator spec: endpointPublishingStrategy: loadBalancer: scope: External providerParameters: type: AWS aws: type: NLB type: LoadBalancerService참고spec.endpointPublishingStrategy.loadBalancer.providerParameters.aws.type필드의 값을 지정하지 않으면 Ingress 컨트롤러는 설치 중에 설정된 클러스터Ingress구성에서spec.loadBalancer.platform.aws.type값을 사용합니다.작은 정보Ingress 컨트롤러에 도메인 변경과 같이 업데이트할 다른 사용자 정의가 있는 경우 Ingress 컨트롤러 정의 파일을 대신 교체하는 것이 좋습니다.
명령을 실행하여 Ingress 컨트롤러 YAML 파일에 변경 사항을 적용합니다.
$ oc apply -f ingresscontroller.yaml
Ingress 컨트롤러 업데이트 중에 몇 분의 중단이 예상됩니다.
29.5.2.2. Ingress 컨트롤러를 Network Load Balancer를 Classic Load Balancer로 전환
NLB(Network Load Balancer)를 사용하는 Ingress 컨트롤러를 AWS에서 CLB( Classic Load Balancer)를 사용하는 컨트롤러로 전환할 수 있습니다.
이러한 로드 밸런서 간 전환은 IngressController 오브젝트를 삭제하지 않습니다.
이 절차에서는 새로운 DNS 레코드 전파, 새로운 로드 밸런서 프로비저닝 및 기타 요인으로 인해 몇 분 정도 걸릴 수 있는 중단이 발생할 수 있습니다. 이 절차를 적용한 후 Ingress 컨트롤러 로드 밸런서의 IP 주소 및 정식 이름이 변경될 수 있습니다.
절차
CLB를 사용하여 전환할 기존 Ingress 컨트롤러를 수정합니다. 이 예에서는 기본 Ingress 컨트롤러에
외부범위가 있고 다른 사용자 정의가 없다고 가정합니다.ingresscontroller.yaml파일 예apiVersion: operator.openshift.io/v1 kind: IngressController metadata: creationTimestamp: null name: default namespace: openshift-ingress-operator spec: endpointPublishingStrategy: loadBalancer: scope: External providerParameters: type: AWS aws: type: Classic type: LoadBalancerService참고spec.endpointPublishingStrategy.loadBalancer.providerParameters.aws.type필드의 값을 지정하지 않으면 Ingress 컨트롤러는 설치 중에 설정된 클러스터Ingress구성에서spec.loadBalancer.platform.aws.type값을 사용합니다.작은 정보Ingress 컨트롤러에 도메인 변경과 같이 업데이트할 다른 사용자 정의가 있는 경우 Ingress 컨트롤러 정의 파일을 대신 교체하는 것이 좋습니다.
명령을 실행하여 Ingress 컨트롤러 YAML 파일에 변경 사항을 적용합니다.
$ oc apply -f ingresscontroller.yaml
Ingress 컨트롤러 업데이트 중에 몇 분의 중단이 예상됩니다.
29.5.2.3. Ingress 컨트롤러 Classic Load Balancer를 네트워크 로드 밸런서로 교체
CLB(Network Load Balancer)를 AWS에서 NLB(Network Load Balancer)를 사용하는 Ingress 컨트롤러를 교체할 수 있습니다.
이 절차에서는 다음과 같은 문제가 발생할 수 있습니다.
- 새로운 DNS 레코드 전파, 새로운 로드 밸런서 프로비저닝 및 기타 요인으로 인해 몇 분 정도 걸릴 수 있는 중단입니다. 이 절차를 적용한 후 Ingress 컨트롤러 로드 밸런서의 IP 주소 및 정식 이름이 변경될 수 있습니다.
- 서비스 주석이 변경되어 로드 밸런서 리소스가 유출되었습니다.
절차
새 기본 Ingress 컨트롤러를 사용하여 파일을 생성합니다. 다음 예제에서는 기본 Ingress 컨트롤러에
외부범위가 있고 다른 사용자 정의가 없다고 가정합니다.ingresscontroller.yml파일 예apiVersion: operator.openshift.io/v1 kind: IngressController metadata: creationTimestamp: null name: default namespace: openshift-ingress-operator spec: endpointPublishingStrategy: loadBalancer: scope: External providerParameters: type: AWS aws: type: NLB type: LoadBalancerService기본 Ingress 컨트롤러에 다른 사용자 정의가 있는 경우 그에 따라 파일을 수정해야 합니다.
작은 정보Ingress 컨트롤러에 다른 사용자 지정 기능이 없고 로드 밸런서 유형만 업데이트하는 경우 "프로세스 로드 밸런서를 네트워크 로드 밸런서로 사용하지 못하도록 전환에서 Ingress 컨트롤러가 네트워크 로드 밸런서로 전환"에 자세히 설명된 절차를 고려하십시오.
Ingress 컨트롤러 YAML 파일을 강제로 교체합니다.
$ oc replace --force --wait -f ingresscontroller.yml
Ingress 컨트롤러가 교체될 때까지 기다립니다. 몇 분의 중단이 발생할 것으로 예상합니다.
29.5.2.4. 기존 AWS 클러스터에서 Ingress 컨트롤러 네트워크 로드 밸런서 생성
기존 클러스터에서 AWS NLB(Network Load Balancer)가 지원하는 Ingress 컨트롤러를 생성할 수 있습니다.
사전 요구 사항
- AWS 클러스터가 설치되어 있어야 합니다.
인프라 리소스의
PlatformStatus는 AWS여야 합니다.PlatformStatus가 AWS인지 확인하려면 다음을 실행합니다.$ oc get infrastructure/cluster -o jsonpath='{.status.platformStatus.type}' AWS
절차
기존 클러스터에서 AWS NLB가 지원하는 Ingress 컨트롤러를 생성합니다.
Ingress 컨트롤러 매니페스트를 생성합니다.
$ cat ingresscontroller-aws-nlb.yaml
출력 예
apiVersion: operator.openshift.io/v1 kind: IngressController metadata: name: $my_ingress_controller1 namespace: openshift-ingress-operator spec: domain: $my_unique_ingress_domain2 endpointPublishingStrategy: type: LoadBalancerService loadBalancer: scope: External3 providerParameters: type: AWS aws: type: NLB
클러스터에서 리소스를 생성합니다.
$ oc create -f ingresscontroller-aws-nlb.yaml
새 AWS 클러스터에서 Ingress 컨트롤러 NLB를 구성하려면 먼저 설치 구성 파일 생성 프로세스를 완료해야 합니다.
29.5.2.5. 새 AWS 클러스터에서 Ingress 컨트롤러 네트워크 로드 밸런서 생성
새 클러스터에서 AWS NLB(Network Load Balancer)가 지원하는 Ingress 컨트롤러를 생성할 수 있습니다.
사전 요구 사항
-
install-config.yaml파일을 생성하고 수정합니다.
절차
새 클러스터에서 AWS NLB가 지원하는 Ingress 컨트롤러를 생성합니다.
설치 프로그램이 포함된 디렉터리로 변경하고 매니페스트를 생성합니다.
$ ./openshift-install create manifests --dir <installation_directory> 1- 1
- &
lt;installation_directory>는 클러스터의install-config.yaml파일이 포함된 디렉터리의 이름을 지정합니다.
<
installation_directory>/manifests/ 디렉터리에cluster-ingress-default-ingresscontroller.yaml이라는 이름을 가진 파일을 생성합니다.$ touch <installation_directory>/manifests/cluster-ingress-default-ingresscontroller.yaml 1- 1
- &
lt;installation_directory>는 클러스터의manifests/디렉터리가 포함된 디렉터리 이름을 지정합니다.
파일이 생성되면 다음과 같이 여러 네트워크 구성 파일이
manifests/디렉터리에 있습니다.$ ls <installation_directory>/manifests/cluster-ingress-default-ingresscontroller.yaml
출력 예
cluster-ingress-default-ingresscontroller.yaml
편집기에서
cluster-ingress-default-ingresscontroller.yaml파일을 열고 원하는 Operator 구성을 설명하는 CR(사용자 정의 리소스)을 입력합니다.apiVersion: operator.openshift.io/v1 kind: IngressController metadata: creationTimestamp: null name: default namespace: openshift-ingress-operator spec: endpointPublishingStrategy: loadBalancer: scope: External providerParameters: type: AWS aws: type: NLB type: LoadBalancerService-
cluster-ingress-default-ingresscontroller.yaml파일을 저장하고 텍스트 편집기를 종료합니다. -
선택사항:
manifests/cluster-ingress-default-ingresscontroller.yaml파일을 백업합니다. 설치 프로그램은 클러스터를 생성할 때manifests/디렉터리를 삭제합니다.
29.5.3. 추가 리소스
- 네트워크 사용자 지정으로 AWS에 클러스터를 설치합니다.
- NLB 지원에 대한 자세한 내용은 AWS의 Network Load Balancer 지원을 참조하십시오.
- CLB에 대한 프록시 프로토콜 지원에 대한 자세한 내용은 Classic Load Balancer에 대한 프록시 프로토콜 지원 구성을참조하십시오.
29.6. 서비스 외부 IP에 대한 수신 클러스터 트래픽 구성
클러스터 외부의 트래픽에 사용할 수 있도록 외부 IP 주소를 서비스에 연결할 수 있습니다. 이는 일반적으로 베어 메탈 하드웨어에 설치된 클러스터에만 유용합니다. 트래픽을 서비스로 라우팅하려면 외부 네트워크 인프라를 올바르게 구성해야 합니다.
29.6.1. 사전 요구 사항
클러스터는 ExternalIP가 활성화된 상태로 구성됩니다. 자세한 내용은 서비스의 ExternalIP 구성을 참조하십시오.
참고송신 IP에 대해 동일한 ExternalIP를 사용하지 마십시오.
29.6.2. 서비스에 ExternalIP 연결
서비스에 ExternalIP를 연결할 수 있습니다. 클러스터가 ExternalIP를 자동으로 할당하도록 구성된 경우, ExternalIP를 서비스에 수동으로 연결할 필요가 없습니다.
절차
선택 사항: ExternalIP와 함께 사용하도록 구성된 IP 주소 범위를 확인하려면 다음 명령을 입력합니다.
$ oc get networks.config cluster -o jsonpath='{.spec.externalIP}{"\n"}'autoAssignCIDRs가 설정된 경우spec.externalIPs필드가 지정되지 않은 경우 OpenShift Container Platform에서 새Service오브젝트에 ExternalIP를 자동으로 할당합니다.서비스에 ExternalIP를 연결합니다.
새 서비스를 생성하는 경우
spec.externalIPs필드를 지정하고 하나 이상의 유효한 IP 주소 배열을 제공합니다. 예를 들면 다음과 같습니다.apiVersion: v1 kind: Service metadata: name: svc-with-externalip spec: ... externalIPs: - 192.174.120.10
ExternalIP를 기존 서비스에 연결하는 경우 다음 명령을 입력합니다. <
;name>을 서비스 이름으로 바꿉니다. <ip_address>를 유효한 ExternalIP 주소로 바꿉니다. 쉼표로 구분된 여러 IP 주소를 제공할 수 있습니다.$ oc patch svc <name> -p \ '{ "spec": { "externalIPs": [ "<ip_address>" ] } }'예를 들면 다음과 같습니다.
$ oc patch svc mysql-55-rhel7 -p '{"spec":{"externalIPs":["192.174.120.10"]}}'출력 예
"mysql-55-rhel7" patched
ExternalIP 주소가 서비스에 연결되었는지 확인하려면 다음 명령을 입력합니다. 새 서비스에 ExternalIP를 지정한 경우 먼저 서비스를 생성해야 합니다.
$ oc get svc
출력 예
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE mysql-55-rhel7 172.30.131.89 192.174.120.10 3306/TCP 13m
29.6.3. 추가 리소스
29.7. NodePort를 사용하여 수신 클러스터 트래픽 구성
OpenShift Container Platform에서는 클러스터에서 실행되는 서비스와 클러스터 외부에서 통신할 수 있습니다. 이 방법에서는 NodePort 를 사용합니다.
29.7.1. NodePort를 사용하여 클러스터로 트래픽 가져오기
NodePort-type 서비스 리소스를 사용하여 클러스터의 모든 노드에서 특정 포트에 서비스를 노출합니다. 포트는 Service 리소스의 .spec.ports[*].nodePort 필드에 지정됩니다.
노드 포트를 사용하려면 추가 포트 리소스가 필요합니다.
NodePort 는 노드의 IP 주소의 정적 포트에 서비스를 노출합니다. NodePorts는 기본적으로 30000 ~ 32767 범위에 있으므로 NodePort 가 서비스의 의도한 포트와 일치하지 않을 수 있습니다. 예를 들어 포트 8080 은 노드에서 포트 31020 으로 노출될 수 있습니다.
관리자는 외부 IP 주소가 노드로 라우팅되는지 확인해야 합니다.
NodePorts 및 외부 IP는 독립적이며 둘 다 동시에 사용할 수 있습니다.
이 섹션의 절차에는 클러스터 관리자가 수행해야 하는 사전 요구 사항이 필요합니다.
29.7.2. 사전 요구 사항
다음 절차를 시작하기 전에 관리자는 다음을 수행해야 합니다.
- 요청이 클러스터에 도달할 수 있도록 외부 포트를 클러스터 네트워킹 환경으로 설정합니다.
클러스터 관리자 역할의 사용자가 한 명 이상 있는지 확인합니다. 이 역할을 사용자에게 추가하려면 다음 명령을 실행합니다.
$ oc adm policy add-cluster-role-to-user cluster-admin <user_name>
- 클러스터에 대한 네트워크 액세스 권한이 있는 마스터와 노드가 클러스터 외부에 각각 1개 이상씩 있는 OpenShift Container Platform 클러스터가 있어야 합니다. 이 절차에서는 외부 시스템이 클러스터와 동일한 서브넷에 있다고 가정합니다. 다른 서브넷에 있는 외부 시스템에 필요한 추가 네트워킹은 이 주제에서 다루지 않습니다.
29.7.3. 프로젝트 및 서비스 생성
노출하려는 프로젝트 및 서비스가 존재하지 않는 경우 먼저 프로젝트를 생성한 다음 서비스를 생성합니다.
프로젝트와 서비스가 이미 존재하는 경우에는 서비스 노출 절차로 건너뛰어 경로를 생성합니다.
사전 요구 사항
-
ocCLI를 설치하고 클러스터 관리자로 로그인합니다.
절차
oc new-project명령을 실행하여 서비스에 대한 새 프로젝트를 생성합니다.$ oc new-project myproject
oc new-app명령을 사용하여 서비스를 생성합니다.$ oc new-app nodejs:12~https://github.com/sclorg/nodejs-ex.git
서비스가 생성되었는지 확인하려면 다음 명령을 실행합니다.
$ oc get svc -n myproject
출력 예
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE nodejs-ex ClusterIP 172.30.197.157 <none> 8080/TCP 70s
기본적으로 새 서비스에는 외부 IP 주소가 없습니다.
29.7.4. 경로를 생성하여 서비스 노출
oc expose 명령을 사용하여 서비스를 경로로 노출할 수 있습니다.
절차
서비스를 노출하려면 다음을 수행하십시오.
- OpenShift Container Platform 4에 로그인합니다.
노출하려는 서비스가 있는 프로젝트에 로그인합니다.
$ oc project myproject
애플리케이션의 노드 포트를 노출하려면 다음 명령을 입력하여 서비스의 CRD(사용자 정의 리소스 정의)를 수정합니다.
$ oc edit svc <service_name>
출력 예
spec: ports: - name: 8443-tcp nodePort: 30327 1 port: 8443 protocol: TCP targetPort: 8443 sessionAffinity: None type: NodePort 2선택 사항: 노드 포트가 노출된 상태로 서비스를 사용할 수 있는지 확인하려면 다음 명령을 입력합니다.
$ oc get svc -n myproject
출력 예
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE nodejs-ex ClusterIP 172.30.217.127 <none> 3306/TCP 9m44s nodejs-ex-ingress NodePort 172.30.107.72 <none> 3306:31345/TCP 39s
선택 사항:
oc new-app명령에서 자동으로 생성한 서비스를 제거하려면 다음 명령을 입력합니다.$ oc delete svc nodejs-ex
검증
서비스 노드 포트가
30000-32767범위의 포트로 업데이트되었는지 확인하려면 다음 명령을 입력합니다.$ oc get svc
다음 예제 출력에서 업데이트된 포트는
30327입니다.출력 예
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE httpd NodePort 172.xx.xx.xx <none> 8443:30327/TCP 109s
29.7.5. 추가 리소스
29.8. 로드 밸런서 허용된 소스 범위를 사용하여 수신 클러스터 트래픽 구성
IngressController 의 IP 주소 범위 목록을 지정할 수 있습니다. 이렇게 하면 endpointPublishingStrategy 가 LoadBalancerService 인 경우 로드 밸런서 서비스에 대한 액세스가 제한됩니다.
29.8.1. 로드 밸런서 허용 소스 범위 구성
spec.endpointPublishingStrategy.loadBalancer.allowedSourceRanges 필드를 활성화하고 구성할 수 있습니다. 로드 밸런서 허용 소스 범위를 구성하면 Ingress 컨트롤러의 로드 밸런서에 대한 액세스를 지정된 IP 주소 범위 목록으로 제한할 수 있습니다. Ingress Operator는 로드 밸런서 서비스를 조정하고 AllowedSourceRanges 를 기반으로 spec.loadBalancerSourceRanges 필드를 설정합니다.
이전 버전의 OpenShift Container Platform에서 spec.loadBalancerSourceRanges 필드 또는 로드 밸런서 서비스 anotation service.beta.kubernetes.io/load-balancer-source-ranges 를 이미 설정한 경우 Ingress 컨트롤러는 업그레이드 후 Progressing=True 보고를 시작합니다. 이 문제를 해결하려면 spec.loadBalancerSourceRanges 필드를 덮어쓰고 service.beta.kubernetes.io/load-balancer-source-ranges 주석을 지우는 AllowedSourceRanges 를 설정합니다. Ingress 컨트롤러에서 Progressing=False 를 다시 보고하기 시작합니다.
사전 요구 사항
- 실행 중인 클러스터에 배포된 Ingress 컨트롤러가 있어야 합니다.
절차
다음 명령을 실행하여 Ingress 컨트롤러에 허용되는 소스 범위 API를 설정합니다.
$ oc -n openshift-ingress-operator patch ingresscontroller/default \ --type=merge --patch='{"spec":{"endpointPublishingStrategy": \ {"loadBalancer":{"allowedSourceRanges":["0.0.0.0/0"]}}}}' 1- 1
- 예제 값
0.0.0.0/0은 허용되는 소스 범위를 지정합니다.
29.8.2. 로드 밸런서 허용 소스 범위로 마이그레이션
주석 service.beta.kubernetes.io/load-balancer-source-ranges 를 이미 설정한 경우 로드 밸런서에서 허용된 소스 범위로 마이그레이션할 수 있습니다. 를 설정하면 Ingress 컨트롤러에서 AllowedSourceRanges 값을 기반으로 AllowedSourceRanges spec.loadBalancerSourceRanges 필드를 설정하고 service.beta.kubernetes.io/load-balancer-source-ranges 주석을 설정 해제합니다.
이전 버전의 OpenShift Container Platform에서 spec.loadBalancerSourceRanges 필드 또는 로드 밸런서 서비스 anotation service.beta.kubernetes.io/load-balancer-source-ranges 를 이미 설정한 경우 Ingress 컨트롤러는 업그레이드 후 Progressing=True 를 보고하기 시작합니다. 이 문제를 해결하려면 spec.loadBalancerSourceRanges 필드를 덮어쓰고 service.beta.kubernetes.io/load-balancer-source-ranges 주석을 지우는 AllowedSourceRanges 를 설정합니다. Ingress 컨트롤러에서 Progressing=False 보고를 다시 시작합니다.
사전 요구 사항
-
service.beta.kubernetes.io/load-balancer-source-ranges주석이 설정되어 있습니다.
절차
service.beta.kubernetes.io/load-balancer-source-ranges가 설정되어 있는지 확인합니다.$ oc get svc router-default -n openshift-ingress -o yaml
출력 예
apiVersion: v1 kind: Service metadata: annotations: service.beta.kubernetes.io/load-balancer-source-ranges: 192.168.0.1/32spec.loadBalancerSourceRanges필드가 설정되지 않았는지 확인합니다.$ oc get svc router-default -n openshift-ingress -o yaml
출력 예
... spec: loadBalancerSourceRanges: - 0.0.0.0/0 ...
- 클러스터를 OpenShift Container Platform 4.13으로 업데이트합니다.
다음 명령을 실행하여
ingresscontroller에 허용되는 소스 범위 API를 설정합니다.$ oc -n openshift-ingress-operator patch ingresscontroller/default \ --type=merge --patch='{"spec":{"endpointPublishingStrategy": \ {"loadBalancer":{"allowedSourceRanges":["0.0.0.0/0"]}}}}' 1- 1
- 예제 값
0.0.0.0/0은 허용되는 소스 범위를 지정합니다.
29.8.3. 추가 리소스
30장. Kubernetes NMState
30.1. Kubernetes NMState Operator 정보
Kubernetes NMState Operator는 OpenShift Container Platform 클러스터 노드에서 NMState를 사용하여 상태 중심 네트워크 구성을 수행하는 데 필요한 Kubernetes API를 제공합니다. Kubernetes NMState Operator는 사용자에게 클러스터 노드에서 다양한 네트워크 인터페이스 유형, DNS 및 라우팅을 구성하는 기능을 제공합니다. 또한 클러스터 노드의 데몬은 각 노드의 네트워크 인터페이스 상태를 API 서버에 정기적으로 보고합니다.
Red Hat은 베어 메탈, IBM Power, IBM Z, IBM® LinuxONE, VMware vSphere 및 OpenStack 설치의 프로덕션 환경에서 Kubernetes NMState Operator를 지원합니다.
OpenShift Container Platform과 함께 NMState를 사용하기 전에 Kubernetes NMState Operator를 설치해야 합니다.
30.1.1. Kubernetes NMState Operator 설치
웹 콘솔 또는 CLI를 사용하여 Kubernetes NMState Operator를 설치할 수 있습니다.
30.1.1.1. 웹 콘솔을 사용하여 Kubernetes NMState Operator 설치
웹 콘솔을 사용하여 Kubernetes NMState Operator를 설치할 수 있습니다. Operator가 설치되면 NMState State Controller를 모든 클러스터 노드에 데몬 세트로 배포할 수 있습니다.
사전 요구 사항
-
cluster-admin권한이 있는 사용자로 로그인했습니다.
절차
- Operators → OperatorHub 를 선택합니다.
-
모든 항목 아래의 검색 필드에
nmstate를 입력하고 Enter 를 클릭하여 Kubernetes NMState Operator를 검색합니다. - Kubernetes NMState Operator 검색 결과를 클릭합니다.
- 설치를 클릭하여 Operator 설치 창을 엽니다.
- 설치를 클릭하여 Operator를 설치합니다.
- Operator 설치가 완료되면 Operator 보기 를 클릭합니다.
-
제공된 API 아래에서 인스턴스 생성을 클릭하여
kubernetes-nmstate의 인스턴스 생성을 위한 대화 상자를 엽니다. 대화 상자의 이름 필드에서 인스턴스 이름이
nmstate인지 확인합니다.참고이름 제한은 알려진 문제입니다. 인스턴스는 전체 클러스터에 대한 단일 생성입니다.
- 기본 설정을 수락하고 만들기를 클릭하여 인스턴스를 만듭니다.
요약
완료되면 Operator가 NMState State Controller를 모든 클러스터 노드에 데몬 세트로 배포했습니다.
30.1.1.2. CLI를 사용하여 Kubernetes NMState Operator 설치
OpenShift CLI(oc) 를 사용하여 Kubernetes NMState Operator를 설치할 수 있습니다. Operator가 설치되면 NMState State Controller를 모든 클러스터 노드에 데몬 세트로 배포할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치했습니다. -
cluster-admin권한이 있는 사용자로 로그인했습니다.
절차
nmstateOperator 네임스페이스를 생성합니다.$ cat << EOF | oc apply -f - apiVersion: v1 kind: Namespace metadata: labels: kubernetes.io/metadata.name: openshift-nmstate name: openshift-nmstate name: openshift-nmstate spec: finalizers: - kubernetes EOFOperatorGroup을 생성합니다.$ cat << EOF | oc apply -f - apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: annotations: olm.providedAPIs: NMState.v1.nmstate.io name: openshift-nmstate namespace: openshift-nmstate spec: targetNamespaces: - openshift-nmstate EOFnmstateOperator에 가입하십시오.$ cat << EOF| oc apply -f - apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: labels: operators.coreos.com/kubernetes-nmstate-operator.openshift-nmstate: "" name: kubernetes-nmstate-operator namespace: openshift-nmstate spec: channel: stable installPlanApproval: Automatic name: kubernetes-nmstate-operator source: redhat-operators sourceNamespace: openshift-marketplace EOFnmstateOperator의 인스턴스를 생성합니다.$ cat << EOF | oc apply -f - apiVersion: nmstate.io/v1 kind: NMState metadata: name: nmstate EOF
검증
nmstateOperator의 배포가 실행 중인지 확인합니다.oc get clusterserviceversion -n openshift-nmstate \ -o custom-columns=Name:.metadata.name,Phase:.status.phase
출력 예
Name Phase kubernetes-nmstate-operator.4.13.0-202210210157 Succeeded
30.2. 노드 네트워크 상태 관찰
노드 네트워크 상태는 클러스터의 모든 노드에 대한 네트워크 구성입니다.
30.2.1. nmstate 정보
OpenShift Container Platform에서는 nmstate 를 사용하여 노드 네트워크의 상태를 보고하고 구성합니다. 이를 통해 단일 구성 매니페스트를 클러스터에 적용하여(예: 모든 노드에서 Linux 브리지 생성) 네트워크 정책 구성을 수정할 수 있습니다.
노드 네트워킹은 다음 오브젝트에서 모니터링하고 업데이트합니다.
NodeNetworkState- 해당 노드의 네트워크 상태를 보고합니다.
NodeNetworkConfigurationPolicy-
노드에서 요청된 네트워크 구성을 설명합니다.
NodeNetworkConfigurationPolicy매니페스트를 클러스터에 적용하여 인터페이스 추가 및 제거를 포함하여 노드 네트워크 구성을 업데이트합니다. NodeNetworkConfigurationEnactment- 각 노드에 적용된 네트워크 정책을 보고합니다.
OpenShift Container Platform에서는 다음 nmstate 인터페이스 유형을 사용할 수 있습니다.
- Linux 브리지
- VLAN
- 본딩
- 이더넷
OpenShift Container Platform 클러스터가 OVN-Kubernetes를 네트워크 플러그인으로 사용하는 경우 OVN-Kubernetes의 호스트 네트워크 토폴로지 변경으로 인해 호스트의 기본 인터페이스에 Linux 브리지 또는 본딩을 연결할 수 없습니다. 이 문제를 해결하려면 호스트에 연결된 보조 네트워크 인터페이스를 사용하거나 OpenShift SDN 네트워크 플러그인으로 전환합니다.
30.2.2. 노드의 네트워크 상태 보기
NodeNetworkState 오브젝트는 클러스터의 모든 노드에 존재합니다. 이 오브젝트는 주기적으로 업데이트되며 해당 노드의 네트워크 상태를 캡처합니다.
절차
클러스터의 모든
NodeNetworkState오브젝트를 나열합니다.$ oc get nns
NodeNetworkState오브젝트를 검사하여 해당 노드의 네트워크를 확인합니다. 이 예제의 출력은 명확성을 위해 수정되었습니다.$ oc get nns node01 -o yaml
출력 예
apiVersion: nmstate.io/v1 kind: NodeNetworkState metadata: name: node01 1 status: currentState: 2 dns-resolver: # ... interfaces: # ... route-rules: # ... routes: # ... lastSuccessfulUpdateTime: "2020-01-31T12:14:00Z" 3
30.3. 노드 네트워크 구성 업데이트
NodeNetworkConfigurationPolicy 매니페스트를 클러스터에 적용하여 노드에서 인터페이스 추가 또는 제거와 같은 노드 네트워크 구성을 업데이트할 수 있습니다.
30.3.1. nmstate 정보
OpenShift Container Platform에서는 nmstate 를 사용하여 노드 네트워크의 상태를 보고하고 구성합니다. 이를 통해 단일 구성 매니페스트를 클러스터에 적용하여(예: 모든 노드에서 Linux 브리지 생성) 네트워크 정책 구성을 수정할 수 있습니다.
노드 네트워킹은 다음 오브젝트에서 모니터링하고 업데이트합니다.
NodeNetworkState- 해당 노드의 네트워크 상태를 보고합니다.
NodeNetworkConfigurationPolicy-
노드에서 요청된 네트워크 구성을 설명합니다.
NodeNetworkConfigurationPolicy매니페스트를 클러스터에 적용하여 인터페이스 추가 및 제거를 포함하여 노드 네트워크 구성을 업데이트합니다. NodeNetworkConfigurationEnactment- 각 노드에 적용된 네트워크 정책을 보고합니다.
OpenShift Container Platform에서는 다음 nmstate 인터페이스 유형을 사용할 수 있습니다.
- Linux 브리지
- VLAN
- 본딩
- 이더넷
OpenShift Container Platform 클러스터가 OVN-Kubernetes를 네트워크 플러그인으로 사용하는 경우 OVN-Kubernetes의 호스트 네트워크 토폴로지 변경으로 인해 호스트의 기본 인터페이스에 Linux 브리지 또는 본딩을 연결할 수 없습니다. 이 문제를 해결하려면 호스트에 연결된 보조 네트워크 인터페이스를 사용하거나 OpenShift SDN 네트워크 플러그인으로 전환합니다.
30.3.2. 노드에서 인터페이스 만들기
NodeNetworkConfigurationPolicy 매니페스트를 클러스터에 적용하여 클러스터의 노드에서 인터페이스를 생성합니다. 매니페스트는 요청된 인터페이스 구성을 자세히 설명합니다.
기본적으로 매니페스트는 클러스터의 모든 노드에 적용됩니다. 특정 노드에 인터페이스를 추가하려면 spec: nodeSelector 매개변수와 노드 선택기에 적절한 < key>:<value >를 추가합니다.
여러 nmstate 지원 노드를 동시에 구성할 수 있습니다. 구성은 노드의 50%에 병렬로 적용됩니다. 이 전략에서는 네트워크 연결에 실패할 경우 전체 클러스터를 사용할 수 없습니다. 클러스터의 특정 부분에 동시에 정책 구성을 적용하려면 maxUnavailable 필드를 사용합니다.
절차
NodeNetworkConfigurationPolicy매니페스트를 생성합니다. 다음 예제는 모든 작업자 노드에서 Linux 브리지를 구성하고 DNS 확인자를 구성합니다.apiVersion: nmstate.io/v1 kind: NodeNetworkConfigurationPolicy metadata: name: br1-eth1-policy 1 spec: nodeSelector: 2 node-role.kubernetes.io/worker: "" 3 maxUnavailable: 3 4 desiredState: interfaces: - name: br1 description: Linux bridge with eth1 as a port 5 type: linux-bridge state: up ipv4: dhcp: true enabled: true auto-dns: false bridge: options: stp: enabled: false port: - name: eth1 dns-resolver: 6 config: search: - example.com - example.org server: - 8.8.8.8
- 1
- 정책 이름입니다.
- 2
- 선택 사항:
nodeSelector매개변수를 포함하지 않으면 정책이 클러스터의 모든 노드에 적용됩니다. - 3
- 이 예에서는
node-role.kubernetes.io/worker: ""노드 선택기를 사용하여 클러스터의 모든 작업자 노드를 선택합니다. - 4
- 선택 사항: 정책 구성을 동시에 적용할 수 있는 최대 nmstate 지원 노드 수를 지정합니다. 이 매개변수는 백분율 값(문자열)(예:
"10%"또는3과 같은 절대 값(number)으로 설정할 수 있습니다. - 5
- 선택 사항: 사람이 읽을 수 있는 인터페이스 설명입니다.
- 6
- 선택 사항: DNS 서버의 검색 및 서버 설정을 지정합니다.
노드 네트워크 정책을 생성합니다.
$ oc apply -f br1-eth1-policy.yaml 1- 1
- 노드 네트워크 구성 정책 매니페스트의 파일 이름입니다.
추가 리소스
30.3.3. 노드에 노드 네트워크 정책 업데이트 확인
NodeNetworkConfigurationPolicy 매니페스트는 클러스터의 노드에 대해 요청된 네트워크 구성을 설명합니다. 노드 네트워크 정책에는 요청된 네트워크 구성과 클러스터 전체에 대한 정책 실행 상태가 포함됩니다.
노드 네트워크 정책을 적용하면 클러스터의 모든 노드에 대해 NodeNetworkConfigurationEnactment 오브젝트가 생성됩니다. 노드 네트워크 구성 시행은 해당 노드에서 정책의 실행 상태를 나타내는 읽기 전용 오브젝트입니다. 정책이 노드에 적용되지 않으면 문제 해결을 위해 해당 노드에 대한 시행에 역추적이 포함됩니다.
절차
정책이 클러스터에 적용되었는지 확인하려면 정책과 해당 상태를 나열합니다.
$ oc get nncp
선택 사항: 정책을 구성하는 데 예상보다 오래 걸리는 경우 특정 정책의 요청된 상태 및 상태 조건을 검사할 수 있습니다.
$ oc get nncp <policy> -o yaml
선택 사항: 모든 노드에서 정책을 구성하는 데 예상보다 오래 걸리는 경우 클러스터의 시행 상태를 나열할 수 있습니다.
$ oc get nnce
선택 사항: 구성 실패에 대한 오류 보고를 포함하여 특정 시행의 구성을 확인하려면 다음 명령을 실행하십시오.
$ oc get nnce <node>.<policy> -o yaml
30.3.4. 노드에서 인터페이스 제거
NodeNetworkConfigurationPolicy 오브젝트를 편집하고 인터페이스의 상태를 absent 로 설정하여 클러스터의 하나 이상의 노드에서 인터페이스를 제거할 수 있습니다.
노드에서 인터페이스를 제거해도 노드 네트워크 구성이 이전 상태로 자동 복원되지 않습니다. 이전 상태를 복원하려면 정책에서 노드 네트워크 구성을 정의해야 합니다.
브리지 또는 본딩 인터페이스를 제거하면 이전에 해당 브릿지 또는 본딩 인터페이스에 연결되었거나 종속되었던 클러스터의 모든 노드 NIC가 down 상태가 되어 연결할 수 없게 됩니다. 연결 손실을 방지하기 위해 노드 NIC를 동일한 정책으로 구성하여 DHCP 또는 고정 IP 주소의 상태를 up 으로 구성합니다.
인터페이스를 추가한 노드 네트워크 정책을 삭제해도 노드의 정책 구성은 변경되지 않습니다. NodeNetworkConfigurationPolicy 는 클러스터의 오브젝트이지만 요청된 구성만 나타냅니다.
마찬가지로 인터페이스를 제거해도 정책은 삭제되지 않습니다.
절차
인터페이스를 생성하는 데 사용되는
NodeNetworkConfigurationPolicy매니페스트를 업데이트합니다. 다음 예제에서는 Linux 브릿지를 제거하고 연결이 손실되지 않도록 DHCP로eth1NIC를 구성합니다.apiVersion: nmstate.io/v1 kind: NodeNetworkConfigurationPolicy metadata: name: <br1-eth1-policy> 1 spec: nodeSelector: 2 node-role.kubernetes.io/worker: "" 3 desiredState: interfaces: - name: br1 type: linux-bridge state: absent 4 - name: eth1 5 type: ethernet 6 state: up 7 ipv4: dhcp: true 8 enabled: true 9
- 1
- 정책 이름입니다.
- 2
- 선택 사항:
nodeSelector매개변수를 포함하지 않으면 정책이 클러스터의 모든 노드에 적용됩니다. - 3
- 이 예에서는
node-role.kubernetes.io/worker: ""노드 선택기를 사용하여 클러스터의 모든 작업자 노드를 선택합니다. - 4
absent상태로 변경하면 인터페이스가 제거됩니다.- 5
- 브리지 인터페이스에서 연결을 해제할 인터페이스의 이름입니다.
- 6
- 인터페이스 유형입니다. 이 예제에서는 이더넷 네트워킹 인터페이스를 생성합니다.
- 7
- 인터페이스에 요청되는 상태입니다.
- 8
- 선택 사항:
dhcp를 사용하지 않는 경우 고정 IP를 설정하거나 IP 주소 없이 인터페이스를 종료할 수 있습니다. - 9
- 이 예제에서
ipv4를 활성화합니다.
노드에서 정책을 업데이트하고 인터페이스를 제거합니다.
$ oc apply -f <br1-eth1-policy.yaml> 1- 1
- 정책 매니페스트의 파일 이름입니다.
30.3.5. 다양한 인터페이스에 대한 예제 정책 구성
30.3.5.1. 예: Linux 브리지 인터페이스 노드 네트워크 구성 정책
NodeNetworkConfigurationPolicy 매니페스트를 클러스터에 적용하여 클러스터의 노드에서 Linux 브리지 인터페이스를 만듭니다.
다음 YAML 파일은 Linux 브리지 인터페이스의 매니페스트 예제입니다. 여기에는 해당 정보로 교체해야 하는 샘플 값이 포함되어 있습니다.
apiVersion: nmstate.io/v1 kind: NodeNetworkConfigurationPolicy metadata: name: br1-eth1-policy 1 spec: nodeSelector: 2 kubernetes.io/hostname: <node01> 3 desiredState: interfaces: - name: br1 4 description: Linux bridge with eth1 as a port 5 type: linux-bridge 6 state: up 7 ipv4: dhcp: true 8 enabled: true 9 bridge: options: stp: enabled: false 10 port: - name: eth1 11
- 1
- 정책 이름입니다.
- 2
- 선택 사항:
nodeSelector매개변수를 포함하지 않으면 정책이 클러스터의 모든 노드에 적용됩니다. - 3
- 이 예에서는
호스트 이름노드 선택기를 사용합니다. - 4
- 인터페이스 이름입니다.
- 5
- 선택 사항: 사람이 읽을 수 있는 인터페이스 설명입니다.
- 6
- 인터페이스 유형입니다. 이 예제에서는 브리지를 만듭니다.
- 7
- 생성 후 인터페이스에 요청되는 상태입니다.
- 8
- 선택 사항:
dhcp를 사용하지 않는 경우 고정 IP를 설정하거나 IP 주소 없이 인터페이스를 종료할 수 있습니다. - 9
- 이 예제에서
ipv4를 활성화합니다. - 10
- 이 예제에서
stp를 비활성화합니다. - 11
- 브리지가 연결되는 노드 NIC입니다.
30.3.5.2. 예제: VLAN 인터페이스 노드 네트워크 구성 정책
NodeNetworkConfigurationPolicy 매니페스트를 클러스터에 적용하여 클러스터의 노드에서 VLAN 인터페이스를 생성합니다.
다음 YAML 파일은 VLAN 인터페이스의 매니페스트 예제입니다. 여기에는 해당 정보로 교체해야 하는 샘플 값이 포함되어 있습니다.
apiVersion: nmstate.io/v1 kind: NodeNetworkConfigurationPolicy metadata: name: vlan-eth1-policy 1 spec: nodeSelector: 2 kubernetes.io/hostname: <node01> 3 desiredState: interfaces: - name: eth1.102 4 description: VLAN using eth1 5 type: vlan 6 state: up 7 vlan: base-iface: eth1 8 id: 102 9
30.3.5.3. 예제: 본딩 인터페이스 노드 네트워크 구성 정책
NodeNetworkConfigurationPolicy 매니페스트를 클러스터에 적용하여 클러스터의 노드에서 본딩 인터페이스를 만듭니다.
OpenShift Container Platform에서는 다음과 같은 본딩 모드만 지원합니다.
-
mode=1 active-backup
-
mode=2 balance-xor
-
mode=4 802.3ad
-
mode=5 balance-tlb
- mode=6 balance-alb
다음 YAML 파일은 본딩 인터페이스의 매니페스트 예제입니다. 여기에는 해당 정보로 교체해야 하는 샘플 값이 포함되어 있습니다.
apiVersion: nmstate.io/v1 kind: NodeNetworkConfigurationPolicy metadata: name: bond0-eth1-eth2-policy 1 spec: nodeSelector: 2 kubernetes.io/hostname: <node01> 3 desiredState: interfaces: - name: bond0 4 description: Bond with ports eth1 and eth2 5 type: bond 6 state: up 7 ipv4: dhcp: true 8 enabled: true 9 link-aggregation: mode: active-backup 10 options: miimon: '140' 11 port: 12 - eth1 - eth2 mtu: 1450 13
- 1
- 정책 이름입니다.
- 2
- 선택 사항:
nodeSelector매개변수를 포함하지 않으면 정책이 클러스터의 모든 노드에 적용됩니다. - 3
- 이 예에서는
호스트 이름노드 선택기를 사용합니다. - 4
- 인터페이스 이름입니다.
- 5
- 선택 사항: 사람이 읽을 수 있는 인터페이스 설명입니다.
- 6
- 인터페이스 유형입니다. 이 예제에서는 본딩을 생성합니다.
- 7
- 생성 후 인터페이스에 요청되는 상태입니다.
- 8
- 선택 사항:
dhcp를 사용하지 않는 경우 고정 IP를 설정하거나 IP 주소 없이 인터페이스를 종료할 수 있습니다. - 9
- 이 예제에서
ipv4를 활성화합니다. - 10
- 본딩의 드라이버 모드입니다. 이 예제에서는 활성 백업 모드를 사용합니다.
- 11
- 선택 사항: 이 예제에서는 miimon을 사용하여 140ms마다 본딩 링크를 검사합니다.
- 12
- 본딩의 하위 노드 NIC입니다.
- 13
- 선택 사항: 본딩의 MTU(최대 전송 단위)입니다. 지정하지 않으면 이 값은 기본적으로
1500으로 설정됩니다.
30.3.5.4. 예제: 이더넷 인터페이스 노드 네트워크 구성 정책
NodeNetworkConfigurationPolicy 매니페스트를 클러스터에 적용하여 클러스터의 노드에서 이더넷 인터페이스를 구성합니다.
다음 YAML 파일은 이더넷 인터페이스의 매니페스트 예제입니다. 여기에는 해당 정보로 교체해야 하는 샘플 값이 포함되어 있습니다.
apiVersion: nmstate.io/v1 kind: NodeNetworkConfigurationPolicy metadata: name: eth1-policy 1 spec: nodeSelector: 2 kubernetes.io/hostname: <node01> 3 desiredState: interfaces: - name: eth1 4 description: Configuring eth1 on node01 5 type: ethernet 6 state: up 7 ipv4: dhcp: true 8 enabled: true 9
- 1
- 정책 이름입니다.
- 2
- 선택 사항:
nodeSelector매개변수를 포함하지 않으면 정책이 클러스터의 모든 노드에 적용됩니다. - 3
- 이 예에서는
호스트 이름노드 선택기를 사용합니다. - 4
- 인터페이스 이름입니다.
- 5
- 선택 사항: 사람이 읽을 수 있는 인터페이스 설명입니다.
- 6
- 인터페이스 유형입니다. 이 예제에서는 이더넷 네트워킹 인터페이스를 생성합니다.
- 7
- 생성 후 인터페이스에 요청되는 상태입니다.
- 8
- 선택 사항:
dhcp를 사용하지 않는 경우 고정 IP를 설정하거나 IP 주소 없이 인터페이스를 종료할 수 있습니다. - 9
- 이 예제에서
ipv4를 활성화합니다.
30.3.5.5. 예제: 노드 네트워크 구성 정책이 동일한 여러 인터페이스
동일한 노드 네트워크 구성 정책으로 여러 개의 인터페이스를 생성할 수 있습니다. 이러한 인터페이스는 서로를 참조할 수 있으므로 단일 정책 매니페스트를 사용하여 네트워크 구성을 빌드하고 배포할 수 있습니다.
다음 예제 YAML 파일은 본딩에 연결되는 두 NIC와 VLAN에서 을 생성합니다.
bond10 이라는 본딩
apiVersion: nmstate.io/v1 kind: NodeNetworkConfigurationPolicy metadata: name: bond-vlan 1 spec: nodeSelector: 2 kubernetes.io/hostname: <node01> 3 desiredState: interfaces: - name: bond10 4 description: Bonding eth2 and eth3 5 type: bond 6 state: up 7 link-aggregation: mode: balance-rr 8 options: miimon: '140' 9 port: 10 - eth2 - eth3 - name: bond10.103 11 description: vlan using bond10 12 type: vlan 13 state: up 14 vlan: base-iface: bond10 15 id: 103 16 ipv4: dhcp: true 17 enabled: true 18
- 1
- 정책 이름입니다.
- 2
- 선택 사항:
nodeSelector매개변수를 포함하지 않으면 정책이 클러스터의 모든 노드에 적용됩니다. - 3
- 이 예에서는
hostname노드 선택기를 사용합니다. - 4 11
- 인터페이스 이름입니다.
- 5 12
- 선택 사항: 사람이 읽을 수 있는 인터페이스 설명입니다.
- 6 13
- 인터페이스 유형입니다.
- 7 14
- 생성 후 인터페이스에 요청되는 상태입니다.
- 8
- 본딩의 드라이버 모드입니다.
- 9
- 선택 사항: 이 예제에서는 miimon을 사용하여 140ms마다 본딩 링크를 검사합니다.
- 10
- 본딩의 하위 노드 NIC입니다.
- 15
- VLAN이 연결되는 노드 NIC입니다.
- 16
- VLAN 태그입니다.
- 17
- 선택 사항: dhcp를 사용하지 않는 경우 고정 IP를 설정하거나 IP 주소 없이 인터페이스를 종료할 수 있습니다.
- 18
- 이 예제에서 ipv4를 활성화합니다.
30.3.6. 브리지에 연결된 NIC의 고정 IP 캡처
NIC의 고정 IP를 캡처하는 것은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
30.3.6.1. 예: 브리지에 연결된 NIC에서 고정 IP 주소를 상속하는 Linux 브리지 인터페이스 노드 네트워크 구성 정책
클러스터의 노드에서 Linux 브리지 인터페이스를 만들고 단일 NodeNetworkConfigurationPolicy 매니페스트를 클러스터에 적용하여 NIC의 고정 IP 구성을 브리지로 전송합니다.
다음 YAML 파일은 Linux 브리지 인터페이스의 매니페스트 예제입니다. 여기에는 해당 정보로 교체해야 하는 샘플 값이 포함되어 있습니다.
apiVersion: nmstate.io/v1 kind: NodeNetworkConfigurationPolicy metadata: name: br1-eth1-copy-ipv4-policy 1 spec: nodeSelector: 2 node-role.kubernetes.io/worker: "" capture: eth1-nic: interfaces.name=="eth1" 3 eth1-routes: routes.running.next-hop-interface=="eth1" br1-routes: capture.eth1-routes | routes.running.next-hop-interface := "br1" desiredState: interfaces: - name: br1 description: Linux bridge with eth1 as a port type: linux-bridge 4 state: up ipv4: "{{ capture.eth1-nic.interfaces.0.ipv4 }}" 5 bridge: options: stp: enabled: false port: - name: eth1 6 routes: config: "{{ capture.br1-routes.routes.running }}"
- 1
- 정책의 이름입니다.
- 2
- 선택 사항:
nodeSelector매개변수를 포함하지 않으면 정책이 클러스터의 모든 노드에 적용됩니다. 이 예에서는node-role.kubernetes.io/worker: ""노드 선택기를 사용하여 클러스터의 모든 작업자 노드를 선택합니다. - 3
- 브리지가 연결되는 노드 NIC에 대한 참조입니다.
- 4
- 인터페이스 유형입니다. 이 예제에서는 브리지를 만듭니다.
- 5
- 브리지 인터페이스의 IP 주소입니다. 이 값은
spec.capture.eth1-nic항목에서 참조하는 NIC의 IP 주소와 일치합니다. - 6
- 브리지가 연결되는 노드 NIC입니다.
추가 리소스
30.3.7. 예제: IP 관리
다음 예제 구성 스니펫에서는 다양한 IP 관리 방법을 보여줍니다.
이 예제에서는 ethernet 인터페이스 유형을 사용하여 예제를 단순화하면서 정책 구성에 관련 컨텍스트를 표시합니다. 이러한 IP 관리 예제는 다른 인터페이스 유형과 함께 사용할 수 있습니다.
30.3.7.1. 고정
다음 스니펫은 이더넷 인터페이스에서 IP 주소를 정적으로 구성합니다.
# ...
interfaces:
- name: eth1
description: static IP on eth1
type: ethernet
state: up
ipv4:
dhcp: false
address:
- ip: 192.168.122.250 1
prefix-length: 24
enabled: true
# ...- 1
- 이 값을 인터페이스의 고정 IP 주소로 교체합니다.
30.3.7.2. IP 주소 없음
다음 스니펫에서는 인터페이스에 IP 주소가 없습니다.
# ...
interfaces:
- name: eth1
description: No IP on eth1
type: ethernet
state: up
ipv4:
enabled: false
# ...30.3.7.3. 동적 호스트 구성
다음 스니펫에서는 동적 IP 주소, 게이트웨이 주소, DNS를 사용하는 이더넷 인터페이스를 구성합니다.
# ...
interfaces:
- name: eth1
description: DHCP on eth1
type: ethernet
state: up
ipv4:
dhcp: true
enabled: true
# ...다음 스니펫에서는 동적 IP 주소를 사용하지만 동적 게이트웨이 주소 또는 DNS를 사용하지 않는 이더넷 인터페이스를 구성합니다.
# ...
interfaces:
- name: eth1
description: DHCP without gateway or DNS on eth1
type: ethernet
state: up
ipv4:
dhcp: true
auto-gateway: false
auto-dns: false
enabled: true
# ...30.3.7.4. DNS
DNS 구성을 설정하는 것은 /etc/resolv.conf 파일을 수정하는 것입니다. 다음 스니펫에서는 호스트에 DNS 구성을 설정합니다.
# ...
interfaces: 1
...
ipv4:
...
auto-dns: false
...
dns-resolver:
config:
search:
- example.com
- example.org
server:
- 8.8.8.8
# ...- 1
auto-dns: false를 사용하여 인터페이스를 구성해야 합니다. Kubernetes NMState가 사용자 지정 DNS 설정을 저장하려면 인터페이스에서 고정 IP 구성을 사용해야 합니다.
DNS 확인자를 구성할 때 인터페이스로 OVNKubernetes 관리 Open vSwitch 브리지인 br-ex 를 사용할 수 없습니다.
30.3.7.5. 고정 라우팅
다음 스니펫에서는 eth1 인터페이스에 고정 경로와 고정 IP를 구성합니다.
# ...
interfaces:
- name: eth1
description: Static routing on eth1
type: ethernet
state: up
ipv4:
dhcp: false
address:
- ip: 192.0.2.251 1
prefix-length: 24
enabled: true
routes:
config:
- destination: 198.51.100.0/24
metric: 150
next-hop-address: 192.0.2.1 2
next-hop-interface: eth1
table-id: 254
# ...30.4. 노드 네트워크 구성 문제 해결
노드 네트워크 구성에 문제가 발생하면 정책이 자동으로 롤백되고 시행이 실패로 보고됩니다. 여기에는 다음과 같은 문제가 포함됩니다.
- 호스트에 구성을 적용하지 못했습니다.
- 호스트와 기본 게이트웨이의 연결이 끊어졌습니다.
- 호스트와 API 서버의 연결이 끊어졌습니다.
30.4.1. 잘못된 노드 네트워크 구성 정책의 구성 문제 해결
노드 네트워크 구성 정책을 적용하여 전체 클러스터에 노드 네트워크 구성 변경 사항을 적용할 수 있습니다. 잘못된 구성을 적용하는 경우 다음 예제를 사용하여 실패한 노드 네트워크 정책의 문제를 해결하고 수정할 수 있습니다.
이 예에서는 컨트롤 플레인 노드와 세 개의 컴퓨팅 노드가 있는 예제 클러스터에 Linux 브리지 정책을 적용합니다. 이 정책은 잘못된 인터페이스를 참조하므로 적용되지 않습니다. 오류를 찾기 위해 사용 가능한 NMState 리소스를 조사합니다. 그런 다음 올바른 구성으로 정책을 업데이트할 수 있습니다.
절차
정책을 생성하여 클러스터에 적용합니다. 다음 예제에서는
ens01인터페이스에서 간단한 브릿지를 생성합니다.apiVersion: nmstate.io/v1 kind: NodeNetworkConfigurationPolicy metadata: name: ens01-bridge-testfail spec: desiredState: interfaces: - name: br1 description: Linux bridge with the wrong port type: linux-bridge state: up ipv4: dhcp: true enabled: true bridge: options: stp: enabled: false port: - name: ens01$ oc apply -f ens01-bridge-testfail.yaml
출력 예
nodenetworkconfigurationpolicy.nmstate.io/ens01-bridge-testfail created
다음 명령을 실행하여 정책의 상태를 확인합니다.
$ oc get nncp
출력에 정책이 실패했다는 내용이 표시됩니다.
출력 예
NAME STATUS ens01-bridge-testfail FailedToConfigure
그러나 정책 상태만으로는 모든 노드에서 실패했는지 노드 서브 세트에서 실패했는지 알 수 없습니다.
노드 네트워크 구성 시행을 나열하여 정책이 모든 노드에서 성공적인지 확인합니다. 정책이 노드 서브 세트에서만 실패한 경우 특정 노드 구성에 문제가 있음을 나타냅니다. 정책이 모든 노드에서 실패하면 정책에 문제가 있음을 나타냅니다.
$ oc get nnce
출력에 정책이 모든 노드에서 실패했다는 내용이 표시됩니다.
출력 예
NAME STATUS control-plane-1.ens01-bridge-testfail FailedToConfigure control-plane-2.ens01-bridge-testfail FailedToConfigure control-plane-3.ens01-bridge-testfail FailedToConfigure compute-1.ens01-bridge-testfail FailedToConfigure compute-2.ens01-bridge-testfail FailedToConfigure compute-3.ens01-bridge-testfail FailedToConfigure
실패한 시행 중 하나에서 역추적을 살펴봅니다. 다음 명령은 출력 툴
jsonpath를 사용하여 출력을 필터링합니다.$ oc get nnce compute-1.ens01-bridge-testfail -o jsonpath='{.status.conditions[?(@.type=="Failing")].message}'이 명령은 간결하게 편집된 대규모 역추적 정보를 반환합니다.
출력 예
error reconciling NodeNetworkConfigurationPolicy at desired state apply: , failed to execute nmstatectl set --no-commit --timeout 480: 'exit status 1' '' ... libnmstate.error.NmstateVerificationError: desired ======= --- name: br1 type: linux-bridge state: up bridge: options: group-forward-mask: 0 mac-ageing-time: 300 multicast-snooping: true stp: enabled: false forward-delay: 15 hello-time: 2 max-age: 20 priority: 32768 port: - name: ens01 description: Linux bridge with the wrong port ipv4: address: [] auto-dns: true auto-gateway: true auto-routes: true dhcp: true enabled: true ipv6: enabled: false mac-address: 01-23-45-67-89-AB mtu: 1500 current ======= --- name: br1 type: linux-bridge state: up bridge: options: group-forward-mask: 0 mac-ageing-time: 300 multicast-snooping: true stp: enabled: false forward-delay: 15 hello-time: 2 max-age: 20 priority: 32768 port: [] description: Linux bridge with the wrong port ipv4: address: [] auto-dns: true auto-gateway: true auto-routes: true dhcp: true enabled: true ipv6: enabled: false mac-address: 01-23-45-67-89-AB mtu: 1500 difference ========== --- desired +++ current @@ -13,8 +13,7 @@ hello-time: 2 max-age: 20 priority: 32768 - port: - - name: ens01 + port: [] description: Linux bridge with the wrong port ipv4: address: [] line 651, in _assert_interfaces_equal\n current_state.interfaces[ifname],\nlibnmstate.error.NmstateVerificationError:NmstateVerificationError는원하는정책 구성, 노드에 있는 정책의현재구성, 일치하지 않는 매개변수를 강조하는difference를 나열합니다. 이 예에서포트는difference에 포함되어 있으며 이는 정책의 포트 구성이 문제임을 나타냅니다.정책이 올바르게 구성되었는지 확인하려면
NodeNetworkState오브젝트를 요청하여 하나 또는 모든 노드의 네트워크 구성을 확인합니다. 다음 명령에서는control-plane-1노드의 네트워크 구성을 반환합니다.$ oc get nns control-plane-1 -o yaml
출력에서 노드의 인터페이스 이름이
ens1임을 표시되지만 실패한 정책은ens01을 잘못 사용합니다.출력 예
- ipv4: # ... name: ens1 state: up type: ethernet기존 정책을 편집하여 오류를 수정합니다.
$ oc edit nncp ens01-bridge-testfail
# ... port: - name: ens1정책을 저장하여 수정 사항을 적용합니다.
정책 상태를 확인하여 업데이트가 완료되었는지 확인합니다.
$ oc get nncp
출력 예
NAME STATUS ens01-bridge-testfail SuccessfullyConfigured
업데이트된 정책이 클러스터의 모든 노드에 성공적으로 구성되었습니다.
31장. 클러스터 전체 프록시 구성
프로덕션 환경에서는 인터넷에 대한 직접 액세스를 거부하고 대신 HTTP 또는 HTTPS 프록시를 사용할 수 있습니다. 기존 클러스터의 프록시 오브젝트를 수정하거나 새 클러스터의 install-config.yaml 파일에서 프록시 설정을 구성하여 OpenShift Container Platform을 프록시를 사용하도록 구성할 수 있습니다.
31.1. 사전 요구 사항
클러스터에서 액세스해야 하는 사이트를 검토하고 프록시를 바이패스해야 하는지 확인합니다. 클러스터를 호스팅하는 클라우드의 클라우드 공급자 API에 대한 호출을 포함하여 기본적으로 모든 클러스터 시스템 송신 트래픽이 프록시됩니다. 시스템 전반의 프록시는 사용자 워크로드가 아닌 시스템 구성 요소에만 영향을 미칩니다. 필요한 경우 프록시를 바이패스하려면 프록시 오브젝트의
spec.noProxy필드에 사이트를 추가합니다.참고프록시 오브젝트
status.noProxy필드는 설치 구성의networking.machineNetwork[].cidr,networking.clusterNetwork[].cidr및networking.serviceNetwork[]필드의 값으로 채워집니다.AWS(Amazon Web Services), GCP(Google Cloud Platform), Microsoft Azure 및 Red Hat OpenStack Platform (RHOSP)에 설치하는 경우
Proxy오브젝트status.noProxy필드도 인스턴스 메타데이터 끝점 (169.254.169.254)으로 채워집니다.
31.2. 클러스터 전체 프록시 사용
프록시 오브젝트는 클러스터 전체 송신 프록시를 관리하는 데 사용됩니다. 프록시를 구성하지 않고 클러스터를 설치하거나 업그레이드해도 프록시 오브젝트 는 계속 생성되지만 spec 은 nil이 됩니다. 예를 들면 다음과 같습니다.
apiVersion: config.openshift.io/v1
kind: Proxy
metadata:
name: cluster
spec:
trustedCA:
name: ""
status:
클러스터 관리자는 이 cluster Proxy 오브젝트를 수정하여 OpenShift Container Platform의 프록시를 구성할 수 있습니다.
cluster 라는 프록시 오브젝트만 지원되며 추가 프록시는 생성할 수 없습니다.
사전 요구 사항
- 클러스터 관리자 권한
-
OpenShift Container Platform
ocCLI 툴이 설치됨
절차
HTTPS 연결을 프록시하는 데 필요한 추가 CA 인증서가 포함된 구성 맵을 생성합니다.
참고프록시의 ID 인증서를 RHCOS 트러스트 번들에 있는 기관에서 서명한 경우 이 단계를 건너뛸 수 있습니다.
다음 내용으로
user-ca-bundle.yaml이라는 파일을 생성하고 PEM 인코딩 인증서 값을 제공합니다.apiVersion: v1 data: ca-bundle.crt: | 1 <MY_PEM_ENCODED_CERTS> 2 kind: ConfigMap metadata: name: user-ca-bundle 3 namespace: openshift-config 4
이 파일에서 구성 맵을 생성합니다.
$ oc create -f user-ca-bundle.yaml
oc edit명령을 사용하여프록시오브젝트를 수정합니다.$ oc edit proxy/cluster
프록시에 필요한 필드를 구성합니다.
apiVersion: config.openshift.io/v1 kind: Proxy metadata: name: cluster spec: httpProxy: http://<username>:<pswd>@<ip>:<port> 1 httpsProxy: https://<username>:<pswd>@<ip>:<port> 2 noProxy: example.com 3 readinessEndpoints: - http://www.google.com 4 - https://www.google.com trustedCA: name: user-ca-bundle 5
- 1
- 클러스터 외부에서 HTTP 연결을 구축하는 데 사용할 프록시 URL입니다. URL 스키마는
http여야 합니다. - 2
- 클러스터 외부에서 HTTPS 연결을 구축하는 데 사용할 프록시 URL입니다. URL 스키마는
http또는https여야 합니다. URL 스키마를 지원하는 프록시의 URL을 지정합니다. 예를 들어 대부분의 프록시는https를 사용하도록 구성된 경우 오류를 보고하지만http만 지원합니다. 이 실패 메시지는 로그에 전파되지 않을 수 있으며 대신 네트워크 연결 실패로 표시될 수 있습니다. 클러스터에서https연결을 수신하는 프록시를 사용하는 경우 프록시에서 사용하는 CA 및 인증서를 수락하도록 클러스터를 구성해야 할 수 있습니다. - 3
- 대상 도메인 이름, 도메인, IP 주소 또는 프록시를 제외할 기타 네트워크 CIDR로 이루어진 쉼표로 구분된 목록입니다.
하위 도메인과 일치하려면 도메인 앞에
.을 입력합니다. 예를 들어,.y.com은x.y.com과 일치하지만y.com은 일치하지 않습니다.*를 사용하여 모든 대상에 대해 프록시를 바이패스합니다.networking.machineNetwork[].cidr필드에 의해 정의된 네트워크에 포함되지 않은 작업자를 설치 구성에서 확장하려면 연결 문제를 방지하려면 이 목록에 해당 작업자를 추가해야 합니다.httpProxy또는httpsProxy필드가 모두 설정되지 않은 경우 이 필드는 무시됩니다. - 4
httpProxy및httpsProxy값을 상태에 쓰기 전에 준비 검사를 수행하는 데 사용할 하나 이상의 클러스터 외부 URL입니다.- 5
- HTTPS 연결을 프록시하는 데 필요한 추가 CA 인증서가 포함된
openshift-config네임스페이스의 구성 맵에 대한 참조입니다. 여기서 구성 맵을 참조하기 전에 구성 맵이 이미 있어야 합니다. 프록시의 ID 인증서를 RHCOS 트러스트 번들에 있는 기관에서 서명하지 않은 경우 이 필드가 있어야 합니다.
- 파일을 저장하여 변경 사항을 적용합니다.
31.3. 클러스터 전체 프록시 제거
cluster 프록시 오브젝트는 삭제할 수 없습니다. 클러스터에서 프록시를 제거하려면 프록시 오브젝트에서 모든 spec 필드를 제거합니다.
사전 요구 사항
- 클러스터 관리자 권한
-
OpenShift Container Platform
ocCLI 툴이 설치됨
절차
프록시를 수정하려면
oc edit명령을 사용합니다.$ oc edit proxy/cluster
프록시 오브젝트에서 모든
spec필드를 제거합니다. 예를 들면 다음과 같습니다.apiVersion: config.openshift.io/v1 kind: Proxy metadata: name: cluster spec: {}- 파일을 저장하여 변경 사항을 적용합니다.
추가 리소스
32장. 사용자 정의 PKI 구성
웹 콘솔과 같은 일부 플랫폼 구성 요소에서는 통신에 경로를 사용하고, 다른 구성 요소와의 상호 작용을 위해 해당 구성 요소의 인증서를 신뢰해야 합니다. 사용자 정의 PKI(공개 키 인프라)를 사용하는 경우 개인 서명 CA 인증서가 클러스터에서 인식되도록 PKI를 구성해야 합니다.
프록시 API를 활용하면 클러스터 전체에서 신뢰하는 CA 인증서를 추가할 수 있습니다. 이 작업은 설치 중 또는 런타임에 수행해야 합니다.
설치 중에 클러스터 전체 프록시를 구성합니다.
install-config.yaml파일의additionalTrustBundle설정에 개인 서명 CA 인증서를 정의해야 합니다.설치 프로그램은 사용자가 정의한 추가 CA 인증서가 포함된
user-ca-bundle이라는 ConfigMap을 생성합니다. 그러면 CNO(Cluster Network Operator)에서 이러한 CA 인증서를 RHCOS(Red Hat Enterprise Linux CoreOS) 신뢰 번들과 병합하는trusted-ca-bundleConfigMap을 생성합니다. 이 ConfigMap은 프록시 오브젝트의trustedCA필드에서 참조됩니다.-
런타임 시 개인 서명 CA 인증서를 포함하도록 기본 프록시 오브젝트를 수정합니다 (클러스터의 프록시 사용 워크플로우의 일부). 이를 위해서는 클러스터에서 신뢰해야 하는 개인 서명 CA 인증서가 포함된 ConfigMap을 생성한 다음 개인 서명 인증서의 ConfigMap을 참조하는
trustedCA로 프록시 리소스를 수정해야 합니다.
설치 관리자 구성의 additionalTrustBundle 필드와 프록시 리소스의 trustedCA 필드는 클러스터 전체 신뢰 번들을 관리하는 데 사용됩니다. additionalTrustBundle 은 설치 시 사용되며 프록시의 trustedCA 는 런타임에 사용됩니다.
trustedCA 필드는 클러스터 구성 요소에서 사용하는 사용자 정의 인증서 및 키 쌍이 포함된 ConfigMap 에 대한 참조입니다.
32.1. 설치 중 클러스터 단위 프록시 구성
프로덕션 환경에서는 인터넷에 대한 직접 액세스를 거부하고 대신 HTTP 또는 HTTPS 프록시를 사용할 수 있습니다. install-config.yaml 파일에서 프록시 설정을 구성하여 프록시를 사용하도록 새 OpenShift Container Platform 클러스터를 구성할 수 있습니다.
사전 요구 사항
-
기존
install-config.yaml파일이 있습니다. 클러스터에서 액세스해야 하는 사이트를 검토하고 프록시를 바이패스해야 하는지 확인했습니다. 기본적으로 호스팅 클라우드 공급자 API에 대한 호출을 포함하여 모든 클러스터 발신(Egress) 트래픽이 프록시됩니다. 필요한 경우 프록시를 바이패스하기 위해
프록시오브젝트의spec.noProxy필드에 사이트를 추가했습니다.참고프록시오브젝트status.noProxy필드는 설치 구성의networking.machineNetwork[].cidr,networking.clusterNetwork[].cidr및networking.serviceNetwork[]필드의 값으로 채워집니다.AWS(Amazon Web Services), GCP(Google Cloud Platform), Microsoft Azure 및 Red Hat OpenStack Platform (RHOSP)에 설치하는 경우
Proxy오브젝트status.noProxy필드도 인스턴스 메타데이터 끝점 (169.254.169.254)으로 채워집니다.
절차
install-config.yaml파일을 편집하고 프록시 설정을 추가합니다. 예를 들면 다음과 같습니다.apiVersion: v1 baseDomain: my.domain.com proxy: httpProxy: http://<username>:<pswd>@<ip>:<port> 1 httpsProxy: https://<username>:<pswd>@<ip>:<port> 2 noProxy: ec2.<aws_region>.amazonaws.com,elasticloadbalancing.<aws_region>.amazonaws.com,s3.<aws_region>.amazonaws.com 3 additionalTrustBundle: | 4 -----BEGIN CERTIFICATE----- <MY_TRUSTED_CA_CERT> -----END CERTIFICATE----- additionalTrustBundlePolicy: <policy_to_add_additionalTrustBundle> 5
- 1
- 클러스터 외부에서 HTTP 연결을 구축하는 데 사용할 프록시 URL입니다. URL 스키마는
http여야 합니다. - 2
- 클러스터 외부에서 HTTPS 연결을 구축하는 데 사용할 프록시 URL입니다.
- 3
- 대상 도메인 이름, IP 주소 또는 프록시에서 제외할 기타 네트워크 CIDR로 이루어진 쉼표로 구분된 목록입니다. 하위 도메인과 일치하려면 도메인 앞에
.을 입력합니다. 예를 들어,.y.com은x.y.com과 일치하지만y.com은 일치하지 않습니다.*를 사용하여 모든 대상에 대해 프록시를 바이패스합니다. AmazonEC2,Elastic Load Balancing,S3VPC 엔드 포인트를 VPC에 추가한 경우 이러한 끝점을noProxy필드에 추가해야 합니다. - 4
- 이 값을 제공하면 설치 프로그램에서 HTTPS 연결을 프록시하는 데 필요한 추가 CA 인증서가 하나 이상 포함된
openshift-config네임스페이스에user-ca-bundle이라는 이름으로 구성 맵을 생성합니다. 그러면 CNO(Cluster Network Operator)에서 이러한 콘텐츠를 RHCOS(Red Hat Enterprise Linux CoreOS) 신뢰 번들과 병합하는trusted-ca-bundle구성 맵을 생성합니다. 이 구성 맵은Proxy오브젝트의trustedCA필드에서 참조됩니다. 프록시의 ID 인증서를 RHCOS 신뢰 번들의 기관에서 서명하지 않는 한additionalTrustBundle필드가 필요합니다. - 5
- 선택 사항:
trustedCA필드의user-ca-bundle구성 맵을 참조하는프록시오브젝트의 구성을 결정하는 정책입니다. 허용되는 값은Proxyonly및Always입니다.http/https프록시가 구성된 경우에만proxyonly를 사용하여user-ca-bundle구성 맵을 참조합니다.Always를 사용하여 항상user-ca-bundle구성 맵을 참조합니다. 기본값은Proxyonly입니다.
참고설치 프로그램에서 프록시
readinessEndpoints필드를 지원하지 않습니다.참고설치 프로그램이 시간 초과되면 설치 프로그램의
wait-for명령을 사용하여 배포를 다시 시작한 다음 완료합니다. 예를 들면 다음과 같습니다.$ ./openshift-install wait-for install-complete --log-level debug
- 파일을 저장해 놓고 OpenShift Container Platform을 설치할 때 참조하십시오.
설치 프로그램은 제공된 install-config.yaml 파일의 프록시 설정을 사용하는 cluster 라는 이름의 클러스터 전체 프록시를 생성합니다. 프록시 설정을 제공하지 않아도 cluster Proxy 오브젝트는 계속 생성되지만 spec 은 nil이 됩니다.
cluster 라는 프록시 오브젝트만 지원되며 추가 프록시는 생성할 수 없습니다.
32.2. 클러스터 전체 프록시 사용
프록시 오브젝트는 클러스터 전체 송신 프록시를 관리하는 데 사용됩니다. 프록시를 구성하지 않고 클러스터를 설치하거나 업그레이드해도 프록시 오브젝트 는 계속 생성되지만 spec 은 nil이 됩니다. 예를 들면 다음과 같습니다.
apiVersion: config.openshift.io/v1
kind: Proxy
metadata:
name: cluster
spec:
trustedCA:
name: ""
status:
클러스터 관리자는 이 cluster Proxy 오브젝트를 수정하여 OpenShift Container Platform의 프록시를 구성할 수 있습니다.
cluster 라는 프록시 오브젝트만 지원되며 추가 프록시는 생성할 수 없습니다.
사전 요구 사항
- 클러스터 관리자 권한
-
OpenShift Container Platform
ocCLI 툴이 설치됨
절차
HTTPS 연결을 프록시하는 데 필요한 추가 CA 인증서가 포함된 구성 맵을 생성합니다.
참고프록시의 ID 인증서를 RHCOS 트러스트 번들에 있는 기관에서 서명한 경우 이 단계를 건너뛸 수 있습니다.
다음 내용으로
user-ca-bundle.yaml이라는 파일을 생성하고 PEM 인코딩 인증서 값을 제공합니다.apiVersion: v1 data: ca-bundle.crt: | 1 <MY_PEM_ENCODED_CERTS> 2 kind: ConfigMap metadata: name: user-ca-bundle 3 namespace: openshift-config 4
이 파일에서 구성 맵을 생성합니다.
$ oc create -f user-ca-bundle.yaml
oc edit명령을 사용하여프록시오브젝트를 수정합니다.$ oc edit proxy/cluster
프록시에 필요한 필드를 구성합니다.
apiVersion: config.openshift.io/v1 kind: Proxy metadata: name: cluster spec: httpProxy: http://<username>:<pswd>@<ip>:<port> 1 httpsProxy: https://<username>:<pswd>@<ip>:<port> 2 noProxy: example.com 3 readinessEndpoints: - http://www.google.com 4 - https://www.google.com trustedCA: name: user-ca-bundle 5
- 1
- 클러스터 외부에서 HTTP 연결을 구축하는 데 사용할 프록시 URL입니다. URL 스키마는
http여야 합니다. - 2
- 클러스터 외부에서 HTTPS 연결을 구축하는 데 사용할 프록시 URL입니다. URL 스키마는
http또는https여야 합니다. URL 스키마를 지원하는 프록시의 URL을 지정합니다. 예를 들어 대부분의 프록시는https를 사용하도록 구성된 경우 오류를 보고하지만http만 지원합니다. 이 실패 메시지는 로그에 전파되지 않을 수 있으며 대신 네트워크 연결 실패로 표시될 수 있습니다. 클러스터에서https연결을 수신하는 프록시를 사용하는 경우 프록시에서 사용하는 CA 및 인증서를 수락하도록 클러스터를 구성해야 할 수 있습니다. - 3
- 대상 도메인 이름, 도메인, IP 주소 또는 프록시를 제외할 기타 네트워크 CIDR로 이루어진 쉼표로 구분된 목록입니다.
하위 도메인과 일치하려면 도메인 앞에
.을 입력합니다. 예를 들어,.y.com은x.y.com과 일치하지만y.com은 일치하지 않습니다.*를 사용하여 모든 대상에 대해 프록시를 바이패스합니다.networking.machineNetwork[].cidr필드에 의해 정의된 네트워크에 포함되지 않은 작업자를 설치 구성에서 확장하려면 연결 문제를 방지하려면 이 목록에 해당 작업자를 추가해야 합니다.httpProxy또는httpsProxy필드가 모두 설정되지 않은 경우 이 필드는 무시됩니다. - 4
httpProxy및httpsProxy값을 상태에 쓰기 전에 준비 검사를 수행하는 데 사용할 하나 이상의 클러스터 외부 URL입니다.- 5
- HTTPS 연결을 프록시하는 데 필요한 추가 CA 인증서가 포함된
openshift-config네임스페이스의 구성 맵에 대한 참조입니다. 여기서 구성 맵을 참조하기 전에 구성 맵이 이미 있어야 합니다. 프록시의 ID 인증서를 RHCOS 트러스트 번들에 있는 기관에서 서명하지 않은 경우 이 필드가 있어야 합니다.
- 파일을 저장하여 변경 사항을 적용합니다.
32.3. Operator를 사용한 인증서 주입
ConfigMap을 통해 사용자 정의 CA 인증서가 클러스터에 추가되면 CNO(Cluster Network Operator)에서 사용자 제공 및 시스템 CA 인증서를 단일 번들로 병합한 후 병합한 번들을 신뢰 번들 주입을 요청하는 Operator에 주입합니다.
config.openshift.io/inject-trusted-cabundle="true" 레이블을 구성 맵에 추가하면 기존 데이터가 삭제됩니다. CNO(Cluster Network Operator)는 구성 맵을 소유하고 ca-bundle 만 데이터로 허용합니다. service.beta.openshift.io/inject-cabundle=true 주석 또는 유사한 구성을 사용하여 service-ca.crt 를 저장하려면 별도의 구성 맵을 사용해야 합니다. config.openshift.io/inject-trusted-cabundle="true" 레이블과 service.beta.openshift.io/inject-cabundle=true 주석을 추가하면 문제가 발생할 수 있습니다.
Operator는 다음 라벨이 있는 빈 ConfigMap을 생성하여 이러한 주입을 요청합니다.
config.openshift.io/inject-trusted-cabundle="true"
빈 ConfigMap의 예:
apiVersion: v1
data: {}
kind: ConfigMap
metadata:
labels:
config.openshift.io/inject-trusted-cabundle: "true"
name: ca-inject 1
namespace: apache- 1
- 빈 ConfigMap 이름을 지정합니다.
Operator는 이 ConfigMap을 컨테이너의 로컬 신뢰 저장소에 마운트합니다.
신뢰할 수 있는 CA 인증서를 추가하는 작업은 인증서가 RHCOS(Red Hat Enterprise Linux CoreOS) 신뢰 번들에 포함되지 않은 경우에만 필요합니다.
Operator는 제한 없이 인증서를 주입할 수 있습니다. config.openshift.io/inject-trusted-cabundle=true 라벨을 사용하여 빈 ConfigMap이 생성되면 CNO(Cluster Network Operator)에서 모든 네임스페이스에 인증서를 삽입합니다.
ConfigMap은 모든 네임스페이스에 상주할 수 있지만 사용자 정의 CA가 필요한 Pod 내의 각 컨테이너에 볼륨으로 마운트해야 합니다. 예를 들면 다음과 같습니다.
apiVersion: apps/v1
kind: Deployment
metadata:
name: my-example-custom-ca-deployment
namespace: my-example-custom-ca-ns
spec:
...
spec:
...
containers:
- name: my-container-that-needs-custom-ca
volumeMounts:
- name: trusted-ca
mountPath: /etc/pki/ca-trust/extracted/pem
readOnly: true
volumes:
- name: trusted-ca
configMap:
name: trusted-ca
items:
- key: ca-bundle.crt 1
path: tls-ca-bundle.pem 233장. RHOSP의 로드 밸런싱
33.1. 로드 밸런서 서비스의 제한 사항
RHOSP(Red Hat OpenStack Platform)의 OpenShift Container Platform 클러스터는 Octavia를 사용하여 로드 밸런서 서비스를 처리합니다. 이러한 선택으로 인해 이러한 클러스터에는 다양한 기능 제한 사항이 있습니다.
RHOSP Octavia에는 두 가지 공급자인 Amphora와 OVN이 지원됩니다. 이러한 공급자는 사용 가능한 기능 및 구현 세부 사항에 따라 다릅니다. 이러한 차이점은 클러스터에서 생성된 로드 밸런서 서비스에 영향을 미칩니다.
33.1.1. 로컬 외부 트래픽 정책
로드 밸런서 서비스에서 외부 트래픽 정책(ETP) 매개변수인 .spec.externalTrafficPolicy 를 설정하여 서비스 끝점 Pod에 도달할 때 들어오는 트래픽의 소스 IP 주소를 유지할 수 있습니다. 그러나 클러스터가 Amphora Octavia 공급자를 사용하는 경우 트래픽의 소스 IP가 Amphora VM의 IP 주소로 교체됩니다. 클러스터가 OVN Octavia 공급자를 사용하는 경우 이 동작이 발생하지 않습니다.
ETP 옵션을 Local 로 설정하려면 로드 밸런서에 대한 상태 모니터를 생성해야 합니다. 상태 모니터가 없으면 트래픽이 기능적인 끝점이 없는 노드로 라우팅될 수 있으므로 연결이 끊어집니다. 클라우드 공급자 OpenStack이 상태 모니터를 생성하도록 강제 적용하려면 클라우드 공급자 구성에서 create-monitor 옵션의 값을 true 로 설정해야 합니다.
RHOSP 16.1 및 16.2에서는 OVN Octavia 공급자가 상태 모니터를 지원하지 않습니다. 따라서 ETP를 local로 설정하는 것은 지원되지 않습니다.
RHOSP 16.1 및 16.2에서는 Amphora Octavia 공급자가 UDP 풀에서 HTTP 모니터를 지원하지 않습니다. 결과적으로 UDP 로드 밸런서 서비스에는 대신 UDP-CONNECT 모니터가 생성됩니다. 구현 세부 정보로 인해 이 구성은 OVN-Kubernetes CNI 플러그인에서만 제대로 작동합니다. OpenShift SDN CNI 플러그인을 사용하면 UDP 서비스가 정상적으로 감지됩니다.
33.1.2. 로드 밸런서 소스 범위
.spec.loadBalancerSourceRanges 속성을 사용하여 소스 IP에 따라 로드 밸런서를 통과할 수 있는 트래픽을 제한합니다. 이 속성은 Amphora Octavia 공급자에서만 사용할 수 있습니다. 클러스터에서 OVN Octavia 공급자를 사용하는 경우 옵션이 무시되고 트래픽이 무제한입니다.
33.2. Kuryr SDN으로 Octavia OVN 로드 밸런서 공급자 드라이버 사용
Kuryr는 더 이상 사용되지 않는 기능입니다. 더 이상 사용되지 않는 기능은 여전히 OpenShift Container Platform에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.
OpenShift Container Platform에서 더 이상 사용되지 않거나 삭제된 주요 기능의 최신 목록은 OpenShift Container Platform 릴리스 노트에서 더 이상 사용되지 않고 삭제된 기능 섹션을 참조하십시오.
OpenShift Container Platform 클러스터에서 Kuryr를 사용하고 나중에 RHOSP 16으로 업그레이드된 RHOSP(Red Hat OpenStack Platform) 13 클라우드에 설치된 경우, Octavia OVN 공급자 드라이버를 사용하도록 구성할 수 있습니다.
공급자 드라이버를 변경하면 Kuryr가 기존 로드 밸런서를 대신합니다. 이 프로세스로 인해 약간의 다운 타임이 발생합니다.
사전 요구 사항
-
RHOSP CLI,
openstack. -
OpenShift Container Platform CLI,
oc를 설치합니다. RHOSP의 Octavia OVN 드라이버가 활성화되었는지 확인합니다.
작은 정보사용 가능한 Octavia 드라이버 목록을 보려면 명령줄에서
openstack loadbalancer provider list를 입력합니다.명령 출력에
ovn드라이버가 표시됩니다.
절차
Octavia Amphora 공급자 드라이버에서 Octavia OVN으로 변경하려면 다음을 수행하십시오.
kuryr-configConfigMap을 엽니다. 명령줄에 다음을 입력합니다.$ oc -n openshift-kuryr edit cm kuryr-config
ConfigMap에서
kuryr-octavia-provider: default가 포함된 행을 삭제합니다. 예를 들면 다음과 같습니다.... kind: ConfigMap metadata: annotations: networkoperator.openshift.io/kuryr-octavia-provider: default 1 ...- 1
- 이 행을 삭제합니다. 클러스터에서
ovn을 값으로 사용하여 이를 다시 생성합니다.
Cluster Network Operator가 수정 사항을 감지하고
kuryr-controller및kuryr-cniPod를 재배포할 때까지 기다립니다. 이 과정에 몇 분이 걸릴 수 있습니다.kuryr-configConfigMap 주석이 값ovn과 함께 표시되는지 확인합니다. 명령줄에 다음을 입력합니다.$ oc -n openshift-kuryr edit cm kuryr-config
ovn공급자 값이 출력에 표시됩니다.... kind: ConfigMap metadata: annotations: networkoperator.openshift.io/kuryr-octavia-provider: ovn ...RHOSP에서 로드 밸런서를 다시 생성했는지 확인합니다.
명령줄에 다음을 입력합니다.
$ openstack loadbalancer list | grep amphora
하나의 Amphora 로드 밸런서가 표시됩니다. 예를 들면 다음과 같습니다.
a4db683b-2b7b-4988-a582-c39daaad7981 | ostest-7mbj6-kuryr-api-loadbalancer | 84c99c906edd475ba19478a9a6690efd | 172.30.0.1 | ACTIVE | amphora
다음을 입력하여
ovn로드 밸런서를 검색합니다.$ openstack loadbalancer list | grep ovn
ovn유형의 나머지 로드 밸런서가 표시됩니다. 예를 들면 다음과 같습니다.2dffe783-98ae-4048-98d0-32aa684664cc | openshift-apiserver-operator/metrics | 84c99c906edd475ba19478a9a6690efd | 172.30.167.119 | ACTIVE | ovn 0b1b2193-251f-4243-af39-2f99b29d18c5 | openshift-etcd/etcd | 84c99c906edd475ba19478a9a6690efd | 172.30.143.226 | ACTIVE | ovn f05b07fc-01b7-4673-bd4d-adaa4391458e | openshift-dns-operator/metrics | 84c99c906edd475ba19478a9a6690efd | 172.30.152.27 | ACTIVE | ovn
33.3. Octavia를 사용하여 애플리케이션 트래픽의 클러스터 확장
RHOSP(Red Hat OpenStack Platform)에서 실행되는 OpenShift Container Platform 클러스터는 Octavia 로드 밸런싱 서비스를 사용하여 여러 VM(가상 머신) 또는 유동 IP 주소에 트래픽을 배포할 수 있습니다. 이 기능을 사용하면 단일 머신 또는 주소가 생성하는 병목 현상이 완화됩니다.
클러스터가 Kuryr를 사용하는 경우 CNO(Cluster Network Operator)가 배포 시 내부 Octavia 로드 밸런서를 생성했습니다. 이 로드 밸런서를 애플리케이션 네트워크 스케일링에 사용할 수 있습니다.
클러스터가 Kuryr를 사용하지 않는 경우 애플리케이션 네트워크 확장에 사용할 자체 Octavia 로드 밸런서를 생성해야 합니다.
33.3.1. Octavia를 사용하여 클러스터 스케일링
여러 API 로드 밸런서를 사용하거나 클러스터가 Kuryr를 사용하지 않는 경우 Octavia 로드 밸런서를 생성하고 이를 사용할 클러스터를 구성합니다.
사전 요구 사항
- Octavia는 RHOSP(Red Hat OpenStack Platform) 배포에서 사용할 수 있습니다.
절차
명령줄에서 Amphora 드라이버를 사용하는 Octavia 로드 밸런서를 생성합니다.
$ openstack loadbalancer create --name API_OCP_CLUSTER --vip-subnet-id <id_of_worker_vms_subnet>
API_OCP_CLUSTER대신 선택한 이름을 사용할 수 있습니다.로드 밸런서가 활성화된 후 리스너를 생성합니다.
$ openstack loadbalancer listener create --name API_OCP_CLUSTER_6443 --protocol HTTPS--protocol-port 6443 API_OCP_CLUSTER
참고로드 밸런서의 상태를 보려면
openstack loadbalancer list를 입력합니다.라운드 로빈 알고리즘을 사용하고 세션 지속성이 활성화된 풀을 생성합니다.
$ openstack loadbalancer pool create --name API_OCP_CLUSTER_pool_6443 --lb-algorithm ROUND_ROBIN --session-persistence type=<source_IP_address> --listener API_OCP_CLUSTER_6443 --protocol HTTPS
컨트롤 플레인 머신을 사용할 수 있도록 하려면 상태 모니터를 생성합니다.
$ openstack loadbalancer healthmonitor create --delay 5 --max-retries 4 --timeout 10 --type TCP API_OCP_CLUSTER_pool_6443
컨트롤 플레인 머신을 로드 밸런서 풀의 멤버로 추가합니다.
$ for SERVER in $(MASTER-0-IP MASTER-1-IP MASTER-2-IP) do openstack loadbalancer member create --address $SERVER --protocol-port 6443 API_OCP_CLUSTER_pool_6443 done
선택 사항: 클러스터 API 유동 IP 주소를 재사용하려면 설정을 해제합니다.
$ openstack floating ip unset $API_FIP
생성된 로드 밸런서 VIP에 설정되지 않은
API_FIP또는 새 주소를 추가합니다.$ openstack floating ip set --port $(openstack loadbalancer show -c <vip_port_id> -f value API_OCP_CLUSTER) $API_FIP
이제 클러스터에서 로드 밸런싱에 Octavia를 사용합니다.
Kuryr가 Octavia Amphora 드라이버를 사용하는 경우 모든 트래픽은 단일 Amphora VM(가상 머신)을 통해 라우팅됩니다.
병목 현상을 완화할 수 있는 추가 로드 밸런서를 생성하기 위해 이 절차를 반복할 수 있습니다.
33.3.2. Octavia를 사용하여 Kuryr를 사용하는 클러스터 스케일링
Kuryr는 더 이상 사용되지 않는 기능입니다. 더 이상 사용되지 않는 기능은 여전히 OpenShift Container Platform에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.
OpenShift Container Platform에서 더 이상 사용되지 않거나 삭제된 주요 기능의 최신 목록은 OpenShift Container Platform 릴리스 노트에서 더 이상 사용되지 않고 삭제된 기능 섹션을 참조하십시오.
클러스터가 Kuryr를 사용하는 경우 클러스터의 API 유동 IP 주소를 기존 Octavia 로드 밸런서와 연결합니다.
사전 요구 사항
- OpenShift Container Platform 클러스터는 Kuryr을 사용합니다.
- Octavia는 RHOSP(Red Hat OpenStack Platform) 배포에서 사용할 수 있습니다.
절차
선택 사항: 명령줄에서 클러스터 API 유동 IP 주소를 재사용하려면 설정을 해제합니다.
$ openstack floating ip unset $API_FIP
생성된 로드 밸런서 VIP에 설정되지 않은
API_FIP또는 새 주소를 추가합니다.$ openstack floating ip set --port $(openstack loadbalancer show -c <vip_port_id> -f value ${OCP_CLUSTER}-kuryr-api-loadbalancer) $API_FIP
이제 클러스터에서 로드 밸런싱에 Octavia를 사용합니다.
Kuryr가 Octavia Amphora 드라이버를 사용하는 경우 모든 트래픽은 단일 Amphora VM(가상 머신)을 통해 라우팅됩니다.
병목 현상을 완화할 수 있는 추가 로드 밸런서를 생성하기 위해 이 절차를 반복할 수 있습니다.
33.4. RHOSP Octavia를 사용하여 수신 트래픽 스케일링
Kuryr는 더 이상 사용되지 않는 기능입니다. 더 이상 사용되지 않는 기능은 여전히 OpenShift Container Platform에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.
OpenShift Container Platform에서 더 이상 사용되지 않거나 삭제된 주요 기능의 최신 목록은 OpenShift Container Platform 릴리스 노트에서 더 이상 사용되지 않고 삭제된 기능 섹션을 참조하십시오.
Octavia 로드 밸런서를 사용하여 Kuryr를 사용하는 클러스터에서 Ingress 컨트롤러를 스케일링할 수 있습니다.
사전 요구 사항
- OpenShift Container Platform 클러스터는 Kuryr을 사용합니다.
- RHOSP 배포에서 Octavia를 사용할 수 있습니다.
절차
현재 내부 라우터 서비스를 복사하려면 명령줄에서 다음을 입력합니다.
$ oc -n openshift-ingress get svc router-internal-default -o yaml > external_router.yaml
파일
external_router.yaml에서metadata.name및spec.type의 값을LoadBalancer로 변경합니다.라우터 파일 예
apiVersion: v1 kind: Service metadata: labels: ingresscontroller.operator.openshift.io/owning-ingresscontroller: default name: router-external-default 1 namespace: openshift-ingress spec: ports: - name: http port: 80 protocol: TCP targetPort: http - name: https port: 443 protocol: TCP targetPort: https - name: metrics port: 1936 protocol: TCP targetPort: 1936 selector: ingresscontroller.operator.openshift.io/deployment-ingresscontroller: default sessionAffinity: None type: LoadBalancer 2
로드 밸런싱에 적합하지 않은 타임 스탬프 및 기타 정보를 삭제할 수 있습니다.
명령줄에서
external_router.yaml파일에서 서비스를 생성합니다.$ oc apply -f external_router.yaml
서비스의 외부 IP 주소가 로드 밸런서와 연결된 항목과 동일한지 확인합니다.
명령줄에서 서비스의 외부 IP 주소를 검색합니다.
$ oc -n openshift-ingress get svc
출력 예
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE router-external-default LoadBalancer 172.30.235.33 10.46.22.161 80:30112/TCP,443:32359/TCP,1936:30317/TCP 3m38s router-internal-default ClusterIP 172.30.115.123 <none> 80/TCP,443/TCP,1936/TCP 22h
로드 밸런서의 IP 주소를 검색합니다.
$ openstack loadbalancer list | grep router-external
출력 예
| 21bf6afe-b498-4a16-a958-3229e83c002c | openshift-ingress/router-external-default | 66f3816acf1b431691b8d132cc9d793c | 172.30.235.33 | ACTIVE | octavia |
이전 단계에서 검색한 주소가 유동 IP 목록에서 서로 연결되어 있는지 확인합니다.
$ openstack floating ip list | grep 172.30.235.33
출력 예
| e2f80e97-8266-4b69-8636-e58bacf1879e | 10.46.22.161 | 172.30.235.33 | 655e7122-806a-4e0a-a104-220c6e17bda6 | a565e55a-99e7-4d15-b4df-f9d7ee8c9deb | 66f3816acf1b431691b8d132cc9d793c |
이제 EXTERNAL-IP 값을 새 Ingress 주소로 사용할 수 있습니다.
Kuryr가 Octavia Amphora 드라이버를 사용하는 경우 모든 트래픽은 단일 Amphora VM(가상 머신)을 통해 라우팅됩니다.
병목 현상을 완화할 수 있는 추가 로드 밸런서를 생성하기 위해 이 절차를 반복할 수 있습니다.
33.5. 외부 로드 밸런서 구성
기본 로드 밸런서 대신 외부 로드 밸런서를 사용하도록 RHOSP(Red Hat OpenStack Platform)에서 OpenShift Container Platform 클러스터를 구성할 수 있습니다.
여러 서브넷을 지원하는 외부 로드 밸런서를 사용하도록 OpenShift Container Platform 클러스터를 구성할 수도 있습니다. 여러 서브넷을 사용하는 경우 로드 밸런서 대상에서 사용하는 네트워크의 모든 IP 주소를 명시적으로 나열할 수 있습니다. 이 구성을 사용하면 로드 밸런서 대상을 재구성하지 않고 해당 네트워크 내에서 노드를 생성하고 삭제할 수 있으므로 유지 관리 오버헤드가 줄어들 수 있습니다.
/27 또는 /28 과 같은 소규모 네트워크에서 머신 세트를 사용하여 Ingress Pod를 배포하는 경우 로드 밸런서 대상을 단순화할 수 있습니다.
설치 프로그램에 대한 API 및 Ingress 정적 주소를 지정할 필요가 없습니다. 이 구성을 선택하는 경우 참조되는 각 vSphere 서브넷에서 IP 주소를 허용하는 네트워크 대상을 정의하기 위해 추가 작업을 수행해야 합니다.
사전 요구 사항
- 로드 밸런서에서 포트 6443, 443 및 80을 통한 TCP는 클러스터 외부에 있는 시스템의 모든 사용자가 액세스할 수 있어야 합니다.
- 모든 컴퓨팅 노드 간에 애플리케이션 포트 443 및 80을 로드 밸런싱합니다.
- 각 컨트롤 플레인 노드 간에 API 포트 6443을 로드 밸런싱합니다.
- 로드 밸런서에서 노드에 ignition 시작 구성을 제공하는 데 사용되는 포트 22623은 클러스터 외부에 노출되지 않습니다.
로드 밸런서는 클러스터의 각 노드에 필요한 포트에 액세스할 수 있습니다. 다음 작업을 완료하여 이 액세스 수준을 확인할 수 있습니다.
- API 로드 밸런서는 컨트롤 플레인 노드의 포트 22623 및 6443에 액세스할 수 있습니다.
- 인그레스 로드 밸런서는 Ingress pod가 있는 노드의 포트 443 및 80에 액세스할 수 있습니다.
절차
포트 6443, 443, 80의 로드 밸런서에서 클러스터에 대한 액세스를 활성화합니다.
예를 들어 이 HAProxy 구성에 유의하십시오.
샘플 HAProxy 구성 섹션
... listen my-cluster-api-6443 bind 0.0.0.0:6443 mode tcp balance roundrobin server my-cluster-master-2 192.0.2.2:6443 check server my-cluster-master-0 192.0.2.3:6443 check server my-cluster-master-1 192.0.2.1:6443 check listen my-cluster-apps-443 bind 0.0.0.0:443 mode tcp balance roundrobin server my-cluster-worker-0 192.0.2.6:443 check server my-cluster-worker-1 192.0.2.5:443 check server my-cluster-worker-2 192.0.2.4:443 check listen my-cluster-apps-80 bind 0.0.0.0:80 mode tcp balance roundrobin server my-cluster-worker-0 192.0.2.7:80 check server my-cluster-worker-1 192.0.2.9:80 check server my-cluster-worker-2 192.0.2.8:80 check클러스터 API의 DNS 서버에 레코드를 추가하고 로드 밸런서를 통해 앱을 추가합니다. 예를 들면 다음과 같습니다.
<load_balancer_ip_address> api.<cluster_name>.<base_domain> <load_balancer_ip_address> apps.<cluster_name>.<base_domain>
명령줄에서
curl을 사용하여 외부 로드 밸런서 및 DNS 구성이 작동하는지 확인합니다.클러스터 API에 액세스할 수 있는지 확인합니다.
$ curl https://<loadbalancer_ip_address>:6443/version --insecure
구성이 올바르면 응답으로 JSON 오브젝트가 표시됩니다.
{ "major": "1", "minor": "11+", "gitVersion": "v1.11.0+ad103ed", "gitCommit": "ad103ed", "gitTreeState": "clean", "buildDate": "2019-01-09T06:44:10Z", "goVersion": "go1.10.3", "compiler": "gc", "platform": "linux/amd64" }클러스터 애플리케이션에 액세스할 수 있는지 확인합니다.
참고웹 브라우저에서 OpenShift Container Platform 콘솔을 여는 방식으로 애플리케이션 액세스 가능성을 확인할 수도 있습니다.
$ curl http://console-openshift-console.apps.<cluster_name>.<base_domain> -I -L --insecure
구성이 올바르면 HTTP 응답이 표시됩니다.
HTTP/1.1 302 Found content-length: 0 location: https://console-openshift-console.apps.<cluster-name>.<base domain>/ cache-control: no-cacheHTTP/1.1 200 OK referrer-policy: strict-origin-when-cross-origin set-cookie: csrf-token=39HoZgztDnzjJkq/JuLJMeoKNXlfiVv2YgZc09c3TBOBU4NI6kDXaJH1LdicNhN1UsQWzon4Dor9GWGfopaTEQ==; Path=/; Secure x-content-type-options: nosniff x-dns-prefetch-control: off x-frame-options: DENY x-xss-protection: 1; mode=block date: Tue, 17 Nov 2020 08:42:10 GMT content-type: text/html; charset=utf-8 set-cookie: 1e2670d92730b515ce3a1bb65da45062=9b714eb87e93cf34853e87a92d6894be; path=/; HttpOnly; Secure; SameSite=None cache-control: private
34장. MetalLB로 로드 밸런싱
34.1. MetalLB 및 MetalLB Operator 정보
클러스터 관리자는 LoadBalancer 유형의 서비스가 클러스터에 추가되어 service에 대한 외부 IP 주소를 추가할 수 있습니다. 외부 IP 주소가 클러스터의 호스트 네트워크에 추가됩니다.
34.1.1. MetalLB 사용 시기
MetalLB를 사용하는 것은 베어 메탈 클러스터 또는 베어 메탈과 같은 인프라가 있는 경우 중요하며, 외부 IP 주소를 통해 애플리케이션에 내결함성 액세스를 원할 때 중요합니다.
외부 IP 주소의 네트워크 트래픽이 클라이언트에서 클러스터의 호스트 네트워크로 라우팅되도록 네트워킹 인프라를 구성해야 합니다.
CloudEvent Operator를 사용하여 testo를 배포한 후 LoadBalancer 유형의 서비스를 추가하면 CloudEvent는 플랫폼 네이티브 로드 밸런서를 제공합니다.
layer2 모드에서 operations in layer2 mode는 IP 페일오버와 유사한 메커니즘을 사용하여 장애 조치(failover)를 지원합니다. 그러나 VRRP(가상 라우터 중복 프로토콜) 및 keepalived를 사용하는 대신 gossip 기반 프로토콜을 활용하여 노드 실패 인스턴스를 식별합니다. 페일오버가 감지되면 다른 노드에서 리더 노드의 역할을 가정하고, 비정상적인 ARP 메시지가 전송되어 이 변경 사항을 브로드캐스트합니다.
layer3 또는 BGP(Border Gateway Protocol) 모드에서 작동하는 CloudEvent 모드는 실패 감지를 네트워크에 위임합니다. OpenShift Container Platform 노드가 연결된 BGP 라우터 또는 라우터는 노드 오류를 식별하고 해당 노드에 대한 경로를 종료합니다.
Pod 및 서비스의 고가용성을 보장하는 데 IP 페일오버 대신 CloudEvent를 사용하는 것이 좋습니다.
34.1.2. MetalLB Operator 사용자 정의 리소스
MetalLB Operator는 다음과 같은 사용자 정의 리소스에 대해 자체 네임스페이스를 모니터링합니다.
MetalLB-
클러스터에 ScanSetting
사용자정의 리소스를 추가하면 CloudEvent Operator가 클러스터에 ScanSetting을 배포합니다. Operator는 사용자 정의 리소스의 단일 인스턴스만 지원합니다. 인스턴스가 삭제되면 Operator는 클러스터에서 MetalLB를 제거합니다. IPAddressPoolCloudEvent에는
LoadBalancer유형의 서비스를 추가할 때 서비스에 할당할 수 있는 하나 이상의 IP 주소 풀이 필요합니다.IPAddressPool에는 IP 주소 목록이 포함됩니다. 목록은 1.1.1.1-1.1.1.1, CIDR 표기법에 지정된 범위, 시작 및 종료 주소로 지정된 범위 또는 하이픈으로 구분된 범위 또는 세 가지 조합을 사용하여 설정된 단일 IP 주소일 수 있습니다.IPAddressPool에는 이름이 필요합니다. 이 문서에서는 doc-example ,,doc-example-reserveddoc-example-ipv6과 같은 이름을 사용합니다. CloudEvent컨트롤러는IPAddressPool의 주소 풀에서 IP 주소를 할당합니다.L2Advertisement및BGPAdvertisement사용자 정의 리소스는 지정된 풀에서 지정된 IP를 알릴 수 있습니다.IPAddressPool사용자 정의 리소스의spec.serviceAllocation사양을 사용하여IPAddressPool의 IP 주소를 서비스 및 네임스페이스에 할당할 수 있습니다.참고단일
IPAddressPool은 L2 광고 및 BGP 광고에서 참조할 수 있습니다.BGPPeer- BGP 피어 사용자 지정 리소스는 통신할 MetalLB의 BGP 라우터, 라우터의 AS 번호, MetalLB의 AS 번호, 경로 알림에 대한 사용자 지정을 식별합니다. MetalLB는 서비스 로드 밸런서 IP 주소의 경로를 하나 이상의 BGP 피어로 알립니다.
BFDProfile- BFD 프로필 사용자 정의 리소스는 BGP 피어에 대해 BFD( Bidirectional Forwarding Detection)를 구성합니다. BFD는 BGP에서만 제공하는 것보다 더 빠른 경로 장애 감지 기능을 제공합니다.
L2Advertisement-
L2Advertisement 사용자 정의 리소스는 L2 프로토콜을 사용하여
IPAddressPool에서 들어오는 IP를 알립니다. BGPAdvertisement-
BGPAdvertisement 사용자 정의 리소스는 BGP 프로토콜을 사용하여
IPAddressPool에서 들어오는 IP를 알립니다.
클러스터에 ScanSetting 사용자 정의 리소스를 추가하고 Operator가 CloudEvent를 배포하면 컨트롤러 및 speaker ECDHE 소프트웨어 구성 요소가 실행되기 시작합니다.
MetalLB는 모든 관련 사용자 정의 리소스의 유효성을 검증합니다.
34.1.3. MetalLB 소프트웨어 구성 요소
ScanSetting Operator를 설치하면 metallb-operator-controller-manager 배포가 Pod를 시작합니다. Pod는 Operator의 구현입니다. Pod는 모든 관련 리소스에 대한 변경 사항을 모니터링합니다.
Operator에서 CloudEvent 인스턴스를 시작하면 컨트롤러 배포 및 speaker 데몬 세트를 시작합니다.
CloudEvent 사용자 지정 리소스에서 배포 사양을 구성하여 컨트롤러 및 speaker Pod가 클러스터에서 배포 및 실행되는 방법을 관리할 수 있습니다. 이러한 배포 사양에 대한 자세한 내용은 추가 리소스 섹션을 참조하십시오.
컨트롤러Operator는 배포 및 단일 Pod를 시작합니다.
LoadBalancer유형의 서비스를 추가하면 Kubernetes는컨트롤러를사용하여 주소 풀에서 IP 주소를 할당합니다. 서비스 오류가 발생하는 경우컨트롤러Pod 로그에 다음 항목이 있는지 확인합니다.출력 예
"event":"ipAllocated","ip":"172.22.0.201","msg":"IP address assigned by controller
speakerOperator는
발표자Pod의 데몬 세트를 시작합니다. 기본적으로 Pod는 클러스터의 각 노드에서 시작됩니다. ScanSetting 사용자 정의 리소스에서 노드 선택기를 지정하여 Pod를 특정 노드로 제한할 수 있습니다.컨트롤러에서 서비스에 IP 주소를 할당하고 서비스를 계속 사용할 수 없는 경우speakerPod 로그를 읽습니다.speakerpod를 사용할 수 없는 경우oc describe pod -n명령을 실행합니다.계층 2 모드의 경우
컨트롤러가서비스에 IP 주소를 할당한 후speakerPod는 알고리즘을 사용하여 로드 밸런서 IP 주소를 알릴 노드의speakerPod를 결정합니다. 알고리즘은 노드 이름과 로드 밸런서 IP 주소를 해시하는 것과 관련이 있습니다. 자세한 내용은 "MetalLB and external traffic policy"를 참조하십시오.speaker는 ARP(Address Resolution Protocol)를 사용하여 IPv4 주소를 알리고 NDP(neighbor Discovery Protocol)를 사용하여 IPv6 주소를 알립니다.
BGP(Border Gateway Protocol) 모드의 경우 컨트롤러 에서 서비스의 IP 주소를 할당한 후 각 speaker pod는 로드 밸런서 IP 주소를 BGP 피어로 알립니다. BGP 피어에서 BGP 세션을 시작하는 노드를 구성할 수 있습니다.
로드 밸런서 IP 주소에 대한 요청은 IP 주소를 알리는 speaker 가 있는 노드로 라우팅됩니다. 노드가 패킷을 수신하면 서비스 프록시가 패킷을 서비스의 엔드포인트로 라우팅합니다. 최적의 경우 엔드포인트가 동일한 노드에 있거나 다른 노드에 있을 수 있습니다. 서비스 프록시는 연결이 설정될 때마다 엔드포인트를 선택합니다.
34.1.4. MetalLB 및 외부 트래픽 정책
계층 2 모드에서는 클러스터의 한 노드에서 서비스 IP 주소에 대한 모든 트래픽을 수신합니다. BGP 모드를 사용하면 호스트 네트워크의 라우터가 새 클라이언트 연결을 위해 클러스터의 노드 중 하나에 대한 연결을 엽니다. 노드가 입력된 후 클러스터에서 트래픽을 처리하는 방법은 외부 트래픽 정책의 영향을 받습니다.
clusterspec.externalTrafficPolicy의 기본값입니다.클러스터트래픽 정책을 사용하면 노드가 트래픽을 수신한 후 서비스 프록시에서 서비스의 모든 pod에 트래픽을 배포합니다. 이 정책은 pod에서 균일한 트래픽 배포를 제공하지만 클라이언트 IP 주소가 지워지고 클라이언트 대신 노드에서 트래픽이 시작된 pod의 애플리케이션에 표시될 수 있습니다.로컬local트래픽 정책을 사용하면 노드가 트래픽을 수신한 후 서비스 프록시는 동일한 노드의 Pod에만 트래픽을 보냅니다. 예를 들어 A 노드의speakerpod에서 외부 서비스 IP를 알리는 경우 모든 트래픽이 노드 A로 전송됩니다. 트래픽이 노드 A에 진입하면 서비스 프록시는 A 노드에도 있는 서비스의 Pod에만 트래픽을 보냅니다. 추가 노드에 있는 서비스의 Pod는 A 노드에서 트래픽을 수신하지 않습니다. 추가 노드의 서비스에 대한 Pod는 장애 조치가 필요한 경우 복제본 역할을 합니다.이 정책은 클라이언트 IP 주소에 영향을 미치지 않습니다. 애플리케이션 pod는 들어오는 연결에서 클라이언트 IP 주소를 확인할 수 있습니다.
BGP 모드에서 외부 트래픽 정책을 구성할 때 다음 정보가 중요합니다.
MetalLB는 모든 적격한 노드에서 로드 밸런서 IP 주소를 알리지만 서비스 부하 분산은 라우터 용량에 의해 제한되어 ECMP(Equal-cost multipath) 경로를 설정할 수 있습니다. IP를 알리는 노드 수가 라우터의 ECMP 그룹 제한보다 크면 라우터는 IP를 알리는 노드보다 적은 노드를 사용합니다.
예를 들어 외부 트래픽 정책이 local 로 설정되어 있고 라우터에 ECMP 그룹 제한이 16으로 설정되어 있고 LoadBalancer 서비스를 구현하는 Pod가 30 노드에 배포되면 14개 노드에 Pod가 배포되지 않습니다. 이 경우 서비스에 대한 외부 트래픽 정책을 cluster 로 설정하는 것이 좋습니다.
34.1.5. 계층 2 모드의 MetalLB 개념
계층 2 모드에서 한 노드의 speaker Pod는 서비스의 외부 IP 주소를 호스트 네트워크에 알립니다. 네트워크 화면에서 볼 때 노드에는 네트워크 인터페이스에 할당된 여러 IP 주소가 있는 것으로 보입니다.
계층 2 모드에서 MetalLB는 ARP 및 NDP를 사용합니다. 이러한 프로토콜은 특정 서브넷 내에서 로컬 주소 확인을 구현합니다. 이 컨텍스트에서 클라이언트는 MetalLB가 작동하도록 서비스를 발표하는 노드와 동일한 서브넷에 존재하는 MetalLB에서 할당한 VIP에 연결할 수 있어야 합니다.
speaker pod는 IPv6에 대한 IPv4 서비스 및 NDP 요청에 대한 ARP 요청에 응답합니다.
계층 2 모드에서는 서비스 IP 주소의 모든 트래픽이 하나의 노드를 통해 라우팅됩니다. 트래픽이 노드에 진입하면 CNI 네트워크 공급자의 서비스 프록시에서 서비스의 모든 Pod에 트래픽을 배포합니다.
서비스의 모든 트래픽이 계층 2 모드에서 단일 노드를 통해 시작되기 때문에 MetalLB는 계층 2에 대한 로드 밸런서를 구현하지 않습니다. 대신 CloudEvent는 speaker pod를 사용할 수 없게 되면 다른 노드의 speaker Pod에서 서비스 IP 주소를 알릴 수 있도록 계층 2에 대한 장애 조치 메커니즘을 구현합니다.
노드를 사용할 수 없게 되면 장애 조치가 자동으로 수행됩니다. 다른 노드의 speaker pod는 노드를 사용할 수 없음을 감지하고 새 speaker Pod 및 노드가 실패한 노드에서 서비스 IP 주소를 소유합니다.

이전 그림에서는 MetalLB와 관련된 다음 개념을 보여줍니다.
-
애플리케이션은
172.130.0.0/16서브넷에 클러스터 IP가 있는 서비스를 통해 사용할 수 있습니다. 이 IP 주소는 클러스터 내부에서 액세스할 수 있습니다. 서비스에는 또한 서비스에 할당된 외부 IP 주소192.168.100.200이 있습니다. - 노드 1 및 3에는 애플리케이션용 pod가 있습니다.
-
speaker데몬 세트는 각 노드에서 Pod를 실행합니다. MetalLB Operator는 이러한 Pod를 시작합니다. -
각
speakerpod는 호스트 네트워크 Pod입니다. pod의 IP 주소는 호스트 네트워크에 있는 노드의 IP 주소와 동일합니다. -
노드 1의
speakerpod는 ARP를 사용하여 서비스의 외부 IP 주소192.168.100.200을 알립니다. 외부 IP 주소를 알리는speakerPod는 서비스의 끝점과 동일한 노드에 있어야 하며 끝점이Ready상태에 있어야 합니다. 클라이언트 트래픽은 호스트 네트워크로 라우팅되고
192.168.100.200IP 주소에 연결됩니다. 트래픽이 노드로 전환되면 서비스 프록시는 서비스에 설정한 외부 트래픽 정책에 따라 동일한 노드 또는 다른 노드의 애플리케이션 pod로 트래픽을 전송합니다.-
서비스의 외부 트래픽 정책이
cluster로 설정된 경우speakerpod가 실행 중인 노드에서192.168.100.200로드 밸런서 IP 주소를 알리는 노드가 선택됩니다. 해당 노드만 서비스에 대한 트래픽을 수신할 수 있습니다. -
서비스의 외부 트래픽 정책이
local로 설정된 경우speakerpod가 실행 중인 노드와 서비스의 끝점 중192.168.100.200로드 밸런서 IP 주소를 알리는 노드가 선택됩니다. 해당 노드만 서비스에 대한 트래픽을 수신할 수 있습니다. 위의 그래픽에서 노드 1 또는 3은192.168.100.200을 알립니다.
-
서비스의 외부 트래픽 정책이
-
노드 1을 사용할 수 없게 되면 외부 IP 주소가 다른 노드로 장애 조치됩니다. 애플리케이션 pod 및 서비스 엔드포인트의 인스턴스가 있는 다른 노드에서
speakerpod는 외부 IP 주소192.168.100.200을 알리기 시작하고 새 노드는 클라이언트 트래픽을 수신합니다. 다이어그램에서 유일한 후보는 노드 3입니다.
34.1.6. BGP 모드 MetalLB 개념
BGP 모드에서 기본적으로 각 speaker pod는 서비스의 로드 밸런서 IP 주소를 각 BGP 피어에 알립니다. BGP 피어의 선택적 목록을 추가하여 지정된 풀에서 특정 피어 세트로 들어오는 IP를 알릴 수도 있습니다. BGP 피어는 일반적으로 BGP 프로토콜을 사용하도록 구성된 네트워크 라우터입니다. 라우터가 로드 밸런서 IP 주소에 대한 트래픽을 수신하면 라우터에서 IP 주소를 알리는 speaker pod가 있는 노드 중 하나를 선택합니다. 라우터는 트래픽을 해당 노드로 보냅니다. 트래픽이 노드에 진입하면 CNI 네트워크 플러그인의 서비스 프록시에서 서비스의 모든 Pod에 트래픽을 배포합니다.
클러스터 노드와 동일한 계층 2 네트워크 세그먼트에 직접 연결된 라우터를 BGP 피어로 구성할 수 있습니다. 직접 연결된 라우터가 BGP 피어로 구성되지 않은 경우 로드 밸런서 IP 주소의 패킷이 BGP 피어와 speaker pod를 실행하는 클러스터 노드 간에 라우팅되도록 네트워크를 구성해야 합니다.
라우터가 로드 밸런서 IP 주소에 대한 새 트래픽을 수신할 때마다 노드에 대한 새 연결을 생성합니다. 각 라우터 제조업체에는 연결을 시작할 노드를 선택하기 위한 구현별 알고리즘이 있습니다. 그러나 알고리즘은 일반적으로 네트워크 로드의 균형을 조정하기 위해 사용 가능한 노드에 트래픽을 분산하도록 설계되었습니다.
노드를 사용할 수 없게 되면 라우터는 로드 밸런서 IP 주소를 알리는 speaker pod가 있는 다른 노드와의 새 연결을 시작합니다.
그림 34.1. BGP 모드 MetalLB 토폴로지 다이어그램

이전 그림에서는 MetalLB와 관련된 다음 개념을 보여줍니다.
-
애플리케이션은
172.130.0.0/16서브넷에 IPv4 클러스터 IP가 있는 서비스를 통해 사용할 수 있습니다. 이 IP 주소는 클러스터 내부에서 액세스할 수 있습니다. 서비스에는 서비스에 할당된 외부 IP 주소203.0.113.200도 있습니다. - 노드 2 및 3에는 애플리케이션에 대한 Pod가 있습니다.
-
speaker데몬 세트는 각 노드에서 Pod를 실행합니다. MetalLB Operator는 이러한 Pod를 시작합니다.speakerPod를 실행하는 노드를 지정하도록 CloudEvent를 구성할 수 있습니다. -
각
speakerpod는 호스트 네트워크 Pod입니다. pod의 IP 주소는 호스트 네트워크에 있는 노드의 IP 주소와 동일합니다. -
각
speakerpod는 모든 BGP 피어에서 BGP 세션을 시작하고 로드 밸런서 IP 주소 또는 BGP 피어에 대한 집계 경로를 알립니다.speakerpod는 Autonomous System 65010의 일부임을 알립니다. 이 다이어그램은 동일한 Autonomous System 내에서 BGP 피어로 라우터 R1을 보여줍니다. 그러나 다른 Autonomous 시스템에 속한 피어와 BGP 세션을 시작하도록 MetalLB를 구성할 수 있습니다. 로드 밸런서 IP 주소를 알리는
speakerpod가 있는 모든 노드는 서비스의 트래픽을 수신할 수 있습니다.-
서비스의 외부 트래픽 정책이
cluster로 설정된 경우 speaker pod가 실행 중인 모든 노드는203.0.113.200로드 밸런서 IP 주소 및speakerPod가 있는 모든 노드는 서비스에 대한 트래픽을 수신할 수 있습니다. 호스트 접두사는 외부 트래픽 정책이 cluster로 설정된 경우에만 라우터 피어에 알립니다. -
서비스의 외부 트래픽 정책이
local로 설정된 경우speakerpod가 실행 중인 모든 노드 및 서비스의 끝점이 실행 중인 경우203.0.113.200로드 밸런서 IP 주소를 알릴 수 있습니다. 해당 노드만 서비스에 대한 트래픽을 수신할 수 있습니다. 위의 그래픽에서 노드 2 및 3은203.0.113.200을 알립니다.
-
서비스의 외부 트래픽 정책이
-
BGP 피어 사용자 정의 리소스를 추가할 때 노드 선택기를 지정하여 특정 BGP 피어로 BGP를 시작하는
speakerpod가 BGP 세션을 제어하도록 CloudEvent를 구성할 수 있습니다. - BGP를 사용하도록 구성된 R1과 같은 라우터는 BGP 피어로 설정할 수 있습니다.
- 클라이언트 트래픽은 호스트 네트워크의 노드 중 하나로 라우팅됩니다. 트래픽이 노드로 전환되면 서비스 프록시는 서비스에 설정한 외부 트래픽 정책에 따라 동일한 노드 또는 다른 노드의 애플리케이션 pod로 트래픽을 전송합니다.
- 노드를 사용할 수 없게 되면 라우터에서 오류를 감지하고 다른 노드와의 새 연결을 시작합니다. BGP 피어에 대해 BFD(Bidirectional Forwarding Detection) 프로필을 사용하도록 MetalLB를 구성할 수 있습니다. BFD는 더 빠른 링크 실패 감지 기능을 제공하여 라우터가 BFD보다 먼저 새로운 연결을 시작할 수 있도록 합니다.
34.1.7. 제한 사항
34.1.7.1. MetalLB의 인프라 고려 사항
MetalLB는 기본적으로 베어 메탈 설치에 유용합니다. 이러한 설치에는 기본 로드 밸런서 기능이 포함되어 있지 않기 때문입니다. 베어 메탈 설치 외에도 일부 인프라에 OpenShift Container Platform을 설치할 때 기본 로드 밸런서 기능이 포함되지 않을 수 있습니다. 예를 들어 다음 인프라는 MetalLB Operator를 추가하는 데 도움이 될 수 있습니다.
- 베어 메탈
- VMware vSphere
- IBM Z 및 IBM® LinuxONE
- IBM Z 및 IBM® LinuxONE for Red Hat Enterprise Linux (RHEL) KVM
- IBM Power
MetalLB Operator 및 MetalLB는 OpenShift SDN 및 OVN-Kubernetes 네트워크 공급자에서 지원됩니다.
34.1.7.2. 계층 2 모드에 대한 제한 사항
34.1.7.2.1. 단일 노드 성능 장애
MetalLB는 단일 노드를 통해 서비스에 대한 모든 트래픽을 라우팅합니다. 이 노드는 병목 현상을 일으키고 성능을 제한할 수 있습니다.
계층 2 모드는 서비스의 수신 대역폭을 단일 노드의 대역폭으로 제한합니다. 이는 ARP 및 NDP를 사용하여 트래픽을 전달하는 기본 제한 사항입니다.
34.1.7.2.2. 페일오버 성능 저하
노드 간 페일오버는 클라이언트와의 협업에 따라 달라집니다. 페일오버가 발생하면 MetalLB에서 적절한 ARP 패킷을 전송하여 서비스에 연결된 MAC 주소가 변경되었음을 알립니다.
대부분의 클라이언트 운영 체제는 적절한 ARP 패킷을 올바르게 처리하고 인접 캐시를 즉시 업데이트합니다. 클라이언트에서 캐시를 빠르게 업데이트하면 몇 초 내에 페일오버가 완료됩니다. 일반적으로 클라이언트는 10초 내에 새 노드로 페일오버합니다. 그러나 일부 클라이언트 운영 체제는 적절한 ARP 패킷을 전혀 처리하지 않거나 캐시 업데이트를 지연하는 오래된 구현을 보유하고 있습니다.
Windows, macOS 및 Linux와 같은 일반적인 운영 체제의 최신 버전은 계층 2 페일오버를 올바르게 구현합니다. 오래되고 덜 일반적인 클라이언트 운영 체제를 제외하고는 느린 페일오버 문제가 발생하지 않습니다.
계획된 페일오버가 오래된 클라이언트에 미치는 영향을 최소화하려면 리더십 전환 후 몇 분 동안 이전 노드를 계속 실행하십시오. 이전 노드는 캐시가 새로 고쳐질 때까지 오래된 클라이언트의 트래픽을 계속 전달할 수 있습니다.
계획되지 않은 페일오버가 발생하면 오래된 클라이언트가 캐시 항목을 새로 고칠 때까지 서비스 IP에 연결할 수 없습니다.
34.1.7.3. BGP 모드 제한 사항
34.1.7.3.1. 노드 장애로 모든 활성 연결이 중단될 수 있습니다.
MetalLB는 BGP 기반 로드 밸런싱에 공통된 제한을 공유합니다. 노드가 실패하거나 speaker pod가 다시 시작되면 세션 종료로 인해 모든 활성 연결이 재설정될 수 있습니다. 최종 사용자는 피어 메시지로 연결 재설정을 경험할 수 있습니다.
종료된 BGP 세션의 결과는 각 라우터 제조업체에 따라 구현되었습니다. 그러나 발표자 Pod 수를 변경하면 BGP 세션 수에 영향을 미치고 BGP 피어와의 활성 연결이 중단될 것으로 예상할 수 있습니다.
서비스 중단 가능성을 방지하거나 줄이기 위해 BGP 피어를 추가할 때 노드 선택기를 지정할 수 있습니다. BGP 세션을 시작하는 노드 수를 제한함으로써 BGP 세션이 없는 노드의 결함은 서비스 연결에 영향을 미치지 않습니다.
34.1.7.3.2. 단일 ASN 및 단일 라우터 ID만 지원
BGP 피어 사용자 정의 리소스를 추가할 때 spec.myASN 필드를 지정하여 CloudEvent가 속한 Autonomous System Number(ASN)를 식별합니다. OpenShift Container Platform은 MetalLB가 단일 ASN에 속해야 하는 MetalLB와 함께 BGP 구현을 사용합니다. BGP 피어를 추가하고 spec.myASN 에 대해 기존 BGP 피어 사용자 정의 리소스와 다른 값을 지정하면 오류가 발생합니다.
마찬가지로 BGP 피어 사용자 정의 리소스를 추가하면 spec.routerID 필드는 선택 사항입니다. 이 필드의 값을 지정하는 경우 추가하는 다른 모든 BGP 피어 사용자 정의 리소스에 대해 동일한 값을 지정해야 합니다.
단일 ASN 및 단일 라우터 ID를 지원하는 제한은 MetalLB의 커뮤니티 지원 구현과 다릅니다.
34.1.8. 추가 리소스
34.2. MetalLB Operator 설치
클러스터 관리자는 Operator가 클러스터에서 MetalLB 인스턴스의 라이프사이클을 관리할 수 있도록 MetallB Operator를 추가할 수 있습니다.
MetalLB 및 IP 페일오버가 호환되지 않습니다. 클러스터에 대한 IP 페일오버를 구성한 경우 Operator를 설치하기 전에 IP 페일오버를 제거하는 단계를 수행합니다.
34.2.1. 웹 콘솔을 사용하여 OperatorHub에서 MetalLB Operator 설치
클러스터 관리자는 OpenShift Container Platform 웹 콘솔을 사용하여 MetalLB Operator를 설치할 수 있습니다.
사전 요구 사항
-
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
- OpenShift Container Platform 웹 콘솔에서 Operator → OperatorHub 로 이동합니다.
키워드로 필터링 상자에 키워드 를 입력하거나 스크롤하여 원하는 Operator를 찾습니다. 예를 들어
metallb를 입력하여 CloudEvent Operator를 찾습니다.인프라 기능에서 옵션을 필터링할 수도 있습니다. 예를 들어 연결이 끊긴 환경(제한된 네트워크 환경이라고도 함)에서 작업하는 Operator를 표시하려면 Disconnected 를 선택합니다.
- Operator 설치 페이지에서 기본값을 수락하고 설치를 클릭합니다.
검증
설치에 성공했는지 확인하려면 다음을 수행하십시오.
- Operator → 설치된 Operator 페이지로 이동합니다.
-
Operator가
openshift-operators네임스페이스에 설치되어 있고 해당 상태가Succeeded인지 확인합니다.
Operator가 성공적으로 설치되지 않은 경우 Operator 상태를 확인하고 로그를 확인합니다.
-
Operator → 설치된 Operator 페이지로 이동 하여
Status열에 오류 또는 실패가 있는지 검사합니다. -
워크로드 → Pod 페이지로 이동하여
openshift-operators프로젝트에서 문제를 보고하는 Pod의 로그를 확인합니다.
-
Operator → 설치된 Operator 페이지로 이동 하여
34.2.2. CLI를 사용하여 OperatorHub에서 설치
OpenShift Container Platform 웹 콘솔을 사용하는 대신 CLI를 사용하여 OperatorHub에서 Operator를 설치할 수 있습니다. OpenShift CLI(oc)를 사용하여 CloudEvent Operator를 설치할 수 있습니다.
metallb-system 네임스페이스에 Operator를 설치하는 CLI를 사용하는 것이 좋습니다.
사전 요구 사항
- 클러스터가 베어 메탈 하드웨어에 설치되어 있어야 합니다.
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
다음 명령을 입력하여 MetalLB Operator의 네임스페이스를 생성합니다.
$ cat << EOF | oc apply -f - apiVersion: v1 kind: Namespace metadata: name: metallb-system EOF
네임스페이스에 Operator group CR(사용자 정의 리소스)을 생성합니다.
$ cat << EOF | oc apply -f - apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: metallb-operator namespace: metallb-system EOF
Operator group이 네임스페이스에 설치되어 있는지 확인합니다.
$ oc get operatorgroup -n metallb-system
출력 예
NAME AGE metallb-operator 14m
서브스크립션CR을 생성합니다.SubscriptionCR을 정의하고 YAML 파일을 저장합니다(예:metallb-sub.yaml).apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: metallb-operator-sub namespace: metallb-system spec: channel: stable name: metallb-operator source: redhat-operators 1 sourceNamespace: openshift-marketplace- 1
redhat-operators값을 지정해야 합니다.
서브스크립션CR을 생성하려면 다음 명령을 실행합니다.$ oc create -f metallb-sub.yaml
선택 사항: BGP 및 BFD 지표가 Prometheus에 표시되도록 하려면 다음 명령과 같이 네임스페이스에 라벨을 지정할 수 있습니다.
$ oc label ns metallb-system "openshift.io/cluster-monitoring=true"
검증
확인 단계에서는 CloudEvent Operator가 metallb-system 네임스페이스에 설치되어 있다고 가정합니다.
설치 계획이 네임스페이스에 있는지 확인합니다.
$ oc get installplan -n metallb-system
출력 예
NAME CSV APPROVAL APPROVED install-wzg94 metallb-operator.4.13.0-nnnnnnnnnnnn Automatic true
참고Operator를 설치하는 데 몇 초가 걸릴 수 있습니다.
Operator가 설치되었는지 확인하려면 다음 명령을 입력합니다.
$ oc get clusterserviceversion -n metallb-system \ -o custom-columns=Name:.metadata.name,Phase:.status.phase
출력 예
Name Phase metallb-operator.4.13.0-nnnnnnnnnnnn Succeeded
34.2.3. 클러스터에서 MetalLB 시작
Operator를 설치한 후 MetalLB 사용자 정의 리소스의 단일 인스턴스를 구성해야 합니다. 사용자 정의 리소스를 구성한 후 Operator는 클러스터에서 MetalLB를 시작합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - MetalLB Operator를 설치합니다.
절차
이 절차에서는 CloudEvent Operator가 metallb-system 네임스페이스에 설치되어 있다고 가정합니다. 웹 콘솔을 사용하여 설치한 경우 네임스페이스로 openshift-operators 를 대체합니다.
MetalLB 사용자 지정 리소스의 단일 인스턴스를 생성합니다.
$ cat << EOF | oc apply -f - apiVersion: metallb.io/v1beta1 kind: MetalLB metadata: name: metallb namespace: metallb-system EOF
검증
MetalLB 컨트롤러 및 MetalLB 발표자의 데몬 세트가 실행 중인지 확인합니다.
컨트롤러의 배포가 실행 중인지 확인합니다.
$ oc get deployment -n metallb-system controller
출력 예
NAME READY UP-TO-DATE AVAILABLE AGE controller 1/1 1 1 11m
speaker의 데몬 세트가 실행 중인지 확인합니다.
$ oc get daemonset -n metallb-system speaker
출력 예
NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE speaker 6 6 6 6 6 kubernetes.io/os=linux 18m
예제 출력은 6개의 발표자 pod를 나타냅니다. 클러스터의 발표자 Pod 수는 예제 출력과 다를 수 있습니다. 출력에 클러스터의 각 노드에 하나의 pod가 표시되는지 확인합니다.
34.2.4. MetalLB의 배포 사양
CloudEvent 사용자 정의 리소스를 사용하여 CloudEvent 사용자 지정 리소스를 사용하여 인스턴스를 시작할 때 controller 또는 speaker Pod가 클러스터에서 배포 및 실행되는 방법을 관리하도록 CloudEvent 사용자 정의 리소스에서 배포 사양을 구성할 수 있습니다. 이러한 배포 사양을 사용하여 다음 작업을 관리합니다.
- MetalLB Pod 배포로 노드를 선택합니다.
- Pod 우선순위 및 Pod 유사성을 사용하여 예약을 관리합니다.
- MetalLB Pod의 CPU 제한을 할당합니다.
- MetalLB Pod에 대한 컨테이너 RuntimeClass를 할당합니다.
- MetalLB Pod의 메타데이터를 할당합니다.
34.2.4.1. 발표자 Pod를 특정 노드로 제한
기본적으로 CloudEvent Operator를 사용하여 ScanSetting을 시작하면 Operator는 클러스터의 각 노드에서 speaker Pod 인스턴스를 시작합니다. speaker pod가 있는 노드만 로드 밸런서 IP 주소를 알릴 수 있습니다. 노드 선택기를 사용하여 ScanSetting 사용자 정의 리소스를 구성하여 speaker Pod를 실행하는 노드를 지정할 수 있습니다.
speaker pod를 특정 노드로 제한하는 가장 일반적인 이유는 특정 네트워크의 네트워크 인터페이스가 있는 노드만 로드 밸런서 IP 주소를 알립니다. speaker pod가 실행 중인 노드만 로드 밸런서 IP 주소의 대상으로 표시됩니다.
speaker Pod를 특정 노드로 제한하고 서비스의 외부 트래픽 정책에 대해 local 을 지정하는 경우 서비스의 애플리케이션 Pod가 동일한 노드에 배포되었는지 확인해야 합니다.
발표자 Pod를 작업자 노드로 제한하는 구성 예
apiVersion: metallb.io/v1beta1
kind: MetalLB
metadata:
name: metallb
namespace: metallb-system
spec:
nodeSelector: <.>
node-role.kubernetes.io/worker: ""
speakerTolerations: <.>
- key: "Example"
operator: "Exists"
effect: "NoExecute"
<.> 예제 구성은 작업자 노드에 speaker Pod를 할당하도록 지정하지만 노드 또는 유효한 노드 선택기에 할당한 레이블을 지정할 수 있습니다. <.> 이 예제 구성에서 연결된 Pod는 operator 를 사용하여 키 값 및 효과 값과 일치하는 테인트를 허용하도록 허용됩니다.
spec.nodeSelector 필드를 사용하여 매니페스트를 적용한 후 oc get daemonset -n metallb-system speaker 명령으로 배포한 Pod 수를 확인할 수 있습니다. 마찬가지로 oc get nodes -l node-role.kubernetes.io/worker= 와 같은 명령을 사용하여 라벨과 일치하는 노드를 표시할 수 있습니다.
선택 옵션으로 노드에서 선호도 규칙을 사용하여 예약해야 하는 발표자 Pod를 제어하도록 허용할 수 있습니다. 허용 오차 목록을 적용하여 이러한 Pod를 제한할 수도 있습니다. 유사성 규칙, 테인트 및 허용 오차에 대한 자세한 내용은 추가 리소스를 참조하십시오.
34.2.4.2. MetalLB 배포에서 Pod 우선순위 및 Pod 유사성 구성
선택적으로 CloudEvent 사용자 정의 리소스를 구성하여 컨트롤러 및 speaker Pod Pod에 Pod 우선순위 및 Pod 유사성 규칙을 할당할 수 있습니다. Pod 우선순위는 노드에서 Pod의 상대적 중요도를 나타내며 이 우선 순위에 따라 Pod를 예약합니다. 컨트롤러 또는 speaker Pod에서 높은 우선 순위를 설정하여 노드의 다른 Pod보다 스케줄링 우선 순위를 설정합니다.
Pod 유사성은 Pod 간 관계를 관리합니다. 컨트롤러 또는 speaker Pod에 Pod 유사성을 할당하여 스케줄러에서 Pod 관계 컨텍스트에서 Pod를 배치하는 노드를 제어합니다. 예를 들어 동일한 노드에서 논리적으로 관련된 워크로드가 있는 Pod를 허용하거나 워크로드가 충돌하는 Pod가 별도의 노드에 있는지 확인할 수 있습니다.
사전 요구 사항
-
cluster-admin권한이 있는 사용자로 로그인했습니다. - MetalLB Operator가 설치되어 있습니다.
절차
우선 순위 수준을 구성하려면 my
PriorityClass사용자 정의 리소스(예:myPriorityClass.yaml)를 생성합니다. 이 예에서는 우선순위가 높은 클래스를 사용합니다.apiVersion: scheduling.k8s.io/v1 kind: PriorityClass metadata: name: high-priority value: 1000000
PriorityClass사용자 정의 리소스 구성을 적용합니다.$ oc apply -f myPriorityClass.yaml
priorityClassName및podAffinity값을 지정하려면 ScanSettingPodConfig.yaml과 같은 ScanSetting 사용자 정의 리소스를 생성합니다.apiVersion: metallb.io/v1beta1 kind: MetalLB metadata: name: metallb namespace: metallb-system spec: logLevel: debug controllerConfig: priorityClassName: high-priority runtimeClassName: myclass speakerConfig: priorityClassName: high-priority runtimeClassName: myclass affinity: podAffinity: requiredDuringSchedulingIgnoredDuringExecution: - labelSelector: matchLabels: app: metallb topologyKey: kubernetes.io/hostnameCloudEvent 사용자
정의리소스 구성을 적용합니다.$ oc apply -f MetalLBPodConfig.yaml
검증
네임스페이스에서 Pod에 할당한 우선순위 클래스를 보려면 다음 명령을 실행하고 <
namespace>를 대상 네임스페이스로 교체합니다.$ oc get pods -n <namespace> -o custom-columns=NAME:.metadata.name,PRIORITY:.spec.priorityClassName
스케줄러가 Pod 유사성 규칙에 따라 Pod를 배치하는지 확인하려면 다음 명령을 실행하여 Pod 노드의 메타데이터를 확인하고 <
namespace>를 대상 네임스페이스로 교체합니다.$ oc get pod -o=custom-columns=NODE:.spec.nodeName,NAME:.metadata.name -n <namespace>
34.2.4.3. MetalLB 배포에서 Pod CPU 제한 구성
선택적으로 CloudEvent 사용자 정의 리소스를 구성하여 컨트롤러 및 speaker Pod에 Pod CPU 제한을 할당할 수 있습니다. 컨트롤러 또는 speaker Pod의 CPU 제한을 정의하면 노드에서 컴퓨팅 리소스를 관리하는 데 도움이 됩니다. 이렇게 하면 노드의 모든 Pod에 워크로드 및 클러스터 하우스키핑을 관리하는 데 필요한 컴퓨팅 리소스가 있습니다.
사전 요구 사항
-
cluster-admin권한이 있는 사용자로 로그인했습니다. - MetalLB Operator가 설치되어 있습니다.
절차
CPULimits.yaml과 같은 사용자 정의 리소스 파일을 생성하여컨트롤러및speakerPod의cpu값을 지정합니다.apiVersion: metallb.io/v1beta1 kind: MetalLB metadata: name: metallb namespace: metallb-system spec: logLevel: debug controllerConfig: resources: limits: cpu: "200m" speakerConfig: resources: limits: cpu: "300m"CloudEvent 사용자
정의리소스 구성을 적용합니다.$ oc apply -f CPULimits.yaml
검증
Pod의 컴퓨팅 리소스를 보려면 다음 명령을 실행하여 <
pod_name>을대상 Pod로 교체합니다.$ oc describe pod <pod_name>
34.2.4.4. MetalLB 배포에서 컨테이너 런타임 클래스 구성
선택적으로 CloudEvent 사용자 정의 리소스를 구성하여 컨트롤러 및 speaker Pod에 컨테이너 런타임 클래스를 할당할 수 있습니다. 예를 들어 Windows 워크로드의 경우 Pod의 모든 컨테이너에 이 런타임 클래스를 사용하는 Windows 런타임 클래스를 Pod에 할당할 수 있습니다.
사전 요구 사항
-
cluster-admin권한이 있는 사용자로 로그인했습니다. - MetalLB Operator가 설치되어 있습니다.
절차
런타임 클래스를 정의하려면
myRuntimeClass.yaml과 같은RuntimeClass사용자 정의 리소스를 생성합니다.apiVersion: node.k8s.io/v1 kind: RuntimeClass metadata: name: myclass handler: myconfiguration
RuntimeClass사용자 정의 리소스 구성을 적용합니다.$ oc apply -f myRuntimeClass.yaml
runtimeClassName값을지정하려면 ScanSettingRuntime.yaml과 같은 사용자 지정 리소스를 생성합니다.apiVersion: metallb.io/v1beta1 kind: MetalLB metadata: name: metallb namespace: metallb-system spec: logLevel: debug controllerConfig: runtimeClassName: myclass annotations: 1 controller: demo speakerConfig: runtimeClassName: myclass annotations: 2 speaker: demoCloudEvent 사용자
정의리소스 구성을 적용합니다.$ oc apply -f MetalLBRuntime.yaml
검증
Pod의 컨테이너 런타임을 보려면 다음 명령을 실행합니다.
$ oc get pod -o custom-columns=NAME:metadata.name,STATUS:.status.phase,RUNTIME_CLASS:.spec.runtimeClassName
34.2.5. 추가 리소스
34.2.6. 다음 단계
34.3. CloudEvent 업그레이드
현재 버전 4.10 또는 이전 버전의 ScanSetting Operator를 실행 중인 경우 4.10 이후 버전에 대한 자동 업데이트가 작동하지 않습니다. 4.11 이상인 모든 version of theECDHE Operator에서 최신 버전으로 업그레이드할 수 있습니다. 예를 들어 버전 4.12에서 버전 4.13으로의 업그레이드가 원활하게 수행됩니다.
4.10 및 이전 버전에서 CloudEvent Operator의 업그레이드 절차에 대한 요약은 다음과 같습니다.
-
4.10과 같이 설치된 ScanSetting Operator 버전을 삭제합니다. 네임스페이스 및
metallb사용자 정의 리소스가 제거되지 않았는지 확인합니다. - CLI를 사용하여 이전 버전의 CloudEvent Operator가 설치된 것과 동일한 네임스페이스에 ScanSetting Operator 4.13을 설치합니다.
이 절차는 표준 간단한 방법을 따르는 MetalLB Operator의 z-stream 자동 업데이트에 적용되지 않습니다.
4.10 및 이전 버전에서 CloudEvent Operator를 업그레이드하는 자세한 단계는 다음 지침을 참조하십시오.
34.3.1. 웹 콘솔을 사용하여 클러스터에서 MetalLB Operator 삭제
클러스터 관리자는 웹 콘솔을 사용하여 선택한 네임스페이스에서 설치된 Operator를 삭제할 수 있습니다.
사전 요구 사항
-
cluster-admin권한이 있는 계정을 사용하여 OpenShift Container Platform 클러스터 웹 콘솔에 액세스할 수 있습니다.
절차
- Operator → 설치된 Operator 페이지로 이동합니다.
- MetalLB Operator를 검색합니다. 그런 다음 해당 Operator를 클릭합니다.
Operator 세부 정보 페이지 오른쪽에 있는 작업 드롭다운 메뉴에서 Operator 제거를 선택합니다.
Operator 설치 제거? 대화 상자가 표시됩니다.
설치 제거를 선택하여 Operator, Operator 배포 및 Pod를 제거합니다. 이 작업 후에 Operator는 실행을 중지하고 더 이상 업데이트가 수신되지 않습니다.
참고이 작업은 CRD(사용자 정의 리소스 정의) 및 CR(사용자 정의 리소스)을 포함하여 Operator에서 관리하는 리소스를 제거하지 않습니다. 웹 콘솔에서 활성화된 대시보드 및 탐색 항목과 계속 실행되는 클러스터 외부 리소스는 수동 정리가 필요할 수 있습니다. Operator를 설치 제거한 후 해당 항목을 제거하려면 Operator CRD를 수동으로 삭제해야 할 수 있습니다.
34.3.2. CLI를 사용하여 클러스터에서 MetalLB Operator 삭제
클러스터 관리자는 CLI를 사용하여 선택한 네임스페이스에서 설치된 Operator를 삭제할 수 있습니다.
사전 요구 사항
-
cluster-admin권한이 있는 계정을 사용하여 OpenShift Container Platform 클러스터에 액세스할 수 있습니다. -
oc명령이 워크스테이션에 설치되어 있습니다.
절차
currentCSV필드에서 구독한 CloudEvent Operator의 현재 버전을 확인합니다.$ oc get subscription metallb-operator -n metallb-system -o yaml | grep currentCSV
출력 예
currentCSV: metallb-operator.4.10.0-202207051316
서브스크립션을 삭제합니다.
$ oc delete subscription metallb-operator -n metallb-system
출력 예
subscription.operators.coreos.com "metallb-operator" deleted
이전 단계의
currentCSV값을 사용하여 대상 네임스페이스에서 Operator의 CSV를 삭제합니다.$ oc delete clusterserviceversion metallb-operator.4.10.0-202207051316 -n metallb-system
출력 예
clusterserviceversion.operators.coreos.com "metallb-operator.4.10.0-202207051316" deleted
34.3.3. MetalLB Operator 업그레이드
사전 요구 사항
-
cluster-admin역할을 가진 사용자로 클러스터에 액세스합니다.
절차
metallb-system네임스페이스가 여전히 존재하는지 확인합니다.$ oc get namespaces | grep metallb-system
출력 예
metallb-system Active 31m
metallb사용자 정의 리소스가 여전히 있는지 확인합니다.$ oc get metallb -n metallb-system
출력 예
NAME AGE metallb 33m
"CLI를 사용하여 OperatorHub에서 설치"의 지침에 따라 MetalLB Operator의 최신 4.13 버전을 설치합니다.
참고MetalLB Operator의 최신 4.13 버전을 설치할 때 Operator를 이전에 설치한 동일한 네임스페이스에 설치해야 합니다.
업그레이드된 Operator 버전이 이제 4.13 버전인지 확인합니다.
$ oc get csv -n metallb-system
출력 예
NAME DISPLAY VERSION REPLACES PHASE metallb-operator.4.4.13.0-202207051316 MetalLB Operator 4.4.13.0-202207051316 Succeeded
34.3.4. 추가 리소스
34.4. MetalLB 주소 풀 구성
클러스터 관리자는 주소 풀을 추가, 수정, 삭제할 수 있습니다. MetalLB Operator는 주소 풀 사용자 정의 리소스를 사용하여 MetalLB에서 서비스에 할당할 수 있는 IP 주소를 설정합니다. 예제에 사용되는 네임스페이스는 네임스페이스가 metallb-system 이라고 가정합니다.
34.4.1. IPAddressPool 사용자 정의 리소스 정보
OpenShift Container Platform 4.10의 " MetalLB를 사용한 "Load balancing with MetalLB"에 설명된 주소 풀 CRD(Custom Resource Definition) 및 API는 4.13에서 계속 사용할 수 있습니다. 그러나 계층 2 프로토콜 또는 BGP 프로토콜을 사용하여 IPAddressPool 의 IP 주소를 알리는 것과 관련된 향상된 기능은 AddressPool CRD를 사용할 때 지원되지 않습니다.
IPAddressPool 사용자 정의 리소스의 필드는 다음 표에 설명되어 있습니다.
표 34.1. MetalLB IPAddressPool pool 사용자 정의 리소스
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
주소 풀의 이름을 지정합니다. 서비스를 추가할 때 |
|
|
| 주소 풀의 네임스페이스를 지정합니다. MetalLB Operator에서 사용하는 동일한 네임스페이스를 지정합니다. |
|
|
|
선택 사항: |
|
|
| MetalLB Operator의 IP 주소 목록을 서비스에 할당할 수 있도록 지정합니다. 단일 풀에 여러 범위를 지정할 수 있습니다. 모두 동일한 설정을 공유합니다. CIDR 표기법에서 각 범위를 지정하거나 하이픈으로 구분된 시작 및 끝 IP 주소로 지정합니다. |
|
|
|
선택 사항: MetalLB에서 이 풀에서 IP 주소를 자동으로 할당하는지 여부를 지정합니다. |
spec.serviceAllocation 사양을 구성하여 IPAddressPool 의 IP 주소를 서비스 및 네임스페이스에 할당할 수 있습니다.
표 34.2. ScanSetting IPAddressPool 사용자 정의 리소스 spec.serviceAllocation 하위 필드
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| 선택 사항: 둘 이상의 IP 주소 풀이 서비스 또는 네임스페이스와 일치하는 경우 IP 주소 풀 간 우선 순위를 정의합니다. 숫자가 작을수록 우선순위가 높습니다. |
|
|
| 선택 사항: IP 주소 풀의 IP 주소에 할당할 수 있는 네임스페이스 목록을 지정합니다. |
|
|
| 선택 사항: 목록 형식의 라벨 선택기를 사용하여 IP 주소 풀에서 IP 주소에 할당할 수 있는 네임스페이스 레이블을 지정합니다. |
|
|
| 선택 사항: 목록 형식의 라벨 선택기를 사용하여 주소 풀에서 IP 주소에 할당할 수 있는 서비스 레이블을 지정합니다. |
34.4.2. 주소 풀 구성
클러스터 관리자는 클러스터에 주소 풀을 추가하여 MetalLB가 부하 분산 서비스에 할당할 수 있는 IP 주소를 제어할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
다음 예와 같은 콘텐츠를 사용하여
ipaddresspool.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: namespace: metallb-system name: doc-example labels: 1 zone: east spec: addresses: - 203.0.113.1-203.0.113.10 - 203.0.113.65-203.0.113.75- 1
IPAddressPool에 할당된 이 레이블은BGPAdvertisementCRD의ipAddressPoolSelectors에서IPAddressPool을 알림과 연결할 수 있습니다.
IP 주소 풀에 대한 구성을 적용합니다.
$ oc apply -f ipaddresspool.yaml
검증
주소 풀을 확인합니다.
$ oc describe -n metallb-system IPAddressPool doc-example
출력 예
Name: doc-example Namespace: metallb-system Labels: zone=east Annotations: <none> API Version: metallb.io/v1beta1 Kind: IPAddressPool Metadata: ... Spec: Addresses: 203.0.113.1-203.0.113.10 203.0.113.65-203.0.113.75 Auto Assign: true Events: <none>
주소 풀 이름(예: doc-example ) 및 IP 주소 범위가 출력에 표시되는지 확인합니다.
34.4.3. 주소 풀 구성의 예
34.4.3.1. 예: IPv4 및 CIDR 범위
CIDR 표기법에서 IP 주소 범위를 지정할 수 있습니다. 하이픈을 사용하는 표기법과 CIDR 표기법을 결합하여 하한 및 상한을 분리할 수 있습니다.
apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: name: doc-example-cidr namespace: metallb-system spec: addresses: - 192.168.100.0/24 - 192.168.200.0/24 - 192.168.255.1-192.168.255.5
34.4.3.2. 예: IP 주소
autoAssign 필드를 false 로 설정하여 ScanSetting이 풀에서 IP 주소를 자동으로 할당하지 못하도록 할 수 있습니다. 서비스를 추가할 때 풀에서 특정 IP 주소를 요청하거나 주석에 풀 이름을 지정하여 풀에서 IP 주소를 요청할 수 있습니다.
apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: name: doc-example-reserved namespace: metallb-system spec: addresses: - 10.0.100.0/28 autoAssign: false
34.4.3.3. 예: IPv4 및 IPv6 주소
IPv4 및 IPv6을 사용하는 주소 풀을 추가할 수 있습니다. 여러 IPv4 예제와 마찬가지로 address 목록에 여러 범위를 지정할 수 있습니다.
서비스에 단일 IPv4 주소, 단일 IPv6 주소 또는 둘 다 서비스를 추가하는 방법에 따라 결정됩니다. spec.ipFamilies 및 spec.ipFamilyPolicy 필드는 IP 주소를 서비스에 할당하는 방법을 제어합니다.
apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: name: doc-example-combined namespace: metallb-system spec: addresses: - 10.0.100.0/28 - 2002:2:2::1-2002:2:2::100
34.4.3.4. 예: 서비스 또는 네임스페이스에 IP 주소 풀 할당
IPAddressPool 의 IP 주소를 지정한 서비스 및 네임스페이스에 할당할 수 있습니다.
서비스 또는 네임스페이스를 두 개 이상의 IP 주소 풀에 할당하는 경우 CloudEvent는 우선순위가 높은 IP 주소 풀에서 사용 가능한 IP 주소를 사용합니다. 우선 순위가 높은 할당된 IP 주소 풀에서 IP 주소를 사용할 수 없는 경우 CloudEvent는 우선 순위가 높은 IP 주소 풀에서 사용 가능한 IP 주소를 사용합니다.
namespaceSelectors 및 serviceSelectors 사양에 matchLabels 라벨 선택기, matchExpressions 라벨 선택기 또는 둘 다 사용할 수 있습니다. 이 예제에서는 각 사양에 대해 하나의 라벨 선택기를 보여줍니다.
apiVersion: metallb.io/v1beta1
kind: IPAddressPool
metadata:
name: doc-example-service-allocation
namespace: metallb-system
spec:
addresses:
- 192.168.20.0/24
serviceAllocation:
priority: 50 1
namespaces: 2
- namespace-a
- namespace-b
namespaceSelectors: 3
- matchLabels:
zone: east
serviceSelectors: 4
- matchExpressions:
- key: security
operator: In
values:
- S134.4.4. 추가 리소스
34.4.5. 다음 단계
- BGP 모드의 경우 MetalLB BGP 피어 구성을 참조하십시오.
- MetalLB를 사용하도록 서비스 구성.
34.5. IP 주소 풀 광고 정보
IP 주소가 계층 2 프로토콜, BGP 프로토콜 또는 둘 다로 알려지도록 MetalLB를 구성할 수 있습니다. 계층 2에서 MetalLB는 내결함성 외부 IP 주소를 제공합니다. BGP를 사용하면 MetalLB는 외부 IP 주소 및 로드 밸런싱에 대한 내결함성을 제공합니다.
MetalLB는 동일한 IP 주소 세트에 L2 및 BGP를 사용한 알림을 지원합니다.
MetalLB는 특정 BGP 피어에 주소 풀을 네트워크 상의 노드 서브 세트에 효과적으로 할당할 수 있는 유연성을 제공합니다. 이를 통해 더 복잡한 구성(예: 노드의 격리 또는 네트워크 분할)이 가능합니다.
34.5.1. BGPAdvertisement 사용자 정의 리소스 정보
BGPAdvertisements 오브젝트의 필드는 다음 표에 정의되어 있습니다.
표 34.3. BGPAdvertisements 구성
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| BGP 알림의 이름을 지정합니다. |
|
|
| BGP 알림의 네임스페이스를 지정합니다. MetalLB Operator에서 사용하는 동일한 네임스페이스를 지정합니다. |
|
|
|
선택 사항: 32비트 CIDR 마스크에 포함할 비트 수를 지정합니다. 발표자가 BGP 피어에 알리는 경로를 집계하기 위해 마스크는 여러 서비스 IP 주소의 경로에 적용되며, 발표자는 집계된 경로를 알립니다. 예를 들어 집계 길이가 |
|
|
|
선택 사항: 128비트 CIDR 마스크에 포함할 비트 수를 지정합니다. 예를 들어 집계 길이가 |
|
|
| 선택 사항: 하나 이상의 BGP 커뮤니티를 지정합니다. 각 커뮤니티는 콜론 문자로 구분된 두 개의 16비트 값으로 지정됩니다. 잘 알려진 커뮤니티는 16비트 값으로 지정해야 합니다.
|
|
|
| 선택 사항: 이 알림의 로컬 기본 설정을 지정합니다. 이 BGP 속성은 Autonomous System 내의 BGP 세션에 적용됩니다. |
|
|
|
선택 사항: 이 광고와 함께 광고할 |
|
|
|
선택 사항: 이 광고와 함께 알리는 |
|
|
|
선택 사항: |
|
|
| 선택 사항: 피어는 BGP 피어를 제한하여 선택한 풀의 IP를 다음과 같이 알립니다. 비어 있으면 로드 밸런서 IP가 구성된 모든 BGP 피어에 표시됩니다. |
34.5.2. BGP 알림 및 기본 사용 사례를 사용하여 MetalLB 구성
피어 BGP 라우터가 서비스에 할당되는 각 로드 밸런서 IP 주소에 대해 하나의 203.0.113.200/32 경로와 하나의 fc00:f853:ccd:e799::1/128 경로를 수신하도록 CloudEvent를 다음과 같이 구성합니다. localPref 및 community 필드가 지정되지 않으므로 localPref 가 0으로 설정되고 BGP 커뮤니티가 없는 경로가 표시됩니다.
34.5.2.1. 예: BGP를 사용하여 기본 주소 풀 구성 확인
IPAddressPool 이 BGP 프로토콜에 알릴 수 있도록 다음과 같이 CloudEvent를 구성합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
IP 주소 풀을 만듭니다.
다음 예와 같은 콘텐츠를 사용하여
ipaddresspool.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: namespace: metallb-system name: doc-example-bgp-basic spec: addresses: - 203.0.113.200/30 - fc00:f853:ccd:e799::/124IP 주소 풀에 대한 구성을 적용합니다.
$ oc apply -f ipaddresspool.yaml
BGP 알림을 생성합니다.
다음 예와 같은 콘텐츠와 함께
bgpadvertisement.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: BGPAdvertisement metadata: name: bgpadvertisement-basic namespace: metallb-system spec: ipAddressPools: - doc-example-bgp-basic
설정을 적용합니다.
$ oc apply -f bgpadvertisement.yaml
34.5.3. BGP 알림 및 고급 사용 사례를 사용하여 MetalLB 구성
203.0.113.200 및 203.0.113.203 과 fc00:f853:ccd:e799::0 및 fc00:f853:e799::f . f 간의 범위에서 IP 주소를 로드 밸런서 서비스에 할당합니다.
두 개의 BGP 알림을 설명하려면 CloudEvent에서 203.0.113.200 의 IP 주소를 서비스에 할당할 때 인스턴스를 고려하십시오. 이 IP 주소를 예로 들어, 발표자는 BGP 피어에 대한 두 개의 경로를 알립니다.
-
203.0.113.200/32localPref가100으로 설정되고 커뮤니티는NO_ADVERTISE커뮤니티의 숫자 값으로 설정됩니다. 이 사양은 이 경로를 사용할 수 있다는 피어 라우터에 표시되지만 이 경로에 대한 정보를 BGP 피어에 전파해서는 안 됩니다. -
203.0.113.200/30은 CloudEvent에 의해 할당된 로드 밸런서 IP 주소를 단일 경로로 집계합니다. CloudEvent는 커뮤니티 특성이8000:800으로 설정된 BGP 피어에 대한 집계된 경로를 알립니다. BGP 피어는203.0.113.200/30경로를 다른 BGP 피어에 전파합니다. 트래픽이 speaker가 있는 노드로 라우팅되면203.0.113.200/32경로는 트래픽을 클러스터로 전달하고 서비스와 연결된 Pod로 전달합니다.
풀에서 더 많은 서비스를 추가할 때 피어 라우터는 203.0.113.20 x/32 및 집계 경로와 함께 하나의 로컬 경로인 203.0.113.20x/32를 수신합니다. 추가하는 각 서비스는 203.0.113. 200/30/30 경로를 생성하지만 CloudEvent는 피어 라우터와 통신하기 전에 하나의 BGP 광고에 대한 경로를 중복 제거합니다.
34.5.3.1. 예: BGP를 사용하여 고급 주소 풀 구성 확인
IPAddressPool 이 BGP 프로토콜에 알릴 수 있도록 다음과 같이 CloudEvent를 구성합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
IP 주소 풀을 만듭니다.
다음 예와 같은 콘텐츠를 사용하여
ipaddresspool.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: namespace: metallb-system name: doc-example-bgp-adv labels: zone: east spec: addresses: - 203.0.113.200/30 - fc00:f853:ccd:e799::/124 autoAssign: falseIP 주소 풀에 대한 구성을 적용합니다.
$ oc apply -f ipaddresspool.yaml
BGP 알림을 생성합니다.
다음 예와 같은 콘텐츠와 함께
bgpadvertisement1.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: BGPAdvertisement metadata: name: bgpadvertisement-adv-1 namespace: metallb-system spec: ipAddressPools: - doc-example-bgp-adv communities: - 65535:65282 aggregationLength: 32 localPref: 100설정을 적용합니다.
$ oc apply -f bgpadvertisement1.yaml
다음 예제와 같은 콘텐츠와 함께
bgpadvertisement2.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: BGPAdvertisement metadata: name: bgpadvertisement-adv-2 namespace: metallb-system spec: ipAddressPools: - doc-example-bgp-adv communities: - 8000:800 aggregationLength: 30 aggregationLengthV6: 124설정을 적용합니다.
$ oc apply -f bgpadvertisement2.yaml
34.5.4. 노드 서브 세트에서 IP 주소 풀을 표시
특정 노드 집합에서만 IP 주소 풀에서 IP 주소를 공개하려면 BGPAdvertisement 사용자 정의 리소스에서 .spec.nodeSelector 사양을 사용합니다. 이 사양은 IP 주소 풀을 클러스터의 노드 세트와 연결합니다. 이는 클러스터의 다른 서브넷에 있는 노드가 있고 특정 서브넷의 주소 풀에서 IP 주소를 알리려는 경우 유용합니다(예: 공용 서브넷).
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
사용자 정의 리소스를 사용하여 IP 주소 풀을 생성합니다.
apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: namespace: metallb-system name: pool1 spec: addresses: - 4.4.4.100-4.4.4.200 - 2001:100:4::200-2001:100:4::400BGPAdvertisement 사용자 정의 리소스에
.spec.nodeSelector값을 정의하여 cluster의 IP 주소를pool1에서 알리는 노드를 제어합니다.apiVersion: metallb.io/v1beta1 kind: BGPAdvertisement metadata: name: example spec: ipAddressPools: - pool1 nodeSelector: - matchLabels: kubernetes.io/hostname: NodeA - matchLabels: kubernetes.io/hostname: NodeB
이 예에서 pool1 의 IP 주소는 NodeA 및 NodeB 에서만 알립니다.
34.5.5. L2Advertisement 사용자 정의 리소스 정보
l2Advertisements 오브젝트의 필드는 다음 표에 정의되어 있습니다.
표 34.4. L2 알림 설정
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| L2 알림의 이름을 지정합니다. |
|
|
| L2 알림의 네임스페이스를 지정합니다. MetalLB Operator에서 사용하는 동일한 네임스페이스를 지정합니다. |
|
|
|
선택 사항: 이 광고와 함께 광고할 |
|
|
|
선택 사항: 이 광고와 함께 알리는 |
|
|
|
선택 사항: 중요 다음 홉으로 알릴 노드를 제한하는 것은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오. |
|
|
|
선택 사항: 로드 밸런서 IP를 알리는 데 사용되는 |
34.5.6. L2 알림을 사용하여 MetalLB 구성
IPAddressPool 이 L2 프로토콜에 알릴 수 있도록 다음과 같이 CloudEvent를 구성합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
IP 주소 풀을 만듭니다.
다음 예와 같은 콘텐츠를 사용하여
ipaddresspool.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: namespace: metallb-system name: doc-example-l2 spec: addresses: - 4.4.4.0/24 autoAssign: falseIP 주소 풀에 대한 구성을 적용합니다.
$ oc apply -f ipaddresspool.yaml
L2 알림을 생성합니다.
다음 예와 같은 콘텐츠를 사용하여
l2advertisement.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: L2Advertisement metadata: name: l2advertisement namespace: metallb-system spec: ipAddressPools: - doc-example-l2
설정을 적용합니다.
$ oc apply -f l2advertisement.yaml
34.5.7. L2 알림 및 라벨을 사용하여 MetalLB 구성
BGPAdvertisement 및 L2Advertisement 사용자 정의 리소스 정의의 ipAddressPools 필드는 이름 자체 대신 IPAddressPool 에 할당된 레이블을 기반으로 IPAddressPool 을 광고에 연결하는 데 사용됩니다.
이 예제에서는 ipAddressPoolSelectors 필드를 구성하여 IPAddressPool 이 L2 프로토콜에 알릴 수 있도록 CloudEvent를 구성하는 방법을 보여줍니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
IP 주소 풀을 만듭니다.
다음 예와 같은 콘텐츠를 사용하여
ipaddresspool.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: namespace: metallb-system name: doc-example-l2-label labels: zone: east spec: addresses: - 172.31.249.87/32IP 주소 풀에 대한 구성을 적용합니다.
$ oc apply -f ipaddresspool.yaml
ipAddressPoolSelectors를 사용하여 L2 알림 IP를 만듭니다.다음 예와 같은 콘텐츠를 사용하여
l2advertisement.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: L2Advertisement metadata: name: l2advertisement-label namespace: metallb-system spec: ipAddressPoolSelectors: - matchExpressions: - key: zone operator: In values: - east설정을 적용합니다.
$ oc apply -f l2advertisement.yaml
34.5.8. 선택한 인터페이스에 대한 L2 알림을 사용하여 ScanSetting 구성
기본적으로 서비스에 할당된 IP 주소 풀의 IP 주소는 모든 네트워크 인터페이스에서 알립니다. L2Advertisement 사용자 정의 리소스 정의의 interfaces 필드는 IP 주소 풀을 알리는 네트워크 인터페이스를 제한하는 데 사용됩니다.
이 예제에서는 IP 주소 풀이 모든 노드의 interfaces 필드에 나열된 네트워크 인터페이스에서만 노출되도록 CloudEvent를 구성하는 방법을 보여줍니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치했습니다. -
cluster-admin권한이 있는 사용자로 로그인했습니다.
절차
IP 주소 풀을 만듭니다.
ipaddresspool.yaml과 같은 파일을 생성하고 다음 예와 같은 구성 세부 정보를 입력합니다.apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: namespace: metallb-system name: doc-example-l2 spec: addresses: - 4.4.4.0/24 autoAssign: false다음 예제와 같이 IP 주소 풀에 대한 구성을 적용합니다.
$ oc apply -f ipaddresspool.yaml
L2 광고에서
인터페이스선택기를 사용하여 IP를 알립니다.l2advertisement.yaml과 같은 YAML 파일을 생성하고 다음 예와 같은 설정 세부 정보를 입력합니다.apiVersion: metallb.io/v1beta1 kind: L2Advertisement metadata: name: l2advertisement namespace: metallb-system spec: ipAddressPools: - doc-example-l2 interfaces: - interfaceA - interfaceB
다음 예제와 같이 광고의 구성을 적용합니다.
$ oc apply -f l2advertisement.yaml
인터페이스 선택기는 L2를 사용하여 지정된 IP를 알릴 노드를 선택하는 방법에는 영향을 미치지 않습니다. 노드에 선택된 인터페이스가 없는 경우 선택한 노드는 서비스를 알리지 않습니다.
34.5.9. 추가 리소스
34.6. MetalLB BGP 피어 구성
클러스터 관리자는 BGP(Border Gateway Protocol) 피어를 추가, 수정, 삭제할 수 있습니다. CloudEvent Operator는 BGP 피어 사용자 정의 리소스를 사용하여 BGP 세션을 시작하기 위해 CloudEvent speaker Pod가 연결되는 피어를 식별합니다. 피어는 MetalLB가 서비스에 할당하는 로드 밸런서 IP 주소에 대한 경로 알림을 받습니다.
34.6.1. BGP 피어 사용자 정의 리소스 정보
BGP 피어 사용자 정의 리소스의 필드는 다음 표에 설명되어 있습니다.
표 34.5. MetalLB BGP 피어 사용자 정의 리소스
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| BGP 피어 사용자 정의 리소스의 이름을 지정합니다. |
|
|
| BGP 피어 사용자 정의 리소스의 네임스페이스를 지정합니다. |
|
|
|
BGP 세션의 로컬 끝에 대한 Autonomous System 번호를 지정합니다. 추가하는 모든 BGP 피어 사용자 정의 리소스에 동일한 값을 지정합니다. 범위는 |
|
|
|
BGP 세션의 원격 끝에 대한 Autonomous System 번호를 지정합니다. 범위는 |
|
|
| BGP 세션을 설정하기 위해 연결할 피어의 IP 주소를 지정합니다. |
|
|
| 선택 사항: BGP 세션을 설정할 때 사용할 IP 주소를 지정합니다. 값은 IPv4 주소여야 합니다. |
|
|
|
선택 사항: BGP 세션을 설정하기 위해 연결할 피어의 네트워크 포트를 지정합니다. 범위는 |
|
|
|
선택 사항: 보유 시간 동안 BGP 피어에 대한 기간을 지정합니다. 최소 값은 3초( |
|
|
|
선택 사항: keep-alive 메시지를 BGP 피어로 보내는 것 사이의 최대 간격을 지정합니다. 이 필드를 지정하는 경우 |
|
|
| 선택 사항: BGP 피어에 공개할 라우터 ID를 지정합니다. 이 필드를 지정하는 경우 추가하는 모든 BGP 피어 사용자 정의 리소스에 동일한 값을 지정해야 합니다. |
|
|
| 선택 사항: TCP MD5 인증된 BGP 세션을 적용하는 라우터의 피어에 전송할 MD5 암호를 지정합니다. |
|
|
|
선택 사항: BGP Peer의 인증 시크릿 이름을 지정합니다. 시크릿은 |
|
|
| 선택 사항: BFD 프로필의 이름을 지정합니다. |
|
|
| 선택 사항: 일치 표현식과 일치 레이블을 사용하여 선택기를 지정하여 BGP 피어에 연결할 수 있는 노드를 제어합니다. |
|
|
|
선택 사항: BGP 피어가 여러 네트워크 홉 떨어져 있음을 지정합니다. BGP 피어가 동일한 네트워크에 직접 연결되지 않은 경우 이 필드를 |
passwordSecret 필드는 password 필드와 함께 사용할 수 없으며 사용할 암호 가 포함된 보안에 대한 참조가 포함되어 있습니다. 두 필드를 모두 설정하면 구문 분석에 실패합니다.
34.6.2. BGP 피어 구성
클러스터 관리자는 BGP 피어 사용자 정의 리소스를 추가하여 네트워크 라우터와 라우팅 정보를 교환하고 서비스에 대한 IP 주소를 알릴 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다. - BGP 알림을 사용하여 MetalLB를 구성합니다.
절차
다음 예와 같은 콘텐츠를 사용하여
bgppeer.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta2 kind: BGPPeer metadata: namespace: metallb-system name: doc-example-peer spec: peerAddress: 10.0.0.1 peerASN: 64501 myASN: 64500 routerID: 10.10.10.10
BGP 피어에 대한 구성을 적용합니다.
$ oc apply -f bgppeer.yaml
34.6.3. 지정된 주소 풀에 대해 특정 BGP 피어 세트를 구성
다음 절차에서는 다음을 수행하는 방법을 설명합니다.
-
주소 풀 세트(
pool1및pool2)를 구성합니다. -
BGP 피어 세트(
peer1및peer2)를 구성합니다. -
pool1을peer1에 할당하고pool2를peer2에 할당하도록 BGP 알림을 구성합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
주소
pool1을 생성합니다.다음 예와 같은 콘텐츠를 사용하여
ipaddresspool1.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: namespace: metallb-system name: pool1 spec: addresses: - 4.4.4.100-4.4.4.200 - 2001:100:4::200-2001:100:4::400IP 주소
pool1에 대한 구성을 적용합니다.$ oc apply -f ipaddresspool1.yaml
주소 풀
pool2를 생성합니다.다음 예와 같은 콘텐츠를 사용하여
ipaddresspool2.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: namespace: metallb-system name: pool2 spec: addresses: - 5.5.5.100-5.5.5.200 - 2001:100:5::200-2001:100:5::400IP 주소
pool2에 대한 구성을 적용합니다.$ oc apply -f ipaddresspool2.yaml
BGP
peer1을 생성합니다.다음 예와 같은 콘텐츠를 사용하여
bgppeer1.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta2 kind: BGPPeer metadata: namespace: metallb-system name: peer1 spec: peerAddress: 10.0.0.1 peerASN: 64501 myASN: 64500 routerID: 10.10.10.10
BGP 피어에 대한 구성을 적용합니다.
$ oc apply -f bgppeer1.yaml
BGP
피어2를 생성합니다.다음 예와 같은 콘텐츠를 사용하여
bgppeer2.yaml와 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta2 kind: BGPPeer metadata: namespace: metallb-system name: peer2 spec: peerAddress: 10.0.0.2 peerASN: 64501 myASN: 64500 routerID: 10.10.10.10
BGP 피어2에 대한 구성을 적용합니다.
$ oc apply -f bgppeer2.yaml
BGP 알림 1을 생성합니다.
다음 예와 같은 콘텐츠와 함께
bgpadvertisement1.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: BGPAdvertisement metadata: name: bgpadvertisement-1 namespace: metallb-system spec: ipAddressPools: - pool1 peers: - peer1 communities: - 65535:65282 aggregationLength: 32 aggregationLengthV6: 128 localPref: 100설정을 적용합니다.
$ oc apply -f bgpadvertisement1.yaml
BGP 알림 2를 만듭니다.
다음 예제와 같은 콘텐츠와 함께
bgpadvertisement2.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: BGPAdvertisement metadata: name: bgpadvertisement-2 namespace: metallb-system spec: ipAddressPools: - pool2 peers: - peer2 communities: - 65535:65282 aggregationLength: 32 aggregationLengthV6: 128 localPref: 100설정을 적용합니다.
$ oc apply -f bgpadvertisement2.yaml
34.6.4. BGP 피어 구성 예
34.6.4.1. 예: BGP 피어에 연결하는 노드 제한
BGP 피어에 연결할 수 있는 노드를 제어하기 위해 노드 선택기 필드를 지정할 수 있습니다.
apiVersion: metallb.io/v1beta2
kind: BGPPeer
metadata:
name: doc-example-nodesel
namespace: metallb-system
spec:
peerAddress: 10.0.20.1
peerASN: 64501
myASN: 64500
nodeSelectors:
- matchExpressions:
- key: kubernetes.io/hostname
operator: In
values: [compute-1.example.com, compute-2.example.com]34.6.4.2. 예: BGP 피어에 대한 BFD 프로필 지정
BGP 피어와 연결할 BFD 프로필을 지정할 수 있습니다. BFD는 BGP 자체보다 피어 간의 통신 오류를 보다 신속하게 감지하여 BGP를 제공합니다.
apiVersion: metallb.io/v1beta2 kind: BGPPeer metadata: name: doc-example-peer-bfd namespace: metallb-system spec: peerAddress: 10.0.20.1 peerASN: 64501 myASN: 64500 holdTime: "10s" bfdProfile: doc-example-bfd-profile-full
BFD(복제 전송 탐지) 프로필을 삭제하고 BGP(Border Gateway Protocol) 피어 리소스에 추가된 bfdProfile 을 제거해도 BFD는 비활성화되지 않습니다. 대신 BGP 피어는 기본 BFD 프로필 사용을 시작합니다. BGP 피어 리소스에서 BFD를 비활성화하려면 BGP 피어 구성을 삭제하고 BFD 프로필없이 다시 생성합니다. 자세한 내용은 BZ#2050824 에서 참조하십시오.
34.6.4.3. 예: 듀얼 스택 네트워킹에 대해 BGP 피어 지정
듀얼 스택 네트워킹을 지원하려면 IPv4용 BGP 피어 사용자 정의 리소스 1개와 IPv6용 BGP 피어 사용자 정의 리소스 1개를 추가합니다.
apiVersion: metallb.io/v1beta2 kind: BGPPeer metadata: name: doc-example-dual-stack-ipv4 namespace: metallb-system spec: peerAddress: 10.0.20.1 peerASN: 64500 myASN: 64500 --- apiVersion: metallb.io/v1beta2 kind: BGPPeer metadata: name: doc-example-dual-stack-ipv6 namespace: metallb-system spec: peerAddress: 2620:52:0:88::104 peerASN: 64500 myASN: 64500
34.6.5. 다음 단계
34.7. 커뮤니티 별칭 구성
클러스터 관리자는 커뮤니티 별칭을 구성하고 다양한 알림에서 사용할 수 있습니다.
34.7.1. 커뮤니티 사용자 정의 리소스 정보
community 사용자 정의 리소스는 커뮤니티의 별칭 컬렉션입니다. 사용자는 BGPAdvertisement 를 사용하여 ipAddressPool 을 알릴 때 사용할 이름 지정된 별칭을 정의할 수 있습니다. 커뮤니티 사용자 정의 리소스의 필드는 다음 표에 설명되어 있습니다.
커뮤니티 CRD는 BGPAdvertisement에만 적용됩니다.
표 34.6. MetalLB 커뮤니티 사용자 정의 리소스
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
BGPAdvertisements에서 사용할 수 있는 BGP 커뮤니티 별칭 목록을 지정합니다. 커뮤니티 별칭은 이름(alias)과 값(number:number)으로 구성됩니다. |
표 34.7. CommunityAlias
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
지정된 이름에 해당하는 BGP |
34.7.2. BGP 알림 및 커뮤니티 별칭을 사용하여 MetalLB 구성
IPAddressPool 이 BGP 프로토콜과 커뮤니티 별칭을 NO_ADVERTISE 커뮤니티의 숫자 값으로 설정하도록 다음과 같이 구성합니다.
다음 예에서 피어 BGP 라우터 doc-example-peer-community 는 203.0.113.200/32 경로와 fc00:f853:ccd:e799::1/128 경로를 서비스에 할당합니다. 커뮤니티 별칭은 NO_ADVERTISE 커뮤니티로 구성됩니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
IP 주소 풀을 만듭니다.
다음 예와 같은 콘텐츠를 사용하여
ipaddresspool.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: IPAddressPool metadata: namespace: metallb-system name: doc-example-bgp-community spec: addresses: - 203.0.113.200/30 - fc00:f853:ccd:e799::/124IP 주소 풀에 대한 구성을 적용합니다.
$ oc apply -f ipaddresspool.yaml
community1이라는 커뮤니티 별칭을 만듭니다.apiVersion: metallb.io/v1beta1 kind: Community metadata: name: community1 namespace: metallb-system spec: communities: - name: NO_ADVERTISE value: '65535:65282'doc-example-bgp-peer라는 BGP 피어를 만듭니다.다음 예와 같은 콘텐츠를 사용하여
bgppeer.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta2 kind: BGPPeer metadata: namespace: metallb-system name: doc-example-bgp-peer spec: peerAddress: 10.0.0.1 peerASN: 64501 myASN: 64500 routerID: 10.10.10.10
BGP 피어에 대한 구성을 적용합니다.
$ oc apply -f bgppeer.yaml
커뮤니티 별칭을 사용하여 BGP 알림을 생성합니다.
다음 예와 같은 콘텐츠와 함께
bgpadvertisement.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: BGPAdvertisement metadata: name: bgp-community-sample namespace: metallb-system spec: aggregationLength: 32 aggregationLengthV6: 128 communities: - NO_ADVERTISE 1 ipAddressPools: - doc-example-bgp-community peers: - doc-example-peer- 1
- 커뮤니티 사용자 정의 리소스(CR) 이름은 아닌
CommunityAlias.name을 지정합니다.
설정을 적용합니다.
$ oc apply -f bgpadvertisement.yaml
34.8. MetalLB BFD 프로필 구성
클러스터 관리자는 BFD(Bidirectional Forwarding Detection) 프로필을 추가, 수정, 삭제할 수 있습니다. MetalLB Operator는 BFD 프로필 사용자 정의 리소스를 사용하여 BGP 단독으로 제공하는 것보다 더 빠른 경로 오류 탐지를 제공하는 BFD 세션을 식별합니다.
34.8.1. BFD 프로필 사용자 정의 리소스 정보
BFD 프로필 사용자 정의 리소스의 필드는 다음 표에 설명되어 있습니다.
표 34.8. BFD 프로필 사용자 정의 리소스
| 필드 | 유형 | 설명 |
|---|---|---|
|
|
| BFD 프로필 사용자 정의 리소스의 이름을 지정합니다. |
|
|
| BFD 프로필 사용자 정의 리소스의 네임스페이스를 지정합니다. |
|
|
| 패킷 손실을 결정하기 위해 탐지 멀티플라이어를 지정합니다. 원격 전송 간격이 이 값을 곱하여 연결 손실 탐지 타이머를 결정합니다.
예를 들어, 로컬 시스템이
범위는 |
|
|
|
에코 전송 모드를 지정합니다. 분산 BFD를 사용하지 않는 경우 에코 전송 모드는 피어가 FRR인 경우에만 작동합니다. 기본값은
에코 전송 모드가 활성화되면 대역폭 사용량을 줄이기 위해 제어 패킷의 전송 간격을 늘리는 것이 좋습니다. 예를 들어 전송 간격을 |
|
|
|
이 시스템이 에코 패킷을 전송하고 수신하는데 사용하는 최소 전송 간격을 지정합니다. 범위는 |
|
|
| 들어오는 제어 패킷에 대해 예상되는 최소 TTL을 지정합니다. 이 필드는 멀티란트 세션에만 적용됩니다. 최소 TTL을 설정하는 목적은 패킷 검증 요구 사항을 보다 철저하게 만들고 다른 세션의 제어 패킷을 받지 않도록 하는 것입니다.
기본값은 |
|
|
| 세션을 active 또는 passive로 표시할지 여부를 지정합니다. 패시브 세션은 연결을 시작하지 않습니다. 대신 수동 세션은 응답을 시작하기 전에 피어의 제어 패킷을 대기합니다. 세션을 패시브로 표시하는 것은 별 네트워크의 중앙 노드 역할을 하는 라우터가 있고 시스템이 전송할 필요가 없는 제어 패킷을 전송하지 않으려는 경우에 유용합니다.
기본값은 |
|
|
|
이 시스템에서 제어 패킷을 수신할 수 있는 최소 간격을 지정합니다. 범위는 |
|
|
|
이 시스템에서 제어 패킷을 보내는 데 사용하는 최소 전송 간격(Jitter)을 지정합니다. 범위는 |
34.8.2. BFD 프로필 구성
클러스터 관리자는 BFD 프로필을 추가하고 프로필을 사용하도록 BGP 피어를 구성할 수 있습니다. BFD는 BGP보다 더 빠른 경로 장애 감지 기능을 제공합니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. -
cluster-admin권한이 있는 사용자로 로그인합니다.
절차
다음 예와 같은 콘텐츠를 사용하여
bfdprofile.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: BFDProfile metadata: name: doc-example-bfd-profile-full namespace: metallb-system spec: receiveInterval: 300 transmitInterval: 300 detectMultiplier: 3 echoMode: false passiveMode: true minimumTtl: 254
BFD 프로필에 대한 구성을 적용합니다.
$ oc apply -f bfdprofile.yaml
34.8.3. 다음 단계
- BFD 프로필을 사용하도록 BGP 피어를 구성합니다.
34.9. MetalLB를 사용하도록 서비스 구성
클러스터 관리자는 LoadBalancer 유형의 서비스를 추가할 때 CloudEvent에서 IP 주소를 할당하는 방법을 제어할 수 있습니다.
34.9.1. 특정 IP 주소 요청
다른 로드 밸런서 구현과 마찬가지로 CloudEvent는 서비스 사양에서 spec.loadBalancerIP 필드를 허용합니다.
요청된 IP 주소가 주소 풀의 범위 내에 있는 경우 MetalLB는 요청된 IP 주소를 할당합니다. 요청된 IP 주소가 범위 내에 없는 경우 MetalLB에서 경고를 보고합니다.
특정 IP 주소에 대한 서비스 YAML의 예
apiVersion: v1
kind: Service
metadata:
name: <service_name>
annotations:
metallb.universe.tf/address-pool: <address_pool_name>
spec:
selector:
<label_key>: <label_value>
ports:
- port: 8080
targetPort: 8080
protocol: TCP
type: LoadBalancer
loadBalancerIP: <ip_address>
CloudEvent에서 요청된 IP 주소를 할당할 수 없는 경우 서비스의 EXTERNAL-IP 는 < pending >을 보고하고 oc describe service <service_name >을 실행하면 다음 예와 같은 이벤트가 포함됩니다.
MetalLB에서 요청된 IP 주소를 할당할 수 없는 이벤트의 예
... Events: Type Reason Age From Message ---- ------ ---- ---- ------- Warning AllocationFailed 3m16s metallb-controller Failed to allocate IP for "default/invalid-request": "4.3.2.1" is not allowed in config
34.9.2. 특정 풀에서 IP 주소 요청
특정 범위의 IP 주소를 할당하지만 특정 IP 주소와 관련이 없는 경우 metallb.universe.tf/address-pool 주석을 사용하여 지정된 주소 풀의 IP 주소를 요청할 수 있습니다.
특정 풀의 IP 주소에 대한 서비스 YAML의 예
apiVersion: v1
kind: Service
metadata:
name: <service_name>
annotations:
metallb.universe.tf/address-pool: <address_pool_name>
spec:
selector:
<label_key>: <label_value>
ports:
- port: 8080
targetPort: 8080
protocol: TCP
type: LoadBalancer
< address_pool_name >에 대해 지정하는 주소 풀이 없으면 CloudEvent는 자동 할당을 허용하는 모든 풀에서 IP 주소를 할당하려고 합니다.
34.9.3. IP 주소 수락
기본적으로 주소 풀은 자동 할당을 허용하도록 구성됩니다. MetalLB는 이러한 주소 풀에서 IP 주소를 할당합니다.
자동 할당을 위해 구성된 풀의 IP 주소를 수락하려면 특별한 주석이나 구성이 필요하지 않습니다.
IP 주소를 수락하는 서비스 YAML의 예
apiVersion: v1
kind: Service
metadata:
name: <service_name>
spec:
selector:
<label_key>: <label_value>
ports:
- port: 8080
targetPort: 8080
protocol: TCP
type: LoadBalancer
34.9.4. 특정 IP 주소 공유
기본적으로 서비스는 IP 주소를 공유하지 않습니다. 그러나 단일 IP 주소에 서비스를 공동 배치해야 하는 경우 metallb.universe.tf/allow-shared-ip 주석을 서비스에 추가하여 선택적 IP 공유를 활성화할 수 있습니다.
apiVersion: v1
kind: Service
metadata:
name: service-http
annotations:
metallb.universe.tf/address-pool: doc-example
metallb.universe.tf/allow-shared-ip: "web-server-svc" 1
spec:
ports:
- name: http
port: 80 2
protocol: TCP
targetPort: 8080
selector:
<label_key>: <label_value> 3
type: LoadBalancer
loadBalancerIP: 172.31.249.7 4
---
apiVersion: v1
kind: Service
metadata:
name: service-https
annotations:
metallb.universe.tf/address-pool: doc-example
metallb.universe.tf/allow-shared-ip: "web-server-svc" 5
spec:
ports:
- name: https
port: 443 6
protocol: TCP
targetPort: 8080
selector:
<label_key>: <label_value> 7
type: LoadBalancer
loadBalancerIP: 172.31.249.7 8- 1 5
metallb.universe.tf/allow-shared-ip주석에 동일한 값을 지정합니다. 이 값을 공유 키 라고 합니다.- 2 6
- 서비스에 대해 서로 다른 포트 번호를 지정합니다.
- 3 7
- 서비스가 동일한 Pod 세트로 트래픽을 전송하도록
externalTrafficPolicy: local을 지정해야 하는 경우 동일한 Pod 선택기를 지정합니다.cluster외부 트래픽 정책을 사용하는 경우 Pod 선택기가 동일할 필요가 없습니다. - 4 8
- 선택 사항: 이전 항목 3개를 지정하는 경우 MetalLB에서 서비스를 동일한 IP 주소에 배치할 수 있습니다. 서비스가 IP 주소를 공유하도록 하려면 공유할 IP 주소를 지정합니다.
기본적으로 Kubernetes는 다중 프로토콜 로드 밸런서 서비스를 허용하지 않습니다. 이 제한으로 인해 일반적으로 TCP 및 UDP에서 수신 대기해야 하는 DNS와 같은 서비스를 실행할 수 없습니다. MetalLB를 사용하여 이 Kubernetes 제한 사항을 해결하려면 다음 두 서비스를 생성합니다.
- 한 서비스에 대해 TCP를 지정하고 두 번째 서비스에 대해 UDP를 지정합니다.
- 두 서비스 모두에서 동일한 pod 선택기를 지정합니다.
-
동일한 공유 키와
spec.loadBalancerIP값을 지정하여 TCP 및 UDP 서비스를 동일한 IP 주소에 공동 배치합니다.
34.9.5. MetalLB를 사용하여 서비스 구성
주소 풀에서 외부 IP 주소를 사용하도록 로드 밸런싱 서비스를 구성할 수 있습니다.
사전 요구 사항
-
OpenShift CLI(
oc)를 설치합니다. - MetalLB Operator를 설치하고 MetalLB를 시작합니다.
- 하나 이상의 주소 풀을 구성합니다.
- 클라이언트의 트래픽을 클러스터의 호스트 네트워크로 라우팅하도록 네트워크를 구성합니다.
절차
<
service_name>.yaml파일을 생성합니다. 파일에서spec.type필드가LoadBalancer로 설정되어 있는지 확인합니다.MetalLB에서 서비스에 할당하는 외부 IP 주소를 요청하는 방법에 대한 자세한 내용은 예제를 참조하십시오.
서비스를 생성합니다.
$ oc apply -f <service_name>.yaml
출력 예
service/<service_name> created
검증
서비스를 설명합니다.
$ oc describe service <service_name>
출력 예
Name: <service_name> Namespace: default Labels: <none> Annotations: metallb.universe.tf/address-pool: doc-example <.> Selector: app=service_name Type: LoadBalancer <.> IP Family Policy: SingleStack IP Families: IPv4 IP: 10.105.237.254 IPs: 10.105.237.254 LoadBalancer Ingress: 192.168.100.5 <.> Port: <unset> 80/TCP TargetPort: 8080/TCP NodePort: <unset> 30550/TCP Endpoints: 10.244.0.50:8080 Session Affinity: None External Traffic Policy: Cluster Events: <.> Type Reason Age From Message ---- ------ ---- ---- ------- Normal nodeAssigned 32m (x2 over 32m) metallb-speaker announcing from node "<node_name>"
<.> 특정 풀에서 IP 주소를 요청하면 주석이 있습니다. <.> 서비스 유형은
LoadBalancer를 지정해야 합니다. <.> 로드 밸런서 Ingress 필드는 서비스가 올바르게 할당되면 외부 IP 주소를 나타냅니다. <.> events 필드는 외부 IP 주소를 알리기 위해 할당된 노드 이름을 나타냅니다. 오류가 발생하면 이벤트 필드에 오류 이유가 표시됩니다.
34.10. MetalLB 로깅, 문제 해결 및 지원
MetalLB 구성 문제를 해결해야 하는 경우 일반적으로 사용되는 명령에 대해서는 다음 섹션을 참조하십시오.
34.10.1. MetalLB 로깅 수준 설정
CloudEvent는 info 의 기본 설정으로 컨테이너에서 FRRouting(FRR)을 사용하여 많은 로깅을 생성합니다. 이 예에 설명된 대로 logLevel 을 설정하여 생성된 로그의 상세 정보를 제어할 수 있습니다.
다음과 같이 logLevel 을 debug 로 설정하여 CloudEvent에 대한 보다 깊은 통찰력을 확보합니다.
사전 요구 사항
-
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다. -
OpenShift CLI(
oc)를 설치했습니다.
절차
다음 예와 같은 콘텐츠와 함께
setdebugloglevel.yaml과 같은 파일을 생성합니다.apiVersion: metallb.io/v1beta1 kind: MetalLB metadata: name: metallb namespace: metallb-system spec: logLevel: debug nodeSelector: node-role.kubernetes.io/worker: ""설정을 적용합니다.
$ oc replace -f setdebugloglevel.yaml
참고metallbCR이 이미 생성되어 로그 수준을 변경하는 경우oc replace를 사용합니다.speakerPod의 이름을 표시합니다.$ oc get -n metallb-system pods -l component=speaker
출력 예
NAME READY STATUS RESTARTS AGE speaker-2m9pm 4/4 Running 0 9m19s speaker-7m4qw 3/4 Running 0 19s speaker-szlmx 4/4 Running 0 9m19s
참고업데이트된 로깅 수준이 적용되도록 발표자 및 컨트롤러 Pod가 다시 생성됩니다. MetalLB의 모든 구성 요소에 대해 로깅 수준이 수정되었습니다.
speaker로그를 확인합니다.$ oc logs -n metallb-system speaker-7m4qw -c speaker
출력 예
{"branch":"main","caller":"main.go:92","commit":"3d052535","goversion":"gc / go1.17.1 / amd64","level":"info","msg":"MetalLB speaker starting (commit 3d052535, branch main)","ts":"2022-05-17T09:55:05Z","version":""} {"caller":"announcer.go:110","event":"createARPResponder","interface":"ens4","level":"info","msg":"created ARP responder for interface","ts":"2022-05-17T09:55:05Z"} {"caller":"announcer.go:119","event":"createNDPResponder","interface":"ens4","level":"info","msg":"created NDP responder for interface","ts":"2022-05-17T09:55:05Z"} {"caller":"announcer.go:110","event":"createARPResponder","interface":"tun0","level":"info","msg":"created ARP responder for interface","ts":"2022-05-17T09:55:05Z"} {"caller":"announcer.go:119","event":"createNDPResponder","interface":"tun0","level":"info","msg":"created NDP responder for interface","ts":"2022-05-17T09:55:05Z"} I0517 09:55:06.515686 95 request.go:665] Waited for 1.026500832s due to client-side throttling, not priority and fairness, request: GET:https://172.30.0.1:443/apis/operators.coreos.com/v1alpha1?timeout=32s {"Starting Manager":"(MISSING)","caller":"k8s.go:389","level":"info","ts":"2022-05-17T09:55:08Z"} {"caller":"speakerlist.go:310","level":"info","msg":"node event - forcing sync","node addr":"10.0.128.4","node event":"NodeJoin","node name":"ci-ln-qb8t3mb-72292-7s7rh-worker-a-vvznj","ts":"2022-05-17T09:55:08Z"} {"caller":"service_controller.go:113","controller":"ServiceReconciler","enqueueing":"openshift-kube-controller-manager-operator/metrics","epslice":"{\"metadata\":{\"name\":\"metrics-xtsxr\",\"generateName\":\"metrics-\",\"namespace\":\"openshift-kube-controller-manager-operator\",\"uid\":\"ac6766d7-8504-492c-9d1e-4ae8897990ad\",\"resourceVersion\":\"9041\",\"generation\":4,\"creationTimestamp\":\"2022-05-17T07:16:53Z\",\"labels\":{\"app\":\"kube-controller-manager-operator\",\"endpointslice.kubernetes.io/managed-by\":\"endpointslice-controller.k8s.io\",\"kubernetes.io/service-name\":\"metrics\"},\"annotations\":{\"endpoints.kubernetes.io/last-change-trigger-time\":\"2022-05-17T07:21:34Z\"},\"ownerReferences\":[{\"apiVersion\":\"v1\",\"kind\":\"Service\",\"name\":\"metrics\",\"uid\":\"0518eed3-6152-42be-b566-0bd00a60faf8\",\"controller\":true,\"blockOwnerDeletion\":true}],\"managedFields\":[{\"manager\":\"kube-controller-manager\",\"operation\":\"Update\",\"apiVersion\":\"discovery.k8s.io/v1\",\"time\":\"2022-05-17T07:20:02Z\",\"fieldsType\":\"FieldsV1\",\"fieldsV1\":{\"f:addressType\":{},\"f:endpoints\":{},\"f:metadata\":{\"f:annotations\":{\".\":{},\"f:endpoints.kubernetes.io/last-change-trigger-time\":{}},\"f:generateName\":{},\"f:labels\":{\".\":{},\"f:app\":{},\"f:endpointslice.kubernetes.io/managed-by\":{},\"f:kubernetes.io/service-name\":{}},\"f:ownerReferences\":{\".\":{},\"k:{\\\"uid\\\":\\\"0518eed3-6152-42be-b566-0bd00a60faf8\\\"}\":{}}},\"f:ports\":{}}}]},\"addressType\":\"IPv4\",\"endpoints\":[{\"addresses\":[\"10.129.0.7\"],\"conditions\":{\"ready\":true,\"serving\":true,\"terminating\":false},\"targetRef\":{\"kind\":\"Pod\",\"namespace\":\"openshift-kube-controller-manager-operator\",\"name\":\"kube-controller-manager-operator-6b98b89ddd-8d4nf\",\"uid\":\"dd5139b8-e41c-4946-a31b-1a629314e844\",\"resourceVersion\":\"9038\"},\"nodeName\":\"ci-ln-qb8t3mb-72292-7s7rh-master-0\",\"zone\":\"us-central1-a\"}],\"ports\":[{\"name\":\"https\",\"protocol\":\"TCP\",\"port\":8443}]}","level":"debug","ts":"2022-05-17T09:55:08Z"}FRR 로그를 확인합니다.
$ oc logs -n metallb-system speaker-7m4qw -c frr
출력 예
Started watchfrr 2022/05/17 09:55:05 ZEBRA: client 16 says hello and bids fair to announce only bgp routes vrf=0 2022/05/17 09:55:05 ZEBRA: client 31 says hello and bids fair to announce only vnc routes vrf=0 2022/05/17 09:55:05 ZEBRA: client 38 says hello and bids fair to announce only static routes vrf=0 2022/05/17 09:55:05 ZEBRA: client 43 says hello and bids fair to announce only bfd routes vrf=0 2022/05/17 09:57:25.089 BGP: Creating Default VRF, AS 64500 2022/05/17 09:57:25.090 BGP: dup addr detect enable max_moves 5 time 180 freeze disable freeze_time 0 2022/05/17 09:57:25.090 BGP: bgp_get: Registering BGP instance (null) to zebra 2022/05/17 09:57:25.090 BGP: Registering VRF 0 2022/05/17 09:57:25.091 BGP: Rx Router Id update VRF 0 Id 10.131.0.1/32 2022/05/17 09:57:25.091 BGP: RID change : vrf VRF default(0), RTR ID 10.131.0.1 2022/05/17 09:57:25.091 BGP: Rx Intf add VRF 0 IF br0 2022/05/17 09:57:25.091 BGP: Rx Intf add VRF 0 IF ens4 2022/05/17 09:57:25.091 BGP: Rx Intf address add VRF 0 IF ens4 addr 10.0.128.4/32 2022/05/17 09:57:25.091 BGP: Rx Intf address add VRF 0 IF ens4 addr fe80::c9d:84da:4d86:5618/64 2022/05/17 09:57:25.091 BGP: Rx Intf add VRF 0 IF lo 2022/05/17 09:57:25.091 BGP: Rx Intf add VRF 0 IF ovs-system 2022/05/17 09:57:25.091 BGP: Rx Intf add VRF 0 IF tun0 2022/05/17 09:57:25.091 BGP: Rx Intf address add VRF 0 IF tun0 addr 10.131.0.1/23 2022/05/17 09:57:25.091 BGP: Rx Intf address add VRF 0 IF tun0 addr fe80::40f1:d1ff:feb6:5322/64 2022/05/17 09:57:25.091 BGP: Rx Intf add VRF 0 IF veth2da49fed 2022/05/17 09:57:25.091 BGP: Rx Intf address add VRF 0 IF veth2da49fed addr fe80::24bd:d1ff:fec1:d88/64 2022/05/17 09:57:25.091 BGP: Rx Intf add VRF 0 IF veth2fa08c8c 2022/05/17 09:57:25.091 BGP: Rx Intf address add VRF 0 IF veth2fa08c8c addr fe80::6870:ff:fe96:efc8/64 2022/05/17 09:57:25.091 BGP: Rx Intf add VRF 0 IF veth41e356b7 2022/05/17 09:57:25.091 BGP: Rx Intf address add VRF 0 IF veth41e356b7 addr fe80::48ff:37ff:fede:eb4b/64 2022/05/17 09:57:25.092 BGP: Rx Intf add VRF 0 IF veth1295c6e2 2022/05/17 09:57:25.092 BGP: Rx Intf address add VRF 0 IF veth1295c6e2 addr fe80::b827:a2ff:feed:637/64 2022/05/17 09:57:25.092 BGP: Rx Intf add VRF 0 IF veth9733c6dc 2022/05/17 09:57:25.092 BGP: Rx Intf address add VRF 0 IF veth9733c6dc addr fe80::3cf4:15ff:fe11:e541/64 2022/05/17 09:57:25.092 BGP: Rx Intf add VRF 0 IF veth336680ea 2022/05/17 09:57:25.092 BGP: Rx Intf address add VRF 0 IF veth336680ea addr fe80::94b1:8bff:fe7e:488c/64 2022/05/17 09:57:25.092 BGP: Rx Intf add VRF 0 IF vetha0a907b7 2022/05/17 09:57:25.092 BGP: Rx Intf address add VRF 0 IF vetha0a907b7 addr fe80::3855:a6ff:fe73:46c3/64 2022/05/17 09:57:25.092 BGP: Rx Intf add VRF 0 IF vethf35a4398 2022/05/17 09:57:25.092 BGP: Rx Intf address add VRF 0 IF vethf35a4398 addr fe80::40ef:2fff:fe57:4c4d/64 2022/05/17 09:57:25.092 BGP: Rx Intf add VRF 0 IF vethf831b7f4 2022/05/17 09:57:25.092 BGP: Rx Intf address add VRF 0 IF vethf831b7f4 addr fe80::f0d9:89ff:fe7c:1d32/64 2022/05/17 09:57:25.092 BGP: Rx Intf add VRF 0 IF vxlan_sys_4789 2022/05/17 09:57:25.092 BGP: Rx Intf address add VRF 0 IF vxlan_sys_4789 addr fe80::80c1:82ff:fe4b:f078/64 2022/05/17 09:57:26.094 BGP: 10.0.0.1 [FSM] Timer (start timer expire). 2022/05/17 09:57:26.094 BGP: 10.0.0.1 [FSM] BGP_Start (Idle->Connect), fd -1 2022/05/17 09:57:26.094 BGP: Allocated bnc 10.0.0.1/32(0)(VRF default) peer 0x7f807f7631a0 2022/05/17 09:57:26.094 BGP: sendmsg_zebra_rnh: sending cmd ZEBRA_NEXTHOP_REGISTER for 10.0.0.1/32 (vrf VRF default) 2022/05/17 09:57:26.094 BGP: 10.0.0.1 [FSM] Waiting for NHT 2022/05/17 09:57:26.094 BGP: bgp_fsm_change_status : vrf default(0), Status: Connect established_peers 0 2022/05/17 09:57:26.094 BGP: 10.0.0.1 went from Idle to Connect 2022/05/17 09:57:26.094 BGP: 10.0.0.1 [FSM] TCP_connection_open_failed (Connect->Active), fd -1 2022/05/17 09:57:26.094 BGP: bgp_fsm_change_status : vrf default(0), Status: Active established_peers 0 2022/05/17 09:57:26.094 BGP: 10.0.0.1 went from Connect to Active 2022/05/17 09:57:26.094 ZEBRA: rnh_register msg from client bgp: hdr->length=8, type=nexthop vrf=0 2022/05/17 09:57:26.094 ZEBRA: 0: Add RNH 10.0.0.1/32 type Nexthop 2022/05/17 09:57:26.094 ZEBRA: 0:10.0.0.1/32: Evaluate RNH, type Nexthop (force) 2022/05/17 09:57:26.094 ZEBRA: 0:10.0.0.1/32: NH has become unresolved 2022/05/17 09:57:26.094 ZEBRA: 0: Client bgp registers for RNH 10.0.0.1/32 type Nexthop 2022/05/17 09:57:26.094 BGP: VRF default(0): Rcvd NH update 10.0.0.1/32(0) - metric 0/0 #nhops 0/0 flags 0x6 2022/05/17 09:57:26.094 BGP: NH update for 10.0.0.1/32(0)(VRF default) - flags 0x6 chgflags 0x0 - evaluate paths 2022/05/17 09:57:26.094 BGP: evaluate_paths: Updating peer (10.0.0.1(VRF default)) status with NHT 2022/05/17 09:57:30.081 ZEBRA: Event driven route-map update triggered 2022/05/17 09:57:30.081 ZEBRA: Event handler for route-map: 10.0.0.1-out 2022/05/17 09:57:30.081 ZEBRA: Event handler for route-map: 10.0.0.1-in 2022/05/17 09:57:31.104 ZEBRA: netlink_parse_info: netlink-listen (NS 0) type RTM_NEWNEIGH(28), len=76, seq=0, pid=0 2022/05/17 09:57:31.104 ZEBRA: Neighbor Entry received is not on a VLAN or a BRIDGE, ignoring 2022/05/17 09:57:31.105 ZEBRA: netlink_parse_info: netlink-listen (NS 0) type RTM_NEWNEIGH(28), len=76, seq=0, pid=0 2022/05/17 09:57:31.105 ZEBRA: Neighbor Entry received is not on a VLAN or a BRIDGE, ignoring
34.10.1.1. FRRouting(FRR) 로그 수준
다음 표에서는 FRR 로깅 수준에 대해 설명합니다.
표 34.9. 로그 수준
| 로그 수준 | 설명 |
|---|---|
|
| 모든 로깅 수준에 대한 모든 로깅 정보를 제공합니다. |
|
|
이 정보는 진단적으로 사람에게 도움이 됩니다. |
|
| 항상 기록되어야 하지만 정상적인 상황에서는 사용자 개입이 필요하지 않은 정보를 제공합니다. 기본 로깅 수준입니다. |
|
|
일관성 없는 behavior를 유발할 수 있는 |
|
|
CloudEvent의 기능에 치명적인 오류 |
|
| 모든 로깅을 종료합니다. |
34.10.2. BGP 문제 해결
Red Hat이 지원하는 BGP 구현은 speaker Pod의 컨테이너에서 FRRouting(FRR)을 사용합니다. 클러스터 관리자는 BGP 구성 문제를 해결해야 하는 경우 FRR 컨테이너에서 명령을 실행해야 합니다.
사전 요구 사항
-
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다. -
OpenShift CLI(
oc)를 설치했습니다.
절차
speakerPod의 이름을 표시합니다.$ oc get -n metallb-system pods -l component=speaker
출력 예
NAME READY STATUS RESTARTS AGE speaker-66bth 4/4 Running 0 56m speaker-gvfnf 4/4 Running 0 56m ...
FRR에 대한 실행 중인 구성을 표시합니다.
$ oc exec -n metallb-system speaker-66bth -c frr -- vtysh -c "show running-config"
출력 예
Building configuration... Current configuration: ! frr version 7.5.1_git frr defaults traditional hostname some-hostname log file /etc/frr/frr.log informational log timestamp precision 3 service integrated-vtysh-config ! router bgp 64500 1 bgp router-id 10.0.1.2 no bgp ebgp-requires-policy no bgp default ipv4-unicast no bgp network import-check neighbor 10.0.2.3 remote-as 64500 2 neighbor 10.0.2.3 bfd profile doc-example-bfd-profile-full 3 neighbor 10.0.2.3 timers 5 15 neighbor 10.0.2.4 remote-as 64500 4 neighbor 10.0.2.4 bfd profile doc-example-bfd-profile-full 5 neighbor 10.0.2.4 timers 5 15 ! address-family ipv4 unicast network 203.0.113.200/30 6 neighbor 10.0.2.3 activate neighbor 10.0.2.3 route-map 10.0.2.3-in in neighbor 10.0.2.4 activate neighbor 10.0.2.4 route-map 10.0.2.4-in in exit-address-family ! address-family ipv6 unicast network fc00:f853:ccd:e799::/124 7 neighbor 10.0.2.3 activate neighbor 10.0.2.3 route-map 10.0.2.3-in in neighbor 10.0.2.4 activate neighbor 10.0.2.4 route-map 10.0.2.4-in in exit-address-family ! route-map 10.0.2.3-in deny 20 ! route-map 10.0.2.4-in deny 20 ! ip nht resolve-via-default ! ipv6 nht resolve-via-default ! line vty ! bfd profile doc-example-bfd-profile-full 8 transmit-interval 35 receive-interval 35 passive-mode echo-mode echo-interval 35 minimum-ttl 10 ! ! end
<.>
라우터 bgp섹션은 ASN forECDHE를 나타냅니다. <.> 추가한 각 BGP 피어 사용자 정의 리소스에 대한근접한 <ip-address> 원격-as <peer-ASN> 줄이 있는지 확인합니다. <.> BFD 프로필이 연결되어 있는지 확인합니다. 올바른 BGP 피어 및 BFD 프로필이 명령 출력에 표시됩니다. <.>네트워크 <ip-address-range> 행이 사용자가 추가한 주소 풀 사용자 지정 리소스에 지정한 IP 주소 범위와 일치하는지 확인합니다.BGP 요약을 표시합니다.
$ oc exec -n metallb-system speaker-66bth -c frr -- vtysh -c "show bgp summary"
출력 예
IPv4 Unicast Summary: BGP router identifier 10.0.1.2, local AS number 64500 vrf-id 0 BGP table version 1 RIB entries 1, using 192 bytes of memory Peers 2, using 29 KiB of memory Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd PfxSnt 10.0.2.3 4 64500 387 389 0 0 0 00:32:02 0 1 1 10.0.2.4 4 64500 0 0 0 0 0 never Active 0 2 Total number of neighbors 2 IPv6 Unicast Summary: BGP router identifier 10.0.1.2, local AS number 64500 vrf-id 0 BGP table version 1 RIB entries 1, using 192 bytes of memory Peers 2, using 29 KiB of memory Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd PfxSnt 10.0.2.3 4 64500 387 389 0 0 0 00:32:02 NoNeg 3 10.0.2.4 4 64500 0 0 0 0 0 never Active 0 4 Total number of neighbors 2
주소 풀을 수신한 BGP 피어를 표시합니다.
$ oc exec -n metallb-system speaker-66bth -c frr -- vtysh -c "show bgp ipv4 unicast 203.0.113.200/30"
IPv6 주소 풀을 수신한 BGP 피어를 표시하려면
ipv4를ipv6로 교체합니다.203.0.113.200/30을 주소 풀의 IPv4 또는 IPv6 IP 주소 범위로 바꿉니다.출력 예
BGP routing table entry for 203.0.113.200/30 Paths: (1 available, best #1, table default) Advertised to non peer-group peers: 10.0.2.3 <.> Local 0.0.0.0 from 0.0.0.0 (10.0.1.2) Origin IGP, metric 0, weight 32768, valid, sourced, local, best (First path received) Last update: Mon Jan 10 19:49:07 2022<.> 출력에 BGP 피어의 IP 주소가 포함되어 있는지 확인합니다.
34.10.3. BFD 문제 해결
Red Hat이 지원하는 Bidirectional Forwarding Detection(BFD) 구현에서는 speaker Pod의 컨테이너에서 FRRouting(FRR)을 사용합니다. BFD 구현은 기존 BGP 세션을 통해 BGP 피어로 구성된 BFD 피어에도 의존합니다. 클러스터 관리자는 BFD 구성 문제를 해결해야 하는 경우 FRR 컨테이너에서 명령을 실행해야 합니다.
사전 요구 사항
-
cluster-admin역할의 사용자로 클러스터에 액세스할 수 있습니다. -
OpenShift CLI(
oc)를 설치했습니다.
절차
speakerPod의 이름을 표시합니다.$ oc get -n metallb-system pods -l component=speaker
출력 예
NAME READY STATUS RESTARTS AGE speaker-66bth 4/4 Running 0 26m speaker-gvfnf 4/4 Running 0 26m ...
BFD 피어를 표시합니다.
$ oc exec -n metallb-system speaker-66bth -c frr -- vtysh -c "show bfd peers brief"
출력 예
Session count: 2 SessionId LocalAddress PeerAddress Status ========= ============ =========== ====== 3909139637 10.0.1.2 10.0.2.3 up <.>
<.>
PeerAddress열에 각 BFD 피어가 포함되어 있는지 확인합니다. 출력에 출력에 포함할 BFD 피어 IP 주소가 나열되지 않으면 피어와의 BGP 연결 문제를 해결합니다. 상태 필드가다운된 경우 노드와 피어 간의 링크 및 장비 연결을 확인합니다.oc get pods -n metallb-system speaker-66bth -o jsonpath='{.spec.nodeName}'과 같은 명령을 사용하여 speaker Pod의 노드 이름을 확인할 수 있습니다.
34.10.4. BGP 및 BFD에 대한 CloudEvent 지표
OpenShift Container Platform에서는 CloudEvent 및 BGP 피어 및 BFD 프로필과 관련된 다음 메트릭을 캡처합니다.
-
metallb_bfd_control_packet_input는 각 BFD 피어에서 수신한 BFD 제어 패킷 수를 계산합니다. -
metallb_bfd_control_packet_output은 각 BFD 피어로 전송된 BFD 제어 패킷 수를 계산합니다. -
metallb_bfd_echo_packet_input는 각 BFD 피어에서 수신한 BFD 에코 패킷 수를 계산합니다. -
metallb_bfd_echo_packet_output은 각 BFD 피어로 전송된 BFD 에코 패킷 수를 계산합니다. -
metallb_bfd_session_down_events는 피어가downstate에 입력한 BFD 세션 횟수를 계산합니다. -
metallb_bfd_session_up은 BFD 피어의 연결 상태를 나타냅니다.1세션이가동중임을 나타내며0은 세션이다운되었음을 나타냅니다. -
metallb_bfd_session_up_events는 피어가up상태로 BFD 세션의 횟수를 계산합니다. -
metallb_bfd_zebra_notifications각 BFD 피어에 대한 BFD Zebra 알림 수를 계산합니다. -
metallb_bgp_announced_prefixes_total은 BGP 피어에 공개된 로드 밸런서 IP 주소 접두사 수를 계산합니다. 접두사 및 집계된 경로 라는 용어는 동일한 의미가 있습니다. -
metallb_bgp_session_up은 BGP 피어와의 연결 상태를 나타냅니다.1세션이가동중임을 나타내며0은 세션이다운되었음을 나타냅니다. -
metallb_bgp_updates_total은 BGP 피어로 전송된 BGP업데이트메시지 수를 계산합니다.
추가 리소스
- 모니터링 대시보드 사용에 대한 자세한 내용은 메트릭 쿼리 를 참조하십시오.
34.10.5. CloudEvent 데이터 수집 정보
oc adm must-gather CLI 명령을 사용하여 클러스터, CloudEvent 구성 및 CloudEvent Operator에 대한 정보를 수집할 수 있습니다. 다음 기능 및 오브젝트는 CloudEvent 및 objects와 연결되어 있습니다.
- CloudEvent Operator가 배포된 네임스페이스 및 하위 오브젝트
- 모든 ScanSetting Operator CRD(사용자 정의 리소스 정의)
oc adm must-gather CLI 명령은 Red Hat이 BGP 및 BFD를 구현하는 데 사용하는 FRRouting(FRR)에서 다음 정보를 수집합니다.
-
/etc/frr/frr.conf -
/etc/frr/frr.log -
/etc/frr/daemons설정 파일 -
/etc/frr/vtysh.conf
이전 목록의 로그 및 구성 파일은 각 speaker Pod의 frr 컨테이너에서 수집됩니다.
로그 및 구성 파일 외에도 oc adm must-gather CLI 명령은 다음 vtysh 명령에서 출력을 수집합니다.
-
show running-config -
show bgp ipv4 -
show bgp ipv6 -
bgp 전구를 보여줍니다. -
bfd 피어 표시
oc adm must-gather CLI 명령을 실행할 때 추가 구성이 필요하지 않습니다.
추가 리소스
35장. 보조 인터페이스 지표와 네트워크 연결 연관 짓기
35.1. 모니터링을 위한 보조 네트워크 지표 확장
보조 장치 또는 인터페이스는 다양한 용도로 사용됩니다. 동일한 분류 기준으로 보조 장치에 대한 지표를 집계하려면 보조 장치를 분류할 방법이 있어야 합니다.
노출된 지표는 인터페이스를 포함하지만 인터페이스가 시작되는 위치는 지정하지 않습니다. 추가 인터페이스가 없는 경우 이 작업을 수행할 수 있습니다. 그러나 보조 인터페이스를 추가하는 경우 인터페이스 이름만 사용하여 인터페이스를 식별하기가 어렵기 때문에 지표를 사용하기 어려울 수 있습니다.
보조 인터페이스를 추가할 때는 이름이 추가하는 순서에 따라 달라집니다. 서로 다른 보조 인터페이스는 다른 네트워크에 속할 수 있으며 다른 용도로 사용할 수 있습니다.
pod_network_name_info 를 사용하면 인터페이스 유형을 식별하는 추가 정보로 현재 지표를 확장할 수 있습니다. 이러한 방식으로 지표를 집계하고 특정 인터페이스 유형에 특정 경보를 추가할 수 있습니다.
네트워크 유형은 관련 NetworkAttachmentDefinition 이름을 사용하여 생성되며, 보조 네트워크의 서로 다른 클래스를 구별하는 데 사용됩니다. 예를 들어 서로 다른 네트워크에 속하거나 서로 다른 CNI를 사용하는 서로 다른 인터페이스는 서로 다른 네트워크 연결 정의 이름을 사용합니다.
35.1.1. 네트워크 지표 데몬
네트워크 지표 데몬은 네트워크 관련 지표를 수집하고 게시하는 데몬 구성 요소입니다.
kubelet은 이미 관찰 가능한 네트워크 관련 지표를 게시하고 있습니다. 이러한 지표는 다음과 같습니다.
-
container_network_receive_bytes_total -
container_network_receive_errors_total -
container_network_receive_packets_total -
container_network_receive_packets_dropped_total -
container_network_transmit_bytes_total -
container_network_transmit_errors_total -
container_network_transmit_packets_total -
container_network_transmit_packets_dropped_total
이러한 지표의 레이블에는 다음이 포함됩니다.
- 포드 이름
- 포드 네임스페이스
-
인터페이스 이름(예:
eth0)
이러한 지표는 예를 들면 Multus를 통해 Pod에 새 인터페이스를 추가할 때까지는 인터페이스 이름이 무엇을 나타내는지 명확하지 않기 때문에 잘 작동합니다.
인터페이스 레이블은 인터페이스 이름을 나타내지만 해당 인터페이스가 무엇을 의미하는지는 명확하지 않습니다. 인터페이스가 다양한 경우 모니터링 중인 지표에서 어떤 네트워크를 참조하는지 파악하기란 불가능합니다.
이 문제는 다음 섹션에 설명된 새로운 pod_network_name_info 를 도입하여 해결됩니다.
35.1.2. 네트워크 이름이 있는 지표
이 daemonset는 고정된 값이 0 인 pod_network_name_info 게이지 지표를 게시합니다.
pod_network_name_info{interface="net0",namespace="namespacename",network_name="nadnamespace/firstNAD",pod="podname"} 0네트워크 이름 레이블은 Multus에서 추가한 주석을 사용하여 생성됩니다. 네트워크 연결 정의가 속하는 네임스페이스와 네트워크 연결 정의의 이름입니다.
새 메트릭만으로는 많은 값을 제공하지 않지만 네트워크 관련 container_network_* 지표와 결합되어 보조 네트워크 모니터링을 더 잘 지원합니다.
다음과 같은 promql 쿼리를 사용하면 값이 포함된 새 메트릭과 k8s.v1.cni.cncf.io/network-status 주석에서 검색된 네트워크 이름을 가져올 수 있습니다.
(container_network_receive_bytes_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info ) (container_network_receive_errors_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info ) (container_network_receive_packets_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info ) (container_network_receive_packets_dropped_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info ) (container_network_transmit_bytes_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info ) (container_network_transmit_errors_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info ) (container_network_transmit_packets_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info ) (container_network_transmit_packets_dropped_total) + on(namespace,pod,interface) group_left(network_name)
36장. 네트워크 관찰 기능
36.1. Network Observability Operator 릴리스 정보
Network Observability Operator를 사용하면 관리자가 OpenShift Container Platform 클러스터의 네트워크 트래픽 흐름을 관찰하고 분석할 수 있습니다.
이 릴리스 노트는 OpenShift Container Platform의 Network Observability Operator 개발을 추적합니다.
Network Observability Operator 에 대한 개요는 Network Observability Operator 정보를 참조하십시오.
36.1.1. Network Observability Operator 1.3.0
Network Observability Operator 1.3.0에 대해 다음 권고를 사용할 수 있습니다.
36.1.1.1. 채널 사용 중단
향후 Operator 업데이트를 받으려면 채널을 v1.0.x 에서 stable 로 전환해야 합니다. v1.0.x 채널은 더 이상 사용되지 않으며 다음 릴리스에서 제거될 예정입니다.
36.1.1.2. 새로운 기능 및 개선 사항
36.1.1.2.1. 네트워크 Observability의 멀티 테넌시
- 시스템 관리자는 Loki에 저장된 흐름에 대해 개별 사용자 액세스 또는 그룹 액세스를 허용 및 제한할 수 있습니다. 자세한 내용은 네트워크 Observability 의 멀티 테넌시 를 참조하십시오.
36.1.1.2.2. 흐름 기반 메트릭 대시보드
- 이번 릴리스에서는 OpenShift Container Platform 클러스터의 네트워크 흐름에 대한 개요를 제공하는 새 대시보드가 추가되었습니다. 자세한 내용은 네트워크 Observability 메트릭 을 참조하십시오.
36.1.1.2.3. must-gather 툴 문제 해결
- Network Observability Operator에 대한 정보를 이제 문제 해결을 위해 must-gather 데이터에 포함할 수 있습니다. 자세한 내용은 Network Observability must-gather 를 참조하십시오.
36.1.1.2.4. 여러 아키텍처 지원
- Network Observability Operator는 이제 amd64, ppc64le 또는 arm64 아키텍처에서 실행할 수 있습니다. 이전에는 amd64에서만 실행되었습니다.
36.1.1.3. 더 이상 사용되지 않는 기능
36.1.1.3.1. 더 이상 사용되지 않는 구성 매개변수 설정
Network Observability Operator 1.3 릴리스는 spec.Loki.authToken HOST 설정을 사용하지 않습니다. Loki Operator를 사용하는 경우 이제 FORWARD 설정만 사용해야 합니다.
36.1.1.4. 버그 수정
-
이전에는 CLI에서 Operator를 설치할 때 Cluster Monitoring Operator에서 메트릭을 읽는 데 필요한
Role및RoleBinding이 예상대로 설치되지 않았습니다. 웹 콘솔에서 Operator를 설치할 때 문제가 발생하지 않았습니다. 이제 Operator를 설치하는 방법 중 하나가 필요한Role및RoleBinding을 설치합니다. (NETOBSERV-1003) -
버전 1.2부터는 흐름 수집에 문제가 발생할 때 Network Observability Operator에서 경고를 발생시킬 수 있습니다. 이전 버전에서는 버그로 인해 경고를 비활성화하는 관련 구성이
spec.processor.metrics.disableAlerts가 예상대로 작동하지 않고 경우에 따라 영향을 미치지 않았습니다. 이제 이 구성이 수정되어 경고를 비활성화할 수 있습니다. (NETOBSERV-976) -
이전에는
spec.loki.authToken을DISABLED로 설정하여 Network Observability를 구성할 때kubeadmin클러스터 관리자만 네트워크 흐름을 볼 수 있었습니다. 다른 유형의 클러스터 관리자에게 권한 부여 오류가 발생했습니다. 이제 클러스터 관리자가 네트워크 흐름을 볼 수 있습니다. (NETOBSERV-972) -
이전 버전에서는 버그로 인해 사용자가
spec.consolePlugin.portNaming.enable을false로 설정할 수 없었습니다. 이제 이 설정을false로 설정하여 포트 투 서비스 이름 변환을 비활성화할 수 있습니다. (NETOBSERV-971) - 이전 버전에서는 콘솔 플러그인에서 노출하는 메트릭이 잘못된 구성으로 인해 Cluster Monitoring Operator(Prometheus)에 의해 수집되지 않았습니다. 이제 콘솔 플러그인 메트릭이 올바르게 수집되고 OpenShift Container Platform 웹 콘솔에서 액세스할 수 있도록 구성이 수정되었습니다. (NETOBSERV-765)
-
이전에는
FlowCollector에서processor.metrics.tls가AUTO로 설정된 경우flowlogs-pipeline servicemonitor가 적절한 TLS 체계를 적용하지 않았으며 웹 콘솔에서 메트릭이 표시되지 않았습니다. 이제 AUTO 모드에 대한 문제가 해결되었습니다. (NETOBSERV-1070) -
이전 버전에서는 Kafka 및 Loki에 사용된 인증서 구성에서 namespace 필드를 지정할 수 없으므로 인증서가 Network Observability가 배포된 동일한 네임스페이스에 있어야 했습니다. 또한 TLS/mTLS와 함께 Kafka를 사용할 때 사용자는 인증서 교체의 경우와 같이 eBPF 에이전트 Pod가 배포된 권한 있는 네임스페이스에 인증서를 수동으로 복사해야 했습니다. 이제
FlowCollector리소스에서 인증서에 네임스페이스 필드를 추가하여 네트워크 Observability 설정이 간소화됩니다. 결과적으로 네트워크 Observability 네임스페이스에서 인증서를 수동으로 복사할 필요 없이 다른 네임스페이스에 Loki 또는 Kafka를 설치할 수 있습니다. 원본 인증서는 필요한 경우 복사본이 자동으로 업데이트되도록 감시됩니다. (NETOBSERV-773) - 이전에는 SCTP, ICMPv4 및 ICMPv6 프로토콜이 네트워크 Observability 에이전트의 적용을 받지 않아 네트워크 흐름이 줄어들었습니다. 이러한 프로토콜은 이제 흐름 범위를 개선하기 위해 인식됩니다. (NETOBSERV-934)
36.1.1.5. 알려진 문제
-
FlowCollector에서processor.metrics.tls가PROVIDED로 설정된 경우flowlogs-pipeline서비스monitor가 TLS 체계에 적용되지 않습니다. (NETOBSERV-1087)
36.1.2. Network Observability Operator 1.2.0
Network Observability Operator 1.2.0에서 다음 권고를 사용할 수 있습니다.
36.1.2.1. 다음 업데이트 준비
설치된 Operator의 서브스크립션은 Operator에 대한 업데이트를 추적하고 수신하는 업데이트 채널을 지정합니다. Network Observability Operator의 1.2 릴리스까지 사용 가능한 유일한 채널은 v1.0.x 이었습니다. Network Observability Operator의 1.2 릴리스에는 업데이트 추적 및 수신을 위한 안정적인 업데이트 채널이 도입되었습니다. 향후 Operator 업데이트를 받으려면 채널을 v1.0.x 에서 stable 로 전환해야 합니다. v1.0.x 채널은 더 이상 사용되지 않으며 다음 릴리스에서 제거될 예정입니다.
36.1.2.2. 새로운 기능 및 개선 사항
36.1.2.2.1. 트래픽 흐름의 히스토그램
- 이제 시간에 따른 흐름의 히스토그램 막대형 차트를 표시하도록 선택할 수 있습니다. 히스토그램을 사용하면 CloudEvent 쿼리 제한에 도달하지 않고 흐름 기록을 시각화할 수 있습니다. 자세한 내용은 히스토그램 사용을 참조하십시오.
36.1.2.2.2. 대화 추적
- 이제 동일한 대화의 일부인 네트워크 흐름을 그룹화할 수 있도록 로그 유형 별로 흐름을 쿼리할 수 있습니다. 자세한 내용은 대화 작업을 참조하십시오.
36.1.2.2.3. 네트워크 관찰 가능 상태 경고
-
이제 쓰기 단계의 오류로 인해
flowlogs-pipeline이 flows를 삭제하거나 CloudEvent ingestion 속도 제한에 도달한 경우 Network Observability Operator에서 자동 경고를 생성합니다. 자세한 내용은 상태 정보 보기 를 참조하십시오.
36.1.2.3. 버그 수정
-
이전 버전에서는 FlowCollector 사양에서
네임스페이스값을 변경한 후 이전 네임스페이스에서 실행되는 eBPF 에이전트 Pod가 적절하게 삭제되지 않았습니다. 이제 이전 네임스페이스에서 실행 중인 Pod가 적절하게 삭제됩니다. (NETOBSERV-774) -
이전에는 FlowCollector 사양(예: CloudEvent 섹션)에서
caCert.name값을 변경한 후 FlowLogs-Pipeline Pod 및 콘솔 플러그인 Pod가 재시작되지 않아 구성 변경을 인식하지 못했습니다. 이제 Pod가 다시 시작되어 구성 변경 사항이 적용됩니다. (NETOBSERV-772) - 이전 버전에서는 서로 다른 노드에서 실행 중인 포드 간 네트워크 흐름이 서로 다른 네트워크 인터페이스에서 캡처되므로 중복으로 올바르게 식별되지 않은 경우가 있었습니다. 이로 인해 콘솔 플러그인에 지나치게 추정된 지표가 표시되었습니다. 이제 flows가 중복으로 올바르게 식별되고 콘솔 플러그인에 정확한 지표가 표시됩니다. (NETOBSERV-755)
- 콘솔 플러그인의 "reporter" 옵션은 소스 노드 또는 대상 노드의 관찰 지점을 기반으로 흐름을 필터링하는 데 사용됩니다. 이전 버전에서는 이 옵션은 노드 관찰 포인트와 관계없이 흐름을 혼합했습니다. 이는 네트워크 흐름이 노드 수준에서 Ingress 또는 Egress로 잘못 보고되었기 때문입니다. 이제 네트워크 흐름 방향 보고가 정확합니다. "reporter" 옵션은 예상대로 소스 관찰 지점 또는 대상 관찰 지점을 필터링합니다. (NETOBSERV-696)
- 이전에는 gRPC+protobuf 요청으로 프로세서에 직접 흐름을 전송하도록 구성된 에이전트의 경우 제출된 페이로드가 너무 커서 프로세서의 GRPC 서버에서 거부할 수 있었습니다. 이는 매우 높은 로드 시나리오와 에이전트의 일부 구성에서만 발생했습니다. 에이전트는 다음과 같은 오류 메시지를 기록했습니다. grpc: received message larger than max. 그 결과 이러한 흐름에 대한 정보가 손실되었습니다. 이제 크기가 임계값을 초과하면 gRPC 페이로드가 여러 개의 메시지로 나뉩니다. 그 결과 서버는 연결을 유지합니다. (NETOBSERV-617)
36.1.2.4. 알려진 문제
-
Loki Operator 5.6을 사용하여 Network Observability Operator의 1.2.0 릴리스에서 Loki 인증서 전환은
flowlogs-pipelinePod에 주기적으로 영향을 미치며 Loki에 작성된 흐름 대신 중단된 흐름이 발생합니다. 문제는 일정 시간 후에도 자체 수정되지만 Loki 인증서 전환 중에 임시 흐름 데이터 손실이 발생합니다. (NETOBSERV-980)
36.1.2.5. 주요 기술 변경 사항
-
이전에는 사용자 정의 네임스페이스를 사용하여 Network Observability Operator를 설치할 수 있었습니다. 이번 릴리스에서는
ClusterServiceVersion을 변경하는변환 Webhook가 도입되었습니다. 이러한 변경으로 인해 사용 가능한 모든 네임스페이스가 더 이상 나열되지 않습니다. 또한 Operator 지표 컬렉션을 활성화하려면openshift-operators네임스페이스와 같이 다른 Operator와 공유하는 네임스페이스를 사용할 수 없습니다. 이제 Operator를openshift-netobserv-operator네임스페이스에 설치해야 합니다. 이전에 사용자 정의 네임스페이스를 사용하여 Network Observability Operator를 설치한 경우 새 Operator 버전으로 자동 업그레이드할 수 없습니다. 이전에 사용자 정의 네임스페이스를 사용하여 Operator를 설치한 경우 설치된 Operator 인스턴스를 삭제하고openshift-netobserv-operator네임스페이스에 Operator를 다시 설치해야 합니다. 일반적으로 사용되는netobserv네임스페이스와 같은 사용자 정의 네임스페이스는FlowCollector, Loki, Kafka 및 기타 플러그인에 계속 사용할 수 있습니다. (NETOBSERV-907)(NETOBSERV-956)
36.1.3. Network Observability Operator 1.1.0
Network Observability Operator 1.1.0에서 다음 권고를 사용할 수 있습니다.
Network Observability Operator가 안정적인 릴리스 채널을 v1.1.0 으로 업그레이드했습니다.
36.1.3.1. 버그 수정
-
이전 버전에서는 CloudEvent
authToken구성이FORWARD모드로 설정되지 않은 경우 인증이 더 이상 적용되지 않아 OpenShift Container Platform 클러스터의 OpenShift Container Platform 콘솔에 연결할 수 있는 사용자가 인증 없이 흐름을 검색할 수 있었습니다. 이제 CloudEventauthToken모드에 관계없이 클러스터 관리자만 흐름을 검색할 수 있습니다. (BZ#2169468)
36.2. 네트워크 관찰 정보
Red Hat은 클러스터 관리자에게 OpenShift Container Platform 클러스터의 네트워크 트래픽을 확인할 수 있는 Network Observability Operator를 제공합니다. Network Observability Operator는 eBPF 기술을 사용하여 네트워크 흐름을 생성합니다. 그런 다음 네트워크 흐름은 OpenShift Container Platform 정보로 보강되고 CloudEvent에 저장됩니다. OpenShift Container Platform 콘솔에서 저장된 네트워크 흐름 정보를 보고 분석하여 추가 정보 및 문제 해결을 수행할 수 있습니다.
36.2.1. Network Observability Operator의 종속성
Network Observability Operator에는 다음과 같은 Operator가 필요합니다.
- Select: You must install them. CloudEvent는 수집된 모든 흐름을 저장하는 데 사용되는 백엔드입니다. Network Observability Operator 설치를 위해 Red Hat>-< Operator를 설치하여 iPXE를 설치하는 것이 좋습니다.
36.2.2. Network Observability Operator의 선택적 종속 항목
- Grafana: Grafana Operator를 사용하여 사용자 정의 대시보드를 사용하고 기능을 쿼리하기 위해 Grafana를 설치할 수 있습니다. Red Hat은 Grafana Operator를 지원하지 않습니다.
- Kafka: OpenShift Container Platform 클러스터에서 확장성, 복원력 및 고가용성을 제공합니다. 대규모 배포에는 AMQ Streams Operator를 사용하여 Kafka를 설치하는 것이 좋습니다.
36.2.3. Network Observability Operator
Network Observability Operator는 Flow Collector API 사용자 정의 리소스 정의를 제공합니다. Flow Collector 인스턴스는 설치 중에 생성되며 네트워크 흐름 컬렉션 구성을 활성화합니다. 흐름 수집기 인스턴스는 네트워크 흐름이 수집되고 Kubernetes 메타데이터로 강화되는 모니터링 파이프라인을 구성하는 Pod 및 서비스를 배포합니다. daemonset 오브젝트로 배포되는 eBPF 에이전트는 네트워크 흐름을 생성합니다.
36.2.4. OpenShift Container Platform 콘솔 통합
OpenShift Container Platform 콘솔 통합에서는 개요, 토폴로지 보기 및 트래픽 흐름 테이블을 제공합니다.
36.2.4.1. 네트워크 관찰 가능 지표
OpenShift Container Platform 콘솔에서는 클러스터에서 네트워크 트래픽 흐름에 대한 전체 집계 지표를 표시하는 개요 탭을 제공합니다. 해당 정보는 node, namespace, owner, pod, service로 표시할 수 있습니다. 필터 및 표시 옵션은 메트릭을 추가로 구체화할 수 있습니다.
Observe → Dashboards 에서 Netobserv 대시보드는 OpenShift Container Platform 클러스터의 네트워크 흐름에 대한 간략한 개요를 제공합니다. 다음 카테고리에서 네트워크 트래픽 메트릭의 해제를 볼 수 있습니다.
- 소스 및 대상 네임스페이스당 최상위 흐름 속도 (1분 비율)
- 소스 및 대상 노드당 최대 바이트 비율 (1분 비율)
- 소스 및 대상 노드별로 수신되는 최상위 바이트 비율 (1분 비율)
- 소스 및 대상 워크로드당 최대 바이트 비율 (1분 비율)
- 소스 및 대상 워크로드별로 수신되는 최상위 바이트 비율 (1분 비율)
- 소스 및 대상 워크로드당 최대 패킷 속도 (1분 비율)
- 소스 및 대상 워크로드별로 수신되는 최상위 패킷 속도 (1분 비율)
ignoreTags 목록을 변경하여 메트릭을 추가하거나 제거하도록 FlowCollector spec.processor.metrics 를 구성할 수 있습니다. 사용 가능한 태그에 대한 자세한 내용은 Flow Collector API 참조를참조하십시오.
Observe → Dashboards 에서도 Netobserv/Health 대시 보드는 Operator의 상태에 대한 지표를 제공합니다.
36.2.4.2. 네트워크 관찰성 토폴로지 뷰
OpenShift Container Platform 콘솔은 네트워크 흐름의 그래픽 표현과 트래픽 양을 표시하는 Topology 탭을 제공합니다. 토폴로지 보기는 OpenShift Container Platform 구성 요소 간 트래픽을 네트워크 그래프로 나타냅니다. 필터 및 표시 옵션을 사용하여 그래프를 구체화할 수 있습니다. 노드, 네임스페이스, 소유자, Pod 및 서비스에 대한 정보에 액세스할 수 있습니다.
36.2.4.3. 트래픽 흐름 테이블
트래픽 흐름 테이블 뷰는 원시 흐름, 집계되지 않은 필터링 옵션 및 구성 가능한 열에 대한 보기를 제공합니다. OpenShift Container Platform 콘솔은 네트워크 흐름의 데이터와 트래픽 양을 표시하는 트래픽 흐름 탭을 제공합니다.
36.3. Network Observability Operator 설치
VMDK 설치는 Network Observability Operator를 사용하기 위한 사전 요구 사항입니다. 따라서 Network Observability Operator 설치 전에 이러한 단계가 아래에 설명되어 있습니다.
CloudEvent Operator는 데이터 흐름 저장을 위해 멀티 테넌시 및 인증을 통해 CloudEvent와 함께 구현하는 게이트웨이를 통합합니다. LokiStack 리소스는 확장 가능하고 가용성이 높은 다중 테넌트 로그 집계 시스템 및 OpenShift Container Platform 인증을 사용하는 웹 프록시인 Loki 를 관리합니다. CloudEvent Stack 프록시는 OpenShift Container Platform 인증을 사용하여 멀티 테넌시를 적용하고 CloudEvent 로그 저장소의 데이터를 저장 및 인덱싱할 수 있습니다.
또한, Operator를 사용하여 로깅에 사용할 수도 있습니다. Network Observability Operator에는 로깅과는 별도로 전용 CloudEventStack이 필요합니다.
36.3.1. CloudEvent Operator 설치
Loki Operator 버전 5.7 을 설치하는 것이 좋습니다. 이 버전은 openshift-network 테넌트 구성 모드를 사용하여 LokiStack 인스턴스를 생성하는 기능을 제공합니다. 또한 Network Observability에 대한 완전 자동 클러스터 내 인증 및 권한 부여를 제공합니다.
사전 요구 사항
- 지원되는 로그 저장소(AWS S3, Google Cloud Storage, Azure, Swift, Minio, OpenShift Data Foundation)
- OpenShift Container Platform 4.10 이상.
- Linux Kernel 4.18+.
사용자가 installation할 수 있는 방법은 여러 가지가 있습니다. CloudEvent Operator를 설치할 수 있는 한 가지 방법은 OpenShift Container Platform 웹 콘솔 Operator Hub를 사용하는 것입니다.
절차
CloudEvent
Operator를 설치합니다.- OpenShift Container Platform 웹 콘솔에서 Operator → OperatorHub 를 클릭합니다.
- 사용 가능한 Operator 목록에서or Operator를 선택하고 설치를 클릭합니다.
- 설치 모드에서 클러스터의 모든 네임스페이스를 선택합니다.
- CloudEvent Operator를 설치했는지 확인합니다. Operator → 설치된 Operator 페이지를 방문하여 test Operator를 찾습니다.
- 모든 프로젝트에서 Status 가 Succeeded 로 나열되어 있는지 확인합니다.
SecretYAML 파일을 생성합니다. 웹 콘솔 또는 CLI에서 이 시크릿을 생성할 수 있습니다.-
웹 콘솔을 사용하여 프로젝트 → 모든 프로젝트 드롭다운으로 이동하여 프로젝트 생성을 선택합니다. 프로젝트 이름을
netobserv로 지정하고 생성을 클릭합니다. -
오른쪽 상단에 있는 Import(가져오기) 아이콘+ 로 이동합니다. YAML 파일을 편집기에 놓습니다.
access_key_id및access_key_secret을 사용하여 인증 정보를 지정하는netobserv네임스페이스에 이 YAML 파일을 생성하는 것이 중요합니다. 시크릿을 생성하면 웹 콘솔에 워크로드 → 시크릿 아래에 표시되어야 합니다.
다음은 시크릿 YAML 파일의 예를 보여줍니다.
-
웹 콘솔을 사용하여 프로젝트 → 모든 프로젝트 드롭다운으로 이동하여 프로젝트 생성을 선택합니다. 프로젝트 이름을
apiVersion: v1 kind: Secret metadata: name: loki-s3 namespace: netobserv stringData: access_key_id: QUtJQUlPU0ZPRE5ON0VYQU1QTEUK access_key_secret: d0phbHJYVXRuRkVNSS9LN01ERU5HL2JQeFJmaUNZRVhBTVBMRUtFWQo= bucketnames: s3-bucket-name endpoint: https://s3.eu-central-1.amazonaws.com region: eu-central-1
Loki를 설치 제거하려면 Loki를 설치하는 데 사용한 방법과 일치하는 제거 프로세스를 참조하십시오. 나머지 ClusterRoles 및 ClusterRoleBindings, 오브젝트 저장소에 저장된 데이터 및 제거해야 하는 영구 볼륨이 있을 수 있습니다.
36.3.1.1. LokiStack 사용자 정의 리소스 생성
FlowCollector 사양인 spec.namespace 에서 참조하는 동일한 네임스페이스에 LokiStack을 배포하는 것이 좋습니다. 웹 콘솔 또는 CLI를 사용하여 네임스페이스 또는 새 프로젝트를 생성할 수 있습니다.
절차
- Operator → 설치된 Operator 로 이동하여 프로젝트 드롭다운에서 모든 프로젝트를 확인합니다.
- Loki Operator 를 찾습니다. 세부 정보에서 제공된 API에서 LokiStack 을 선택합니다.
- LokiStack 생성을 클릭합니다.
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: loki namespace: netobserv spec: size: 1x.small storage: schemas: - version: v12 effectiveDate: '2022-06-01' secret: name: loki-s3 type: s3 storageClassName: gp3 1 tenants: mode: openshift-network중요- 생성을 클릭합니다.
36.3.1.1.1.
표 36.1.
| 1x.extra-small | 1x.small | 1x.medium | |
|---|---|---|---|
|
|
|
| 2TB/day |
|
|
|
|
|
|
| 없음 | 2 | 3 |
| 총 CPU 요청 | 5개의 vCPU | 36개의 vCPU | 54 vCPU |
| 총 메모리 요청 | 7.5Gi | 63Gi | 139Gi |
| 총 디스크 요청 | 150Gi | 300Gi | 450Gi |
36.3.1.2. LokiStack 수집 제한 및 상태 경고
LokiStack 인스턴스는 구성된 크기에 따라 기본 설정과 함께 제공됩니다. 수집 및 쿼리 제한과 같은 일부 설정을 재정의할 수 있습니다. Loki 오류가 콘솔 플러그인에 표시되는 경우 또는 flowlogs-pipeline 로그에 업데이트할 수 있습니다. 웹 콘솔의 자동 경고는 이러한 제한에 도달할 때 이를 알려줍니다.
다음은 구성된 제한의 예입니다.
spec:
limits:
global:
ingestion:
ingestionBurstSize: 40
ingestionRate: 20
maxGlobalStreamsPerTenant: 25000
queries:
maxChunksPerQuery: 2000000
maxEntriesLimitPerQuery: 10000
maxQuerySeries: 3000이러한 설정에 대한 자세한 내용은 LokiStack API 참조를 참조하십시오.
36.3.2. 권한 부여 및 멀티 테넌시 구성
ClusterRole 및 ClusterRoleBinding 을 정의합니다. netobserv-reader ClusterRole 은 멀티 테넌시를 활성화하고 Loki에 저장된 흐름에 대한 개별 사용자 액세스 또는 그룹 액세스를 허용합니다. YAML 파일을 생성하여 이러한 역할을 정의할 수 있습니다.
절차
- 웹 콘솔을 사용하여 가져오기 아이콘 + 를 클릭합니다.
- YAML 파일을 편집기에 삭제하고 생성 을 클릭합니다.
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: netobserv-reader 1
rules:
- apiGroups:
- 'loki.grafana.com'
resources:
- network
resourceNames:
- logs
verbs:
- 'get'
- 1
- 이 역할은 멀티 테넌시에 사용할 수 있습니다.
apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: netobserv-writer rules: - apiGroups: - 'loki.grafana.com' resources: - network resourceNames: - logs verbs: - 'create'
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: netobserv-writer-flp
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: netobserv-writer
subjects:
- kind: ServiceAccount
name: flowlogs-pipeline 1
namespace: netobserv
- kind: ServiceAccount
name: flowlogs-pipeline-transformer
namespace: netobserv
- 1
flowlogs-pipeline은 Loki에 씁니다. Kafka를 사용하는 경우 이 값은flowlogs-pipeline-transformer입니다.
36.3.3. 네트워크 Observability에서 멀티 테넌시 활성화
Network Observability Operator의 멀티 테넌시를 사용하면 개별 사용자 액세스 또는 그룹 액세스를 Loki에 저장된 흐름에 대해 허용하고 제한할 수 있습니다. 프로젝트 관리자에 대한 액세스 권한이 활성화됩니다. 일부 네임스페이스에 대한 액세스 권한이 제한된 프로젝트 관리자는 해당 네임스페이스의 흐름에만 액세스할 수 있습니다.
사전 요구 사항
- Loki Operator 버전 5.7을 설치했습니다.
-
FlowCollectorspec.loki.authToken구성을FORWARD로 설정해야 합니다. - 프로젝트 관리자로 로그인해야 합니다.
절차
다음 명령을 실행하여
user1에 읽기 권한을 부여합니다.$ oc adm policy add-cluster-role-to-user netobserv-reader user1
이제 데이터는 허용된 사용자 네임스페이스로 제한됩니다. 예를 들어 단일 네임스페이스에 액세스할 수 있는 사용자는 이 네임스페이스 내부 및 이 네임스페이스로 이동하는 모든 흐름을 볼 수 있습니다. 프로젝트 관리자는 OpenShift Container Platform 콘솔의 관리자 화면에 액세스하여 네트워크 흐름 트래픽 페이지에 액세스할 수 있습니다.
36.3.4. Kafka 설치 (선택 사항)
Kafka Operator는 대규모 환경에서 지원됩니다. Loki Operator 및 Network Observability Operator가 설치된 것처럼 Operator Hub에서 Kafka Operator를 Red Hat AMQ Streams 로 설치할 수 있습니다.
Kafka를 설치 제거하려면 설치하는 데 사용한 방법과 일치하는 제거 프로세스를 참조하십시오.
36.3.5. Network Observability Operator 설치
OpenShift Container Platform 웹 콘솔 Operator Hub를 사용하여 Network Observability Operator를 설치할 수 있습니다. Operator를 설치할 때 FlowCollector CRD(사용자 정의 리소스 정의)를 제공합니다. FlowCollector 를 만들 때 웹 콘솔에서 사양을 설정할 수 있습니다.
사전 요구 사항
- 설치된 Loki입니다. Loki Operator 버전 5.7을 사용하여 Loki 를 설치하는 것이 좋습니다.
-
지원되는 아키텍처 중 하나는
amd64,,ppc64learm64또는s390x입니다. - Red Hat Enterprise Linux (RHEL) 9에서 지원하는 모든 CPU
이 문서에서는 LokiStack 인스턴스 이름이 loki 라고 가정합니다. 다른 이름을 사용하려면 추가 구성이 필요합니다.
절차
- OpenShift Container Platform 웹 콘솔에서 Operator → OperatorHub 를 클릭합니다.
- OperatorHub 의 사용 가능한 Operator 목록에서 Network Observability Operator 를 선택하고 설치를 클릭합니다.
-
이 네임스페이스에서 Operator 권장 클러스터 모니터링 활성화확인란을 선택합니다. Operators → 설치된 Operator로 이동합니다. 네트워크 Observability용 제공된 API에서 흐름 수집기 링크를 선택합니다.
Flow Collector 탭으로 이동하여 FlowCollector 만들기 를 클릭합니다. 양식 보기에서 다음 항목을 선택합니다.
-
spec.agent.ebpf.Sampling : 흐름에 대한 샘플링 크기를 지정합니다. 샘플링 크기가 감소하면 리소스 사용량에 더 큰 영향을 미칩니다. 자세한 내용은 spec.agent.ebpf에서
FlowCollectorAPI 참조를 참조하십시오. - spec.deploymentModel: Kafka를 사용하는 경우 Kafka가 선택되어 있는지 확인합니다.
spec.exporters: Kafka를 사용하는 경우 선택적으로 Splunk, Elasticsearch 또는 Fluentd와 같은 Kafka 입력을 지원하는 프로세서 또는 스토리지에서 사용할 수 있도록 Kafka로 네트워크 흐름을 보낼 수 있습니다. 이렇게 하려면 다음 사양을 설정합니다.
-
유형을
KAFKA로 설정합니다. -
주소를
kafka-cluster-kafka-bootstrap.netobserv로 설정합니다. -
주제 를
netobserv-flows-export로 설정합니다. Operator는 모든 흐름을 구성된 Kafka 주제로 내보냅니다. 다음 tls 사양을 설정합니다.
certfile:
service-ca.crt,name:kafka-gateway-ca-bundle, type:configmap.나중에 YAML을 직접 편집하여 이 옵션을 구성할 수도 있습니다. 자세한 내용은 보강된 네트워크 흐름 데이터 내보내기 를 참조하십시오.
-
유형을
-
Loki.url: 인증이 별도로 지정되기 때문에 이 URL을
https://loki-gateway-http.netobserv.svc:8080/api/logs/v1/network로 업데이트해야 합니다. URL의 첫 번째 부분인 "loki"는 LokiStack 이름과 일치해야 합니다. -
Loki.statusUrl:
https://loki-query-frontend-http.netobserv.svc:3100/로 설정합니다. URL의 첫 번째 부분인 "loki"는 LokiStack 이름과 일치해야 합니다. -
Loki.authToken:
FORWARD값을 선택합니다. - TLS.enable: 상자가 활성화되어 있는지 확인합니다.
statusTls:
enable값은 기본적으로 false입니다.인증서 참조 이름의 첫 번째 부분인
loki-gateway-ca-bundle,loki-ca-bundle,loki-query-frontend-http,loki는LokiStack의 이름과 일치해야 합니다.
-
spec.agent.ebpf.Sampling : 흐름에 대한 샘플링 크기를 지정합니다. 샘플링 크기가 감소하면 리소스 사용량에 더 큰 영향을 미칩니다. 자세한 내용은 spec.agent.ebpf에서
- 생성을 클릭합니다.
검증
이 작업이 성공했는지 확인하려면 Observe 로 이동할 때 옵션에 네트워크 트래픽이 표시되어야 합니다.
OpenShift Container Platform 클러스터 내에 애플리케이션 트래픽이 없으면 기본 필터에 "결과가 없음"이 표시되어 시각적 흐름이 발생하지 않을 수 있습니다. 필터 선택 옆에 있는 모든 필터 지우기 를 선택하여 흐름을 확인합니다.
Loki Operator를 사용하여 Loki를 설치한 경우 Loki에 대한 콘솔 액세스를 중단할 수 있으므로 querierUrl 을 사용하지 않는 것이 좋습니다. 다른 유형의 Loki 설치를 사용하여 Loki를 설치한 경우 적용되지 않습니다.
추가 리소스
- Flow Collector 사양에 대한 자세한 내용은 Flow Collector API 참조 및 Flow Collector 샘플 리소스 를 참조하십시오.
- 타사 처리 소비를 위해 Kafka로 흐름 데이터를 내보내는 방법에 대한 자세한 내용은 Export enriched network flow data 를 참조하십시오.
36.3.6. Network Observability Operator 설치 제거
OpenShift Container Platform 웹 콘솔 Operator Hub를 사용하여 Network Observability Operator를 설치 제거하고 Operator → 설치된 Operator 영역에서 작업할 수 있습니다.
절차
FlowCollector사용자 지정 리소스를 제거합니다.- 제공된 API 열에서 Network Observability Operator 옆에 있는 흐름 수집기 를 클릭합니다.
-
클러스터 의 옵션 메뉴
를 클릭하고 FlowCollector 삭제 를 선택합니다.
Network Observability Operator를 설치 제거합니다.
- Operator → 설치된 Operator 영역으로 돌아갑니다.
-
Network Observability Operator 옆에 있는 옵션 메뉴
를 클릭하고 Operator 설치 제거를 선택합니다.
-
홈 → 프로젝트 및
openshift-netobserv-operator선택 - 작업으로 이동하여 프로젝트 삭제를 선택합니다.
FlowCollectorCRD(사용자 정의 리소스 정의)를 제거합니다.- Administration → CustomResourceDefinitions 로 이동합니다.
-
FlowCollector 를 찾고
옵션 메뉴를 클릭합니다.
Delete CustomResourceDefinition 을 선택합니다.
중요Loki Operator 및 Kafka는 설치된 경우 그대로 유지되며 별도로 제거해야 합니다. 또한 오브젝트 저장소에 남아 있는 데이터와 제거해야 하는 영구 볼륨이 있을 수 있습니다.
36.4. OpenShift Container Platform의 Network Observability Operator
Network Observability는 네트워크 Observability eBPF 에이전트에서 생성하는 네트워크 트래픽 흐름을 수집하고 보강하기 위해 모니터링 파이프라인을 배포하는 OpenShift Operator입니다.
36.4.1. 상태 보기
Network Observability Operator는 Flow Collector API를 제공합니다. 흐름 수집기 리소스가 생성되면 Pod 및 서비스를 배포하여 Loki 로그 저장소에 네트워크 흐름을 생성 및 저장하고 OpenShift Container Platform 웹 콘솔에서 대시보드, 메트릭 및 흐름을 표시합니다.
절차
다음 명령을 실행하여
FlowCollector의 상태를 확인합니다.$ oc get flowcollector/cluster
출력 예
NAME AGENT SAMPLING (EBPF) DEPLOYMENT MODEL STATUS cluster EBPF 50 DIRECT Ready
다음 명령을 입력하여
netobserv네임스페이스에서 실행 중인 Pod의 상태를 확인합니다.$ oc get pods -n netobserv
출력 예
NAME READY STATUS RESTARTS AGE flowlogs-pipeline-56hbp 1/1 Running 0 147m flowlogs-pipeline-9plvv 1/1 Running 0 147m flowlogs-pipeline-h5gkb 1/1 Running 0 147m flowlogs-pipeline-hh6kf 1/1 Running 0 147m flowlogs-pipeline-w7vv5 1/1 Running 0 147m netobserv-plugin-cdd7dc6c-j8ggp 1/1 Running 0 147m
FlowLogs-pipeline 포드는 흐름을 수집하고 수집된 흐름을 강화한 다음 Loki 스토리지로 흐름을 보냅니다. NetObserv-plugin Pod는 OpenShift Container Platform 콘솔의 시각화 플러그인을 생성합니다.
다음 명령을 입력하여 네임스페이스
netobserv-privileged에서 실행 중인 Pod의 상태를 확인합니다.$ oc get pods -n netobserv-privileged
출력 예
NAME READY STATUS RESTARTS AGE netobserv-ebpf-agent-4lpp6 1/1 Running 0 151m netobserv-ebpf-agent-6gbrk 1/1 Running 0 151m netobserv-ebpf-agent-klpl9 1/1 Running 0 151m netobserv-ebpf-agent-vrcnf 1/1 Running 0 151m netobserv-ebpf-agent-xf5jh 1/1 Running 0 151m
NetObserv-ebpf-agent Pod는 노드의 네트워크 인터페이스를 모니터링하여 흐름을 가져오고 flowlogs-pipeline pod로 보냅니다.
Loki Operator를 사용하는 경우 다음 명령을 입력하여
openshift-operators-redhat네임스페이스에서 실행중인 Pod의 상태를 확인합니다.$ oc get pods -n openshift-operators-redhat
출력 예
NAME READY STATUS RESTARTS AGE loki-operator-controller-manager-5f6cff4f9d-jq25h 2/2 Running 0 18h lokistack-compactor-0 1/1 Running 0 18h lokistack-distributor-654f87c5bc-qhkhv 1/1 Running 0 18h lokistack-distributor-654f87c5bc-skxgm 1/1 Running 0 18h lokistack-gateway-796dc6ff7-c54gz 2/2 Running 0 18h lokistack-index-gateway-0 1/1 Running 0 18h lokistack-index-gateway-1 1/1 Running 0 18h lokistack-ingester-0 1/1 Running 0 18h lokistack-ingester-1 1/1 Running 0 18h lokistack-ingester-2 1/1 Running 0 18h lokistack-querier-66747dc666-6vh5x 1/1 Running 0 18h lokistack-querier-66747dc666-cjr45 1/1 Running 0 18h lokistack-querier-66747dc666-xh8rq 1/1 Running 0 18h lokistack-query-frontend-85c6db4fbd-b2xfb 1/1 Running 0 18h lokistack-query-frontend-85c6db4fbd-jm94f 1/1 Running 0 18h
36.4.2. Network Observability Operator 상태 및 구성 보기
oc describe 명령을 사용하여 상태를 검사하고 FlowCollector 의 세부 정보를 볼 수 있습니다.
절차
다음 명령을 실행하여 Network Observability Operator의 상태 및 구성을 확인합니다.
$ oc describe flowcollector/cluster
36.5. Network Observability Operator 구성
Flow Collector API 리소스를 업데이트하여 Network Observability Operator 및 관리되는 구성 요소를 구성할 수 있습니다. Flow Collector는 설치 중에 명시적으로 생성됩니다. 이 리소스는 클러스터 전체에서 작동하기 때문에 단일 FlowCollector 만 허용되며 cluster 라는 이름으로 지정해야 합니다.
36.5.1. FlowCollector 리소스 보기
OpenShift Container Platform 웹 콘솔에서 직접 YAML을 보고 편집할 수 있습니다.
절차
- 웹 콘솔에서 Operator → 설치된 Operator 로 이동합니다.
- NetObserv Operator 의 제공된 API 제목에서 Flow Collector 를 선택합니다.
-
cluster 를 선택한 다음 YAML 탭을 선택합니다. 여기에서
FlowCollector리소스를 수정하여 Network Observability Operator를 구성할 수 있습니다.
다음 예제는 OpenShift Container Platform Network Observability Operator의 샘플 FlowCollector 리소스를 보여줍니다.
FlowCollector 리소스 샘플
apiVersion: flows.netobserv.io/v1beta1
kind: FlowCollector
metadata:
name: cluster
spec:
namespace: netobserv
deploymentModel: DIRECT
agent:
type: EBPF 1
ebpf:
sampling: 50 2
logLevel: info
privileged: false
resources:
requests:
memory: 50Mi
cpu: 100m
limits:
memory: 800Mi
processor:
logLevel: info
resources:
requests:
memory: 100Mi
cpu: 100m
limits:
memory: 800Mi
conversationEndTimeout: 10s
logTypes: FLOWS 3
conversationHeartbeatInterval: 30s
loki: 4
url: 'https://loki-gateway-http.netobserv.svc:8080/api/logs/v1/network'
statusUrl: 'https://loki-query-frontend-http.netobserv.svc:3100/'
authToken: FORWARD
tls:
enable: true
caCert:
type: configmap
name: loki-gateway-ca-bundle
certFile: service-ca.crt
consolePlugin:
register: true
logLevel: info
portNaming:
enable: true
portNames:
"3100": loki
quickFilters: 5
- name: Applications
filter:
src_namespace!: 'openshift-,netobserv'
dst_namespace!: 'openshift-,netobserv'
default: true
- name: Infrastructure
filter:
src_namespace: 'openshift-,netobserv'
dst_namespace: 'openshift-,netobserv'
- name: Pods network
filter:
src_kind: 'Pod'
dst_kind: 'Pod'
default: true
- name: Services network
filter:
dst_kind: 'Service'
- 1
- 에이전트 사양인
spec.agent.type은 skopeoPF여야 합니다. eBPF는 OpenShift Container Platform에서 지원되는 유일한 옵션입니다. - 2
- Sampling 사양인
spec.agent.ebpf.sampling을 설정하여 리소스를 관리할 수 있습니다. 더 낮은 샘플링 값은 많은 양의 곱셈, 메모리 및 스토리지 리소스를 소비할 수 있습니다. 샘플링 비율 값을 지정하여 이 문제를 완화할 수 있습니다. 값 100은 100마다 1 흐름이 샘플링됨을 의미합니다. 값이 0 또는 1이면 모든 흐름이 캡처됩니다. 값이 낮을수록 반환된 흐름이 증가하고 파생된 지표의 정확도가 높아집니다. 기본적으로 eBPF 샘플링은 50 값으로 설정되므로 50마다 1개의 흐름이 샘플링됩니다. 더 많은 샘플 흐름도 더 많은 스토리지가 필요하다는 것을 의미합니다. 클러스터에서 관리할 수 있는 설정을 결정하려면 기본값으로 시작하고 경험적으로 구체화하는 것이 좋습니다. - 3
- 대화 추적을 활성화하도록 선택적 사양
spec.processor.logTypes,spec.processor.conversationHeartbeatInterval,spec.processor.conversationEndTimeout을 설정할 수 있습니다. 활성화된 경우 웹 콘솔에서 대화 이벤트를 쿼리할 수 있습니다.spec.processor.logTypes값은 다음과 같습니다.FLOWSCONVERSATIONS,ENDED_CONVERSATIONS,ALL.ENDED_CONVERSATIONS의 경우모든스토리지 요구 사항이 가장 높고 가장 낮습니다. - 4
- spec.loki의
spec.loki는 client를 지정합니다. 기본값은 Installing the iPXE Operator 섹션에 언급된 iPXE 설치 경로와 일치합니다. CloudEvent에 대한 다른 설치 방법을 사용한 경우 설치에 적합한 클라이언트 정보를 지정합니다. - 5
spec.quickFilters사양은 웹 콘솔에 표시되는 필터를 정의합니다.애플리케이션필터 키인 10.0.0.1_namespace및dst_namespace는 부정(!)이므로애플리케이션필터는 시작되지 않거나openshift-또는netobserv네임스페이스의 대상이 아닌 모든 트래픽을 표시합니다. 자세한 내용은 아래 빠른 필터 구성을 참조하십시오.
추가 리소스
대화 추적에 대한 자세한 내용은 대화 작업을 참조하십시오.
36.5.2. Kafka를 사용하여 흐름 수집기 리소스 구성
Kafka를 사용하도록 FlowCollector 리소스를 구성할 수 있습니다. Kafka 인스턴스가 실행 중이어야 하며 해당 인스턴스에서 OpenShift Container Platform Network Observability 전용 Kafka 주제를 생성해야 합니다. 자세한 내용은 AMQ Streams의 Kafka 설명서와 같은 Kafka 설명서를 참조하십시오.
다음 예제에서는 Kafka를 사용하도록 OpenShift Container Platform Network Observability Operator의 FlowCollector 리소스를 수정하는 방법을 보여줍니다.
FlowCollector 리소스의 Kafka 구성 샘플
deploymentModel: KAFKA 1 kafka: address: "kafka-cluster-kafka-bootstrap.netobserv" 2 topic: network-flows 3 tls: enable: false 4
- 1
- Kafka 배포 모델을 활성화하려면
DIRECT대신spec.deploymentModel을KAFKA로 설정합니다. - 2
spec.kafka.address는 Kafka 부트스트랩 서버 주소를 나타냅니다. 필요한 경우 포트 9093에서 TLS를 사용하기 위해kafka-cluster-kafka-bootstrap.netobserv:9093과 같은 포트를 지정할 수 있습니다.- 3
spec.kafka.topic은 Kafka에서 생성된 주제의 이름과 일치해야 합니다.- 4
spec.kafka.tls는 TLS 또는 mTLS를 사용하여 Kafka와의 모든 통신을 암호화하는 데 사용할 수 있습니다. 활성화된 경우 Kafka CA 인증서를 ConfigMap 또는 Secret으로 사용할 수 있어야 합니다.flowlogs-pipeline프로세서 구성 요소가 배포된 네임스페이스(default:netobserv)와 eBPF 에이전트가 배포된 네임스페이스(기본값:netobserv- privileged).spec.kafka.tls.caCert를 사용하여 참조해야 합니다. mTLS를 사용하는 경우 이러한 네임스페이스에서 클라이언트 시크릿을 사용할 수 있어야 하며 ( AMQ Streams User Operator를 사용하여 인스턴스의 경우 생성할 수 있음)spec.kafka.tls.userCert로 참조되어야 합니다.
36.5.3. 보강된 네트워크 흐름 데이터 내보내기
Splunk, Elasticsearch 또는 Fluentd와 같은 Kafka 입력을 지원하는 모든 프로세서 또는 스토리지에서 사용할 수 있도록 네트워크 흐름을 Kafka로 보낼 수 있습니다.
사전 요구 사항
- Kafka가 설치됨
절차
- 웹 콘솔에서 Operator → 설치된 Operator 로 이동합니다.
- NetObserv Operator 의 제공된 API 제목에서 Flow Collector 를 선택합니다.
- cluster 를 선택한 다음 YAML 탭을 선택합니다.
FlowCollector를 편집하여spec.exporters를 다음과 같이 구성합니다.apiVersion: flows.netobserv.io/v1alpha1 kind: FlowCollector metadata: name: cluster spec: exporters: - type: KAFKA kafka: address: "kafka-cluster-kafka-bootstrap.netobserv" topic: netobserv-flows-export 1 tls: enable: false 2- 1
- Network Observability Operator는 모든 흐름을 구성된 Kafka 주제로 내보냅니다.
- 2
- SSL/TLS 또는 mTLS를 사용하여 Kafka와의 모든 통신을 암호화할 수 있습니다. 활성화된 경우 Kafka CA 인증서는
flowlogs-pipeline프로세서 구성 요소가 배포된 네임스페이스(기본값: netobserv)에서 모두 ConfigMap 또는 Secret으로 사용할 수 있어야 합니다.spec.exporters.tls.caCert를 사용하여 참조해야 합니다. mTLS를 사용하는 경우 이러한 네임스페이스에서 클라이언트 시크릿을 사용할 수 있어야 하며 ( AMQ Streams User Operator를 사용하여 인스턴스의 경우 생성할 수 있음)spec.exporters.tls.userCert로 참조해야 합니다.
- 구성 후 네트워크 흐름 데이터를 JSON 형식의 사용 가능한 출력으로 보낼 수 있습니다. 자세한 내용은 네트워크 흐름 형식 참조를 참조하십시오.
추가 리소스
흐름 형식을 지정하는 방법에 대한 자세한 내용은 네트워크 흐름 형식 참조 를 참조하십시오.
36.5.4. Flow Collector 리소스 업데이트
OpenShift Container Platform 웹 콘솔에서 YAML을 편집하는 대신 flowcollector CR(사용자 정의 리소스)에 패치를 적용하여 eBPF 샘플링과 같은 사양을 구성할 수 있습니다.
절차
다음 명령을 실행하여
flowcollectorCR을 패치하고spec.agent.ebpf.sampling값을 업데이트합니다.$ oc patch flowcollector cluster --type=json -p "[{"op": "replace", "path": "/spec/agent/ebpf/sampling", "value": <new value>}] -n netobserv"
36.5.5. 퀵 필터 구성
FlowCollector 리소스에서 필터를 수정할 수 있습니다. 정확한 일치는 값의 double-quotes를 사용할 수 있습니다. 그렇지 않으면 부분 일치 항목이 텍스트 값에 사용됩니다. 키의 끝에 배치된 bang(!) 문자는 부정을 의미합니다. YAML 수정에 대한 자세한 내용은 샘플 FlowCollector 리소스를 참조하십시오.
"all of" 또는 "any of"라는 필터 일치는 사용자가 쿼리 옵션에서 수정할 수 있는 UI 설정입니다. 이 리소스 구성은 포함되지 않습니다.
다음은 사용 가능한 모든 필터 키 목록입니다.
표 36.2. 필터 키
| Universal* | 소스 | 대상 | 설명 |
|---|---|---|---|
| namespace |
|
| 특정 네임스페이스와 관련된 트래픽을 필터링합니다. |
| name |
|
| 특정 Pod, 서비스 또는 노드(호스트 네트워크 트래픽용)와 같은 지정된 리프 리소스 이름과 관련된 트래픽을 필터링합니다. |
| kind |
|
| 지정된 리소스 종류와 관련된 트래픽을 필터링합니다. 리소스 종류에는 리프 리소스(Pod, 서비스 또는 노드) 또는 소유자 리소스(Deployment 및 StatefulSet)가 포함됩니다. |
| owner_name |
|
| 지정된 리소스 소유자, 즉 워크로드 또는 Pod 세트와 관련된 트래픽을 필터링합니다. 예를 들어 배포 이름, StatefulSet 이름 등을 사용할 수 있습니다. |
| resource |
|
|
고유하게 식별하는 표준 이름으로 표시되는 특정 리소스와 관련된 트래픽을 필터링합니다. 정식 표기법은 네임스페이스가 지정된 종류의 |
| address |
|
| IP 주소와 관련된 트래픽을 필터링합니다. IPv4 및 IPv6가 지원됩니다. CIDR 범위도 지원됩니다. |
| mac |
|
| MAC 주소와 관련된 트래픽을 필터링합니다. |
| port |
|
| 특정 포트와 관련된 트래픽을 필터링합니다. |
| host_address |
|
| Pod가 실행 중인 호스트 IP 주소와 관련된 트래픽을 필터링합니다. |
| 프로토콜 | 해당 없음 | 해당 없음 | TCP 또는 UDP와 같은 프로토콜과 관련된 트래픽을 필터링합니다. |
-
소스 또는 대상에 대한 범용 키 필터입니다. 예를 들어, 필터링
name: '는 일치하는 유형(all 또는 Match any ) 여부에 관계없이my-pod'my-pod및 모든 트래픽의 모든 트래픽을 의미합니다.
36.5.6.
-
Sampling 사양인
spec.agent.ebpf.sampling을 설정하여 리소스를 관리할 수 있습니다. 샘플링 비율 값을 지정하여 이 문제를 완화할 수 있습니다. 기본적으로 eBPF 샘플링은 50 값으로 설정되므로 50마다 1개의 흐름이 샘플링됩니다. 더 많은 샘플 흐름도 더 많은 스토리지가 필요하다는 것을 의미합니다.
36.5.6.1.
표 36.3.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 800Mi |
|
|
|
|
|
|
|
|
|
| 2000Mi |
|
|
|
|
|
|
|
|
| 해당 없음 | 48 | 48 | 48 |
|
| 해당 없음 | 24 | 24 | 24 |
|
| 해당 없음 |
|
|
|
36.6. Network Policy
36.6.1.
절차
검증
- 모니터링 → 네트워크 트래픽 으로 이동합니다.
36.6.2.
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
name: allow-ingress
namespace: netobserv
spec:
podSelector: {} 1
ingress:
- from:
- podSelector: {} 2
namespaceSelector: 3
matchLabels:
kubernetes.io/metadata.name: openshift-console
- podSelector: {}
namespaceSelector:
matchLabels:
kubernetes.io/metadata.name: openshift-monitoring
policyTypes:
- Ingress
status: {}
추가 리소스
36.7. 네트워크 트래픽 관찰
관리자는 자세한 문제 해결 및 분석을 위해 OpenShift Container Platform 콘솔에서 네트워크 트래픽을 확인할 수 있습니다. 이 기능을 사용하면 트래픽 흐름의 다양한 그래픽 표현에서 통찰력을 얻을 수 있습니다. 네트워크 트래픽을 관찰하는 데 사용할 수 있는 몇 가지 보기가 있습니다.
36.7.1. 개요 보기에서 네트워크 트래픽 관찰
개요 보기에는 클러스터의 네트워크 트래픽 흐름에 대한 전체 집계 메트릭이 표시됩니다. 관리자는 사용 가능한 디스플레이 옵션을 사용하여 통계를 모니터링할 수 있습니다.
36.7.1.1. 개요 보기 작업
관리자는 개요 보기로 이동하여 흐름 속도 통계의 그래픽 표현을 볼 수 있습니다.
절차
- 모니터링 → 네트워크 트래픽 으로 이동합니다.
- 네트워크 트래픽 페이지에서 개요 탭을 클릭합니다.
메뉴 아이콘을 클릭하여 각 흐름 속도 데이터의 범위를 구성할 수 있습니다.
36.7.1.2. 개요 보기에 대한 고급 옵션 구성
고급 옵션을 사용하여 그래픽 보기를 사용자 지정할 수 있습니다. 고급 옵션에 액세스하려면 고급 옵션 표시를 클릭합니다. 표시 옵션 드롭다운 메뉴를 사용하여 그래프에서 세부 정보를 구성할 수 있습니다. 사용 가능한 옵션은 다음과 같습니다.
- 메트릭 유형: 10.0.0.1s 또는 패킷에 표시되는 메트릭 입니다. 기본값은 10.0.0.1s 입니다.
- 범위: 네트워크 트래픽이 이동하는 구성 요소의 세부 정보를 선택합니다. 범위를 노드, 네임스페이스, 소유자 또는 리소스로 설정할 수 있습니다. 소유자는 리소스 집계입니다. resource 는 호스트 네트워크 트래픽의 경우 pod, 서비스, 노드 또는 알 수 없는 IP 주소일 수 있습니다. 기본값은 Namespace 입니다.
- truncate labels: 드롭다운 목록에서 레이블의 필요한 너비를 선택합니다. 기본값은 M 입니다.
36.7.1.2.1. 패널 관리
필요한 통계를 표시하고 다시 정렬할 수 있습니다. 열을 관리하려면 패널 관리를 클릭합니다.
36.7.2. 트래픽 흐름 보기에서 네트워크 트래픽 관찰
트래픽 흐름 보기에는 네트워크 흐름의 데이터와 테이블의 트래픽 양이 표시됩니다. 관리자는 트래픽 흐름 테이블을 사용하여 애플리케이션 전체의 트래픽 양을 모니터링할 수 있습니다.
36.7.2.1. 트래픽 흐름 보기 작업
관리자는 Traffic flows 테이블로 이동하여 네트워크 흐름 정보를 볼 수 있습니다.
절차
- 모니터링 → 네트워크 트래픽 으로 이동합니다.
- 네트워크 트래픽 페이지에서 트래픽 흐름 탭을 클릭합니다.
각 행을 클릭하여 해당 흐름 정보를 가져올 수 있습니다.
36.7.2.2. 트래픽 흐름 보기에 대한 고급 옵션 구성
고급 옵션 표시를 사용하여 보기를 사용자 지정하고 내보낼 수 있습니다. 표시 옵션 드롭다운 메뉴를 사용하여 행 크기를 설정할 수 있습니다. 기본값은 Normal 입니다.
36.7.2.2.1. 열 관리
표시되는 데 필요한 열을 선택하고 순서를 다시 정렬할 수 있습니다. 열을 관리하려면 열 관리를 클릭합니다.
36.7.2.2.2. 트래픽 흐름 데이터 내보내기
트래픽 흐름 보기에서 데이터를 내보낼 수 있습니다.
절차
- 데이터 내보내기 를 클릭합니다.
- 팝업 창에서 모든 데이터를 내보내려면 모든 데이터 내보내기 확인란을 선택하고, 내보낼 필수 필드를 선택하려면 확인란의 선택을 취소할 수 있습니다.
- 내보내기 를 클릭합니다.
36.7.2.3. 대화 추적 작업
관리자는 동일한 대화의 일부인 네트워크 흐름을 그룹화할 수 있습니다. 대화는 IP 주소, 포트 및 프로토콜로 식별되는 피어 그룹으로 정의되므로 고유한 대화 Id 가 생성됩니다. 웹 콘솔에서 대화 이벤트를 쿼리할 수 있습니다. 이러한 이벤트는 다음과 같이 웹 콘솔에서 표시됩니다.
- conversation start: 이 이벤트는 연결이 시작되거나 TCP 플래그를 가로채는 경우 발생합니다.
-
conversation tick: 이 이벤트는 연결이 활성 상태인 동안
FlowCollectorspec.processor.conversationHeartbeatInterval매개변수에 정의된 지정된 간격마다 발생합니다. -
대화 종료:
FlowCollectorspec.processor.conversationEndTimeout매개변수에 도달하거나 TCP 플래그를 가로채는 경우 발생합니다. - flow: 지정된 간격 내에서 발생하는 네트워크 트래픽 흐름입니다.
절차
- 웹 콘솔에서 Operator → 설치된 Operator 로 이동합니다.
- NetObserv Operator 의 제공된 API 제목에서 Flow Collector 를 선택합니다.
- cluster 를 선택한 다음 YAML 탭을 선택합니다.
spec.processor.logTypes,conversationEndTimeout및conversationHeartbeatInterval매개변수가 관찰 요구 사항에 따라 설정되도록FlowCollector사용자 지정 리소스를 구성합니다. 샘플 구성은 다음과 같습니다.대화 추적을 위해
FlowCollector구성apiVersion: flows.netobserv.io/v1alpha1 kind: FlowCollector metadata: name: cluster spec: processor: conversationEndTimeout: 10s 1 logTypes: FLOWS 2 conversationHeartbeatInterval: 30s 3
- 1
- Conversation 종료 이벤트는
conversationEndTimeout에 도달하거나 TCP 플래그를 가로채는 지점을 나타냅니다. - 2
logTypes가FLOWS로 설정되면 흐름 이벤트만 내보내집니다. 이 값을ALL로 설정하면 대화 이벤트와 흐름 이벤트가 모두 내보내지고 네트워크 트래픽 페이지에 표시됩니다. 대화 이벤트에만 집중하려면 대화 시작, 대화 눈금 및 대화 종료 이벤트를 내보내는CONVERSATIONS 를 지정하거나ENDED_CONVERSATIONS는 Conversation 종료 이벤트만 내보냅니다.ENDED_CONVERSATIONS의 경우모든스토리지 요구 사항이 가장 높고 가장 낮습니다.- 3
- Conversation tick 이벤트는 네트워크 연결이 활성화된 동안
FlowCollectorconversationHeartbeatInterval매개변수에 정의된 각 지정된 간격을 나타냅니다.
참고logType옵션을 업데이트하면 이전 선택에서의 흐름이 콘솔 플러그인에서 지워지지 않습니다. 예를 들어 처음 오전 10시까지의 기간 동안logType을CONVERSATIONS로 설정한 후ENDED_CONVERSATIONS로 이동하면 콘솔 플러그인은 10시 이전에 모든 대화 이벤트를 표시하고 대화가 오전 10시 후에만 종료됩니다.-
트래픽 흐름 탭에서 네트워크 트래픽 페이지를 새로 고칩니다. 두 개의 새 열인 Event/Type 및 Conversation Id 가 있습니다. 모든 이벤트/유형 필드는
Flow가 선택한 쿼리 옵션인 경우 Flow 입니다. - 쿼리 옵션을 선택하고 Log Type, Conversation 을 선택합니다. 이제 이벤트/유형 은 원하는 모든 대화 이벤트를 표시합니다.
- 다음으로 특정 대화 ID를 필터링하거나 측면 패널에서 Conversation 및 Flow 로그 유형 옵션을 전환할 수 있습니다.
36.7.2.3.1. 히스토그램 사용
히스토그램 표시를 클릭하여 흐름 내역을 막대형 차트로 시각화하기 위한 도구 모음 보기 를 표시할 수 있습니다. 히스토그램은 시간에 따른 로그 수를 표시합니다. 히스토그램의 일부를 선택하여 도구 모음을 따르는 테이블의 네트워크 흐름 데이터를 필터링할 수 있습니다.
36.7.3. 토폴로지 보기에서 네트워크 트래픽 관찰
토폴로지 보기는 네트워크 흐름과 트래픽 양을 그래픽으로 나타냅니다. 관리자는 토폴로지 보기를 사용하여 애플리케이션 전체의 트래픽 데이터를 모니터링할 수 있습니다.
36.7.3.1. 토폴로지 보기 작업
관리자는 토폴로지 보기로 이동하여 구성 요소의 세부 정보 및 지표를 확인할 수 있습니다.
절차
- 모니터링 → 네트워크 트래픽 으로 이동합니다.
- 네트워크 트래픽 페이지에서 토폴로지 탭을 클릭합니다.
토폴로지 에서 각 구성 요소를 클릭하면 구성 요소의 세부 정보 및 지표를 확인할 수 있습니다.
36.7.3.2. 토폴로지 보기에 대한 고급 옵션 구성
고급 옵션 표시를 사용하여 보기를 사용자 지정하고 내보낼 수 있습니다. 고급 옵션 보기에는 다음과 같은 기능이 있습니다.
- 보기: 보기에서 필요한 구성 요소를 검색하려면 다음을 수행하십시오.
표시 옵션: 다음 옵션을 구성하려면 다음을 수행합니다.
- layout - 그래픽 표현의 레이아웃을 선택합니다. 기본값은 ColaNoForce 입니다.
- 범위: 네트워크 트래픽이 이동하는 구성 요소의 범위를 선택합니다. 기본값은 Namespace 입니다.
- groups: 구성 요소를 그룹화하여 소유권에 대한 이해를 부여합니다. 기본값은 None 입니다.
- 그룹 축소: 그룹을 확장하거나 축소하려면 다음을 수행합니다. 그룹은 기본적으로 확장됩니다. Groups 값이 None 인 경우 이 옵션은 비활성화되어 있습니다.
- Display: 표시해야 하는 세부 사항을 선택하려면 다음을 수행하십시오. 모든 옵션은 기본적으로 선택되어 있습니다. 사용 가능한 옵션은 Edges 레이블, Edges 레이블 및 10.0.0.1 ges입니다.
- truncate labels: 드롭다운 목록에서 라벨의 필요한 너비를 선택하려면. 기본값은 M 입니다.
36.7.3.2.1. 토폴로지 보기 내보내기
보기를 내보내려면 토폴로지 내보내기 보기 를 클릭합니다. 보기는 PNG 형식으로 다운로드됩니다.
36.7.4. 네트워크 트래픽 필터링
기본적으로 네트워크 트래픽 페이지에는 FlowCollector 인스턴스에 구성된 기본 필터를 기반으로 클러스터의 트래픽 흐름 데이터가 표시됩니다. 사전 설정된 필터 필터를 변경하여 필터 옵션을 사용하여 필요한 데이터를 관찰할 수 있습니다.
- 쿼리 옵션
쿼리 옵션을 사용하여 아래와 같이 검색 결과를 최적화할 수 있습니다.
- Log Type: 사용 가능한 옵션 Conversation and Flows 는 흐름 로그, 새 대화, 완료된 대화 및 하트비트와 같은 로그 유형별 흐름을 쿼리할 수 있는 기능을 제공합니다. 이는 긴 대화에 대한 업데이트와 정기적인 레코드입니다. 대화는 동일한 피어 간 흐름 집계입니다.
- reporter Node: 모든 흐름은 소스 노드와 대상 노드 모두에서 보고할 수 있습니다. 클러스터 인그레스의 경우 흐름은 대상 노드에서 보고되고 클러스터 송신의 경우 소스 노드에서 흐름이 보고됩니다. Source 또는 Destination 을 선택할 수 있습니다. 개요 및 토폴로지 보기에 대해 옵션 Both 가 비활성화되어 있습니다. 선택한 기본값은 Destination 입니다.
- 일치 필터: 고급 필터에서 선택한 다양한 필터 매개변수 간 관계를 확인할 수 있습니다. 사용 가능한 옵션은 모두 일치하고 모든 항목에 대응합니다. 일치는 모든 값과 일치하는 결과를 제공하고 입력한 값과 일치하는 결과를 제공합니다. 기본값은 all과 일치합니다.
- limit: 내부 백엔드 쿼리에 대한 데이터 제한입니다. 일치 및 필터 설정에 따라 트래픽 흐름 데이터 수가 지정된 제한 내에 표시됩니다.
- 빠른 필터
-
빠른 필터 드롭다운 메뉴의 기본값은
FlowCollector구성에 정의됩니다. 콘솔에서 옵션을 수정할 수 있습니다. - 고급 필터
- 필터링할 매개변수와 해당 텍스트 값을 제공하여 고급 필터를 설정할 수 있습니다. 매개 변수 드롭다운 목록의 Common 섹션은 Source 또는 Destination 과 일치하는 결과를 필터링합니다. 적용된 필터를 활성화 또는 비활성화하려면 필터 옵션 아래에 나열된 적용된 필터를 클릭할 수 있습니다.
텍스트 값을 지정하는 규칙을 이해하려면 learn More 을 클릭합니다.
기본 필터 재설정 을 클릭하여 기존 필터를 제거하고 FlowCollector 구성에 정의된 필터를 적용할 수 있습니다.
또는 네임스페이스, 서비스, 경로, 노드 및 워크로드 페이지의 네트워크 트래픽 탭에서 해당 집계의 필터링된 데이터를 제공하는 트래픽 흐름 데이터에 액세스할 수 있습니다.
추가 리소스
FlowCollector 의 빠른 필터 구성에 대한 자세한 내용은 빠른 필터 및 흐름 수집기 샘플 리소스 구성을 참조하십시오.
36.8. Network Observability Operator 모니터링
웹 콘솔을 사용하여 Network Observability Operator의 상태와 관련된 경고를 모니터링할 수 있습니다.
36.8.1. 상태 정보 보기
웹 콘솔의 대시보드 페이지에서 Network Observability Operator의 상태 및 리소스 사용에 대한 메트릭에 액세스할 수 있습니다. 대시보드로 지시하는 상태 경고 배너는 경고가 트리거되는 경우 네트워크 트래픽 및 홈 페이지에 나타날 수 있습니다. 경고는 다음과 같은 경우에 생성됩니다.
-
NetObservLokiError 경고는
flowlogs-pipeline워크로드가 CloudEvent 오류로 인해 flows를 삭제하는 경우(예: CloudEvent ingestion 속도 제한에 도달한 경우) 경고가 발생합니다. - NetObservNoFlows 경고는 일정 시간 동안 흐름을 사용하지 않는 경우 발생합니다.
- Network Observability Operator가 설치되어 있어야 합니다.
-
cluster-admin역할의 사용자 또는 모든 프로젝트에 대한 보기 권한이 있는 사용자로 클러스터에 액세스할 수 있습니다.
절차
- 웹 콘솔의 관리자 관점에서 Observe → Dashboards 로 이동합니다.
- 대시보드 드롭다운에서 Netobserv/Health 을 선택합니다. Operator 상태에 대한 지표가 페이지에 표시됩니다.
36.8.1.1. 상태 경고 비활성화
FlowCollector 리소스를 편집하여 상태 경고를 옵트아웃할 수 있습니다.
- 웹 콘솔에서 Operator → 설치된 Operator 로 이동합니다.
- NetObserv Operator 의 제공된 API 제목에서 Flow Collector 를 선택합니다.
- cluster 를 선택한 다음 YAML 탭을 선택합니다.
-
spec.processor.metrics.disableAlerts를 추가하여 다음 YAML 샘플과 같이 상태 경고를 비활성화합니다.
apiVersion: flows.netobserv.io/v1alpha1
kind: FlowCollector
metadata:
name: cluster
spec:
processor:
metrics:
disableAlerts: [NetObservLokiError, NetObservNoFlows] 1- 1
- 비활성화할 경고 유형을 모두 사용하여 하나 또는 목록을 지정할 수 있습니다.
36.9. FlowCollector 구성 매개변수
FlowCollector는 기본 배포를 시험하고 구성하는 네트워크 흐름 컬렉션 API의 스키마입니다.
36.9.1. FlowCollector API 사양
- 설명
-
FlowCollector는 기본 배포를 시험하고 구성하는 네트워크 흐름 컬렉션 API의 스키마입니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| APIVersion은 버전이 지정된 이 오브젝트 표현의 스키마를 정의합니다. 서버는 인식된 스키마를 최신 내부 값으로 변환해야 하며 인식되지 않는 값을 거부할 수 있습니다. 자세한 내용은 https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#resources |
|
|
| kind는 이 오브젝트가 나타내는 REST 리소스에 해당하는 문자열 값입니다. 서버는 클라이언트에서 요청을 제출한 끝점에서 이를 유추할 수 있습니다. CamelCase로 업데이트할 수 없습니다. 자세한 내용은 https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#types-kinds |
|
|
| 표준 오브젝트의 메타데이터입니다. 자세한 내용은 https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#metadata |
|
|
|
|
36.9.1.1. .metadata
- 설명
- 표준 오브젝트의 메타데이터입니다. 자세한 내용은 https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#metadata
- 유형
-
object
36.9.1.2. .spec
- 설명
-
FlowCollectorSpec은 FlowCollector 리소스의 원하는 상태를 정의합니다.
*: 이 문서 전체에서 기능에 대해 "지원되지 않음" 또는 "더 이상 사용되지 않음" 은 이 기능이 Red Hat에서 공식적으로 지원하지 않음을 의미합니다. 예를 들어 커뮤니티에서 기여하고 유지 관리를 위한 공식적인 동의 없이 수락되었을 수 있습니다. 제품 유지 관리자는 최상의 노력으로 이러한 기능에 대한 지원을 제공할 수 있습니다. - 유형
-
object - 필수 항목
-
에이전트 -
deploymentModel
-
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| 흐름 추출에 대한 에이전트 구성입니다. |
|
|
|
Console |
|
|
|
|
|
|
|
|
|
|
|
Kafka 구성으로 Kafka를 흐름 컬렉션 파이프라인의 일부로 브로커로 사용할 수 있습니다. |
|
|
| 로키, 흐름 저장소, 클라이언트 설정 |
|
|
| NetObserv Pod가 배포되는 네임스페이스입니다. 비어 있는 경우 Operator의 네임스페이스가 사용됩니다. |
|
|
|
|
36.9.1.3. .spec.agent
- 설명
- 흐름 추출에 대한 에이전트 구성입니다.
- 유형
-
object - 필수 항목
-
type
-
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
36.9.1.4. .spec.agent.ebpf
- 설명
-
eBPF는spec.agent.type이 CryostatPF로 설정된 경우 eBPF 기반 flow reporter와 관련된 설정을 설명합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| eBPF 에이전트 컨테이너의 권한 모드입니다. 일반적으로 이 설정은 무시하거나 false로 설정할 수 있습니다. 이 경우 Operator는 세분화된 기능(BPF, PERFMON, NET_ADMIN, SYS_RESOURCE)을 컨테이너에 설정하여 올바른 작업을 활성화합니다. 어떤 이유로 CAP_BPF를 인식하지 못하는 이전 커널 버전이 사용 중인 경우와 같이 이러한 기능을 설정할 수 없는 경우 더 많은 글로벌 권한을 위해 이 모드를 해제할 수 있습니다. |
|
|
|
|
|
|
| 흐름 보고기의 샘플링 속도입니다. 100은 100에 하나의 흐름이 전송되었음을 의미합니다. 0 또는 1은 모든 흐름이 샘플링됨을 의미합니다. |
36.9.1.5. .spec.agent.ebpf.debug
- 설명
-
debug를 사용하면 eBPF 에이전트의 내부 구성의 일부 측면을 설정할 수 있습니다. 이 섹션은 GOGC 및 GOMAXPROCS env vars와 같은 디버깅 및 세분화된 성능 최적화만을 위한 것입니다. 값을 설정하면 사용자가 자신의 위험을 감수해야 합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
36.9.1.6. .spec.agent.ebpf.resources
- 설명
-
리소스는이 컨테이너에 필요한 컴퓨팅 리소스입니다. 자세한 내용은 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/ - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| limits는 허용되는 최대 컴퓨팅 리소스 양을 설명합니다. 자세한 내용은 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/ |
|
|
| requests는 필요한 최소 컴퓨팅 리소스 양을 설명합니다. 컨테이너에 대한 요청이 생략된 경우 해당 요청은 명시적으로 지정되고 그렇지 않으면 구현 정의 값으로 기본 설정됩니다. 자세한 내용은 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/ |
36.9.1.7. .spec.agent.ipfix
- 설명
-
IPFIX - 더 이상 사용되지 않는 (*) -spec.agent.type이 IPFIX로 설정된 경우IPFIX기반 흐름 보고기와 관련된 설정을 설명합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
36.9.1.8. .spec.agent.ipfix.clusterNetworkOperator
- 설명
-
clusterNetworkOperator는 사용 가능한 경우 OpenShift Container Platform Cluster Network Operator와 관련된 설정을 정의합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| 구성 맵을 배포할 네임스페이스입니다. |
36.9.1.9. .spec.agent.ipfix.ovnKubernetes
- 설명
-
OVNKubernetes는 사용 가능한 경우 OVN-Kubernetes CNI의 설정을 정의합니다. 이 구성은 OpenShift Container Platform 없이 OVN의 IPFIX 내보내기를 사용할 때 사용됩니다. OpenShift Container Platform을 사용하는 경우 대신clusterNetworkOperator속성을 참조하십시오. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| OVN-Kubernetes Pod가 배포되는 네임스페이스입니다. |
36.9.1.10. .spec.consolePlugin
- 설명
-
Console
Plugin은 사용 가능한 경우 OpenShift Container Platform 콘솔 플러그인과 관련된 설정을 정의합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
플러그인 배포에 설정할 수평 Pod 자동 스케일러의 자동 스케일러 사양입니다. |
|
|
|
|
|
|
|
콘솔 플러그인 백엔드의 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
이 컨테이너에 필요한 컴퓨팅 리소스 측면에서 리소스입니다. |
36.9.1.11. .spec.consolePlugin.autoscaler
- 설명
-
플러그인 배포에 설정할 수평 Pod 자동 스케일러의 자동 스케일러 사양입니다.
HorizontalPodAutoscaler 문서(autoscaling/v2)를 참조하십시오. - 유형
-
object
36.9.1.12. .spec.consolePlugin.portNaming
- 설명
-
portNaming은 port-to-service 이름 변환의 구성을 정의합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| 콘솔 플러그인 포트-서비스 이름 변환을 활성화 |
|
|
|
|
36.9.1.13. .spec.consolePlugin.quickFilters
- 설명
-
quickFilters는 Console 플러그인에 대한 빠른 필터 사전 설정을 구성합니다. - 유형
-
array
36.9.1.14. .spec.consolePlugin.quickFilters[]
- 설명
-
QuickFilter는 콘솔의 빠른 필터에 대한 사전 설정 구성을 정의합니다. - 유형
-
object - 필수 항목
-
filter -
name
-
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| 콘솔에 표시되는 필터의 이름 |
36.9.1.15. .spec.consolePlugin.resources
- 설명
-
이 컨테이너에 필요한 컴퓨팅 리소스 측면에서 리소스입니다.
자세한 내용은 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/ - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| limits는 허용되는 최대 컴퓨팅 리소스 양을 설명합니다. 자세한 내용은 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/ |
|
|
| requests는 필요한 최소 컴퓨팅 리소스 양을 설명합니다. 컨테이너에 대한 요청이 생략된 경우 해당 요청은 명시적으로 지정되고 그렇지 않으면 구현 정의 값으로 기본 설정됩니다. 자세한 내용은 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/ |
36.9.1.16. .spec.exporters
- 설명
-
내보내기는 사용자 정의 사용 또는 스토리지에 대한 추가 선택적 내보내기를 정의합니다. - 유형
-
array
36.9.1.17. .spec.exporters[]
- 설명
-
FlowCollectorExporter는 보강된 흐름을 보낼 추가 내보내기를 정의합니다. - 유형
-
object - 필수 항목
-
type
-
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| 강화된 IPFIX 흐름을 보내기 위한 IP 주소 및 포트와 같은 IPFIX 구성입니다. 지원되지 않음(*) |
|
|
| 풍요한 흐름을 보내기 위한 주소 및 주제와 같은 Kafka 구성입니다. |
|
|
|
|
36.9.1.18. .spec.exporters[].ipfix
- 설명
- 강화된 IPFIX 흐름을 보내기 위한 IP 주소 및 포트와 같은 IPFIX 구성입니다. 지원되지 않음(*)
- 유형
-
object - 필수 항목
-
targetHost -
targetPort
-
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| IPFIX 외부 수신자의 주소 |
|
|
| IPFIX 외부 수신자용 포트 |
|
|
|
IPFIX 연결에 사용되는 전송 프로토콜( |
36.9.1.19. .spec.exporters[].kafka
- 설명
- 풍요한 흐름을 보내기 위한 주소 및 주제와 같은 Kafka 구성입니다.
- 유형
-
object - 필수 항목
-
address -
주제
-
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| Kafka 서버의 주소 |
|
|
|
TLS 클라이언트 구성. TLS를 사용하는 경우 주소가 TLS에 사용되는 Kafka 포트(일반적으로 9093)와 일치하는지 확인합니다. eBPF 에이전트를 사용하는 경우 에이전트 네임스페이스에 Kafka 인증서를 복사해야 합니다(기본적으로 |
|
|
| 사용할 Kafka 주제입니다. NetObserv가 이를 생성하지 않아야 합니다. |
36.9.1.20. .spec.exporters[].kafka.tls
- 설명
-
TLS 클라이언트 구성. TLS를 사용하는 경우 주소가 TLS에 사용되는 Kafka 포트(일반적으로 9093)와 일치하는지 확인합니다. eBPF 에이전트를 사용하는 경우 에이전트 네임스페이스에 Kafka 인증서를 복사해야 합니다(기본적으로
netobserv-privileged). - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
| TLS 활성화 |
|
|
|
|
|
|
|
|
36.9.1.21. .spec.exporters[].kafka.tls.caCert
- 설명
-
cacert는 인증기관의 인증서 참조를 정의합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 이름 |
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 네임스페이스입니다. 생략하면 NetObserv가 배포된 네임스페이스와 동일한 네임스페이스를 가정합니다. 네임스페이스가 다르면 필요에 따라 마운트할 수 있도록 구성 맵 또는 시크릿이 복사됩니다. |
|
|
|
인증서 참조에 대한 유형: |
36.9.1.22. .spec.exporters[].kafka.tls.userCert
- 설명
-
UserCert는 사용자 인증서 참조를 정의하고 mTLS에 사용됩니다(단방향 TLS 사용 시 무시할 수 있음) - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 이름 |
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 네임스페이스입니다. 생략하면 NetObserv가 배포된 네임스페이스와 동일한 네임스페이스를 가정합니다. 네임스페이스가 다르면 필요에 따라 마운트할 수 있도록 구성 맵 또는 시크릿이 복사됩니다. |
|
|
|
인증서 참조에 대한 유형: |
36.9.1.23. .spec.kafka
- 설명
-
Kafka 구성으로 Kafka를 흐름 컬렉션 파이프라인의 일부로 브로커로 사용할 수 있습니다.
spec.deploymentModel이KAFKA인 경우 사용할 수 있습니다. - 유형
-
object - 필수 항목
-
address -
주제
-
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| Kafka 서버의 주소 |
|
|
|
TLS 클라이언트 구성. TLS를 사용하는 경우 주소가 TLS에 사용되는 Kafka 포트(일반적으로 9093)와 일치하는지 확인합니다. eBPF 에이전트를 사용하는 경우 에이전트 네임스페이스에 Kafka 인증서를 복사해야 합니다(기본적으로 |
|
|
| 사용할 Kafka 주제입니다. NetObserv가 이를 생성하지 않아야 합니다. |
36.9.1.24. .spec.kafka.tls
- 설명
-
TLS 클라이언트 구성. TLS를 사용하는 경우 주소가 TLS에 사용되는 Kafka 포트(일반적으로 9093)와 일치하는지 확인합니다. eBPF 에이전트를 사용하는 경우 에이전트 네임스페이스에 Kafka 인증서를 복사해야 합니다(기본적으로
netobserv-privileged). - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
| TLS 활성화 |
|
|
|
|
|
|
|
|
36.9.1.25. .spec.kafka.tls.caCert
- 설명
-
cacert는 인증기관의 인증서 참조를 정의합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 이름 |
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 네임스페이스입니다. 생략하면 NetObserv가 배포된 네임스페이스와 동일한 네임스페이스를 가정합니다. 네임스페이스가 다르면 필요에 따라 마운트할 수 있도록 구성 맵 또는 시크릿이 복사됩니다. |
|
|
|
인증서 참조에 대한 유형: |
36.9.1.26. .spec.kafka.tls.userCert
- 설명
-
UserCert는 사용자 인증서 참조를 정의하고 mTLS에 사용됩니다(단방향 TLS 사용 시 무시할 수 있음) - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 이름 |
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 네임스페이스입니다. 생략하면 NetObserv가 배포된 네임스페이스와 동일한 네임스페이스를 가정합니다. 네임스페이스가 다르면 필요에 따라 마운트할 수 있도록 구성 맵 또는 시크릿이 복사됩니다. |
|
|
|
인증서 참조에 대한 유형: |
36.9.1.27. .spec.loki
- 설명
- 로키, 흐름 저장소, 클라이언트 설정
- 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| Loki 상태 URL에 대한 TLS 클라이언트 구성 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| Loki URL에 대한 TLS 클라이언트 구성 |
|
|
|
|
36.9.1.28. .spec.loki.statusTls
- 설명
- Loki 상태 URL에 대한 TLS 클라이언트 구성
- 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
| TLS 활성화 |
|
|
|
|
|
|
|
|
36.9.1.29. .spec.loki.statusTls.caCert
- 설명
-
cacert는 인증기관의 인증서 참조를 정의합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 이름 |
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 네임스페이스입니다. 생략하면 NetObserv가 배포된 네임스페이스와 동일한 네임스페이스를 가정합니다. 네임스페이스가 다르면 필요에 따라 마운트할 수 있도록 구성 맵 또는 시크릿이 복사됩니다. |
|
|
|
인증서 참조에 대한 유형: |
36.9.1.30. .spec.loki.statusTls.userCert
- 설명
-
UserCert는 사용자 인증서 참조를 정의하고 mTLS에 사용됩니다(단방향 TLS 사용 시 무시할 수 있음) - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 이름 |
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 네임스페이스입니다. 생략하면 NetObserv가 배포된 네임스페이스와 동일한 네임스페이스를 가정합니다. 네임스페이스가 다르면 필요에 따라 마운트할 수 있도록 구성 맵 또는 시크릿이 복사됩니다. |
|
|
|
인증서 참조에 대한 유형: |
36.9.1.31. .spec.loki.tls
- 설명
- Loki URL에 대한 TLS 클라이언트 구성
- 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
| TLS 활성화 |
|
|
|
|
|
|
|
|
36.9.1.32. .spec.loki.tls.caCert
- 설명
-
cacert는 인증기관의 인증서 참조를 정의합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 이름 |
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 네임스페이스입니다. 생략하면 NetObserv가 배포된 네임스페이스와 동일한 네임스페이스를 가정합니다. 네임스페이스가 다르면 필요에 따라 마운트할 수 있도록 구성 맵 또는 시크릿이 복사됩니다. |
|
|
|
인증서 참조에 대한 유형: |
36.9.1.33. .spec.loki.tls.userCert
- 설명
-
UserCert는 사용자 인증서 참조를 정의하고 mTLS에 사용됩니다(단방향 TLS 사용 시 무시할 수 있음) - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 이름 |
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 네임스페이스입니다. 생략하면 NetObserv가 배포된 네임스페이스와 동일한 네임스페이스를 가정합니다. 네임스페이스가 다르면 필요에 따라 마운트할 수 있도록 구성 맵 또는 시크릿이 복사됩니다. |
|
|
|
인증서 참조에 대한 유형: |
36.9.1.34. .spec.processor
- 설명
-
프로세서는에이전트에서 흐름을 수신하고, 보강하고, 메트릭을 생성하고, Loki 지속성 계층 및/또는 사용 가능한 내보내기로 전달하는 구성 요소의 설정을 정의합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
프로세서 런타임의 |
|
|
|
|
|
|
|
|
|
|
| 흐름 수집기(호스트 포트)의 포트입니다. 일부 값은 허용되지 않습니다. 1024보다 크고 4500, 4789 및 6081과 달라야 합니다. |
|
|
|
|
|
|
|
|
36.9.1.35. .spec.processor.debug
- 설명
-
debug를 사용하면 흐름 프로세서의 내부 구성의 일부 측면을 설정할 수 있습니다. 이 섹션은 GOGC 및 GOMAXPROCS env vars와 같은 디버깅 및 세분화된 성능 최적화만을 위한 것입니다. 값을 설정하면 사용자가 자신의 위험을 감수해야 합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
36.9.1.36. .spec.processor.kafkaConsumerAutoscaler
- 설명
-
kafkaConsumerAutoscaler는 Kafka 메시지를 사용하는flowlogs-pipeline-transformer에 대해 설정하는 수평 Pod 자동 스케일러의 사양입니다. Kafka가 비활성화되면 이 설정이 무시됩니다. HorizontalPodAutoscaler 문서(autoscaling/v2)를 참조하십시오. - 유형
-
object
36.9.1.37. .spec.processor.metrics
- 설명
-
메트릭은 메트릭과 관련된 프로세서 구성을 정의합니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| Prometheus 스크랩에 대한 메트릭 서버 끝점 구성 |
36.9.1.38. .spec.processor.metrics.server
- 설명
- Prometheus 스크랩에 대한 메트릭 서버 끝점 구성
- 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| prometheus HTTP 포트 |
|
|
| TLS 구성입니다. |
36.9.1.39. .spec.processor.metrics.server.tls
- 설명
- TLS 구성입니다.
- 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
TLS 구성 유형 |
36.9.1.40. .spec.processor.metrics.server.tls.provided
- 설명
-
유형이PROVIDED로 설정된 경우 TLS 구성입니다. - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 이름 |
|
|
| 인증서가 포함된 구성 맵 또는 시크릿의 네임스페이스입니다. 생략하면 NetObserv가 배포된 네임스페이스와 동일한 네임스페이스를 가정합니다. 네임스페이스가 다르면 필요에 따라 마운트할 수 있도록 구성 맵 또는 시크릿이 복사됩니다. |
|
|
|
인증서 참조에 대한 유형: |
36.9.1.41. .spec.processor.resources
- 설명
-
리소스는이 컨테이너에 필요한 컴퓨팅 리소스입니다. 자세한 내용은 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/ - 유형
-
object
| 속성 | 유형 | 설명 |
|---|---|---|
|
|
| limits는 허용되는 최대 컴퓨팅 리소스 양을 설명합니다. 자세한 내용은 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/ |
|
|
| requests는 필요한 최소 컴퓨팅 리소스 양을 설명합니다. 컨테이너에 대한 요청이 생략된 경우 해당 요청은 명시적으로 지정되고 그렇지 않으면 구현 정의 값으로 기본 설정됩니다. 자세한 내용은 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/ |
36.10. 네트워크 흐름 형식 참조
이는 내부 및 Kafka로 흐름을 내보낼 때 사용되는 네트워크 흐름 형식에 대한 사양입니다.
36.10.1. 네트워크 흐름 형식 참조
이 문서는 두 가지 주요 카테고리로 구성됩니다: 라벨 및 일반 필드. 이 차이점은 CloudEvent를 쿼리할 때만 중요합니다. 이는 라벨, 필드 와 달리 스트림 선택기 에 사용해야하기 때문입니다.
이 사양을 Kafka 내보내기 기능에 대한 참조로 읽는 경우 모든 레이블 및 필드 를 regualr 필드로 처리하고, 해당 사양과 관련된 구분은 무시해야 합니다.
36.10.1.1. 라벨
- SrcK8S_Namespace
-
선택 사항SrcK8S_Namespace:string
-
소스 네임스페이스
- DstK8S_Namespace
-
선택적DstK8S_Namespace:string
-
대상 네임스페이스
- SrcK8S_OwnerName
-
선택 사항SrcK8S_OwnerName:string
-
소스 소유자(예: Deployment, StatefulSet 등)
- DstK8S_OwnerName
-
선택적DstK8S_OwnerName:string
-
배포, StatefulSet 등과 같은 대상 소유자입니다.
- FlowDirection
- FlowDirection: 자세한 내용은 Enumeration: FlowDirection 섹션을 참조하십시오.
노드 관찰 지점의 흐름 방향
- _RecordType
-
선택 사항_RecordType:RecordType
-
레코드 유형: 정기적인 흐름 로그의 경우 'flowLog', 'allConnections', 'newConnection', 'heartbeat', 'endConnection' for conversation tracking
36.10.1.2. 필드
- SrcAddr
-
SrcAddr:
string
-
SrcAddr:
소스 IP 주소(ipv4 또는 ipv6)
- DstAddr
-
DstAddr:
문자열
-
DstAddr:
대상 IP 주소(ipv4 또는 ipv6)
- SrcMac
-
srcMac:
문자열
-
srcMac:
소스 MAC 주소
- DstMac
-
DstMac:
string
-
DstMac:
대상 MAC 주소
- SrcK8S_Name
-
선택 사항SrcK8S_Name:string
-
Pod 이름, 서비스 이름 등과 같은 Kubernetes 오브젝트의 이름입니다.
- DstK8S_Name
-
선택적DstK8S_Name:string
-
Pod 이름, 서비스 이름 등과 같은 Kubernetes 오브젝트의 대상 이름입니다.
- SrcK8S_Type
-
선택 사항SrcK8S_Type:string
-
Pod, 서비스 등과 같은 Kubernetes 오브젝트와 일치하는 소스의 종류입니다.
- DstK8S_Type
-
선택적DstK8S_Type:string
-
Pod 이름, 서비스 이름 등과 같은 Kubernetes 오브젝트와 일치하는 대상의 종류입니다.
- SrcPort
-
srcPort:
번호
-
srcPort:
소스 포트
- DstPort
-
DstPort:
number
-
DstPort:
대상 포트
- SrcK8S_OwnerType
-
선택 사항SrcK8S_OwnerType:string
-
Deployment, StatefulSet 등과 같은 소스 Kubernetes 소유자입니다.
- DstK8S_OwnerType
-
선택적DstK8S_OwnerType:문자열
-
Deployment, StatefulSet 등과 같은 대상 Kubernetes 소유자의 종류입니다.
- SrcK8S_HostIP
-
선택 사항SrcK8S_HostIP:string
-
소스 노드 IP
- DstK8S_HostIP
-
선택적DstK8S_HostIP:문자열
-
대상 노드 IP
- SrcK8S_HostName
-
선택 사항SrcK8S_HostName:string
-
소스 노드 이름
- DstK8S_HostName
-
선택적DstK8S_HostName:string
-
대상 노드 이름
- proto
-
Proto:
번호
-
Proto:
L4 프로토콜
- 인터페이스
-
선택적인터페이스:문자열
-
네트워크 인터페이스
- 패킷
-
패킷:
번호
-
패킷:
이 흐름의 패킷 수
- Packets_AB
-
선택적Packets_AB:번호
-
대화 추적에서 A to B packets counter per conversation
- Packets_BA
-
선택적Packets_BA:number
-
대화 추적에서 B to A packet counter per conversation
- 바이트
-
바이트:
번호
-
바이트:
이 흐름의 바이트 수
- Bytes_AB
-
선택적ScanSettings_AB:번호
-
대화 추적에서, A to B bytes 카운터 per conversation
- Bytes_BA
-
선택적#177s_BA:번호
-
대화 추적에서 B에서 바이트 카운터로 대화당 카운터
- TimeFlowStartMs
-
TimeFlowStartMs:
number
-
TimeFlowStartMs:
이 흐름의 타임스탬프(밀리초)
- TimeFlowEndMs
-
TimeFlowEndMs:
number
-
TimeFlowEndMs:
이 흐름의 종료 시간(밀리초)
- TimeReceived
-
TimeReceived:
number
-
TimeReceived:
흐름 수집기에 의해 수신 및 처리되었을 때의 타임 스탬프(초)
- _HashId
-
선택 사항_HashId:문자열
-
대화 추적에서, 대화 식별자 In conversation tracking, the conversation identifier
- _IsFirst
-
선택 사항:문자열
-
대화 추적에서, 첫 번째 흐름을 식별하는 플래그
- numFlowLogs
-
OptionalnumFlowLogs:number
-
대화 추적에서 대화당 흐름 로그의 카운터
36.10.1.3. CloudEvent: FlowDirection
- Ingress
-
Ingress =
"0"
-
Ingress =
노드 관찰 지점에서 들어오는 트래픽
- Egress
-
Egress =
"1"
-
Egress =
노드 관찰 지점에서 나가는 트래픽
36.11. 네트워크 관찰 문제 해결
네트워크 관찰 문제 해결을 지원하기 위해 몇 가지 문제 해결 작업을 수행할 수 있습니다.
36.11.1. must-gather 툴 사용
must-gather 툴을 사용하여 Network Observability Operator 리소스 및 Pod 로그, FlowCollector, Webhook 구성과 같은 클러스터 전체 리소스에 대한 정보를 수집할 수 있습니다.
절차
- must-gather 데이터를 저장하려는 디렉터리로 이동합니다.
다음 명령을 실행하여 클러스터 전체 must-gather 리소스를 수집합니다.
$ oc adm must-gather --image-stream=openshift/must-gather \ --image=quay.io/netobserv/must-gather
36.11.2. OpenShift Container Platform 콘솔에서 네트워크 트래픽 메뉴 항목 구성
네트워크 트래픽 메뉴 항목이 OpenShift Container Platform 콘솔의 Observe 메뉴에 나열되지 않은 경우 OpenShift Container Platform 콘솔에서 네트워크 트래픽 메뉴 항목을 수동으로 구성합니다.
사전 요구 사항
- OpenShift Container Platform 버전 4.10 이상이 설치되어 있습니다.
절차
다음 명령을 실행하여
spec.consolePlugin.register필드가true로 설정되어 있는지 확인합니다.$ oc -n netobserv get flowcollector cluster -o yaml
출력 예
apiVersion: flows.netobserv.io/v1alpha1 kind: FlowCollector metadata: name: cluster spec: consolePlugin: register: false선택 사항: Console Operator 구성을 수동으로 편집하여
netobserv-plugin플러그인을 추가합니다.$ oc edit console.operator.openshift.io cluster
출력 예
... spec: plugins: - netobserv-plugin ...
선택 사항: 다음 명령을 실행하여
spec.consolePlugin.register필드를true로 설정합니다.$ oc -n netobserv edit flowcollector cluster -o yaml
출력 예
apiVersion: flows.netobserv.io/v1alpha1 kind: FlowCollector metadata: name: cluster spec: consolePlugin: register: true다음 명령을
실행하여콘솔 pod의 상태가 실행 중인지 확인합니다.$ oc get pods -n openshift-console -l app=console
다음 명령을 실행하여 콘솔 Pod를 다시 시작합니다.
$ oc delete pods -n openshift-console -l app=console
- 브라우저 캐시 및 기록을 지웁니다.
다음 명령을 실행하여 Network Observability 플러그인 Pod의 상태를 확인합니다.
$ oc get pods -n netobserv -l app=netobserv-plugin
출력 예
NAME READY STATUS RESTARTS AGE netobserv-plugin-68c7bbb9bb-b69q6 1/1 Running 0 21s
다음 명령을 실행하여 Network Observability 플러그인 Pod의 로그를 확인합니다.
$ oc logs -n netobserv -l app=netobserv-plugin
출력 예
time="2022-12-13T12:06:49Z" level=info msg="Starting netobserv-console-plugin [build version: , build date: 2022-10-21 15:15] at log level info" module=main time="2022-12-13T12:06:49Z" level=info msg="listening on https://:9001" module=server
36.11.3. FlowLogs-Pipeline은 Kafka를 설치한 후 네트워크 흐름을 소비하지 않습니다.
deploymentModel: KAFKA 를 사용하여 flow 수집기를 먼저 배포한 다음 Kafka를 배포한 경우 흐름 수집기가 Kafka에 올바르게 연결되지 않을 수 있습니다. Flowlogs-pipeline에서 Kafka의 네트워크 흐름을 사용하지 않는 flow-pipeline pod를 수동으로 다시 시작합니다.
절차
다음 명령을 실행하여 flow-pipeline Pod를 삭제하여 재시작합니다.
$ oc delete pods -n netobserv -l app=flowlogs-pipeline-transformer
36.11.4. br-int 및 br-ex 인터페이스에서 네트워크 흐름을 볼 수 없음
br-ex' 및 br-int 는 OSI 계층 2에서 작동하는 가상 브리지 장치입니다. eBPF 에이전트는 각각 IP 및 TCP 수준, 계층 3 및 4에서 작동합니다. eBPF 에이전트는 물리적 호스트 또는 가상 Pod 인터페이스와 같은 다른 인터페이스에서 네트워크 트래픽을 처리할 때 br-ex 및 br-int 를 통해 전달되는 네트워크 트래픽을 캡처할 수 있습니다. br-ex 및 br-int 에만 연결하도록 eBPF 에이전트 네트워크 인터페이스를 제한하면 네트워크 흐름이 표시되지 않습니다.
네트워크 인터페이스를 br-int 및 br-ex 로 제한하는 인터페이스 또는 excludeInterfaces 부분을 수동으로 제거합니다.
절차
인터페이스 제거: [br-int', 'br-ex' ]필드. 이를 통해 에이전트는 모든 인터페이스에서 정보를 가져올 수 있습니다. 또는 Layer-3 인터페이스를 지정할 수도 있습니다(예:eth0). 다음 명령을 실행합니다.$ oc edit -n netobserv flowcollector.yaml -o yaml
출력 예
apiVersion: flows.netobserv.io/v1alpha1 kind: FlowCollector metadata: name: cluster spec: agent: type: EBPF ebpf: interfaces: [ 'br-int', 'br-ex' ] 1- 1
- 네트워크 인터페이스를 지정합니다.
36.11.5. Network Observability 컨트롤러 관리자 Pod가 메모리 부족
CSV(Cluster Service Version)에 패치를 적용하여 Network Observability Operator의 메모리 제한을 늘릴 수 있습니다. 여기서 Network Observability 컨트롤러 관리자 Pod는 메모리가 부족합니다.
절차
다음 명령을 실행하여 CSV를 패치합니다.
$ oc -n netobserv patch csv network-observability-operator.v1.0.0 --type='json' -p='[{"op": "replace", "path":"/spec/install/spec/deployments/0/spec/template/spec/containers/0/resources/limits/memory", value: "1Gi"}]'출력 예
clusterserviceversion.operators.coreos.com/network-observability-operator.v1.0.0 patched
다음 명령을 실행하여 업데이트된 CSV를 확인합니다.
$ oc -n netobserv get csv network-observability-operator.v1.0.0 -o jsonpath='{.spec.install.spec.deployments[0].spec.template.spec.containers[0].resources.limits.memory}' 1Gi