로깅
OpenShift Logging 설치, 사용법, 릴리스 정보
초록
1장. 로깅의 릴리스 노트
Red Hat OpenShift의 로깅 하위 시스템은 핵심 OpenShift Container Platform과 별도의 릴리스 사이클과 함께 설치 가능한 구성 요소로 제공됩니다. Red Hat OpenShift Container Platform 라이프 사이클 정책은 릴리스 호환성에 대해 설명합니다.
stable
채널은 최신 로깅 릴리스에 대한 업데이트만 제공합니다. 이전 릴리스에 대한 업데이트를 계속 받으려면 서브스크립션 채널을 stable-X
로 변경해야 합니다. 여기서 X
는 설치한 로깅 버전입니다.
1.1. Logging 5.6.3
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.6.3 이 포함되어 있습니다.
1.1.1. 버그 수정
1.1.2. CVE
1.2. Logging 5.6.2
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.6.2 가 포함되어 있습니다.
1.2.1. 버그 수정
-
이번 업데이트 이전에는 systemd 로그의 우선 순위에 따라 수집기에서
수준
필드를 올바르게 설정하지 않았습니다. 이번 업데이트를 통해수준
필드가 올바르게 설정됩니다. (LOG-3429) - 이번 업데이트 이전에는 Operator가 OpenShift Container Platform 4.12 이상에서 비호환 경고가 잘못 생성되었습니다. 이번 업데이트를 통해 Operator max OpenShift Container Platform 버전 값이 수정되어 문제를 해결합니다. (LOG-3584)
-
이번 업데이트 이전에는 output 값이
default
인ClusterLogForwarder
CR(사용자 정의 리소스)을 생성하면 오류가 발생하지 않았습니다. 이번 업데이트를 통해 이 값이 유효하지 않음을 알리는 오류 경고가 적절하게 생성됩니다. (LOG-3437) -
이번 업데이트 이전에는
ClusterLogForwarder
CR(사용자 정의 리소스)에 하나의 출력이기본으로
설정된 여러 파이프라인이 구성된 경우 수집기 Pod가 다시 시작됩니다. 이번 업데이트를 통해 출력 검증 논리가 수정되어 문제를 해결합니다. (LOG-3559) - 이번 업데이트 이전에는 생성 후 수집기 Pod가 다시 시작됩니다. 이번 업데이트를 통해 배포된 수집기가 자체적으로 다시 시작되지 않습니다. (LOG-3608)
- 이번 업데이트 이전에는 패치 릴리스가 카탈로그에서 이전 버전의 Operator를 제거했습니다. 이로 인해 이전 버전을 설치할 수 없습니다. 이번 업데이트에서는 동일한 마이너 버전의 이전 릴리스가 카탈로그에 남아 있도록 번들 구성을 변경합니다. (LOG-3635)
1.2.2. CVE
1.3. Logging 5.6.1
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.6.1 이 포함되어 있습니다.
1.3.1. 버그 수정
- 이번 업데이트 이전에는 보존이 활성 상태일 때 querier와의 통신에서 TLS 인증서 오류를 보고합니다. 이번 업데이트를 통해 compactor 및 querier는 더 이상 HTTP를 통해 잘못 통신하지 않습니다. (LOG-3494)
-
이번 업데이트 이전에는 로키스 Operator에서
LokiStack
CR의 상태 설정을 재시도하지 않아 오래된 상태 정보가 발생했습니다. 이번 업데이트를 통해 Operator는 충돌 시 상태 정보 업데이트를 다시 시도합니다. (LOG-3496) -
이번 업데이트 이전에는
kube-apiserver-operator
Operator가 Webhook 유효성을 검사할 때 Loki Operator Webhook 서버에서 TLS 오류가 발생했습니다. 이번 업데이트를 통해 Loki Operator Webhook PKI는 OLM(Operator Lifecycle Manager)에서 관리하며 문제를 해결합니다. (LOG-3510) - 이번 업데이트 이전에는 LokiStack Gateway Labels Enforcer에서 부울 표현식과 결합된 라벨 필터를 사용할 때 유효한 LogQL 쿼리에 대한 구문 분석 오류가 발생했습니다. 이번 업데이트를 통해 LokiStack LogQL 구현에서는 부울 표현식이 있는 라벨 필터를 지원하고 문제를 해결합니다. (LOG-3441), (LOG-3397)
- 이번 업데이트 이전에는 여러 라벨 키에 동일한 접두사와 일부 키가 포함된 경우 Elasticsearch에 작성된 레코드가 실패했습니다. 이번 업데이트를 통해 밑줄이 레이블 키의 점을 교체하여 문제를 해결합니다. (LOG-3463)
-
이번 업데이트 이전에는 OpenShift Container Platform 콘솔과 logging-view-plugin 간의 비호환성으로 인해 OpenShift Container Platform 4.10 클러스터에
Red Hat OpenShift Logging
Operator를 사용할 수 없었습니다. 이번 업데이트를 통해 플러그인이 OpenShift Container Platform 4.10 관리 콘솔과 올바르게 통합됩니다. (LOG-3447) -
이 업데이트 이전에는
ClusterLogForwarder
사용자 정의 리소스의 조정이 기본 로그 저장소를 참조하는 파이프라인의 성능이 저하된 상태를 잘못 보고했습니다. 이번 업데이트를 통해 파이프라인이 올바르게 검증됩니다. (LOG-3477)
1.3.2. CVE
1.4. 로깅 5.6
이 릴리스에는 OpenShift Logging 릴리스 5.6 이 포함되어 있습니다.
1.4.1. 사용 중단 알림
Logging 5.6에서 Fluentd는 더 이상 사용되지 않으며 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 이 기능에 대한 버그 수정 및 지원을 제공하지만 이 기능은 더 이상 개선 사항을 제공하지 않으며 제거됩니다. fluentd 대신 Vector를 사용할 수 있습니다.
1.4.2. 기능 개선
- 이번 업데이트를 통해 로깅은 OpenShift Container Platform 클러스터 전체 암호화 정책을 준수합니다. (로그-895)
- 이번 업데이트를 통해 RokiStack 사용자 정의 리소스를 통해 테넌트별, 스트림별, 글로벌 정책 보존 정책을 우선 순위에 따라 선언할 수 있습니다. (LOG-2695)
- 이번 업데이트를 통해 Splunk는 로그 전달에 사용할 수 있는 출력 옵션입니다. (LOG-2913)
- 이번 업데이트를 통해 Vector가 Fluentd를 기본 수집기로 대체합니다. (로그-2222)
- 이번 업데이트를 통해 Developer 역할은 OpenShift Container Platform 4.11 이상을 실행하는 클러스터의 로그 콘솔 플러그인 내에서 할당된 프로젝트별 워크로드 로그에 액세스할 수 있습니다. (LOG-3388)
-
이번 업데이트를 통해 모든 소스의 로그에 Operator가 배포된 클러스터의 고유 식별자인
openshift.cluster_id
필드가 포함됩니다. 아래 명령을 사용하여clusterID
값을 볼 수 있습니다. (로그-2715)
$ oc get clusterversion/version -o jsonpath='{.spec.clusterID}{"\n"}'
1.4.3. 확인된 문제
-
이번 업데이트 이전에는 여러 라벨 키에 동일한 접두사와 일부 키가 포함된 경우 Elasticsearch에서 로그를 거부합니다
.
이로 인해 레이블 키의 를_
로 교체하여 Elasticsearch의 제한이 수정되었습니다.
이 문제를 해결하려면 오류를 유발하는 라벨을 제거하거나 라벨에 네임스페이스를 추가합니다. (LOG-3463)
1.4.4. 버그 수정
- 이번 업데이트 이전에는 Kibana 사용자 정의 리소스를 삭제한 경우 OpenShift Container Platform 웹 콘솔에 Kibana에 대한 링크가 계속 표시됩니다. 이번 업데이트를 통해 Kibana 사용자 정의 리소스를 제거하면 해당 링크도 제거됩니다. (LOG-2993)
- 이번 업데이트 이전에는 사용자가 액세스할 수 있는 네임스페이스의 애플리케이션 로그를 볼 수 없었습니다. 이번 업데이트를 통해 Loki Operator는 클러스터 역할 및 클러스터 역할 바인딩을 자동으로 생성하여 사용자가 애플리케이션 로그를 읽을 수 있습니다. (로그-3072)
-
이번 업데이트 이전에는 Operator에서 LokiStack을 기본 로그 스토리지로 사용할 때
ClusterLogForwarder
사용자 정의 리소스에 정의된 모든 사용자 정의 출력을 제거했습니다. 이번 업데이트를 통해 Operator는ClusterLogForwarder
사용자 정의 리소스를 처리할 때 기본 출력과 사용자 정의 출력을 병합합니다. (로그-3090) - 이번 업데이트 이전에는 CA 키를 로키에 마운트하기 위해 볼륨 이름으로 사용되었으며 CA 키에 점과 같은 비 조정 문자가 포함된 경우 오류 상태가 발생했습니다. 이번 업데이트를 통해 볼륨 이름이 문제를 해결하는 내부 문자열로 표준화됩니다. (LOG-3331)
-
이번 업데이트 이전에는 LokiStack 사용자 정의 리소스 정의에 설정된 기본값으로 인해
Replication
ECDHE가 1인1
이 없이 로키스Stack 인스턴스를 생성할 수 없었습니다. 이번 업데이트를 통해 Operator는 사용된 크기의 실제 값을 설정합니다. (LOG-3296) -
이번 업데이트 이전에는
structuredTypeKey
또는structuredTypeName
값을 정의하지 않고 JSON 구문 분석이 활성화된 경우 Vector에서 message 필드를 구문 분석했습니다. 이번 업데이트를 통해 Elasticsearch에 구조화된 로그를 작성할 때structuredTypeKey
또는structuredTypeName
에 값이 필요합니다. (LOG-3195) - 이번 업데이트 이전에는 Elasticsearch Operator의 보안 생성 구성 요소가 내부 보안을 지속적으로 수정했습니다. 이번 업데이트를 통해 기존 보안이 올바르게 처리됩니다. (LOG-3161)
- 이번 업데이트 이전에는 Elasticsearch 또는 Kibana 배포에 상태가 변경된 동안 Operator에서 제거 및 수집기 데몬 세트를 다시 생성하는 루프를 입력할 수 있었습니다. 이번 업데이트를 통해 Operator 상태 처리의 수정으로 문제가 해결됩니다. (LOG-3157)
-
이번 업데이트 이전에는 Kibana에
24h
OAuth 쿠키 만료 시간이 고정되어 있었기 때문에accessTokenInactivityTimeout
필드가24h
보다 낮은 값으로 설정될 때마다 Kibana에서 401 오류가 발생했습니다. 이번 업데이트를 통해 Kibana의 OAuth 쿠키 만료 시간이 기본값인24h
값을 사용하여accessTokenInactivityTimeout
과 동기화됩니다. (LOG-3129) - 이번 업데이트 이전에는 리소스 조정을 위한 Operator 일반 패턴이 생성 후 지속적인 HTTP 409 응답을 가져오기 또는 업데이트하기 전에 생성을 시도하는 것이었습니다. 이번 업데이트를 통해 Operator는 먼저 오브젝트를 검색하고 오브젝트가 누락되었거나 지정되지 않은 경우에만 오브젝트를 생성하거나 업데이트합니다. (LOG-2919)
-
이번 업데이트 이전에는 Fluentd의
.level
및'.structure.level' 필드에 다른 값이 포함될 수 있습니다. 이번 업데이트를 통해 값은 각 필드에 대해 동일합니다. (LOG-2819) - 이번 업데이트 이전에는 Operator에서 신뢰할 수 있는 CA 번들 채우기를 기다리지 않고 번들이 업데이트되면 수집기를 두 번째로 배포했습니다. 이번 업데이트를 통해 Operator는 번들이 수집기 배포를 계속하기 전에 채워졌는지 여부를 간략하게 기다립니다. (LOG-2789)
- 이번 업데이트 이전에는 지표를 검토할 때 로깅 Telemetry 정보가 두 번 표시되었습니다. 이번 업데이트를 통해 로깅 Telemetry 정보가 예상대로 표시됩니다. (로그-2315)
- 이번 업데이트 이전에는 JSON 구문 분석 추가를 활성화한 후 Fluentd Pod 로그에 경고 메시지가 표시되었습니다. 이번 업데이트를 통해 해당 경고 메시지가 표시되지 않습니다. (로그-1806)
-
이번 업데이트 이전에는
oc
에 캐시를 빌드하는 데 쓰기 권한이 있는 폴더가 필요하므로must-gather
스크립트가 완료되지 않았습니다. 이번 업데이트를 통해oc
는 폴더에 대한 쓰기 권한이 있고must-gather
스크립트가 성공적으로 완료됩니다. (LOG-3446) - 이번 업데이트 이전에는 로그 수집기 SCC를 클러스터의 다른 SCC로 대체하여 컬렉터를 사용할 수 없게 됩니다. 이번 업데이트에서는 로그 수집기 SCC의 우선 순위를 설정하여 다른 것보다 우선합니다. (LOG-3235)
-
이번 업데이트 이전에는 벡터가 필드
시퀀스
가 누락되었으며 실제 나노초 부족을 처리하는 방법으로 fluentd에 추가되었습니다. 이번 업데이트를 통해openshift.sequence
필드가 이벤트 로그에 추가되었습니다. (LOG-3106)
1.4.5. CVE
1.5. Logging 5.5.8
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.5.8 이 포함되어 있습니다.
1.5.1. 버그 수정
-
이번 업데이트 이전에는 수집기가
수준
필드를 설정하는 방법에 오류가 있기 때문에systemd
로그에서priority
필드가 누락되었습니다. 이번 업데이트를 통해 이러한 필드가 올바르게 설정되어 문제를 해결합니다. (LOG-3630)
1.5.2. CVE
1.6. Logging 5.5.7
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.5.7 이 포함되어 있습니다.
1.6.1. 버그 수정
- 이번 업데이트 이전에는 LokiStack Gateway Labels Enforcer에서 부울 표현식과 결합된 라벨 필터를 사용할 때 유효한 LogQL 쿼리에 대한 구문 분석 오류가 발생했습니다. 이번 업데이트를 통해 LokiStack LogQL 구현에서는 부울 표현식이 있는 라벨 필터를 지원하고 문제를 해결합니다. (LOG-3534)
-
이번 업데이트 이전에는
ClusterLogForwarder
CR(사용자 정의 리소스)에서 syslog 출력의 TLS 인증 정보를 Fluentd에 전달하지 않아 전송 중에 오류가 발생했습니다. 이번 업데이트를 통해 인증 정보가 Fluentd에 올바르게 전달되어 문제를 해결합니다. (LOG-3533)
1.6.2. CVE
CVE-2021-46848 CVE-2022-3821 CVE-2022-35737 CVE-2022-42010 CVE -2022-42898 CVE-2022-42898 CVE-2022-43680 https://access.redhat.com/security/cve/CVE-2022-42012
1.7. 로깅 5.5.6
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.5.6 이 포함되어 있습니다.
1.7.1. 확인된 문제
1.7.2. 버그 수정
-
이번 업데이트 이전에는 Pod 보안 승인 컨트롤러가
openshift-logging
네임스페이스에 라벨podSecurityLabelSync = true
를 추가했습니다. 이로 인해 지정된 보안 레이블을 덮어쓰고 결과적으로 Collector Pod가 시작되지 않았습니다. 이번 업데이트를 통해podSecurityLabelSync = false
레이블은 보안 라벨을 유지합니다. 수집기 Pod는 예상대로 배포됩니다. (LOG-3340) - 이번 업데이트 이전에는 Operator가 클러스터에서 활성화되지 않은 경우에도 콘솔 보기 플러그인을 설치했습니다. 이로 인해 Operator가 충돌했습니다. 이번 업데이트를 통해 클러스터의 계정에 콘솔 보기가 활성화되어 있지 않으면 Operator가 정상적으로 작동하고 콘솔 보기를 설치하지 않습니다. (LOG-3407)
-
이번 업데이트 이전에는 Elasticsearch 배포 상태를 업데이트하지 않는 경우
Red Hat Elasticsearch Operator
가 배포되지 않은 경우 Operator가 충돌하는 회귀를 지원하기 위한 사전 수정입니다. 이번 업데이트를 통해 해당 수정 사항이 복원되어 Operator가 안정적이지만 보고된 상태와 관련된 이전 문제가 다시 도입되었습니다. (LOG-3428) - 이번 업데이트 이전에는 Loki Operator가 선택한 스택 크기에 관계없이 LokiStack 게이트웨이의 복제본 하나를 배포했습니다. 이번 업데이트를 통해 선택한 크기에 따라 복제본 수가 올바르게 구성됩니다. (로그-3478)
- 이번 업데이트 이전에는 여러 라벨 키에 동일한 접두사와 일부 키가 포함된 경우 Elasticsearch에 작성된 레코드가 실패했습니다. 이번 업데이트를 통해 밑줄이 레이블 키의 점을 교체하여 문제를 해결합니다. (LOG-3341)
- 이번 업데이트 이전에는 로깅 보기 플러그인에 특정 버전의 OpenShift Container Platform에 대한 호환되지 않는 기능이 포함되어 있었습니다. 이번 업데이트를 통해 플러그인의 올바른 릴리스 스트림이 문제를 해결합니다. (로그-3467)
-
이번 업데이트 이전에는
ClusterLogForwarder
사용자 정의 리소스의 조정이 하나 이상의 파이프라인의 성능 저하 상태를 잘못 보고하여 수집기 Pod가 8-10초 마다 다시 시작됩니다. 이번 업데이트를 통해ClusterLogForwarder
사용자 정의 리소스 프로세스를 올바르게 조정하여 문제를 해결합니다. (LOG-3469) -
이를 변경하기 전에 ClusterLogForwarder 사용자 정의 리소스의
outputDefaults
필드에 대한 사양이 선언된 모든 Elasticsearch 출력 유형에 설정을 적용합니다. 이 변경으로 인해 설정이 기본 관리 Elasticsearch 저장소에 구체적으로 적용되는 개선 사양과 일치하도록 동작이 수정되었습니다. (LOG-3342) -
이번 업데이트 이전에는 OpenShift CLI(oc)에 캐시를 빌드하는 데 쓰기 권한이 있는 폴더가 필요하므로 OpenShift CLI(oc)가 완료되어야
합니다
. 이번 업데이트를 통해 OpenShift CLI(oc)에 폴더에 대한 쓰기 권한이 있으며must-gather
스크립트가 성공적으로 완료됩니다. (LOG-3472) - 이번 업데이트 이전에는 Loki Operator 웹 후크 서버에서 TLS 오류가 발생했습니다. 이번 업데이트를 통해 Loki Operator webhook PKI는 Operator Lifecycle Manager의 동적 웹 후크 관리에서 이 문제를 해결합니다. (LOG-3511)
1.7.3. CVE
1.8. 로깅 5.5.5
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.5.5 가 포함되어 있습니다.
1.8.1. 버그 수정
-
이번 업데이트 이전에는 Kibana에
24h
OAuth 쿠키 만료 시간이 고정되어 있었기 때문에accessTokenInactivityTimeout
필드가24h
보다 낮은 값으로 설정될 때마다 Kibana에서 401 오류가 발생했습니다. 이번 업데이트를 통해 Kibana의 OAuth 쿠키 만료 시간이 기본값인24h
값을 사용하여accessTokenInactivityTimeout
과 동기화됩니다. (LOG-3305) -
이번 업데이트 이전에는
structuredTypeKey
또는structuredTypeName
값을 정의하지 않고 JSON 구문 분석이 활성화된 경우 Vector에서 message 필드를 구문 분석했습니다. 이번 업데이트를 통해 Elasticsearch에 구조화된 로그를 작성할 때structuredTypeKey
또는structuredTypeName
에 값이 필요합니다. (LOG-3284) -
이번 업데이트 이전에는 이 경고 표현식에서 반환된 라벨 세트에 카디널리티 문제가 있을 때
FluentdQueueLengthIncreasing
경고가 실행되지 않을 수 있었습니다. 이번 업데이트에서는 경고에 필요한 레이블만 포함하도록 라벨을 줄입니다. (LOG-3226) - 이번 업데이트 이전에는 로키가 연결이 끊긴 클러스터의 외부 스토리지에 도달할 수 있는 기능을 지원하지 않았습니다. 이번 업데이트를 통해 프록시 환경 변수 및 프록시 신뢰할 수 있는 CA 번들이 컨테이너 이미지에 포함되어 이러한 연결을 지원합니다. (LOG-2860)
-
이번 업데이트 이전에는 OpenShift Container Platform 웹 콘솔 사용자가 로키에 대한 CA 인증서가 포함된
ConfigMap
오브젝트를 선택할 수 없어 CA 없이 Pod가 작동할 수 없었습니다. 이번 업데이트를 통해 웹 콘솔 사용자는 구성 맵을 선택하여 문제를 해결할 수 있습니다. (LOG-3310) - 이번 업데이트 이전에는 CA 키를 로키에 마운트하기 위해 볼륨 이름으로 사용되었으며 CA 키에 비 조정 문자(예: dots)가 포함된 경우 오류 상태가 발생했습니다. 이번 업데이트를 통해 볼륨 이름이 문제를 해결하는 내부 문자열로 표준화됩니다. (LOG-3332)
1.8.2. CVE
- CVE-2016-3709
- CVE-2020-35525
- CVE-2020-35527
- CVE-2020-36516
- CVE-2020-36558
- CVE-2021-3640
- CVE-2021-30002
- CVE-2022-0168
- CVE-2022-0561
- CVE-2022-0562
- CVE-2022-0617
- CVE-2022-0854
- CVE-2022-0865
- CVE-2022-0891
- CVE-2022-0908
- CVE-2022-0909
- CVE-2022-0924
- CVE-2022-1016
- CVE-2022-1048
- CVE-2022-1055
- CVE-2022-1184
- CVE-2022-1292
- CVE-2022-1304
- CVE-2022-1355
- CVE-2022-1586
- CVE-2022-1785
- CVE-2022-1852
- CVE-2022-1897
- CVE-2022-1927
- CVE-2022-2068
- CVE-2022-2078
- CVE-2022-2097
- CVE-2022-2509
- CVE-2022-2586
- CVE-2022-2639
- CVE-2022-2938
- CVE-2022-3515
- CVE-2022-20368
- CVE-2022-21499
- CVE-2022-21618
- CVE-2022-21619
- CVE-2022-21624
- CVE-2022-21626
- CVE-2022-21628
- CVE-2022-22624
- CVE-2022-22628
- CVE-2022-22629
- CVE-2022-22662
- CVE-2022-22844
- CVE-2022-23960
- CVE-2022-24448
- CVE-2022-25255
- CVE-2022-26373
- CVE-2022-26700
- CVE-2022-26709
- CVE-2022-26710
- CVE-2022-26716
- CVE-2022-26717
- CVE-2022-26719
- CVE-2022-27404
- CVE-2022-27405
- CVE-2022-27406
- CVE-2022-27950
- CVE-2022-28390
- CVE-2022-28893
- CVE-2022-29581
- CVE-2022-30293
- CVE-2022-34903
- CVE-2022-36946
- CVE-2022-37434
- CVE-2022-39399
1.9. 로깅 5.5.4
이번 릴리스에는 RHSA-2022:7434-OpenShift Logging 버그 수정 릴리스 5.5.4 가 포함되어 있습니다.
1.9.1. 버그 수정
-
이번 업데이트 이전에는 로깅 보기 플러그인의 쿼리 구문 분석기에 있는 오류로 인해 쿼리에 중괄호
{}
가 포함되어 있는 경우 로그 쿼리의 일부가 사라졌습니다. 이로 인해 쿼리가 유효하지 않아 유효한 쿼리에 대해 오류가 반환되었습니다. 이번 업데이트를 통해 구문 분석기는 이러한 쿼리를 올바르게 처리합니다. (로그-3042) - 이번 업데이트 이전에는 Elasticsearch 또는 Kibana 배포에 상태가 변경된 동안 Operator에서 제거 및 수집기 데몬 세트를 다시 생성하는 루프를 입력할 수 있었습니다. 이번 업데이트를 통해 Operator 상태 처리의 수정으로 문제가 해결됩니다. (로그-3049)
- 이번 업데이트 이전에는 Vector의 수집기 구현을 지원하기 위해 경고가 구현되지 않았습니다. 이 변경으로 벡터 경고가 추가되고 선택한 수집기 구현에 따라 별도의 경고를 배포합니다. (LOG-3127)
- 이번 업데이트 이전에는 Elasticsearch Operator의 보안 생성 구성 요소가 내부 보안을 지속적으로 수정했습니다. 이번 업데이트를 통해 기존 보안이 올바르게 처리됩니다. (LOG-3138)
-
이번 업데이트 이전에는 로깅
must-gather
스크립트를 사전 리팩터링하여 아티팩트에 대한 예상 위치를 제거했습니다. 이번 업데이트에서는 아티팩트를/must-gather
폴더에 작성하도록 변경 사항을 되돌립니다. (LOG-3213) -
이번 업데이트 이전에는 특정 클러스터에서 Prometheus 내보내기를 IPv6 대신 IPv4에 바인딩했습니다. 이번 업데이트 후 Fluentd는 IP 버전을 감지하고 IPv4의 경우
0.0.0.0
또는 IPv6의 경우[::]
에 바인딩합니다. (LOG-3162)
1.9.2. CVE
1.10. Logging 5.5.3
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.5.3 이 포함되어 있습니다.
1.10.1. 버그 수정
- 이번 업데이트 이전에는 구조화된 메시지가 포함된 로그 항목에 원래 메시지 필드가 포함되어 있었기 때문에 항목이 더 커졌습니다. 이번 업데이트에서는 구조화된 로그의 message 필드를 제거하여 증가된 크기를 줄입니다. (LOG-2759)
-
이번 업데이트 이전에는 수집기 구성이 수집기 ,
default-log-store
및visualization
Pod에서 로그를 제외했지만.gz
파일에 보관된 로그를 제외할 수 없었습니다.이번 업데이트를 통해
수집기
,default-log-store
및visualization
포드의.gz
파일로 저장된 아카이브 로그도 제외됩니다. (LOG-2844) - 이번 업데이트 이전에는 게이트웨이를 통해 사용할 수 없는 pod에 대한 요청이 전송되면 중단에 대한 경고 메시지가 표시되지 않습니다. 이번 업데이트를 통해 게이트웨이에 쓰기 또는 읽기에 문제가 있는 경우 개별 경고가 생성됩니다. (LOG-2884)
- 이번 업데이트 이전에는 파이프라인을 통해 참조를 통해 전달된 값 때문에 fluent 플러그인에 의해 pod 메타데이터를 변경할 수 있었습니다. 이번 업데이트를 통해 각 로그 메시지가 개별적으로 처리할 수 있도록 Pod 메타데이터 복사본을 수신합니다. (로그-3046)
-
이번 업데이트 이전에는 OpenShift 콘솔 로그에서 알 수 없는 심각도를 선택하면
level=unknown
값이 있는 제외된 로그를 확인합니다. 이번 업데이트를 통해 수준이 없고level= unknown
값이 없는 로그가 알 수 없는 심각도로 필터링될 때 표시됩니다. (로그-3062) -
이번 업데이트 이전에는 Elasticsearch로 전송된 로그 레코드에 로그를 보낼 인덱스 이름이 포함된
write-index
라는 추가 필드가 있었습니다. 이 필드는 데이터 모델의 일부가 아닙니다. 이번 업데이트 후에는 이 필드가 더 이상 전송되지 않습니다. (로그-3075) - 새로운 내장 Pod 보안 승인 컨트롤러가 도입됨에 따라 Pod는 전역 또는 네임스페이스 수준에서 정의된 적용된 보안 표준에 따라 구성되지 않습니다. 이번 업데이트를 통해 Operator 및 수집기는 권한 있는 실행을 허용하고 보안 감사 경고 또는 오류 없이 실행됩니다. (로그-3077)
-
이번 업데이트 이전에는 Operator에서 LokiStack을 기본 로그 스토리지로 사용할 때
ClusterLogForwarder
사용자 정의 리소스에 정의된 모든 사용자 정의 출력을 제거했습니다. 이번 업데이트를 통해 Operator는ClusterLogForwarder
사용자 정의 리소스를 처리할 때 기본 출력과 사용자 정의 출력을 병합합니다. (로그-3095)
1.10.2. CVE
1.11. logging 5.5.2
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.5.2 가 포함되어 있습니다.
1.11.1. 버그 수정
- 이번 업데이트 이전에는 Fluentd 수집기에 대한 경고 규칙이 OpenShift Container Platform 모니터링 스타일 지침을 준수하지 않았습니다. 이번 업데이트에서는 네임스페이스 레이블을 포함하도록 이러한 경고를 수정하여 문제를 해결합니다. (LOG-1823)
- 이번 업데이트 이전에는 인덱스 이름에 하이픈 문자가 두 개 이상 있을 때마다 인덱스 관리 롤오버 스크립트가 새 인덱스 이름을 생성하지 못했습니다. 이번 업데이트를 통해 인덱스 이름이 올바르게 생성됩니다. (LOG-2644)
-
이번 업데이트 이전에는 Kibana 경로가 인증서가 없는
caCertificate
값을 설정했습니다. 이번 업데이트를 통해caCertificate
값이 설정되지 않았습니다. (LOG-2661) - 이번 업데이트 이전에는 수집기 종속성을 변경하면 사용되지 않는 매개변수에 대한 경고 메시지가 표시되었습니다. 이번 업데이트를 통해 사용하지 않는 설정 매개변수를 제거하면 문제가 해결됩니다. (LOG-2859)
- 이번 업데이트 이전에는 Loki Operator가 생성한 배포에 생성된 Pod가 Linux가 아닌 운영 체제가 있는 노드에 실수로 예약되었습니다(Operator가 실행 중인 클러스터에서 이러한 노드를 사용할 수 있는 경우). 이번 업데이트를 통해 Operator는 Linux 기반 노드에서만 Pod를 예약할 수 있는 Pod 정의에 추가 노드 선택기를 연결합니다. (LOG-2895)
- 이번 업데이트 이전에는 LokiStack 게이트웨이의 LogQL 구문 분석기 문제로 인해 OpenShift 콘솔 로그 보기가 심각도별로 로그를 필터링하지 않았습니다. 이번 업데이트를 통해 구문 분석 수정으로 문제가 해결되고 OpenShift Console Logs 보기에서 심각도별로 필터링할 수 있습니다. (LOG-2908)
- 이번 업데이트 이전에는 Fluentd 수집기 플러그인 리팩터링이 이벤트의 타임 스탬프 필드를 제거했습니다. 이번 업데이트에서는 이벤트의 수신된 시간에서 가져온 타임스탬프 필드를 복원합니다. (LOG-2923)
-
이번 업데이트 이전에는 감사 로그에
수준
필드가 없으면 벡터 로그에서 오류가 발생했습니다. 이번 업데이트를 통해 감사 로그 레코드에수준
필드를 추가하면 문제가 해결됩니다. (LOG-2961) - 이번 업데이트 이전에는 Kibana 사용자 정의 리소스를 삭제한 경우 OpenShift Container Platform 웹 콘솔에 Kibana에 대한 링크가 계속 표시됩니다. 이번 업데이트를 통해 Kibana 사용자 정의 리소스를 제거하면 해당 링크도 제거됩니다. (LOG-3053)
-
이번 업데이트 이전에는
ClusterLogForwarder
사용자 정의 리소스에 JSON 구문 분석이 정의된 경우 각 롤오버 작업이 빈 인덱스를 생성했습니다. 이번 업데이트를 통해 새 인덱스가 비어 있지 않습니다. (LOG-3063) - 이번 업데이트 이전에는 Loki Operator 5.4에서 처음 생성한 Loki Operator 5.5 리소스가 업데이트 된 후 사용자가 LokiStack을 삭제한 경우 남아 있습니다. 이번 업데이트를 통해 리소스의 소유자가 5.5 LokiStack을 가리킵니다. (LOG-2945)
- 이번 업데이트 이전에는 사용자가 액세스할 수 있는 네임스페이스의 애플리케이션 로그를 볼 수 없었습니다. 이번 업데이트를 통해 Loki Operator는 클러스터 역할 및 클러스터 역할 바인딩을 자동으로 생성하여 사용자가 애플리케이션 로그를 읽을 수 있습니다. (LOG-2918)
- 이번 업데이트 이전에는 cluster-admin 권한이 있는 사용자가 로깅 콘솔을 사용하여 인프라 및 감사 로그를 올바르게 볼 수 없었습니다. 이번 업데이트를 통해 cluster-admin 및 dedicated-admin 그룹의 사용자도 admins로 인식하도록 권한 부여 검사가 확장되었습니다. (LOG-2970)
1.11.2. CVE
1.12. 5.5.1 로깅
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.5.1 이 포함되어 있습니다.
1.12.1. 기능 개선
1.12.2. 버그 수정
- 이번 업데이트 이전에는 Operator에서 Pod가 준비되었는지 확인하지 않아 클러스터를 다시 시작하는 동안 클러스터가 작동하지 않는 상태에 도달했습니다. 이번 업데이트를 통해 Operator는 재시작 중에 새 Pod를 계속 진행하기 전에 새 Pod를 준비 상태로 표시하여 문제를 해결합니다. (LOG-2745)
- 이번 업데이트 이전에는 Fluentd가 Kubernetes 플랫폼이 로그 파일을 회전시키고 더 이상 로그 메시지를 읽지 않음을 인식하지 못하는 경우가 있었습니다. 이번 업데이트에서는 업스트림 개발 팀에서 권장하는 구성 매개 변수를 설정하여 이를 수정합니다. (LOG-2995)
- 이번 업데이트 이전에는 여러 줄 오류 감지 기능을 추가하여 내부 라우팅이 변경되어 레코드를 잘못된 대상으로 전달했습니다. 이번 업데이트를 통해 내부 라우팅이 잘못되었습니다. (LOG-2801)
- 이번 업데이트 이전에는 OpenShift Container Platform 웹 콘솔의 새로 고침 간격을 변경하면 쿼리 필드가 비어 있을 때 오류가 발생했습니다. 이번 업데이트를 통해 쿼리 필드가 비어 있을 때 간격을 변경할 수 있는 옵션이 아닙니다. (LOG-2917)
1.12.3. CVE
1.13. logging 5.5
로깅 5.5에서 다음 권장 사항을 사용할 수 있습니다.Release 5.5
1.13.1. 기능 개선
- 이번 업데이트를 통해 동일한 Pod 내의 다른 컨테이너에서 다른 인덱스로 구조화된 로그를 전달할 수 있습니다. 이 기능을 사용하려면 다중 컨테이너 지원을 사용하여 파이프라인을 구성하고 Pod에 주석을 달아야 합니다. (LOG-1296)
JSON 형식의 로그는 애플리케이션에 따라 다릅니다. 너무 많은 인덱스를 생성하면 성능에 영향을 미치기 때문에 이 기능을 사용하여 호환되지 않는 JSON 형식의 로그 인덱스를 생성할 수 있습니다. 쿼리를 사용하여 서로 다른 네임스페이스 또는 호환되는 JSON 형식의 애플리케이션을 분리합니다.
-
이번 업데이트를 통해 Kubernetes 공통 레이블인
app.kubernetes.io/component
,app.kubernetes.io/managed-by
,app.kubernetes.io/part-of
,app.kubernetes.io/version
을 사용하여 Elasticsearch 출력으로 로그를 필터링할 수 있습니다. Elasticsearch가 아닌 출력 유형은kubernetes.labels
에 포함된 모든 레이블을 사용할 수 있습니다. (LOG-2388) - 이번 업데이트를 통해 AWS STS(Security Token Service)가 활성화된 클러스터는 STS 인증을 사용하여 로그를 Amazon NetNamespace로 전달할 수 있습니다. (LOG-1976)
- 이번 업데이트를 통해 'Loki Operator' Operator 및 벡터 수집기가 기술 프리뷰에서 일반 가용성으로 이동합니다. 이전 릴리스와의 전체 기능 패리티가 보류 중이며 일부 API는 기술 프리뷰로 남아 있습니다. 자세한 내용은 LokiStack을 사용한 로깅 섹션을 참조하십시오.
1.13.2. 버그 수정
- 이번 업데이트 이전에는 로그를 Amazon ONTAP에 전달하도록 구성된 클러스터는 거부된 로그 파일을 임시 스토리지로 전달하여 시간이 지남에 따라 클러스터 불안정을 초래했습니다. 이번 업데이트를 통해 모든 스토리지 옵션의 청크 백업이 비활성화되어 문제를 해결합니다. (LOG-2746)
- 이번 업데이트 이전에는 Operator가 더 이상 사용되지 않고 향후 OpenShift Container Platform 버전에서 제거될 계획인 일부 API 버전을 사용하고 있었습니다. 이번 업데이트에서는 종속 항목을 지원되는 API 버전으로 이동합니다. (LOG-2656)
이번 업데이트 이전에는 Operator가 더 이상 사용되지 않고 향후 OpenShift Container Platform 버전에서 제거될 계획인 일부 API 버전을 사용하고 있었습니다. 이번 업데이트에서는 종속 항목을 지원되는 API 버전으로 이동합니다. (LOG-2656)
-
이번 업데이트 이전에는 다중 줄 오류 탐지를 위해 구성된 여러
ClusterLogForwarder
파이프라인으로 인해 수집기가크래시 루프
복구 오류 상태로 전환되었습니다. 이번 업데이트에서는 여러 구성 섹션에 동일한 고유 ID가 있는 문제가 해결되었습니다. (LOG-2241) - 이번 업데이트 이전에는 수집기에서 UTF-8 이외의 기호를 Elasticsearch 스토리지 로그에 저장할 수 없었습니다. 이번 업데이트를 통해 수집기는 UTF-8 이외의 기호를 인코딩하여 문제를 해결합니다. (LOG-2203)
- 이번 업데이트 이전에는 Kibana에 올바르지 않은 문자가 잘못 표시되었습니다. 이번 업데이트를 통해 Kibana가 모든 유효한 UTF-8 기호를 올바르게 표시합니다. (LOG-2784)
1.13.3. CVE
1.14. logging 5.4.11
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.4.11 이 포함되어 있습니다.
1.14.1. 버그 수정
1.14.2. CVE
1.15. Logging 5.4.10
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.4.10 이 포함되어 있습니다.
1.15.1. 버그 수정
없음.
1.15.2. CVE
1.16. logging 5.4.9
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.4.9 가 포함되어 있습니다.
1.16.1. 버그 수정
- 이번 업데이트 이전에는 Fluentd 수집기에서 사용되지 않은 구성 매개변수에 대해 경고를 표시했습니다. 이번 업데이트에서는 이러한 구성 매개변수와 경고 메시지를 제거합니다. (로그-3074)
-
이번 업데이트 이전에는 Kibana에
24h
OAuth 쿠키 만료 시간이 고정되어 있었기 때문에accessTokenInactivityTimeout
필드가24h
보다 낮은 값으로 설정될 때마다 Kibana에서 401 오류가 발생했습니다. 이번 업데이트를 통해 Kibana의 OAuth 쿠키 만료 시간이 기본값인24h
값을 사용하여accessTokenInactivityTimeout
과 동기화됩니다. (LOG-3306)
1.16.2. CVE
- CVE-2016-3709
- CVE-2020-35525
- CVE-2020-35527
- CVE-2020-36516
- CVE-2020-36558
- CVE-2021-3640
- CVE-2021-30002
- CVE-2022-0168
- CVE-2022-0561
- CVE-2022-0562
- CVE-2022-0617
- CVE-2022-0854
- CVE-2022-0865
- CVE-2022-0891
- CVE-2022-0908
- CVE-2022-0909
- CVE-2022-0924
- CVE-2022-1016
- CVE-2022-1048
- CVE-2022-1055
- CVE-2022-1184
- CVE-2022-1292
- CVE-2022-1304
- CVE-2022-1355
- CVE-2022-1586
- CVE-2022-1785
- CVE-2022-1852
- CVE-2022-1897
- CVE-2022-1927
- CVE-2022-2068
- CVE-2022-2078
- CVE-2022-2097
- CVE-2022-2509
- CVE-2022-2586
- CVE-2022-2639
- CVE-2022-2938
- CVE-2022-3515
- CVE-2022-20368
- CVE-2022-21499
- CVE-2022-21618
- CVE-2022-21619
- CVE-2022-21624
- CVE-2022-21626
- CVE-2022-21628
- CVE-2022-22624
- CVE-2022-22628
- CVE-2022-22629
- CVE-2022-22662
- CVE-2022-22844
- CVE-2022-23960
- CVE-2022-24448
- CVE-2022-25255
- CVE-2022-26373
- CVE-2022-26700
- CVE-2022-26709
- CVE-2022-26710
- CVE-2022-26716
- CVE-2022-26717
- CVE-2022-26719
- CVE-2022-27404
- CVE-2022-27405
- CVE-2022-27406
- CVE-2022-27950
- CVE-2022-28390
- CVE-2022-28893
- CVE-2022-29581
- CVE-2022-30293
- CVE-2022-34903
- CVE-2022-36946
- CVE-2022-37434
- CVE-2022-39399
1.17. Logging 5.4.8
이번 릴리스에는 RHSA-2022:7435-OpenShift Logging 버그 수정 릴리스 5.4.8 이 포함되어 있습니다.
1.17.1. 버그 수정
없음.
1.17.2. CVE
- CVE-2016-3709
- CVE-2020-35525
- CVE-2020-35527
- CVE-2020-36518
- CVE-2022-1304
- CVE-2022-2509
- CVE-2022-3515
- CVE-2022-22624
- CVE-2022-22628
- CVE-2022-22629
- CVE-2022-22662
- CVE-2022-26700
- CVE-2022-26709
- CVE-2022-26710
- CVE-2022-26716
- CVE-2022-26717
- CVE-2022-26719
- CVE-2022-30293
- CVE-2022-32149
- CVE-2022-37434
- CVE-2022-40674
- CVE-2022-42003
- CVE-2022-42004
1.18. 로깅 5.4.6
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.4.6이 포함되어 있습니다.
1.18.1. 버그 수정
- 이번 업데이트 이전에는 Fluentd가 Kubernetes 플랫폼이 로그 파일을 회전시키고 더 이상 로그 메시지를 읽지 않음을 인식하지 못하는 경우가 있었습니다. 이번 업데이트에서는 업스트림 개발 팀에서 권장하는 구성 매개 변수를 설정하여 이를 수정합니다. (LOG-2792)
-
이번 업데이트 이전에는
ClusterLogForwarder
사용자 정의 리소스에 JSON 구문 분석이 정의된 경우 각 롤오버 작업이 빈 인덱스를 생성했습니다. 이번 업데이트를 통해 새 인덱스가 비어 있지 않습니다. (LOG-2823) - 이번 업데이트 이전에는 Kibana 사용자 정의 리소스를 삭제한 경우 OpenShift Container Platform 웹 콘솔에 Kibana에 대한 링크가 계속 표시됩니다. 이번 업데이트를 통해 Kibana 사용자 정의 리소스를 제거하면 해당 링크도 제거됩니다. (LOG-3054)
1.18.2. CVE
1.19. 로깅 5.4.5
이번 릴리스에는 RHSA-2022:6183-OpenShift Logging 버그 수정 릴리스 5.4.5 가 포함되어 있습니다.
1.19.1. 버그 수정
- 이번 업데이트 이전에는 Operator에서 Pod가 준비되었는지 확인하지 않아 클러스터를 다시 시작하는 동안 클러스터가 작동하지 않는 상태에 도달했습니다. 이번 업데이트를 통해 Operator는 재시작 중에 새 Pod를 계속 진행하기 전에 새 Pod를 준비 상태로 표시하여 문제를 해결합니다. (LOG-2881)
- 이번 업데이트 이전에는 여러 줄 오류 감지 기능을 추가하여 내부 라우팅이 변경되어 레코드를 잘못된 대상으로 전달했습니다. 이번 업데이트를 통해 내부 라우팅이 잘못되었습니다. (LOG-2946)
- 이번 업데이트 이전에는 Operator에서 인용된 부울 값을 사용하여 인덱스 설정 JSON 응답을 디코딩할 수 없어 오류가 발생했습니다. 이번 업데이트를 통해 Operator는 이 JSON 응답을 적절하게 디코딩할 수 있습니다. (LOG-3009)
- 이번 업데이트 이전에는 Elasticsearch 인덱스 템플릿이 잘못된 유형의 라벨 필드를 정의했습니다. 이번 변경으로 인해 로그 수집기가 전달하는 예상 유형과 일치하도록 해당 템플릿이 업데이트됩니다. (LOG-2972)
1.19.2. CVE
1.20. 로깅 5.4.4
이 릴리스에는 RHBA-2022:5907-OpenShift Logging 버그 수정 릴리스 5.4.4 가 포함되어 있습니다.
1.20.1. 버그 수정
- 이번 업데이트 이전에는 Elasticsearch에 올바르지 않은 문자가 잘못 표시되었습니다. 이번 업데이트를 통해 Elasticsearch는 모든 유효한 UTF-8 기호를 올바르게 표시합니다. (LOG-2794)
- 이번 업데이트 이전에는 Fluentd에 올바르지 않은 문자가 잘못 표시되었습니다. 이번 업데이트를 통해 Fluentd는 모든 유효한 UTF-8 기호를 올바르게 표시합니다. (LOG-2657)
- 이번 업데이트 이전에는 수집기의 지표 서버가 환경 값에서 노출하는 값을 사용하여 주소에 바인딩하려고 했습니다. 이 변경 사항은 사용 가능한 모든 인터페이스에 바인딩할 구성을 수정합니다. (LOG-2821)
-
이번 업데이트 이전에는
cluster-logging
Operator를 클러스터에 의존하여 보안을 생성했습니다. OpenShift Container Platform 4.11에서 이 클러스터 동작이 변경되어 로깅 배포가 실패했습니다. 이번 업데이트를 통해 필요한 경우cluster-logging
Operator가 보안을 생성하여 문제를 해결합니다. (LOG-2840)
1.20.2. CVE
1.21. 로깅 5.4.3
이번 릴리스에는 RHSA-2022:5556-OpenShift Logging 버그 수정 릴리스 5.4.3 이 포함되어 있습니다.
1.21.1. Elasticsearch Operator 사용 중단 알림
로깅 하위 시스템 5.4.3에서 Elasticsearch Operator는 더 이상 사용되지 않으며 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 이 기능에 대한 버그 수정 및 지원을 제공하지만 이 기능은 더 이상 개선 사항을 제공하지 않으며 제거됩니다. Elasticsearch Operator를 사용하여 기본 로그 스토리지를 관리하는 대신 Loki Operator를 사용할 수 있습니다.
1.21.2. 버그 수정
- 이번 업데이트 이전에는 OpenShift Logging 대시보드에 모든 활성 shard 대신 활성 기본 shard 수가 표시되었습니다. 이번 업데이트를 통해 대시보드에 활성 shard가 모두 표시됩니다. (LOG-2781)
-
이번 업데이트 이전에는
elasticsearch-operator
에서 사용하는 라이브러리의 버그에 서비스 거부 취약점이 포함되었습니다. 이번 업데이트를 통해 라이브러리가 이 취약점을 포함하지 않는 버전으로 업데이트되었습니다. (LOG-2816) - 이번 업데이트 이전에는 로그를 로키로 전달하도록 Vector를 구성할 때 사용자 정의 전달 토큰을 설정하거나 Loki가 TLS가 활성화된 경우 기본 토큰을 사용할 수 없었습니다. 이번 업데이트를 통해 Vector는 TLS가 활성화된 토큰을 사용하여 로키에 로그를 전달할 수 있습니다. (LOG-2786
-
이번 업데이트 이전에는
oauth-proxy
이미지를 선택할 때 ElasticSearch Operator가ImageStream
사용자 정의 리소스의referencePolicy
속성을 생략했습니다. 이로 인해 특정 환경에서 Kibana 배포가 실패했습니다. 이번 업데이트를 통해referencePolicy
를 사용하면 문제가 해결되고 Operator에서 Kibana를 성공적으로 배포할 수 있습니다. (LOG-2791) -
이번 업데이트 이전에는
ClusterLogForwarder
사용자 정의 리소스에 대한 경고 규칙에 여러 개의 전달 출력이 고려되지 않았습니다. 이번 업데이트에서는 이러한 문제가 해결되었습니다. (LOG-2640) - 이번 업데이트 이전에는 로그를 Amazon ONTAP에 전달하도록 구성된 클러스터는 거부된 로그 파일을 임시 스토리지로 전달하여 시간이 지남에 따라 클러스터 불안정을 초래했습니다. 이번 업데이트를 통해 Gradle의 청크 백업이 비활성화되어 문제를 해결합니다. (LOG-2768)
1.21.3. CVE
1.22. 로깅 5.4.2
이 릴리스에는 RHBA-2022:4874-OpenShift Logging 버그 수정 릴리스 5.4.2가 포함되어 있습니다.
1.22.1. 버그 수정
-
이번 업데이트 이전에는
oc edit
를 사용하여 수집기 구성을 편집하기 때문에 공백을 일관하지 않게 사용했습니다. 이러한 변경으로 인해 Operator의 업데이트 전에 구성을 표준화하고 포맷하여oc edit
를 사용하여 쉽게 편집할 수 있습니다. (LOG-2319) -
이번 업데이트 이전에는
FluentdNodeDown
경고가 message 섹션에 인스턴스 라벨을 적절하게 제공할 수 없었습니다. 이번 업데이트에서는 부분적인 인스턴스 오류가 발생하는 경우 인스턴스 레이블을 제공하기 위해 경고 규칙을 수정하여 문제를 해결합니다. (LOG-2607) - 이번 업데이트 이전에는 제품의 지원대로 문서화된'과 같은 여러 로그 수준이 없었습니다. 이번 업데이트에서는 불일치가 수정되어 문서화된 로그 수준이 제품에서 지원됩니다. (LOG-2033)
1.22.2. CVE
예 1.2. CVE를 확장하려면 클릭합니다.
- CVE-2018-25032
- CVE-2020-0404
- CVE-2020-4788
- CVE-2020-13974
- CVE-2020-19131
- CVE-2020-27820
- CVE-2021-0941
- CVE-2021-3612
- CVE-2021-3634
- CVE-2021-3669
- CVE-2021-3737
- CVE-2021-3743
- CVE-2021-3744
- CVE-2021-3752
- CVE-2021-3759
- CVE-2021-3764
- CVE-2021-3772
- CVE-2021-3773
- CVE-2021-4002
- CVE-2021-4037
- CVE-2021-4083
- CVE-2021-4157
- CVE-2021-4189
- CVE-2021-4197
- CVE-2021-4203
- CVE-2021-20322
- CVE-2021-21781
- CVE-2021-23222
- CVE-2021-26401
- CVE-2021-29154
- CVE-2021-37159
- CVE-2021-41617
- CVE-2021-41864
- CVE-2021-42739
- CVE-2021-43056
- CVE-2021-43389
- CVE-2021-43976
- CVE-2021-44733
- CVE-2021-45485
- CVE-2021-45486
- CVE-2022-0001
- CVE-2022-0002
- CVE-2022-0286
- CVE-2022-0322
- CVE-2022-1011
- CVE-2022-1271
1.23. 로깅 5.4.1
이번 릴리스에는 RHSA-2022:2216-OpenShift Logging 버그 수정 릴리스 5.4.1 이 포함되어 있습니다.
1.23.1. 버그 수정
-
이번 업데이트 이전에는 내보내기가 실행되는 동안 생성된 로그만 로그 파일 내보내기로 보고하여 로그 증가 데이터가 부정확했습니다. 이번 업데이트에서는
/var/log/pods
를 모니터링하여 이 문제를 해결합니다. (LOG-2442) -
이번 업데이트 이전에는 로그를 fluentd forward receivers로 전달할 때 오래된 연결을 사용하려고 하기 때문에 수집기가 차단되었습니다. 이번 릴리스에서는
keepalive_timeout
값이 30초(30
초)로 설정되어 수집기가 연결을 재활용하고 적절한 시간 내에 실패한 메시지를 다시 보낼 수 있습니다. (LOG-2534) - 이번 업데이트 이전에는 Kubernetes 네임스페이스를 사용하여 로그에 대한 제한된 액세스 권한을 읽기 위한 테넌트를 실행하는 게이트웨이 구성 요소의 오류로 인해 "감사" 및 일부 "인프라" 로그를 읽을 수 없습니다. 이번 업데이트를 통해 프록시는 admin 액세스 권한이 있는 사용자를 올바르게 감지하고 네임스페이스 없이 로그에 액세스할 수 있습니다. (LOG-2448)
-
이번 업데이트 이전에는
system:serviceaccount:openshift-monitoring:prometheus-k8s
서비스 계정에 clusterrole 및cluster
수준 권한이 있었습니다. 이번 업데이트에서는 서비스 계정이 역할 및 rolebinding을 사용하여role
binding으로 클러스터openshift-logging
네임스페이스로 제한합니다. (LOG-2437) - 이번 업데이트 이전에는 Linux 감사 로그 시간 구문 분석에서 키/값 쌍의 서수 위치에 의존했습니다. 이번 업데이트에서는 정규식을 사용하여 시간 항목을 찾기 위해 구문 분석을 변경합니다. (LOG-2321)
1.23.2. CVE
1.24. 5.4 로깅
5.4 로깅에 사용할 수 있는 권장 사항: Red Hat OpenShift 릴리스 5.4용 로깅 하위 시스템
1.24.1. 기술 프리뷰
vector는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
1.24.2. 벡터 정보
vector는 로깅 하위 시스템의 현재 기본 수집기에 대한 기술 검토 대안으로 제공되는 로그 수집기입니다.
지원되는 출력은 다음과 같습니다.
-
elasticsearch
. 외부 Elasticsearch 인스턴스입니다.elasticsearch
출력은 TLS 연결을 사용할 수 있습니다. -
kafka
. Kafka 브로커.kafka
출력은 보안되지 않은 또는 TLS 연결을 사용할 수 있습니다. -
loki
. 수평으로 확장 가능한 고가용성 다중 테넌트 로그 집계 시스템인 Loki입니다.
1.24.2.1. 벡터 활성화
벡터는 기본적으로 활성화되어 있지 않습니다. 다음 단계를 사용하여 OpenShift Container Platform 클러스터에서 벡터를 활성화합니다.
벡터는 FIPS 활성화된 클러스터를 지원하지 않습니다.
사전 요구 사항
- OpenShift Container Platform: 4.12
- logging subsystem for Red Hat OpenShift: 5.4
- FIPS 비활성화
절차
openshift-logging
프로젝트에서ClusterLogging
사용자 정의 리소스(CR)를 편집합니다.$ oc -n openshift-logging edit ClusterLogging instance
-
ClusterLogging
사용자 정의 리소스(CR)에logging.openshift.io/preview-vector-collector: enabled
주석을 추가합니다. -
ClusterLogging
사용자 정의 리소스(CR)에 컬렉션 유형으로vector
를 추가합니다.
apiVersion: "logging.openshift.io/v1" kind: "ClusterLogging" metadata: name: "instance" namespace: "openshift-logging" annotations: logging.openshift.io/preview-vector-collector: enabled spec: collection: logs: type: "vector" vector: {}
추가 리소스
Loki Operator는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
1.24.3. 자주하는 질문
Loki는 현재 로깅 하위 시스템의 로그 저장소로 Elasticsearch의 대안으로 제공되는 수평적 확장이 가능하고 가용성이 높은 다중 테넌트 로그 집계 시스템입니다.
추가 리소스
1.24.3.1. Deploying the Lokistack 배포
OpenShift Container Platform 웹 콘솔을 사용하여 Loki Operator를 설치할 수 있습니다.
사전 요구 사항
- OpenShift Container Platform: 4.12
- logging subsystem for Red Hat OpenShift: 5.4
OpenShift Container Platform 웹 콘솔을 사용하여 Loki Operator를 설치하려면 다음을 수행합니다.
Loki Operator를 설치합니다.
- OpenShift Container Platform 웹 콘솔에서 Operator → OperatorHub를 클릭합니다.
- 사용 가능한 Operator 목록에서 Loki Operator 를 선택한 다음 설치를 클릭합니다.
- 설치 모드에서 클러스터의 모든 네임스페이스를 선택합니다.
설치된 네임스페이스에서 openshift -operators-redhat 을 선택합니다.
openshift-operators-redhat
네임스페이스를 지정해야 합니다.openshift-operators
네임스페이스에 신뢰할 수 없는 Community Operator가 포함될 수 있고, 여기에서 OpenShift Container Platform 지표와 동일한 이름의 지표를 게시하면 충돌이 발생합니다.이 네임스페이스에서 Operator 권장 클러스터 모니터링 사용을 선택합니다.
이 옵션은 네임스페이스 오브젝트에서
openshift.io/cluster-monitoring: "true"
레이블을 설정합니다. 클러스터 모니터링이openshift-operators-redhat
네임스페이스를 스크랩하도록 하려면 이 옵션을 선택해야 합니다.승인 전략을 선택합니다.
- 자동 전략을 사용하면 Operator 새 버전이 준비될 때 OLM(Operator Lifecycle Manager)이 자동으로 Operator를 업데이트할 수 있습니다.
- 수동 전략을 사용하려면 적절한 자격 증명을 가진 사용자가 Operator 업데이트를 승인해야 합니다.
- 설치를 클릭합니다.
- Loki Operator를 설치했는지 확인합니다. Operator → 설치된 Operator 페이지를 방문하여 "Loki Operator"를 찾습니다.
- Status 가 Succeeded 인 모든 프로젝트에 Loki Operator 가 나열되어 있는지 확인합니다.
1.24.4. 버그 수정
-
이번 업데이트 이전에는
cluster-logging-operator
에서 클러스터 범위 역할 및 바인딩을 사용하여 메트릭을 스크랩할 Prometheus 서비스 계정에 대한 권한을 설정했습니다. 이러한 권한은 콘솔 인터페이스를 사용하여 Operator를 배포할 때 생성되었지만 명령줄에서 배포할 때 누락되었습니다. 이번 업데이트에서는 역할 및 바인딩 네임스페이스 범위를 작성하여 문제를 해결합니다. (LOG-2286) -
이번 업데이트 이전에는 대시보드 조정을 수정하기 전에
ownerReferences
필드가 네임스페이스 간 리소스에 도입되었습니다. 결과적으로 네임스페이스에 구성 맵과 대시보드가 생성되지 않았습니다. 이번 업데이트를 통해ownerReferences
필드를 제거하면 문제가 해결되고 콘솔에서 OpenShift Logging 대시보드를 사용할 수 있습니다. (LOG-2163) -
이번 업데이트 이전에는
cluster-logging-operator
에서 대시보드가 포함된 기존 및 수정된 구성 맵을 올바르게 비교하지 않았기 때문에 메트릭 대시보드 변경 사항이 배포되지 않았습니다. 이번 업데이트를 통해 오브젝트 레이블에 고유한 해시 값을 추가하면 문제가 해결됩니다. (LOG-2071) - 이번 업데이트 이전에는 OpenShift Logging 대시보드에 지난 24시간 동안 수집된 컨테이너를 최상위로 생성하는 테이블이 있는 Pod 및 네임스페이스를 올바르게 표시하지 않았습니다. 이번 업데이트를 통해 Pod 및 네임스페이스가 올바르게 표시됩니다. (LOG-2069)
-
이번 업데이트 이전에는
Elasticsearch OutputDefault
및 Elasticsearch 출력에 구조화된 키가 없는 경우 생성된 구성에 잘못된 인증 값이 포함되어 있었습니다.이번 업데이트에서는 사용된 시크릿 및 인증서가 수정되었습니다. (LOG-2056)
- 이번 업데이트 이전에는 유효하지 않은 메트릭에 대한 참조로 인해 OpenShift Logging 대시보드에 빈 CPU 그래프가 표시되었습니다. 이번 업데이트를 통해 올바른 데이터 지점을 선택하여 문제를 해결합니다. (LOG-2026)
- 이번 업데이트 이전에는 Fluentd 컨테이너 이미지에 런타임 시 불필요한 빌더 도구가 포함되어 있었습니다. 이번 업데이트에서는 이미지에서 해당 툴을 제거합니다.(LOG-1927)
-
이번 업데이트 이전에는 5.3 릴리스에서 배포된 수집기의 이름 변경을 통해 로깅 수집기가
FluentdNodeDown
경고를 생성했습니다. 이번 업데이트에서는 Prometheus 경고의 작업 이름을 수정하여 이 문제를 해결합니다. (LOG-1918) - 이번 업데이트 이전에는 구성 요소 이름 변경의 리팩토링으로 인해 로그 수집기에서 자체 로그를 수집하고 있었습니다. 이로 인해 수집기가 자체 로그를 처리하는 잠재적인 피드백 루프가 발생하여 메모리 및 로그 메시지 크기 문제가 발생할 수 있습니다. 이번 업데이트에서는 컬렉션에서 수집기 로그를 제외하여 문제를 해결합니다. (LOG-1774)
-
이번 업데이트 이전에는 PVC가 이미 존재하는 경우
forbidden: exceeded: infra-storage-quota.로 인해 Elasticsearch에서 Unable to create PersistentVolumeClaim
오류를 생성했습니다. 이번 업데이트를 통해 Elasticsearch는 기존 PVC를 확인하여 문제를 해결합니다. (LOG-2131) -
이번 업데이트 이전에는
elasticsearch-signing
secret이 제거되었을 때 Elasticsearch가 준비 상태로 되돌릴 수 없었습니다. 이번 업데이트를 통해 Elasticsearch는 해당 시크릿을 제거한 후 준비 상태로 되돌릴 수 있습니다. (LOG-2171) - 이번 업데이트 이전에는 수집기에서 컨테이너 로그를 읽는 경로 변경으로 인해 수집기에서 일부 레코드를 잘못된 인덱스로 전달합니다. 이번 업데이트를 통해 이제 수집기에서 올바른 구성을 사용하여 문제를 해결합니다. (LOG-2160)
- 이번 업데이트 이전에는 다수의 네임스페이스가 있는 클러스터에서 네임스페이스 목록이 최대 헤더 크기 제한에 도달했기 때문에 Elasticsearch가 요청 제공을 중지했습니다. 이번 업데이트를 통해 헤더에는 네임스페이스 이름 목록만 포함되어 문제를 해결합니다. (LOG-1899)
- 이번 업데이트 이전에는 Elasticsearch에 'x' 노드가 있는 경우 OpenShift Container Platform 로깅 대시보드에 실제 값보다 큰 shard 'x' 시간이 표시되었습니다. 이 문제는 각 Elasticsearch Pod의 모든 기본 shard를 인쇄하고 합계를 계산했기 때문에 전체 Elasticsearch 클러스터에 대해 출력이 항상 실행되었기 때문입니다. 이번 업데이트를 통해 shard 수가 올바르게 계산됩니다. (LOG-2156)
-
이번 업데이트 이전에는 시크릿
kibana
및kibana-proxy
가 수동으로 삭제되면 다시 생성되지 않았습니다. 이번 업데이트를 통해elasticsearch-operator
는 리소스를 모니터링하고 삭제한 경우 자동으로 다시 생성합니다. (LOG-2250) - 이번 업데이트 이전에는 버퍼 청크 크기를 튜닝하면 수집기에서 이벤트 스트림의 바이트 제한을 초과하는 청크 크기에 대한 경고를 생성할 수 있었습니다. 이번 업데이트를 통해 읽기 라인 제한을 조정하여 문제를 해결할 수도 있습니다. (LOG-2379)
- 이번 업데이트 이전에는 OpenShift 웹 콘솔의 로깅 콘솔 링크가 ClusterLogging CR을 사용하여 제거되지 않았습니다. 이번 업데이트를 통해 CR을 삭제하거나 Cluster Logging Operator를 설치 제거하는 경우 해당 링크가 제거됩니다. (LOG-2373)
- 이번 업데이트 이전에는 컨테이너 로그 경로를 변경하면 컬렉션 메트릭이 원래 경로로 구성된 이전 릴리스가 포함된 항상 0이 되었습니다. 이번 업데이트를 통해 수집된 로그에 대한 지표를 표시하는 플러그인은 문제를 해결하기 위해 두 경로에서 읽기를 지원합니다. (LOG-2462)
1.24.5. CVE
1.25. Logging 5.3.14
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.3.14 가 포함되어 있습니다.
1.25.1. 버그 수정
-
이번 업데이트 이전에는
log-file-metrics-exporter
구성 요소에서 생성한 로그 파일 크기 맵에서 삭제된 파일의 항목을 제거하지 않아 파일 크기가 증가되고 메모리가 처리되었습니다. 이번 업데이트를 통해 로그 파일 크기 맵에 삭제된 파일에 대한 항목이 포함되어 있지 않습니다. (LOG-3293)
1.25.2. CVE
- CVE-2016-3709
- CVE-2020-35525
- CVE-2020-35527
- CVE-2020-36516
- CVE-2020-36558
- CVE-2021-3640
- CVE-2021-30002
- CVE-2022-0168
- CVE-2022-0561
- CVE-2022-0562
- CVE-2022-0617
- CVE-2022-0854
- CVE-2022-0865
- CVE-2022-0891
- CVE-2022-0908
- CVE-2022-0909
- CVE-2022-0924
- CVE-2022-1016
- CVE-2022-1048
- CVE-2022-1055
- CVE-2022-1184
- CVE-2022-1292
- CVE-2022-1304
- CVE-2022-1355
- CVE-2022-1586
- CVE-2022-1785
- CVE-2022-1852
- CVE-2022-1897
- CVE-2022-1927
- CVE-2022-2068
- CVE-2022-2078
- CVE-2022-2097
- CVE-2022-2509
- CVE-2022-2586
- CVE-2022-2639
- CVE-2022-2938
- CVE-2022-3515
- CVE-2022-20368
- CVE-2022-21499
- CVE-2022-21618
- CVE-2022-21619
- CVE-2022-21624
- CVE-2022-21626
- CVE-2022-21628
- CVE-2022-22624
- CVE-2022-22628
- CVE-2022-22629
- CVE-2022-22662
- CVE-2022-22844
- CVE-2022-23960
- CVE-2022-24448
- CVE-2022-25255
- CVE-2022-26373
- CVE-2022-26700
- CVE-2022-26709
- CVE-2022-26710
- CVE-2022-26716
- CVE-2022-26717
- CVE-2022-26719
- CVE-2022-27404
- CVE-2022-27405
- CVE-2022-27406
- CVE-2022-27950
- CVE-2022-28390
- CVE-2022-28893
- CVE-2022-29581
- CVE-2022-30293
- CVE-2022-34903
- CVE-2022-36946
- CVE-2022-37434
- CVE-2022-39399
- CVE-2022-42898
1.26. Logging 5.3.13
이번 릴리스에는 RHSA-2022:68828-OpenShift Logging 버그 수정 릴리스 5.3.13 이 포함되어 있습니다.
1.26.1. 버그 수정
없음.
1.26.2. CVE
예 1.4. CVE를 확장하려면 클릭합니다.
1.27. Logging 5.3.12
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.3.12 가 포함되어 있습니다.
1.27.1. 버그 수정
없음.
1.27.2. CVE
1.28. Logging 5.3.11
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.3.11 가 포함되어 있습니다.
1.28.1. 버그 수정
- 이번 업데이트 이전에는 Operator에서 Pod가 준비되었는지 확인하지 않아 클러스터를 다시 시작하는 동안 클러스터가 작동하지 않는 상태에 도달했습니다. 이번 업데이트를 통해 Operator는 재시작 중에 새 Pod를 계속 진행하기 전에 새 Pod를 준비 상태로 표시하여 문제를 해결합니다. (LOG-2871)
1.28.2. CVE
1.29. logging 5.3.10
이 릴리스에는 RHSA-2022:5908-OpenShift Logging 버그 수정 릴리스 5.3.10 이 포함되어 있습니다.
1.29.1. 버그 수정
1.29.2. CVE
1.30. 로깅 5.3.9
이 릴리스에는 RHBA-2022:5557-OpenShift Logging 버그 수정 릴리스 5.3.9 가 포함되어 있습니다.
1.30.1. 버그 수정
- 이번 업데이트 이전에는 로깅 수집기가 생성한 지표의 레이블로 경로를 포함했습니다. 이 경로는 자주 변경되어 Prometheus 서버의 중요한 스토리지 변경에 기여했습니다. 이번 업데이트를 통해 문제를 해결하고 스토리지 소비를 줄이기 위해 레이블이 삭제되었습니다. (LOG-2682)
1.30.2. CVE
1.31. logging 5.3.8
이 릴리스에는 RHBA-2022:5010-OpenShift Logging 버그 수정 릴리스 5.3.8이 포함되어 있습니다.
1.31.1. 버그 수정
(none.)
1.31.2. CVE
예 1.7. CVE를 확장하려면 클릭합니다.
- CVE-2018-25032
- CVE-2020-0404
- CVE-2020-4788
- CVE-2020-13974
- CVE-2020-19131
- CVE-2020-27820
- CVE-2021-0941
- CVE-2021-3612
- CVE-2021-3634
- CVE-2021-3669
- CVE-2021-3737
- CVE-2021-3743
- CVE-2021-3744
- CVE-2021-3752
- CVE-2021-3759
- CVE-2021-3764
- CVE-2021-3772
- CVE-2021-3773
- CVE-2021-4002
- CVE-2021-4037
- CVE-2021-4083
- CVE-2021-4157
- CVE-2021-4189
- CVE-2021-4197
- CVE-2021-4203
- CVE-2021-20322
- CVE-2021-21781
- CVE-2021-23222
- CVE-2021-26401
- CVE-2021-29154
- CVE-2021-37159
- CVE-2021-41617
- CVE-2021-41864
- CVE-2021-42739
- CVE-2021-43056
- CVE-2021-43389
- CVE-2021-43976
- CVE-2021-44733
- CVE-2021-45485
- CVE-2021-45486
- CVE-2022-0001
- CVE-2022-0002
- CVE-2022-0286
- CVE-2022-0322
- CVE-2022-1011
- CVE-2022-1271
1.32. OpenShift Logging 5.3.7
이번 릴리스에는 RHSA-2022:217 OpenShift Logging 버그 수정 릴리스 5.3.7이 포함되어 있습니다.
1.32.1. 버그 수정
- 이번 업데이트 이전에는 Linux 감사 로그 시간 구문 분석에서 키/값 쌍의 서수 위치에 의존했습니다. 이번 업데이트에서는 regex를 활용하여 시간 항목을 찾기 위해 구문 분석을 변경합니다. (LOG-2322)
- 이번 업데이트 이전에는 일부 로그 전달자 출력이 동일한 타임 스탬프로 로그를 다시 정렬할 수 있었습니다. 이번 업데이트를 통해 일치하는 타임스탬프가 있는 항목을 정렬하기 위해 로그 레코드에 시퀀스 번호가 추가되었습니다. (LOG-2334)
- 이번 업데이트 이전에는 다수의 네임스페이스가 있는 클러스터에서 네임스페이스 목록이 최대 헤더 크기 제한에 도달했기 때문에 Elasticsearch가 요청 제공을 중지했습니다. 이번 업데이트를 통해 헤더에는 네임스페이스 이름 목록만 포함되어 문제를 해결합니다. (LOG-2450)
-
이번 업데이트 이전에는
system:serviceaccount:openshift-monitoring:prometheus-k8s
에 clusterrole 및cluster
수준 권한이 있었습니다. 이번 업데이트에서는role
binding으로 클러스터serviceaccount
을 역할 및 rolebinding을 사용하여openshift-logging
네임스페이스로 제한합니다. (LOG-2481))
1.32.2. CVE
1.33. OpenShift Logging 5.3.6
이 릴리스에는 RHBA-2022:1377 OpenShift Logging 버그 수정 릴리스 5.3.6이 포함되어 있습니다.
1.33.1. 버그 수정
1.34. OpenShift Logging 5.3.5
이 릴리스에는 RHSA-2022:0721 OpenShift Logging 버그 수정 릴리스 5.3.5가 포함되어 있습니다.
1.34.1. 버그 수정
- 이번 업데이트 이전에는 OpenShift Container Platform에서 OpenShift Logging을 제거한 경우 웹 콘솔에 로깅 페이지에 대한 링크가 계속 표시됩니다. 이번 업데이트를 통해 OpenShift Logging을 제거하거나 설치 제거해도 해당 링크도 제거됩니다. (LOG-2182)
1.34.2. CVE
예 1.9. CVE를 확장하려면 클릭합니다.
1.35. OpenShift Logging 5.3.4
이 릴리스에는 RHBA-2022:0411 OpenShift Logging 버그 수정 릴리스 5.3.4가 포함되어 있습니다.
1.35.1. 버그 수정
-
이번 업데이트 이전에는
cluster-logging-operator
에서 대시보드가 포함된 기존 구성 맵을 올바르게 비교하지 않았기 때문에 메트릭 대시보드 변경 사항이 아직 배포되지 않았습니다. 이번 업데이트에서는 오브젝트 레이블에 고유한 해시 값을 추가하여 논리를 수정합니다. (LOG-2066) - 이번 업데이트 이전에는 FIPS가 활성화된 업데이트 후 Elasticsearch Pod를 시작하지 못했습니다. 이번 업데이트를 통해 Elasticsearch Pod가 성공적으로 시작됩니다. (LOG-1974)
- 이번 업데이트 이전에는 PVC가 이미 존재하는 경우 forbidden: exceeded: infra-storage-quota로 인해 "Unable to create PersistentVolumeClaim" 오류가 발생했습니다. 이번 업데이트를 통해 elasticsearch는 기존 PVC를 확인하여 문제를 해결합니다. (LOG-2127)
1.35.2. CVE
예 1.10. CVE를 확장하려면 클릭합니다.
- CVE-2021-3521
- CVE-2021-3872
- CVE-2021-3984
- CVE-2021-4019
- CVE-2021-4122
- CVE-2021-4155
- CVE-2021-4192
- CVE-2021-4193
- CVE-2022-0185
- CVE-2022-21248
- CVE-2022-21277
- CVE-2022-21282
- CVE-2022-21283
- CVE-2022-21291
- CVE-2022-21293
- CVE-2022-21294
- CVE-2022-21296
- CVE-2022-21299
- CVE-2022-21305
- CVE-2022-21340
- CVE-2022-21341
- CVE-2022-21360
- CVE-2022-21365
- CVE-2022-21366
1.36. OpenShift Logging 5.3.3
이번 릴리스에는 RHSA-2022:0227 OpenShift Logging 버그 수정 릴리스 5.3.3이 포함되어 있습니다.
1.36.1. 버그 수정
- 이번 업데이트 이전에는 cluster-logging-operator에서 대시보드가 포함된 기존 configmaps를 올바르게 비교하지 않았기 때문에 메트릭 대시보드 변경 사항이 아직 배포되지 않았습니다. 이번 업데이트에서는 오브젝트 라벨에 대시보드 고유의 해시 값을 추가하여 논리를 수정합니다.(LOG-2066)
- 이번 업데이트에서는 log4j 종속성을 2.17.1로 변경하여 CVE-2021-44832 를 해결합니다.(LOG-2102)
1.36.2. CVE
예 1.11. CVE를 확장하려면 클릭합니다.
1.37. OpenShift Logging 5.3.2
이번 릴리스에는 RHSA-2022:0044 OpenShift Logging 버그 수정 릴리스 5.3.2가 포함되어 있습니다.
1.37.1. 버그 수정
-
이번 업데이트 이전에는 Elasticsearch가 구문 분석 오류로 인해 이벤트 라우터에서 로그를 거부했습니다. 이번 업데이트에서는 데이터 모델을 변경하여 구문 분석 오류를 해결합니다. 그러나 결과적으로 이전 인덱스는 Kibana 내에서 경고 또는 오류를 유발할 수 있습니다.
kubernetes.event.metadata.resourceVersion
필드로 인해 기존 인덱스가 제거되거나 다시 인덱싱될 때까지 오류가 발생합니다. Kibana에서 이 필드를 사용하지 않으면 오류 메시지를 무시할 수 있습니다. 이전 인덱스를 삭제하는 보존 정책이 있는 경우 정책에서 이전 인덱스를 제거하고 오류 메시지를 중지합니다. 그렇지 않으면 오류 메시지를 중지하도록 수동으로 다시 인덱싱합니다. (LOG-2087) - 이번 업데이트 이전에는 지난 24시간 동안 컨테이너를 상위 생성 및 수집한 컨테이너를 표시하는 테이블에 OpenShift Logging 대시보드에 잘못된 Pod 네임스페이스가 표시되었습니다. 이번 업데이트를 통해 OpenShift Logging 대시보드에 올바른 Pod 네임스페이스가 표시됩니다. (LOG-2051)
-
이번 업데이트 이전에는
ClusterLogForwarder
사용자 정의 리소스(CR) 인스턴스의outputDefaults.elasticsearch.structuredTypeKey
에 구조화된 키가 없는 경우 CR은 기본 로그 저장소와 통신하는 데 사용되는 기본 시크릿으로 출력 보안을 교체했습니다. 이번 업데이트를 통해 정의된 출력 보안이 올바르게 사용됩니다. (LOG-2046)
1.37.2. CVE
예 1.12. CVE를 확장하려면 클릭합니다.
1.38. OpenShift Logging 5.3.1
이번 릴리스에는 RHSA-2021:5129 OpenShift Logging 버그 수정 릴리스 5.3.1이 포함되어 있습니다.
1.38.1. 버그 수정
- 이번 업데이트 이전에는 Fluentd 컨테이너 이미지에 런타임 시 불필요한 빌더 도구가 포함되어 있었습니다. 이번 업데이트에서는 이미지에서 해당 툴을 제거합니다. (LOG-1998)
- 이번 업데이트 이전에는 잘못된 메트릭에 대한 참조로 인해 로깅 대시보드에 빈 CPU 그래프가 표시되었습니다. 이번 업데이트를 통해 로깅 대시보드에 CPU 그래프가 올바르게 표시됩니다. (LOG-1925)
- 이번 업데이트 이전에는 Elasticsearch 노드 성능에 영향을 미치는 고비용 쿼리를 사용하여 Elasticsearch Prometheus 내보내기 플러그인의 인덱스 수준 지표를 컴파일했습니다. 이번 업데이트에서는 성능이 향상되는 저렴한 쿼리를 구현합니다. (LOG-1897)
1.38.2. CVE
예 1.13. CVE를 확장하려면 클릭합니다.
- CVE-2018-25009
- CVE-2018-25010
- CVE-2018-25012
- CVE-2018-25013
- CVE-2018-25014
- CVE-2019-5827
- CVE-2019-13750
- CVE-2019-13751
- CVE-2019-17594
- CVE-2019-17595
- CVE-2019-18218
- CVE-2019-19603
- CVE-2019-20838
- CVE-2020-12762
- CVE-2020-13435
- CVE-2020-14145
- CVE-2020-14155
- CVE-2020-16135
- CVE-2020-17541
- CVE-2020-24370
- CVE-2020-35521
- CVE-2020-35522
- CVE-2020-35523
- CVE-2020-35524
- CVE-2020-36330
- CVE-2020-36331
- CVE-2020-36332
- CVE-2021-3200
- CVE-2021-3426
- CVE-2021-3445
- CVE-2021-3481
- CVE-2021-3572
- CVE-2021-3580
- CVE-2021-3712
- CVE-2021-3800
- CVE-2021-20231
- CVE-2021-20232
- CVE-2021-20266
- CVE-2021-20317
- CVE-2021-22876
- CVE-2021-22898
- CVE-2021-22925
- CVE-2021-27645
- CVE-2021-28153
- CVE-2021-31535
- CVE-2021-33560
- CVE-2021-33574
- CVE-2021-35942
- CVE-2021-36084
- CVE-2021-36085
- CVE-2021-36086
- CVE-2021-36087
- CVE-2021-42574
- CVE-2021-43267
- CVE-2021-43527
- CVE-2021-45046
1.39. OpenShift Logging 5.3.0
이번 릴리스에는 RHSA-2021:4627 OpenShift Logging 버그 수정 릴리스 5.3.0이 포함되어 있습니다.
1.39.1. 새로운 기능 및 개선 사항
- 이번 업데이트를 통해 Log Forwarding에 대한 권한 부여 옵션이 확장되었습니다. 이제 SASL, 사용자 이름/암호 또는 TLS로 출력을 구성할 수 있습니다.
1.39.2. 버그 수정
- 이번 업데이트 이전에는 syslog 프로토콜을 사용하여 로그를 전달하면 ruby 해시 인코딩 키/값 쌍을 'tekton' 문자를 포함하도록 직렬화하고 탭을 "#11"로 교체했습니다. 이번 업데이트에서는 로그 메시지가 유효한 JSON으로 올바르게 직렬화되도록 문제가 해결되었습니다. (LOG-1494)
- 이번 업데이트 이전에는 다중 줄 오류 탐지 기능을 사용하여 적절한 Cloudwatch 스트림으로 전달하도록 애플리케이션 로그가 올바르게 구성되지 않았습니다. (LOG-1939)
- 이번 업데이트 이전에는 5.3 릴리스에 배포된 수집기의 이름 변경이 'fluentnodedown' 경고가 생성되었습니다. (LOG-1918)
- 이번 업데이트 이전에는 이전 릴리스 구성에 도입된 회귀 문제로 인해 수집기가 종료되기 전에 버퍼링된 메시지를 플러시하여 종료 및 수집기 Pod 재시작이 지연되었습니다. 이번 업데이트를 통해 fluentd는 더 이상 종료 시 버퍼를 플러시하지 않아 문제를 해결합니다. (LOG-1735)
- 이번 업데이트 이전에는 이전 릴리스에서 발생하는 회귀 문제가 의도적으로 JSON 메시지 구문 분석을 비활성화했습니다. 이번 업데이트에서는 JSON 구문 분석을 다시 활성화합니다. 또한 구문 분석된 JSON 메시지의 "level" 필드에 따라 로그 항목 "level"을 설정하거나 regex를 사용하여 메시지 필드에서 일치 항목을 추출합니다. (LOG-1199)
-
이번 업데이트 이전에는
ClusterLogging
사용자 정의 리소스(CR)에서 필요한 버퍼 공간을 사용할 수 없는 경우에도totalLimitSize
필드의 값을 Fluentdtotal_limit_size
필드에 적용했습니다. 이번 업데이트를 통해 CR은 두 개의totalLimitSize
또는 'default' 값의 더 적은 값을 Fluentdtotal_limit_size
필드에 적용하여 문제를 해결합니다. (LOG-1776)
1.39.3. 확인된 문제
외부 Elasticsearch 서버로 로그를 전달한 다음 사용자 이름 및 암호와 같은 파이프라인 시크릿에 구성된 값을 변경하는 경우 Fluentd 전달자가 새 시크릿을 로드하지만 이전 값을 사용하여 외부 Elasticsearch 서버에 연결합니다. 이 문제는 Red Hat OpenShift Logging Operator가 현재 콘텐츠 변경 사항에 대한 시크릿을 모니터링하지 않기 때문에 발생합니다. (LOG-1652)
문제를 해결하기 위해 시크릿을 변경하는 경우 다음을 입력하여 Fluentd Pod를 강제로 재배포할 수 있습니다.
$ oc delete pod -l component=collector
1.39.4. 사용되지 않거나 삭제된 기능
이전 릴리스에서 사용 가능하던 일부 기능이 더 이상 사용되지 않거나 삭제되었습니다.
더 이상 사용되지 않는 기능은 여전히 OpenShift Logging에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.
1.39.4.1. 레거시 Fluentd 및 레거시 syslog 방법을 사용하여 로그 전달이 제거됨
OpenShift Logging 5.3에서 로그를 Syslog 및 Fluentd로 전달하는 레거시 방법이 제거됩니다. 버그 수정 및 지원은 OpenShift Logging 5.2 라이프 사이클 종료 시 제공됩니다. 그 이후에는 새로운 기능 개선이 이루어지지 않습니다.
대신 다음과 같은 비레거시 방법을 사용합니다.
1.39.4.2. 기존 전달 방법의 구성 메커니즘이 제거됨
OpenShift Logging 5.3에서 로그 전달을 위한 레거시 구성 메커니즘이 제거됩니다. 레거시 Fluentd 메서드 및 레거시 Syslog 방법을 사용하여 로그를 전달할 수 없습니다. 대신 표준 로그 전달 방법을 사용합니다.
1.39.5. CVE
예 1.14. CVE를 확장하려면 클릭합니다.
- CVE-2018-20673
- CVE-2018-25009
- CVE-2018-25010
- CVE-2018-25012
- CVE-2018-25013
- CVE-2018-25014
- CVE-2019-5827
- CVE-2019-13750
- CVE-2019-13751
- CVE-2019-14615
- CVE-2019-17594
- CVE-2019-17595
- CVE-2019-18218
- CVE-2019-19603
- CVE-2019-20838
- CVE-2020-0427
- CVE-2020-10001
- CVE-2020-12762
- CVE-2020-13435
- CVE-2020-14145
- CVE-2020-14155
- CVE-2020-16135
- CVE-2020-17541
- CVE-2020-24370
- CVE-2020-24502
- CVE-2020-24503
- CVE-2020-24504
- CVE-2020-24586
- CVE-2020-24587
- CVE-2020-24588
- CVE-2020-26139
- CVE-2020-26140
- CVE-2020-26141
- CVE-2020-26143
- CVE-2020-26144
- CVE-2020-26145
- CVE-2020-26146
- CVE-2020-26147
- CVE-2020-27777
- CVE-2020-29368
- CVE-2020-29660
- CVE-2020-35448
- CVE-2020-35521
- CVE-2020-35522
- CVE-2020-35523
- CVE-2020-35524
- CVE-2020-36158
- CVE-2020-36312
- CVE-2020-36330
- CVE-2020-36331
- CVE-2020-36332
- CVE-2020-36386
- CVE-2021-0129
- CVE-2021-3200
- CVE-2021-3348
- CVE-2021-3426
- CVE-2021-3445
- CVE-2021-3481
- CVE-2021-3487
- CVE-2021-3489
- CVE-2021-3564
- CVE-2021-3572
- CVE-2021-3573
- CVE-2021-3580
- CVE-2021-3600
- CVE-2021-3635
- CVE-2021-3659
- CVE-2021-3679
- CVE-2021-3732
- CVE-2021-3778
- CVE-2021-3796
- CVE-2021-3800
- CVE-2021-20194
- CVE-2021-20197
- CVE-2021-20231
- CVE-2021-20232
- CVE-2021-20239
- CVE-2021-20266
- CVE-2021-20284
- CVE-2021-22876
- CVE-2021-22898
- CVE-2021-22925
- CVE-2021-23133
- CVE-2021-23840
- CVE-2021-23841
- CVE-2021-27645
- CVE-2021-28153
- CVE-2021-28950
- CVE-2021-28971
- CVE-2021-29155
- lCVE-2021-29646
- CVE-2021-29650
- CVE-2021-31440
- CVE-2021-31535
- CVE-2021-31829
- CVE-2021-31916
- CVE-2021-33033
- CVE-2021-33194
- CVE-2021-33200
- CVE-2021-33560
- CVE-2021-33574
- CVE-2021-35942
- CVE-2021-36084
- CVE-2021-36085
- CVE-2021-36086
- CVE-2021-36087
- CVE-2021-42574
1.40. logging 5.2.13
이번 릴리스에는 RHSA-2022:5909-OpenShift Logging 버그 수정 릴리스 5.2.13 이 포함되어 있습니다.
1.40.1. 버그 수정
1.40.2. CVE
1.41. logging 5.2.12
이 릴리스에는 RHBA-2022:5558-OpenShift Logging 버그 수정 릴리스 5.2.12 이 포함되어 있습니다.
1.41.1. 버그 수정
없음.
1.41.2. CVE
1.42. logging 5.2.11
이 릴리스에는 RHBA-2022:5012-OpenShift Logging 버그 수정 릴리스 5.2.11이 포함되어 있습니다.
1.42.1. 버그 수정
- 이번 업데이트 이전에는 사용자가 거부된 로그 파일을 임시 스토리지로 전송하도록 구성된 클러스터에서 시간이 지남에 따라 클러스터 불안정성을 초래합니다. 이번 업데이트를 통해 Gradle의 청크 백업이 비활성화되어 문제를 해결합니다. (LOG-2635)
1.42.2. CVE
예 1.17. CVE를 확장하려면 클릭합니다.
- CVE-2018-25032
- CVE-2020-0404
- CVE-2020-4788
- CVE-2020-13974
- CVE-2020-19131
- CVE-2020-27820
- CVE-2021-0941
- CVE-2021-3612
- CVE-2021-3634
- CVE-2021-3669
- CVE-2021-3737
- CVE-2021-3743
- CVE-2021-3744
- CVE-2021-3752
- CVE-2021-3759
- CVE-2021-3764
- CVE-2021-3772
- CVE-2021-3773
- CVE-2021-4002
- CVE-2021-4037
- CVE-2021-4083
- CVE-2021-4157
- CVE-2021-4189
- CVE-2021-4197
- CVE-2021-4203
- CVE-2021-20322
- CVE-2021-21781
- CVE-2021-23222
- CVE-2021-26401
- CVE-2021-29154
- CVE-2021-37159
- CVE-2021-41617
- CVE-2021-41864
- CVE-2021-42739
- CVE-2021-43056
- CVE-2021-43389
- CVE-2021-43976
- CVE-2021-44733
- CVE-2021-45485
- CVE-2021-45486
- CVE-2022-0001
- CVE-2022-0002
- CVE-2022-0286
- CVE-2022-0322
- CVE-2022-1011
- CVE-2022-1271
1.43. OpenShift Logging 5.2.10
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.2.10이 포함되어 있습니다.
1.43.1. 버그 수정
- 이번 업데이트 이전에는 일부 로그 전달자 출력이 동일한 타임 스탬프로 로그를 다시 정렬할 수 있었습니다. 이번 업데이트를 통해 타임스탬프가 일치하는 항목을 정렬하기 위해 로그 레코드에 시퀀스 번호가 추가되었습니다.(LOG-2335)
- 이번 업데이트 이전에는 다수의 네임스페이스가 있는 클러스터에서 네임스페이스 목록이 최대 헤더 크기 제한에 도달했기 때문에 Elasticsearch가 요청 제공을 중지했습니다. 이번 업데이트를 통해 헤더에는 네임스페이스 이름 목록만 포함되어 문제를 해결합니다. (LOG-2475)
-
이번 업데이트 이전에는
system:serviceaccount:openshift-monitoring:prometheus-k8s
에 clusterrole 및cluster
수준 권한이 있었습니다. 이번 업데이트에서는role
binding으로 클러스터serviceaccount
을 역할 및 rolebinding을 사용하여openshift-logging
네임스페이스로 제한합니다. (LOG-2480) -
이번 업데이트 이전에는
cluster-logging-operator
에서 클러스터 범위 역할 및 바인딩을 사용하여 메트릭을 스크랩할 수 있는 Prometheus 서비스 계정에 대한 권한을 설정합니다. 이러한 권한은 콘솔 인터페이스를 사용하여 Operator를 배포할 때만 생성되었으며 명령줄에서 Operator를 배포할 때 누락되었습니다. 이로 인해 이 역할 및 바인딩 네임스페이스 범위가 지정되어 문제가 해결되었습니다. (LOG-1972)
1.43.2. CVE
1.44. OpenShift Logging 5.2.9
이 릴리스에는 RHBA-2022:1375 OpenShift Logging 버그 수정 릴리스 5.2.9가 포함되어 있습니다.
1.44.1. 버그 수정
- 이번 업데이트 이전에는 키가 없는 허용 오차를 정의하고 기존 Operator로 인해 Operator가 업그레이드를 완료할 수 없었습니다. 이번 업데이트를 통해 이 허용 오차가 더 이상 업그레이드를 완료하지 못하도록 차단하지 않습니다. (LOG-2304)
1.45. OpenShift Logging 5.2.8
이번 릴리스에는 RHSA-2022:0728 OpenShift Logging 버그 수정 릴리스 5.2.8이 포함되어 있습니다.
1.45.1. 버그 수정
- 이번 업데이트 이전에는 OpenShift Container Platform에서 OpenShift Logging을 제거한 경우 웹 콘솔에 로깅 페이지에 대한 링크가 계속 표시됩니다. 이번 업데이트를 통해 OpenShift Logging을 제거하거나 설치 제거해도 해당 링크도 제거됩니다. (LOG-2180)
1.45.2. CVE
예 1.19. CVE를 확장하려면 클릭합니다.
1.46. OpenShift Logging 5.2.7
이 릴리스에는 RHBA-2022:0478 OpenShift Logging 버그 수정 릴리스 5.2.7이 포함되어 있습니다.
1.46.1. 버그 수정
- 이번 업데이트 이전에는 FIPS가 활성화된 Elasticsearch Pod가 업데이트 후 시작되지 않았습니다. 이번 업데이트를 통해 Elasticsearch Pod가 성공적으로 시작됩니다. (LOG-2000)
- 이번 업데이트 이전에는 PVC(영구 볼륨 클레임)가 이미 존재하는 경우 Elasticsearch에서 금지: infra-storage-quota로 인해 "Unable to create PersistentVolumeClaim" 오류가 생성되었습니다. 이번 업데이트를 통해 Elasticsearch는 기존 PVC를 확인하여 문제를 해결합니다. (LOG-2118)
1.46.2. CVE
예 1.20. CVE를 확장하려면 클릭합니다.
1.47. OpenShift Logging 5.2.6
이 릴리스에는 RHSA-2022:0230 OpenShift Logging 버그 수정 릴리스 5.2.6이 포함되어 있습니다.
1.47.1. 버그 수정
- 이번 업데이트 이전에는 릴리스에 필터 변경 사항이 포함되지 않아 Fluentd가 충돌했습니다. 이번 업데이트를 통해 누락된 필터가 수정되었습니다. (LOG-2104)
- 이번 업데이트에서는 log4j 종속성을 2.17.1로 변경하여 CVE-2021-44832.(LOG-2101)을 해결합니다.
1.47.2. CVE
예 1.21. CVE를 확장하려면 클릭합니다.
1.48. OpenShift Logging 5.2.5
이번 릴리스에는 RHSA-2022:0043 OpenShift Logging 버그 수정 릴리스 5.2.5가 포함되어 있습니다.
1.48.1. 버그 수정
-
이번 업데이트 이전에는 Elasticsearch가 구문 분석 오류로 인해 이벤트 라우터에서 로그를 거부했습니다. 이번 업데이트에서는 데이터 모델을 변경하여 구문 분석 오류를 해결합니다. 그러나 결과적으로 이전 인덱스는 Kibana 내에서 경고 또는 오류를 유발할 수 있습니다.
kubernetes.event.metadata.resourceVersion
필드로 인해 기존 인덱스가 제거되거나 다시 인덱싱될 때까지 오류가 발생합니다. Kibana에서 이 필드를 사용하지 않으면 오류 메시지를 무시할 수 있습니다. 이전 인덱스를 삭제하는 보존 정책이 있는 경우 정책에서 이전 인덱스를 제거하고 오류 메시지를 중지합니다. 그렇지 않으면 오류 메시지를 중지하도록 수동으로 다시 인덱싱합니다. LOG-2087)
1.48.2. CVE
예 1.22. CVE를 확장하려면 클릭합니다.
1.49. OpenShift Logging 5.2.4
이번 릴리스에는 RHSA-2021:5127 OpenShift Logging 버그 수정 릴리스 5.2.4가 포함되어 있습니다.
1.49.1. 버그 수정
- 이번 업데이트 이전에는 syslog를 통해 제공되는 레코드가 ruby 해시 인코딩 키/값 쌍을 직렬화하여 'tekton' 문자를 포함하고 탭을 "#11"로 교체합니다. 이번 업데이트에서는 메시지를 적절한 JSON으로 올바르게 직렬화합니다. (LOG-1775)
- 이번 업데이트 이전에는 Elasticsearch 노드 성능에 영향을 미치는 고비용 쿼리를 사용하여 Elasticsearch Prometheus 내보내기 플러그인의 인덱스 수준 지표를 컴파일했습니다. 이번 업데이트에서는 성능이 향상되는 저렴한 쿼리를 구현합니다. (LOG-1970)
- 이번 업데이트 이전에는 Log Forwarding가 여러 출력으로 구성되었을 때 Elasticsearch가 메시지를 거부하는 경우가 있었습니다. 이는 수정된 출력 메시지 콘텐츠 중 하나를 단일 메시지로 구성하기 때문에 발생했습니다. 이번 업데이트를 통해 로그 전달은 출력별 처리가 다른 출력에 영향을 미치지 않도록 각 출력의 메시지를 중복합니다. (LOG-1824)
1.49.2. CVE
예 1.23. CVE를 확장하려면 클릭합니다.
- CVE-2018-25009
- CVE-2018-25010
- CVE-2018-25012
- CVE-2018-25013
- CVE-2018-25014
- CVE-2019-5827
- CVE-2019-13750
- CVE-2019-13751
- CVE-2019-17594
- CVE-2019-17595
- CVE-2019-18218
- CVE-2019-19603
- CVE-2019-20838
- CVE-2020-12762
- CVE-2020-13435
- CVE-2020-14145
- CVE-2020-14155
- CVE-2020-16135
- CVE-2020-17541
- CVE-2020-24370
- CVE-2020-35521
- CVE-2020-35522
- CVE-2020-35523
- CVE-2020-35524
- CVE-2020-36330
- CVE-2020-36331
- CVE-2020-36332
- CVE-2021-3200
- CVE-2021-3426
- CVE-2021-3445
- CVE-2021-3481
- CVE-2021-3572
- CVE-2021-3580
- CVE-2021-3712
- CVE-2021-3800
- CVE-2021-20231
- CVE-2021-20232
- CVE-2021-20266
- CVE-2021-20317
- CVE-2021-21409
- CVE-2021-22876
- CVE-2021-22898
- CVE-2021-22925
- CVE-2021-27645
- CVE-2021-28153
- CVE-2021-31535
- CVE-2021-33560
- CVE-2021-33574
- CVE-2021-35942
- CVE-2021-36084
- CVE-2021-36085
- CVE-2021-36086
- CVE-2021-36087
- CVE-2021-37136
- CVE-2021-37137
- CVE-2021-42574
- CVE-2021-43267
- CVE-2021-43527
- CVE-2021-44228
- CVE-2021-45046
1.50. OpenShift Logging 5.2.3
이번 릴리스에는 RHSA-2021:4032 OpenShift Logging 버그 수정 릴리스 5.2.3이 포함되어 있습니다.
1.50.1. 버그 수정
- 이번 업데이트 이전에는 일부 경고에 namespace 레이블이 포함되지 않았습니다. 이 Pod는 OpenShift Container Platform에서 경고 규칙을 작성하기 위한 OpenShift 모니터링 팀의 지침을 준수하지 않습니다. 이번 업데이트를 통해 Elasticsearch Operator의 모든 경고에는 네임스페이스 라벨이 포함되어 있으며 OpenShift Container Platform에서 경고 규칙을 작성하기 위한 모든 지침을 따릅니다. (LOG-1857)
-
이번 업데이트 이전에는 이전 릴리스에서 발생하는 회귀 문제가 의도적으로 JSON 메시지 구문 분석을 비활성화했습니다. 이번 업데이트에서는 JSON 구문 분석을 다시 활성화합니다. 또한 구문 분석된 JSON 메시지의
수준
필드에 따라 로그 항목 수준을 설정하거나 regex를 사용하여 메시지 필드에서 일치 항목을 추출합니다.(LOG-1759)
1.50.2. CVE
예 1.24. CVE를 확장하려면 클릭합니다.
- CVE-2018-20673
- CVE-2019-5827
- CVE-2019-13750
- CVE-2019-13751
- CVE-2019-17594
- CVE-2019-17595
- CVE-2019-18218
- CVE-2019-19603
- CVE-2019-20838
- CVE-2020-12762
- CVE-2020-13435
- CVE-2020-14155
- CVE-2020-16135
- CVE-2020-24370
- CVE-2021-3200
- CVE-2021-3426
- CVE-2021-3445
- CVE-2021-3572
- CVE-2021-3580
- CVE-2021-3778
- CVE-2021-3796
- CVE-2021-3800
- CVE-2021-20231
- CVE-2021-20232
- CVE-2021-20266
- CVE-2021-22876
- CVE-2021-22898
- CVE-2021-22925
- CVE-2021-23840
- CVE-2021-23841
- CVE-2021-27645
- CVE-2021-28153
- CVE-2021-33560
- CVE-2021-33574
- CVE-2021-35942
- CVE-2021-36084
- CVE-2021-36085
- CVE-2021-36086
- CVE-2021-36087
1.51. OpenShift Logging 5.2.2
이 릴리스에는 RHBA-2021:3747 OpenShift Logging 버그 수정 릴리스 5.2.2가 포함되어 있습니다.
1.51.1. 버그 수정
-
이번 업데이트 이전에는
ClusterLogging
사용자 정의 리소스(CR)에서 필요한 버퍼 공간을 사용할 수 없는 경우에도totalLimitSize
필드의 값을 Fluentdtotal_limit_size
필드에 적용했습니다. 이번 업데이트를 통해 CR은 두 개의totalLimitSize
또는 'default' 값의 더 적은 값을 Fluentdtotal_limit_size
필드에 적용하여 문제를 해결합니다.(LOG-1738) - 이번 업데이트 이전에는 이전 릴리스 구성에 도입된 회귀 문제로 인해 수집기에서 종료 및 수집기 Pod를 종료 및 재시작하는 지연을 생성하기 전에 버퍼링된 메시지를 플러시했습니다. 이번 업데이트를 통해 Fluentd는 더 이상 종료 시 버퍼를 플러시하지 않고 문제를 해결합니다. (LOG-1739)
- 이번 업데이트 이전에는 번들 매니페스트의 문제로 인해 OpenShift Container Platform 4.9에서 OLM을 통해 Elasticsearch Operator를 설치할 수 없었습니다. 이번 업데이트를 통해 번들 매니페스트에 대한 수정 사항이 4.9에서 설치 및 업그레이드를 다시 활성화합니다.(LOG-1780)
1.51.2. CVE
예 1.25. CVE를 확장하려면 클릭합니다.
1.52. OpenShift Logging 5.2.1
이 릴리스에는 RHBA-2021:3550 OpenShift Logging 버그 수정 릴리스 5.2.1이 포함되어 있습니다.
1.52.1. 버그 수정
-
이번 업데이트 이전에는 릴리스 파이프라인 스크립트의 문제로 인해 현재 릴리스 번호를 반영하지 않고
olm.skipRange
필드의 값이5.2.0
에서 변경되지 않았습니다. 이번 업데이트에서는 릴리스 번호가 변경될 때 이 필드의 값을 업데이트하도록 파이프라인 스크립트가 수정되었습니다. (LOG-1743)
1.52.2. CVE
(none)
1.53. OpenShift Logging 5.2.0
이 릴리스에는 RHBA-2021:3393 OpenShift Logging 버그 수정 릴리스 5.2.0이 포함되어 있습니다.
1.53.1. 새로운 기능 및 개선 사항
- 이번 업데이트를 통해 애플리케이션 및 인프라 모니터링을 제공하는 Amazon CloudMonitor에 로그 데이터를 전달할 수 있습니다. 자세한 내용은 Amazon#150 로 로그 전달을 참조하십시오. (LOG-1173)
- 이번 업데이트를 통해 수평으로 확장 가능한 다중 테넌트 로그 집계 시스템인 Loki로 로그 데이터를 전달할 수 있습니다. 자세한 내용은 로키로 로그 전달을 참조하십시오. (LOG-684)
- 이번 업데이트에서 Fluentd 전달 프로토콜을 사용하여 TLS 암호화 연결을 통해 로그 데이터를 전달하는 경우 이제 암호화된 개인 키 파일을 사용하고 클러스터 로그 전달자 구성에서 암호를 지정할 수 있습니다. 자세한 내용은 Fluentd forward 프로토콜을 사용하여 로그 전달을 참조하십시오. (LOG-1525)
- 이러한 개선된 기능을 통해 사용자 이름과 암호를 사용하여 외부 Elasticsearch 인스턴스에 대한 로그 전달 연결을 인증할 수 있습니다. 예를 들어 타사가 Elasticsearch 인스턴스를 작동하기 때문에 상호 TLS(mTLS)를 사용할 수 없는 경우 HTTP 또는 HTTPS를 사용하고 사용자 이름과 암호가 포함된 시크릿을 설정할 수 있습니다. 자세한 내용은 외부 Elasticsearch 인스턴스로 로그 전달 을 참조하십시오. (LOG-1022)
- 이번 업데이트를 통해 로깅 서버로 전달하기 위해 OVN 네트워크 정책 감사 로그를 수집할 수 있습니다. (LOG-1526)
기본적으로 OpenShift Container Platform 4.5에 도입된 데이터 모델은 다른 네임스페이스의 로그에 단일 인덱스를 제공했습니다. 이 변경으로 인해 가장 많은 로그를 생성한 네임스페이스를 확인하기 어려웠습니다.
현재 릴리스에서는 OpenShift Container Platform 콘솔의 로깅 대시보드에 네임스페이스 메트릭이 추가되어 있습니다. 이러한 메트릭을 사용하면 지정된 타임 스탬프에 대해 로그를 생성하는 네임스페이스와 각 네임스페이스에서 생성하는 로그 수를 확인할 수 있습니다.
이러한 메트릭을 보려면 OpenShift Container Platform 웹 콘솔의 관리자 화면을 열고 Observe → Dashboards → Logging/Elasticsearch 로 이동합니다. (LOG-1680)
- 현재 릴리스인 OpenShift Logging 5.2에서는 두 개의 새 메트릭을 사용할 수 있습니다. 지정된 타임스탬프 또는 기간 동안 개별 컨테이너에서 생성되거나 기록된 총 로그와 수집기에서 수집한 총 로그를 확인할 수 있습니다. 이러한 메트릭은 네임스페이스, Pod 및 컨테이너 이름으로 레이블이 지정되어 각 네임스페이스 및 Pod가 수집 및 생성하는 로그를 확인할 수 있습니다. (LOG-1213)
1.53.2. 버그 수정
-
이번 업데이트 이전에는 OpenShift Elasticsearch Operator가 인덱스 관리 cronjob을 생성할 때
POLICY_MAPPING
환경 변수를 두 번 추가되어 apiserver에서 중복 보고했습니다. 이번 업데이트에서는POLICY_MAPPING
환경 변수가 cronjob당 한 번만 설정되고 apiserver에서 중복 보고가 없도록 문제가 해결되었습니다. (LOG-1130) - 이번 업데이트 이전에는 Elasticsearch 클러스터를 0 노드로 일시 중단해도 인덱스 관리 cronjob이 일시 중단되지 않아 이러한 cronjob이 최대 백오프 상태가 되었습니다. 그런 다음 Elasticsearch 클러스터를 일시 중지하지 않은 후 최대 백오프 도달으로 인해 이러한 cronjob이 중지되었습니다. 이번 업데이트에서는 cronjob 및 클러스터를 일시 중단하여 문제가 해결되었습니다. (LOG-1268)
-
이번 업데이트 이전에는 OpenShift Container Platform 콘솔의 로깅 대시보드에서 상위 10 개 로그 생성 컨테이너 목록에 "차트 네임스페이스" 레이블이 누락되어 잘못된 메트릭 이름
fluentd_input_status_total_bytes_logged
가 지정되었습니다. 이번 업데이트를 통해 차트에는 네임스페이스 레이블과 올바른 메트릭 이름,log_logged_bytes_total
이 표시됩니다. (LOG-1271) - 이번 업데이트 이전에는 인덱스 관리 cronjob이 오류와 함께 종료되면 오류 종료 코드를 보고하지 않고 대신 해당 작업 상태가 "완료"로 표시되었습니다. 이번 업데이트에서는 오류로 종료되는 인덱스 관리 cronjob의 오류 종료 코드를 보고하여 문제가 해결되었습니다. (LOG-1273)
-
priorityclasses.v1beta1.scheduling.k8s.io
가 1.22에서 제거되고priorityclasses.v1.scheduling.k8s.io
(v1beta1
이v1
로 대체됨)로 대체되었습니다. 이번 업데이트 이전에는v1beta1
이 여전히 존재했기 때문에priorityclasses
에 대한APIRemovedInNextReleaseInUse
경고가 생성되었습니다. 이번 업데이트에서는v1beta1
을v1
로 교체하여 문제가 해결되었습니다. 경고는 더 이상 생성되지 않습니다. (LOG-1385) -
이전에는 OpenShift Elasticsearch Operator 및 Red Hat OpenShift Logging Operator에 연결이 끊긴 환경에서 실행할 수 있는 Operator의 OpenShift Container Platform 웹 콘솔 목록에 표시되는 데 필요한 주석이 없었습니다. 이번 업데이트에서는 두 Operator에
operators.openshift.io/infrastructure-features: '["Disconnected"]'
주석을 추가하여 연결이 끊긴 환경에서 실행되는 Operator 목록에 표시됩니다. (LOG-1420) - 이번 업데이트 이전에 Red Hat OpenShift Logging Operator Pod는 성능 최적화된 단일 노드 클러스터의 고객 워크로드용으로 예약된 CPU 코어에서 예약되었습니다. 이번 업데이트를 통해 클러스터 로깅 Operator Pod가 올바른 CPU 코어에 예약됩니다. (LOG-1440)
- 이번 업데이트 이전에는 일부 로그 항목에 인식할 수 없는 UTF-8 바이트가 있어 Elasticsearch가 메시지를 거부하고 전체 버퍼링된 페이로드를 차단했습니다. 이번 업데이트를 통해 거부된 페이로드가 잘못된 로그 항목을 삭제하고 나머지 항목을 다시 제출하여 문제가 해결되었습니다. (LOG-1499)
-
이번 업데이트 이전에는
kibana-proxy
Pod가 종종CrashLoopBackoff
상태를 입력하고Invalid 구성을 기록했습니다. cookie_secret은 16, 24 또는 32바이트여야 하며 pass_access_token == true 또는 cookie_refresh != 0이지만 29바이트입니다.
정확한 실제 바이트 수는 다를 수 있습니다. 이번 업데이트를 통해 Kibana 세션 시크릿 생성이 수정되었으며 이 오류로 인해 kibana-proxy Pod가 더 이상CrashLoopBackoff
상태가 입력되지 않습니다. (LOG-1446) - 이번 업데이트 이전에는 AWS CloudMonitor Fluentd 플러그인이 모든 로그 수준에서 Fluentd 로그에 AWS API 호출을 기록하여 추가 OpenShift Container Platform 노드 리소스를 사용합니다. 이번 업데이트를 통해 AWS CloudMonitor Fluentd 플러그인은 "디버그" 및 "추적" 로그 수준에서만 AWS API 호출을 기록합니다. 이렇게 하면 기본 "경고" 로그 수준에서 Fluentd는 추가 노드 리소스를 사용하지 않습니다. (LOG-1071)
- 이번 업데이트 이전에는 Elasticsearch OpenDistro 보안 플러그인으로 인해 사용자 인덱스 마이그레이션이 실패했습니다. 이번 업데이트에서는 최신 버전의 플러그인을 제공하여 문제를 해결했습니다. 이제 인덱스 마이그레이션이 오류 없이 진행됩니다. (LOG-1276)
- 이번 업데이트 이전에는 OpenShift Container Platform 콘솔의 로깅 대시보드에서 상위 10개의 로그 생성 컨테이너 목록에 데이터 포인트가 없었습니다. 이번 업데이트에서는 문제가 해결되어 대시보드에 모든 데이터 포인트가 표시됩니다. (LOG-1353)
-
이번 업데이트 이전에는
chunkLimitSize
및totalLimitSize
값을 조정하여 Fluentd 로그 전달자의 성능을 튜닝하는 경우 값이 너무 낮다는Setting queued_chunks_limit_size for each buffer to
메시지가 보고되었습니다. 현재 업데이트를 통해 이 메시지가 올바른 값을 보고하도록 이 문제가 해결되었습니다. (LOG-1411) - 이번 업데이트 이전에는 Kibana OpenDistro 보안 플러그인으로 인해 사용자 인덱스 마이그레이션이 실패했습니다. 이번 업데이트에서는 최신 버전의 플러그인을 제공하여 문제를 해결했습니다. 이제 인덱스 마이그레이션이 오류 없이 진행됩니다. (LOG-1558)
- 이번 업데이트 이전에는 네임스페이스 입력 필터를 사용하면 해당 네임스페이스에 있는 로그가 다른 입력에 표시되지 않았습니다. 이번 업데이트를 통해 로그를 수락할 수 있는 모든 입력으로 전송됩니다. (LOG-1570)
-
이번 업데이트 이전에는
viaq/logerr
종속성에 대한 라이센스 파일이 누락되어 라이센스 스캐너가 성공하지 못하고 중단되었습니다. 이번 업데이트를 통해viaq/logerr
종속성은 Apache 2.0에 따라 라이센스가 부여되고 라이센스 스캐너가 성공적으로 실행됩니다. (LOG-1590) -
이번 업데이트 이전에는
elasticsearch-operator-bundle
빌드 파이프라인에서curator5
에 대한 올바르지 않은 태그로 인해 dummy SHA1에 고정된 이미지 가져오기가 발생했습니다. 이번 업데이트를 통해 빌드 파이프라인은curator5
의logging-curator5-rhel8
참조를 사용하여 인덱스 관리 cronjob이registry.redhat.io
에서 올바른 이미지를 가져올 수 있습니다. (LOG-1624) -
이번 업데이트 이전에는
ServiceAccount
권한 문제로 인해no permissions for [indices:admin/aliases/get]
과 같은 오류가 발생했습니다. 이번 업데이트를 통해 권한 수정으로 문제가 해결되었습니다. (LOG-1657) -
이번 업데이트 이전에는 Red Hat OpenShift Logging Operator의 CRD(Custom Resource Definition)에 Loki 출력 유형이 누락되어 승인 컨트롤러에서
ClusterLogForwarder
사용자 정의 리소스 오브젝트를 거부했습니다. 이번 업데이트를 통해 CRD에 Loki가 출력 유형으로 포함되어 관리자가 Loki 서버에 로그를 보내도록ClusterLogForwarder
를 구성할 수 있습니다. (LOG-1683) -
이번 업데이트 이전에는
ServiceAccounts
의 OpenShift Elasticsearch Operator 조정이 보안이 포함된 타사 소유 필드를 덮어썼습니다. 이 문제로 인해 시크릿을 자주 재생성하여 메모리와 CPU가 급증했습니다. 이번 업데이트에서는 이러한 문제가 해결되었습니다. 이제 OpenShift Elasticsearch Operator가 타사 소유 필드를 덮어쓰지 않습니다. (LOG-1714) -
이번 업데이트 이전에는
ClusterLogging
CR(사용자 정의 리소스) 정의에서flush_interval
값을 지정했지만flush_mode
를interval
로 설정하지 않은 경우 Red Hat OpenShift Logging Operator에서 Fluentd 구성을 생성했습니다. 그러나 Fluentd 수집기에서 런타임 시 오류가 발생했습니다. 이번 업데이트를 통해 Red Hat OpenShift Logging Operator는ClusterLogging
CR 정의의 유효성을 검사하고 두 필드가 모두 지정된 경우에만 Fluentd 구성을 생성합니다. (LOG-1723)
1.53.3. 확인된 문제
외부 Elasticsearch 서버로 로그를 전달한 다음 사용자 이름 및 암호와 같은 파이프라인 시크릿에 구성된 값을 변경하는 경우 Fluentd 전달자가 새 시크릿을 로드하지만 이전 값을 사용하여 외부 Elasticsearch 서버에 연결합니다. 이 문제는 Red Hat OpenShift Logging Operator가 현재 콘텐츠 변경 사항에 대한 시크릿을 모니터링하지 않기 때문에 발생합니다. (LOG-1652)
문제를 해결하기 위해 시크릿을 변경하는 경우 다음을 입력하여 Fluentd Pod를 강제로 재배포할 수 있습니다.
$ oc delete pod -l component=collector
1.53.4. 사용되지 않거나 삭제된 기능
이전 릴리스에서 사용 가능하던 일부 기능이 더 이상 사용되지 않거나 삭제되었습니다.
더 이상 사용되지 않는 기능은 여전히 OpenShift Logging에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.
1.53.5. 레거시 Fluentd 및 레거시 syslog 방법을 사용하여 로그 전달이 더 이상 사용되지 않음
OpenShift Container Platform 4.6에서 현재까지 다음 레거시 방법을 사용하여 로그를 전달하는 것은 더 이상 사용되지 않으며 향후 릴리스에서 제거될 예정입니다.
- 레거시 Fluentd 방법을 사용하여 로그 전달
- 레거시 syslog 방법을 사용하여 로그 전달
대신 다음과 같은 비레거시 방법을 사용합니다.
1.53.6. CVE
예 1.26. CVE를 확장하려면 클릭합니다.
2장. 로깅 5.6
2.1. 로깅 5.6 릴리스 노트
Red Hat OpenShift의 로깅 하위 시스템은 핵심 OpenShift Container Platform과 별도의 릴리스 사이클과 함께 설치 가능한 구성 요소로 제공됩니다. Red Hat OpenShift Container Platform 라이프 사이클 정책은 릴리스 호환성에 대해 설명합니다.
stable
채널은 최신 로깅 릴리스에 대한 업데이트만 제공합니다. 이전 릴리스에 대한 업데이트를 계속 받으려면 서브스크립션 채널을 stable-X
로 변경해야 합니다. 여기서 X
는 설치한 로깅 버전입니다.
2.1.1. Logging 5.6.3
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.6.3 이 포함되어 있습니다.
2.1.1.1. 버그 수정
2.1.1.2. CVE
2.1.2. Logging 5.6.2
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.6.2 가 포함되어 있습니다.
2.1.2.1. 버그 수정
-
이번 업데이트 이전에는 systemd 로그의 우선 순위에 따라 수집기에서
수준
필드를 올바르게 설정하지 않았습니다. 이번 업데이트를 통해수준
필드가 올바르게 설정됩니다. (LOG-3429) - 이번 업데이트 이전에는 Operator가 OpenShift Container Platform 4.12 이상에서 비호환 경고가 잘못 생성되었습니다. 이번 업데이트를 통해 Operator max OpenShift Container Platform 버전 값이 수정되어 문제를 해결합니다. (LOG-3584)
-
이번 업데이트 이전에는 output 값이
default
인ClusterLogForwarder
CR(사용자 정의 리소스)을 생성하면 오류가 발생하지 않았습니다. 이번 업데이트를 통해 이 값이 유효하지 않음을 알리는 오류 경고가 적절하게 생성됩니다. (LOG-3437) -
이번 업데이트 이전에는
ClusterLogForwarder
CR(사용자 정의 리소스)에 하나의 출력이기본으로
설정된 여러 파이프라인이 구성된 경우 수집기 Pod가 다시 시작됩니다. 이번 업데이트를 통해 출력 검증 논리가 수정되어 문제를 해결합니다. (LOG-3559) - 이번 업데이트 이전에는 생성 후 수집기 Pod가 다시 시작됩니다. 이번 업데이트를 통해 배포된 수집기가 자체적으로 다시 시작되지 않습니다. (LOG-3608)
- 이번 업데이트 이전에는 패치 릴리스가 카탈로그에서 이전 버전의 Operator를 제거했습니다. 이로 인해 이전 버전을 설치할 수 없습니다. 이번 업데이트에서는 동일한 마이너 버전의 이전 릴리스가 카탈로그에 남아 있도록 번들 구성을 변경합니다. (LOG-3635)
2.1.2.2. CVE
2.1.3. Logging 5.6.1
이 릴리스에는 OpenShift Logging 버그 수정 릴리스 5.6.1 이 포함되어 있습니다.
2.1.3.1. 버그 수정
- 이번 업데이트 이전에는 보존이 활성 상태일 때 querier와의 통신에서 TLS 인증서 오류를 보고합니다. 이번 업데이트를 통해 compactor 및 querier는 더 이상 HTTP를 통해 잘못 통신하지 않습니다. (LOG-3494)
-
이번 업데이트 이전에는 로키스 Operator에서
LokiStack
CR의 상태 설정을 재시도하지 않아 오래된 상태 정보가 발생했습니다. 이번 업데이트를 통해 Operator는 충돌 시 상태 정보 업데이트를 다시 시도합니다. (LOG-3496) -
이번 업데이트 이전에는
kube-apiserver-operator
Operator가 Webhook 유효성을 검사할 때 Loki Operator Webhook 서버에서 TLS 오류가 발생했습니다. 이번 업데이트를 통해 Loki Operator Webhook PKI는 OLM(Operator Lifecycle Manager)에서 관리하며 문제를 해결합니다. (LOG-3510) - 이번 업데이트 이전에는 LokiStack Gateway Labels Enforcer에서 부울 표현식과 결합된 라벨 필터를 사용할 때 유효한 LogQL 쿼리에 대한 구문 분석 오류가 발생했습니다. 이번 업데이트를 통해 LokiStack LogQL 구현에서는 부울 표현식이 있는 라벨 필터를 지원하고 문제를 해결합니다. (LOG-3441), (LOG-3397)
- 이번 업데이트 이전에는 여러 라벨 키에 동일한 접두사와 일부 키가 포함된 경우 Elasticsearch에 작성된 레코드가 실패했습니다. 이번 업데이트를 통해 밑줄이 레이블 키의 점을 교체하여 문제를 해결합니다. (LOG-3463)
-
이번 업데이트 이전에는 OpenShift Container Platform 콘솔과 logging-view-plugin 간의 비호환성으로 인해 OpenShift Container Platform 4.10 클러스터에
Red Hat OpenShift Logging
Operator를 사용할 수 없었습니다. 이번 업데이트를 통해 플러그인이 OpenShift Container Platform 4.10 관리 콘솔과 올바르게 통합됩니다. (LOG-3447) -
이 업데이트 이전에는
ClusterLogForwarder
사용자 정의 리소스의 조정이 기본 로그 저장소를 참조하는 파이프라인의 성능이 저하된 상태를 잘못 보고했습니다. 이번 업데이트를 통해 파이프라인이 올바르게 검증됩니다. (LOG-3477)
2.1.3.2. CVE
2.1.4. Logging 5.6.0
이 릴리스에는 OpenShift Logging 릴리스 5.6 이 포함되어 있습니다.
2.1.4.1. 사용 중단 알림
버전 5.6에서 Fluentd는 더 이상 사용되지 않으며 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 이 기능에 대한 버그 수정 및 지원을 제공하지만 이 기능은 더 이상 개선 사항을 제공하지 않으며 제거됩니다. Fluentd 대신 Vector를 사용할 수 있습니다.
2.1.4.2. 기능 개선
- 이번 업데이트를 통해 로깅은 OpenShift Container Platform 클러스터 전체 암호화 정책을 준수합니다. (로그-895)
- 이번 업데이트를 통해 RokiStack 사용자 정의 리소스를 통해 테넌트별, 스트림별, 글로벌 정책 보존 정책을 우선 순위에 따라 선언할 수 있습니다. (LOG-2695)
- 이번 업데이트를 통해 Splunk는 로그 전달에 사용할 수 있는 출력 옵션입니다. (LOG-2913)
- 이번 업데이트를 통해 Vector가 Fluentd를 기본 수집기로 대체합니다. (로그-2222)
- 이번 업데이트를 통해 Developer 역할은 OpenShift Container Platform 4.11 이상을 실행하는 클러스터의 로그 콘솔 플러그인 내에서 할당된 프로젝트별 워크로드 로그에 액세스할 수 있습니다. (LOG-3388)
-
이번 업데이트를 통해 모든 소스의 로그에 Operator가 배포된 클러스터의 고유 식별자인
openshift.cluster_id
필드가 포함됩니다. 아래 명령을 사용하여clusterID
값을 볼 수 있습니다. (로그-2715)
$ oc get clusterversion/version -o jsonpath='{.spec.clusterID}{"\n"}'
2.1.4.3. 확인된 문제
-
이번 업데이트 이전에는 여러 라벨 키에 동일한 접두사와 일부 키가 포함된 경우 Elasticsearch에서 로그를 거부합니다
.
이로 인해 레이블 키의 를_
로 교체하여 Elasticsearch의 제한이 수정되었습니다.
이 문제를 해결하려면 오류를 유발하는 라벨을 제거하거나 라벨에 네임스페이스를 추가합니다. (LOG-3463)
2.1.4.4. 버그 수정
- 이번 업데이트 이전에는 Kibana 사용자 정의 리소스를 삭제한 경우 OpenShift Container Platform 웹 콘솔에 Kibana에 대한 링크가 계속 표시됩니다. 이번 업데이트를 통해 Kibana 사용자 정의 리소스를 제거하면 해당 링크도 제거됩니다. (LOG-2993)
- 이번 업데이트 이전에는 사용자가 액세스할 수 있는 네임스페이스의 애플리케이션 로그를 볼 수 없었습니다. 이번 업데이트를 통해 Loki Operator는 클러스터 역할 및 클러스터 역할 바인딩을 자동으로 생성하여 사용자가 애플리케이션 로그를 읽을 수 있습니다. (로그-3072)
-
이번 업데이트 이전에는 Operator에서 LokiStack을 기본 로그 스토리지로 사용할 때
ClusterLogForwarder
사용자 정의 리소스에 정의된 모든 사용자 정의 출력을 제거했습니다. 이번 업데이트를 통해 Operator는ClusterLogForwarder
사용자 정의 리소스를 처리할 때 기본 출력과 사용자 정의 출력을 병합합니다. (로그-3090) - 이번 업데이트 이전에는 CA 키를 로키에 마운트하기 위해 볼륨 이름으로 사용되었으며 CA 키에 점과 같은 비 조정 문자가 포함된 경우 오류 상태가 발생했습니다. 이번 업데이트를 통해 볼륨 이름이 문제를 해결하는 내부 문자열로 표준화됩니다. (LOG-3331)
-
이번 업데이트 이전에는 LokiStack 사용자 정의 리소스 정의에 설정된 기본값으로 인해
Replication
ECDHE가 1인1
이 없이 로키스Stack 인스턴스를 생성할 수 없었습니다. 이번 업데이트를 통해 Operator는 사용된 크기의 실제 값을 설정합니다. (LOG-3296) -
이번 업데이트 이전에는
structuredTypeKey
또는structuredTypeName
값을 정의하지 않고 JSON 구문 분석이 활성화된 경우 Vector에서 message 필드를 구문 분석했습니다. 이번 업데이트를 통해 Elasticsearch에 구조화된 로그를 작성할 때structuredTypeKey
또는structuredTypeName
에 값이 필요합니다. (LOG-3195) - 이번 업데이트 이전에는 Elasticsearch Operator의 보안 생성 구성 요소가 내부 보안을 지속적으로 수정했습니다. 이번 업데이트를 통해 기존 보안이 올바르게 처리됩니다. (LOG-3161)
- 이번 업데이트 이전에는 Elasticsearch 또는 Kibana 배포에 상태가 변경된 동안 Operator에서 제거 및 수집기 데몬 세트를 다시 생성하는 루프를 입력할 수 있었습니다. 이번 업데이트를 통해 Operator 상태 처리의 수정으로 문제가 해결됩니다. (LOG-3157)
-
이번 업데이트 이전에는 Kibana에
24h
OAuth 쿠키 만료 시간이 고정되어 있었기 때문에accessTokenInactivityTimeout
필드가24h
보다 낮은 값으로 설정될 때마다 Kibana에서 401 오류가 발생했습니다. 이번 업데이트를 통해 Kibana의 OAuth 쿠키 만료 시간이 기본값인24h
값을 사용하여accessTokenInactivityTimeout
과 동기화됩니다. (LOG-3129) - 이번 업데이트 이전에는 리소스 조정을 위한 Operator 일반 패턴이 생성 후 지속적인 HTTP 409 응답을 가져오기 또는 업데이트하기 전에 생성을 시도하는 것이었습니다. 이번 업데이트를 통해 Operator는 먼저 오브젝트를 검색하고 오브젝트가 누락되었거나 지정되지 않은 경우에만 오브젝트를 생성하거나 업데이트합니다. (LOG-2919)
-
이번 업데이트 이전에는 Fluentd의
.level
및'.structure.level' 필드에 다른 값이 포함될 수 있습니다. 이번 업데이트를 통해 값은 각 필드에 대해 동일합니다. (LOG-2819) - 이번 업데이트 이전에는 Operator에서 신뢰할 수 있는 CA 번들 채우기를 기다리지 않고 번들이 업데이트되면 수집기를 두 번째로 배포했습니다. 이번 업데이트를 통해 Operator는 번들이 수집기 배포를 계속하기 전에 채워졌는지 여부를 간략하게 기다립니다. (LOG-2789)
- 이번 업데이트 이전에는 지표를 검토할 때 로깅 Telemetry 정보가 두 번 표시되었습니다. 이번 업데이트를 통해 로깅 Telemetry 정보가 예상대로 표시됩니다. (로그-2315)
- 이번 업데이트 이전에는 JSON 구문 분석 추가를 활성화한 후 Fluentd Pod 로그에 경고 메시지가 표시되었습니다. 이번 업데이트를 통해 해당 경고 메시지가 표시되지 않습니다. (로그-1806)
-
이번 업데이트 이전에는
oc
에 캐시를 빌드하는 데 쓰기 권한이 있는 폴더가 필요하므로must-gather
스크립트가 완료되지 않았습니다. 이번 업데이트를 통해oc
는 폴더에 대한 쓰기 권한이 있고must-gather
스크립트가 성공적으로 완료됩니다. (LOG-3446) - 이번 업데이트 이전에는 로그 수집기 SCC를 클러스터의 다른 SCC로 대체하여 컬렉터를 사용할 수 없게 됩니다. 이번 업데이트에서는 로그 수집기 SCC의 우선 순위를 설정하여 다른 것보다 우선합니다. (LOG-3235)
-
이번 업데이트 이전에는 벡터가 필드
시퀀스
가 누락되었으며 실제 나노초 부족을 처리하는 방법으로 fluentd에 추가되었습니다. 이번 업데이트를 통해openshift.sequence
필드가 이벤트 로그에 추가되었습니다. (LOG-3106)
2.1.4.5. CVE
2.2. 로깅 5.6 시작하기
로깅 배포 프로세스에 대한 이 개요는 쉽게 참조할 수 있도록 제공됩니다. 전체 문서를 대체할 수 없습니다. 새 설치의 경우 Vector 및>- <Stack 이 권장됩니다.
+
로깅 버전 5.5에서는 Fluentd 또는 벡터 수집기 구현 중에서 선택할 수 있는 옵션이 있으며 로그 저장소로 Elasticsearch 또는 CloudEvent Stack 을 선택할 수 있습니다. 로깅 설명서는 이러한 기본 구성 요소 변경 사항을 반영하도록 업데이트되는 프로세스에 있습니다.
Red Hat OpenShift의 로깅 하위 시스템은 핵심 OpenShift Container Platform과 별도의 릴리스 사이클과 함께 설치 가능한 구성 요소로 제공됩니다. Red Hat OpenShift Container Platform 라이프 사이클 정책은 릴리스 호환성에 대해 설명합니다.
사전 요구 사항
- logStore 기본 설정: Elasticsearch 또는 ECDHEStack
- 수집기 구현 기본 설정: Fluentd 또는 Vector
- 로그 전달 출력에 대한 인증 정보
로깅 버전 5.4.3부터 Elasticsearch Operator는 더 이상 사용되지 않으며 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 이 기능에 대한 버그 수정 및 지원을 제공하지만 이 기능은 더 이상 개선 사항을 제공하지 않으며 제거됩니다. Elasticsearch Operator를 사용하여 기본 로그 스토리지를 관리하는 대신 Loki Operator를 사용할 수 있습니다.
사용하려는 로그 저장소에 대한 Operator를 설치합니다.
- Elasticsearch 의 경우 OpenShift Elasticsearch Operator 를 설치합니다.
Select Stack, install the Operator.
-
ScanSetting
Stack 사용자
정의 리소스(CR) 인스턴스를 생성합니다.
-
ScanSetting
- Red Hat OpenShift Logging Operator 를 설치합니다.
ClusterLogging
사용자 정의 리소스(CR) 인스턴스를 생성합니다.수집기 구현을 선택합니다.
참고로깅 버전 5.6 Fluentd는 더 이상 사용되지 않으며 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 이 기능에 대한 버그 수정 및 지원을 제공하지만 이 기능은 더 이상 개선 사항을 제공하지 않으며 제거됩니다. Fluentd 대신 Vector를 사용할 수 있습니다.
-
ClusterLogForwarder
CR(사용자 정의 리소스) 인스턴스를 생성합니다. - 선택한 출력 파이프라인의 시크릿을 생성합니다.
2.3. 로깅 배포 수정
로깅 하위 시스템은 다음과 같은 논리 구성 요소로 구성됩니다.
-
collector
- 각 노드에서 컨테이너 로그 데이터를 읽고 구성된 출력으로 로그 데이터를 전달합니다. -
store - 분석을 위해 로그 데이터를
저장
하며 전달자의 기본 출력입니다. -
시각화
- 저장된 로그 검색, 쿼리 및 보기를 위한 그래픽 인터페이스입니다.
이러한 구성 요소는 Operator 및 CR(사용자 정의 리소스) YAML 파일에서 관리합니다.
Red Hat OpenShift의 로깅 하위 시스템은 컨테이너 로그 및 노드 로그를 수집합니다. 이는 다음과 같은 유형으로 분류됩니다.
-
애플리케이션
- 인프라 이외의 컨테이너에서 생성한 컨테이너 로그입니다. -
인프라
- 네임스페이스kube-*
및openshift-\*
의 컨테이너 로그 및journald
의 노드 로그입니다. -
audit
-auditd
,kube-apiserver
,openshift-apiserver
,ovn
(활성화된 경우)의 로그입니다.
로깅 수집기는 각 OpenShift Container Platform 노드에 Pod를 배포하는 데몬 세트입니다. 시스템 및 인프라 로그는 journald가 운영 체제, 컨테이너 런타임 및 OpenShift Container Platform의 로그 메시지를 사용하여 생성합니다.
컨테이너 로그는 클러스터에서 실행 중인 포드에서 실행 중인 컨테이너에 의해 생성됩니다. 각 컨테이너는 별도의 로그 스트림을 생성합니다. 수집기는 이러한 소스에서 로그를 수집하고 ClusterLogForwarder
사용자 정의 리소스에 구성된 대로 내부 또는 외부로 전달합니다.
2.4. 로깅 배포 수정
2.4.1. 웹 콘솔을 사용하여 Red Hat OpenShift Logging Operator 배포
OpenShift Container Platform 웹 콘솔을 사용하여 Red Hat OpenShift Logging Operator를 배포할 수 있습니다.
Red Hat OpenShift의 로깅 하위 시스템은 핵심 OpenShift Container Platform과 별도의 릴리스 사이클과 함께 설치 가능한 구성 요소로 제공됩니다. Red Hat OpenShift Container Platform 라이프 사이클 정책은 릴리스 호환성에 대해 설명합니다.
프로세스
OpenShift Container Platform 웹 콘솔을 사용하여 Red Hat OpenShift Logging Operator를 배포하려면 다음을 수행합니다.
Red Hat OpenShift Logging Operator를 설치합니다.
- OpenShift Container Platform 웹 콘솔에서 Operator → OperatorHub를 클릭합니다.
- 키워드로 필터링 필드에 Logging 을 입력합니다.
- 사용 가능한 Operator 목록에서 Red Hat OpenShift Logging을 선택한 다음 설치를 클릭합니다.
stable 또는 stable-5.y 를 업데이트 채널로 선택합니다.
참고stable
채널은 최신 로깅 릴리스에 대한 업데이트만 제공합니다. 이전 릴리스에 대한 업데이트를 계속 받으려면 서브스크립션 채널을stable-X
로 변경해야 합니다. 여기서X
는 설치한 로깅 버전입니다.- 설치 모드에서 클러스터의 특정 네임스페이스 가 선택되어 있는지 확인합니다.
- 설치된 네임스페이스에서 Operator 권장 네임스페이스가 openshift-logging인지 확인하십시오.
- 이 네임스페이스에서 Operator 권장 클러스터 모니터링 사용을 선택합니다.
업데이트 승인을 위해 옵션을 선택합니다.
- 자동 옵션을 사용하면 새 버전이 제공되면 OLM(Operator Lifecycle Manager)에서 Operator를 자동으로 업데이트할 수 있습니다.
- 수동 옵션을 사용하려면 적절한 자격 증명을 가진 사용자가 Operator 업데이트를 승인해야 합니다.
- Console 플러그인에 대해 Enable 또는 Disable 을 선택합니다.
- 설치를 클릭합니다.
Operator → 설치된 Operator 페이지로 전환하여 Red Hat OpenShift Logging Operator 가 설치되었는지 확인합니다.
- Red Hat OpenShift Logging이 openshift-logging 프로젝트에 성공 상태로 나열되어 있는지 확인합니다.
ClusterLogging 인스턴스를 생성합니다.
참고웹 콘솔의 양식 보기에 사용 가능한 모든 옵션이 포함되지는 않습니다. 설정을 완료하려면 YAML 보기 를 사용하는 것이 좋습니다.
컬렉션 섹션에서 수집기 구현을 선택합니다.
참고로깅 버전 5.6 Fluentd는 더 이상 사용되지 않으며 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 이 기능에 대한 버그 수정 및 지원을 제공하지만 이 기능은 더 이상 개선 사항을 제공하지 않으며 제거됩니다. Fluentd 대신 Vector를 사용할 수 있습니다.
logStore 섹션에서 유형을 선택합니다.
참고로깅 버전 5.4.3부터 Elasticsearch Operator는 더 이상 사용되지 않으며 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 이 기능에 대한 버그 수정 및 지원을 제공하지만 이 기능은 더 이상 개선 사항을 제공하지 않으며 제거됩니다. Elasticsearch Operator를 사용하여 기본 로그 스토리지를 관리하는 대신 Loki Operator를 사용할 수 있습니다.
- 생성을 클릭합니다.
2.4.2. 웹 콘솔을 사용하여 test Operator 배포
OpenShift Container Platform 웹 콘솔을 사용하여 Loki Operator를 설치할 수 있습니다.
사전 요구 사항
- 지원되는 로그 저장소(AWS S3, Google Cloud Storage, Azure, Swift, Minio, OpenShift Data Foundation)
프로세스
OpenShift Container Platform 웹 콘솔을 사용하여 Loki Operator를 설치하려면 다음을 수행합니다.
- OpenShift Container Platform 웹 콘솔에서 Operator → OperatorHub를 클릭합니다.
키워드로 필터링 필드에 태그를 입력합니다.
- 사용 가능한 Operator 목록에서 Loki Operator 를 선택한 다음 설치를 클릭합니다.
stable 또는 stable-5.y 를 업데이트 채널로 선택합니다.
참고stable
채널은 최신 로깅 릴리스에 대한 업데이트만 제공합니다. 이전 릴리스에 대한 업데이트를 계속 받으려면 서브스크립션 채널을stable-X
로 변경해야 합니다. 여기서X
는 설치한 로깅 버전입니다.- 설치 모드에서 클러스터의 모든 네임스페이스 가 선택되어 있는지 확인합니다.
- 설치된 네임스페이스에서 openshift-operators-redhat이 선택되어 있는지 확인합니다.
이 네임스페이스에서 Operator 권장 클러스터 모니터링 사용을 선택합니다.
이 옵션은 네임스페이스 오브젝트에서
openshift.io/cluster-monitoring: "true"
레이블을 설정합니다. 클러스터 모니터링이openshift-operators-redhat
네임스페이스를 스크랩하도록 하려면 이 옵션을 선택해야 합니다.업데이트 승인을 위해 옵션을 선택합니다.
- 자동 옵션을 사용하면 새 버전이 제공되면 OLM(Operator Lifecycle Manager)에서 Operator를 자동으로 업데이트할 수 있습니다.
- 수동 옵션을 사용하려면 적절한 자격 증명을 가진 사용자가 Operator 업데이트를 승인해야 합니다.
- 설치를 클릭합니다.
Operator → 설치된 Operator 페이지로 전환하여 iPXE Operator 가 설치되었는지 확인합니다.
- 모든 프로젝트에서 Status 가 Succeeded 로 나열되어 있는지 확인합니다.
access_key_id
및access_key_secret
필드를 사용하여 자격 증명과버킷 이름
,끝점
,리전
을 사용하여 오브젝트 스토리지 위치를 정의하는Secret
YAML 파일을 생성합니다. AWS는 다음 예에서 사용됩니다.apiVersion: v1 kind: Secret metadata: name: logging-loki-s3 namespace: openshift-logging stringData: access_key_id: AKIAIOSFODNN7EXAMPLE access_key_secret: wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY bucketnames: s3-bucket-name endpoint: https://s3.eu-central-1.amazonaws.com region: eu-central-1
세부 정보 탭에서 Create instance Stack을 선택합니다. 그런 다음 YAML 보기 를 선택합니다. 다음 템플릿에 붙여넣고 적절한 값을 지정합니다.
apiVersion: loki.grafana.com/v1 kind: LokiStack metadata: name: logging-loki 1 namespace: openshift-logging spec: size: 1x.small 2 storage: schemas: - version: v12 effectiveDate: '2022-06-01' secret: name: logging-loki-s3 3 type: s3 4 storageClassName: <storage_class_name> 5 tenants: mode: openshift-logging
ClusterLogging
CR을 생성하거나 편집합니다.apiVersion: logging.openshift.io/v1 kind: ClusterLogging metadata: name: instance namespace: openshift-logging spec: managementState: Managed logStore: type: lokistack lokistack: name: logging-loki collection: type: vector
설정을 적용합니다.
oc apply -f cr-lokistack.yaml
2.4.3. CLI를 사용하여 OperatorHub에서 설치
OpenShift Container Platform 웹 콘솔을 사용하는 대신 CLI를 사용하여 OperatorHub에서 Operator를 설치할 수 있습니다. oc
명령을 사용하여 Subscription
개체를 만들거나 업데이트합니다.
사전 요구 사항
-
cluster-admin
권한이 있는 계정을 사용하여 OpenShift Container Platform 클러스터에 액세스할 수 있습니다. -
로컬 시스템에
oc
명령을 설치합니다.
프로세스
OperatorHub에서 클러스터에 사용 가능한 Operator의 목록을 표시합니다.
$ oc get packagemanifests -n openshift-marketplace
출력 예
NAME CATALOG AGE 3scale-operator Red Hat Operators 91m advanced-cluster-management Red Hat Operators 91m amq7-cert-manager Red Hat Operators 91m ... couchbase-enterprise-certified Certified Operators 91m crunchy-postgres-operator Certified Operators 91m mongodb-enterprise Certified Operators 91m ... etcd Community Operators 91m jaeger Community Operators 91m kubefed Community Operators 91m ...
필요한 Operator의 카탈로그를 기록해 둡니다.
필요한 Operator를 검사하여 지원되는 설치 모드 및 사용 가능한 채널을 확인합니다.
$ oc describe packagemanifests <operator_name> -n openshift-marketplace
OperatorGroup
오브젝트로 정의되는 Operator group에서 Operator group과 동일한 네임스페이스에 있는 모든 Operator에 대해 필요한 RBAC 액세스 권한을 생성할 대상 네임스페이스를 선택합니다.Operator를 서브스크립션하는 네임스페이스에는 Operator의 설치 모드, 즉
AllNamespaces
또는SingleNamespace
모드와 일치하는 Operator group이 있어야 합니다. 설치하려는 Operator에서AllNamespaces
를 사용하는 경우openshift-operators
네임스페이스에 적절한 Operator group이 이미 있습니다.그러나 Operator에서
SingleNamespace
모드를 사용하고 적절한 Operator group이 없는 경우 이를 생성해야 합니다.참고이 프로세스의 웹 콘솔 버전에서는
SingleNamespace
모드를 선택할 때 자동으로OperatorGroup
및Subscription
개체 생성을 자동으로 처리합니다.OperatorGroup
개체 YAML 파일을 만듭니다 (예:operatorgroup.yaml)
.OperatorGroup
오브젝트의 예apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: <operatorgroup_name> namespace: <namespace> spec: targetNamespaces: - <namespace>
OperatorGroup
개체를 생성합니다.$ oc apply -f operatorgroup.yaml
Subscription
개체 YAML 파일을 생성하여 OpenShift Pipelines Operator에 네임스페이스를 등록합니다(예:sub.yaml)
.Subscription
개체 예apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: <subscription_name> namespace: openshift-operators 1 spec: channel: <channel_name> 2 name: <operator_name> 3 source: redhat-operators 4 sourceNamespace: openshift-marketplace 5 config: env: 6 - name: ARGS value: "-v=10" envFrom: 7 - secretRef: name: license-secret volumes: 8 - name: <volume_name> configMap: name: <configmap_name> volumeMounts: 9 - mountPath: <directory_name> name: <volume_name> tolerations: 10 - operator: "Exists" resources: 11 requests: memory: "64Mi" cpu: "250m" limits: memory: "128Mi" cpu: "500m" nodeSelector: 12 foo: bar
- 1
AllNamespaces
설치 모드를 사용하려면openshift-operators
네임스페이스를 지정합니다. 그 외에는SingleNamespace
설치 모드를 사용하도록 관련 단일 네임스페이스를 지정합니다.- 2
- 등록할 채널의 이름입니다.
- 3
- 등록할 Operator의 이름입니다.
- 4
- Operator를 제공하는 카탈로그 소스의 이름입니다.
- 5
- 카탈로그 소스의 네임스페이스입니다. 기본 OperatorHub 카탈로그 소스에는
openshift-marketplace
를 사용합니다. - 6
env
매개변수는 OLM에서 생성한 포드의 모든 컨테이너에 있어야 하는 환경 변수 목록을 정의합니다.- 7
envFrom
매개변수는 컨테이너에서 환경 변수를 채울 소스 목록을 정의합니다.- 8
volumes
매개변수는 OLM에서 생성한 Pod에 있어야 하는 볼륨 목록을 정의합니다.- 9
volumeMounts
매개변수는 OLM에서 생성한 Pod의 모든 컨테이너에 있어야 하는 VolumeMounts 목록을 정의합니다.volumeMount
가 존재하지 않는볼륨을
참조하는 경우 OLM에서 Operator를 배포하지 못합니다.- 10
tolerations
매개변수는 OLM에서 생성한 Pod의 Tolerations 목록을 정의합니다.- 11
resources
매개변수는 OLM에서 생성한 Pod의 모든 컨테이너에 대한 리소스 제약 조건을 정의합니다.- 12
nodeSelector
매개변수는 OLM에서 생성한 Pod에 대한NodeSelector
를 정의합니다.
Subscription
오브젝트를 생성합니다.$ oc apply -f sub.yaml
이 시점에서 OLM은 이제 선택한 Operator를 인식합니다. Operator의 CSV(클러스터 서비스 버전)가 대상 네임스페이스에 표시되고 Operator에서 제공하는 API를 생성에 사용할 수 있어야 합니다.
2.4.4. 웹 콘솔을 사용하여 클러스터에서 Operator 삭제
클러스터 관리자는 웹 콘솔을 사용하여 선택한 네임스페이스에서 설치된 Operator를 삭제할 수 있습니다.
사전 요구 사항
-
cluster-admin
권한이 있는 계정을 사용하여 OpenShift Container Platform 클러스터 웹 콘솔에 액세스할 수 있습니다.
프로세스
- Operator → 설치된 Operator 페이지로 이동합니다.
- 제거하려는 Operator를 찾으려면 이름으로 필터링 필드에 키워드를 스크롤하거나 입력합니다. 그런 다음 해당 Operator를 클릭합니다.
Operator 세부 정보 페이지 오른쪽에 있는 작업 목록에서 Operator 제거를 선택합니다.
Operator를 설치 제거하시겠습니까? 대화 상자가 표시됩니다.
설치 제거를 선택하여 Operator, Operator 배포 및 Pod를 제거합니다. 이 작업 후에 Operator는 실행을 중지하고 더 이상 업데이트가 수신되지 않습니다.
참고이 작업은 CRD(사용자 정의 리소스 정의) 및 CR(사용자 정의 리소스)을 포함하여 Operator에서 관리하는 리소스를 제거하지 않습니다. 웹 콘솔에서 활성화된 대시보드 및 탐색 항목과 계속 실행되는 클러스터 외부 리소스는 수동 정리가 필요할 수 있습니다. Operator를 설치 제거한 후 해당 항목을 제거하려면 Operator CRD를 수동으로 삭제해야 할 수 있습니다.
2.4.5. CLI를 사용하여 클러스터에서 Operator 삭제
클러스터 관리자는 CLI를 사용하여 선택한 네임스페이스에서 설치된 Operator를 삭제할 수 있습니다.
사전 요구 사항
-
cluster-admin
권한이 있는 계정을 사용하여 OpenShift Container Platform 클러스터에 액세스할 수 있습니다. -
oc
명령이 워크스테이션에 설치되어 있습니다.
프로세스
currentCSV
필드에서 구독한 Operator(예:jaeger
)의 현재 버전을 확인합니다.$ oc get subscription jaeger -n openshift-operators -o yaml | grep currentCSV
출력 예
currentCSV: jaeger-operator.v1.8.2
서브스크립션을 삭제합니다(예:
jaeger
).$ oc delete subscription jaeger -n openshift-operators
출력 예
subscription.operators.coreos.com "jaeger" deleted
이전 단계의
currentCSV
값을 사용하여 대상 네임스페이스에서 Operator의 CSV를 삭제합니다.$ oc delete clusterserviceversion jaeger-operator.v1.8.2 -n openshift-operators
출력 예
clusterserviceversion.operators.coreos.com "jaeger-operator.v1.8.2" deleted
2.5. 로깅 참조
2.5.1. 수집기 기능
출력 결과 | 프로토콜 | 테스트에 사용 | fluentd | vector |
---|---|---|---|---|
서드니 | HTTP를 통한 REST(S) | ✓ | ✓ | |
Elasticsearch v6 | v6.8.1 | ✓ | ✓ | |
Elasticsearch v7 | v7.12.2, 7.17.7 | ✓ | ✓ | |
Elasticsearch v8 | v8.4.3 | ✓ | ||
fluent Forward | Fluentd 전달 v1 | Fluentd 1.14.6, logstash 7.10.1 | ✓ | |
Google 클라우드 로깅 | ✓ | |||
HTTP | HTTP 1.1 | Fluentd 1.14.6, 벡터 0.21 | ||
kafka | Kafka 0.11 | Kafka 2.4.1, 2.7.0, 3.3.1 | ✓ | ✓ |
Loki | HTTP를 통한 REST(S) | Loki 2.3.0, 2.7 | ✓ | ✓ |
Splunk | HEC | v8.2.9, 9.0.0 | ✓ | |
syslog | RFC3164, RFC5424 | Rsyslog 8.37.0-9.el7 | ✓ |
표 2.1. 로그 소스
기능 | fluentd | vector |
---|---|---|
앱 컨테이너 로그 | ✓ | ✓ |
앱별 라우팅 | ✓ | ✓ |
네임스페이스별 앱별 라우팅 | ✓ | ✓ |
인프라 컨테이너 로그 | ✓ | ✓ |
인프라 저널 로그 | ✓ | ✓ |
kube API 감사 로그 | ✓ | ✓ |
OpenShift API 감사 로그 | ✓ | ✓ |
OVN(Open Virtual Network) 감사 로그 | ✓ | ✓ |
표 2.2. 권한 부여 및 인증
기능 | fluentd | vector |
---|---|---|
Elasticsearch 인증서 | ✓ | ✓ |
Elasticsearch 사용자 이름 / 암호 | ✓ | ✓ |
NetNamespace 키 | ✓ | ✓ |
<.> STS | ✓ | ✓ |
Kafka 인증서 | ✓ | ✓ |
Kafka 사용자 이름 / 암호 | ✓ | ✓ |
kafka SASL | ✓ | ✓ |
Loki bearer 토큰 | ✓ | ✓ |
표 2.3. Normalizations 및 transformationss
기능 | fluentd | vector |
---|---|---|
Viaq 데이터 모델 - 앱 | ✓ | ✓ |
Viaq 데이터 모델 - 인프라 | ✓ | ✓ |
Viaq 데이터 모델 - 인프라(journal) | ✓ | ✓ |
Viaq 데이터 모델 - Linux 감사 | ✓ | ✓ |
Viaq 데이터 모델 - kube-apiserver audit | ✓ | ✓ |
Viaq 데이터 모델 - OpenShift API 감사 | ✓ | ✓ |
Viaq 데이터 모델 - OVN | ✓ | ✓ |
loglevel Normalization | ✓ | ✓ |
JSON 구문 분석 | ✓ | ✓ |
구조화된 인덱스 | ✓ | ✓ |
다중 줄 오류 감지 | ✓ | |
multicontainer / split 인덱스 | ✓ | ✓ |
flatten 라벨 | ✓ | ✓ |
CLF 정적 레이블 | ✓ | ✓ |
표 2.4. tuning
기능 | fluentd | vector |
---|---|---|
fluentd readlinelimit | ✓ | |
fluentd 버퍼 | ✓ | |
- chunklimitsize | ✓ | |
- 총 제한 크기 | ✓ | |
- overflowaction | ✓ | |
- flushthreadcount | ✓ | |
- flushmode | ✓ | |
- flushinterval | ✓ | |
- retrywait | ✓ | |
- retrytype | ✓ | |
- retrymaxinterval | ✓ | |
- retrytimeout | ✓ |
표 2.5. 가시성
기능 | fluentd | vector |
---|---|---|
지표 | ✓ | ✓ |
대시보드 | ✓ | ✓ |
경고 | ✓ |
표 2.6. 기타
기능 | fluentd | vector |
---|---|---|
글로벌 프록시 지원 | ✓ | ✓ |
x86 지원 | ✓ | ✓ |
ARM 지원 | ✓ | ✓ |
IBM Power 지원 | ✓ | ✓ |
IBM zSystems 지원 | ✓ | ✓ |
IPv6 지원 | ✓ | ✓ |
로그 이벤트 버퍼링 | ✓ | |
연결이 끊긴 클러스터 | ✓ | ✓ |
추가 리소스
2.5.2. 로깅 5.6 API 참조
2.5.2.1. ClusterLogForwarder
ClusterLogForwarder는 로그 전달을 구성하는 API입니다.
이름 지정된 입력 집합에서 이름이 지정된 출력 세트로 전달하는 파이프라인
목록을 지정하여 전달을 구성합니다.
공통 로그 카테고리에 대한 기본 제공 입력 이름이 있으며 사용자 지정 입력을 정의하여 추가 필터링을 수행할 수 있습니다.
기본 openshift 로그 저장소에는 기본 제공 출력 이름이 있지만 URL 및 기타 연결 정보로 자체 출력을 정의하여 클러스터 내부 또는 외부의 다른 저장소 또는 프로세서로 로그를 전달할 수 있습니다.
자세한 내용은 API 필드에 대한 설명서를 참조하십시오.
속성 | 유형 | 설명 |
---|---|---|
spec | object | ClusterLogForwarder의 원하는 동작 사양 |
status | object | ClusterLogForwarder의 상태 |
2.5.2.1.1. .spec
2.5.2.1.1.1. 설명
ClusterLogForwarderSpec은 로그를 원격 대상으로 전달하는 방법을 정의합니다.
2.5.2.1.1.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
입력 | array | (선택 사항) 입력은 로그 메시지를 전달할 때 필터로 지정됩니다. |
outputDefaults | object | (선택 사항) DEPRECATED OutputDefaults는 기본 저장소에 명시적으로 전달자 구성을 지정합니다. |
출력 | array | (선택 사항) 출력에는 로그 메시지에 대한 대상의 이름이 지정됩니다. |
Pipeline | array | 파이프라인은 입력 집합에서 선택한 메시지를 출력 세트로 전달합니다. |
2.5.2.1.2. .spec.inputs[]
2.5.2.1.2.1. 설명
InputSpec은 로그 메시지의 선택기를 정의합니다.
2.5.2.1.2.1.1. 유형
- array
속성 | 유형 | 설명 |
---|---|---|
애플리케이션 | object |
(선택 사항) 애플리케이션이 있는 경우 이름이 지정된 |
name | string |
|
2.5.2.1.3. .spec.inputs[].application
2.5.2.1.3.1. 설명
애플리케이션 로그 선택기. 선택기의 모든 조건을 충족 (logical AND)하여 로그를 선택해야 합니다.
2.5.2.1.3.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
네임스페이스 | array | (선택 사항) 애플리케이션 로그를 수집할 네임스페이스입니다. |
선택기 | object | (선택 사항) 일치하는 라벨이 있는 Pod의 로그 선택기입니다. |
2.5.2.1.4. .spec.inputs[].application.namespaces[]
2.5.2.1.4.1. 설명
2.5.2.1.4.1.1. 유형
- array
2.5.2.1.5. .spec.inputs[].application.selector
2.5.2.1.5.1. 설명
레이블 선택기는 리소스 집합에 대한 레이블 쿼리입니다.
2.5.2.1.5.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
matchLabels | object | (선택 사항) matchLabels는 {key,value} 쌍의 맵입니다. matchLabels의 단일 {key,value} |
2.5.2.1.6. .spec.inputs[].application.selector.matchLabels
2.5.2.1.6.1. 설명
2.5.2.1.6.1.1. 유형
- object
2.5.2.1.7. .spec.outputDefaults
2.5.2.1.7.1. 설명
2.5.2.1.7.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
elasticsearch | object | (선택 사항) Elasticsearch OutputSpec 기본값 |
2.5.2.1.8. .spec.outputDefaults.elasticsearch
2.5.2.1.8.1. 설명
ElasticsearchStructuredSpec은 elasticsearch 인덱스를 결정하기 위해 구조화된 로그 변경과 관련된 사양입니다.
2.5.2.1.8.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
enableStructuredContainerLogs | bool | (선택 사항) EnableStructuredContainerLogs를 사용하면 다중 컨테이너 구조화된 로그를 허용할 수 있습니다. |
structuredTypeKey | string | (선택 사항) elasticsearch 인덱스의 이름으로 사용할 메타데이터 키를 지정합니다. |
structuredTypeName | string | (선택 사항) loadbalancingdTypeName은 elasticsearch 스키마의 이름을 지정합니다. |
2.5.2.1.9. .spec.outputs[]
2.5.2.1.9.1. 설명
출력은 로그 메시지의 대상을 정의합니다.
2.5.2.1.9.1.1. 유형
- array
속성 | 유형 | 설명 |
---|---|---|
syslog | object | (선택 사항) |
fluentdForward | object | (선택 사항) |
elasticsearch | object | (선택 사항) |
kafka | object | (선택 사항) |
cloudwatch | object | (선택 사항) |
loki | object | (선택 사항) |
googleCloudLogging | object | (선택 사항) |
splunk | object | (선택 사항) |
name | string |
|
secret | object | (선택 사항) 인증을 위한 시크릿입니다. |
tls | object | TLS에는 TLS 클라이언트 연결에 대한 옵션을 제어하는 설정이 포함되어 있습니다. |
type | string | 출력 플러그인의 유형입니다. |
url | string | (선택 사항) 로그 레코드를 보낼 URL입니다. |
2.5.2.1.10. .spec.outputs[].secret
2.5.2.1.10.1. 설명
OutputSecretSpec은 네임스페이스가 없는 이름만 포함하는 보안 참조입니다.
2.5.2.1.10.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
name | string | 로그 전달자 보안에 대해 구성된 네임스페이스의 보안 이름입니다. |
2.5.2.1.11. .spec.outputs[].tls
2.5.2.1.11.1. 설명
OutputTLSSpec에는 출력 유형과 무관한 TLS 연결 옵션이 포함되어 있습니다.
2.5.2.1.11.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
insecureSkipVerify | bool | InsecureSkipVerify이 true인 경우 인증서의 오류를 무시하도록 TLS 클라이언트가 구성됩니다. |
2.5.2.1.12. .spec.pipelines[]
2.5.2.1.12.1. 설명
PipelinesSpec은 입력 세트를 출력 세트에 연결합니다.
2.5.2.1.12.1.1. 유형
- array
속성 | 유형 | 설명 |
---|---|---|
detectMultilineErrors | bool | (선택 사항) DetectMultilineErrors를 사용하면 컨테이너 로그를 여러 줄 오류 감지할 수 있습니다. |
inputRefs | array |
inputRefs는 이 파이프라인에 대한 입력 이름( |
labels | object | (선택 사항) 이 파이프라인을 통과하는 로그 레코드에 적용되는 라벨입니다. |
name | string |
(선택 사항) 이름은 선택 사항이지만 |
outputRefs | array |
outputRefs는 이 파이프라인의 출력 이름( |
구문 분석 | string | (선택 사항) Parse를 사용하면 로그 항목을 구조화된 로그로 구문 분석할 수 있습니다. |
2.5.2.1.13. .spec.pipelines[].inputRefs[]
2.5.2.1.13.1. 설명
2.5.2.1.13.1.1. 유형
- array
2.5.2.1.14. .spec.pipelines[].labels
2.5.2.1.14.1. 설명
2.5.2.1.14.1.1. 유형
- object
2.5.2.1.15. .spec.pipelines[].outputRefs[]
2.5.2.1.15.1. 설명
2.5.2.1.15.1.1. 유형
- array
2.5.2.1.16. .status
2.5.2.1.16.1. 설명
ClusterLogForwarderStatus는 ClusterLogForwarder의 관찰 상태를 정의합니다.
2.5.2.1.16.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
conditions | object | 로그 전달자의 상태입니다. |
입력 | 조건 | 입력은 입력 이름을 입력 조건에 매핑합니다. |
출력 | 조건 | 출력은 출력 이름을 출력 조건에 매핑합니다. |
Pipeline | 조건 | 파이프라인은 파이프라인 이름을 파이프라인의 조건에 매핑합니다. |
2.5.2.1.17. .status.conditions
2.5.2.1.17.1. 설명
2.5.2.1.17.1.1. 유형
- object
2.5.2.1.18. .status.inputs
2.5.2.1.18.1. 설명
2.5.2.1.18.1.1. 유형
- 조건
2.5.2.1.19. .status.outputs
2.5.2.1.19.1. 설명
2.5.2.1.19.1.1. 유형
- 조건
2.5.2.1.20. .status.pipelines
2.5.2.1.20.1. 설명
2.5.2.1.20.1.1. 유형
- conditions== ClusterLogging A Red Hat OpenShift Logging 인스턴스. ClusterLogging은 clusterloggings API의 스키마입니다.
속성 | 유형 | 설명 |
---|---|---|
spec | object | ClusterLogging의 원하는 동작 사양 |
status | object | status는 ClusterLogging의 관찰 상태를 정의합니다. |
2.5.2.1.21. .spec
2.5.2.1.21.1. 설명
ClusterLoggingSpec은 원하는 ClusterLogging 상태를 정의합니다.
2.5.2.1.21.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
컬렉션 | object | 클러스터의 컬렉션 구성 요소 사양 |
큐레이션 | object | (DEPRECATED) (선택 사항) 더 이상 사용되지 않습니다. 클러스터의 Curation 구성 요소 사양 |
forwarder | object | (DEPRECATED) (선택 사항) 더 이상 사용되지 않습니다. 클러스터의 전달자 구성 요소 사양 |
logStore | object | (선택 사항) 클러스터의 로그 스토리지 구성 요소 사양 |
managementState | string | (선택 사항) 리소스가 운영자에 의해 '관리'인지 또는 '관리되지 않음'인지 나타냅니다. |
시각화 | object | (선택 사항) 클러스터에 대한 시각화 구성 요소의 사양 |
2.5.2.1.22. .spec.collection
2.5.2.1.22.1. 설명
이는 Log 및 이벤트 컬렉션에 대한 정보를 포함하는 구조입니다.
2.5.2.1.22.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
resources | object | (선택 사항) 수집기의 리소스 요구 사항입니다. |
nodeSelector | object | (선택 사항) Pod가 예약된 노드를 정의합니다. |
허용 오차 | array | (선택 사항) Pod에서 허용할 허용 오차를 정의합니다. |
fluentd | object | (선택 사항) Fluentd는 fluentd 유형의 전달자 구성을 나타냅니다. |
logs | object | (DEPRECATED) (선택 사항) 더 이상 사용되지 않습니다. 클러스터의 로그 컬렉션 사양 |
type | string | (선택 사항) 구성할 로그 컬렉션의 유형입니다. |
2.5.2.1.23. .spec.collection.fluentd
2.5.2.1.23.1. 설명
FluentdForwarderSpec은 fluentd 유형의 전달자를 위한 구성을 나타냅니다.
2.5.2.1.23.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
버퍼 | object | |
inFile | object |
2.5.2.1.24. .spec.collection.fluentd.buffer
2.5.2.1.24.1. 설명
FluentdBufferSpec은 모든 fluentd 출력에 대해 버퍼 구성을 튜닝하는 fluentd 버퍼 매개변수의 서브 세트를 나타냅니다. 버퍼 및 큐 크기 조정, 플러시 작업 및 플러시 플러시를 구성하는 매개변수 서브 세트를 지원합니다.
일반적인 매개변수는 https://docs.fluentd.org/configuration/buffer-section#buffering-parameters에서 참조하십시오.
플러시 매개변수의 경우 https://docs.fluentd.org/configuration/buffer-section#flushing-parameters를 참조하십시오.
재시도 매개변수는 https://docs.fluentd.org/configuration/buffer-section#retries-parameters를 참조하십시오.
2.5.2.1.24.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
chunkLimitSize | string | (선택 사항) ChunkLimitSize는 각 청크의 최대 크기를 나타냅니다. 이벤트 예정 |
flushInterval | string | (선택 사항) FlushInterval은 두 개의 연속 플러시 사이에서 대기하는 시간 기간을 나타냅니다. |
flushMode | string | (선택 사항) FlushMode는 청크를 작성할 플러시 스레드의 모드를 나타냅니다. mode |
flushThreadCount | int | (선택 사항) FlushThreadCount reprents the number of threads used by the fluentd buffer |
overflowAction | string | (선택 사항) OverflowAction은 fluentd 버퍼 플러그인에 대한 작업을 나타냅니다. |
retryMaxInterval | string | (선택 사항) RetryMaxInterval은 지수 백오프의 최대 시간 간격을 나타냅니다. |
retryTimeout | string | (선택 사항) RetryTimeout은 포기하기 전에 재시도를 시도할 수 있는 최대 시간 간격을 나타냅니다. |
retryType | string | (선택 사항) RetryType은 플러시 작업 재시도 유형을 나타냅니다. 플러시 작업 가능 |
retryWait | string | (선택 사항) RetryWait은 플러시를 위한 두 번 재시도 사이의 시간 기간을 나타냅니다. |
totalLimitSize | string | (선택 사항) TotalLimitSize는 fluentd당 허용된 노드 공간의 임계값을 나타냅니다. |
2.5.2.1.25. .spec.collection.fluentd.inFile
2.5.2.1.25.1. 설명
FluentdInFileSpec은 fluentd in-tail 플러그인 매개변수의 서브 세트를 사용하여 모든 fluentd in-tail 입력에 대한 구성을 조정합니다.
일반적인 매개변수는 https://docs.fluentd.org/input/tail#parameters에서 참조하십시오.
2.5.2.1.25.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
readLinesLimit | int | (선택 사항) ReadLinesLimit는 각 I/O 작업에서 읽을 행 수를 나타냅니다. |
2.5.2.1.26. .spec.collection.logs
2.5.2.1.26.1. 설명
2.5.2.1.26.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
fluentd | object | Fluentd 로그 수집 구성 요소의 사양 |
type | string | 구성할 로그 컬렉션의 유형입니다. |
2.5.2.1.27. .spec.collection.logs.fluentd
2.5.2.1.27.1. 설명
CollectorSpec은 수집기의 스케줄링 및 리소스를 정의하는 spec입니다.
2.5.2.1.27.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
nodeSelector | object | (선택 사항) Pod가 예약된 노드를 정의합니다. |
resources | object | (선택 사항) 수집기의 리소스 요구 사항입니다. |
허용 오차 | array | (선택 사항) Pod에서 허용할 허용 오차를 정의합니다. |
2.5.2.1.28. .spec.collection.logs.fluentd.nodeSelector
2.5.2.1.28.1. 설명
2.5.2.1.28.1.1. 유형
- object
2.5.2.1.29. .spec.collection.logs.fluentd.resources
2.5.2.1.29.1. 설명
2.5.2.1.29.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
limits | object | (선택 사항) 제한은 허용되는 최대 컴퓨팅 리소스 양을 설명합니다. |
requests | object | (선택 사항) Requests는 필요한 최소 컴퓨팅 리소스 양을 설명합니다. |
2.5.2.1.30. .spec.collection.logs.fluentd.resources.limits
2.5.2.1.30.1. 설명
2.5.2.1.30.1.1. 유형
- object
2.5.2.1.31. .spec.collection.logs.fluentd.resources.requests
2.5.2.1.31.1. 설명
2.5.2.1.31.1.1. 유형
- object
2.5.2.1.32. .spec.collection.logs.fluentd.tolerations[]
2.5.2.1.32.1. 설명
2.5.2.1.32.1.1. 유형
- array
속성 | 유형 | 설명 |
---|---|---|
effect | string | (선택 사항) Effect는 일치하는 테인트 효과를 나타냅니다. 빈은 모든 테인트 효과와 일치함을 의미합니다. |
key | string | (선택 사항) Key는 허용 오차가 적용되는 테인트 키입니다. 빈은 모든 테인트 키와 일치함을 의미합니다. |
operator | string | (선택 사항) Operator는 값과 키의 관계를 나타냅니다. |
tolerationSeconds | int | (선택 사항) TolerationSeconds는 허용 오차 (선택 사항)를 나타냅니다. |
value | string | (선택 사항) 값은 톨러레이션이 일치하는 테인트 값입니다. |
2.5.2.1.33. .spec.collection.logs.fluentd.tolerations[].tolerationSeconds
2.5.2.1.33.1. 설명
2.5.2.1.33.1.1. 유형
- int
2.5.2.1.34. .spec.curation
2.5.2.1.34.1. 설명
이는 로그 큐레이션(Curator)에 대한 정보를 포함하는 구조입니다.
2.5.2.1.34.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
Curator | object | 구성할 큐레이션의 사양 |
type | string | 구성할 큐레이션의 종류 |
2.5.2.1.35. .spec.curation.curator
2.5.2.1.35.1. 설명
2.5.2.1.35.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
nodeSelector | object | Pod가 예약된 노드를 정의합니다. |
resources | object | (선택 사항) Curator의 리소스 요구 사항입니다. |
스케줄 | string | Curator 작업이 실행되는 cron 스케줄입니다. 기본값은 "30 3 * *"입니다. |
허용 오차 | array |
2.5.2.1.36. .spec.curation.curator.nodeSelector
2.5.2.1.36.1. 설명
2.5.2.1.36.1.1. 유형
- object
2.5.2.1.37. .spec.curation.curator.resources
2.5.2.1.37.1. 설명
2.5.2.1.37.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
limits | object | (선택 사항) 제한은 허용되는 최대 컴퓨팅 리소스 양을 설명합니다. |
requests | object | (선택 사항) Requests는 필요한 최소 컴퓨팅 리소스 양을 설명합니다. |
2.5.2.1.38. .spec.curation.curator.resources.limits
2.5.2.1.38.1. 설명
2.5.2.1.38.1.1. 유형
- object
2.5.2.1.39. .spec.curation.curator.resources.requests
2.5.2.1.39.1. 설명
2.5.2.1.39.1.1. 유형
- object
2.5.2.1.40. .spec.curation.curator.tolerations[]
2.5.2.1.40.1. 설명
2.5.2.1.40.1.1. 유형
- array
속성 | 유형 | 설명 |
---|---|---|
effect | string | (선택 사항) Effect는 일치하는 테인트 효과를 나타냅니다. 빈은 모든 테인트 효과와 일치함을 의미합니다. |
key | string | (선택 사항) Key는 허용 오차가 적용되는 테인트 키입니다. 빈은 모든 테인트 키와 일치함을 의미합니다. |
operator | string | (선택 사항) Operator는 값과 키의 관계를 나타냅니다. |
tolerationSeconds | int | (선택 사항) TolerationSeconds는 허용 오차 (선택 사항)를 나타냅니다. |
value | string | (선택 사항) 값은 톨러레이션이 일치하는 테인트 값입니다. |
2.5.2.1.41. .spec.curation.curator.tolerations[].tolerationSeconds
2.5.2.1.41.1. 설명
2.5.2.1.41.1.1. 유형
- int
2.5.2.1.42. .spec.forwarder
2.5.2.1.42.1. 설명
ForwarderSpec에는 특정 전달자 구현을 위한 글로벌 튜닝 매개변수가 포함되어 있습니다. 이 필드는 일반적으로 사용할 필요가 없으며 기본 전달자 기술에 익숙한 사용자가 성능 튜닝을 허용합니다. 현재 지원됨: fluentd
.
2.5.2.1.42.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
fluentd | object |
2.5.2.1.43. .spec.forwarder.fluentd
2.5.2.1.43.1. 설명
FluentdForwarderSpec은 fluentd 유형의 전달자를 위한 구성을 나타냅니다.
2.5.2.1.43.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
버퍼 | object | |
inFile | object |
2.5.2.1.44. .spec.forwarder.fluentd.buffer
2.5.2.1.44.1. 설명
FluentdBufferSpec은 모든 fluentd 출력에 대해 버퍼 구성을 튜닝하는 fluentd 버퍼 매개변수의 서브 세트를 나타냅니다. 버퍼 및 큐 크기 조정, 플러시 작업 및 플러시 플러시를 구성하는 매개변수 서브 세트를 지원합니다.
일반적인 매개변수는 https://docs.fluentd.org/configuration/buffer-section#buffering-parameters에서 참조하십시오.
플러시 매개변수의 경우 https://docs.fluentd.org/configuration/buffer-section#flushing-parameters를 참조하십시오.
재시도 매개변수는 https://docs.fluentd.org/configuration/buffer-section#retries-parameters를 참조하십시오.
2.5.2.1.44.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
chunkLimitSize | string | (선택 사항) ChunkLimitSize는 각 청크의 최대 크기를 나타냅니다. 이벤트 예정 |
flushInterval | string | (선택 사항) FlushInterval은 두 개의 연속 플러시 사이에서 대기하는 시간 기간을 나타냅니다. |
flushMode | string | (선택 사항) FlushMode는 청크를 작성할 플러시 스레드의 모드를 나타냅니다. mode |
flushThreadCount | int | (선택 사항) FlushThreadCount reprents the number of threads used by the fluentd buffer |
overflowAction | string | (선택 사항) OverflowAction은 fluentd 버퍼 플러그인에 대한 작업을 나타냅니다. |
retryMaxInterval | string | (선택 사항) RetryMaxInterval은 지수 백오프의 최대 시간 간격을 나타냅니다. |
retryTimeout | string | (선택 사항) RetryTimeout은 포기하기 전에 재시도를 시도할 수 있는 최대 시간 간격을 나타냅니다. |
retryType | string | (선택 사항) RetryType은 플러시 작업 재시도 유형을 나타냅니다. 플러시 작업 가능 |
retryWait | string | (선택 사항) RetryWait은 플러시를 위한 두 번 재시도 사이의 시간 기간을 나타냅니다. |
totalLimitSize | string | (선택 사항) TotalLimitSize는 fluentd당 허용된 노드 공간의 임계값을 나타냅니다. |
2.5.2.1.45. .spec.forwarder.fluentd.inFile
2.5.2.1.45.1. 설명
FluentdInFileSpec은 fluentd in-tail 플러그인 매개변수의 서브 세트를 사용하여 모든 fluentd in-tail 입력에 대한 구성을 조정합니다.
일반적인 매개변수는 https://docs.fluentd.org/input/tail#parameters에서 참조하십시오.
2.5.2.1.45.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
readLinesLimit | int | (선택 사항) ReadLinesLimit는 각 I/O 작업에서 읽을 행 수를 나타냅니다. |
2.5.2.1.46. .spec.logStore
2.5.2.1.46.1. 설명
LogStoreSpec에는 로그 저장 방법에 대한 정보가 포함되어 있습니다.
2.5.2.1.46.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
elasticsearch | object | Elasticsearch 로그 저장소 구성 요소의 사양 |
lokistack | object | CloudEventStack에는 Type이 LogStoreTypeLokiStack으로 설정된 경우 로그 스토리지에 사용할 ScanSettingStack에 대한 정보가 포함되어 있습니다. |
retentionPolicy | object | (선택 사항) 보존 정책은 인덱스를 삭제해야 하는 인덱스의 최대 기간을 정의합니다. |
type | string | 구성할 로그 스토리지 유형입니다. Operator는 현재 ElasticSearch를 사용하여 지원 |
2.5.2.1.47. .spec.logStore.elasticsearch
2.5.2.1.47.1. 설명
2.5.2.1.47.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
nodeCount | int | Elasticsearch에 배포할 노드 수 |
nodeSelector | object | Pod가 예약된 노드를 정의합니다. |
proxy | object | Elasticsearch 프록시 구성 요소의 사양 |
redundancyPolicy | string | (선택 사항) |
resources | object | (선택 사항) Elasticsearch의 리소스 요구 사항입니다. |
storage | object | (선택 사항) Elasticsearch 데이터 노드의 스토리지 사양 |
허용 오차 | array |
2.5.2.1.48. .spec.logStore.elasticsearch.nodeSelector
2.5.2.1.48.1. 설명
2.5.2.1.48.1.1. 유형
- object
2.5.2.1.49. .spec.logStore.elasticsearch.proxy
2.5.2.1.49.1. 설명
2.5.2.1.49.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
resources | object |
2.5.2.1.50. .spec.logStore.elasticsearch.proxy.resources
2.5.2.1.50.1. 설명
2.5.2.1.50.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
limits | object | (선택 사항) 제한은 허용되는 최대 컴퓨팅 리소스 양을 설명합니다. |
requests | object | (선택 사항) Requests는 필요한 최소 컴퓨팅 리소스 양을 설명합니다. |
2.5.2.1.51. .spec.logStore.elasticsearch.proxy.resources.limits
2.5.2.1.51.1. 설명
2.5.2.1.51.1.1. 유형
- object
2.5.2.1.52. .spec.logStore.elasticsearch.proxy.resources.requests
2.5.2.1.52.1. 설명
2.5.2.1.52.1.1. 유형
- object
2.5.2.1.53. .spec.logStore.elasticsearch.resources
2.5.2.1.53.1. 설명
2.5.2.1.53.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
limits | object | (선택 사항) 제한은 허용되는 최대 컴퓨팅 리소스 양을 설명합니다. |
requests | object | (선택 사항) Requests는 필요한 최소 컴퓨팅 리소스 양을 설명합니다. |
2.5.2.1.54. .spec.logStore.elasticsearch.resources.limits
2.5.2.1.54.1. 설명
2.5.2.1.54.1.1. 유형
- object
2.5.2.1.55. .spec.logStore.elasticsearch.resources.requests
2.5.2.1.55.1. 설명
2.5.2.1.55.1.1. 유형
- object
2.5.2.1.56. .spec.logStore.elasticsearch.storage
2.5.2.1.56.1. 설명
2.5.2.1.56.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
크기 | object | 프로비저닝할 노드의 최대 스토리지 용량입니다. |
storageClassName | string | (선택 사항) 노드의 PVC를 생성하는 데 사용할 스토리지 클래스의 이름입니다. |
2.5.2.1.57. .spec.logStore.elasticsearch.storage.size
2.5.2.1.57.1. 설명
2.5.2.1.57.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
형식 | string | 필요에 따라 형식 변경 Canonicalize에 대한 코멘트를 참조하십시오. |
d | object | d는 d.Dec != nil인 inf.Dec 형식의 양입니다. |
i | int | i는 int64 스케일링 형식의 양이며, d.Dec == nil |
s | string | s는 재계산을 피하기 위해 이 수량의 생성된 값입니다. |
2.5.2.1.58. .spec.logStore.elasticsearch.storage.size.d
2.5.2.1.58.1. 설명
2.5.2.1.58.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
Dec | object |
2.5.2.1.59. .spec.logStore.elasticsearch.storage.size.d.Dec
2.5.2.1.59.1. 설명
2.5.2.1.59.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
scale | int | |
Unscaled | object |
2.5.2.1.60. .spec.logStore.elasticsearch.storage.size.d.Dec.unscaled
2.5.2.1.60.1. 설명
2.5.2.1.60.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
ABS | Word | 서명 |
neg | bool |
2.5.2.1.61. .spec.logStore.elasticsearch.storage.size.d.Dec.unscaled.abs
2.5.2.1.61.1. 설명
2.5.2.1.61.1.1. 유형
- Word
2.5.2.1.62. .spec.logStore.elasticsearch.storage.size.i
2.5.2.1.62.1. 설명
2.5.2.1.62.1.1. 유형
- int
속성 | 유형 | 설명 |
---|---|---|
scale | int | |
value | int |
2.5.2.1.63. .spec.logStore.elasticsearch.tolerations[]
2.5.2.1.63.1. 설명
2.5.2.1.63.1.1. 유형
- array
속성 | 유형 | 설명 |
---|---|---|
effect | string | (선택 사항) Effect는 일치하는 테인트 효과를 나타냅니다. 빈은 모든 테인트 효과와 일치함을 의미합니다. |
key | string | (선택 사항) Key는 허용 오차가 적용되는 테인트 키입니다. 빈은 모든 테인트 키와 일치함을 의미합니다. |
operator | string | (선택 사항) Operator는 값과 키의 관계를 나타냅니다. |
tolerationSeconds | int | (선택 사항) TolerationSeconds는 허용 오차 (선택 사항)를 나타냅니다. |
value | string | (선택 사항) 값은 톨러레이션이 일치하는 테인트 값입니다. |
2.5.2.1.64. .spec.logStore.elasticsearch.tolerations[].tolerationSeconds
2.5.2.1.64.1. 설명
2.5.2.1.64.1.1. 유형
- int
2.5.2.1.65. .spec.logStore.lokistack
2.5.2.1.65.1. 설명
CloudEventStackStoreSpec은 로깅 스토리지로stack을 사용하도록 cluster-logging을 설정하는 데 사용됩니다. 동일한 네임 스페이스에서 기존stack을 가리킵니다.
2.5.2.1.65.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
name | string | ScanSettingStack 리소스의 이름입니다. |
2.5.2.1.66. .spec.logStore.retentionPolicy
2.5.2.1.66.1. 설명
2.5.2.1.66.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
애플리케이션 | object | |
audit | object | |
infra | object |
2.5.2.1.67. .spec.logStore.retentionPolicy.application
2.5.2.1.67.1. 설명
2.5.2.1.67.1.1. 유형
- object
속성 | 유형 | 설명 |
---|---|---|
diskThresholdPercent | int | (선택 사항) ES 디스크 사용량의 임계값에 도달하면 이전 인덱스를 삭제해야 합니다(예: 75). |
maxAge | string | (선택 사항) |
namespaceSpec | array | (선택 사항) 지정된 최소 수명보다 오래된 문서를 삭제할 네임스페이스별 사양입니다. |
pruneNamespacesInterval | string | (선택 사항) 새 정리 네임스페이스 작업을 실행하는 빈도 |
2.5.2.1.68. .spec.logStore.retentionPolicy.application.namespaceSpec[]
2.5.2.1.68.1. 설명
2.5.2.1.68.1.1. 유형
- array
속성 | 유형 |
---|