Menu Close

Service Telemetry Framework 1.4

Red Hat OpenStack Platform 16.2

Service Telemetry Framework 1.4 설치 및 배포

초록

핵심 구성 요소를 설치하고 Service Telemetry Framework 1.4를 배포합니다.

1장. Service Telemetry Framework 1.4 소개

STF(Service Telemetry Framework)는 RHOSP(Red Hat OpenStack Platform) 또는 타사 노드에서 모니터링 데이터를 수집합니다. STF를 사용하여 다음 작업을 수행할 수 있습니다.

  • 기록 정보를 위해 모니터링 데이터를 저장하거나 보관합니다.
  • 대시보드에서 그래픽으로 모니터링 데이터를 확인합니다.
  • 모니터링 데이터를 사용하여 경고 또는 경고를 트리거합니다.

모니터링 데이터는 메트릭 또는 이벤트일 수 있습니다.

메트릭
애플리케이션 또는 시스템의 숫자 측정입니다.
event
시스템에서 발생하는 열렬 및 개별 이벤트입니다.

STF의 구성 요소는 데이터 전송을 위해 메시지 버스를 사용합니다. 데이터를 수신하고 저장하는 기타 모듈식 구성 요소는 Red Hat OpenShift Container Platform에서 컨테이너로 배포됩니다.

중요

STF(Service Telemetry Framework)는 Red Hat OpenShift Container Platform 버전 4.7에서 4.8까지 호환됩니다.

추가 리소스

1.1. Service Telemetry Framework 지원

Red Hat은 두 가지 최신 버전의 Service Telemetry Framework (STF)를 지원합니다. 이전 버전은 지원되지 않습니다. 자세한 내용은 Service Telemetry Framework Supported Version Matrix 를 참조하십시오.

Red Hat은 AMQ Interconnect, AMQ Certificate Manager, Service Telemetry Operator 및 Smart Gateway Operator를 포함한 코어 Operator 및 워크로드를 지원합니다. Red Hat은 ElasticSearch, Prometheus, Alertmanager, Grafana 및 해당 Operator를 포함하여 커뮤니티 Operator 또는 워크로드 구성 요소를 지원하지 않습니다.

STF는 연결이 끊긴 환경에서 아직 설치에 사용할 수 없는 구성 요소에 대한 종속성으로 인해 Red Hat OpenShift Container Platform 연결이 끊긴 환경에서 작동하지 않습니다.

1.2. 서비스 Telemetry Framework 아키텍처

STF(Service Telemetry Framework)는 클라이언트-서버 아키텍처를 사용하며 RHOSP(Red Hat OpenStack Platform)는 클라이언트이며 Red Hat OpenShift Container Platform이 서버입니다.

STF는 다음 구성 요소로 구성됩니다.

  • 데이터 수집

    • collectd: 인프라 지표 및 이벤트를 수집합니다.
    • Ceilometer: RHOSP 지표 및 이벤트를 수집합니다.
  • 전송

    • AMQ 상호 연결: 스토리지의 경우 지표를 STF로 전송하기 위해 빠르고 안정적인 데이터 전송을 제공하는 AMQP 1.x 호환 메시징 버스입니다.
    • 스마트 게이트웨이: AMQP 1.x 버스에서 지표 및 이벤트를 가져와서 ElasticSearch 또는 Prometheus에 제공하는 Golang 애플리케이션입니다.
  • 데이터 스토리지

    • Prometheus: Smart Gateway에서 수신한 STF 지표를 저장하는 시계열 데이터 스토리지입니다.
    • ElasticSearch: Smart Gateway에서 수신한 STF 이벤트를 저장하는 데이터 스토리지입니다.
  • 정체제

    • Alertmanager: Prometheus 경고 규칙을 사용하여 경고를 관리하는 경고 툴입니다.
    • Grafana: 데이터를 쿼리, 시각화 및 탐색하는 데 사용할 수 있는 시각화 및 분석 애플리케이션입니다.

다음 표에서는 클라이언트 및 서버 구성 요소의 애플리케이션을 설명합니다.

표 1.1. STF의 클라이언트 및 서버 구성 요소

구성 요소클라이언트서버

AMQP 1.x 호환 메시징 버스

제공됨

제공됨

스마트 게이트웨이

제공되지 않음

제공됨

Prometheus

제공되지 않음

제공됨

ElasticSearch

제공되지 않음

제공됨

collectd

제공됨

제공되지 않음

Ceilometer

제공됨

제공되지 않음

중요

모니터링 플랫폼이 클라우드 운영 문제를 보고할 수 있도록 모니터링 중인 인프라에 STF를 설치하지 마십시오.

그림 1.1. Service Telemetry Framework 아키텍처 개요

Service Telemetry Framework 아키텍처 개요

클라이언트 측 지표의 경우 collectd는 프로젝트 데이터 없이 인프라 지표를 제공하며, Ceilometer는 프로젝트 또는 사용자 워크로드를 기반으로 RHOSP 플랫폼 데이터를 제공합니다. Ceilometer와 collectd는 모두 AMQ Interconnect 전송을 사용하여 Prometheus에 데이터를 전송하여 메시지 버스를 통해 데이터를 전달합니다. 서버 측에서 Smart Gateway라는 Golang 애플리케이션은 버스의 데이터 스트림을 가져와서 Prometheus의 로컬 스크랩 끝점으로 노출합니다.

이벤트를 수집 및 저장하려는 경우 AMQ Interconnect 전송을 사용하여 collectd 및 Ceilometer에서 서버 측에 이벤트 데이터를 제공합니다. 또 다른 Smart Gateway는 데이터를 ElasticSearch 데이터 저장소에 씁니다.

서버 측 STF 모니터링 인프라는 다음과 같은 계층으로 구성됩니다.

  • Service Telemetry Framework 1.4
  • Red Hat OpenShift Container Platform 4.7 - 4.8
  • 인프라 플랫폼

그림 1.2. 서버 측 STF 모니터링 인프라

서버 측 STF 모니터링 인프라

1.3. Red Hat OpenShift Container Platform의 설치 크기

Red Hat OpenShift Container Platform 설치 크기는 다음 요인에 따라 다릅니다.

  • 선택한 인프라입니다.
  • 모니터링할 노드 수입니다.
  • 수집할 메트릭 수입니다.
  • 지표의 해상도입니다.
  • 데이터를 저장할 시간입니다.

STF(Service Telemetry Framework) 설치는 기존 Red Hat OpenShift Container Platform 환경에 따라 다릅니다.

baremetal에 Red Hat OpenShift Container Platform을 설치할 때 최소 리소스 요구 사항에 대한 자세한 내용은 베어 메탈 가이드의 클러스터 설치에서 최소 리소스 요구 사항을 참조하십시오. 설치할 수 있는 다양한 퍼블릭 및 프라이빗 클라우드 플랫폼의 설치 요구 사항은 클라우드 플랫폼의 해당 설치 설명서를 참조하십시오.

2장. Service Telemetry Framework를 위한 Red Hat OpenShift Container Platform 환경 준비

STF(Service Telemetry Framework)를 위한 Red Hat OpenShift Container Platform 환경을 준비하려면 영구 스토리지, 적절한 리소스 및 이벤트 스토리지를 계획해야 합니다.

  • 프로덕션 등급 배포를 위해 Red Hat OpenShift Container Platform 클러스터에서 영구 스토리지를 사용할 수 있는지 확인합니다. 자세한 내용은 2.2절. “PV(영구 볼륨)”의 내용을 참조하십시오.
  • Operator 및 애플리케이션 컨테이너를 실행하는 데 사용할 수 있는 충분한 리소스가 있는지 확인합니다. 자세한 내용은 2.3절. “리소스 할당”의 내용을 참조하십시오.

2.1. Service Telemetry Framework의 관찰 전략

Service Telemetry Framework(STF)에는 스토리지 백엔드 및 경고 툴이 포함되어 있지 않습니다. STF는 커뮤니티 운영자를 사용하여 Prometheus, Alertmanager, Grafana 및 Elasticsearch를 배포합니다. STF는 이러한 커뮤니티 운영자에 요청하여 STF와 함께 작동하도록 구성된 각 애플리케이션의 인스턴스를 생성합니다.

Service Telemetry Operator가 사용자 정의 리소스 요청을 생성하는 대신 이러한 애플리케이션 또는 기타 호환 애플리케이션의 자체 배포를 사용하고 Telemetry 스토리지를 위해 자체 Prometheus 호환 시스템으로 제공하기 위해 지표 Smart Gateway를 스크랩할 수 있습니다. 대신 대체 백엔드를 사용하도록 관찰 기능을 설정하면 STF에 영구 또는 임시 스토리지가 필요하지 않습니다.

2.2. PV(영구 볼륨)

STF(Service Telemetry Framework)는 Red Hat OpenShift Container Platform의 영구 스토리지를 사용하여 Prometheus 및 ElasticSearch가 지표 및 이벤트를 저장할 수 있도록 영구 볼륨을 요청합니다.

Service Telemetry Operator를 통해 영구 스토리지를 활성화하면 STF 배포에 요청된 PVC(영구 볼륨 클레임)로 RWO(ReadWriteOnce)의 액세스 모드가 생성됩니다. 환경에 사전 프로비저닝된 영구 볼륨이 포함된 경우 Red Hat OpenShift Container Platform 기본 구성된 storageClass 에서 RWO 볼륨을 사용할 수 있는지 확인합니다.

추가 리소스

2.2.1. 임시 스토리지

Red Hat OpenShift Container Platform 클러스터에 데이터를 영구적으로 저장하지 않고 임시 스토리지를 사용하여 Service Telemetry Framework (STF)를 실행할 수 있습니다.

주의

임시 스토리지를 사용하는 경우 Pod가 다른 노드에 다시 시작, 업데이트 또는 다시 예약되면 데이터 손실이 발생할 수 있습니다. 프로덕션 환경이 아닌 개발 또는 테스트에만 임시 스토리지를 사용합니다.

2.3. 리소스 할당

Red Hat OpenShift Container Platform 인프라 내에서 Pod 예약을 활성화하려면 실행 중인 구성 요소에 대한 리소스가 필요합니다. 충분한 리소스를 할당하지 않으면 Pod를 예약할 수 없기 때문에 Pending 상태로 유지됩니다.

STF(Service Telemetry Framework)를 실행하는 데 필요한 리소스 양은 사용자 환경과 모니터링할 노드 및 클라우드 수에 따라 다릅니다.

추가 리소스

3장. Service Telemetry Framework의 핵심 구성 요소 설치

Operator를 사용하여 STF(Service Telemetry Framework) 구성 요소 및 오브젝트를 로드할 수 있습니다. Operator는 다음 STF 코어 및 커뮤니티 구성 요소를 관리합니다.

  • AMQ 상호 연결
  • 스마트 게이트웨이
  • Prometheus 및 AlertManager
  • elasticsearch
  • Grafana

사전 요구 사항

  • 4.7에서 4.8까지의 Red Hat OpenShift Container Platform 버전이 실행 중입니다.
  • Red Hat OpenShift Container Platform 환경을 준비하고 Red Hat OpenShift Container Platform 환경에서 STF 구성 요소를 실행할 수 있는 영구 스토리지 및 충분한 리소스가 있는지 확인했습니다. 자세한 내용은 Service Telemetry Framework Performance and Scaling을 참조하십시오.
중요

STF는 Red Hat OpenShift Container Platform 버전 4.7에서 4.8까지 호환됩니다.

추가 리소스

3.1. Red Hat OpenShift Container Platform 환경에 Service Telemetry Framework 배포

STF(Service Telemetry Framework)를 배포하여 이벤트를 수집, 저장 및 모니터링합니다.

절차

  1. STF 구성 요소를 포함할 네임스페이스를 생성합니다(예: service-telemetry ).

    $ oc new-project service-telemetry
  2. Operator Pod를 예약할 수 있도록 네임스페이스에 OperatorGroup을 생성합니다.

    $ oc create -f - <<EOF
    apiVersion: operators.coreos.com/v1
    kind: OperatorGroup
    metadata:
      name: service-telemetry-operator-group
      namespace: service-telemetry
    spec:
      targetNamespaces:
      - service-telemetry
    EOF

    자세한 내용은 OperatorGroup을 참조하십시오.

  3. OperatorHub.io 커뮤니티 카탈로그 소스를 활성화하여 데이터 스토리지 및 시각화 Operator를 설치합니다.

    주의

    Red Hat은 AMQ Interconnect, AMQ Certificate Manager, Service Telemetry Operator 및 Smart Gateway Operator를 포함한 코어 Operator 및 워크로드를 지원합니다. Red Hat은 ElasticSearch, Prometheus, Alertmanager, Grafana 및 해당 Operator를 포함하여 커뮤니티 Operator 또는 워크로드 구성 요소를 지원하지 않습니다.

    $ oc create -f - <<EOF
    apiVersion: operators.coreos.com/v1alpha1
    kind: CatalogSource
    metadata:
      name: operatorhubio-operators
      namespace: openshift-marketplace
    spec:
      sourceType: grpc
      image: quay.io/operatorhubio/catalog:latest
      displayName: OperatorHub.io Operators
      publisher: OperatorHub.io
    EOF
  4. redhat-operators CatalogSource를 사용하여 AMQ Certificate Manager Operator에 등록합니다.

    참고

    AMQ Certificate Manager는 openshift-operators 네임스페이스에 배포되고 클러스터 전체의 모든 네임스페이스에서 사용할 수 있습니다. 결과적으로 네임스페이스가 많은 클러스터에서는 service-telemetry 네임스페이스에서 Operator를 사용할 수 있는 데 몇 분이 걸릴 수 있습니다. AMQ Certificate Manager Operator는 다른 네임스페이스 범위 Operator와 함께 사용할 때 Operator Lifecycle Manager의 종속성 관리와 호환되지 않습니다.

    $ oc create -f - <<EOF
    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: amq7-cert-manager-operator
      namespace: openshift-operators
    spec:
      channel: 1.x
      installPlanApproval: Automatic
      name: amq7-cert-manager-operator
      source: redhat-operators
      sourceNamespace: openshift-marketplace
    EOF
  5. ClusterServiceVersion을 검증합니다. amq7-cert-manager.v1.0.3에 Succeeded 단계가 표시되는지 확인합니다.

    $ oc get csv --namespace openshift-operators --selector operators.coreos.com/amq7-cert-manager-operator.openshift-operators
    
    NAME                       DISPLAY                                         VERSION   REPLACES                   PHASE
    amq7-cert-manager.v1.0.3   Red Hat Integration - AMQ Certificate Manager   1.0.3     amq7-cert-manager.v1.0.2   Succeeded
  6. redhat-operators CatalogSource를 사용하여 AMQ Interconnect Operator를 구독합니다.

    $ oc create -f - <<EOF
    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: amq7-interconnect-operator
      namespace: service-telemetry
    spec:
      channel: 1.10.x
      installPlanApproval: Automatic
      name: amq7-interconnect-operator
      source: redhat-operators
      sourceNamespace: openshift-marketplace
    EOF
  7. ClusterServiceVersion을 검증합니다. amq7-interconnect-operator.v1.10.4에 Succeeded 단계가 표시되는지 확인합니다.

    $ oc get csv --selector=operators.coreos.com/amq7-interconnect-operator.service-telemetry
    
    NAME                                 DISPLAY                                  VERSION   REPLACES                             PHASE
    amq7-interconnect-operator.v1.10.4   Red Hat Integration - AMQ Interconnect   1.10.4    amq7-interconnect-operator.v1.10.3   Succeeded
  8. Prometheus에 지표를 저장하려면 Prometheus Operator를 활성화해야 합니다. Prometheus Operator를 활성화하려면 Red Hat OpenShift Container Platform 환경에 다음 매니페스트를 생성합니다.

    $ oc create -f - <<EOF
    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: prometheus
      namespace: service-telemetry
    spec:
      channel: beta
      installPlanApproval: Automatic
      name: prometheus
      source: operatorhubio-operators
      sourceNamespace: openshift-marketplace
    EOF
  9. Prometheus Succeeded 의 ClusterServiceVersion을 확인합니다.

    $ oc get csv --selector=operators.coreos.com/prometheus.service-telemetry
    
    NAME                        DISPLAY               VERSION   REPLACES                    PHASE
    prometheusoperator.0.47.0   Prometheus Operator   0.47.0    prometheusoperator.0.37.0   Succeeded
  10. 이벤트를 ElasticSearch에 저장하려면 Kubernetes(ECK) Operator에서 Elastic Cloud를 활성화해야 합니다. ECK Operator를 활성화하려면 Red Hat OpenShift Container Platform 환경에서 다음 매니페스트를 생성합니다.

    $ oc create -f - <<EOF
    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: elasticsearch-eck-operator-certified
      namespace: service-telemetry
    spec:
      channel: stable
      installPlanApproval: Automatic
      name: elasticsearch-eck-operator-certified
      source: certified-operators
      sourceNamespace: openshift-marketplace
    EOF
  11. Kubernetes에서 Elastic Cloud의 ClusterServiceVersion이 성공했는지 확인합니다.

    $ oc get csv --selector=operators.coreos.com/elasticsearch-eck-operator-certified.service-telemetry
    
    NAME                                         DISPLAY                        VERSION   REPLACES   PHASE
    elasticsearch-eck-operator-certified.1.9.1   Elasticsearch (ECK) Operator   1.9.1                Succeeded
  12. Service Telemetry Operator 서브스크립션을 생성하여 STF 인스턴스를 관리합니다.

    $ oc create -f - <<EOF
    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: service-telemetry-operator
      namespace: service-telemetry
    spec:
      channel: stable-1.4
      installPlanApproval: Automatic
      name: service-telemetry-operator
      source: redhat-operators
      sourceNamespace: openshift-marketplace
    EOF
  13. Service Telemetry Operator 및 종속 Operator를 확인합니다.

    $ oc get csv --namespace service-telemetry
    
    NAME                                         DISPLAY                                         VERSION        REPLACES                             PHASE
    amq7-cert-manager.v1.0.3                     Red Hat Integration - AMQ Certificate Manager   1.0.3          amq7-cert-manager.v1.0.2             Succeeded
    amq7-interconnect-operator.v1.10.4           Red Hat Integration - AMQ Interconnect          1.10.4         amq7-interconnect-operator.v1.10.3   Succeeded
    elasticsearch-eck-operator-certified.1.9.1   Elasticsearch (ECK) Operator                    1.9.1                                               Succeeded
    prometheusoperator.0.47.0                    Prometheus Operator                             0.47.0         prometheusoperator.0.37.0            Succeeded
    service-telemetry-operator.v1.4.1641489191   Service Telemetry Operator                      1.4.1641489191                                      Succeeded
    smart-gateway-operator.v4.0.1641489202       Smart Gateway Operator                          4.0.1641489202                                      Succeeded

3.2. Red Hat OpenShift Container Platform에서 ServiceTelemetry 오브젝트 생성

Red Hat OpenShift Container Platform에서 ServiceTelemetry 오브젝트를 생성하여 Service Telemetry Operator에서 STF(Service Telemetry Framework) 배포에 대한 지원 구성 요소를 생성합니다. 자세한 내용은 3.2.1절. “ServiceTelemetry 오브젝트의 기본 매개변수”의 내용을 참조하십시오.

절차

  1. 기본값을 사용하는 STF 배포를 생성하는 ServiceTelemetry 오브젝트를 생성하려면 빈 spec 매개변수를 사용하여 ServiceTelemetry 오브젝트를 생성합니다.

    $ oc apply -f - <<EOF
    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec: {}
    EOF

    기본값을 재정의하려면 재정의할 매개변수를 정의합니다. 이 예에서는 enabledtrue 로 설정하여 ElasticSearch를 활성화합니다.

    $ oc apply -f - <<EOF
    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec:
      backends:
        events:
          elasticsearch:
            enabled: true
    EOF

    spec 매개변수를 사용하여 ServiceTelemetry 오브젝트를 생성하면 다음과 같은 기본 설정을 사용하여 STF 배포가 생성됩니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec:
      alerting:
        alertmanager:
          receivers:
            snmpTraps:
              enabled: false
              target: 192.168.24.254
          storage:
            persistent:
              pvcStorageRequest: 20G
            strategy: persistent
        enabled: true
      backends:
        events:
          elasticsearch:
            enabled: false
            storage:
              persistent:
                pvcStorageRequest: 20Gi
              strategy: persistent
            version: 7.16.1
        logs:
          loki:
            enabled: false
            flavor: 1x.extra-small
            replicationFactor: 1
            storage:
              objectStorageSecret: test
              storageClass: standard
        metrics:
          prometheus:
            enabled: true
            scrapeInterval: 10s
            storage:
              persistent:
                pvcStorageRequest: 20G
              retention: 24h
              strategy: persistent
      clouds:
      - events:
          collectors:
          - collectorType: collectd
            debugEnabled: false
            subscriptionAddress: collectd/cloud1-notify
          - collectorType: ceilometer
            debugEnabled: false
            subscriptionAddress: anycast/ceilometer/cloud1-event.sample
        metrics:
          collectors:
          - collectorType: collectd
            debugEnabled: false
            subscriptionAddress: collectd/cloud1-telemetry
          - collectorType: ceilometer
            debugEnabled: false
            subscriptionAddress: anycast/ceilometer/cloud1-metering.sample
          - collectorType: sensubility
            debugEnabled: false
            subscriptionAddress: sensubility/cloud1-telemetry
        name: cloud1
      graphing:
        enabled: false
        grafana:
          adminPassword: secret
          adminUser: root
          baseImage: docker.io/grafana/grafana:latest
          disableSignoutMenu: false
          ingressEnabled: false
      highAvailability:
        enabled: false
      observabilityStrategy: use_community
      transports:
        qdr:
          enabled: true
          web:
            enabled: false

    이러한 기본값을 재정의하려면 spec 매개변수에 구성을 추가합니다.

  2. Service Telemetry Operator에서 STF 배포 로그를 확인합니다.

    $ oc logs --selector name=service-telemetry-operator
    
    ...
    --------------------------- Ansible Task Status Event StdOut  -----------------
    
    PLAY RECAP *********************************************************************
    localhost                  : ok=57   changed=0    unreachable=0    failed=0    skipped=20   rescued=0    ignored=0

검증

  • 모든 워크로드가 올바르게 작동하는지 확인하려면 각 Pod의 Pod 및 상태를 확인합니다.

    참고

    backends.events.elasticsearch.enabled 매개변수를 true 로 설정하면 알림 스마트 게이트웨이에서 ElasticSearch가 시작되기 전 일정 기간 동안 ErrorCrashLoopBackOff 오류 메시지를 보고합니다.

    $ oc get pods
    
    NAME                                                      READY   STATUS    RESTARTS   AGE
    alertmanager-default-0                                    2/2     Running   0          17m
    default-cloud1-ceil-meter-smartgateway-6484b98b68-vd48z   2/2     Running   0          17m
    default-cloud1-coll-meter-smartgateway-799f687658-4gxpn   2/2     Running   0          17m
    default-cloud1-sens-meter-smartgateway-c7f4f7fc8-c57b4    2/2     Running   0          17m
    default-interconnect-54658f5d4-pzrpt                      1/1     Running   0          17m
    elastic-operator-66b7bc49c4-sxkc2                         1/1     Running   0          52m
    interconnect-operator-69df6b9cb6-7hhp9                    1/1     Running   0          50m
    prometheus-default-0                                      2/2     Running   1          17m
    prometheus-operator-6458b74d86-wbdqp                      1/1     Running   0          51m
    service-telemetry-operator-864646787c-hd9pm               1/1     Running   0          51m
    smart-gateway-operator-79778cf548-mz5z7                   1/1     Running   0          51m

3.2.1. ServiceTelemetry 오브젝트의 기본 매개변수

ServiceTelemetry 오브젝트는 다음과 같은 기본 구성 매개변수로 구성됩니다.

  • 경고
  • 백엔드
  • 클라우드
  • 그래프
  • highAvailability
  • 전송

이러한 각 구성 매개변수를 구성하여 STF 배포에 다른 기능을 제공할 수 있습니다.

중요

servicetelemetry.infra.watch/v1alpha1 에 대한 지원은 STF 1.3에서 제거되었습니다.

backends 매개변수

backends 매개변수를 사용하여 지표 및 이벤트의 스토리지에 사용할 수 있는 스토리지 백엔드를 제어하고, cloud 매개변수가 정의하는 Smart Gateways 사용을 제어합니다. 자세한 내용은 “clouds 매개변수”의 내용을 참조하십시오.

현재는 Prometheus를 지표 스토리지 백엔드로, 이벤트 스토리지 백엔드로 ElasticSearch를 사용할 수 있습니다.

지표의 스토리지 백엔드로 Prometheus를 활성화

지표의 스토리지 백엔드로 Prometheus를 활성화하려면 ServiceTelemetry 오브젝트를 구성해야 합니다.

절차

  • ServiceTelemetry 오브젝트를 구성합니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec:
      backends:
        metrics:
          prometheus:
            enabled: true
Prometheus의 영구 스토리지 구성

backends.metrics.prometheus.storage.persistent 에 정의된 추가 매개 변수를 사용하여 스토리지 클래스 및 볼륨 크기와 같은 Prometheus에 대한 영구 스토리지 옵션을 구성합니다.

storageClass 를 사용하여 백엔드 스토리지 클래스를 정의합니다. 이 매개변수를 설정하지 않으면 Service Telemetry Operator는 Red Hat OpenShift Container Platform 클러스터의 기본 스토리지 클래스를 사용합니다.

pvcStorageRequest 매개변수를 사용하여 스토리지 요청을 충족하기 위해 필요한 최소 볼륨 크기를 정의합니다. 볼륨이 정적으로 정의되면 요청된 볼륨보다 큰 볼륨 크기가 사용될 수 있습니다. 기본적으로 Service Telemetry Operator는 볼륨 크기 20G (20GB)를 요청합니다.

절차

  • 사용 가능한 스토리지 클래스를 나열합니다.

    $ oc get storageclasses
    NAME                 PROVISIONER                RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
    csi-manila-ceph      manila.csi.openstack.org   Delete          Immediate              false                  20h
    standard (default)   kubernetes.io/cinder       Delete          WaitForFirstConsumer   true                   20h
    standard-csi         cinder.csi.openstack.org   Delete          WaitForFirstConsumer   true                   20h
  • ServiceTelemetry 오브젝트를 구성합니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec:
      backends:
        metrics:
          prometheus:
            enabled: true
            storage:
              strategy: persistent
              persistent:
                storageClass: standard-csi
                pvcStorageRequest: 50G
이벤트의 스토리지 백엔드로 ElasticSearch 활성화

이벤트의 스토리지 백엔드로 ElasticSearch를 활성화하려면 ServiceTelemetry 오브젝트를 구성해야 합니다.

절차

  • ServiceTelemetry 오브젝트를 구성합니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec:
      backends:
        events:
          elasticsearch:
            enabled: true
ElasticSearch의 영구 스토리지 구성

backends.events.elasticsearch.storage.persistent 에 정의된 추가 매개변수를 사용하여 스토리지 클래스 및 볼륨 크기와 같은 ElasticSearch에 대한 영구 스토리지 옵션을 구성합니다.

storageClass 를 사용하여 백엔드 스토리지 클래스를 정의합니다. 이 매개변수를 설정하지 않으면 Service Telemetry Operator는 Red Hat OpenShift Container Platform 클러스터의 기본 스토리지 클래스를 사용합니다.

pvcStorageRequest 매개변수를 사용하여 스토리지 요청을 충족하기 위해 필요한 최소 볼륨 크기를 정의합니다. 볼륨이 정적으로 정의되면 요청된 볼륨보다 큰 볼륨 크기가 사용될 수 있습니다. 기본적으로 Service Telemetry Operator는 볼륨 크기 20Gi (20GB)를 요청합니다.

절차

  • 사용 가능한 스토리지 클래스를 나열합니다.

    $ oc get storageclasses
    NAME                 PROVISIONER                RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
    csi-manila-ceph      manila.csi.openstack.org   Delete          Immediate              false                  20h
    standard (default)   kubernetes.io/cinder       Delete          WaitForFirstConsumer   true                   20h
    standard-csi         cinder.csi.openstack.org   Delete          WaitForFirstConsumer   true                   20h
  • ServiceTelemetry 오브젝트를 구성합니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec:
      backends:
        events:
          elasticsearch:
            enabled: true
            version: 7.16.1
            storage:
              strategy: persistent
              persistent:
                storageClass: standard-csi
                pvcStorageRequest: 50G
clouds 매개변수

clouds 매개변수를 사용하여 배포하는 Smart Gateway 오브젝트를 정의하여 모니터링되는 여러 클라우드 환경에 대한 인터페이스를 제공하여 STF 인스턴스에 연결합니다. 지원 백엔드를 사용할 수 있는 경우 기본 클라우드 구성에 대한 지표 및 이벤트 Smart Gateway가 생성됩니다. 기본적으로 Service Telemetry Operator는 cloud1 에 대한 스마트 게이트웨이를 생성합니다.

정의된 클라우드에 대해 생성되는 Smart Gateway를 제어하기 위해 클라우드 오브젝트 목록을 생성할 수 있습니다. 각 클라우드는 데이터 유형 및 수집기로 구성됩니다. 데이터 유형은 지표 또는 이벤트입니다. 각 데이터 유형은 수집기 목록, 메시지 버스 서브스크립션 주소 및 디버깅을 활성화하는 매개변수로 구성됩니다. 메트릭에 사용 가능한 컬렉터는 collectd,ceilometer, sensubility 입니다. 이벤트에 사용 가능한 컬렉터는 collectdceilometer 입니다. 이러한 각 컬렉터의 서브스크립션 주소가 모든 클라우드, 데이터 유형 및 수집기 조합에 대해 고유해야 합니다.

기본 cloud1 구성은 특정 클라우드 인스턴스에 대한 collectd, Ceilometer 및 Sensubility 데이터 수집기에 대한 메트릭 및 이벤트에 대한 서브스크립션 및 데이터 스토리지를 제공하는 다음 ServiceTelemetry 오브젝트로 표시됩니다.

apiVersion: infra.watch/v1beta1
kind: ServiceTelemetry
metadata:
  name: stf-default
  namespace: service-telemetry
spec:
  clouds:
    - name: cloud1
      metrics:
        collectors:
          - collectorType: collectd
            subscriptionAddress: collectd/telemetry
          - collectorType: ceilometer
            subscriptionAddress: anycast/ceilometer/metering.sample
          - collectorType: sensubility
            subscriptionAddress: sensubility/telemetry
            debugEnabled: false
      events:
        collectors:
          - collectorType: collectd
            subscriptionAddress: collectd/notify
          - collectorType: ceilometer
            subscriptionAddress: anycast/ceilometer/event.sample

clouds 매개변수의 각 항목은 클라우드 인스턴스를 나타냅니다. 클라우드 인스턴스는 name,metricsevents 의 세 가지 최상위 매개변수로 구성됩니다. 지표이벤트 매개변수는 해당 데이터 유형의 스토리지의 해당 백엔드를 나타냅니다. collectors 매개변수는 두 개의 필수 매개변수인 collectorTypesubscriptionAddress 로 구성된 오브젝트 목록을 지정하고 Smart Gateway의 인스턴스를 나타냅니다. collectorType 매개변수는 collectd, Ceilometer 또는 Sensubility에서 수집한 데이터를 지정합니다. subscriptionAddress 매개변수는 Smart Gateway가 구독하는 AMQ Interconnect 주소를 제공합니다.

collectors 매개변수 내에서 선택적 부울 매개변수 debugEnabled 를 사용하여 실행 중인 Smart Gateway Pod에서 추가 콘솔 디버깅을 활성화할 수 있습니다.

추가 리소스

alert 매개변수

alert 매개변수를 사용하여 Alertmanager 인스턴스 생성 및 스토리지 백엔드 구성을 제어합니다. 기본적으로 경고 는 활성화되어 있습니다. 자세한 내용은 5.3절. “Service Telemetry Framework의 경고”의 내용을 참조하십시오.

그래프 매개변수

그래프 매개 변수를 사용하여 Grafana 인스턴스 생성을 제어합니다. 기본적으로 그래프는 비활성화되어 있습니다. 자세한 내용은 5.1절. “Service Telemetry Framework의 대시보드”의 내용을 참조하십시오.

highAvailability 매개변수

highAvailability 매개변수를 사용하여 STF 구성 요소의 여러 복사본 인스턴스화를 제어하여 구성 요소의 복구 시간을 단축합니다. 기본적으로 highAvailability 는 비활성화되어 있습니다. 자세한 내용은 5.5절. “고가용성”의 내용을 참조하십시오.

transports 매개변수

transports 매개변수 를 사용하여 STF 배포에 대한 메시지 버스의 사용을 제어합니다. 현재 지원되는 유일한 전송은 AMQ Interconnect입니다. 기본적으로 qdr 전송이 활성화됩니다.

3.3. STF 구성 요소의 사용자 인터페이스에 액세스

Red Hat OpenShift Container Platform에서 애플리케이션은 경로를 통해 외부 네트워크에 노출됩니다. 경로에 대한 자세한 내용은 수신 클러스터 트래픽 구성을 참조하십시오.

Service Telemetry Framework(STF)에서는 웹 기반 인터페이스가 있는 각 서비스에 대해 HTTPS 경로가 노출됩니다. 이러한 경로는 Red Hat OpenShift Container Platform RBAC에 의해 보호되며 ClusterRoleBinding 이 있는 모든 사용자가 Red Hat OpenShift Container Platform 네임스페이스를 볼 수 있습니다. RBAC에 대한 자세한 내용은 Using RBAC to define and apply permissions 를 참조하십시오.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. service-telemetry 프로젝트에서 사용 가능한 웹 UI 경로를 나열합니다.

    $ oc get routes | grep web
    default-alertmanager-proxy   default-alertmanager-proxy-service-telemetry.apps.infra.watch          default-alertmanager-proxy   web     reencrypt/Redirect   None
    default-prometheus-proxy     default-prometheus-proxy-service-telemetry.apps.infra.watch            default-prometheus-proxy     web     reencrypt/Redirect   None
  4. 웹 브라우저에서 https://<route_address>;로 이동하여 해당 서비스의 웹 인터페이스에 액세스합니다.

3.4. 대체 관찰 전략 구성

스토리지, 시각화 및 경고 백엔드의 배포를 건너뛰도록 STF를 구성하려면 observedability Strategy: none 을 ServiceTelemetry 사양에 추가합니다. 이 모드에서는 AMQ Interconnect 라우터 및 메트릭 Smart Gateway만 배포되며 STF Smart Gateways에서 지표를 수집하도록 외부 Prometheus 호환 시스템을 구성해야 합니다.

참고

현재 observedability Strategy를 none 으로 설정하는 경우 메트릭만 지원됩니다. 이벤트 스마트 게이트웨이는 배포되지 않습니다.

절차

  1. spec 매개변수에서 속성 observedability Strategy: none을 사용하여 ServiceTelemetry 오브젝트를 생성합니다. 매니페스트는 모든 지표 수집기 유형을 사용하여 단일 클라우드에서 Telemetry를 수신하는 데 적합한 STF의 기본 배포 결과를 보여줍니다.

    $ oc apply -f - <<EOF
    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec:
      observabilityStrategy: none
    EOF
  2. 모든 워크로드가 올바르게 작동하는지 확인하려면 Pod 및 각 Pod의 상태를 확인합니다.

    $ oc get pods
    NAME                                                      READY   STATUS    RESTARTS   AGE
    default-cloud1-ceil-meter-smartgateway-59c845d65b-gzhcs   3/3     Running   0          132m
    default-cloud1-coll-meter-smartgateway-75bbd948b9-d5phm   3/3     Running   0          132m
    default-cloud1-sens-meter-smartgateway-7fdbb57b6d-dh2g9   3/3     Running   0          132m
    default-interconnect-668d5bbcd6-57b2l                     1/1     Running   0          132m
    interconnect-operator-b8f5bb647-tlp5t                     1/1     Running   0          47h
    service-telemetry-operator-566b9dd695-wkvjq               1/1     Running   0          156m
    smart-gateway-operator-58d77dcf7-6xsq7                    1/1     Running   0          47h

추가 리소스

추가 클라우드 구성 또는 지원되는 컬렉터 집합을 변경하는 방법에 대한 자세한 내용은 다음을 참조하십시오. 4.4.2절. “스마트 게이트웨이 배포”

4장. Service Telemetry Framework용 Red Hat OpenStack Platform 구성

메트릭, 이벤트 또는 둘 다를 수집하고 이를 STF(Service Telemetry Framework) 스토리지 도메인으로 보내려면 데이터 수집 및 전송을 활성화하도록 RHOSP(Red Hat OpenStack Platform) 오버클라우드를 구성해야 합니다.

STF는 단일 및 다중 클라우드를 모두 지원할 수 있습니다. RHOSP 및 STF의 기본 구성은 단일 클라우드 설치를 위해 설정됩니다.

4.1. Service Telemetry Framework용 Red Hat OpenStack Platform 오버클라우드 배포

RHOSP(Red Hat OpenStack Platform) 오버클라우드 배포의 일부로 데이터 수집기 및 데이터 전송을 구성해야 합니다.

추가 리소스

4.1.1. AMQ Interconnect 경로 주소 검색

Service Telemetry Framework (STF)용 RHOSP(Red Hat OpenStack Platform) 오버클라우드를 구성하는 경우 STF 연결 파일에 AMQ Interconnect 경로 주소를 제공해야 합니다.

절차

  1. Red Hat OpenShift Container Platform 환경에 로그인합니다.
  2. service-telemetry 프로젝트에서 AMQ Interconnect 경로 주소를 검색합니다.

    $ oc get routes -ogo-template='{{ range .items }}{{printf "%s\n" .spec.host }}{{ end }}' | grep "\-5671"
    default-interconnect-5671-service-telemetry.apps.infra.watch

4.1.2. STF의 기본 구성 생성

STF(Service Telemetry Framework)에 호환되는 데이터 수집 및 전송을 제공하도록 기본 매개변수를 구성하려면 기본 데이터 수집 값을 정의하는 파일을 생성해야 합니다.

절차

  1. stack 사용자로 RHOSP(Red Hat OpenStack Platform) 언더클라우드에 로그인합니다.
  2. /home/stack 디렉터리에 enable-stf.yaml 이라는 구성 파일을 생성합니다.

    중요

    EventPipelinePublishersPipelinePublishers 를 설정하면 Gnocchi 또는 Panko와 같은 RHOSP Telemetry 구성 요소에 전달되는 이벤트 또는 메트릭 데이터가 없습니다. 추가 파이프라인에 데이터를 보내야 하는 경우 ExtraConfig 에 지정된 대로 30초의 Ceilometer 폴링 간격은 RHOSP Telemetry 구성 요소를 오버라이팅할 수 있으며, 300 과 같은 더 큰 값으로 간격을 늘려야 합니다. 값을 더 긴 폴링 간격으로 늘리면 STF에서 원격 분석을 줄일 수 있습니다.

    STF 및 Gnocchi를 사용하여 Telemetry 컬렉션을 활성화하려면 다음을 참조하십시오. 4.2절. “Gnocchi 및 Service Telemetry Framework로 메트릭 전송”

enable-stf.yaml

parameter_defaults:
    # only send to STF, not other publishers
    EventPipelinePublishers: []
    PipelinePublishers: []

    # manage the polling and pipeline configuration files for Ceilometer agents
    ManagePolling: true
    ManagePipeline: true

    # enable Ceilometer metrics and events
    CeilometerQdrPublishMetrics: true
    CeilometerQdrPublishEvents: true

    # enable collection of API status
    CollectdEnableSensubility: true
    CollectdSensubilityTransport: amqp1

    # enable collection of containerized service metrics
    CollectdEnableLibpodstats: true

    # set collectd overrides for higher telemetry resolution and extra plugins
    # to load
    CollectdConnectionType: amqp1
    CollectdAmqpInterval: 5
    CollectdDefaultPollingInterval: 5
    CollectdExtraPlugins:
    - vmem

    # set standard prefixes for where metrics and events are published to QDR
    MetricsQdrAddresses:
    - prefix: 'collectd'
      distribution: multicast
    - prefix: 'anycast/ceilometer'
      distribution: multicast

    ExtraConfig:
        ceilometer::agent::polling::polling_interval: 30
        ceilometer::agent::polling::polling_meters:
        - cpu
        - disk.*
        - ip.*
        - image.*
        - memory
        - memory.*
        - network.*
        - perf.*
        - port
        - port.*
        - switch
        - switch.*
        - storage.*
        - volume.*

        # to avoid filling the memory buffers if disconnected from the message bus
        # note: this may need an adjustment if there are many metrics to be sent.
        collectd::plugin::amqp1::send_queue_limit: 5000

        # receive extra information about virtual memory
        collectd::plugin::vmem::verbose: true

        # provide name and uuid in addition to hostname for better correlation
        # to ceilometer data
        collectd::plugin::virt::hostname_format: "name uuid hostname"

        # provide the human-friendly name of the virtual instance
        collectd::plugin::virt::plugin_instance_format: metadata

        # set memcached collectd plugin to report its metrics by hostname
        # rather than host IP, ensuring metrics in the dashboard remain uniform
        collectd::plugin::memcached::instances:
          local:
            host: "%{hiera('fqdn_canonical')}"
            port: 11211

4.1.3. 오버클라우드의 STF 연결 설정

STF(Service Telemetry Framework) 연결을 구성하려면 오버클라우드에서 STF 배포에 대한 AMQ Interconnect의 연결 구성이 포함된 파일을 생성해야 합니다. STF에서 이벤트 및 스토리지 컬렉션을 활성화하고 오버클라우드를 배포합니다. 기본 구성은 기본 메시지 버스 항목이 있는 단일 클라우드 인스턴스에 대한 것입니다. 여러 클라우드 배포 구성은 4.4절. “여러 클라우드 구성” 을 참조하십시오.

사전 요구 사항

절차

  1. RHOSP 언더클라우드에 stack 사용자로 로그인합니다.
  2. /home/stack 디렉터리에 stf-connectors.yaml 구성 파일을 생성합니다.
  3. stf-connectors.yaml 파일에서 오버클라우드의 AMQ Interconnect를 STF 배포에 연결하도록 MetricsQdrConnectors 주소를 구성합니다. STF의 기본값과 일치하도록 이 파일에서 Sensubility, Ceilometer 및 collectd의 주제 주소를 구성합니다. 주제 및 클라우드 구성 사용자 지정에 대한 자세한 내용은 4.4절. “여러 클라우드 구성” 을 참조하십시오.

    STF-connectors.yaml

    resource_registry:
      OS::TripleO::Services::Collectd: /usr/share/openstack-tripleo-heat-templates/deployment/metrics/collectd-container-puppet.yaml    1
    
    parameter_defaults:
        MetricsQdrConnectors:
            - host: stf-default-interconnect-5671-service-telemetry.apps.infra.watch   2
              port: 443
              role: edge
              verifyHostname: false
              sslProfile: sslProfile
    
        MetricsQdrSSLProfiles:
            - name: sslProfile
    
        CeilometerQdrEventsConfig:
            driver: amqp
            topic: cloud1-event   3
    
        CeilometerQdrMetricsConfig:
            driver: amqp
            topic: cloud1-metering   4
    
        CollectdAmqpInstances:
            cloud1-notify:        5
                notify: true
                format: JSON
                presettle: false
            cloud1-telemetry:     6
                format: JSON
                presettle: false
    
        CollectdSensubilityResultsChannel: sensubility/cloud1-telemetry 7

    1
    여러 클라우드 배포에 대한 collectd-write-qdr.yaml 환경 파일을 포함하지 않으므로 collectd 서비스를 직접 로드합니다.
    2
    host 매개 변수를 4.1.1절. “AMQ Interconnect 경로 주소 검색” 에서 검색한 HOST/PORT 값으로 바꿉니다.
    3
    Ceilometer 이벤트에 대한 주제를 정의합니다. 이 값의 형식은 anycast/ceilometer/cloud1-event.sample 입니다.
    4
    Ceilometer 메트릭에 대한 주제를 정의합니다. 이 값의 형식은'anycast/ceilometer/cloud1-metering.sample'입니다.
    5
    collectd 이벤트에 대한 주제를 정의합니다. 이 값의 형식은 collectd/cloud1-notify 입니다.
    6
    collectd 메트릭에 대한 주제를 정의합니다. 이 값의 형식은 collectd/cloud1-telemetry 입니다.
    7
    collectd-sensubility 이벤트에 대한 주제를 정의합니다. 값은 정확한 문자열 sensubility/cloud1-telemetry 입니다.

4.1.4. 오버클라우드 배포

데이터가 수집되고 STF(Service Telemetry Framework)로 전송되도록 필요한 환경 파일을 사용하여 오버클라우드를 배포하거나 업데이트합니다.

절차

  1. stack 사용자로 RHOSP(Red Hat OpenStack Platform) 언더클라우드에 로그인합니다.
  2. 인증 파일을 소싱합니다.

    [stack@undercloud-0 ~]$ source stackrc
    
    (undercloud) [stack@undercloud-0 ~]$
  3. RHOSP director 배포에 다음 파일을 추가하여 데이터 수집 및 AMQ Interconnect를 구성합니다.

    • Ceilometer Telemetry 및 이벤트가 STF로 전송되도록 하는 ceilometer-write-qdr.yaml 파일
    • 메시지 버스가 활성화되어 STF 메시지 버스 라우터에 연결되어 있는지 확인하는 qdr-edge-only.yaml 파일
    • 기본값이 올바르게 구성되었는지 확인하기 위한 enable-stf.yaml 환경 파일
    • STF에 대한 연결을 정의하는 stf-connectors.yaml 환경 파일
  4. RHOSP 오버클라우드를 배포합니다.

    (undercloud) [stack@undercloud-0 ~]$ openstack overcloud deploy <other_arguments>
    --templates /usr/share/openstack-tripleo-heat-templates \
      --environment-file <...other_environment_files...> \
      --environment-file /usr/share/openstack-tripleo-heat-templates/environments/metrics/ceilometer-write-qdr.yaml \
      --environment-file /usr/share/openstack-tripleo-heat-templates/environments/metrics/qdr-edge-only.yaml \
      --environment-file /home/stack/enable-stf.yaml \
      --environment-file /home/stack/stf-connectors.yaml

4.1.5. 클라이언트 측 설치 검증

STF(Service Telemetry Framework) 스토리지 도메인에서 데이터 컬렉션의 유효성을 검사하려면 전달된 데이터의 데이터 소스를 쿼리합니다. RHOSP(Red Hat OpenStack Platform) 배포에서 개별 노드를 확인하려면 SSH를 사용하여 콘솔에 연결합니다.

작은 정보

일부 Telemetry 데이터는 RHOSP에 활성 워크로드가 있는 경우에만 사용할 수 있습니다.

절차

  1. 오버클라우드 노드에 로그인합니다(예: controller-0).
  2. metrics_qdr 컨테이너가 노드에서 실행 중인지 확인합니다.

    $ sudo podman container inspect --format '{{.State.Status}}' metrics_qdr
    
    running
  3. AMQ Interconnect가 실행 중인 내부 네트워크 주소를 반환합니다(예: 포트 5666 에서 수신 대기하는 172.17.1.44).

    $ sudo podman exec -it metrics_qdr cat /etc/qpid-dispatch/qdrouterd.conf
    
    listener {
        host: 172.17.1.44
        port: 5666
        authenticatePeer: no
        saslMechanisms: ANONYMOUS
    }
  4. 로컬 AMQ Interconnect에 대한 연결 목록을 반환합니다.

    $ sudo podman exec -it metrics_qdr qdstat --bus=172.17.1.44:5666 --connections
    
    Connections
      id   host                                                                  container                                                                                                  role    dir  security                            authentication  tenant
      ============================================================================================================================================================================================================================================================================================
      1    default-interconnect-5671-service-telemetry.apps.infra.watch:443      default-interconnect-7458fd4d69-bgzfb                                                                      edge    out  TLSv1.2(DHE-RSA-AES256-GCM-SHA384)  anonymous-user
      12   172.17.1.44:60290                                                     openstack.org/om/container/controller-0/ceilometer-agent-notification/25/5c02cee550f143ec9ea030db5cccba14  normal  in   no-security                         no-auth
      16   172.17.1.44:36408                                                     metrics                                                                                                    normal  in   no-security                         anonymous-user
      899  172.17.1.44:39500                                                     10a2e99d-1b8a-4329-b48c-4335e5f75c84                                                                       normal  in   no-security                         no-auth

    다음의 4개의 연결이 있습니다.

    • STF에 대한 아웃 바운드 연결
    • ceilometer에서 인바운드 연결
    • collectd에서 인바운드 연결
    • qdstat 클라이언트의 인바운드 연결

      아웃바운드 STF 연결은 MetricsQdrConnectors 호스트 매개변수에 제공되며 STF 스토리지 도메인의 경로입니다. 다른 호스트는 이 AMQ Interconnect에 대한 클라이언트 연결의 내부 네트워크 주소입니다.

  5. 메시지가 전달되도록 하려면 링크를 나열하고 메시지 전달을 위해 deliv 열의 _edge 주소를 확인합니다.

    $ sudo podman exec -it metrics_qdr qdstat --bus=172.17.1.44:5666 --links
    Router Links
      type      dir  conn id  id    peer  class   addr                  phs  cap  pri  undel  unsett  deliv    presett  psdrop  acc  rej  rel     mod  delay  rate
      ===========================================================================================================================================================
      endpoint  out  1        5           local   _edge                      250  0    0      0       2979926  0        0       0    0    2979926 0    0      0
      endpoint  in   1        6                                              250  0    0      0       0        0        0       0    0    0       0    0      0
      endpoint  in   1        7                                              250  0    0      0       0        0        0       0    0    0       0    0      0
      endpoint  out  1        8                                              250  0    0      0       0        0        0       0    0    0       0    0      0
      endpoint  in   1        9                                              250  0    0      0       0        0        0       0    0    0       0    0      0
      endpoint  out  1        10                                             250  0    0      0       911      911      0       0    0    0       0    911    0
      endpoint  in   1        11                                             250  0    0      0       0        911      0       0    0    0       0    0      0
      endpoint  out  12       32          local   temp.lSY6Mcicol4J2Kp       250  0    0      0       0        0        0       0    0    0       0    0      0
      endpoint  in   16       41                                             250  0    0      0       2979924  0        0       0    0    2979924 0    0      0
      endpoint  in   912      1834        mobile  $management           0    250  0    0      0       1        0        0       1    0    0       0    0      0
      endpoint  out  912      1835        local   temp.9Ok2resI9tmt+CT       250  0    0      0       0        0        0       0    0    0       0    0      0
  6. RHOSP 노드의 주소를 STF로 나열하려면 Red Hat OpenShift Container Platform에 연결하여 AMQ Interconnect 포드 이름을 검색하고 연결을 나열합니다. 사용 가능한 AMQ 상호 연결 포드를 나열합니다.

    $ oc get pods -l application=default-interconnect
    
    NAME                                    READY   STATUS    RESTARTS   AGE
    default-interconnect-7458fd4d69-bgzfb   1/1     Running   0          6d21h
  7. 포드에 연결하고 알려진 연결을 나열합니다. 이 예에서는 연결 ID 22, 23 및 24를 사용하는 RHOSP 노드의 세 가지 엣지 연결이 있습니다.

    $ oc exec -it default-interconnect-7458fd4d69-bgzfb -- qdstat --connections
    
    2020-04-21 18:25:47.243852 UTC
    default-interconnect-7458fd4d69-bgzfb
    
    Connections
      id  host               container                                                      role    dir  security                                authentication  tenant  last dlv      uptime
      ===============================================================================================================================================================================================
      5   10.129.0.110:48498  bridge-3f5                                                    edge    in   no-security                             anonymous-user          000:00:00:02  000:17:36:29
      6   10.129.0.111:43254  rcv[default-cloud1-ceil-meter-smartgateway-58f885c76d-xmxwn]  edge    in   no-security                             anonymous-user          000:00:00:02  000:17:36:20
      7   10.130.0.109:50518  rcv[default-cloud1-coll-event-smartgateway-58fbbd4485-rl9bd]  normal  in   no-security                             anonymous-user          -             000:17:36:11
      8   10.130.0.110:33802  rcv[default-cloud1-ceil-event-smartgateway-6cfb65478c-g5q82]  normal  in   no-security                             anonymous-user          000:01:26:18  000:17:36:05
      22  10.128.0.1:51948   Router.ceph-0.redhat.local                                     edge    in   TLSv1/SSLv3(DHE-RSA-AES256-GCM-SHA384)  anonymous-user          000:00:00:03  000:22:08:43
      23  10.128.0.1:51950   Router.compute-0.redhat.local                                  edge    in   TLSv1/SSLv3(DHE-RSA-AES256-GCM-SHA384)  anonymous-user          000:00:00:03  000:22:08:43
      24  10.128.0.1:52082   Router.controller-0.redhat.local                               edge    in   TLSv1/SSLv3(DHE-RSA-AES256-GCM-SHA384)  anonymous-user          000:00:00:00  000:22:08:34
      27  127.0.0.1:42202    c2f541c1-4c97-4b37-a189-a396c08fb079                           normal  in   no-security                             no-auth                 000:00:00:00  000:00:00:00
  8. 네트워크에서 전달한 메시지 수를 보려면 oc exec 명령과 함께 각 주소를 사용합니다.

    $ oc exec -it default-interconnect-7458fd4d69-bgzfb -- qdstat --address
    
    2020-04-21 18:20:10.293258 UTC
    default-interconnect-7458fd4d69-bgzfb
    
    Router Addresses
      class   addr                                phs  distrib    pri  local  remote  in           out          thru  fallback
      ==========================================================================================================================
      mobile  anycast/ceilometer/event.sample     0    balanced   -    1      0       970          970          0     0
      mobile  anycast/ceilometer/metering.sample  0    balanced   -    1      0       2,344,833    2,344,833    0     0
      mobile  collectd/notify                     0    multicast  -    1      0       70           70           0     0
      mobile  collectd/telemetry                  0    multicast  -    1      0       216,128,890  216,128,890  0     0

4.2. Gnocchi 및 Service Telemetry Framework로 메트릭 전송

STF(Service Telemetry Framework) 및 Gnocchi에 동시에 메트릭을 보내려면 추가 게시자를 활성화하려면 배포에 환경 파일을 포함해야 합니다.

주의

추가 파이프라인에 데이터를 보내야 하는 경우 ExtraConfig 에 지정된 대로 30초의 Ceilometer 폴링 간격은 RHOSP Telemetry 구성 요소를 오버라이팅할 수 있으며, 300 과 같은 더 큰 값으로 간격을 늘려야 합니다. 값을 더 긴 폴링 간격으로 늘리면 STF에서 원격 분석을 줄일 수 있습니다.

사전 요구 사항

절차

  1. /home/stack 디렉터리에 gnocchi-connectors.yaml 이라는 환경 파일을 생성합니다.

    resource_registry:
        OS::TripleO::Services::GnocchiApi: /usr/share/openstack-tripleo-heat-templates/deployment/gnocchi/gnocchi-api-container-puppet.yaml
        OS::TripleO::Services::GnocchiMetricd: /usr/share/openstack-tripleo-heat-templates/deployment/gnocchi/gnocchi-metricd-container-puppet.yaml
        OS::TripleO::Services::GnocchiStatsd: /usr/share/openstack-tripleo-heat-templates/deployment/gnocchi/gnocchi-statsd-container-puppet.yaml
        OS::TripleO::Services::AodhApi: /usr/share/openstack-tripleo-heat-templates/deployment/aodh/aodh-api-container-puppet.yaml
        OS::TripleO::Services::AodhEvaluator: /usr/share/openstack-tripleo-heat-templates/deployment/aodh/aodh-evaluator-container-puppet.yaml
        OS::TripleO::Services::AodhNotifier: /usr/share/openstack-tripleo-heat-templates/deployment/aodh/aodh-notifier-container-puppet.yaml
        OS::TripleO::Services::AodhListener: /usr/share/openstack-tripleo-heat-templates/deployment/aodh/aodh-listener-container-puppet.yaml
    
    parameter_defaults:
        CeilometerEnableGnocchi: true
        CeilometerEnablePanko: false
        GnocchiArchivePolicy: 'high'
        GnocchiBackend: 'rbd'
        GnocchiRbdPoolName: 'metrics'
    
        EventPipelinePublishers: ['gnocchi://?filter_project=service']
        PipelinePublishers: ['gnocchi://?filter_project=service']
  2. 환경 파일 gnocchi-connectors.yaml 을 배포 명령에 추가합니다. <other_arguments> 를 사용자 환경에 적용되는 파일로 바꿉니다.

    $ openstack overcloud deploy <other_arguments>
    --templates /usr/share/openstack-tripleo-heat-templates \
      --environment-file <...other_environment_files...> \
      --environment-file /usr/share/openstack-tripleo-heat-templates/environments/metrics/ceilometer-write-qdr.yaml \
      --environment-file /usr/share/openstack-tripleo-heat-templates/environments/metrics/collectd-write-qdr.yaml \
      --environment-file /usr/share/openstack-tripleo-heat-templates/environments/metrics/qdr-edge-only.yaml \
      --environment-file /home/stack/enable-stf.yaml \
      --environment-file /home/stack/stf-connectors.yaml \
      --environment-file /home/stack/gnocchi-connectors.yaml
  3. 설정이 성공했는지 확인하려면 컨트롤러 노드의 /var/lib/config-data/puppet-generated/ceilometer/etc/ceilometer/pipeline.yaml 파일의 콘텐츠를 확인합니다. 파일의 게시자 섹션에 notifierGnocchi 에 대한 정보가 포함되어 있는지 확인합니다.

    sources:
        - name: meter_source
          meters:
              - "*"
          sinks:
              - meter_sink
    sinks:
        - name: meter_sink
          publishers:
              - gnocchi://?filter_project=service
              - notifier://172.17.1.35:5666/?driver=amqp&topic=metering

4.3. 비표준 네트워크 토폴로지에 배포

노드가 기본 InternalApi 네트워크와 별도의 네트워크에 있는 경우 AMQ Interconnect가 STF(Service Telemetry Framework) 서버 인스턴스로 데이터를 전송할 수 있도록 구성을 조정해야 합니다. 이 시나리오는 스파인-리프형 또는 DCN 토폴로지에서 일반적입니다. DCN 구성에 대한 자세한 내용은 Spine Leaf Networking 가이드를 참조하십시오.

RHOSP(Red Hat OpenStack Platform) 16.2와 함께 STF를 사용하고 Ceph, Block 또는 Object Storage 노드를 모니터링할 계획인 경우 스파인-리프 및 DCN 네트워크 구성에 적용하는 구성 변경과 유사한 구성을 변경해야 합니다. Ceph 노드를 모니터링하려면 CephStorageExtraConfig 매개변수를 사용하여 AMQ Interconnect 및 collectd 구성 파일에 로드할 네트워크 인터페이스를 정의합니다.

CephStorageExtraConfig:
  tripleo::profile::base::metrics::collectd::amqp_host: "%{hiera('storage')}"
  tripleo::profile::base::metrics::qdr::listener_addr: "%{hiera('storage')}"
  tripleo::profile::base::ceilometer::agent::notification::notifier_host_addr: "%{hiera('storage')}"

마찬가지로 환경에서 Block 및 Object Storage 역할을 사용하는 경우 Block StorageExtraConfig 및 ObjectStorageExtraConfig 매개변수를 지정해야 합니다.

스파인-리프형 토폴로지를 배포하려면 역할 및 네트워크를 생성한 다음 해당 네트워크를 사용 가능한 역할에 할당해야 합니다. RHOSP 배포를 위해 STF에 대한 데이터 수집 및 전송을 구성하는 경우 역할의 기본 네트워크는 InternalApi 입니다. Ceph, Block 및 Object 스토리지 역할의 경우 기본 네트워크는 Storage 입니다. 스파인-리프형 구성으로 인해 서로 다른 레거시 그룹화에 다른 네트워크가 할당될 수 있으며 이러한 이름은 일반적으로 고유하므로 RHOSP 환경 파일의 parameter_defaults 섹션에 추가 구성이 필요합니다.

절차

  1. 각 Leaf 역할에 사용할 수 있는 네트워크를 문서화합니다. 네트워크 이름 정의의 예는 Spine Leaf Networking 가이드의 네트워크 데이터 파일 생성 을 참조하십시오. Leaf 그룹화(roles) 생성 및 네트워크 할당에 대한 자세한 내용은 Spine Leaf Networking 가이드에서 역할 데이터 파일 만들기를 참조하십시오.
  2. 각 leaf 역할의 ExtraConfig 섹션에 다음 구성 예제를 추가합니다. 이 예에서 internal_api_subnet 은 네트워크 정의의 name_lower 매개변수(라이프 0의 이름에 추가된 _subnet 포함)에 정의된 값이며 ComputeLeaf0 leaf 역할이 연결된 네트워크입니다. 이 경우 네트워크 식별 0은 리프 0의 Compute 역할에 해당하며 기본 내부 API 네트워크 이름과 다른 값을 나타냅니다.

    ComputeLeaf0 leaf 역할의 경우 hiera 조회를 수행하여 collectd AMQP 호스트 매개변수를 할당할 특정 네트워크의 네트워크 인터페이스를 판별하도록 추가 구성을 지정합니다. AMQ Interconnect 리스너 주소 매개변수에 대해 동일한 구성을 수행합니다.

    ComputeLeaf0ExtraConfig:
      tripleo::profile::base::metrics::collectd::amqp_host: "%{hiera('internal_api_subnet')}"
      tripleo::profile::base::metrics::qdr::listener_addr: "%{hiera('internal_api_subnet')}"

    추가 리프 역할은 일반적으로 _subnet_leafN 으로 바꿉니다. n 은 리프의 고유 식별자를 나타냅니다.

    ComputeLeaf1ExtraConfig:
      tripleo::profile::base::metrics::collectd::amqp_host: "%{hiera('internal_api_leaf1')}"
      tripleo::profile::base::metrics::qdr::listener_addr: "%{hiera('internal_api_leaf1')}"

    이 예제 구성은 CephStorage leaf 역할에 있습니다.

    CephStorageLeaf0ExtraConfig:
      tripleo::profile::base::metrics::collectd::amqp_host: "%{hiera('storage_subnet')}"
      tripleo::profile::base::metrics::qdr::listener_addr: "%{hiera('storage_subnet')}"

4.4. 여러 클라우드 구성

여러 RHOSP(Red Hat OpenStack Platform) 클라우드를 구성하여 STF(Service Telemetry Framework)의 단일 인스턴스를 대상으로 할 수 있습니다. 클라우드를 여러 개 구성할 때 모든 클라우드는 고유한 메시지 버스 주제로 메트릭과 이벤트를 보내야 합니다. STF 배포에서 Smart Gateway 인스턴스는 이러한 주제를 수신 대기하여 일반 데이터 저장소에 정보를 저장합니다. 데이터 스토리지 도메인의 Smart Gateway에 의해 저장되는 데이터는 각 Smart Gateways가 생성하는 메타데이터를 사용하여 필터링됩니다.

그림 4.1. RHOSP 클라우드 2개가 STF에 연결

STF에 연결된 RHOSP 클라우드 두 가지 예

여러 클라우드 시나리오에 맞게 RHOSP 오버클라우드를 구성하려면 다음 작업을 완료합니다.

  1. 각 클라우드에 사용할 AMQP 주소 접두사를 계획합니다. 자세한 내용은 4.4.1절. “AMQP 주소 접두사 계획”의 내용을 참조하십시오.
  2. 각 클라우드에 메트릭 및 이벤트 소비자 스마트 게이트웨이를 배포하여 해당 주소 접두사에서 수신 대기합니다. 자세한 내용은 4.4.2절. “스마트 게이트웨이 배포”의 내용을 참조하십시오.
  3. 고유한 도메인 이름으로 각 클라우드를 구성합니다. 자세한 내용은 4.4.4절. “고유한 클라우드 도메인 설정”의 내용을 참조하십시오.
  4. STF의 기본 구성을 생성합니다. 자세한 내용은 4.1.2절. “STF의 기본 구성 생성”의 내용을 참조하십시오.
  5. 올바른 주소의 STF에 메트릭 및 이벤트를 전송하도록 각 클라우드를 구성합니다. 자세한 내용은 4.4.5절. “여러 클라우드를 위한 Red Hat OpenStack Platform 환경 파일 생성”의 내용을 참조하십시오.

4.4.1. AMQP 주소 접두사 계획

기본적으로 RHOSP(Red Hat OpenStack Platform) 노드는 collectd 및 Ceilometer라는 두 개의 데이터 수집기를 통해 데이터를 수신합니다. collectd-sensubility 플러그인에는 고유한 주소가 필요합니다. 이러한 구성 요소는 Telemetry 데이터 또는 알림을 각 AMQP 주소로 보냅니다(예: collectd/telemetry ). STF Smart Gateway는 AMQP 주소에서 데이터를 수신 대기합니다. 여러 클라우드를 지원하고 모니터링 데이터를 생성한 클라우드를 식별하려면 데이터를 고유 주소로 전송하도록 각 클라우드를 구성합니다. 주소의 두 번째 부분에 클라우드 ID 접두사를 추가합니다. 다음 목록은 일부 주소 및 식별자를 보여줍니다.

  • collectd/cloud1-telemetry
  • collectd/cloud1-notify
  • sensubility/cloud1-telemetry
  • anycast/ceilometer/cloud1-metering.sample
  • anycast/ceilometer/cloud1-event.sample
  • collectd/cloud2-telemetry
  • collectd/cloud2-notify
  • sensubility/cloud2-telemetry
  • anycast/ceilometer/cloud2-metering.sample
  • anycast/ceilometer/cloud2-event.sample
  • collectd/us-east-1-telemetry
  • collectd/us-west-3-telemetry

4.4.2. 스마트 게이트웨이 배포

각 클라우드의 각 데이터 수집 유형에 대해 Smart Gateway를 배포해야 합니다. collectd 지표, collectd 이벤트용 하나씩, Ceilometer 메트릭용, Ceilometer 이벤트용, collectd-sensubility 메트릭에 대한 하나씩. 해당 클라우드에 대해 정의한 AMQP 주소에서 수신 대기하도록 각 Smart Gateway를 구성합니다. 스마트 게이트웨이를 정의하려면 ServiceTelemetry 매니페스트에서 clouds 매개변수를 구성합니다.

STF를 처음 배포할 때 단일 클라우드의 초기 스마트 게이트웨이를 정의하는 스마트 게이트웨이 매니페스트가 생성됩니다. 여러 클라우드 지원에 대한 Smart Gateway를 배포할 때 각 클라우드의 메트릭 및 이벤트 데이터를 처리하는 각 데이터 수집 유형에 대해 여러 Smart Gateway를 배포합니다. 초기 스마트 게이트웨이는 다음 서브스크립션 주소를 사용하여 cloud1 에 정의됩니다.

수집기

type

기본 서브스크립션 주소

collectd

메트릭

collectd/telemetry

collectd

events

collectd/notify

collectd-sensubility

메트릭

sensubility/telemetry

Ceilometer

메트릭

anycast/ceilometer/metering.sample

Ceilometer

events

anycast/ceilometer/event.sample

사전 요구 사항

  • 클라우드 이름 지정 스키마를 확인했습니다. 이름 지정 스키마를 결정하는 방법에 대한 자세한 내용은 4.4.1절. “AMQP 주소 접두사 계획” 을 참조하십시오.
  • 클라우드 오브젝트 목록을 생성했습니다. clouds 매개변수의 콘텐츠를 생성하는 방법에 대한 자세한 내용은 “clouds 매개변수” 을 참조하십시오.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. 기본 ServiceTelemetry 오브젝트를 편집하고 구성을 사용하여 clouds 매개변수를 추가합니다.

    주의

    긴 클라우드 이름은 63자의 최대 Pod 이름을 초과할 수 있습니다. ServiceTelemetry 이름 기본값clouds.name 의 조합이 19자를 초과하지 않도록 합니다. 클라우드 이름에는 - 와 같은 특수 문자가 포함될 수 없습니다. 클라우드 이름을 영숫자(a-z, 0-9)로 제한합니다.

    주제 주소에는 문자 제한이 없으며 clouds.name 값과 다를 수 있습니다.

    $ oc edit stf default
    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      ...
    spec:
      ...
      clouds:
      - name: cloud1
        events:
          collectors:
          - collectorType: collectd
            subscriptionAddress: collectd/cloud1-notify
          - collectorType: ceilometer
            subscriptionAddress: anycast/ceilometer/cloud1-event.sample
        metrics:
          collectors:
          - collectorType: collectd
            subscriptionAddress: collectd/cloud1-telemetry
          - collectorType: sensubility
            subscriptionAddress: sensubility/cloud1-telemetry
          - collectorType: ceilometer
            subscriptionAddress: anycast/ceilometer/cloud1-metering.sample
      - name: cloud2
        events:
          ...
  4. ServiceTelemetry 오브젝트를 저장합니다.
  5. 각 스마트 게이트웨이가 실행 중인지 확인합니다. 스마트 게이트웨이 수에 따라 몇 분이 걸릴 수 있습니다.

    $ oc get po -l app=smart-gateway
    NAME                                                      READY   STATUS    RESTARTS   AGE
    default-cloud1-ceil-event-smartgateway-6cfb65478c-g5q82   2/2     Running   0          13h
    default-cloud1-ceil-meter-smartgateway-58f885c76d-xmxwn   2/2     Running   0          13h
    default-cloud1-coll-event-smartgateway-58fbbd4485-rl9bd   2/2     Running   0          13h
    default-cloud1-coll-meter-smartgateway-7c6fc495c4-jn728   2/2     Running   0          13h
    default-cloud1-sens-meter-smartgateway-8h4tc445a2-mm683   2/2     Running   0          13h

4.4.3. 기본 스마트 게이트웨이 삭제

여러 클라우드에 대해 Service Telemetry Framework (STF)를 구성한 후 더 이상 사용하지 않는 경우 기본 Smart Gateway를 삭제할 수 있습니다. Service Telemetry Operator는 생성된 SmartGateway 오브젝트를 제거할 수 있지만 더 이상 ServiceTelemetry 클라우드 목록에 나열되지 않습니다. clouds 매개변수로 정의되지 않은 SmartGateway 오브젝트를 제거하려면 ServiceTelemetry 매니페스트에서 cloudsRemoveOnMissing 매개변수를 true 로 설정해야 합니다.

작은 정보

Smart Gateway를 배포하지 않으려면 Cloud : [] 매개변수를 사용하여 빈 클라우드 목록을 정의합니다.

주의

cloudsRemoveOnMissing 매개변수는 기본적으로 비활성화되어 있습니다. cloudsRemoveOnMissing 매개변수를 활성화하면 현재 네임스페이스에서 수동으로 생성된 SmartGateway 오브젝트를 복원할 수 없습니다.

절차

  1. Service Telemetry Operator에서 관리할 클라우드 오브젝트 목록으로 clouds 매개변수를 정의합니다. 자세한 내용은 “clouds 매개변수”의 내용을 참조하십시오.
  2. ServiceTelemetry 오브젝트를 편집하고 cloudsRemoveOnMissing 매개변수를 추가합니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      ...
    spec:
      ...
      cloudsRemoveOnMissing: true
      clouds:
        ...
  3. 수정 사항을 저장합니다.
  4. Operator가 스마트 게이트웨이를 삭제했는지 확인합니다. Operator에서 변경 사항을 조정하는 데 몇 분이 걸릴 수 있습니다.

    $ oc get smartgateways

4.4.4. 고유한 클라우드 도메인 설정

RHOSP(Red Hat OpenStack Platform)에서 Service Telemetry Framework(STF)로의 AMQ Interconnect 라우터 연결이 고유하며 충돌하지 않도록 CloudDomain 매개 변수를 구성합니다.

절차

  1. 새 환경 파일(예: hostnames .yaml) 을 생성합니다.
  2. 다음 예와 같이 환경 파일에서 CloudDomain 매개변수를 설정합니다.

    hostnames.yaml

    parameter_defaults:
        CloudDomain: newyork-west-04
        CephStorageHostnameFormat: 'ceph-%index%'
        ObjectStorageHostnameFormat: 'swift-%index%'
        ComputeHostnameFormat: 'compute-%index%'

  3. 새 환경 파일을 배포에 추가합니다. 자세한 내용은 Overcloud Parameters 가이드의 4.4.5절. “여러 클라우드를 위한 Red Hat OpenStack Platform 환경 파일 생성”Core 오버클라우드 매개변수 를 참조하십시오.

4.4.5. 여러 클라우드를 위한 Red Hat OpenStack Platform 환경 파일 생성

원본 클라우드에 따라 트래픽에 레이블을 지정하려면 클라우드별 인스턴스 이름으로 구성을 생성해야 합니다. stf-connectors.yaml 파일을 만들고 AMQP 주소 접두사 스키마와 일치하도록 CeilometerQdrEventsConfig,CeilometerQdrMetricsConfigCollectdAmqpInstances의 값을 조정합니다.

참고

컨테이너 상태 및 API 상태 모니터링을 활성화한 경우 CollectdSensubilityResultsChannel 매개변수도 수정해야 합니다. 자세한 내용은 5.9절. “Red Hat OpenStack Platform API 상태 및 컨테이너화된 서비스 상태”의 내용을 참조하십시오.

사전 요구 사항

절차

  1. Red Hat OpenStack Platform 언더클라우드에 stack 사용자로 로그인합니다.
  2. /home/stack 디렉터리에 stf-connectors.yaml 구성 파일을 생성합니다.
  3. stf-connectors.yaml 파일에서 오버클라우드 배포의 AMQ Interconnect에 연결하도록 MetricsQdrConnectors 주소를 구성합니다. 이 클라우드 배포에 원하는 AMQP 주소와 일치하도록 CeilometerQdrEventsConfig, CeilometerQdrMetricsConfig, CollectdAmqpInstances 및 CollectdSensubilityResultsChannel 주제 값을 구성합니다.

    STF-connectors.yaml

    resource_registry:
      OS::TripleO::Services::Collectd: /usr/share/openstack-tripleo-heat-templates/deployment/metrics/collectd-container-puppet.yaml    1
    
    parameter_defaults:
        MetricsQdrConnectors:
            - host: stf-default-interconnect-5671-service-telemetry.apps.infra.watch   2
              port: 443
              role: edge
              verifyHostname: false
              sslProfile: sslProfile
    
        MetricsQdrSSLProfiles:
            - name: sslProfile
    
        CeilometerQdrEventsConfig:
            driver: amqp
            topic: cloud1-event   3
    
        CeilometerQdrMetricsConfig:
            driver: amqp
            topic: cloud1-metering   4
    
        CollectdAmqpInstances:
            cloud1-notify:        5
                notify: true
                format: JSON
                presettle: false
            cloud1-telemetry:     6
                format: JSON
                presettle: false
    
        CollectdSensubilityResultsChannel: sensubility/cloud1-telemetry 7

    1
    여러 클라우드 배포에 대한 collectd-write-qdr.yaml 환경 파일을 포함하지 않으므로 collectd 서비스를 직접 로드합니다.
    2
    host 매개 변수를 4.1.1절. “AMQ Interconnect 경로 주소 검색” 에서 검색한 HOST/PORT 값으로 바꿉니다.
    3
    Ceilometer 이벤트에 대한 주제를 정의합니다. 이 값은 anycast/ceilometer/cloud1-event.sample 의 주소 형식입니다.
    4
    Ceilometer 메트릭에 대한 주제를 정의합니다. 이 값은 anycast/ceilometer/cloud1-metering.sample 의 주소 형식입니다.
    5
    collectd 이벤트에 대한 주제를 정의합니다. 이 값은 collectd/cloud1-notify 형식입니다.
    6
    collectd 메트릭에 대한 주제를 정의합니다. 이 값은 collectd/cloud1-telemetry 형식입니다.
    7
    collectd-sensubility 이벤트에 대한 주제를 정의합니다. 이 값이 정확한 문자열 형식 Sensu bility/cloud1-telemetry인지 확인하십시오.
  4. stf-connectors.yaml 파일의 이름 지정 규칙이 Smart Gateway 구성의 spec.bridge.amqpUrl 필드와 일치하는지 확인합니다. 예를 들어 CeilometerQdrEventsConfig.topic 필드를 cloud1-event 값으로 구성합니다.
  5. 인증 파일을 소싱합니다.

    [stack@undercloud-0 ~]$ source stackrc
    
    (undercloud) [stack@undercloud-0 ~]$
  6. 사용자 환경과 관련된 기타 환경 파일과 함께 openstack overcloud deployment 명령에 stf-connectors .yaml 파일과 고유한 도메인 이름 환경 파일 hostnames.yaml을 포함합니다.

    주의

    사용자 지정 CollectdAmqpInstances 매개변수와 함께 collectd-write-qdr.yaml 파일을 사용하는 경우 사용자 지정 및 기본 항목에 데이터를 게시합니다. 여러 클라우드 환경에서 stf-connectors.yaml 파일의 resource_registry 매개변수 구성은 collectd 서비스를 로드합니다.

    (undercloud) [stack@undercloud-0 ~]$ openstack overcloud deploy <other_arguments>
    --templates /usr/share/openstack-tripleo-heat-templates \
      --environment-file <...other_environment_files...> \
      --environment-file /usr/share/openstack-tripleo-heat-templates/environments/metrics/ceilometer-write-qdr.yaml \
      --environment-file /usr/share/openstack-tripleo-heat-templates/environments/metrics/qdr-edge-only.yaml \
      --environment-file /home/stack/hostnames.yaml \
      --environment-file /home/stack/enable-stf.yaml \
      --environment-file /home/stack/stf-connectors.yaml
  7. Red Hat OpenStack Platform 오버클라우드를 배포합니다.

추가 리소스

4.4.6. 여러 클라우드에서 메트릭 데이터 쿼리

Prometheus에 저장된 데이터에는 스크랩된 Smart Gateway에 따라 서비스 레이블이 있습니다. 이 레이블을 사용하여 특정 클라우드의 데이터를 쿼리할 수 있습니다.

특정 클라우드의 데이터를 쿼리하려면 관련 서비스 레이블과 일치하는 Prometheus promql 쿼리를 사용합니다(예: collectd_uptime{service="default-cloud1-coll-meter"}).

5장. Service Telemetry Framework의 운영 기능 사용

다음 작동 기능을 사용하여 STF(Service Telemetry Framework)에 추가 기능을 제공할 수 있습니다.

5.1. Service Telemetry Framework의 대시보드

타사 애플리케이션 Grafana를 사용하여 각 개별 호스트 노드에 대해 collectd 및 Ceilometer에서 수집하는 시스템 수준 지표를 시각화합니다.

collectd 구성에 대한 자세한 내용은 4.1절. “Service Telemetry Framework용 Red Hat OpenStack Platform 오버클라우드 배포” 을 참조하십시오.

두 개의 대시보드를 사용하여 클라우드를 모니터링할 수 있습니다.

인프라 대시보드
인프라 대시보드를 사용하여 한 번에 단일 노드의 지표를 확인합니다. 대시보드의 왼쪽 상단 모서리에서 노드를 선택합니다.
클라우드 보기 대시보드

클라우드 보기 대시보드를 사용하여 서비스 리소스 사용량, API 통계 및 클라우드 이벤트를 모니터링하기 위한 패널을 확인합니다. 이 대시보드에 대한 데이터를 제공하기 위해 API 상태 모니터링 및 서비스 모니터링을 활성화해야 합니다. API 상태 모니터링은 기본적으로 STF 기본 구성에서 활성화됩니다. 자세한 내용은 4.1.2절. “STF의 기본 구성 생성”의 내용을 참조하십시오.

5.1.1. 대시보드를 호스팅하도록 Grafana 구성

Grafana는 기본 STF(Service Telemetry Framework) 배포에 포함되어 있지 않으므로 OperatorHub.io에서 Grafana Operator를 배포해야 합니다. Service Telemetry Operator를 사용하여 Grafana를 배포할 때 Grafana 인스턴스와 로컬 STF 배포에 대한 기본 데이터 소스 구성이 생성됩니다.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. Grafana Operator를 배포합니다.

    $ oc apply -f - <<EOF
    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: grafana-operator
      namespace: service-telemetry
    spec:
      channel: alpha
      installPlanApproval: Automatic
      name: grafana-operator
      source: operatorhubio-operators
      sourceNamespace: openshift-marketplace
    EOF
  4. Operator가 성공적으로 시작되었는지 확인합니다. 명령 출력에서 PHASE 열의 값이 Succeeded 이면 Operator가 성공적으로 시작되었습니다.

    $ oc get csv --selector operators.coreos.com/grafana-operator.service-telemetry
    
    NAME                       DISPLAY            VERSION   REPLACES                   PHASE
    grafana-operator.v3.10.3   Grafana Operator   3.10.3    grafana-operator.v3.10.2   Succeeded
  5. Grafana 인스턴스를 시작하려면 ServiceTelemetry 오브젝트를 생성하거나 수정합니다. graphing.enabledgraphing.grafana.ingressEnabledtrue 로 설정합니다.

    $ oc edit stf default
    
    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    ...
    spec:
      ...
      graphing:
        enabled: true
        grafana:
          ingressEnabled: true
  6. Grafana 인스턴스가 배포되었는지 확인합니다.

    $ oc get pod -l app=grafana
    
    NAME                                  READY   STATUS    RESTARTS   AGE
    grafana-deployment-7fc7848b56-sbkhv   1/1     Running   0          1m
  7. Grafana 데이터 소스가 올바르게 설치되었는지 확인합니다.

    $ oc get grafanadatasources
    
    NAME                    AGE
    default-datasources     20h
  8. Grafana 경로가 있는지 확인합니다.

    $ oc get route grafana-route
    
    NAME            HOST/PORT                                          PATH   SERVICES          PORT   TERMINATION   WILDCARD
    grafana-route   grafana-route-service-telemetry.apps.infra.watch          grafana-service   3000   edge          None

5.1.2. 기본 Grafana 컨테이너 이미지 덮어쓰기

STF(Service Telemetry Framework)의 대시보드에는 Grafana 버전 8.1.0 이상에서만 사용할 수 있는 기능이 필요합니다. 기본적으로 Service Telemetry Operator는 호환 버전을 설치합니다. 그래프.grafana.baseImage 를 사용하여 이미지 레지스트리에 대한 이미지 경로를 지정하여 기본 Grafana 이미지를 덮어쓸 수 있습니다.

절차

  1. Grafana의 올바른 버전이 있는지 확인합니다.

    $ oc get pod -l "app=grafana" -ojsonpath='{.items[0].spec.containers[0].image}'
    docker.io/grafana/grafana:7.3.10
  2. 실행 중인 이미지가 8.1.0보다 오래된 경우 ServiceTelemetry 오브젝트를 패치하여 이미지를 업데이트합니다. Service Telemetry Operator는 Grafana 배포를 다시 시작하는 Grafana 매니페스트를 업데이트합니다.

    $ oc patch stf/default --type merge -p '{"spec":{"graphing":{"grafana":{"baseImage":"docker.io/grafana/grafana:8.1.5"}}}}'
  3. 새 Grafana 포드가 존재하고 RunningSTATUS 값이 있는지 확인합니다.

    $ oc get pod -l "app=grafana"
    NAME                                 READY     STATUS    RESTARTS   AGE
    grafana-deployment-fb9799b58-j2hj2   1/1       Running   0          10s
  4. 새 인스턴스가 업데이트된 이미지를 실행 중인지 확인합니다.

    $ oc get pod -l "app=grafana" -ojsonpath='{.items[0].spec.containers[0].image}'
    docker.io/grafana/grafana:8.1.0

5.1.3. 대시보드 가져오기

Grafana Operator는 GrafanaDashboard 오브젝트를 생성하여 대시보드를 가져오고 관리할 수 있습니다. https://github.com/infrawatch/dashboards 에서 예제 대시보드를 볼 수 있습니다.

절차

  1. 인프라 대시보드를 가져옵니다.

    $ oc apply -f https://raw.githubusercontent.com/infrawatch/dashboards/master/deploy/stf-1.3/rhos-dashboard.yaml
    
    grafanadashboard.integreatly.org/rhos-dashboard-1.3 created
  2. 클라우드 대시보드를 가져옵니다.

    주의

    클라우드 대시보드의 일부 패널의 경우 collectd virt 플러그인 매개변수 hostname_format 의 값을 stf-connectors.yaml 파일에서 이름을 uuid 호스트 이름으로 설정해야 합니다. 이 매개변수를 구성하지 않으면 영향을 받는 대시보드는 비어 있습니다. virt 플러그인에 대한 자세한 내용은 collectd 플러그인 을 참조하십시오.

    $ oc apply -f https://raw.githubusercontent.com/infrawatch/dashboards/master/deploy/stf-1.3/rhos-cloud-dashboard.yaml
    
    grafanadashboard.integreatly.org/rhos-cloud-dashboard-1.3 created
  3. 클라우드 이벤트 대시보드를 가져옵니다.

    $ oc apply -f https://raw.githubusercontent.com/infrawatch/dashboards/master/deploy/stf-1.3/rhos-cloudevents-dashboard.yaml
    
    grafanadashboard.integreatly.org/rhos-cloudevents-dashboard created
  4. 가상 머신 대시보드를 가져옵니다.

    $ oc apply -f https://raw.githubusercontent.com/infrawatch/dashboards/master/deploy/stf-1.3/virtual-machine-view.yaml
    
    grafanadashboard.integreatly.org/virtual-machine-view-1.3 configured
  5. memcached 대시보드를 가져옵니다.

    $ oc apply -f https://raw.githubusercontent.com/infrawatch/dashboards/master/deploy/stf-1.3/memcached-dashboard.yaml
    
    grafanadashboard.integreatly.org/memcached-dashboard-1.3 created
  6. 대시보드를 사용할 수 있는지 확인합니다.

    $ oc get grafanadashboards
    
    NAME                   AGE
    memcached-dashboard-1.3      115s
    rhos-cloud-dashboard-1.3     2m12s
    rhos-cloudevents-dashboard   2m6s
    rhos-dashboard-1.3           2m17s
    virtual-machine-view-1.3     2m
  7. Grafana 경로 주소를 검색합니다.

    $ oc get route grafana-route -ojsonpath='{.spec.host}'
    
    grafana-route-service-telemetry.apps.infra.watch
  8. 웹 브라우저에서 https://<grafana_route_address> 로 이동합니다. <grafana_route_address> 를 이전 단계에서 검색한 값으로 바꿉니다.
  9. 대시보드를 보려면 대시보드 및 관리를 클릭합니다.

5.1.4. Grafana 로그인 자격 증명 검색 및 설정

Grafana가 활성화되면 STF(Service Telemetry Framework)가 기본 로그인 자격 증명을 설정합니다. ServiceTelemetry 오브젝트에서 인증 정보를 재정의할 수 있습니다.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. STF 오브젝트에서 기본 사용자 이름과 암호를 검색합니다.

    $ oc get stf default -o jsonpath="{.spec.graphing.grafana['adminUser','adminPassword']}"
  4. ServiceTelemetry 오브젝트를 통해 Grafana 관리자 사용자 이름 및 암호의 기본값을 수정하려면 graphing.grafana.adminUser 및 graphing. grafana.adminPassword 매개변수를 사용합니다.

5.2. Service Telemetry Framework의 메트릭 보존 기간

STF(Service Telemetry Framework)에 저장된 메트릭의 기본 보존 시간은 24시간이며, 경고 목적으로 개발될 수 있는 추세에 충분한 데이터를 제공합니다.

장기 스토리지의 경우, 장기 데이터 보존을 위해 설계된 시스템을 사용합니다(예: Thanos).

추가 리소스

5.2.1. Service Telemetry Framework에서 메트릭 보존 기간 편집

추가 메트릭 보존 시간을 위해 STF(Service Telemetry Framework)를 조정할 수 있습니다.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. ServiceTelemetry 오브젝트를 편집합니다.

    $ oc edit stf default
  4. retention을 추가합니다. 보존 기간을 7일로 늘리려면 7D backends.metrics.prometheus.storage의 스토리지 섹션으로 이동합니다.

    참고

    장기간 보관 기간을 설정하면 많이 채워진 Prometheus 시스템에서 데이터를 검색하면 쿼리에서 결과를 느리게 반환할 수 있습니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: stf-default
      namespace: service-telemetry
    spec:
      ...
      backends:
        metrics:
          prometheus:
            enabled: true
            storage:
              strategy: persistent
              retention: 7d
        ...
  5. 변경 사항을 저장하고 오브젝트를 종료합니다.

추가 리소스

5.3. Service Telemetry Framework의 경고

Prometheus에서 경고 규칙을 만들고 Alertmanager의 경고 경로를 생성합니다. Prometheus 서버의 경고 규칙은 경고를 관리하는 Alertmanager에 경고를 보냅니다. Alertmanager는 이메일, 전화 알림 시스템 또는 대화 플랫폼을 사용하여 경고를 음소거, 억제 또는 집계할 수 있습니다.

경고를 생성하려면 다음 작업을 완료합니다.

  1. Prometheus에서 경고 규칙을 만듭니다. 자세한 내용은 5.3.1절. “Prometheus에서 경고 규칙 생성”의 내용을 참조하십시오.
  2. Alertmanager에서 경고 경로를 만듭니다. 경고 경로를 생성하는 방법은 다음 두 가지입니다.

추가 리소스

Prometheus 및 Alertmanager를 통한 경고 또는 알림에 대한 자세한 내용은 https://prometheus.io/docs/alerting/overview/을 참조하십시오.

Service Telemetry Framework (STF)와 함께 사용할 수 있는 경고 예제를 보려면 https://github.com/infrawatch/service-telemetry-operator/tree/master/deploy/alerts를 참조하십시오.

5.3.1. Prometheus에서 경고 규칙 생성

Prometheus는 알림을 트리거하기 위해 경고 규칙을 평가합니다. 규칙 조건이 빈 결과 집합을 반환하는 경우 조건이 false입니다. 그렇지 않으면 규칙이 true이고 경고가 트리거됩니다.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. 경고 규칙이 포함된 PrometheusRule 오브젝트를 생성합니다. Prometheus Operator는 규칙을 Prometheus로 로드합니다.

    $ oc apply -f - <<EOF
    apiVersion: monitoring.coreos.com/v1
    kind: PrometheusRule
    metadata:
      creationTimestamp: null
      labels:
        prometheus: default
        role: alert-rules
      name: prometheus-alarm-rules
      namespace: service-telemetry
    spec:
      groups:
        - name: ./openstack.rules
          rules:
            - alert: Collectd metrics receive rate is zero
              expr: rate(sg_total_collectd_msg_received_count[1m]) == 0 1
    EOF
    1
    규칙을 변경하려면 expr 매개변수 값을 편집합니다.
  4. Operator가 규칙을 Prometheus에 로드했는지 확인하려면 기본 인증을 사용하여 default-prometheus-proxy 경로에 대해 curl 명령을 실행합니다.

    $ curl -k --user "internal:$(oc get secret default-prometheus-htpasswd -ogo-template='{{ .data.password | base64decode }}')" https://$(oc get route default-prometheus-proxy -ogo-template='{{ .spec.host }}')/api/v1/rules
    
    {"status":"success","data":{"groups":[{"name":"./openstack.rules","file":"/etc/prometheus/rules/prometheus-default-rulefiles-0/service-telemetry-prometheus-alarm-rules.yaml","rules":[{"state":"inactive","name":"Collectd metrics receive count is zero","query":"rate(sg_total_collectd_msg_received_count[1m]) == 0","duration":0,"labels":{},"annotations":{},"alerts":[],"health":"ok","evaluationTime":0.00034627,"lastEvaluation":"2021-12-07T17:23:22.160448028Z","type":"alerting"}],"interval":30,"evaluationTime":0.000353787,"lastEvaluation":"2021-12-07T17:23:22.160444017Z"}]}}

추가 리소스

5.3.2. 사용자 정의 경고 구성

5.3.1절. “Prometheus에서 경고 규칙 생성” 에서 생성한 PrometheusRule 오브젝트에 사용자 정의 경고를 추가할 수 있습니다.

절차

  1. oc edit 명령을 사용합니다.

    $ oc edit prometheusrules prometheus-alarm-rules
  2. PrometheusRules 매니페스트를 편집합니다.
  3. 매니페스트를 저장하고 종료합니다.

추가 리소스

5.3.3. Alertmanager에서 표준 경고 경로 생성

Alertmanager를 사용하여 이메일, IRC 또는 기타 알림 채널과 같은 외부 시스템에 경고를 전달합니다. Prometheus Operator는 Alertmanager 구성을 Red Hat OpenShift Container Platform 시크릿으로 관리합니다. 기본적으로 STF(Service Telemetry Framework)는 수신자가 발생하지 않는 기본 구성을 배포합니다.

alertmanager.yaml: |-
  global:
    resolve_timeout: 5m
  route:
    group_by: ['job']
    group_wait: 30s
    group_interval: 5m
    repeat_interval: 12h
    receiver: 'null'
  receivers:
  - name: 'null'

STF를 사용하여 사용자 정의 Alertmanager 경로를 배포하려면 Prometheus Operator에서 관리하는 업데이트된 시크릿을 생성하는 alertmanagerConfigManifest 매개변수를 Service Telemetry Operator에 전달해야 합니다.

참고

alertmanagerConfigManifest 에 전송된 경고의 제목과 텍스트를 구성하는 사용자 정의 템플릿이 포함된 경우 base64 인코딩 구성을 사용하여 alertmanagerConfigManifest 의 콘텐츠를 배포합니다. 자세한 내용은 5.3.4절. “Alertmanager에서 템플릿로 경고 경로 생성”의 내용을 참조하십시오.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. STF 배포에 대한 ServiceTelemetry 오브젝트를 편집합니다.

    $ oc edit stf default
  4. 새 매개변수 alertmanagerConfigManifestSecret 오브젝트 콘텐츠를 추가하여 Alertmanager에 대한 alertmanager.yaml 구성을 정의합니다.

    참고

    이 단계에서는 Service Telemetry Operator에서 관리하는 기본 템플릿을 로드합니다. 변경 사항이 올바르게 채워지는지 확인하려면 값을 변경하고 alertmanager-default 보안을 반환하고 새 값이 메모리에 로드되었는지 확인합니다. 예를 들어 전역.resolve_timeout 매개변수의 값을 5m에서 10m 로 변경합니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec:
      backends:
        metrics:
          prometheus:
            enabled: true
      alertmanagerConfigManifest: |
        apiVersion: v1
        kind: Secret
        metadata:
          name: 'alertmanager-default'
          namespace: 'service-telemetry'
        type: Opaque
        stringData:
          alertmanager.yaml: |-
            global:
              resolve_timeout: 10m
            route:
              group_by: ['job']
              group_wait: 30s
              group_interval: 5m
              repeat_interval: 12h
              receiver: 'null'
            receivers:
            - name: 'null'
  5. 구성이 보안에 적용되었는지 확인합니다.

    $ oc get secret alertmanager-default -o go-template='{{index .data "alertmanager.yaml" | base64decode }}'
    
    global:
      resolve_timeout: 10m
    route:
      group_by: ['job']
      group_wait: 30s
      group_interval: 5m
      repeat_interval: 12h
      receiver: 'null'
    receivers:
    - name: 'null'
  6. alertmanager-proxy 서비스에 대해 curl 명령을 실행하여 상태 및 configYAML 콘텐츠를 검색하고 제공된 구성이 Alertmanager의 구성과 일치하는지 확인합니다.

    $ oc run curl -it --serviceaccount=prometheus-k8s --restart='Never' --image=radial/busyboxplus:curl -- sh -c "curl -k -H \"Content-Type: application/json\" -H \"Authorization: Bearer \$(cat /var/run/secrets/kubernetes.io/serviceaccount/token)\" https://default-alertmanager-proxy:9095/api/v1/status"
    
    {"status":"success","data":{"configYAML":"...",...}}
  7. configYAML 필드에 예상 변경 사항이 포함되어 있는지 확인합니다.
  8. 환경을 정리하려면 curl Pod를 삭제합니다.

    $ oc delete pod curl
    
    pod "curl" deleted

추가 리소스

5.3.4. Alertmanager에서 템플릿로 경고 경로 생성

Alertmanager를 사용하여 이메일, IRC 또는 기타 알림 채널과 같은 외부 시스템에 경고를 전달합니다. Prometheus Operator는 Alertmanager 구성을 Red Hat OpenShift Container Platform 시크릿으로 관리합니다. 기본적으로 STF(Service Telemetry Framework)는 수신자가 발생하지 않는 기본 구성을 배포합니다.

alertmanager.yaml: |-
  global:
    resolve_timeout: 5m
  route:
    group_by: ['job']
    group_wait: 30s
    group_interval: 5m
    repeat_interval: 12h
    receiver: 'null'
  receivers:
  - name: 'null'

alertmanagerConfigManifest 매개변수에 예를 들어 전송된 경고의 제목과 텍스트를 구성하는 사용자 지정 템플릿이 포함된 경우 base64로 인코딩된 구성을 사용하여 alertmanagerConfigManifest 의 콘텐츠를 배포합니다.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. STF 배포에 대한 ServiceTelemetry 오브젝트를 편집합니다.

    $ oc edit stf default
  4. STF를 사용하여 사용자 정의 Alertmanager 경로를 배포하려면 Prometheus Operator에서 관리하는 업데이트된 보안을 생성하는 alertmanagerConfigManifest 매개변수를 Service Telemetry Operator에 전달해야 합니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec:
      backends:
        metrics:
          prometheus:
            enabled: true
      alertmanagerConfigManifest: |
        apiVersion: v1
        kind: Secret
        metadata:
          name: 'alertmanager-default'
          namespace: 'service-telemetry'
        type: Opaque
        data:
          alertmanager.yaml: Z2xvYmFsOgogIHJlc29sdmVfdGltZW91dDogMTBtCiAgc2xhY2tfYXBpX3VybDogPHNsYWNrX2FwaV91cmw+CnJlY2VpdmVyczoKICAtIG5hbWU6IHNsYWNrCiAgICBzbGFja19jb25maWdzOgogICAgLSBjaGFubmVsOiAjc3RmLWFsZXJ0cwogICAgICB0aXRsZTogfC0KICAgICAgICAuLi4KICAgICAgdGV4dDogPi0KICAgICAgICAuLi4Kcm91dGU6CiAgZ3JvdXBfYnk6IFsnam9iJ10KICBncm91cF93YWl0OiAzMHMKICBncm91cF9pbnRlcnZhbDogNW0KICByZXBlYXRfaW50ZXJ2YWw6IDEyaAogIHJlY2VpdmVyOiAnc2xhY2snCg==
  5. 구성이 보안에 적용되었는지 확인합니다.

    $ oc get secret alertmanager-default -o go-template='{{index .data "alertmanager.yaml" | base64decode }}'
    
    global:
      resolve_timeout: 10m
      slack_api_url: <slack_api_url>
    receivers:
      - name: slack
        slack_configs:
        - channel: #stf-alerts
          title: |-
            ...
          text: >-
            ...
    route:
      group_by: ['job']
      group_wait: 30s
      group_interval: 5m
      repeat_interval: 12h
      receiver: 'slack'
  6. alertmanager-proxy 서비스에 대해 curl 명령을 실행하여 상태 및 configYAML 콘텐츠를 검색하고 제공된 구성이 Alertmanager의 구성과 일치하는지 확인합니다.

    $ oc run curl -it --serviceaccount=prometheus-k8s --restart='Never' --image=radial/busyboxplus:curl -- sh -c "curl -k -H \"Content-Type: application/json\" -H \"Authorization: Bearer \$(cat /var/run/secrets/kubernetes.io/serviceaccount/token)\" https://default-alertmanager-proxy:9095/api/v1/status"
    
    {"status":"success","data":{"configYAML":"...",...}}
  7. configYAML 필드에 예상 변경 사항이 포함되어 있는지 확인합니다.
  8. 환경을 정리하려면 curl Pod를 삭제합니다.

    $ oc delete pod curl
    
    pod "curl" deleted

추가 리소스

5.4. ECDHE 트랩 구성

STF(Service Telemetry Framework)를ECDHE 트랩을 통해 알림을 수신하는 기존 인프라 모니터링 플랫폼과 통합할 수 있습니다. ECDHE 트랩을 활성화하려면 ServiceTelemetry 오브젝트를 수정하고 the snmpTraps 매개변수를 구성합니다.

경고 구성에 대한 자세한 내용은 5.3절. “Service Telemetry Framework의 경고” 을 참조하십시오.

사전 요구 사항

  • 알림을 보내려는 hieradata 트랩 수신자의 IP 주소 또는 호스트 이름을 알 수 있습니다.

절차

  1. ECDHE 트랩을 활성화하려면 ServiceTelemetry 오브젝트를 수정합니다.

    $ oc edit stf default
  2. alert.alertmanager.receivers.snmpTraps 매개변수를 설정합니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    ...
    spec:
      ...
      alerting:
        alertmanager:
          receivers:
            snmpTraps:
              enabled: true
              target: 10.10.10.10
  3. target 값을ECDHE 트랩 수신자의 IP 주소 또는 호스트 이름으로 설정해야 합니다.

5.5. 고가용성

고가용성을 통해 STF(Service Telemetry Framework)는 구성 요소 서비스의 장애로부터 신속하게 복구할 수 있습니다. Red Hat OpenShift Container Platform은 워크로드를 예약할 수 있는 노드를 사용할 수 있는 경우 실패한 Pod를 재시작하지만 이 복구 프로세스는 이벤트 및 메트릭이 손실되는 동안 1분 이상 걸릴 수 있습니다. 고가용성 구성에는 STF 구성 요소의 여러 사본이 포함되어 있어 복구 시간을 약 2초로 줄일 수 있습니다. Red Hat OpenShift Container Platform 노드가 실패하지 않도록 하려면 3개 이상의 노드가 있는 Red Hat OpenShift Container Platform 클러스터에 STF를 배포합니다.

주의

STF는 아직 완전히 내결함성 시스템이 아닙니다. 복구 기간 동안 메트릭 및 이벤트 제공은 보장되지 않습니다.

고가용성을 활성화하면 다음과 같은 효과가 있습니다.

  • 기본 Pod 대신 세 개의 ElasticSearch Pod가 실행됩니다.
  • 다음 구성 요소는 기본 구성 요소 대신 두 개의 Pod를 실행합니다.

    • AMQ 상호 연결
    • Alertmanager
    • Prometheus
    • 이벤트 스마트 게이트웨이
    • 메트릭 스마트 게이트웨이
  • 이러한 서비스에서 손실된 pod에서 복구 시간은 약 2초로 단축됩니다.

5.5.1. 고가용성 구성

고가용성을 위해 STF(Service Telemetry Framework)를 구성하려면 Red Hat OpenShift Container Platform의 ServiceTelemetry 오브젝트에 highAvailability.enabled: true 를 추가합니다. 설치 시 이 매개변수를 설정하거나 STF를 이미 배포한 경우 다음 단계를 완료할 수 있습니다.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. oc 명령을 사용하여 ServiceTelemetry 오브젝트를 편집합니다.

    $ oc edit stf default
  4. spec 섹션에 highAvailability.enabled: true 를 추가합니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    ...
    spec:
      ...
      highAvailability:
        enabled: true
  5. 변경 사항을 저장하고 오브젝트를 종료합니다.

5.6. 임시 스토리지

Red Hat OpenShift Container Platform 클러스터에 데이터를 영구적으로 저장하지 않고 임시 스토리지를 사용하여 Service Telemetry Framework (STF)를 실행할 수 있습니다.

주의

임시 스토리지를 사용하는 경우 Pod가 다른 노드에 다시 시작, 업데이트 또는 다시 예약되면 데이터 손실이 발생할 수 있습니다. 프로덕션 환경이 아닌 개발 또는 테스트에만 임시 스토리지를 사용합니다.

5.6.1. 임시 스토리지 구성

임시 스토리지의 STF 구성 요소를 구성하려면 해당 매개변수에 ...storage.strategy: ephemeral 를 추가합니다. 예를 들어 Prometheus 백엔드에 임시 스토리지를 활성화하려면 backends.metrics.prometheus.storage.strategy: ephemeral 를 설정합니다. 임시 스토리지 구성을 지원하는 구성 요소에는 alert.alertmanager,backends.metrics.prometheus, backends.events.elasticsearch 가 포함됩니다. 설치 시 임시 스토리지 구성을 추가하거나 STF를 이미 배포한 경우 다음 단계를 완료할 수 있습니다.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. ServiceTelemetry 오브젝트를 편집합니다.

    $ oc edit stf default
  4. 관련 구성 요소의 spec 섹션에 ...storage.strategy: ephemeral 매개변수를 추가합니다.

    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: stf-default
      namespace: service-telemetry
    spec:
      alerting:
        enabled: true
        alertmanager:
          storage:
            strategy: ephemeral
      backends:
        metrics:
          prometheus:
            enabled: true
            storage:
              strategy: ephemeral
        events:
          elasticsearch:
            enabled: true
            storage:
              strategy: ephemeral
  5. 변경 사항을 저장하고 오브젝트를 종료합니다.

5.7. Service Telemetry Framework의 관찰 전략

Service Telemetry Framework(STF)에는 스토리지 백엔드 및 경고 툴이 포함되어 있지 않습니다. STF는 커뮤니티 운영자를 사용하여 Prometheus, Alertmanager, Grafana 및 Elasticsearch를 배포합니다. STF는 이러한 커뮤니티 운영자에 요청하여 STF와 함께 작동하도록 구성된 각 애플리케이션의 인스턴스를 생성합니다.

Service Telemetry Operator가 사용자 정의 리소스 요청을 생성하는 대신 이러한 애플리케이션 또는 기타 호환 애플리케이션의 자체 배포를 사용하고 Telemetry 스토리지를 위해 자체 Prometheus 호환 시스템으로 제공하기 위해 지표 Smart Gateway를 스크랩할 수 있습니다. 대신 대체 백엔드를 사용하도록 관찰 기능을 설정하면 STF에 영구 또는 임시 스토리지가 필요하지 않습니다.

5.7.1. 대체 관찰 전략 구성

스토리지, 시각화 및 경고 백엔드의 배포를 건너뛰도록 STF를 구성하려면 observedability Strategy: none 을 ServiceTelemetry 사양에 추가합니다. 이 모드에서는 AMQ Interconnect 라우터 및 메트릭 Smart Gateway만 배포되며 STF Smart Gateways에서 지표를 수집하도록 외부 Prometheus 호환 시스템을 구성해야 합니다.

참고

현재 observedability Strategy를 none 으로 설정하는 경우 메트릭만 지원됩니다. 이벤트 스마트 게이트웨이는 배포되지 않습니다.

절차

  1. spec 매개변수에서 속성 observedability Strategy: none을 사용하여 ServiceTelemetry 오브젝트를 생성합니다. 매니페스트는 모든 지표 수집기 유형을 사용하여 단일 클라우드에서 Telemetry를 수신하는 데 적합한 STF의 기본 배포 결과를 보여줍니다.

    $ oc apply -f - <<EOF
    apiVersion: infra.watch/v1beta1
    kind: ServiceTelemetry
    metadata:
      name: default
      namespace: service-telemetry
    spec:
      observabilityStrategy: none
    EOF
  2. 모든 워크로드가 올바르게 작동하는지 확인하려면 Pod 및 각 Pod의 상태를 확인합니다.

    $ oc get pods
    NAME                                                      READY   STATUS    RESTARTS   AGE
    default-cloud1-ceil-meter-smartgateway-59c845d65b-gzhcs   3/3     Running   0          132m
    default-cloud1-coll-meter-smartgateway-75bbd948b9-d5phm   3/3     Running   0          132m
    default-cloud1-sens-meter-smartgateway-7fdbb57b6d-dh2g9   3/3     Running   0          132m
    default-interconnect-668d5bbcd6-57b2l                     1/1     Running   0          132m
    interconnect-operator-b8f5bb647-tlp5t                     1/1     Running   0          47h
    service-telemetry-operator-566b9dd695-wkvjq               1/1     Running   0          156m
    smart-gateway-operator-58d77dcf7-6xsq7                    1/1     Running   0          47h

추가 리소스

추가 클라우드 구성 또는 지원되는 컬렉터 집합을 변경하는 방법에 대한 자세한 내용은 다음을 참조하십시오. 4.4.2절. “스마트 게이트웨이 배포”

5.8. Red Hat OpenStack Platform 서비스의 리소스 사용량

API 및 기타 인프라 프로세스와 같은 RHOSP(Red Hat OpenStack Platform) 서비스의 리소스 사용량을 모니터링하여 컴퓨팅 전원이 부족한 서비스를 표시하여 오버클라우드의 병목 현상이 있는지 확인할 수 있습니다. 리소스 사용량 모니터링은 기본적으로 활성화되어 있습니다.

추가 리소스

5.8.1. Red Hat OpenStack Platform 서비스의 리소스 사용량 모니터링 비활성화

RHOSP 컨테이너화된 서비스 리소스 사용량의 모니터링을 비활성화하려면 CollectdEnableLibpodstats 매개변수를 false 로 설정해야 합니다.

사전 요구 사항

절차

  1. stf-connectors.yaml 파일을 열고 CollectdEnableLibpodstats 매개변수를 추가하여 enable-stf.yaml 의 설정을 덮어씁니다. enable -stf.yaml 후 openstack overcloud deploy 명령에서 stf-connectors.yaml이 호출되었는지 확인합니다.

      CollectdEnableLibpodstats: false
  2. 오버클라우드 배포 절차를 계속합니다. 자세한 내용은 4.1.4절. “오버클라우드 배포”의 내용을 참조하십시오.

5.9. Red Hat OpenStack Platform API 상태 및 컨테이너화된 서비스 상태

OCI(Open Container Initiative) 표준을 사용하여 상태 점검 스크립트를 주기적으로 실행하여 각 RHOSP(Red Hat OpenStack Platform) 서비스의 컨테이너 상태를 평가할 수 있습니다. 대부분의 RHOSP 서비스는 문제를 기록하고 바이너리 상태를 반환하는 상태 점검을 구현합니다. RHOSP API의 경우 상태 점검에서 루트 끝점을 쿼리하고 응답 시간을 기반으로 상태를 확인합니다.

RHOSP 컨테이너 상태 및 API 상태 모니터링은 기본적으로 활성화되어 있습니다.

추가 리소스

5.9.1. 컨테이너 상태 및 API 상태 모니터링 비활성화

RHOSP 컨테이너화된 서비스 상태 및 API 상태 모니터링을 비활성화하려면 CollectdEnableSensubility 매개변수를 false 로 설정해야 합니다.

사전 요구 사항

절차

  1. stf-connectors.yaml 을 열고 CollectdEnableSensubility 매개변수를 추가하여 enable-stf.yaml 의 설정을 덮어씁니다. enable -stf.yaml 후 openstack overcloud deploy 명령에서 stf-connectors.yaml이 호출되었는지 확인합니다.

    CollectdEnableSensubility: false
  2. 오버클라우드 배포 절차를 계속합니다. 자세한 내용은 4.1.4절. “오버클라우드 배포”의 내용을 참조하십시오.

추가 리소스

6장. Service Telemetry Framework를 버전 1.4로 업그레이드

Service Telemetry Framework (STF) v1.3에서 STF v1.4로 마이그레이션하려면 Red Hat OpenShift Container Platform 환경의 service-telemetry 네임스페이스의 ClusterServiceVersionSubscription 오브젝트를 교체해야 합니다.

사전 요구 사항

  • Red Hat OpenShift Container Platform 환경을 v4.8로 업그레이드했습니다. STF v1.4는 Red Hat OpenShift Container Platform v4.8 미만 버전에서 실행되지 않습니다.
  • 당신은 당신의 데이터를 백업했습니다. STF v1.3을 v1.4로 업그레이드하면 스마트 게이트웨이 및 기타 구성 요소가 업데이트되는 동안 잠시 중단됩니다. 또한 Operator를 교체하는 동안 ServiceTelemetrySmartGateway 오브젝트의 변경 사항에는 영향을 미치지 않습니다.

STF v1.3에서 v1.4로 업그레이드하려면 다음 절차를 완료하십시오.

6.1. STF 1.3 Smart Gateway Operator 제거

STF 1.3에서 Smart Gateway Operator를 제거합니다.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. Smart Gateway Operator의 서브스크립션 이름을 검색합니다. 선택기의 service-telemetry 를 기본 네임스페이스와 다른 경우 STF 인스턴스를 호스팅하는 네임스페이스로 교체합니다. 하나의 서브스크립션만 반환되는지 확인합니다.

    $ oc get sub --selector=operators.coreos.com/smart-gateway-operator.service-telemetry
    
    NAME                                                                       PACKAGE                  SOURCE             CHANNEL
    smart-gateway-operator-stable-1.3-redhat-operators-openshift-marketplace   smart-gateway-operator   redhat-operators   stable-1.3
  4. Smart Gateway Operator 서브스크립션을 삭제합니다.

    $ oc delete sub --selector=operators.coreos.com/smart-gateway-operator.service-telemetry
    
    subscription.operators.coreos.com "smart-gateway-operator-stable-1.3-redhat-operators-openshift-marketplace" deleted
  5. Smart Gateway Operator ClusterServiceVersion을 검색하고 하나의 ClusterServiceVersion만 반환되는지 확인합니다.

    $ oc get csv --selector=operators.coreos.com/smart-gateway-operator.service-telemetry
    
    NAME                                     DISPLAY                  VERSION          REPLACES   PHASE
    smart-gateway-operator.v3.0.1635451893   Smart Gateway Operator   3.0.1635451893              Succeeded
  6. Smart Gateway Operator ClusterServiceVersion을 삭제합니다.

    $ oc delete csv --selector=operators.coreos.com/smart-gateway-operator.service-telemetry
    
    clusterserviceversion.operators.coreos.com "smart-gateway-operator.v3.0.1635451893" deleted
  7. SmartGateway CRD(Custom Resource Definition)를 삭제합니다. CRD를 제거한 후 업그레이드가 완료되고 Smart Gateway 인스턴스가 복원될 때까지 STF로의 데이터 흐름이 발생하지 않습니다.

    $ oc delete crd smartgateways.smartgateway.infra.watch
    
    customresourcedefinition.apiextensions.k8s.io "smartgateways.smartgateway.infra.watch" deleted

6.2. Service Telemetry Operator를 1.4로 업데이트

STF 인스턴스를 stable-1.4 채널로 관리하는 Service Telemetry Operator의 서브스크립션 채널을 변경해야 합니다.

절차

  1. Red Hat OpenShift Container Platform에 로그인합니다.
  2. service-telemetry 네임스페이스로 변경합니다.

    $ oc project service-telemetry
  3. stable-1.4 채널을 사용하려면 Service Telemetry Operator 서브스크립션을 패치합니다. 선택기의 service-telemetry 를 기본 네임스페이스와 다른 경우 STF 인스턴스를 호스팅하는 네임스페이스로 교체합니다.

    $ oc patch $(oc get sub --selector=operators.coreos.com/service-telemetry-operator.service-telemetry -oname) --patch $'spec:\n  channel: stable-1.4' --type=merge
    
    subscription.operators.coreos.com/service-telemetry-operator patched
  4. Smart Gateway Operator가 설치되고 Service Telemetry Operator가 업데이트 단계를 통해 이동할 때까지 oc get csv 명령의 출력을 모니터링합니다. 단계가 Succeeded 로 변경되면 Service Telemetry Operator가 업데이트를 완료했습니다.

    $ watch -n5 oc get csv
    
    NAME                                         DISPLAY                                         VERSION          REPLACES                                     PHASE
    amq7-cert-manager.v1.0.3                     Red Hat Integration - AMQ Certificate Manager   1.0.3            amq7-cert-manager.v1.0.2                     Succeeded
    amq7-interconnect-operator.v1.10.5           Red Hat Integration - AMQ Interconnect          1.10.5           amq7-interconnect-operator.v1.10.4           Succeeded
    elasticsearch-eck-operator-certified.1.9.1   Elasticsearch (ECK) Operator                    1.9.1                                                         Succeeded
    prometheusoperator.0.47.0                    Prometheus Operator                             0.47.0           prometheusoperator.0.37.0                    Succeeded
    service-telemetry-operator.v1.4.1641504218   Service Telemetry Operator                      1.4.1641504218   service-telemetry-operator.v1.3.1635451892   Succeeded
    smart-gateway-operator.v4.0.1641504216       Smart Gateway Operator                          4.0.1641504216                                                Succeeded
  5. 모든 포드가 준비되어 실행되고 있는지 확인합니다. 해당 환경은 다음 예제 출력과 다를 수 있습니다.

    $ oc get pods
    
    NAME                                                      READY   STATUS    RESTARTS   AGE
    alertmanager-default-0                                    3/3     Running   0          162m
    default-cloud1-ceil-event-smartgateway-5599bcfc9d-wp48n   2/2     Running   1          160m
    default-cloud1-ceil-meter-smartgateway-c8fdf579c-955kt    3/3     Running   0          160m
    default-cloud1-coll-event-smartgateway-97b54b7dc-5zz2v    2/2     Running   0          159m
    default-cloud1-coll-meter-smartgateway-774b9988b8-wb5vd   3/3     Running   0          160m
    default-cloud1-sens-meter-smartgateway-b98966fbf-rnqwf    3/3     Running   0          159m
    default-interconnect-675dd97bc4-dcrzk                     1/1     Running   0          171m
    default-snmp-webhook-7854d4889d-wgmgg                     1/1     Running   0          171m
    elastic-operator-c54ff8cc-jcg8d                           1/1     Running   6          3h55m
    elasticsearch-es-default-0                                1/1     Running   0          160m
    interconnect-operator-6bf74c4ffb-hkmbq                    1/1     Running   0          3h54m
    prometheus-default-0                                      3/3     Running   1          160m
    prometheus-operator-fc64987d-f7gx4                        1/1     Running   0          3h54m
    service-telemetry-operator-68d888f767-s5kzh               1/1     Running   0          163m
    smart-gateway-operator-584df7959-llxgl                    1/1     Running   0          163m

7장. Red Hat OpenShift Container Platform 환경에서 Service Telemetry Framework 제거

더 이상 STF 기능이 필요하지 않은 경우 Red Hat OpenShift Container Platform 환경에서 STF(Service Telemetry Framework)를 제거하십시오.

Red Hat OpenShift Container Platform 환경에서 STF를 제거하려면 다음 작업을 수행해야 합니다.

  1. 네임스페이스를 삭제합니다.
  2. 카탈로그 소스를 제거합니다.
  3. AMQ Cert Manager Operator를 제거합니다.

7.1. 네임스페이스 삭제

Red Hat OpenShift Container Platform에서 Service Telemetry Framework(STF) 운영 리소스를 제거하려면 네임스페이스를 삭제합니다.

절차

  1. oc delete 명령을 실행합니다.

    $ oc delete project service-telemetry
  2. 네임스페이스에서 리소스가 삭제되었는지 확인합니다.

    $ oc get all
    No resources found.

7.2. CatalogSource 제거

STF(Service Telemetry Framework)를 다시 설치할 필요가 없는 경우 CatalogSource를 삭제합니다. CatalogSource를 제거하면 STF와 관련된 PackageManifest가 Operator Lifecycle Manager 카탈로그에서 자동으로 제거됩니다.

절차

  1. 설치 프로세스 중에 OperatorHub.io 커뮤니티 카탈로그 소스를 활성화했으며 더 이상 이 카탈로그 소스가 필요하지 않은 경우 이를 삭제할 수 있습니다.

    $ oc delete --namespace=openshift-marketplace catalogsource operatorhubio-operators
    catalogsource.operators.coreos.com "operatorhubio-operators" deleted

추가 리소스

OperatorHub.io 커뮤니티 카탈로그 소스에 대한 자세한 내용은 3.1절. “Red Hat OpenShift Container Platform 환경에 Service Telemetry Framework 배포” 을 참조하십시오.

7.3. AMQ Certificate Manager Operator 제거

다른 애플리케이션에 AMQ Certificate Manager를 사용하지 않는 경우 서브스크립션, ClusterServiceVersion 및 CustomResourceDefinitions를 삭제합니다.

절차

  1. 설치된 ClusterServiceVersion의 버전 번호를 검색합니다.

    $ oc get --namespace=openshift-operators subscription amq7-cert-manager-operator -oyaml | grep currentCSV

    출력 예:

      currentCSV: amq7-cert-manager.v1.0.6
  2. openshift-operators 네임스페이스에서 서브스크립션을 삭제합니다.

    $ oc delete --namespace=openshift-operators subscription amq7-cert-manager-operator
    
    subscription.operators.coreos.com "amq7-cert-manager-operator" deleted
  3. ClusterServiceVersion을 제거한 후 삭제할 수 있도록 Operator에서 제공하는 현재 CustomResourceDefinitions 목록을 검색합니다.

    $ oc get csv -nopenshift-operators amq7-cert-manager.v1.0.6  -oyaml | grep "kind: CustomResourceDefinition" -A2 | grep name | awk '{print $2}'

    출력 예:

    certificates.certmanager.k8s.io
    challenges.certmanager.k8s.io
    clusterissuers.certmanager.k8s.io
    issuers.certmanager.k8s.io
    orders.certmanager.k8s.io
  4. openshift-operators 네임스페이스에서 ClusterServiceVersion을 삭제합니다.

    $ oc delete --namespace=openshift-operators csv amq7-cert-manager.v1.0.6

    출력 예:

    clusterserviceversion.operators.coreos.com "amq7-cert-manager.v1.0.6" deleted
  5. AMQ Cert Manager Operator와 관련된 CustomResourceDefinitions를 삭제합니다.

    $ oc delete crd certificates.certmanager.k8s.io challenges.certmanager.k8s.io clusterissuers.certmanager.k8s.io issuers.certmanager.k8s.io orders.certmanager.k8s.io

    출력 예:

    customresourcedefinition.apiextensions.k8s.io "certificates.certmanager.k8s.io" deleted
    customresourcedefinition.apiextensions.k8s.io "challenges.certmanager.k8s.io" deleted
    customresourcedefinition.apiextensions.k8s.io "clusterissuers.certmanager.k8s.io" deleted
    customresourcedefinition.apiextensions.k8s.io "issuers.certmanager.k8s.io" deleted
    customresourcedefinition.apiextensions.k8s.io "orders.certmanager.k8s.io" deleted

추가 정보

Red Hat OpenShift Container Platform에서 Operator를 제거하는 방법에 대한 자세한 내용은 https://docs.openshift.com/container-platform/4.8/operators/admin/olm-deleting-operators-from-cluster.html을 참조하십시오.