Menu Close
Settings Close

Language and Page Formatting Options

Deploying OpenShift Data Foundation using Microsoft Azure and Azure Red Hat OpenShift

Red Hat OpenShift Data Foundation 4.9

Microsoft Azure 및 Azure Red Hat OpenShift를 사용하여 OpenShift Data Foundation 배포 방법

초록

Microsoft Azure 및 Azure Red Hat OpenShift에서 Red Hat OpenShift Container Platform을 사용하여 Red Hat OpenShift Data Foundation을 설치 및 관리하는 방법에 대한 자세한 내용은 이 문서를 참조하십시오.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

Red Hat 문서에 관한 피드백 제공

문서 개선을 위한 의견을 보내 주십시오. 어떻게 하면 더 잘할 수 있는지 알려주십시오. 피드백을 제공하려면 다음을 수행합니다.

  • 특정 문구에 대한 간단한 의견 작성 방법은 다음과 같습니다.

    1. 문서가 Multi-page HTML 형식으로 표시되는지 확인합니다. 또한 문서 오른쪽 상단에 피드백 버튼이 있는지 확인합니다.
    2. 마우스 커서를 사용하여 주석 처리하려는 텍스트 부분을 강조 표시합니다.
    3. 강조 표시된 텍스트 아래에 표시되는 피드백 추가 팝업을 클릭합니다.
    4. 표시된 지침을 따릅니다.
  • 보다 상세하게 피드백을 제출하려면 다음과 같이 Bugzilla 티켓을 생성하십시오.

    1. Bugzilla 웹 사이트로 이동하십시오.
    2. 구성 요소 섹션에서 문서 를 선택합니다.
    3. 설명 필드에 문서 개선을 위한 제안 사항을 기입하십시오. 관련된 문서의 해당 부분 링크를 알려주십시오.
    4. 버그 제출을 클릭합니다.

접두부

Red Hat OpenShift Data Foundation 4.8은 기존 Red Hat OpenShift Container Platform(RHOCP) Azure 클러스터에 대한 배포를 지원합니다.

참고

내부 OpenShift Data Foundation 클러스터만 Microsoft Azure에서 지원됩니다. 배포 요구 사항에 대한 자세한 내용은 배포 플래닝 을 참조하십시오.

OpenShift Data Foundation을 배포하려면 OpenShift Data Foundation 배포 준비 장의 요구 사항부터 시작한 다음 요구 사항에 따라 적절한 배포 프로세스를 따릅니다.

1장. OpenShift Data Foundation 배포 준비

동적 스토리지 장치를 사용하여 OpenShift Container Platform에 OpenShift Data Foundation을 배포하면 내부 클러스터 리소스를 생성할 수 있는 옵션이 제공됩니다. 이렇게 하면 기본 서비스가 내부 프로비저닝되므로 애플리케이션에서 추가 스토리지 클래스를 사용할 수 있습니다.

OpenShift Data Foundation 배포를 시작하기 전에 다음 단계를 따르십시오.

  1. 선택 사항: 외부 키 관리 시스템(KMS)을 사용하여 클러스터 전체 암호화를 활성화하려면 다음을 수행합니다.

  2. 최소 노드 시작 요구 사항 [기술 프리뷰]

    OpenShift Data Foundation 클러스터는 표준 배포 리소스 요구 사항이 충족되지 않은 경우 최소 구성으로 배포됩니다. 계획 가이드의 리소스 요구 사항 섹션을 참조하십시오.

  3. regional-DR 요구 사항 [Developer Preview]

    Red Hat OpenShift Data Foundation에서 지원하는 재해 복구 기능에는 재해 복구 솔루션을 성공적으로 구현하기 위해 다음과 같은 사전 요구 사항이 모두 필요합니다.

    • 유효한 Red Hat OpenShift Data Foundation Advanced 서브스크립션
    • 유효한 Red Hat Advanced Cluster Management for Kubernetes 서브스크립션

      자세한 요구 사항은 Region -DR 요구 사항RHACM 요구 사항을 참조하십시오.

1.1. Vault에서 키 값 백엔드 경로와 정책 활성화

사전 요구 사항

  • Vault에 대한 관리자 액세스.
  • 나중에 변경할 수 없기 때문에 이름 지정 규칙을 따르는 백엔드 경로로 고유한 경로 이름을 신중하게 선택합니다.

절차

  1. Vault에서 KV(Key/Value) 백엔드 경로를 활성화합니다.

    Vault KV 시크릿 엔진 API의 경우 버전 1:

    $ vault secrets enable -path=odf kv

    Vault KV 시크릿 엔진 API의 경우 버전 2:

    $ vault secrets enable -path=odf kv-v2
  2. 다음 명령을 사용하여 시크릿에서 쓰기 또는 삭제 작업을 수행하도록 사용자를 제한하는 정책을 생성합니다.

    echo '
    path "odf/*" {
      capabilities = ["create", "read", "update", "delete", "list"]
    }
    path "sys/mounts" {
    capabilities = ["read"]
    }'| vault policy write odf -
  3. 위 정책과 일치하는 토큰을 생성합니다.

    $ vault token create -policy=odf -format json

2장. Microsoft Azure에 OpenShift Data Foundation 배포

내부 클러스터 리소스를 생성할 수 있는 Microsoft Azure 설치 관리자 프로비저닝 인프라(type: managed-premium)에서 제공하는 동적 스토리지 장치를 사용하여 OpenShift Container Platform에 OpenShift Data Foundation을 배포할 수 있습니다. 이로 인해 기본 서비스가 내부 프로비저닝되므로 애플리케이션에서 추가 스토리지 클래스를 사용할 수 있습니다.

또한 OpenShift Data Foundation을 사용하여 MCG(Multicloud Object Gateway) 구성 요소만 배포할 수 있습니다. 자세한 내용은 Deploy standalone Multicloud Object Gateway를 참조하십시오.

참고

내부 OpenShift Data Foundation 클러스터만 Microsoft Azure에서 지원됩니다. 배포 요구 사항에 대한 자세한 내용은 배포 플래닝 을 참조하십시오.

동적 스토리지 장치를 사용하여 배포하기 위한 다음 단계를 진행하기 전에 OpenShift Data Foundation 배포 준비에 대한 요구 사항을 해결했는지 확인하십시오.

2.1. Red Hat OpenShift Data Foundation Operator 설치

Red Hat OpenShift Container Platform Operator Hub를 사용하여 Red Hat OpenShift Data Foundation Operator를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 및 Operator 설치 권한이 있는 계정을 사용하여 OpenShift Container Platform 클러스터에 액세스할 수 있습니다.
  • Red Hat OpenShift Container Platform 클러스터에 3개 이상의 작업자 노드가 있어야 합니다.
  • 추가 리소스 요구 사항은 배포 계획 가이드를 참조하십시오.
중요
  • OpenShift Data Foundation의 클러스터 수준 기본 노드 선택기를 재정의해야 하는 경우 명령줄 인터페이스에서 다음 명령을 사용하여 openshift-storage 네임스페이스에 대한 빈 노드 선택기를 지정할 수 있습니다(이 경우 openshift-storage 네임스페이스 생성).

    $ oc annotate namespace openshift-storage openshift.io/node-selector=
  • 노드를 infra 로 테인트하여 Red Hat OpenShift Data Foundation 리소스만 해당 노드에 예약되도록 합니다. 이는 서브스크립션 비용을 절감할 수 있도록 지원합니다. 자세한 내용은 스토리지 리소스 관리 및 할당 가이드의 Red Hat OpenShift Data Foundation 전용 작업자 노드 사용 방법을 참조하십시오.

절차

  1. OpenShift 웹 콘솔에 로그인합니다.
  2. Operators → OperatorHub 를 클릭합니다.
  3. OpenShift Data Foundation키워드로 필터링 상자에 스크롤하여 OpenShift Data Foundation Operator를 찾습니다.
  4. 설치를 클릭합니다.
  5. Operator 설치 페이지에서 다음 옵션을 설정합니다.

    1. Channel을 stable-4.9 로 업데이트합니다.
    2. 클러스터의 특정 네임스페이스 로 설치 모드.
    3. 설치된 Namespace를 Operator 권장 네임스페이스 openshift-storage. 네임스페이스 openshift-storage 가 없으면 Operator 설치 중에 생성됩니다.
    4. 승인 전략을 자동 또는 수동으로 선택합니다.

      자동 업데이트를 선택하면 OLM(Operator Lifecycle Manager)은 개입 없이 Operator의 실행 중인 인스턴스를 자동으로 업그레이드합니다.

      수동 업데이트를 선택하면 OLM에서 업데이트 요청을 생성합니다. 클러스터 관리자는 Operator를 최신 버전으로 업데이트하기 위해 해당 업데이트 요청을 수동으로 승인해야 합니다.

    5. Console 플러그인에 대해 Enable 옵션이 선택되어 있는지 확인합니다.
    6. 설치를 클릭합니다.
참고

모든 기본 설정을 사용하는 것이 좋습니다. 이를 변경하면 예기치 않은 동작이 발생할 수 있습니다. 결과를 알고 있는 경우에만 변경합니다.

검증 단계

  • OpenShift Data Foundation Operator에 성공적으로 설치를 나타내는 녹색 눈금이 표시되는지 확인합니다.
  • Operator가 성공적으로 설치되면 메시지가 포함된 팝업 이 사용자 인터페이스에 웹 콘솔 업데이트가 표시됩니다. 콘솔 변경 사항을 반영하려면 이 팝업 창에서 웹 콘솔 새로 고침 을 클릭합니다.

    • 웹 콘솔에서 Operator로 이동하여 OpenShift Data Foundation 을 사용할 수 있는지 확인합니다.
중요

OpenShift Data Foundation Operator를 설치한 후 콘솔 플러그인 옵션이 자동으로 활성화되지 않은 경우 이를 활성화해야 합니다.

콘솔 플러그인을 활성화하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 콘솔 플러그인 활성화를 참조하십시오.

2.2. OpenShift Data Foundation 클러스터 생성

OpenShift Data Foundation Operator를 설치한 후 OpenShift Data Foundation 클러스터를 생성합니다.

사전 요구 사항

절차

  1. OpenShift 웹 콘솔에서 Operator → 설치된 Operator를 클릭하여 설치된 모든 Operator 를 확인합니다.

    선택한 프로젝트openshift-storage 인지 확인합니다.

  2. OpenShift Data Foundation Operator를 클릭한 다음 Create StorageSystem 을 클릭합니다.
  3. 백업 스토리지 페이지에서 다음을 선택합니다.

    1. 기존 StorageClass 옵션 사용을 선택합니다.
    2. 스토리지 클래스 를 선택합니다.

      기본적으로 managed-premium 으로 설정됩니다.

    3. 고급 을 확장하고 Deployment type 옵션의 Full Deployment 를 선택합니다.
    4. 다음을 클릭합니다.
  4. 용량 및 노드 페이지에서 필요한 정보를 제공합니다.

    1. 드롭다운 목록에서 Requested Capacity (요청 용량) 값을 선택합니다. 기본적으로 2TiB 로 설정됩니다.

      참고

      초기 스토리지 용량을 선택하면 선택한 사용 가능한 용량( raw 스토리지의 3배)만 클러스터 확장이 수행됩니다.

    2. 노드 선택 섹션에서 사용 가능한 노드가 3개 이상 선택합니다.

      여러 가용성 영역이 있는 클라우드 플랫폼의 경우 노드가 다른 위치/ 가용 영역에 분산되어 있는지 확인합니다.

      선택한 노드가 집계된 30 개의 CPU 및 72GiB RAM의 OpenShift Data Foundation 클러스터 요구 사항과 일치하지 않으면 최소 클러스터가 배포됩니다. 최소 노드 요구 사항은 계획 가이드의 리소스 요구 사항 섹션을 참조하십시오.

    3. 다음을 클릭합니다.
  5. 선택 사항: 보안 및 네트워크 페이지에서 요구 사항에 따라 다음을 구성합니다.

    1. 암호화를 활성화하려면 블록 및 파일 스토리지에 데이터 암호화 사용을 선택합니다.
    2. 암호화 수준 중 하나 또는 둘 다를 선택합니다.

      • 클러스터 전체 암호화

        전체 클러스터(블록 및 파일)를 암호화합니다.

      • StorageClass 암호화

        암호화 활성화된 스토리지 클래스를 사용하여 암호화된 영구 볼륨(블록만 해당)을 생성합니다.

    3. 외부 키 관리 서비스에 연결 확인란을 선택합니다. 이는 클러스터 전체 암호화의 경우 선택 사항입니다.

      1. Key Management Service Provider 는 기본적으로 Vault 로 설정됩니다.
      2. Vault 서비스 이름, Vault 서버 호스트 주소 ('https://<hostname 또는 ip>), 포트 번호 및 토큰 을 입력합니다.
      3. 고급 설정을 확장하여 Vault 구성에 따라 추가 설정 및 인증서 세부 정보를 입력합니다.

        1. OpenShift Data Foundation 전용 및 고유한 백엔드 경로에 키 값 시크릿 경로를 입력합니다.
        2. 선택 사항: TLS 서버 이름Vault Enterprise Namespace 를 입력합니다.
        3. 각 PEM 인코딩 인증서 파일을 업로드하여 CA 인증서,클라이언트 인증서클라이언트 개인 키를 제공합니다.
        4. 저장을 클릭합니다.
    4. 다음을 클릭합니다.
  6. 검토 및 생성 페이지에서 구성 세부 정보를 검토합니다.

    구성 설정을 수정하려면 Back 을 클릭합니다.

  7. Create StorageSystem 을 클릭합니다.

검증 단계

  • 설치된 스토리지 클러스터의 최종 상태를 확인하려면 다음을 수행합니다.

    1. OpenShift 웹 콘솔에서 설치된 OperatorOpenShift Data Foundation스토리지 시스템ocs-storagecluster-storagesystemResources 로 이동합니다.
    2. StorageCluster Status (상태)가 Ready 이고 옆에 녹색 눈금이 표시되어 있는지 확인합니다.

      1. OpenShift Data Foundation의 모든 구성 요소가 성공적으로 설치되었는지 확인하려면 OpenShift Data Foundation 배포 확인을 참조하십시오.

추가 리소스

오버 프로비저닝 제어 경고를 활성화하려면 모니터링 가이드의 경고를 참조하십시오.

3장. Azure Red Hat OpenShift에 OpenShift Data Foundation 배포

Azure Red Hat OpenShift 서비스를 사용하면 완전히 관리되는 OpenShift 클러스터를 배포할 수 있습니다. Red Hat OpenShift Data Foundation은 Azure Red Hat OpenShift 서비스에 배포할 수 있습니다.

중요

Azure Red Hat OpenShift의 OpenShift Data Foundation은 관리형 서비스가 아닙니다. Red Hat 지원 팀에서 설치를 지원하려면 Red Hat OpenShift Data Foundation 서브스크립션이 필요합니다. Azure Red Hat OpenShift의 Red Hat OpenShift Data Foundation 에 대한 지원이 필요한 경우 Red Hat 지원 팀(Microsoft이 아닌 Microsoft)을 통해 Red Hat OpenShift Data Foundation로 제품을 선택하여 지원 케이스를 엽니다.

Azure Red Hat OpenShift에 OpenShift Data Foundation을 설치하려면 다음 섹션을 따르십시오.

3.1. Azure Red Hat OpenShift의 새 배포를 위한 Red Hat 풀 시크릿 가져오기

Red Hat 풀 시크릿을 사용하면 클러스터에서 추가 콘텐츠와 함께 Red Hat 컨테이너 레지스트리에 액세스할 수 있습니다.

사전 요구 사항

  • Red Hat 포털 계정.
  • OpenShift Data Foundation 서브스크립션.

절차

Azure Red Hat OpenShift의 새 배포에 대한 Red Hat 풀 시크릿을 가져오려면 공식 Microsoft Azure 설명서에서 Red Hat 풀 시크릿 가져오기 섹션의 단계를 따르십시오.

Azure Red Hat OpenShift 클러스터를 생성하는 동안 --worker-vm-size 이상 작업자 노드에 의해 제어되는 더 큰 작업자 노드가 필요할 수 있습니다. --worker-count. 권장되는 worker-vm-sizeStandard_D16s_v3 입니다. 또한 전용 작업자 노드를 사용하여 자세한 내용은 스토리지 리소스 관리 및 할당 가이드의 Red Hat OpenShift Data Foundation 전용 작업자 노드를 사용하는 방법을 참조하십시오.

3.2. 기존 Azure Red Hat OpenShift 클러스터에 대한 Red Hat 풀 시크릿 준비

Red Hat pull secret을 추가하지 않고 Azure Red Hat OpenShift 클러스터를 생성할 때 여전히 클러스터에서 가져오기 보안이 자동으로 생성됩니다. 그러나 이 풀 시크릿은 완전히 채워지지 않습니다.

Red Hat 풀 시크릿의 추가 값으로 자동 생성된 풀 시크릿을 업데이트하려면 이 섹션을 사용합니다.

사전 요구 사항

  • Red Hat 풀 시크릿이 없는 기존 Azure Red Hat OpenShift 클러스터

절차

기존 Azure Red Hat OpenShift 클러스터에 대한 Red Hat 풀 시크릿을 준비하려면 공식 Mircosoft Azure 설명서에서 풀 시크릿 준비 섹션의 단계를 따르십시오.

3.3. 클러스터에 풀 시크릿 추가

사전 요구 사항

  • Red Hat 풀 시크릿.

절차

  • 다음 명령을 실행하여 풀 시크릿을 업데이트합니다.

    참고

    이 명령을 실행하면 클러스터 노드가 업데이트될 때 하나씩 다시 시작됩니다.

    oc set data secret/pull-secret -n openshift-config --from-file=.dockerconfigjson=./pull-secret.json

보안이 설정된 후 Red Hat Certified Operator를 활성화할 수 있습니다.

3.3.1. Red Hat operator가 사용할 수 있도록 설정 파일 수정

Red Hat Operator를 사용하도록 설정 파일을 수정하려면 섹션의 단계에 따라 공식 Microsoft Azure 문서 의 구성 파일을 수정합니다.

3.4. Red Hat 풀 시크릿 검증이 작동합니다.

풀 시크릿을 추가하고 구성 파일을 수정한 후 클러스터를 업데이트하는 데 몇 분이 걸릴 수 있습니다.

클러스터가 업데이트되었는지 확인하려면 다음 명령을 실행하여 사용 가능한 인증된 OperatorRed Hat Operator 소스를 표시합니다.

$ oc get catalogsource -A
NAMESPACE               NAME                  DISPLAY
openshift-marketplace   redhat-operators      Red Hat Operators

 TYPE   PUBLISHER   AGE
  grpc   Red Hat     11s

Red Hat Operator가 표시되지 않으면 몇 분 기다렸다가 다시 시도하십시오.

풀 시크릿이 업데이트되고 올바르게 작동하는지 확인하려면 Operator Hub 를 열고 Red Hat에서 확인한 모든 Operator를 확인합니다. 예를 들어 OpenShift Data Foundation Operator를 사용할 수 있는지 확인하고 설치할 권한이 있는지 확인합니다.

3.5. Red Hat OpenShift Data Foundation Operator 설치

Red Hat OpenShift Container Platform Operator Hub를 사용하여 Red Hat OpenShift Data Foundation Operator를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 및 Operator 설치 권한이 있는 계정을 사용하여 OpenShift Container Platform 클러스터에 액세스할 수 있습니다.
  • Red Hat OpenShift Container Platform 클러스터에 3개 이상의 작업자 노드가 있어야 합니다.
  • 추가 리소스 요구 사항은 배포 계획 가이드를 참조하십시오.
중요
  • OpenShift Data Foundation의 클러스터 수준 기본 노드 선택기를 재정의해야 하는 경우 명령줄 인터페이스에서 다음 명령을 사용하여 openshift-storage 네임스페이스에 대한 빈 노드 선택기를 지정할 수 있습니다(이 경우 openshift-storage 네임스페이스 생성).

    $ oc annotate namespace openshift-storage openshift.io/node-selector=
  • 노드를 infra 로 테인트하여 Red Hat OpenShift Data Foundation 리소스만 해당 노드에 예약되도록 합니다. 이는 서브스크립션 비용을 절감할 수 있도록 지원합니다. 자세한 내용은 스토리지 리소스 관리 및 할당 가이드의 Red Hat OpenShift Data Foundation 전용 작업자 노드 사용 방법을 참조하십시오.

절차

  1. OpenShift 웹 콘솔에 로그인합니다.
  2. Operators → OperatorHub 를 클릭합니다.
  3. OpenShift Data Foundation키워드로 필터링 상자에 스크롤하여 OpenShift Data Foundation Operator를 찾습니다.
  4. 설치를 클릭합니다.
  5. Operator 설치 페이지에서 다음 옵션을 설정합니다.

    1. Channel을 stable-4.9 로 업데이트합니다.
    2. 클러스터의 특정 네임스페이스 로 설치 모드.
    3. 설치된 Namespace를 Operator 권장 네임스페이스 openshift-storage. 네임스페이스 openshift-storage 가 없으면 Operator 설치 중에 생성됩니다.
    4. 승인 전략을 자동 또는 수동으로 선택합니다.

      자동 업데이트를 선택하면 OLM(Operator Lifecycle Manager)은 개입 없이 Operator의 실행 중인 인스턴스를 자동으로 업그레이드합니다.

      수동 업데이트를 선택하면 OLM에서 업데이트 요청을 생성합니다. 클러스터 관리자는 Operator를 최신 버전으로 업데이트하기 위해 해당 업데이트 요청을 수동으로 승인해야 합니다.

    5. Console 플러그인에 대해 Enable 옵션이 선택되어 있는지 확인합니다.
    6. 설치를 클릭합니다.
참고

모든 기본 설정을 사용하는 것이 좋습니다. 이를 변경하면 예기치 않은 동작이 발생할 수 있습니다. 결과를 알고 있는 경우에만 변경합니다.

검증 단계

  • OpenShift Data Foundation Operator에 성공적으로 설치를 나타내는 녹색 눈금이 표시되는지 확인합니다.
  • Operator가 성공적으로 설치되면 메시지가 포함된 팝업 이 사용자 인터페이스에 웹 콘솔 업데이트가 표시됩니다. 콘솔 변경 사항을 반영하려면 이 팝업 창에서 웹 콘솔 새로 고침 을 클릭합니다.

    • 웹 콘솔에서 Operator로 이동하여 OpenShift Data Foundation 을 사용할 수 있는지 확인합니다.
중요

OpenShift Data Foundation Operator를 설치한 후 콘솔 플러그인 옵션이 자동으로 활성화되지 않은 경우 이를 활성화해야 합니다.

콘솔 플러그인을 활성화하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 콘솔 플러그인 활성화를 참조하십시오.

3.6. OpenShift Data Foundation 클러스터 생성

OpenShift Data Foundation Operator를 설치한 후 OpenShift Data Foundation 클러스터를 생성합니다.

사전 요구 사항

절차

  1. OpenShift 웹 콘솔에서 Operator → 설치된 Operator를 클릭하여 설치된 모든 Operator 를 확인합니다.

    선택한 프로젝트openshift-storage 인지 확인합니다.

  2. OpenShift Data Foundation Operator를 클릭한 다음 Create StorageSystem 을 클릭합니다.
  3. 백업 스토리지 페이지에서 다음을 선택합니다.

    1. 기존 StorageClass 옵션 사용을 선택합니다.
    2. 스토리지 클래스 를 선택합니다.

      기본적으로 managed-premium 으로 설정됩니다.

    3. 고급 을 확장하고 Deployment type 옵션의 Full Deployment 를 선택합니다.
    4. 다음을 클릭합니다.
  4. 용량 및 노드 페이지에서 필요한 정보를 제공합니다.

    1. 드롭다운 목록에서 Requested Capacity (요청 용량) 값을 선택합니다. 기본적으로 2TiB 로 설정됩니다.

      참고

      초기 스토리지 용량을 선택하면 선택한 사용 가능한 용량( raw 스토리지의 3배)만 클러스터 확장이 수행됩니다.

    2. 노드 선택 섹션에서 사용 가능한 노드가 3개 이상 선택합니다.

      여러 가용성 영역이 있는 클라우드 플랫폼의 경우 노드가 다른 위치/ 가용 영역에 분산되어 있는지 확인합니다.

      선택한 노드가 집계된 30 개의 CPU 및 72GiB RAM의 OpenShift Data Foundation 클러스터 요구 사항과 일치하지 않으면 최소 클러스터가 배포됩니다. 최소 노드 요구 사항은 계획 가이드의 리소스 요구 사항 섹션을 참조하십시오.

    3. 다음을 클릭합니다.
  5. 선택 사항: 보안 및 네트워크 페이지에서 요구 사항에 따라 다음을 구성합니다.

    1. 암호화를 활성화하려면 블록 및 파일 스토리지에 데이터 암호화 사용을 선택합니다.
    2. 암호화 수준 중 하나 또는 둘 다를 선택합니다.

      • 클러스터 전체 암호화

        전체 클러스터(블록 및 파일)를 암호화합니다.

      • StorageClass 암호화

        암호화 활성화된 스토리지 클래스를 사용하여 암호화된 영구 볼륨(블록만 해당)을 생성합니다.

    3. 외부 키 관리 서비스에 연결 확인란을 선택합니다. 이는 클러스터 전체 암호화의 경우 선택 사항입니다.

      1. Key Management Service Provider 는 기본적으로 Vault 로 설정됩니다.
      2. Vault 서비스 이름, Vault 서버 호스트 주소 ('https://<hostname 또는 ip>), 포트 번호 및 토큰 을 입력합니다.
      3. 고급 설정을 확장하여 Vault 구성에 따라 추가 설정 및 인증서 세부 정보를 입력합니다.

        1. OpenShift Data Foundation 전용 및 고유한 백엔드 경로에 키 값 시크릿 경로를 입력합니다.
        2. 선택 사항: TLS 서버 이름Vault Enterprise Namespace 를 입력합니다.
        3. 각 PEM 인코딩 인증서 파일을 업로드하여 CA 인증서,클라이언트 인증서클라이언트 개인 키를 제공합니다.
        4. 저장을 클릭합니다.
    4. 다음을 클릭합니다.
  6. 검토 및 생성 페이지에서 구성 세부 정보를 검토합니다.

    구성 설정을 수정하려면 Back 을 클릭합니다.

  7. Create StorageSystem 을 클릭합니다.

검증 단계

  • 설치된 스토리지 클러스터의 최종 상태를 확인하려면 다음을 수행합니다.

    1. OpenShift 웹 콘솔에서 설치된 OperatorOpenShift Data Foundation스토리지 시스템ocs-storagecluster-storagesystemResources 로 이동합니다.
    2. StorageCluster Status (상태)가 Ready 이고 옆에 녹색 눈금이 표시되어 있는지 확인합니다.

      1. OpenShift Data Foundation의 모든 구성 요소가 성공적으로 설치되었는지 확인하려면 OpenShift Data Foundation 배포 확인을 참조하십시오.

추가 리소스

오버 프로비저닝 제어 경고를 활성화하려면 모니터링 가이드의 경고를 참조하십시오.

4장. OpenShift Data Foundation 배포 확인

이 섹션을 사용하여 OpenShift Data Foundation이 올바르게 배포되었는지 확인합니다.

4.1. Pod 상태 확인

절차

  1. OpenShift 웹 콘솔에서 워크로드 → 포드 를 클릭합니다.
  2. 프로젝트 드롭다운 목록에서 openshift-storage 를 선택합니다.

    참고

    Show default projects (기본 프로젝트 표시) 옵션이 비활성화된 경우 토글 버튼을 사용하여 모든 기본 프로젝트를 나열합니다.

    각 구성 요소에 대해 예상되는 Pod 수 및 노드 수에 따라 달라지는 방법에 대한 자세한 내용은 표 4.1. “OpenShift Data Foundation 클러스터에 해당하는 Pod” 을 참조하십시오.

  3. RunningCompleted 탭을 클릭하여 다음 Pod가 RunningCompleted 상태인지 확인합니다.

    표 4.1. OpenShift Data Foundation 클러스터에 해당하는 Pod

    구성 요소해당 Pod

    OpenShift Data Foundation Operator

    • OCS-operator-* 작업자 노드의 Pod 1
    • OCS-metrics-exporter-* (작업자 노드에서 Pod)
    • ODF-operator-controller-manager-* (1개의 작업자 노드에서 Pod)
    • ODF-console-* (작업자 노드의 Pod)

    rook-ceph Operator

    rook-ceph-operator-*

    (모든 작업자 노드의 Pod)

    Multicloud Object Gateway

    • NooBaa-operator-* (작업자 노드에서 Pod)
    • NooBaa-core-* (스토리지 노드의 Pod)
    • NooBaa-db-pg-* (1 스토리지 노드의 pod)
    • NooBaa-endpoint-* (1 스토리지 노드에서 Pod)

    MON

    rook-ceph-mon-*

    (스토리지 노드에 분산된 Pod 3개)

    MGR

    rook-ceph-mgr-*

    (1 스토리지 노드의 Pod)

    MDS

    rook-ceph-mds-ocs-storagecluster-cephfilesystem-*

    (2개의 Pod가 스토리지 노드에 배포됨)

    CSI

    • CephFS

      • CSI-cephfsplugin-* (각 작업자 노드의 Pod)
      • CSI-cephfsplugin-provisioner-* (2개 작업자 노드에 분산된 Pod)
    • rbd

      • CSI-rbdplugin-* (각 작업자 노드의 Pod)
      • CSI-rbdplugin-provisioner-* (2 작업자 노드에 분산된 Pod)

    rook-ceph-crashcollector

    rook-ceph-crashcollector-*

    (1개의 스토리지 노드의 pod)

    OSD

    • rook-ceph-osd-* (각 장치의 Pod)
    • rook-ceph-osd-prepare-ocs-deviceset-* (각 장치의 Pod)

4.2. OpenShift Data Foundation 클러스터가 정상인지 확인

절차

  1. OpenShift 웹 콘솔에서 스토리지OpenShift Data Foundation 을 클릭합니다.
  2. 개요 탭의 상태 카드에서 스토리지 시스템을 클릭한 다음 해당 팝업에서 스토리지 시스템 링크를 클릭합니다.
  3. 블록 및 파일 탭의 상태 카드에서 스토리지 클러스터에 녹색 눈금 이 있는지 확인합니다.
  4. 세부 정보 카드에서 클러스터 정보가 표시되는지 확인합니다.

블록 및 파일 대시보드를 사용하는 OpenShift Data Foundation 클러스터의 상태에 대한 자세한 내용은 Monitoring OpenShift Data Foundation 을 참조하십시오.

4.3. Multicloud Object Gateway가 정상인지 확인

절차

  1. OpenShift 웹 콘솔에서 스토리지OpenShift Data Foundation 을 클릭합니다.
  2. 개요 탭의 상태 카드에서 스토리지 시스템을 클릭한 다음 해당 팝업에서 스토리지 시스템 링크를 클릭합니다.

    1. Object 탭의 상태 카드에서 Object ServiceData Resiliency 모두 녹색 눈금이 있는지 확인합니다.
    2. 세부 정보 카드에 MCG 정보가 표시되는지 확인합니다.

오브젝트 서비스 대시보드를 사용하는 OpenShift Data Foundation 클러스터의 상태에 대한 자세한 내용은 Monitoring OpenShift Data Foundation 을 참조하십시오.

4.4. OpenShift Data Foundation 특정 스토리지 클래스가 있는지 확인

절차

  1. OpenShift 웹 콘솔의 왼쪽 창에서 스토리지 → 스토리지 클래스 를 클릭합니다.
  2. OpenShift Data Foundation 클러스터 생성으로 다음 스토리지 클래스가 생성되었는지 확인합니다.

    • ocs-storagecluster-ceph-rbd
    • ocs-storagecluster-cephfs
    • openshift-storage.noobaa.io

5장. 독립 실행형 Multicloud Object Gateway 배포

OpenShift Data Foundation을 사용하여 Multicloud Object Gateway 구성 요소만 배포하면 배포 유연성을 제공하고 리소스 소비를 줄이는 데 도움이 됩니다. 다음 단계를 포함하는 독립 실행형 Multicloud Object Gateway 구성 요소만 배포하려면 이 섹션을 사용합니다.

  • Red Hat OpenShift Data Foundation Operator 설치
  • 독립 실행형 Multicloud Object Gateway 생성

5.1. Red Hat OpenShift Data Foundation Operator 설치

Red Hat OpenShift Container Platform Operator Hub를 사용하여 Red Hat OpenShift Data Foundation Operator를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 및 Operator 설치 권한이 있는 계정을 사용하여 OpenShift Container Platform 클러스터에 액세스할 수 있습니다.
  • Red Hat OpenShift Container Platform 클러스터에 3개 이상의 작업자 노드가 있어야 합니다.
  • 추가 리소스 요구 사항은 배포 계획 가이드를 참조하십시오.
중요
  • OpenShift Data Foundation의 클러스터 수준 기본 노드 선택기를 재정의해야 하는 경우 명령줄 인터페이스에서 다음 명령을 사용하여 openshift-storage 네임스페이스에 대한 빈 노드 선택기를 지정할 수 있습니다(이 경우 openshift-storage 네임스페이스 생성).

    $ oc annotate namespace openshift-storage openshift.io/node-selector=
  • 노드를 infra 로 테인트하여 Red Hat OpenShift Data Foundation 리소스만 해당 노드에 예약되도록 합니다. 이는 서브스크립션 비용을 절감할 수 있도록 지원합니다. 자세한 내용은 스토리지 리소스 관리 및 할당 가이드의 Red Hat OpenShift Data Foundation 전용 작업자 노드 사용 방법을 참조하십시오.

절차

  1. OpenShift 웹 콘솔에 로그인합니다.
  2. Operators → OperatorHub 를 클릭합니다.
  3. OpenShift Data Foundation키워드로 필터링 상자에 스크롤하여 OpenShift Data Foundation Operator를 찾습니다.
  4. 설치를 클릭합니다.
  5. Operator 설치 페이지에서 다음 옵션을 설정합니다.

    1. Channel을 stable-4.9 로 업데이트합니다.
    2. 클러스터의 특정 네임스페이스 로 설치 모드.
    3. 설치된 Namespace를 Operator 권장 네임스페이스 openshift-storage. 네임스페이스 openshift-storage 가 없으면 Operator 설치 중에 생성됩니다.
    4. 승인 전략을 자동 또는 수동으로 선택합니다.

      자동 업데이트를 선택하면 OLM(Operator Lifecycle Manager)은 개입 없이 Operator의 실행 중인 인스턴스를 자동으로 업그레이드합니다.

      수동 업데이트를 선택하면 OLM에서 업데이트 요청을 생성합니다. 클러스터 관리자는 Operator를 최신 버전으로 업데이트하기 위해 해당 업데이트 요청을 수동으로 승인해야 합니다.

    5. Console 플러그인에 대해 Enable 옵션이 선택되어 있는지 확인합니다.
    6. 설치를 클릭합니다.
참고

모든 기본 설정을 사용하는 것이 좋습니다. 이를 변경하면 예기치 않은 동작이 발생할 수 있습니다. 결과를 알고 있는 경우에만 변경합니다.

검증 단계

  • OpenShift Data Foundation Operator에 성공적으로 설치를 나타내는 녹색 눈금이 표시되는지 확인합니다.
  • Operator가 성공적으로 설치되면 메시지가 포함된 팝업 이 사용자 인터페이스에 웹 콘솔 업데이트가 표시됩니다. 콘솔 변경 사항을 반영하려면 이 팝업 창에서 웹 콘솔 새로 고침 을 클릭합니다.

    • 웹 콘솔에서 Operator로 이동하여 OpenShift Data Foundation 을 사용할 수 있는지 확인합니다.
중요

OpenShift Data Foundation Operator를 설치한 후 콘솔 플러그인 옵션이 자동으로 활성화되지 않은 경우 이를 활성화해야 합니다.

콘솔 플러그인을 활성화하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 콘솔 플러그인 활성화를 참조하십시오.

5.2. 독립 실행형 Multicloud Object Gateway 생성

이 섹션을 사용하여 OpenShift Data Foundation에서 Multicloud Object Gateway 구성 요소만 생성합니다.

사전 요구 사항

  • OpenShift Data Foundation Operator가 설치되어 있는지 확인합니다.
  • (로컬 스토리지 장치만 사용하여 배포하는 경우) Local Storage Operator가 설치되어 있는지 확인합니다.
  • 스토리지 클래스가 있고 기본값으로 설정되어 있는지 확인합니다.

절차

  1. OpenShift 웹 콘솔에서 Operator → 설치된 Operator 를 클릭하여 설치된 모든 Operator 를 확인합니다.

    선택한 프로젝트가 openshift-storage 인지 확인합니다.

  2. OpenShift Data Foundation Operator를 클릭한 다음 Create StorageSystem 을 클릭합니다.
  3. 백업 스토리지 페이지에서 고급 을 확장합니다.
  4. Deployment type 용으로 Multicloud Object Gateway for Deployment를 선택합니다.
  5. 다음을 클릭합니다.
  6. 선택 사항: 보안 페이지에서 외부 키 관리 서비스에 연결을 선택합니다.

    1. Key Management Service Provider 는 기본적으로 Vault 로 설정됩니다.
    2. Vault Service Name, host Address of Vault server ('https://<hostname or ip>'), 포트 번호, 토큰 을 입력합니다.
    3. 고급 설정을 확장하여 Vault 구성에 따라 추가 설정 및 인증서 세부 정보를 입력합니다.

      1. OpenShift Data Foundation 전용 및 고유한 백엔드 경로에 키 값 시크릿 경로를 입력합니다.
      2. 선택 사항: TLS 서버 이름Vault Enterprise Namespace 를 입력합니다.
      3. 각 PEM 인코딩 인증서 파일을 업로드하여 CA 인증서,클라이언트 인증서클라이언트 개인 키를 제공합니다.
      4. 저장을 클릭합니다.
    4. 다음을 클릭합니다.
  7. 검토 및 생성 페이지에서 구성 세부 정보를 검토합니다.

    구성 설정을 수정하려면 Back 을 클릭합니다.

  8. Create StorageSystem 을 클릭합니다.

검증 단계

OpenShift Data Foundation 클러스터가 정상인지 확인
  1. OpenShift 웹 콘솔에서 스토리지OpenShift Data Foundation 을 클릭합니다.
  2. 개요 탭의 상태 카드에서 스토리지 시스템을 클릭한 다음 해당 팝업에서 스토리지 시스템 링크를 클릭합니다.

    1. Object 탭의 상태 카드에서 Object ServiceData Resiliency 모두 녹색 눈금이 있는지 확인합니다.
    2. 세부 정보 카드에 MCG 정보가 표시되는지 확인합니다.
Pod 상태 확인
  1. OpenShift 웹 콘솔에서 워크로드포드 를 클릭합니다.
  2. 프로젝트 드롭다운 목록에서 openshift-storage 를 선택하고 다음 포드가 Running 상태인지 확인합니다.

    참고

    Show default projects (기본 프로젝트 표시) 옵션이 비활성화된 경우 토글 버튼을 사용하여 모든 기본 프로젝트를 나열합니다.

    구성 요소해당 Pod

    OpenShift Data Foundation Operator

    • OCS-operator-* 작업자 노드의 Pod 1
    • OCS-metrics-exporter-* (작업자 노드에서 Pod)
    • ODF-operator-controller-manager-* (1개의 작업자 노드에서 Pod)
    • ODF-console-* (작업자 노드의 Pod)

    rook-ceph Operator

    rook-ceph-operator-*

    (모든 작업자 노드의 Pod)

    Multicloud Object Gateway

    • NooBaa-operator-* (작업자 노드에서 Pod)
    • NooBaa-core-* (작업자 노드에서 Pod)
    • NooBaa-db-pg-* (1개의 작업자 노드의 pod)
    • NooBaa-endpoint-* (모든 작업자 노드에서 Pod)

6장. OpenShift Data Foundation 설치 제거

6.1. 내부 모드에서 OpenShift Data Foundation 설치 제거

내부 모드에서 OpenShift Data Foundation을 설치 제거하려면 OpenShift Data Foundation 설치 제거에 대한 지식 기반 문서를 참조하십시오.