7.3. Ceph

  • CephFS에서 클러스터 확장의 성능 저하

    많은 작은 메타데이터 작업이 있는 워크로드는 다중 사이트 Data Foundation 클러스터에서 메타데이터 서버(MDS)를 임의로 배치하기 때문에 성능이 저하될 수 있습니다.

    (BZ#1982116)

  • SELinux의 레이블이 매우 많은 파일의 레이블 지정 문제

    Red Hat OpenShift Container Platform의 Pod에 볼륨을 연결할 때 Pod가 시작되지 않거나 시작하는 데 과도한 시간이 걸리는 경우가 있습니다. 이 동작은 일반적이며 Kubelet에서 SELinux 재레이블을 처리하는 방법과 관련이 있습니다. 이 문제는 파일 수가 매우 높은 파일 시스템 기반 볼륨에서 관찰됩니다. OpenShift Data Foundation에서는 매우 많은 파일과 함께 CephFS 기반 볼륨을 사용할 때 문제가 발생합니다. 이 문제를 해결하는 방법은 다양합니다. 비즈니스 요구에 따라 지식 베이스 솔루션 https://access.redhat.com/solutions/6221251 에서 해결 방법 중 하나를 선택할 수 있습니다.

    (Jira#3327)

  • 워크로드 배포 후 Ceph에서 활성 mgr을 보고하지 않음

    워크로드 배포 후 Ceph 관리자는 MON에 대한 연결이 끊어지거나 활성 상태 프로브에 응답할 수 없습니다.

    이로 인해 OpenShift Data Foundation 클러스터 상태가 "활성 mgr 없음"으로 보고됩니다. 이로 인해 Ceph 관리자를 사용하여 요청 처리가 실패하는 여러 작업이 발생합니다. 예를 들어 볼륨 프로비저닝, CephFS 스냅샷 생성 등입니다.

    OpenShift Data Foundation 클러스터의 상태를 확인하려면 oc get cephcluster -n openshift-storage 명령을 사용합니다. 상태 출력에서 클러스터에 이 문제가 있는 경우 status.ceph.details.MGR_DOWN 필드에 "활성 mgr" 메시지가 표시됩니다.

    해결방법: 다음 명령을 사용하여 Ceph 관리자 Pod를 다시 시작합니다.

    # oc scale deployment -n openshift-storage rook-ceph-mgr-a --replicas=0
    # oc scale deployment -n openshift-storage rook-ceph-mgr-a --replicas=1

    이러한 명령을 실행한 후 OpenShift Data Foundation 클러스터 상태는 정상 클러스터를 보고하고 MGR_DOWN 과 관련된 경고 또는 오류가 표시되지 않습니다.

    (BZ#2244873)

  • StorageCluster에서 사용자 지정 deviceClass를 사용하는 경우 CephBlockPool 생성이 실패합니다.

    알려진 문제로 인해 StorageCluster에서 사용자 지정 deviceClass를 사용하면 CephBlockPool 생성이 실패합니다.

    (BZ#2248487)