릴리스 노트

Red Hat Ceph Storage 4.1

Red Hat Ceph Storage 4.1z3 릴리스 노트

Red Hat Ceph Storage Documentation Team

초록

릴리스 노트는 Red Hat Ceph Storage 제품에 구현된 주요 기능, 개선 사항, 알려진 문제 및 버그 수정 사항에 대해 설명합니다. 여기에는 현재 릴리스까지 Red Hat Ceph Storage 4.1 릴리스의 이전 노트가 포함되어 있습니다.

1장. 소개

Red Hat Ceph Storage는 Ceph 스토리지 시스템의 가장 안정적인 버전을 Ceph 관리 플랫폼, 배포 유틸리티 및 지원 서비스와 결합하는 대규모 확장이 가능한 오픈 소프트웨어 정의 스토리지 플랫폼입니다.

Red Hat Ceph Storage 문서는 https://access.redhat.com/documentation/en/red-hat-ceph-storage/ 에서 확인할 수 있습니다.

2장. 감사 인사

Red Hat Ceph Storage 버전 4.1에는 Red Hat Ceph Storage 팀의 많은 기여가 포함되어 있습니다. 또한 Ceph 프로젝트는 Ceph 커뮤니티의 개인 및 조직의 품질 및 기여 횟수가 크게 증가하고 있습니다. Red Hat Ceph Storage 팀의 모든 구성원, Ceph 커뮤니티의 개별 기여자 모두 다음과 같은 조직의 기여도에 대해 감사의 말씀을 전합니다.

  • Intel
  • Fujitsu
  • UnitedStack
  • Cryostat
  • Ubuntu Kylin
  • Mellanox
  • CERN
  • Deutsche Telekom
  • Mirantis
  • SanDisk
  • SUSE

3장. 새로운 기능

이 섹션에는 Red Hat Ceph Storage 릴리스에 도입된 모든 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.

이 릴리스에서 추가된 주요 기능은 다음과 같습니다.

  • Vault 지원
  • OSD 컨테이너와 함께 Grafana 컨테이너 공동 위치 지원
  • CephFS의 스냅샷에서 하위 볼륨을 복제하는 기능

Vault 지원

Red Hat Ceph Storage 4.1 릴리스에서는 Ceph 개체 스토리지 게이트웨이(RGW)가 Hashicorp Vault 보안 키 관리 서비스와 상호 작동할 수 있습니다. 스토리지 관리자는 Ceph Object Gateway와 함께 사용할 키, 암호 및 인증서를 HashiCorp Vault에 안전하게 저장할 수 있습니다. HashiCorp Vault는 Ceph Object Gateway에서 사용하는 서버 측 암호화를 위한 보안 키 관리 서비스를 제공합니다.

자세한 내용은 Red Hat Ceph Storage Object Gateway 구성 및 관리 가이드의 HashiCorp Vault 섹션을 참조하십시오.

Grafana 컨테이너 공동 위치 지원

Red Hat Ceph Storage 4.1 릴리스는 Ceph OSD와 Grafana 컨테이너의 공동 배치 및 추가 스케일 아웃 데몬인 cardinality 2를 지원합니다. Cardinality 2는 이전에 Red Hat Ceph Storage 4.0 릴리스의 Ceph Object Gateway에서만 지원되었습니다.

자세한 내용은 Red Hat Ceph 지원 구성 문서를 참조하십시오.

CephFS의 스냅샷에서 하위 볼륨 복제

하위 볼륨 스냅샷을 복제하여 하위 볼륨을 생성할 수 있습니다. 스냅샷에서 하위 볼륨으로 데이터를 복사하는 비동기 작업입니다.

CephFS의 스냅샷에서 하위 볼륨을 복제하는 방법에 대한 자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드를 참조하십시오.

3.1. Ceph Ansible 유틸리티

Ceph-ansible 에서 여러 영역이 있는 다중 사이트 배포 지원

이전에는 ceph-ansible 다중 사이트 배포에서 단일 RGW 영역을 지원했습니다. 이번 업데이트를 통해 ceph-ansible 은 이제 연결된 영역, 영역 그룹 및 끝점을 사용하여 여러 영역을 지원합니다.

자세한 내용은 Red Hat Ceph Storage 설치 가이드의 다중 사이트 Ceph Object Gateway 구성 을 참조하십시오.

파일 저장소 OSD에서 Bluestore로 마이그레이션할 때 전용 저널 장치는 구성을 유지합니다.

이전에는 OSD DB로 마이그레이션할 때 Filestore OSD 전용 저널 장치를 재사용할 수 없었습니다. 전용 장치 구성의 예는 데이터용 HDD와 저널링을 위해 SSD를 사용하는 것입니다.

이번 업데이트를 통해 마이그레이션 중에 전용 저널 장치는 구성을 유지하므로 Bluestore OSD DB에서 재사용할 수 있습니다.

자세한 내용은 관리 가이드 의 FileStore에서 BlueStore로 오브젝트 저장소를 마이그레이션하는 방법을 참조하십시오.

purge-container-cluster.yml Playbook에서 3자리 ID가 있는 클러스터 지원

이전에는 purge-container-cluster 가 최대 99개의 OSD가 있는 Red Hat Ceph Storage 클러스터만 지원했습니다. 이는 플레이북에서 두 자리 인덱스가 있는 ceph-osd 서비스가 지원되기 때문입니다. 이번 업데이트를 통해 3자리 ID로 클러스터를 적절하게 제거할 수 있습니다.

OpenStack 사용자는 읽기 전용 권한이 있는 기본 관리자 계정으로 Ceph 대시보드를 배포할 수 있습니다.

이전에는 전체 관리자 권한이 있는 OpenStack 사용자가 Ceph 대시보드를 변경하면 클러스터 설정 또는 상태를 덮어쓸 수 있었습니다. 이 기능을 사용하면 Ceph 대시보드 관리자 계정은 Ceph 클러스터 상태만 모니터링하고 정보 및 설정을 검색할 수 있습니다.

컨테이너화된 Red Hat Ceph Storage 배포에서 logrotate 에 대한 지원 추가

이번 릴리스에서는 logrotate 프로그램을 사용하여 컨테이너화된 Ceph 로그가 순환됩니다. 이렇게 하면 파일 시스템이 로그 데이터로 채워지지 않도록 할 수 있습니다.

3.2. Ceph 파일 시스템

하위 볼륨 및 하위 볼륨 스냅샷에 대한 독립적인 라이프 사이클 작업

CSI 프로토콜은 스냅샷을 첫 번째 클래스 오브젝트로 처리하므로 서로 독립적으로 작동하려면 소스 하위 볼륨 및 하위 볼륨 스냅샷이 필요합니다. Kubernetes 스토리지 인터페이스에서 CSI 프로토콜을 사용하므로 스냅샷 보존 옵션(--retain-snapshots)과 함께 하위 볼륨 제거가 구현되었습니다. 이를 통해 보존 스냅샷의 다른 라이프사이클 작업을 적절히 진행할 수 있습니다.

3.3. Ceph Volume 유틸리티

원시 모드에서 ceph-volume 을 사용할 때 Ceph OSD 암호화 지원

이번 릴리스에서는 ceph-volume 명령에서 원시 모드를 사용하여 암호화를 위해 Ceph OSD를 준비할 수 있습니다.

3.4. 콘텐츠 배포

S3 클라이언트는 Ceph 툴 리포지토리에 포함되어 있습니다.

이번 릴리스에서는 S3 명령줄 클라이언트인 s3cmd 가 Red Hat Ceph Storage 4 툴 소프트웨어 리포지토리에 포함되어 있습니다. S3 명령줄 클라이언트 패키지를 설치하려면 먼저 rhceph-4-tools-for-rhel-8-x86_64-rpms 리포지토리를 활성화합니다.

3.5. Ceph Object Gateway

Ceph Object Gateway에서 Amazon S3 리소스 지원

AWS는 Keycloak과 같은 기존 OpenID Connect/ OAuth2.0 호환 ID 서비스를 통해 보안 페더레이션을 허용하는 STS(Secure Token Service)를 제공합니다. STS는 사용자가 ID 공급자(IDP)에 대해 인증한 후 애플리케이션 또는 사용자에게 S3(Simple Storage Service)에 액세스할 수 있는 독립 실행형 REST 서비스입니다.

이전에는 영구 AWS(Amazon Web Services) 인증 정보가 없는 사용자가 Ceph Object Gateway를 통해 S3 리소스에 액세스할 수 없었습니다. 이번 업데이트를 통해 Ceph Object Gateway는 STS AssumeRoleWithWebIdentity를 지원합니다. 이 서비스를 사용하면 OpenID Connect/OAuth 2.0 호환 IDP로 인증된 웹 애플리케이션 사용자가 Ceph Object Gateway를 통해 S3 리소스에 액세스할 수 있습니다.

자세한 내용은 개발자 가이드의 보안 토큰 서비스를 참조하십시오.

AWS S3 ListObjects v2 작업은 추가 구성 없이 S3 버킷의 오브젝트를 나열하는 향상된 메커니즘을 제공합니다.

이전에는 S3A 및 awscli 명령줄 툴과 같은 S3 프로토콜 클라이언트가 이전 ListObjects 방법을 사용하여 구성해야 했습니다. 이 기능을 사용하면 AWS S3 ListObjects v2 작업이 구현되어 S3 버킷의 오브젝트를 나열하는 향상된 메커니즘이 제공됩니다.

Ceph Object Gateway의 기본 버킷 인덱스 shard가 11로 증가

새 버킷에 대한 기본 버킷 인덱스 shard 수가 1에서 11로 증가했습니다. 이렇게 하면 작은 버킷에 대한 쓰기 처리량이 증가하고 동적 재하드 세트가 지연됩니다. 이 변경 사항은 새 배포 및 영역에만 영향을 미칩니다.

기존 배포의 경우 radosgw-admin zonegroup 수정 --bucket-index-max-shards=11 명령을 사용하여 이 기본값을 변경할 수 있습니다. zonegroup이 영역의 일부인 경우 radosgw-admin period update --commit 명령을 사용하여 변경 사항을 커밋해야 합니다. 커밋이 완료되지 않으면 Ceph Object Gateways가 다시 시작될 때까지 변경 사항이 적용됩니다.

참고

업그레이드 후 새 기본값을 수동으로 늘려야 하지만 새로운 Red Hat Ceph Storage 4.1 배포에서는 새 기본값이 자동으로 설정됩니다.

Ceph Object Gateway 로그에는 Beast에 대한 액세스 로그 가 포함됩니다.

이번 릴리스에서는 프런트 엔드 웹 서버인 Beast에 이제 Ceph Object Gateway 로그에 Apache 스타일 액세스 로그 행이 포함됩니다. 이 로그 업데이트는 연결 및 클라이언트 네트워크 문제를 진단하는 데 도움이 됩니다.

세션 토큰 만료의 최소 값은 구성 가능

rgw_sts_min_session_duration 옵션은 이제 기본값 900초보다 낮은 값을 가질 수 있습니다.

대규모 버킷의 콘텐츠 나열

이번 릴리스에서는 하위 의사 디렉터리의 오브젝트를 건너 뛰면 delimited 및 possible 접두사가 더 효율적으로 지정됩니다. 이를 통해 Ceph 클라이언트와 Ceph Object Gateway 간의 상호 작용을 줄이고 Ceph Object Gateway와 Ceph OSD 간의 상호 작용을 줄일 수 있습니다. HA 프록시에 대한 구성 변경과 함께 이번 개선된 기능을 통해 대규모 버킷의 콘텐츠 목록이 가능합니다.

Ceph Object Gateway 로그에는 Beast에 대한 액세스 로그가 포함됩니다.

이번 릴리스에서는 프런트 엔드 웹 서버인 Beast에 이제 Ceph Object Gateway 로그에 Apache 스타일 액세스 로그 행이 포함됩니다. 이 로그 업데이트는 연결 및 클라이언트 네트워크 문제를 진단하는 데 도움이 됩니다.

3.6. RADOS

ping 시간을 사용하여 네트워크 성능을 추적하도록 업데이트

이전에는 네트워크 문제가 발생하면 다른 성능 문제와 구별하기 어려웠습니다. 이번 릴리스에서는 평균 Red Hat Ceph Storage OSD 하트비트가 계산된 간격에 대해 구성 가능한 임계값을 초과하면 heath 경고가 생성됩니다. Red Hat Ceph Storage OSD는 평균, 최소 및 최대 값을 사용하여 1분,5분 및 15분 간격을 계산합니다.

대시보드에 BlueStore 압축 통계 추가

이번 릴리스에서는 BlueStore OSD의 압축 관련 성능 지표가 대시보드에 표시됩니다.

대시보드에 대한 자세한 내용은 대시보드 가이드를 참조하십시오.

Ceph OSD에 I/O 오류가 발생하면 스토리지 클러스터 상태가 변경됩니다.

이번 릴리스에서는 Ceph Monitor에 기본적으로 10 으로 설정된 mon_osd_warn_num_repaired 옵션이 있습니다. Ceph OSD가 저장된 데이터에 이러한 많은 I/O 오류를 복구한 경우 OSD_TOO_MANY_REPAIRS 상태 경고가 생성됩니다. 이 경고를 지우기 위해 새로운 clear_shards_repaired 옵션이 ceph tell 명령에 추가되었습니다. 예를 들면 다음과 같습니다.

ceph tell osd.NUMBER clear_shards_repaired [COUNT]

기본적으로 clear_shards_repaired 옵션은 복구 수를 0 으로 설정합니다. 추가 Ceph OSD 복구가 수행되는 경우 다시 경고하려면 mon_osd_warn_num_repaired 옵션의 값을 지정할 수 있습니다.

하트비트 유예 기간으로 업데이트

이전에는 48시간 이상 Ceph OSD 오류가 없는 경우 유예 타이머를 기본값으로 다시 재설정할 수 있는 메커니즘이 없었습니다. 이번 릴리스에서는 Ceph OSD에서 48시간 동안 오류가 없는 경우 하트비트 유예 타이머가 기본값인 20초로 재설정됩니다. 마지막 실패와 최신 실패 사이의 실패 간격이 48 시간을 초과하면 유예 타이머가 기본값인 20초로 재설정됩니다.

유예 시간은 Ceph 스토리지 클러스터가 하트비트가 없으면 Ceph OSD를 다운로 간주하는 간격입니다. 유예 시간은 지연 추정 또는 Ceph ODS가 실패하는 빈도에 따라 조정됩니다.

osd_client_message_cap 옵션이 다시 추가되었습니다.

이전에는 osd_client_message_cap 옵션이 제거되었지만 이번 릴리스에서는 osd_client_message_cap 옵션이 다시 도입되었습니다. 이 옵션을 사용하면 해당 요청을 제한하여 최대 진행 중인 클라이언트 요청 수를 제어할 수 있습니다. 이 작업은 클라이언트 기반 트래픽의 압도적인 양으로 인해 Ceph OSD가 날카롭게 될 때 유용할 수 있습니다.

4장. 기술 프리뷰

이 섹션에서는 이 Red Hat Ceph Storage 릴리스에서 도입되거나 업데이트된 기술 프리뷰 기능에 대한 개요를 제공합니다.

중요

기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원하지 않으며, 기능상 완전하지 않을 수 있어 프로덕션에 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능 지원 범위에 대한 자세한 내용은 https://access.redhat.com/support/offerings/techpreview/를 참조하십시오.

4.1. 블록 장치(RBD)

RBD 이미지를 NBD 이미지에 매핑

rbd-nbd 유틸리티는 RADOS Block Device(RBD) 이미지를 NBD(Network Block Devices)에 매핑하고 Ceph 클라이언트가 Kubernetes 환경의 볼륨 및 이미지에 액세스할 수 있도록 합니다. rbd-nbd 를 사용하려면 rbd-nbd 패키지를 설치합니다. 자세한 내용은 rbd-nbd(7) 매뉴얼 페이지를 참조하십시오.

4.2. Object Gateway

Object Gateway 아카이브 사이트

이 릴리스에서는 아카이브 사이트가 기술 프리뷰로 지원됩니다. 아카이브 사이트에서는 아카이브 영역과 연결된 게이트웨이를 통해서만 제거할 수 있는 S3 오브젝트 버전의 기록을 보유할 수 있습니다. 다중 영역 구성에 아카이브 영역을 포함하면 하나의 영역에서 S3 오브젝트 기록의 유연성을 유지하면서 나머지 영역에서 사용할 버전 S3 오브젝트의 복제본을 저장할 수 있습니다.

5장. 사용되지 않는 기능

이 섹션에서는 Red Hat Ceph Storage 릴리스까지 모든 마이너 릴리스에서 더 이상 사용되지 않는 기능에 대한 개요를 제공합니다.

Ubuntu는 더 이상 지원되지 않음

Ubuntu에 Red Hat Ceph Storage 4 클러스터를 설치하는 것은 더 이상 지원되지 않습니다. Red Hat Enterprise Linux를 기본 운영 체제로 사용합니다.

ceph-ansible 을 사용하여 iSCSI 게이트웨이 구성은 더 이상 지원되지 않습니다.

ceph-ansible 유틸리티를 사용하여 Ceph iSCSI 게이트웨이를 구성하는 것은 더 이상 지원되지 않습니다. ceph-ansible 을 사용하여 게이트웨이를 설치한 다음 gwcli 유틸리티를 사용하여 Ceph iSCSI 게이트웨이를 구성합니다. 자세한 내용은 Red Hat Ceph Storage 블록 장치 가이드의 Ceph iSCSI 게이트웨이 장을 참조하십시오.

Ceph-disk 가 더 이상 사용되지 않음

이번 릴리스에서는 ceph-disk 유틸리티가 더 이상 지원되지 않습니다. ceph-volume 유틸리티가 대신 사용됩니다. 자세한 내용은 Red Hat Ceph Storage 4 관리 가이드 ceph-volume 대체 'ceph-disk' 섹션을 참조하십시오.

Filestore는 더 이상 프로덕션에서 지원되지 않습니다.

새로운 BlueStore 백엔드가 이제 프로덕션에서 완전히 지원되므로 FileStore OSD 백엔드가 더 이상 사용되지 않습니다. 자세한 내용은 Red Hat Ceph Storage 설치 가이드 의 FileStore에서 BlueStore로 오브젝트 저장소를 마이그레이션하는 방법을 참조하십시오.

Ceph 구성 파일이 더 이상 사용되지 않음

Ceph 구성 파일(ceph.conf)이 더 이상 사용되지 않으며 Ceph 모니터에 저장된 새로운 중앙 집중식 구성이 우선합니다. 자세한 내용은 Red Hat Ceph Storage 구성 가이드의 Ceph 구성 데이터베이스 섹션을 참조하십시오.

6장. 버그 수정

이 섹션에서는 이 Red Hat Ceph Storage 릴리스에서 수정된 사용자에게 상당한 영향을 미치는 버그에 대해 설명합니다. 또한 섹션에는 이전 버전에서 발견된 수정된 알려진 문제에 대한 설명이 포함되어 있습니다.

6.1. Ceph Ansible 유틸리티

이제 Ceph 클러스터 배포 후 복제 풀의 크기를 수정할 수 있습니다.

이전에는 director를 사용하여 Ceph 클러스터를 배포한 후 복제 풀의 크기를 늘리지 못했습니다. 이 문제는 풀 크기를 사용자 정의하는 작업의 문제로 인해 플레이북을 재실행할 때 실행되지 않았습니다. 이번 업데이트를 통해 이제 클러스터 배포 후 풀 크기를 수정할 수 있습니다.

(BZ#1743242)

Ceph Ansible은 Ceph 대시보드 배포 중에 여러 grafana 인스턴스를 지원

이전 버전에서는 다중 노드 환경에서 ceph-ansible 가 하나의 노드만 지원되어 나머지 노드가 구성되지 않은 상태로 여러 grafana 인스턴스를 구성할 수 없었습니다. 이번 업데이트를 통해 ceph-ansible 은 여러 인스턴스를 지원하며 Ceph 대시보드 배포 중에 모든 Ceph Monitor 노드에 Ceph별 레이아웃을 삽입합니다.

(BZ#1784011)

대시보드 기능이 비활성화되면 Ansible purge-cluster.yml 플레이북을 실행하면 더 이상 실패하지 않음

이전에는 다음 오류 메시지와 함께 대시보드 기능이 비활성화되면 purge-cluster-yml 플레이북을 사용하여 클러스터를 제거하는 데 실패했습니다.

registry.redhat.io/openshift4/ose-prometheus-node-exporter:v4.1
  msg: '[Errno 2] No such file or directory'

이는 dashboard_enabled 변수가 무시되었기 때문에 발생했습니다. 이번 업데이트를 통해 dashboard_enabled 변수가 올바르게 처리되고 purge-cluster.yml 이 성공적으로 실행됩니다.

(BZ#1785736)

Red Hat OpenStack Platform의 Red Hat Ceph Storage 설치가 더 이상 실패하지 않음

이전에는 Red Hat OpenStack Platform 16을 사용하여 Red Hat Ceph Storage를 설치하려고 할 때 ceph-ansible 유틸리티가 응답하지 않고 다음과 유사한 오류가 발생했습니다.

'Error: unable to exec into ceph-mon-dcn1-computehci1-2: no container with name or ID ceph-mon-dcn1-computehci1-2 found: no such container'

ceph-ansible 이 handler_osds.yml의 잘못된 노드에서 팩트 container_exec_cmd 값을 읽기 때문에 발생했습니다.

이번 업데이트를 통해 ceph-ansible 은 올바른 노드에서 container_exec_cmd 값을 읽고 설치가 성공적으로 진행됩니다.

(BZ#1792320)

Ansible이 완료된 후 norebalance 플래그를 설정 해제합니다.

이전에는 Ansible에서 norebalance 플래그를 설정하지 않았으며 수동으로 설정 해제해야 했습니다. 이번 업데이트를 통해 rolling-update.yml Ansible 플레이북에서는 완료된 후 norebalance 플래그를 자동으로 설정 해제하고 수동 설정되지 않습니다.

(BZ#1793564)

대시보드가 활성화되면 Ansible에서 다중 사이트 Ceph Object Gateway 업그레이드

이전 버전에서는 Red Hat Ceph Storage 대시보드가 활성화되고 Ansible을 사용하여 Red Hat Ceph Storage의 최신 버전으로 업그레이드하려고 하면 다중 사이트 설정에서 보조 Ceph Object Gateway 사이트로 업그레이드할 수 없었습니다. 이 업데이트를 Red Hat Ceph Storage로 업그레이드하면 보조 사이트 업그레이드가 예상대로 작동합니다.

(BZ#1794351)

Ceph Ansible은 Ansible 2.9에서 작동합니다.

이전에는 ceph-ansible 버전 4.0 이상에서 Ansible 버전 2.9에서 작동하지 않았습니다. 이 문제는 ceph-validate 역할에서 Ansible 2.9에 대해 ceph-ansible 을 실행할 수 없기 때문에 발생했습니다. 이번 업데이트를 통해 ceph-ansible 은 Ansible 2.9에서 작동합니다.

(BZ#1807085)

사용자 지정 소프트웨어 리포지토리를 사용한 Ceph 설치에 더 이상 실패하지 않음

이전에는 사용자 지정 리포지토리를 사용하여 Ceph를 설치할 수 없었습니다. 이 문제는 redhat_custom_repository.yml 파일이 제거되었기 때문에 발생했습니다. 이번 업데이트를 통해 redhat_custom_repository.yml 파일이 포함되고 사용자 지정 리포지토리를 사용하여 Red Hat Ceph Storage를 설치할 수 있습니다.

참고

Red Hat 서명된 패키지만 사용자 지정 소프트웨어 리포지토리를 사용하여 Ceph를 설치할 수 있습니다. 사용자 지정 타사 소프트웨어 리포지토리는 지원되지 않습니다.

(BZ#1808362)

대시보드가 설치되지 않은 경우 ceph-ansible purge Playbook이 실패하지 않음

이전 버전에서는 대시보드가 배포되지 않은 경우 존재하지 않는 대시보드 관련 리소스를 제거하려고했기 때문에 클러스터를 제거할 때 제거 플레이북이 실패했습니다. 결과적으로 제거 플레이북은 대시보드가 배포되어 제거에 실패했습니다. 이번 업데이트를 통해 배포에 없는 경우 ceph-ansible 이 대시보드 관련 리소스를 제거하지 않고 제거가 성공적으로 완료됩니다.

(BZ#1808988)

외부 Ceph 스토리지 클러스터에서 독립 실행형 nfs-ganesha 데몬을 사용하면 더 이상 배포 중에 인증 키를 복사하지 못합니다.

이전 버전에서는 독립 실행형 nfs-ganesha 데몬과 외부 Ceph 스토리지 클러스터로 구성된 구성에서 Ceph 인증 키가 Ceph Ansible 배포 중에 /etc/ceph에 복사되지 않았습니다.

이번 업데이트를 통해 Ceph 인증 키가 /etc/ceph/ 디렉터리에 복사됩니다.

(BZ#1814942)

Ceph Ansible은 초기 설치 후 대시보드 관리자 사용자의 권한을 업데이트

이전에는 ceph-ansible 이 처음 생성된 경우에만 대시보드 사용자의 권한을 설정할 수 있었습니다. 설치 중 원래 설정에서 dashboard_admin_user_ro: false 를 변경한 후 플레이북을 실행하면 사용자의 권한이 업데이트되지 않습니다. Red Hat Ceph Storage 4.1z1 ceph-ansible 은 플레이북의 연속 실행에 대한 대시보드 사용자 권한 변경을 지원하도록 업데이트되었습니다.

(BZ#1826002)

docker-to-podman.yml Playbook은 이제 대시보드 컨테이너를 마이그레이션합니다.

이전 버전에서는 docker-to-podman.yml 플레이북을 실행하면 grafana-server 및 대시보드 컨테이너를 제외하고 docker 에서 podman 으로 모든 데몬을 마이그레이션했습니다. 이번 릴리스에서는 docker-to-podman.yml 을 실행하여 모든 데몬을 성공적으로 마이그레이션합니다.

(BZ#1829389)

이전 컨테이너의 스토리지 디렉터리 제거

이전에는 이전 컨테이너의 스토리지 디렉터리가 제거되지 않았습니다. 이로 인해 디스크 사용량이 증가할 수 있습니다. 이는 Red Hat Ceph Storage를 설치하고 제거하고 다시 설치하는 경우 확인할 수 있습니다. Red Hat Ceph Storage 4.1z1에서는 더 이상 사용되지 않는 컨테이너의 스토리지 디렉터리가 제거되고 과도한 디스크 사용량이 발생하지 않습니다.

(BZ#1834974)

Red Hat Enterprise Linux 8.1에서 컨테이너화된 클러스터를 4.0에서 4.1로 업그레이드해도 더 이상 실패하지 않음

이전 버전에서는 Red Hat Ceph Storage 클러스터를 4.0에서 4.1로 업그레이드할 때 set_fact ceph_osd_image_repodigest_before_pulling 오류와 함께 업그레이드가 실패할 수 있었습니다. 컨테이너 이미지 태그 업데이트 방법에 문제가 발생하여 ceph-ansible 이 실패할 수 있었습니다. Red Hat Ceph Storage 4.1z1 ceph-ansible 이 업데이트되어 더 이상 실패하지 않고 업그레이드가 예상대로 작동하지 않습니다.

(BZ#1844496)

기존 OpenStack 환경에서 Ceph 대시보드 활성화 실패

기존 OpenStack 환경에서 Ceph Manager 대시보드 모듈이 활성화된 후 Ceph 대시보드의 IP 주소 및 포트를 구성할 때 HAProxy 구성과 충돌했습니다. 이 충돌을 방지하려면 Ceph Manager 대시보드 모듈을 활성화하기 전에 Ceph 대시보드의 IP 주소와 포트를 구성합니다.

(BZ#1851455)

Ceph Object Gateway 보조 사이트를 배포할 때 Red Hat Ceph Storage 대시보드가 실패합니다.

이전에는 Ceph Ansible에서 radosgw-admin 사용자 create 명령을 실행한 경우 명령에서 오류를 반환했기 때문에 Red Hat Ceph Storage 대시보드가 Ceph Object Gateway 다중 사이트 배포에 보조 사이트를 배포하지 못했습니다. 이번 릴리스에서는 배포 프로세스의 Ceph Ansible 작업이 두 가지 작업으로 나뉩니다. 이렇게 하면 Red Hat Ceph Storage 대시보드가 Ceph Object Gateway 보조 사이트를 성공적으로 배포할 수 있습니다.

(BZ#1851764)

--limit 옵션으로 플레이북을 실행할 때 Ceph File System Metadata Server 설치가 실패합니다.

일부 사실은 첫 번째 Ceph 모니터에 설정되지 않았지만 이러한 사실은 모든 Ceph 모니터 노드에 설정되었습니다. Ceph Monitor가 배치에 포함되지 않은 경우 --limit 옵션을 사용하여 플레이북을 실행할 때 Ceph Monitor에 이러한 팩트가 설정되지 않았습니다. 이로 인해 Ceph 모니터에 작업에서 사용되는 이러한 팩트가 있는 경우 플레이북이 실패합니다. 이번 릴리스에서는 플레이북이 --limit 옵션을 사용하는지 여부를 Ceph Monitor에서 설정합니다.

(BZ#1852796)

업그레이드에 실패할 때 새 Ceph Ojbect Gateway 인스턴스 추가

radosgw_frontend_port 옵션은 두 개 이상의 Ceph Object Gateway 인스턴스를 고려하지 않았으며 모든 인스턴스에 포트 8080 을 구성했습니다. 이번 릴리스에서는 각 Ceph Object Gateway 인스턴스에 대해 radosgw_frontend_port 옵션이 증가하여 Ceph Object Gateway 인스턴스를 두 개 이상 사용할 수 있습니다.

(BZ#1859872)

컨테이너화된 환경에서 FileStore를 사용하는 경우 Ceph Ansible의 shrink-osd.yml 플레이북이 실패합니다.

Ceph Ansible의 shrink-osd.yml 플레이북에 기본값이 누락되어 컨테이너화된 환경에서 FileStore가 지원하는 Ceph OSD를 축소할 때 오류가 발생했습니다. ceph-diskdmcrypt 를 사용하여 이전에 준비된 Ceph OSD는 해당 Ceph OSD 파일에 정의되지 않은 암호화된 키를 남겨 두었습니다. 이번 릴리스에서는 기본값이 추가되어 컨테이너화된 환경에서 dmcrypt 를 사용하여 준비된 Ceph OSD에서 Ceph Ansible shrink-osd.yml 플레이북을 실행할 수 있습니다.

(BZ#1862416)

HTTPS를 사용하면 Prometheus 및 경고 관리자에 대한 액세스 권한이 중단됩니다.

dashboard_protocol 옵션을 https 로 설정하면 Red Hat Ceph Storage 대시보드가 TLS를 기본적으로 지원하지 않는 Prometheus API를 시도하고 액세스했습니다. 이번 릴리스에서는 dashboard_protocol 옵션을 https 로 설정할 때 Prometheus 및 경고 관리자가 HTTP 프로토콜을 사용하도록 강제 적용합니다.

(BZ#1866006)

Ceph Ansible shrink-osd.yml 플레이북은 Ceph OSD를 올바르게 정리하지 않습니다.

ceph_volume 모듈에서 수행한 zap 작업은 osd_fsid 매개변수를 처리하지 않습니다. 이로 인해 논리 볼륨을 기본 장치에 두어 Ceph OSD가 부적절하게 적용되었습니다. 이번 릴리스에서는 zap 작업이 osd_fsid 매개변수를 올바르게 처리하고 축소 후 Ceph OSD를 올바르게 정리할 수 있습니다.

(BZ#1873010)

여러 스토리지 클러스터가 있는 경우 Red Hat Ceph Storage 롤링 업데이트가 실패합니다.

여러 스토리지 클러스터가 구성된 경우 Ceph Ansible rolling_update.yml 플레이북을 실행하면 스토리지 클러스터 이름을 지정할 수 없기 때문에 롤링 업데이트가 실패합니다. 이번 릴리스에서는 rolling_update.yml 플레이북에서는 --cluster 옵션을 사용하여 특정 스토리지 클러스터 이름을 허용합니다.

(BZ#1876447)

롤링 업데이트를 수행할 때 hosts 필드에 잘못된 값이 있습니다

Red Hat Ceph Storage 롤링 업데이트는 Ceph Ansible rolling_update.yml 플레이북의 hosts 값 평가에서 변경된 구문으로 인해 실패합니다. 이번 릴리스에서는 hosts 필드가 플레이북에 지정되면 코드에 대한 수정으로 구문을 올바르게 업데이트합니다.

(BZ#1876803)

rolling_update.yml 플레이북을 실행해도 스토리지 클러스터 fsid가 검색되지 않습니다.

rolling_update.yml 플레이북을 실행하고 Ceph Ansible 인벤토리에 Ceph Monitor 노드가 정의되어 있지 않은 경우(예: 외부 시나리오에서는 스토리지 클러스터 fsid 가 검색되지 않습니다. 이로 인해 rolling_update.yml 플레이북이 실패합니다. 이번 릴리스에서는 인벤토리에 Ceph Monitor가 없는 경우 fsid 검색을 건너뛰어 Ceph Monitor가 없는 경우 rolling_update.yml 플레이북을 실행할 수 있습니다.

(BZ#1877426)

6.2. Cockpit Ceph 설치 프로그램

Cockpit Ceph 설치 관리자에서 RADOS Gateway용 Beast 대신 Civetweb을 더 이상 배포하지 않음

이전에는 Cockpit Ceph Installer에서 현재 지원되는 Beast 프런트 엔드 대신 더 이상 사용되지 않는 Civetweb 프런트 엔드를 사용하도록 RADOS 게이트웨이(RGW)를 구성했습니다. 이번 업데이트를 Red Hat Ceph Storage를 통해 Cockpit Ceph 설치 프로그램은 RGW와 함께 Beast frontend를 예상대로 배포합니다.

(BZ#1806791)

리포지토리가 누락되어 ansible-runner-service.sh 스크립트가 더 이상 실패하지 않음

이전에는 /etc/containers/registries.conf 의 리포지토리가 누락되어 Cockpit Ceph 설치 프로그램 시작 스크립트가 실패할 수 있었습니다. 누락된 리포지토리는 registry.redhat.io 입니다. Red Hat Ceph Storage 4.1z1에서 ansible-runner-service.sh 스크립트가 /etc/containers/registries.conf 에 리포지토리를 포함할 필요가 없도록 레지스트리 이름을 명시적으로 표시하도록 업데이트되었습니다.

(BZ#1809003)

브리지가 있는 물리적 네트워크 장치에서 Cockpit Ceph 설치 프로그램이 더 이상 실패하지 않음

이전에는 Linux 소프트웨어 브릿지에서 물리적 네트워크 장치를 사용한 경우 Cockpit Ceph 설치 프로그램이 실패했습니다. 이는 코드의 논리 오류로 인해 발생했습니다. Red Hat Ceph Storage 4.1z1에서는 코드가 수정되었으며 Cockpit Ceph Installer를 사용하여 물리적 네트워크 인터페이스의 브리지가 있는 노드에 배포할 수 있습니다.

(BZ#1816478)

cockpit-ceph-installer 가 대시보드 및 grafana에 대한 관리자 암호를 설정하지 않아 클러스터 설치가 더 이상 실패하지 않음

이전에는 cockpit-ceph-installer 에서 대시보드 및 Grafana에 대한 관리자 암호를 설정할 수 없었습니다. 이로 인해 ceph-ansible 에 기본 암호를 변경해야 하므로 스토리지 클러스터 구성이 실패했습니다.

이번 업데이트를 통해 cockpit-ceph-installer 를 사용하면 스토리지 클러스터 구성이 성공적으로 완료될 수 있도록 Cockpit에서 관리자 암호를 설정할 수 있습니다.

(BZ#1839149)

Cockpit Ceph Installer를 통해 Red Hat Enterprise Linux 8에서 RPM 설치 유형 사용

이전 버전에서는 Red Hat Enterprise Linux 8에서 Cockpit Ceph 설치 관리자에서 설치 유형용 RPM을 선택할 수 없었습니다. 컨테이너만 설치할 수 있었습니다. Red Hat Ceph Storage 4.1z1에서는 RPM을 선택하여 베어 메탈에 Ceph를 설치할 수 있습니다.

(BZ#1850814)

6.3. Ceph 파일 시스템

하위 볼륨 스냅샷 수가 증가함에 따라 Ceph File System 성능 개선

이전에는 파일 시스템 작업의 속도를 늦추어 400개 이상의 하위 볼륨 스냅샷을 생성하는 데 Ceph 파일 시스템 성능이 저하되었습니다. 이번 릴리스에서는 하위 볼륨 루트 디렉터리의 하위 볼륨 스냅샷만 지원하도록 하위 볼륨을 구성할 수 있으며, 파일 간 링크 및 이름을 방지할 수 있습니다. 이렇게 하면 더 많은 수의 하위 볼륨 스냅샷을 생성할 수 있으며 Ceph File System 성능이 저하되지 않습니다.

(BZ#1848503)

big-endian 시스템이 Ceph MDS의 메타데이터를 디코딩하지 못했습니다.

이전에는 big-endian 시스템에서 Ceph MDS 메타데이터를 디코딩하지 못했습니다. 이는 RADOS에서 구조를 디코딩할 때 Ceph MDS에서 endianness를 무시했기 때문입니다. Ceph MDS 메타데이터 루틴이 이 문제를 해결하도록 수정되어 Ceph MDS에서 구조를 올바르게 디코딩합니다.

(BZ#1896555)

6.4. Ceph Manager 플러그인

경고 간격을 설정할 때 Ceph Manager가 충돌

Ceph Manager에 대한 경고 모듈에 코드 버그가 있어 Ceph Manager가 충돌했습니다. 이번 릴리스에서는 이 코드 버그가 수정되었으며 Ceph Manager가 충돌하지 않고 경고 간격을 설정할 수 있습니다.

(BZ#1849894)

6.5. Ceph Volume 유틸리티

ceph-volume lvm batch 명령이 혼합 장치 유형과 함께 실패합니다.

장치가 lvm batch 하위 명령을 사용하여 필터링되고 Ceph OSD 전략이 변경되면 ceph-volume 명령에서 예상되는 반환 코드를 반환하지 않았습니다. 이로 인해 ceph-ansible 작업이 실패했습니다. 이번 릴리스에서는 Ceph OSD 전략이 변경될 때 ceph-volume 명령에서 올바른 상태 코드를 반환하므로 ceph-ansible 에서 새 Ceph OSD를 추가할 수 있는지 올바르게 확인할 수 있습니다.

(BZ#1825113)

ceph-volume 명령은 논리 볼륨을 원시 장치로 취급합니다.

ceph-volume 명령은 논리 볼륨을 원시 장치로 처리하여 add-osds.yml 플레이북이 실패했습니다. 이는 추가 Ceph OSD를 스토리지 클러스터에 추가할 수 없었습니다. 이번 릴리스에서는 논리 볼륨을 올바르게 처리하도록 ceph-volume 에서 코드 버그가 수정되었으며 add-osds.yml 플레이북을 사용하여 Ceph OSD를 스토리지 클러스터에 추가할 수 있습니다.

(BZ#1850955)

6.6. 컨테이너

nfs-ganesha 데몬이 정상적으로 시작

이전에는 nfs-ganesha - rados-urls 라이브러리가 누락되어 RADOS 백엔드와 함께 nfs-ganesha 를 사용하는 구성이 시작되지 않았습니다. 이 문제는 RADOS 백엔드의 nfs-ganesha 라이브러리 패키지가 전용 패키지로 이동했기 때문에 발생했습니다. 이번 업데이트를 통해 nfs-ganesha-rados-urls 패키지가 Ceph 컨테이너 이미지에 추가되어 nfs-ganesha 데몬이 성공적으로 시작됩니다.

(BZ#1797075)

6.7. Ceph Object Gateway

Ceph Object Gateway가 AWS 요청 서명을 올바르게 적용

이전에는 Ceph Object Gateway에서 서명 헤더에 대한 AWS 요청을 제대로 적용하지 않았으며 다음 오류 메시지를 생성했습니다.

SignatureDoesNotMatch

이번 릴리스에서는 Ceph Object Gateway 코드가 헤더에 올바르게 서명하도록 수정되었습니다. 요청 시 서명 요청이 성공적으로 수행됩니다.

(BZ#1665683)

radosgw-admin 버킷 검사 명령으로 더 이상 불완전한 다중 파트 업로드가 표시되지 않음

이전에는 radosgw-admin 버킷 검사 명령을 실행하면 불완전한 다중 파트 업로드가 표시되었습니다. 이로 인해 버킷 인덱스가 손상된 것처럼 출력이 표시될 수 있으므로 사이트 관리자에게 혼동이 발생할 수 있습니다. 이번 업데이트를 통해 명령은 오류 및 분리된 오브젝트만 표시하고 불완전한 업로드가 필터링됩니다.

(BZ#1687971)

버킷 shard 오브젝트를 사용하여 omap 키의 배포 취소

버전이 지정된 버킷에서 오브젝트 작업을 완전히 삭제할 수 없는 경우가 있었습니다. 이 상태에서 이러한 오브젝트의 버킷 인덱스 항목에는 이름과 인스턴스 문자열이 0이 표시되었습니다. 후속 reshard가 있는 경우 빈 이름과 인스턴스 문자열으로 인해 항목이 shard 0으로 다시 하드링되었습니다. shard 0에 속하지 않은 항목이 여기에 종료되었습니다. 이로 인해 shard 0에 빈 항목 수가 배치되고 서로 다른 shard보다 큽니다. 이번 릴리스에서는 삭제 작업의 이 부분에서 이름 및 인스턴스 문자열이 더 이상 지워지지 않습니다. Reshard가 발생하면 완전히 삭제되지 않은 항목이 올바른 shard에 종료되고 shard 0이 강제 적용되지 않습니다.

(BZ#1749090)

Object Gateway 라이프사이클 처리 성능의 전체 처리량 향상

이전에는 지정된 환경에서 버킷 또는 컨테이너가 있는 오브젝트 또는 버킷의 워크로드 증가로 인해 병렬 처리 부족으로 인해 Object Gateway 라이프사이클 처리 성능이 제한되었습니다. 이번 업데이트를 통해 병렬 처리는 2차원이므로 단일 오브젝트 게이트웨이 인스턴스에 여러 라이프사이클 처리 스레드가 있을 수 있으며 각 스레드에는 라이프사이클 작업을 실행하는 여러 개의 작업 풀 스레드가 있습니다. 또한 이번 업데이트에서는 작업자에 대한 shard 할당이 개선되어 전체 처리량이 증가합니다.

(BZ#1794715)

rgw_parse_bucket_key 가 호출되면 버킷 테넌트 상태가 올바르게 해석됩니다.

이전 버전에서는 루프에서 키를 처리하는 radosgw-admin 버킷 통계와 같은 rgw_parse_bucket _key 의 일부 호출자가 일부 테넌트 버킷이 나열된 경우 테넌트되지 않은 버킷을 테넌트로 잘못 해석할 수 있었습니다. 비어 있지 않은 rgw_rgw 버킷 인수를 사용하여 rgw_parse_bucket_key 가 호출되면 키에 테넌트가 없는 경우 bucket::tenant에 빈 값을 올바르게 할당하지 않습니다. Red Hat Ceph Storage 4.1z1에서 테넌트가 적용되지 않고 버킷 테넌트 상태가 올바르게 해석되면 버킷 테넌트 멤버가 지워집니다.

(BZ#1830330)

Ceph Object Gateway는 익명 사용자 정보를 캐시하고 액세스하려고 합니다.

이전에는 Ceph Object Gateway에서 인증되지 않은 각 요청에 대한 익명 사용자 정보를 가져오려고 했습니다. 이 인증되지 않은 액세스로 인해 스토리지 클러스터의 단일 Ceph OSD가 로드되었습니다. 이번 릴리스에서는 Ceph Object Gateway가 익명 사용자 정보를 가져오지 않아 대기 시간이 단축되고 단일 Ceph OSD에서 로드됩니다.

(BZ#1831865)

오브젝트에 라이프사이클 만료가 올바르게 보고됨

이전에는 접두사 규칙이 있기 때문에 일부 오브젝트에 대해 잘못된 라이프사이클 만료가 보고될 수 있었습니다. 이는 S3 HEAD 및 GET 요청에 사용된 만료 헤더를 생성할 때 라이프사이클 만료 규칙의 선택적 접두사 제한이 무시되었기 때문에 발생했습니다. Red Hat Ceph Storage 4.1z1에서 규칙 접두사가 일치하는 expiration 헤더 규칙의 일부이며 오브젝트의 라이프사이클 만료가 올바르게 보고됩니다.

(BZ#1833309)

rgw.none 버킷 통계에서 많은 수의 오브젝트

경우에 따라 통계를 계산하는 코드는 버킷 인덱스 항목이 이미 존재하는 오브젝트를 참조하는지 여부를 확인하지 못했습니다. 이로 인해 버킷 통계가 올바르지 않았습니다. 이번 릴리스에서는 존재를 확인하기 위해 버킷 통계를 수정하기 위해 코드가 추가되었습니다.

(BZ#1846035)

정렬된 버킷 목록에 대한 호출이 중단됨

버킷 정렬된 목록 작업의 코드 버그로 인해 특정 상황에서 이 작업이 루프에 고정되고 완료되지 않을 수 있습니다. 이번 릴리스에서는 이 코드 버그가 수정되었으며 결과적으로 정렬된 버킷 목록에 대한 호출이 예상대로 완료됩니다.

(BZ#1853052)

라이프 사이클 처리는 NoncurrentVersionExpirationNoncurrentDays 를 무시합니다.

병렬 라이프사이클 처리 중에 오브젝트의 수정 시간이 잘못 초기화되었다고 가정하는 변수입니다. 이로 인해 유효하지 않은 만료 규칙이 있는 버킷의 최신 버전이 아닌 오브젝트 버전이 의도한 만료 시간 전에 만료되었습니다. 이번 릴리스에서는 수정 시간(mtime)이 올바르게 초기화되어 라이프사이클의 처리 대기열에 전파됩니다. 이렇게 하면 올바른 시간 후에 최신이 아닌 만료가 발생합니다.

(BZ#1875305)

일부 오브젝트의 일부가 가비지 컬렉션에 잘못 추가됨

Ceph Object Gateway를 사용하여 오브젝트를 읽을 때 해당 오브젝트의 일부가 rgw_gc_obj_min_wait 옵션에 정의된 값의 절반 이상을 사용하는 경우 해당 tail 개체가 가비지 컬렉션 목록에 추가되었습니다. 가비지 컬렉션 목록의 tail 개체가 삭제되어 데이터가 손실됩니다. 이번 릴리스에서는 삭제된 개체에 대한 가비지 수집을 지연하는 기능이 비활성화되었습니다. 결과적으로 시간이 오래 걸리는 Ceph Object Gateway를 사용하여 오브젝트를 읽는 것은 가비지 컬렉션 목록에 추가되지 않습니다.

(BZ#1892644)

6.8. 다중 사이트 Ceph Object Gateway

RGW 데몬이 더 이상 종료 시 충돌하지 않음

이전에는 radosgw 종료 중에 경쟁 조건으로 인해 RGW 프로세스가 특정 상황에서 중단되었습니다. 이 문제가 발생한 한 가지 상황은 다중 사이트를 사용할 때 오브젝트를 삭제할 때 발생했습니다. 이는 안전하지 않은 메모리를 역참조하기 때문입니다. Red Hat Ceph Storage 4.1z1에서 안전하지 않은 메모리는 더 이상 역참조되지 않으며 RGW 데몬이 더 이상 충돌하지 않습니다.

(BZ#1840858)

6.9. RADOS

스토리지 클러스터에 Ceph Manager 또는 OSD가 없는 경우 상태 경고 상태가 보고됨

이전 Red Hat Ceph Storage 릴리스에서는 스토리지 클러스터에 Ceph Manager 또는 OSD가 없는 경우에도 스토리지 클러스터 상태가 HEALTH_OK 였습니다. 이번 릴리스에서는 이 상태가 변경되었으며, Ceph Manager에 스토리지 클러스터가 설정되지 않았거나 모든 Ceph Manager가 중단된 경우 상태 경고가 보고됩니다. Red Hat Ceph Storage는 Ceph Manager를 사용하여 주요 기능을 제공하기 때문에 Ceph Manager 또는 OSD 없이 Ceph 스토리지 클러스터를 실행하는 것이 좋습니다.

(BZ#1761474)

ceph config show 명령은 올바른 fsid를 표시합니다.

이전에는 ceph config show 명령에서는 Ceph Monitor의 데이터베이스에 있는 구성 키만 표시했으며 fsidNO_MON_UPDATE 구성 값이므로 fsid 가 올바르게 표시되지 않았습니다. 이번 릴리스에서는 ceph config show 명령이 올바른 fsid 값을 표시합니다.

(BZ#1772310)

RADOS의 작은 오브젝트 및 파일은 더 이상 필요 이상으로 많은 공간을 사용하지 않음

Ceph Object Gateway 및 Ceph 파일 시스템(CephFS)은 RADOS에서 작은 오브젝트와 파일을 개별 오브젝트로 저장합니다. 이전에는 BlueStore의 기본 최소 할당 크기(min_alloc_size)보다 작은 개체에서 필요한 것보다 많은 공간을 사용했습니다. 이는 이전의 BlueStore의 min_alloc_size 가 SSD(Solid State Device)의 경우 16KB이기 때문에 발생했습니다. 현재 SSD의 기본값 min_alloc_size 는 4KB입니다. 이렇게 하면 성능에 영향을 주지 않고 공간을 더 효과적으로 사용할 수 있습니다.

(BZ#1788347)

클러스터 로그에 기록되지 않는 속도 저하

이전에는 느린 작업이 클러스터 로그에 기록되지 않았습니다. osd 또는 mon 로그에 기록되었지만 예상되는 수준의 세부 정보가 없었습니다. 이번 릴리스에서는 느린 작동이 클러스터 로그에 기록되므로 로그를 디버깅에 유용하게 만들 수 있습니다.

(BZ#1807184)

배치 그룹 병합 중에 백필이 더 이상 지연되지 않음

이전에는 소스 및 대상 배치 그룹에 대해 설정된 작업이 병합되기 전에 일치하지 않는 경우 Red Hat Ceph Storage 배치 그룹 병합에 걸리는 시간이 예상보다 오래 걸릴 수 있었습니다. 불일치가 있을 때 수행되는 백필은 stall으로 표시될 수 있습니다. Red Hat Ceph Storage 4.1z1에서 해당 작업이 일치하는 배치 그룹만 병합하도록 코드가 업데이트되었습니다. 이 변경으로 인해 지연 없이 병합을 완료할 수 있습니다.

(BZ#1810949)

Ceph Monitor는 메모리 대상 이상으로 증가할 수 있습니다.

메모리 대상 자동 조정은 리더의 Ceph 모니터가 아닌 Ceph Monitor 리더에서만 수행되었습니다. 이로 인해 Ceph Monitor 팔로워가 설정된 메모리 대상을 초과하여 메모리가 소진되면 Ceph Monitor가 충돌했습니다. 이번 릴리스에서는 자동 튜닝 프로세스가 Ceph Monitor 리더의 메모리 대상을 적용하므로 시스템에서 메모리가 소진되지 않습니다.

(BZ#1827856)

OSD가 오랜 시간 동안 다운되면 디스크 공간 사용량이 증가하지 않습니다.

이전에는 OSD가 오랜 시간 동안 다운되었을 때 많은 수의 osdmaps가 저장되었으며 트리밍되지 않았습니다. 이로 인해 과도한 디스크 사용량이 발생했습니다. Red Hat Ceph Storage 4.1z1에서 osdmaps는 OSD 및 디스크 공간이 초과 사용되지 않는지 여부와 관계없이 트리밍됩니다.

(BZ#1829646)

smartctl 이 0이 아닌 오류 코드로 종료되면 상태 메트릭이 올바르게 보고됨

이전에는 smartctl 이 올바른 정보를 직접 보고하더라도 smartctl 이 0이 아닌 오류 코드로 종료되면 ceph device get-health-metrics 명령이 메트릭을 보고하지 못할 수 있었습니다. 이 경우 JSON 오류가 보고되었습니다. Red Hat Ceph Storage 4.1z1에서 smartctl 이 올바른 정보를 보고하는 경우 smartctl 이 0이 아닌 오류 코드를 사용하여 종료하더라도 ceph 장치 get-health-metrics 명령은 메트릭을 보고합니다.

(BZ#1837645)

부정적인 시간 범위로 인한 Ceph Monitor 충돌

이전에는 고정 클럭에 의해 다시 돌아가는 경우 Ceph 모니터가 충돌할 수 있었습니다. 이러한 충돌로 인해 부정적인 고정 시간 범위가 발생하고 Ceph Monitor에 대한 어설션을 트리거하여 충돌이 발생했습니다. 이 어설션을 허용하도록 Ceph Monitor 코드가 업데이트되어 음수 값이 아닌 0 길이 간격으로 해석됩니다. 결과적으로 이 어설션이 생성되면 Ceph Monitor가 충돌하지 않습니다.

(BZ#1847685)

스토리지 클러스터의 메시지 인코딩 및 디코딩 개선

x86_64 및 s390과 같은 이기종 아키텍처가 포함된 Red Hat Ceph Storage 클러스터를 배포할 때 시스템이 충돌할 수 있습니다. 또한 CephFS의 특정 워크로드에서 s390x 노드의 Ceph Monitor가 예기치 않게 충돌할 수 있었습니다. 이번 릴리스에서는 1 의 마커를 사용하여 entity_addrvec_t 를 적절히 디코딩하고 중간 정수 변수 유형을 사용하여 big-endian 시스템에서 enum 유형을 올바르게 디코딩하고, big-endian 시스템에서 float 유형을 고정하고 디코딩합니다. 그 결과 s390x 노드의 이기종 스토리지 클러스터 및 Ceph Monitor가 더 이상 충돌하지 않습니다.

(BZ#1895040)

6.10. RADOS 블록 장치(RBD)

rbd unmap 명령을 동시에 실행할 수 있으며 해당 RBD 블록 장치가 성공적으로 매핑되지 않음

이전에는 concurrent rbd unmap 명령을 실행하면 udev 관련 이벤트 경쟁 조건이 발생할 수 있었습니다. 명령이 순차적으로 실패하고 해당 RBD 블록 장치는 해당 노드에 매핑된 상태로 남아 있을 수 있습니다. 이번 업데이트를 통해 udev 관련 이벤트 경합 조건이 수정되었으며 명령이 더 이상 실패하지 않습니다.

(BZ#1784895)

7장. 확인된 문제

이 섹션에서는 이 Red Hat Ceph Storage 릴리스에서 발견된 알려진 문제에 대해 설명합니다.

7.1. Ceph Ansible 유틸리티

배치 그룹 자동 스케일러 배포는 CephFS 관련 풀에서만 예상대로 작동하지 않습니다.

이 문제를 해결하기 위해 플레이북을 실행한 후 CephFS 관련 풀에서 배치 그룹 자동 스케일러를 수동으로 활성화할 수 있습니다.

(BZ#1836431)

filestore-to-bluestore 플레이북은'osd_auto_discovery' 시나리오를 지원하지 않습니다.

osd_auto_recovery 시나리오를 기반으로 하는 Red Hat Ceph Storage 4 배포에서는 filestore-to-bluestore 플레이북을 사용하여 BlueStore 마이그레이션을 쉽게 수행할 수 없습니다.

이 문제를 해결하려면 shrink-osd 플레이북을 사용하고 osd_objectstore: bluestore 를 사용하여 축소된 OSD를 재배포합니다.

(BZ#1881523)

7.2. Ceph 관리 대시보드

대시보드에서 올바른 Ceph iSCSI 오류 메시지를 제공하지 않습니다.

사용자가 로그인하는 동안 iSCSI 대상을 삭제하려고 할 때 Ceph iSCSI에서 오류를 반환하는 경우, Red Hat Ceph Storage 대시보드는 팝업 알림을 사용하여 해당 오류 코드와 메시지를 대시보드 사용자에게 전달하지 않지만 일반적인 "500 Internal Server Error"를 표시합니다. 결과적으로 대시보드가 제공하는 메시지는 정보를 제공하지 않고 오작동합니다. 예상 동작("사용자가 사용 중인 리소스를 삭제할 수 없음")은 운영 실패("내부 서버 오류")로 인식됩니다. 이 문제를 해결하려면 대시보드 로그를 참조하십시오.

(BZ#1786457)

7.3. Ceph Volume 유틸리티

udev 가 BlueStore DB 및 WAL 장치에 대한 권한을 재설정하므로 Ceph OSD가 시작되지 않습니다.

ceph-volume lvm create 명령을 사용하여 OSD에 BlueStore DB 및 WAL 파티션을 지정하는 경우 Ceph Ansible과 lvm_volume 옵션을 사용하면 시작 시 해당 장치가 실패할 수 있습니다. udev 하위 시스템은 파티션 권한을 root:disk 로 다시 재설정합니다.

이 문제를 해결하려면 systemd ceph-volume 서비스를 수동으로 시작합니다. 예를 들어 ID가 8인 OSD를 시작하려면 systemctl start 'ceph-volume@lvm-8-*'. service 명령을 사용할 수도 있습니다(예: service ceph-volume@lvm-8-4c6ddc44-9037-477d-903c-63b5a789ade5 start ). OSD를 수동으로 시작하면 파티션에 올바른 권한인 ceph:ceph 가 생성됩니다.

(BZ#1822134)

7.4. Ceph Object Gateway

Ceph Object Gateway에서 버킷 또는 오브젝트를 삭제하면 고립된 RADOS 오브젝트

Ceph Object Gateway 가비지 컬렉션(GC) 이후 버킷 또는 오브젝트를 삭제하면 GC 큐가 처리되어 대량의 고립된 RADOS 오브젝트가 발생합니다. 이러한 RADOS 오브젝트는 삭제된 버킷에 속하는 "승인" 데이터입니다.

시간이 지남에 따라 고립된 RADOS 오브젝트 수는 데이터 풀을 채우고 스토리지 클러스터의 성능을 저하시킬 수 있습니다.

이러한 분리 RADOS 오브젝트에서 공간을 회수하려면 Red Hat Ceph Storage Object Gateway 구성 및 관리 가이드의 분리 및누출 오브젝트 찾기 섹션을 참조하십시오.

(BZ#1844720)

7.5. 다중 사이트 Ceph Object Gateway

사용자를 생성하고 수정하는 radosgw-admin 명령은 다중 사이트 Ceph Obejct 게이트웨이 환경의 보조 영역에서 허용되지 않습니다.

radosgw-admin 명령을 사용하여 보조 영역의 사용자와 하위 사용자를 생성하거나 수정해도 --yes-i-really-mean-it 옵션이 사용되더라도 해당 변경 사항을 마스터 영역에 전파하지 않습니다.

이 문제를 해결하려면 radosgw-admin 명령 대신 REST API를 사용하십시오. REST API를 사용하면 보조 영역에서 사용자를 생성 및 수정한 다음 해당 변경 사항을 마스터 영역에 전파할 수 있습니다.

(BZ#1553202)

7.6. 패키지

Grafana의 현재 버전에서는 대시보드에서 특정 버그가 발생합니다.

Red Hat Ceph Storage 4는 Grafana 버전 5.2.4를 사용합니다. 이 버전에서는 Red Hat Ceph Storage 대시보드에서 다음 버그가 발생합니다.

  • Pools > Overall Performance 로 이동하면 Grafana에서 다음 오류를 반환합니다.

    TypeError: l.c[t.type] is undefined
    true
  • 풀의 성능 세부 정보( > 선택 > 목록 > 성능 세부 정보)를 볼 때 Grafana 표시줄이 다른 그래프 및 값과 함께 표시됩니다.

이러한 버그는 향후 Red Hat Ceph Storage 릴리스에서 최신 Grafana 버전으로 리베이스한 후 수정됩니다.

(BZ#1786107)

7.7. RADOS

MegaRaid 장치를 쿼리할 때 ceph device 명령이 작동하지 않습니다.

현재 ceph device query-daemon-health-metrics 명령은 MegaRaid 장치에 연결된 디스크의 상태 메트릭 쿼리를 지원하지 않습니다. 이 명령은 다음과 유사한 오류를 표시합니다.

smartctl returned invalid JSON

현재 MegaRaid 장치에 대한 디스크 오류 예측 모듈은 사용할 수 없습니다. 현재 이 문제에 대한 해결방법이 없습니다.

Red Hat Ceph Storage에서 RAID 솔루션 사용에 대한 자세한 내용은 Red Hat Ceph Storage 하드웨어 가이드를 참조하십시오.

(BZ#1810396)

8장. 소스

업데이트된 Red Hat Ceph Storage 소스 코드 패키지는 다음 위치에서 사용할 수 있습니다.

법적 공지

Copyright © 2023 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.