릴리스 노트
Red Hat Ceph Storage 5.1z2 릴리스 노트
초록
보다 포괄적 수용을 위한 오픈 소스 용어 교체
Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.
Red Hat Ceph Storage 문서에 대한 피드백 제공
문서 개선을 위한 의견을 보내 주십시오. Red Hat이 어떻게 이를 개선할 수 있는지 알려 주십시오. 이렇게 하려면 다음을 수행합니다.
- 특정 문구에 대한 간단한 의견을 보려면 다중 페이지 HTML 형식으로 문서를 보고 있는지 확인하십시오. 주석 처리하려는 텍스트 부분을 강조 표시합니다. 그런 다음 강조 표시된 텍스트 아래에 표시되는 피드백 추가 팝업을 클릭하고 표시된 지침을 따릅니다.
보다 상세하게 피드백을 제출하려면 다음과 같이 Bugzilla 티켓을 생성하십시오.
- Bugzilla 웹 사이트로 이동하십시오.
- 구성 요소 드롭다운에서 문서를 선택합니다.
- 적절한 버전의 문서를 선택합니다.
- Summary and Description (요약 및 설명) 필드에 개선 사항을 입력합니다. 관련된 문서의 해당 부분 링크를 알려주십시오.
- 선택 사항: 첨부 파일 추가(있는 경우).
- 버그 제출을 클릭합니다.
1장. 소개
Red Hat Ceph Storage는 Ceph 스토리지 시스템의 안정적인 버전을 Ceph 관리 플랫폼, 배포 유틸리티 및 지원 서비스와 결합하는 대규모 확장이 가능한 오픈 소프트웨어 정의 스토리지 플랫폼입니다.
Red Hat Ceph Storage 설명서는 https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/5 에서 확인할 수 있습니다.
2장. 감사 인사
Red Hat Ceph Storage 5 프로젝트는 Ceph 커뮤니티의 개인 및 조직의 기여도와 품질 및 수량에서 놀라운 성장을 경험하고 있습니다. Red Hat Ceph Storage 팀의 모든 구성원, Ceph 커뮤니티의 개별 기여자, 그리고 다음과 같은 조직의 기여에 국한되지는 않지만 이에 국한되지는 않습니다.
- Intel®
- Fujitsu ®
- UnitedStack
- Yahoo ™
- Ubuntu Kylin
- Mellanox ®
- CERN ™
- Deutsche Telekom
- Mirantis ®
- SanDisk ™
- SUSE
3장. 새로운 기능
이 섹션에는 이 Red Hat Ceph Storage 릴리스에 도입된 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.
이 릴리스의 주요 기능은 다음과 같습니다.
컨테이너화된 클러스터
Red Hat Ceph Storage 5는 컨테이너화된 데몬만 지원합니다. 컨테이너화되지 않은 스토리지 클러스터는 지원하지 않습니다. Red Hat Ceph Storage 4에서 Red Hat Ceph Storage 5로 컨테이너화되지 않은 스토리지 클러스터를 업그레이드하는 경우 업그레이드 프로세스에는 컨테이너화된 배포가 포함됩니다.
자세한 내용은 Red Hat Ceph Storage 설치 가이드의 RHCS 4에서 RHCS 5로 Red Hat Ceph Storage 클러스터 업그레이드 섹션을 참조하십시오.
Cephadm
Cephadm 은 관리자 데몬의 호스트에 연결하여 Red Hat Ceph Storage 5 클러스터를 배포 및 관리하는 새로운 컨테이너화된 배포 툴입니다.
cephadm
유틸리티는 Red Hat Ceph Storage 배포의ceph-
anible을 대체합니다. Cephadm은 Red Hat Ceph Storage를 실행할 수 있도록 완전한 기능을 갖춘 강력한 설치 관리 계층을 제공하는 것입니다.cephadm
명령은 Red Hat Ceph Storage 클러스터의 전체 라이프사이클을 관리합니다.cephadm
명령은 다음 작업을 수행할 수 있습니다.- 새 Ceph 스토리지 클러스터를 부트스트랩합니다.
- Ceph CLI(명령줄 인터페이스)에서 작동하는 컨테이너화된 쉘을 시작합니다.
컨테이너화된 데몬 디버깅에 도움이 됩니다.
cephadm
명령은ssh
를 사용하여 스토리지 클러스터의 노드와 통신하고 Ceph 데몬 컨테이너를 추가, 제거 또는 업데이트합니다. 이를 통해 외부 툴을 사용하지 않고도 Red Hat Ceph Storage 컨테이너를 추가, 제거 또는 업데이트할 수 있습니다.cephadm
명령에는 다음 두 가지 주요 구성 요소가 있습니다.-
cephadm
쉘은 컨테이너 내에서bash
쉘을 시작합니다. 이를 통해 스토리지 클러스터 설치 및 설정 작업을 실행하고 컨테이너에서ceph
명령을 실행할 수 있습니다. cephadm
orchestrator 명령을 사용하면 Ceph 데몬 및 서비스를 프로비저닝하고 스토리지 클러스터를 확장할 수 있습니다.자세한 내용은 Red Hat Ceph Storage 설치 가이드를 참조하십시오.
관리 API
관리 API는 Red Hat Ceph Storage 5에 적용할 수 있는 관리 스크립트를 생성하고 버전 라이프사이클에 대해 변경되지 않은 상태로 계속 작동합니다. 호환되지 않는 API 버전 관리는 주요 릴리스 줄에서만 발생합니다.
자세한 내용은 Red Hat Ceph Storage 개발자 가이드를 참조하십시오.
Red Hat Ceph Storage의 연결이 끊긴 설치
Red Hat Ceph Storage 5는 프라이빗 네트워크에서 연결이 끊긴 설치 및 스토리지 클러스터 부트스트랩을 지원합니다. 연결이 끊긴 설치에서는 네트워크에서 파일을 다운로드하는 대신 사용자 지정 이미지 및 구성 파일과 로컬 호스트를 사용합니다.
Red Hat 레지스트리에 액세스할 수 있는 프록시 호스트에서 다운로드한 컨테이너 이미지를 설치하거나 컨테이너 이미지를 로컬 레지스트리에 복사하여 설치할 수 있습니다. 부트스트랩 프로세스에는 이름 및 IP 주소로 추가할 호스트를 식별하는 사양 파일이 필요합니다. 초기 모니터 호스트가 부트 스트랩되면 Ceph Orchestrator 명령을 사용하여 스토리지 클러스터를 확장하고 구성할 수 있습니다.
자세한 내용은 Red Hat Ceph Storage 설치 가이드 를 참조하십시오.
Ceph 파일 시스템 지역간 복제
Red Hat Ceph Storage 5 릴리스부터 지리적 위치 또는 다른 사이트 간에 Ceph 파일 시스템(CephFS)을 복제할 수 있습니다. 새
cephfs-mirror
데몬은 스냅샷을 원격 CephFS에 비동기적으로 복제합니다.자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드의 Ceph 파일 시스템미러 섹션을 참조하십시오.
새로운 Ceph File System 클라이언트 성능 툴
Red Hat Ceph Storage 5 릴리스부터 Ceph 파일 시스템(CephFS)은 Ceph 파일 시스템의 지표를 실시간으로 표시하는
최상위
유틸리티를 제공합니다.cephfs-top
유틸리티는 Ceph Managerstats
모듈을 사용하여 클라이언트 성능 지표를 가져와서 표시하는 기반 Python 스크립트입니다.자세한 내용은 Red Hat Ceph Storage File System Guide 의
cephfs-top
유틸리티 사용 섹션을 참조하십시오.Red Hat Ceph Storage 대시보드를 사용하여 Ceph 오브젝트 게이트웨이 다중 사이트 모니터링
이제 Red Hat Ceph Storage 대시보드를 사용하여 Ceph 개체 게이트웨이 다중 사이트 구성을 모니터링할 수 있습니다.
cephadm
유틸리티를 사용하여 멀티 영역을 설정하면 한 영역의 버킷이 다른 영역 및 기타 사이트에 표시됩니다. 대시보드에서 버킷을 만들고, 편집하고, 삭제할 수도 있습니다.자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 다중 사이트 오브젝트 구성의 버킷 관리를 참조하십시오.
BlueStore 공간 사용률 개선
Ceph Object Gateway와 Ceph 파일 시스템(CephFS)은 RADOS에 개별 오브젝트로 작은 오브젝트와 파일을 저장합니다. 이번 릴리스에서는 SSD의
min_alloc_size
기본값 BlueStore의 min_alloc_size는 4KB입니다. 이를 통해 성능에 영향을 주지 않고 공간을 보다 효율적으로 사용할 수 있습니다.자세한 내용은 Red Hat Ceph Storage 관리 가이드 의 OSD BlueStore 장을 참조하십시오.
3.1. Cephadm 유틸리티
cephadm
에서 여러 데몬을 동일한 호스트에서 공동 배치 지원
이번 릴리스에서는 Ceph Object Gateway 및 Ceph Metadata Server(MDS)와 같은 여러 데몬을 동일한 호스트에 배포하여 성능 이점을 추가로 제공할 수 있습니다.
예제
service_type: rgw placement: label: rgw count-per-host: 2
단일 노드 배포의 경우 cephadm
에는 업그레이드 시나리오에서 실행 중인 두 개의 Ceph Manager 데몬이 있어야 합니다. 업그레이드 시나리오 외부에서도 여전히 권장되는 것이 좋지만 스토리지 클러스터가 없으면 스토리지 클러스터가 작동합니다.
Cephadm을 사용하여 NFS-RGW 구성 지원
Red Hat Ceph Storage 5.0 구성에서 NFS-RGW를 사용하려면 해결 방법으로 대시보드를 사용해야 했습니다. 이러한 사용자가 Red Hat Ceph Storage 5.1까지 업그레이드를 지연하는 것이 좋습니다.
이번 릴리스에서는 NFS-RGW 구성이 지원되며 이 구성을 사용하는 사용자는 스토리지 클러스터를 업그레이드할 수 있으며 예상대로 작동합니다.
이제 사용자 지정 모니터링 스택 이미지를 사용하여 스토리지 클러스터를 부트스트랩할 수 있습니다.
이전에는 사용자가 클러스터를 부트스트랩한 후 모니터링 스택 데몬에 사용된 이미지를 수동으로 조정해야 했습니다.
이번 릴리스에서는 다음과 같이 포맷된 구성 파일을 전달하여 부트스트랩 중에 스택 데몬 모니터링을 위한 사용자 정의 이미지를 지정할 수 있습니다.
구문
[mgr] mgr/cephadm/container_image_grafana = GRAFANA_IMAGE_NAME mgr/cephadm/container_image_alertmanager = ALERTMANAGER_IMAGE_NAME mgr/cephadm/container_image_prometheus = PROMETHEUS_IMAGE_NAME mgr/cephadm/container_image_node_exporter = NODE_EXPORTER_IMAGE_NAME
명령에서 --config CONFIGURATION_FILE_NAME
옵션을 사용하여 부트스트랩을 실행할 수 있습니다. 다른 구성 옵션이 있는 경우 스토리지 클러스터를 부트스트랩하기 전에 구성 파일에 위의 행을 추가할 수 있습니다.
cephadm
을 사용하면 osd_memory_target
을 자동 조정할 수 있습니다.
이번 릴리스에서는 cephadm
을 통해 기본적으로 osd_memory_target
구성 매개변수를 자동으로 조정할 수 있습니다.
사용자가 서비스별 데몬의 CPU 제한을 지정할 수 있습니다.
이번 릴리스에서는 extra_container_args 필드를 통해 서비스 사양 파일에 CPU 제한을 추가하여 지정된 서비스 내의 모든 데몬에 대한 CPU 제한을 사용자 지정할 수 있습니다.
예제
service_type: mon service_name: mon placement: hosts: - host01 - host02 - host03 extra_container_args: - "--cpus=2" service_type: osd service_id: osd_example placement: hosts: - host01 extra_container_args: - "--cpus=2" spec: data_devices: paths: - /dev/sdb
cephadm
에서 Ceph Object Gateway 배포를 위한 IPv6 네트워크 지원
이번 릴리스에서는 cephadm
에서 Ceph Object Gateway 사양의 IPv6 네트워크 지정을 지원합니다. Ceph Object Gateway를 배포하기 위한 서비스 구성 파일의 예는 다음과 같습니다.
예제
service_type: rgw service_id: rgw placement: count: 3 networks: - fd00:fd00:3000::/64
ceph nfs 내보내기 rgw
명령에서 Ceph Object Gateway 사용자 내보내기 지원
이전에는 ceph nfs 내보내기 rgw
명령에서는 버킷 수준에서 Ceph Object Gateway 내보내기만 생성했습니다.
이번 릴리스에서는 명령과 사용자 및 버킷 수준에서 Ceph Object Gateway 내보내기를 생성합니다.
구문
ceph nfs export create rgw --cluster-id CLUSTER_ID --pseudo-path PSEUDO_PATH --user-id USER_ID [--readonly] [--client_addr VALUE...] [--squash VALUE]
예제
[ceph: root@host01 /]# ceph nfs export create rgw --cluster-id mynfs --pseudo-path /bucketdata --user-id myuser --client_addr 192.168.10.0/24
3.2. Ceph 대시보드
이제 사용자가 Red Hat Ceph Storage 대시보드에서 HAProxy 지표를 볼 수 있습니다.
이번 릴리스에서 Red Hat은 Ceph Object Gateway 엔드포인트에 사용되는 수신 서비스에 대한 새로운 Grafana 대시보드를 도입합니다. 이제 Ceph Object Gateway Daemon에서 HTTP 코드별 총 응답, 총 요청/응답, 총 연결 수, 들어오는 전체 바이트의 현재 총 성능과 같은 4개의 HAProxy 지표를 확인할 수 있습니다.
사용자는 Red Hat Ceph Storage 대시보드에서 mfa_ids
를 볼 수 있습니다.
이번 릴리스에서는 Red Hat Ceph Storage 대시보드의 사용자 세부 정보 섹션에서 Ceph Object Gateway 사용자에 대한 MFA(Multi-factor authentication)로 구성된 사용자의 mfa_
id를 볼 수 있습니다.
3.3. Ceph Manager 플러그인
이제 progress 모듈의 글로벌 복구 이벤트가 최적화되었습니다.
이번 릴리스에서는 python 모듈 대신 C++ 코드를 사용하여 대규모 스토리지 클러스터에서 많은 수의 배치 그룹에 최적화되어 CPU 사용률을 줄일 수 있습니다.
3.4. Ceph Volume 유틸리티
lvm
명령은 컨테이너 내에서 실행될 때 메타데이터 손상이 발생하지 않습니다.
이전 버전에서는 lvm
명령이 컨테이너 내에서 직접 실행될 때 LVM 메타데이터 손상이 발생했습니다.
이번 릴리스에서는 ceph-volume
에서 호스트 네임스페이스를 사용하여 lvm
명령을 실행하고 메타데이터 손상을 방지합니다.
3.5. Ceph Object Gateway
Ceph Object Gateway reshard 대기열의 잠금 경합 메시지가 정보 표시로 표시됩니다.
이전 버전에서는 Ceph Object Gateway가 reshard 큐에서 잠금을 받지 못하면 출력 로그 항목이 고객에게 문제가 발생한 것으로 표시되었습니다.
이번 릴리스에서는 출력 로그의 항목이 정보로 표시되고 "INFO:"로 태그됩니다.
modulus 및 exponent를 사용하여 OIDC JWT 토큰 검증에 대한 지원을 사용할 수 있습니다.
이번 릴리스에서는 OIDC JSON 웹 토큰(JWT) 검증은 모듈러스 및 서명 계산에 지수를 사용할 수 있도록 지원합니다. 또한 OIDC JWT 검증에 사용 가능한 방법에 대한 지원을 확장합니다.
이제 임시 자격 증명에 대한 NetNamespace 로그에서 역할 이름 및 역할 세션 필드를 사용할 수 있습니다.
이전에는 역할 이름 및 역할 세션을 사용할 수 없었으며 관리자가 어떤 역할이 가정되었는지, 임시 자격 증명에 대해 활성 상태인지 확인하기 어려웠습니다.
이번 릴리스에서는 AssumeRole* API에서 반환하는 임시 자격 증명에 대한 역할 이름 및 역할 세션을 사용하여 S3 작업을 수행할 수 있습니다.
이제 사용자가 --bucket
인수를 사용하여 버킷 라이프사이클 처리
이번 릴리스에서는 radosgw-admin lc process
명령에 --bucket=BUCKET_NAME
인수를 제공하여 해당 버킷의 라이프사이클을 처리할 수 있습니다. 이 기능은 특정 버킷에 영향을 미치는 라이프사이클 문제를 디버깅하고 뒤따르는 특정 버킷의 라이프사이클 처리를 다시 채우는 데 편리합니다.
3.6. 다중 사이트 Ceph 개체 게이트웨이
다중 사이트 구성에서는 동적 버킷 인덱스 다시 지원
이전에는 다중 사이트 구성에 대한 버킷을 수동으로 다시 배치하는 경우에만 지원됩니다.
이번 릴리스에서는 다중 사이트 구성에서 동적 버킷 재스하드가 지원됩니다. 스토리지 클러스터를 업그레이드한 후 스토리지 클러스터의 다른 영역과 관계없이 radogw-admin 버킷을 사용하여 수동으로 또는 동적 재하드
명령을 사용하여 버킷을 다시 배치하도록 설정합니다.
3.7. RADOS
noautoscale
플래그를 사용하여 PG 자동 스케일러를 관리
이번 릴리스에서는 noautoscale
플래그를 사용하여 pg_autoscaler
를 켜
거나 전역적으로 해제
할 수 있습니다. 이 플래그는 기본적으로 꺼져
있습니다. 이 플래그가 설정되면 모든 풀에 pg_autoscale_mode
가 꺼집니다
.
자세한 내용은 Red Hat Ceph Storage Storage Strategies Guide 의 Manually updating autoscale profile 섹션을 참조하십시오.
사용자는 --bulk
플래그를 사용하여 풀을 생성할 수 있습니다.
이번 릴리스에서는 --bulk
플래그를 사용하여 풀을 생성할 수 있습니다. pg_autoscaler
의 프로필을 사용하고, 처음부터 더 나은 성능을 제공하며, 배치 그룹(PG)을 완전히 보완하고 풀 전체의 사용 비율이 아닌 경우에만 축소됩니다.
풀에 --bulk
플래그가 없는 경우 풀은 최소 PG로 시작됩니다.
bulk 플래그를 사용하여 풀을 생성하려면 다음을 수행합니다.
구문
ceph osd pool create POOL_NAME --bulk
기존 풀의 세트 대량 플래그를 설정하려면 다음을 수행합니다.
구문
ceph osd pool set POOL_NAME bulk TRUE/FALSE/1/0 ceph osd pool unset POOL_NAME bulk TRUE/FALSE/1/0
기존 풀의 대량 플래그를 가져오려면 다음을 수행합니다.
구문
ceph osd pool get POOL_NAME --bulk
4장. 기술 프리뷰
이 섹션에서는 Red Hat Ceph Storage 릴리스에 소개되거나 업데이트된 기술 프리뷰 기능에 대해 설명합니다.
기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있으며 프로덕션에 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
cephadm
부트스트랩 프로세스 지원 Red Hat Enterprise Linux 9
이번 릴리스에서는 Red Hat Enterprise Linux 8 기반 스토리지 cephadm
부트스트랩 프로세스에서 Red Hat Enterprise Linux 9를 지원합니다. 컨테이너는 Red Hat Enterprise Linux 9 서버가 필요한 Red Hat Enterprise Linux 8입니다.
멀티 사이트 복제 설정의 Ceph 개체 게이트웨이가 AWS 버킷 복제 API 기능의 하위 집합을 지원
이번 릴리스에서는 Ceph Object Gateway가 {Put, Get, Delete} Replication 작업을 포함하여 AWS 버킷 복제 API 기능의 하위 집합을 지원합니다. 이 기능을 사용하면 버킷-granularity 복제를 사용할 수 있으며, 또한 기존 Ceph Object Gateway 다중 사이트 복제 설정의 영역 내에서 버킷을 복제할 수 있다는 경고와 함께 최종 사용자 복제 제어를 제공합니다.
RADOS 상단에 있는 SQLite 가상 파일 시스템(VFS)을 사용할 수 있습니다.
이번 릴리스에서는 새로운 libcephsqlite
RADOS 클라이언트 라이브러리에서 RADOS 상단에 SQLite 가상 파일 시스템(VFS)을 제공합니다. 데이터베이스 및 저널은 여러 오브젝트에서 RADOS를 통해 스트라이핑되어 SQLite 클라이언트에서만 제한적으로 무제한 확장 및 처리량을 수행할 수 있습니다. SQLite를 사용하는 애플리케이션은 일반적으로 대체 vGPU를 지정하는 것만으로 최소한의 변경으로 Ceph 6443으로 변경될 수 있습니다.
NFS Ganesha 데몬을 배포하기 위한 Ingress
플래그
이번 릴리스에서는 --ingress
플래그를 사용하여 하나 이상의 NFS Ganesha 데몬을 배포할 수 있습니다. Ingress
서비스는 NFS 서버에 대한 부하 분산 및 고가용성을 제공합니다.
5장. 사용되지 않는 기능
이 섹션에서는 Red Hat Ceph Storage의 이번 릴리스까지 모든 마이너 릴리스에서 더 이상 사용되지 않는 기능에 대한 개요를 제공합니다.
더 이상 사용되지 않는 기능은 Red Hat Ceph Storage 5가 종료될 때까지 계속 지원됩니다. 사용되지 않는 기능은 이 제품의 향후 주요 릴리스에서 지원되지 않을 가능성이 높으며 새로운 배포에 구현하는 것은 권장되지 않습니다. 특정 주요 릴리스 내에서 더 이상 사용되지 않는 기능의 최신 목록은 최신 릴리스 노트를 참조하십시오.
CephFS에 대한 NFS 지원이 더 이상 사용되지 않음
CephFS에 대한 NFS 지원은 이제 OpenShift Data Foundation에서 향후 NFS 가용성을 위해 더 이상 사용되지 않습니다. OpenStack Manila의 NFS에 대한 Red Hat Ceph Storage 지원은 영향을 받지 않습니다. 더 이상 사용되지 않는 기능은 현재 릴리스 수명 동안 버그 수정 만 제공되며 향후 릴리스에서 제거될 수 있습니다. 이 기술에 대한 관련 문서는 "Limited Availability"로 식별됩니다.
iSCSI 지원이 더 이상 사용되지 않음
iSCSI 지원은 더 이상 사용되지 않으며 향후 NVMEoF가 지원됩니다. 더 이상 사용되지 않는 기능은 현재 릴리스 수명 동안 버그 수정 만 제공되며 향후 릴리스에서 제거될 수 있습니다. 이 기술에 대한 관련 문서는 "Limited Availability"로 식별됩니다.
Ceph 구성 파일이 더 이상 사용되지 않음
Ceph 구성 파일(ceph.conf
)은 더 이상 사용되지 않으며 Ceph Monitor에 저장된 새로운 중앙 집중식 구성을 사용합니다. 자세한 내용은 Red Hat Ceph Storage 구성 가이드의 Ceph 구성데이터베이스 섹션을 참조하십시오.
Ceph File System(CephFS)의 min_compat_client
매개변수가 더 이상 사용되지 않습니다.
min_compat_client
매개변수는 Red Hat Ceph Storage 5.0에서 더 이상 사용되지 않으며 Ceph File Systems(CephFS) 설정을 위해 새로운 클라이언트 기능이 추가되었습니다. 자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드 의 클라이언트 기능 섹션을 참조하십시오.
Ceph File System 하위 볼륨 그룹의 스냅샷이 더 이상 사용되지 않음
Red Hat Ceph Storage 5.0에서는 Ceph File System(CephFS) 하위 볼륨의 스냅샷 기능이 더 이상 사용되지 않습니다. 필요한 경우 기존 스냅샷을 나열하고 삭제할 수 있습니다. 자세한 내용은 Red Hat Ceph Storage Ceph File System 가이드 의 파일 시스템 하위 볼륨 그룹 목록 및 스냅샷 제거를 참조하십시오.
Cockpit Ceph 설치 프로그램이 더 이상 사용되지 않음
Cockpit Ceph 설치 프로그램을 사용하여 Red Hat Ceph Storage 클러스터 5 설치는 지원되지 않습니다. Cephadm을 사용하여 Red Hat Ceph Storage 클러스터를 설치합니다. 자세한 내용은 Red Hat Ceph Storage 설치 가이드를 참조하십시오.
6장. 버그 수정
이 섹션에서는 Red Hat Ceph Storage 릴리스에 수정된 사용자 영향이 있는 버그에 대해 설명합니다. 또한 이 섹션에는 이전 버전에서 발견된 수정된 알려진 문제에 대한 설명이 포함되어 있습니다.
6.1. Cephadm 유틸리티
.RGW.root
풀은 Ceph Object Gateway 다중 사이트 검사 중에 자동으로 생성되지 않습니다.
이전 버전에서는 cephadm
에서 Ceph Object Gateway 다중 사이트 검사를 통해 릴리스의 신호 회귀를 통해 수행되어 삭제 시 .rgw.root
풀이 생성 및 재생성되어 Ceph Object Gateway를 사용하지 않는 경우에도 사용자가 .rgw.root
풀에 고정되었습니다.
이번 수정을 통해 풀을 만든 검사가 제거되었으며 풀이 더 이상 생성되지 않습니다. 이미 시스템에 풀이 있지만 원하지 않는 사용자는 복구 문제 없이 삭제할 수 있습니다. 이 풀이 없는 사용자에게는 해당 풀이 자동으로 생성되지 않습니다.
6.2. Ceph 파일 시스템
대상 디렉터리가 가득 찼을 때 스프레이 항목을 다시 소개해도 실패하지 않습니다.
이전에는 Ceph 메타데이터 서버에 대한 참조가 있는 경우 링크되지 않은 파일을 다시 통합했습니다. 즉, 삭제된 파일에 하드 링크가 있거나 스냅샷의 일부였습니다. reintegration - 본질적으로 내부 이름 변경 작업이며 대상 디렉터리가 가득 차면 실패합니다. 이로 인해 Ceph 메타데이터 서버가 stray 또는 deleted 항목을 다시 시작하지 못했습니다.
이번 릴리스에서는 스프레이 항목을 다시 설치하는 동안 전체 공간 검사를 무시하고 대상 디렉터리가 가득 찬 경우에도 이러한 stray 항목이 다시 통합됩니다.
새 클라이언트에서 메트릭을 수신할 때 MDS 데몬이 더 이상 충돌하지 않습니다.
이전에는 특정 시나리오에서는 이전 CephFS 클러스터에 최신 클라이언트를 사용했습니다. 이전 CephFS, cephadm
또는 mgr
를 업그레이드하는 동안 최신 클라이언트를 사용하여 이전 Ceph 클러스터에서 검사, 테스트 또는 구성을 수행했습니다. 이로 인해 최신 클라이언트에서 알 수 없는 메트릭을 수신할 때 MDS 데몬이 충돌했습니다.
이번 수정으로 libceph
클라이언트는 기본적으로 MDS 데몬에서 지원하는 지표만 MDS로 보냅니다. 사용자가 안전한 것으로 생각하는 경우에도 모든 메트릭을 강제 활성화하는 추가 옵션입니다.
동시 조회 및 연결 해제 작업 중에 Ceph Metadata Server가 더 이상 충돌하지 않음
이전에는 코드에 어설션이 잘못 가정되어 Ceph 클라이언트에서 동시 조회 및 연결 해제 작업이 충돌하여 Ceph Metadata Server가 충돌했습니다.
최신 수정에서는 동시 조회 및 연결 해제 작업 중에 가정이 유효하여 Ceph 클라이언트 작업을 중단하지 않고 Ceph 클라이언트 작업을 지속적으로 제공하는 관련 위치로 어설션을 이동합니다.
6.3. Ceph Object Gateway
FIPS 환경에서 암호가 아닌 목적으로 MD5를 사용할 수 있습니다.
이전 버전에서는 FIPS 지원 환경에서 비 암호화 목적으로 명시적으로 제외하지 않는 한 MD5 다이제스트의 사용이 기본적으로 허용되지 않았습니다. 이로 인해 S3 전체 멀티 파트 업로드 작업 중에 분할이 발생했습니다.
이번 수정으로 S3 전체 multipart PUT
작업을 위한 FIPS 환경에서 암호가 아닌 목적으로 MD5를 사용할 수 있으며 S3 다중 파트 작업을 완료할 수 있습니다.
6.4. RADOS
Ceph-objectstore-tool
명령을 사용하면 누적 PG 로그 dups 항목을 수동으로 트리밍할 수 있습니다.
이전에는 PG 로그 dups 항목의 트리밍이 낮은 수준의 PG 분할 작업 중에 방지되었으며 작업자보다 빈도가 훨씬 높습니다. dups의 트리밍을 중지하면 PG 로그의 상당한 메모리 증가로 인해 메모리가 부족해 OSD 충돌이 발생했습니다. PG 로그가 디스크에 저장되고 시작 시 RAM으로 다시 로드되므로 OSD를 다시 시작하지 못했습니다.
이번 수정을 통해 ceph-objectstore-tool
명령을 사용하면 누적된 PG 로그 dups 항목을 수동으로 트리밍하여 자동 트리밍 머신을 차단 해제할 수 있습니다. 향후 조사를 지원하기 위해 dups 항목 수를 OSD의 로그에 출력하는 디버그 개선 사항이 구현됩니다.
6.5. RBD 미러링
스냅샷 기반 미러링 프로세스가 더 이상 취소되지 않음
이전 버전에서는 내부 경쟁 조건으로 rbd 미러 스냅샷 일정 추가
명령이 취소되었습니다. 다른 기존 일정이 적용되지 않은 경우 영향을 받는 이미지의 스냅샷 기반 미러링 프로세스가 시작되지 않습니다.
이번 릴리스에서는 경쟁 조건이 수정되고 스냅샷 기반 미러링 프로세스가 예상대로 시작됩니다.
기존 일정을 사용하면 이미지를 1차로 승격할 때 적용됩니다.
이전 버전에서는 일치하지 않는 최적화로 인해 기존 일정이 이미지 승격에 따라 최근 승격된 이미지를 시작할 수 없었습니다.
이번 릴리스에서는 최적화 causing this issue is removed and the existing schedules now take effect when an image is promoted to primary and the snapshot-based mirroring process starts as expected.
RBD-mirror 데몬에서
더 이상 배타적 잠금을 가져오지 않습니다.
이전 버전에서는 논리 오류로 인해 rbd-mirror
데몬이 de- facto 기본 이미지에서 배타적 잠금을 가져올 수 있었습니다. 이로 인해 영향을 받는 이미지의 스냅샷 기반 미러링 프로세스가 중지되어 "원격 이미지에서 로컬 피어를 연결 해제" 오류가 보고됩니다.
이번 릴리스에서는 logic 오류가 수정되어 rbd-mirror
데몬이 de- substantiallyo 기본 이미지에서 독점적 잠금을 획득하지 않으며 스냅샷 기반 미러링 프로세스는 예상대로 중지 및 작동하지 않습니다.
rbd-mirror
에서 사용하는 미러 스냅샷 큐가 확장되어 더 이상 제거되지 않습니다.
이전 버전에서는 내부 경쟁 조건으로 인해 보조 클러스터의 rbd-mirror
데몬에서 사용하는 미러 스냅샷이 제거되어 영향을 받는 이미지의 스냅샷 기반 미러링 프로세스가 중지되어 "split-tekton" 오류가 보고되었습니다.
이번 릴리스에서는 미러 스냅샷 큐가 길이로 확장되고 미러 스냅샷 정리 절차가 수정되어 보조 클러스터의 rbd-mirror
데몬에서 여전히 사용 중인 미러 스냅샷의 자동 제거를 수정하고 스냅샷 기반 미러링 프로세스가 중지되지 않습니다.
6.6. Ceph Ansible 유틸리티
adoption Playbook을 사용하여 OSD 노드에 cephadm
을 설치할 수 있습니다.
이전에는 OSD 노드에서 툴 리포지토리를 비활성화했기 때문에 cephadm
OSD 노드를 설치할 수 없어 채택 플레이북이 실패했습니다.
이번 수정으로 OSD 노드에서 툴 리포지토리가 활성화되고 adoption 플레이북은 이제 OSD 노드에 cephadm
을 설치할 수 있습니다.
레거시 디렉터리를 제거하면 오류가 없는 클러스터 후 채택 가능
이전 버전에서는 /var/lib/ceph/mon
과 같은 레거시 디렉터리를 찾을 때마다 cephadm
에서 'config inferring' 함수로 예기치 않은 동작을 표시했습니다. 이러한 동작으로 인해 채택 후 클러스터에 "CEPHADM_REFRESH_FAILED: 데몬 또는 장치 검색 실패" 오류가 발생했습니다.
이번 릴리스에서는 adoption Playbook을 사용하면 이 디렉터리를 제거하면 채택 후 클러스터가 오류 상태가 되지 않습니다.
7장. 확인된 문제
이 섹션에서는 이 Red Hat Ceph Storage 릴리스에서 발견된 알려진 문제에 대해 설명합니다.
7.1. Ceph Object Gateway
yes-i-know
플래그를 사용하여 Red Hat Ceph Storage 클러스터 5.1을 부트스트랩
Red Hat Ceph Storage 클러스터 5.1에서 다중 사이트 설정에 대해 사용자가 경고합니다.
이 문제를 해결하려면 부트 스트랩 중에 yes-i-know
플래그를 전달해야 합니다.
구문
sudo --image IMAGE_NAME bootstrap --mon-ip IP_ADDRESS --yes-i-know
Red Hat Ceph Storage 5.1로 업그레이드하는 동안 사용자에게 경고가 표시됩니다.
이전 버전에서는 Red Hat Ceph Storage 5.0에서 버킷이 다시 배치되어 Red Hat Ceph Storage 5.1 Ceph Object Gateway 데몬에서 이해할 수 없었기 때문에 업그레이드 경고 또는 차단자가 Red Hat Ceph Storage 5.1로 업그레이드하는 모든 사용자가 문제를 인식하고 이전에 Red Hat Ceph Storage 5.1을 사용하는 경우 성능이 저하될 수 있었습니다.
이 문제를 해결하려면 ceph config set mgr/cephadm/yes_i_know true --force
명령을 실행하여 warning 또는 blocker를 제거하고 모든 작업을 정상으로 반환합니다. 사용자는 Red Hat Ceph Storage 5.1로 업그레이드하기 전에 Ceph Object Gateway 문제를 알고 있어야 합니다.
플래그가 전달되지 않으면 다중 사이트 회귀에 대한 오류 메시지와 문제에 대한 지식 기반 문서에 대한 링크가 표시됩니다.
8장. 문서
이 섹션에는 Red Hat Ceph Storage 릴리스의 문서 개선 사항이 나와 있습니다.
8.1. 업그레이드 가이드
업그레이드 지침은 이제 별도의 가이드에서 확인할 수 있습니다.
업그레이드 지침은 설치 가이드 내에서 더 이상 제공되지 않으며 이제 별도의 가이드로 제공됩니다. Red Hat Ceph Storage 클러스터 업그레이드 방법에 대한 자세한 내용은 Red Hat Ceph Storage 업그레이드 가이드 를 참조하십시오.
9장. 소스
업데이트된 Red Hat Ceph Storage 소스 코드 패키지는 다음 위치에서 사용할 수 있습니다.
- Red Hat Enterprise Linux 8의 경우: http://ftp.redhat.com/redhat/linux/enterprise/8Base/en/RHCEPH/SRPMS/