릴리스 노트

Red Hat Ceph Storage 4.3

Red Hat Ceph Storage 4.3 릴리스 노트

Red Hat Ceph Storage Documentation Team

초록

릴리스 노트에서는 Red Hat Ceph Storage 4.3 제품 릴리스에 구현된 주요 기능, 개선 사항, 알려진 문제 및 버그 수정 사항에 대해 설명합니다. 이 릴리스 노트에는 현재 릴리스까지 이전 Red Hat Ceph Storage 4.2 릴리스의 이전 릴리스 노트가 포함되어 있습니다.
Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지에서 참조하십시오.

1장. 소개

Red Hat Ceph Storage는 Ceph 스토리지 시스템의 가장 안정적인 버전을 Ceph 관리 플랫폼, 배포 유틸리티 및 지원 서비스와 결합하는 대규모 확장이 가능한 오픈 소프트웨어 정의 스토리지 플랫폼입니다.

Red Hat Ceph Storage 문서는 https://access.redhat.com/documentation/en/red-hat-ceph-storage/ 에서 확인할 수 있습니다.

2장. 감사 인사

Red Hat Ceph Storage 버전 4.3에는 Red Hat Ceph Storage 팀의 많은 기여가 포함되어 있습니다. 또한 Ceph 프로젝트는 Ceph 커뮤니티의 개인 및 조직의 품질 및 기여 횟수가 크게 증가하고 있습니다. Red Hat Ceph Storage 팀의 모든 구성원, Ceph 커뮤니티의 개별 기여자 모두 다음과 같은 조직의 기여도에 대해 감사의 말씀을 전합니다.

  • Intel®
  • Fujitsu®
  • UnitedStack
  • Cryostat ™
  • Ubuntu Kylin
  • Mellanox ®
  • CERN ™
  • Deutsche Telekom
  • Mirantis ®
  • SanDisk ™
  • SUSE

3장. 새로운 기능

이 섹션에는 Red Hat Ceph Storage 릴리스에 도입된 모든 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.

3.1. Ceph Ansible 유틸리티

이제 사용자는 대시보드 및 모니터링 스택만 제거할 수 있습니다.

이전에는 사용자가 Ceph Manager 대시보드 및 Monitoring 스택 구성 요소(예: Alertmanager, Prometheus, Grafana, node-exporter)만 제거할 수 없었습니다.

'purge-dashboard.yml ' 플레이북을 사용하면 사용자가 대시보드 및 모니터링 스택 구성 요소만 제거할 수 있습니다.

osd_auto_discovery: true 를 사용하여 스토리지 클러스터 제거: true는 클러스터를 제거하고 Ceph OSD를 제거합니다.

이전에는 osd_auto_discovery: true 로 배포된 스토리지 클러스터를 제거해도 Ceph OSD가 제거되지 않았습니다. 이번 릴리스에서는 제거 플레이북이 예상대로 작동하고 osd_auto_discovery: true 시나리오를 사용하여 스토리지 클러스터가 배포될 때 Ceph OSD를 제거합니다.

Alertmanager 구성은 사용자 지정할 수 있습니다.

이번 릴리스에서는 /group_vars/all.yml 파일에서 alertmanager_conf_overrides 매개변수를 사용하여 Alertmanager 구성을 사용자 지정할 수 있습니다.

Red Hat Ceph Storage 대시보드 배포는 전용 네트워크에서 지원됩니다.

이전에는 ceph-ansible 에서 대시보드 배포에 사용해야 하는 주소가 public_network 와 동일한 서브넷에 있다고 했습니다.

이번 릴리스에서는 /group_vars/all.yml 파일에서 CIDR 서브넷 주소를 사용하여 dashboard_network 매개변수를 설정하여 대시보드의 기본 전용 서브넷을 덮어쓸 수 있습니다.

구성 파일에서 글로벌 NFS 옵션 설정이 지원됩니다.

이전에는 ceph-ansible 에서 구성 파일의 매개 변수를 재정의할 수 없었습니다.

이번 릴리스에서는 group_vars/all.yml에 ganesha_core_param_overrides 변수를 설정하고 클라이언트 관련 구성을 업데이트하여 ganesha.conf 파일의 NFS_CORE_PARAM 블록 섹션에서 모든 매개변수를 덮어쓸 수 있습니다.

Ceph-ansible 은 업그레이드를 시작하기 전에 Ceph Monitor 쿼럼을 확인합니다.

이전 버전에서는 Ceph 모니터 중 하나로 인해 스토리지 클러스터가 HEALTH ERR 또는 HEALTH WARN 상태가 되면 rolling_upgrade.yml 플레이북이 실행되었습니다. 그러나 업그레이드에 실패하고 쿼럼이 손실되어 I/O 다운 또는 클러스터 오류가 발생했습니다.

이번 릴리스에서는 업그레이드를 시작하기 전에 ceph-ansible 에서 Ceph Monitor 쿼럼을 확인하는 추가 조건이 발생합니다.

컨테이너화된 배포의 systemd 대상 단위가 지원됨

이전에는 컨테이너화된 배포의 노드에서 모든 Ceph 데몬을 중지할 수 없었습니다.

이번 릴리스에서는 컨테이너화된 배포의 systemd 대상 장치가 지원되며 베어 메탈 배포와 유사한 호스트 또는 특정 Ceph 데몬의 모든 Ceph 데몬을 중지할 수 있습니다.

Ceph-ansible 에서 플레이북을 실행하기 전에 업그레이드 중에 관련 릴리스 버전을 확인합니다.

이번 릴리스에서는 스토리지 클러스터를 업그레이드하는 동안 ceph-ansible 이 먼저 관련 릴리스 버전을 확인하고 잘못된 Ceph 버전이 제공된 경우 오류 메시지와 함께 플레이북을 실패합니다.

3.2. Ceph 관리 대시보드

Ceph Object Gateway 다중 사이트 설정에 대한 그래프를 표시하는 새 Grafana 대시보드

이번 릴리스에서는 새로운 Grafana 대시보드를 사용할 수 있으며 양방향 복제 처리량, 폴링 대기 시간, 복제 실패 등을 포함하여 Ceph Object Gateway 다중 사이트 동기화 성능에 대한 그래프를 표시합니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph개체 게이트웨이 데몬 모니터링 섹션을 참조하십시오.

3.3. Ceph 파일 시스템

max_concurrent_clones 옵션을 사용하여 복제 스레드 수 구성

이전에는 동시 복제 수를 구성할 수 없으며 기본값은 4였습니다.

이번 릴리스에서는 manager 구성 옵션을 사용하여 최대 동시 복제 수를 구성할 수 있습니다.

구문

ceph config set mgr mgr/volumes/max_concurrent_clones VALUE

최대 동시 복제 수를 늘리면 스토리지 클러스터의 성능이 향상될 수 있습니다.

3.4. Ceph Object Gateway

역할 이름 및 역할 세션 정보는 S3 작업의 ops 로그에 표시됩니다.

이번 릴리스에서는 디버깅 및 감사 목적으로 AssumeRole* 작업에서 반환된 임시 인증 정보를 사용하는 모든 S3 작업에 대해 ops 로그의 역할 이름 및 역할 세션과 같은 정보를 가져옵니다.

3.5. 다중 사이트 Ceph Object Gateway

데이터 동기화 로깅에 처리 지연이 발생했습니다

이전에는 데이터 동기화 로깅이 로그 항목의 큰 백로그 처리를 지연할 수 있었습니다.

이번 릴리스에서는 데이터 동기화에 버킷 동기화 상태에 대한 캐싱이 포함됩니다. 캐시를 추가하면 백로그가 존재할 때 중복된 데이터 로그 항목을 처리하는 속도가 빨라집니다.

4장. 기술 프리뷰

이 섹션에서는 이 Red Hat Ceph Storage 릴리스에서 도입되거나 업데이트된 기술 프리뷰 기능에 대한 개요를 제공합니다.

중요

기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원하지 않으며, 기능상 완전하지 않을 수 있어 프로덕션에 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능 지원 범위에 대한 자세한 내용은 https를 참조하십시오.

4.1. 블록 장치(RBD)

RBD 이미지를 NBD 이미지에 매핑

rbd-nbd 유틸리티는 RADOS Block Device(RBD) 이미지를 NBD(Network Block Devices)에 매핑하고 Ceph 클라이언트가 Kubernetes 환경의 볼륨 및 이미지에 액세스할 수 있도록 합니다. rbd-nbd 를 사용하려면 rbd-nbd 패키지를 설치합니다. 자세한 내용은 rbd-nbd(7) 매뉴얼 페이지를 참조하십시오.

4.2. Object Gateway

Object Gateway 아카이브 사이트

이 릴리스에서는 아카이브 사이트가 기술 프리뷰로 지원됩니다. 아카이브 사이트에서는 아카이브 영역과 연결된 게이트웨이를 통해서만 제거할 수 있는 S3 오브젝트 버전의 기록을 보유할 수 있습니다. 다중 영역 구성에 아카이브 영역을 포함하면 하나의 영역에서 S3 오브젝트 기록의 유연성을 유지하면서 나머지 영역에서 사용할 버전 S3 오브젝트의 복제본을 저장할 수 있습니다.

5장. 사용되지 않는 기능

이 섹션에서는 Red Hat Ceph Storage 릴리스까지 모든 마이너 릴리스에서 더 이상 사용되지 않는 기능에 대한 개요를 제공합니다.

Ubuntu는 더 이상 지원되지 않음

Ubuntu에 Red Hat Ceph Storage 4 클러스터를 설치하는 것은 더 이상 지원되지 않습니다. Red Hat Enterprise Linux를 기본 운영 체제로 사용합니다.

ceph-ansible 을 사용하여 iSCSI 게이트웨이 구성은 더 이상 지원되지 않습니다.

ceph-ansible 유틸리티를 사용하여 Ceph iSCSI 게이트웨이를 구성하는 것은 더 이상 지원되지 않습니다. ceph-ansible 을 사용하여 게이트웨이를 설치한 다음 의 gwcli 유틸리티를 사용하여 Ceph iSCSI 게이트웨이를 구성합니다. 자세한 내용은 Red Hat Ceph Storage 블록 장치 가이드의 Ceph iSCSI 게이트웨이 장을 참조하십시오.

Ceph-disk 가 더 이상 사용되지 않음

ceph-disk 유틸리티는 더 이상 지원되지 않습니다. ceph-volume 유틸리티가 대신 사용됩니다. 자세한 내용은 Red Hat Ceph Storage 4 관리 가이드 ceph-volume 대체 'ceph-disk' 섹션을 참조하십시오.

Filestore는 더 이상 프로덕션에서 지원되지 않습니다.

새로운 BlueStore 백엔드가 이제 프로덕션에서 완전히 지원되므로 FileStore OSD 백엔드가 더 이상 사용되지 않습니다. 자세한 내용은 Red Hat Ceph Storage 설치 가이드 의 FileStore에서 BlueStore로 오브젝트 저장소를 마이그레이션하는 방법을 참조하십시오.

Ceph 구성 파일이 더 이상 사용되지 않음

Ceph 구성 파일(ceph.conf)이 더 이상 사용되지 않으며 Ceph 모니터에 저장된 새로운 중앙 집중식 구성이 우선합니다. 자세한 내용은 Red Hat Ceph Storage 구성 가이드의 Ceph 구성 데이터베이스 섹션을 참조하십시오.

6장. 버그 수정

이 섹션에서는 이 Red Hat Ceph Storage 릴리스에서 수정된 사용자에게 상당한 영향을 미치는 버그에 대해 설명합니다. 또한 섹션에는 이전 버전에서 발견된 수정된 알려진 문제에 대한 설명이 포함되어 있습니다.

6.1. Ceph Ansible 유틸리티

자체 서명 또는 신뢰할 수 없는 인증서가 사용되는 경우 Alertmanager에서 오류를 기록하지 않습니다.

이전에는 신뢰할 수 없는 CA 인증서를 사용할 때 Alertmanager에서 로그에 많은 오류가 발생했습니다.

이번 릴리스에서는 self_ vars/all.yml 파일에서 alertmanager_dashboard_api_no_ssl_verify: true 를 설정하여 alertmanager.yml 파일에서 insecure_skip_verify 매개변수를 true로 설정할 수 있으며, Alertmanager는 서명되지 않거나 신뢰할 수 없는 인증서를 사용할 때 Alertmanager에서 해당 오류를 더 이상 로깅하지 않고 예상대로 작동합니다.

(BZ#1936299)

다중 사이트 구성에서 HTTPS가 활성화된 경우 FQDN(정규화된 도메인 이름) 사용

이전 버전에서는 다중 사이트 Ceph 구성에서 ceph-ansible 이 HTTP와 HTTPS를 구분하지 않고 HTTPS가 활성화되었을 때 호스트 이름 대신 IP 주소로 영역 끝점을 설정했습니다.

이번 릴리스에서는 HTTPS가 활성화되고 영역 끝점이 FQDN으로 설정되어 TLS 인증서 CN과 일치할 때 ceph-ansible 은 IP 주소 대신 FQDN(정규화된 도메인 이름)을 사용합니다.

(BZ#1965504)

systemd 파일에서 docker의 경우 --pid-limits 매개변수를 -1 로, podman 및 0 을 추가하여 컨테이너를 시작합니다.

이전에는 컨테이너에서 실행할 수 있는 프로세스 수, docker의 경우 podman 및 4096의 경우 2048로, 이러한 제한보다 많은 프로세스를 시작하는 데 필요한 일부 컨테이너를 시작하기에 충분하지 않았습니다.

이번 릴리스에서는 --pid-limits 매개변수를 -1 로, systemd 장치 파일에서 docker의 경우 0 으로 추가하여 시작할 수 있는 최대 프로세스의 제한을 제거할 수 있습니다. 결과적으로 기본 제한보다 더 많은 프로세스를 실행해야 하는 내부 프로세스를 사용자 지정하는 경우에도 컨테이너가 시작됩니다.

(BZ#1987041)

Ceph-ansible 은 프록시 뒤의 전용 작업에서 모니터링 컨테이너 이미지를 가져옵니다.

이전에는 ceph-ansible 이 전용 작업에서 Alertmanager, Prometheus, node-exporter 및 Grafana와 같은 모니터링 컨테이너 이미지를 가져오지 않았으며 systemd 서비스가 시작될 때 이미지를 가져왔습니다.

이번 릴리스에서는 ceph-ansible 이 프록시 뒤에서 모니터링 컨테이너 이미지 가져오기를 지원합니다.

(BZ#1995574)

ceph-ansible Playbook은 radosgw 시스템 사용자를 생성하고 예상대로 작동합니다.

이전에는 ceph-ansible 플레이북이 radosgw 시스템 사용자를 생성하지 못하고 다중 사이트 배포에서 rgw_instanceshost_vars 또는 group_vars 수준에서 설정된 경우 대시보드를 배포하지 못했습니다. 이 변수는 Ceph Monitor 노드에서 설정되지 않으며 작업이 위임된 경우 실패했습니다.

이번 릴리스에서는 ceph-ansible 이 정의된 모든 Ceph Object Gateway 인스턴스를 확인하고 하나 이상의 인스턴스에 rgw_zonemaster 가 'True'로 설정되어 있는지 확인하도록 부울 팩트를 설정합니다. radosgw 시스템 사용자가 생성되고 플레이북이 예상대로 작동합니다.

(BZ#2034595)

--limit 옵션과 함께 사용하면 Ansible 플레이북이 실패하지 않습니다.

이전 버전에서는 --limit 옵션을 사용하여 Ansible 플레이북을 실행할 때 dashboard_server_addr 매개변수가 설정되지 않았으며 플레이 대상이 비collocated 시나리오의 Ceph Manager 호스트와 일치하지 않으면 플레이북이 실패했습니다.

이번 릴리스에서는 Ceph Manager 노드에서 dashboard_server_addr 매개변수를 설정해야 하며 플레이북이 예상대로 작동합니다.

(BZ#2063029)

6.2. Ceph 관리 대시보드

Grafana 대시보드의 "MGR" 패널이 "MGR"으로 교체됨

이전에는 "Client Connection" 패널에 Ceph 파일 시스템 정보가 표시되었으며 의미가 없었습니다.

이번 릴리스에서는 "MGR"이 "Client Connection" 패널을 교체하고 활성 및 대기 Ceph Manager의 개수를 표시합니다.

(BZ#1992178)

Red Hat Ceph Storage 대시보드는 디스크 IOPS 값을 표시합니다.

이전에는 Red Hat Ceph Storage 대시보드에서 Hosts 탭에 Ceph OSD 디스크 성능을 표시하지 않았습니다.

이번 릴리스에서는 Red Hat Ceph Storage 대시보드에 Ceph OSD, 호스트 세부 정보 및 Grafana 그래프에 대한 예상 정보가 표시됩니다.

(BZ#1992246)

6.3. Ceph Volume 유틸리티

새 OSD를 생성하는 동안 add-osd.yml 플레이북이 더 이상 실패하지 않음

이전에는 ceph-ansible 을 사용하여 새 OSD를 추가할 때 add-osd.yml 플레이북이 실패했습니다. 이는 비대화형 모드에서 새 OSD를 추가할 수 없는 ceph-volume lvm 배치 제한 때문입니다.

이번 릴리스에서는 --yes--report 옵션이 명령줄 인터페이스에 전달되지 않으며 새 OSD를 생성할 때 add-osd.yml 플레이북이 예상대로 작동합니다.

(BZ#1896803)

6.4. Ceph Object Gateway

rgw_bucket_quota_soft_threshold 매개변수가 비활성화되어 있습니다.

이전 버전에서는 캐시된 사용률이 rgw_bucket_quota_soft_threshold 에 도달하면 Ceph Object Gateway에서 버킷 인덱스에서 사용률 정보를 가져왔습니다. 이로 인해 버킷 인덱스 및 느린 요청에 대한 작업이 발생했습니다.

이 릴리스에서는 rgw_bucket_quota_soft_threshold 매개변수를 제거하고 캐시된 통계를 사용하여 할당량 제한에 거의 도달하더라도 성능이 향상됩니다.

(BZ#1965314)

radosgw-admin datalog trim 명령은 마커를 트리밍하는 동안 충돌하지 않습니다.

이전에는 논리 오류로 인해 radosgw-admin datalog trim 명령으로 현재 생성의 마커를 radosgw-admin 에서 트리밍할 때 충돌했습니다.

이번 릴리스에서는 radosgw-admin datalog trim 명령 충돌 없이 논리 오류 및 로그 트리밍이 수행됩니다.

(BZ#1981860)

6.5. Ceph Manager 플러그인

클러스터 상태 변경 사항이 더 이상 영구 스토리지에 커밋되지 않음

이전 버전에서는 스토리지 클러스터의 상태를 빠르게 변경하면 ceph.audit.log 에 과도하게 로깅되었습니다.

이번 릴리스에서는 health_historyceph.audit.log 에 기록되지 않고 클러스터 상태 변경 사항이 더 이상 영구 스토리지에 커밋되지 않습니다.

(BZ#2004738)

7장. 확인된 문제

이 섹션에서는 이 Red Hat Ceph Storage 릴리스에서 발견된 알려진 문제에 대해 설명합니다.

7.1. Ceph 관리 대시보드

Disk AVG utilization panel shows N/A on the Red Hat Ceph Storage Dashboard

Red Hat Ceph Storage 대시보드는 Overall 호스트 성능 AVG 디스크 사용률 패널에서 N/A 값을 표시하므로 잘못된 Grafana 쿼리를 표시합니다.

7.2. Ceph Object Gateway

지정된 버킷에 대한 라이프사이클 처리가 "PROCESSING" 상태로 유지됨

지정된 버킷에 대한 라이프사이클 처리가 진행 중일 때 Ceph Object Gateway 서버가 예기치 않게 다시 시작되면 해당 버킷은 최소 두 개의 스케줄링 주기에 대한 처리 라이프사이클 작업을 재개하지 않고 "PROCESSING" 상태로 유지됩니다. 이는 특히 디버깅이 프로덕션에서 진행되는 경우 여러 Ceph Object 게이트웨이 인스턴스 또는 스레드가 동일한 버킷을 동시에 처리하는 것을 방지하기 위한 것으로 예상되는 동작입니다. 향후 릴리스에서는 디버깅이 활성화되지 않은 경우 다음 날 라이프사이클 처리가 다시 시작됩니다.

(BZ#2072681)

7.3. Ceph Ansible 유틸리티

시작 중에 Ceph 컨테이너가 실패합니다.

Red Hat Enterprise Linux-8.7 이상에서 Red Hat Ceph Storage-4.3.z1의 새로운 배포 또는 Red Hat Ceph Storage-4.3.z1을 호스트 OS와 함께 5.X로 업그레이드하면 TASK [ceph-mgr : TASK [ceph-mgr : 모든 mgr이 가동될 때까지 기다립니다]. Red Hat Enterprise Linux 8.7에서 릴리스된 podman 의 동작이 SELinux 재레이블링과 관련하여 변경되었습니다. 이로 인해 시작 순서에 따라 일부 Ceph 컨테이너가 필요한 파일에 액세스할 수 없으므로 시작되지 않았습니다.

이 문제를 해결하려면 ' ceph mgr dump' 명령을 실행하는 동안 Knowledge base RHCS 4.3 설치가 실패합니다.

(BZ#2235299)

8장. 소스

업데이트된 Red Hat Ceph Storage 소스 코드 패키지는 다음 위치에서 사용할 수 있습니다.

법적 공지

Copyright © 2023 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.