릴리스 노트

Red Hat Ceph Storage 4.3

Red Hat Ceph Storage 4.3 릴리스 노트

초록

릴리스 노트에서는 Red Hat Ceph Storage 4.3 제품 릴리스에 구현된 주요 기능, 개선 사항, 알려진 문제 및 버그 수정을 설명합니다. 이 릴리스 노트에는 이전 Red Hat Ceph Storage 4.2 릴리스의 이전 릴리스 노트가 포함되어 있습니다.
Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

1장. 소개

Red Hat Ceph Storage는 Ceph 스토리지 시스템의 안정적인 버전을 Ceph 관리 플랫폼, 배포 유틸리티 및 지원 서비스와 결합하는 대규모 확장이 가능한 오픈 소프트웨어 정의 스토리지 플랫폼입니다.

Red Hat Ceph Storage 문서는 https://access.redhat.com/documentation/en/red-hat-ceph-storage/ 에서 확인할 수 있습니다.

2장. 감사 인사

Red Hat Ceph Storage 버전 4.2에는 Red Hat Ceph Storage 팀의 많은 기여가 포함되어 있습니다. 또한 Ceph 프로젝트는 Ceph 커뮤니티의 개인 및 조직의 기여도와 품질 및 수량에서 놀라운 성장을 경험하고 있습니다. Red Hat Ceph Storage 팀의 모든 구성원, Ceph 커뮤니티의 개별 기여자, 그리고 다음과 같은 조직의 기여에 국한되지는 않지만 이에 국한되지는 않습니다.

  • Intel
  • Fujitsu
  • UnitedStack
  • Yahoo
  • Ubuntu Kylin
  • Mellanox
  • CERN
  • Deutsche Telekom
  • Mirantis
  • SanDisk
  • SUSE

3장. 새로운 기능

이 섹션에는 Red Hat Ceph Storage 릴리스에 도입된 모든 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.

이 릴리스에서 추가된 주요 기능은 다음과 같습니다.

  • 버킷의 다중 사이트 동적 재하드 지원.

3.1. Ceph Ansible 유틸리티

이제 사용자가 대시보드 및 모니터링 스택만 삭제할 수 있습니다.

이전에는 Alertmanager, Prometheus, Grafana 및 node-exporter와 같은 Ceph Manager 대시보드 및 모니터링 스택 구성 요소만 삭제할 수 없었습니다.

'purge-dashboard.yml ' playbook을 사용하면 대시보드와 모니터링 스택 구성 요소만 제거할 수 있습니다.

osd_auto_discovery: true 로 스토리지 클러스터를 제거하고 Ceph OSD를 제거합니다.

이전 버전에서는 osd_auto_discovery: true 로 배포된 스토리지 클러스터를 제거해도 Ceph OSD가 제거되지 않았습니다. 이번 릴리스에서는 제거 플레이북이 예상대로 작동하고 스토리지 클러스터가 osd_auto_discovery: true 시나리오를 사용하여 배포되는 경우 Ceph OSD를 제거합니다.

Alertmanager 설정을 사용자 지정할 수 있습니다.

이번 릴리스에서는 /group_vars/all.yml 파일의 alertmanager_conf_overrides 매개변수를 사용하여 Alertmanager 구성을 사용자 지정할 수 있습니다.

Red Hat Ceph Storage 대시보드 배포는 전용 네트워크에서 지원됩니다.

이전에는 ceph-ansible 에서 대시보드 배포에 사용해야 하는 주소가 public_network 와 동일한 서브넷에 있다고 설명했습니다.

이번 릴리스에서는 CIDR 서브넷 주소로 /group_vars/all.yml 파일의 dashboard_network 매개변수를 설정하여 대시보드의 기본 전용 서브넷을 덮어쓸 수 있습니다.

구성 파일에서 글로벌 NFS 옵션 설정이 지원됩니다.

이전에는 ceph-ansible 에서 구성 파일의 매개 변수를 재정의하는 것을 허용하지 않았습니다.

이번 릴리스에서는 ganesha.conf 파일의 NFS_CORE_PARAM 블록 섹션에 있는 모든 매개변수를 재정의할 수 있습니다. group_vars/all.yml에서 ganesha_core_param_overrides 변수를 설정하고 클라이언트 관련 구성을 업데이트할 수 있습니다.

Ceph-ansible 은 업그레이드를 시작하기 전에 Ceph Monitor 쿼럼을 확인합니다.

이전에는 Ceph 모니터 중 하나가 down으로 인해 스토리지 클러스터가 HEALTH ERR 또는 HEALTH WARN 상태에 있는 경우 rolling_upgrade.yml 플레이북이 실행됩니다. 그러나 업그레이드에 실패하고 쿼럼이 손실되어 I/O 다운 또는 클러스터 오류가 발생했습니다.

이번 릴리스에서는 업그레이드를 시작하기 전에 ceph-ansible 에서 Ceph Monitor 쿼럼을 확인하는 추가 조건이 발생합니다.

컨테이너화된 배포의 systemd 대상 단위가 지원됩니다.

이전에는 컨테이너화된 배포의 노드에서 모든 Ceph 데몬을 중지할 수 없었습니다.

이번 릴리스에서는 컨테이너화된 배포의 systemd 대상 장치가 지원되며 베어 메탈 배포와 유사한 호스트 또는 특정 Ceph 데몬의 모든 Ceph 데몬을 중지할 수 있습니다.

이제 Ceph-ansible 에서 플레이북을 실행하기 전에 업그레이드 중에 관련 릴리스 버전을 확인합니다.

이번 릴리스에서는 스토리지 클러스터를 업그레이드하는 동안 ceph-ansible 이 먼저 관련 릴리스 버전을 확인하고 잘못된 Ceph 버전이 제공되는 경우 플레이북에 오류 메시지가 표시됩니다.

3.2. Ceph 관리 대시보드

Ceph Object Gateway 다중 사이트 설정에 대한 그래프를 표시하는 새로운 Grafana 대시보드

이번 릴리스에서는 새로운 Grafana 대시보드를 사용할 수 있으며 양방향 복제 처리량, 폴링 대기 시간 및 실패한 복제를 포함하여 Ceph Object Gateway 다중 사이트 동기화 성능에 대한 그래프가 표시됩니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드의 Ceph개체 게이트웨이 데몬 섹션을 참조하십시오.

3.3. Ceph 파일 시스템

max_concurrent_clones 옵션을 사용하여 복제 스레드 수를 구성합니다.

이전에는 동시 복제 수를 구성할 수 없으며 기본값은 4였습니다.

이번 릴리스에서는 관리자 구성 옵션을 사용하여 최대 동시 복제 수를 구성할 수 있습니다.

구문

ceph config set mgr mgr/volumes/max_concurrent_clones VALUE

최대 동시 복제본 수를 늘리면 스토리지 클러스터의 성능이 향상될 수 있습니다.

3.4. Ceph Object Gateway

역할 이름 및 역할 세션 정보는 S3 작업의 ops 로그에 표시됩니다.

이번 릴리스에서는 디버깅 및 감사 목적으로 AssumeRole* 작업에서 반환된 임시 인증 정보를 사용하는 모든 S3 작업에 대한 ops log의 역할 이름 및 역할 세션과 같은 정보를 가져옵니다.

3.5. 다중 사이트 Ceph 개체 게이트웨이

다중 사이트 구성은 동적 버킷 인덱스 재조정을 지원합니다.

이전 버전에서는 다중 사이트 구성에 대한 버킷의 수동 조정만 지원되었습니다.

이번 릴리스에서는 다중 사이트 구성에서 동적 버킷 resharding이 지원됩니다. 스토리지 클러스터가 업그레이드되면 재스하드 기능을 활성화하고 radogw-admin 버킷 reshard 명령을 사용하여 수동으로 버킷을 다시 놓거나 스토리지 클러스터의 다른 영역과 관계없이 동적 resharding 을 사용하여 자동으로 버킷 을 다시 지정합니다.

데이터 동기화 로깅 처리 지연

이전에는 데이터 동기화 로깅이 로그 항목의 큰 백로그 처리를 지연할 수 있었습니다.

이번 릴리스에서는 데이터 동기화에 버킷 동기화 상태에 대한 캐싱이 포함됩니다. 백로그가 있을 때 캐시를 추가하면 중복된 datalog 항목을 처리할 수 있습니다.

4장. 기술 프리뷰

이 섹션에서는 Red Hat Ceph Storage 릴리스에 소개되거나 업데이트된 기술 프리뷰 기능에 대해 설명합니다.

중요

기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원하지 않으며, 기능상 완전하지 않을 수 있어 프로덕션에 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능 지원 범위에 대한 자세한 내용은 https를 참조하십시오.

4.1. 블록 장치(RBD)

RBD 이미지를 NBD 이미지에 매핑

rbd-nbd 유틸리티는 RADOS Block Device(RBD) 이미지를NBD(Network Block Device)에 매핑하고 Ceph 클라이언트가 Kubernetes 환경의 볼륨 및 이미지에 액세스할 수 있도록 합니다. rbd-nbd 를 사용하려면 rbd-nbd 패키지를 설치합니다. 자세한 내용은 rbd-nbd(7) 매뉴얼 페이지를 참조하십시오.

4.2. 오브젝트 게이트웨이

개체 게이트웨이 아카이브 사이트

이번 릴리스에서는 아카이브 사이트가 기술 프리뷰로 지원됩니다. 아카이브 사이트를 사용하면 아카이브 영역과 연결된 게이트웨이를 통해서만 제거할 수 있는 S3 오브젝트 버전 기록을 보유할 수 있습니다. 다중 영역 구성에 아카이브 영역을 포함하면 하나의 영역에서 S3 오브젝트 기록의 유연성을 유지하면서 버전 S3 오브젝트의 복제본이 나머지 영역에서 사용하는 공간을 절약할 수 있습니다.

5장. 사용되지 않는 기능

이 섹션에서는 Red Hat Ceph Storage의 이번 릴리스까지 모든 마이너 릴리스에서 더 이상 사용되지 않는 기능에 대한 개요를 제공합니다.

우분투는 더 이상 지원되지 않습니다.

Ubuntu에 Red Hat Ceph Storage 4 클러스터를 설치하는 것은 더 이상 지원되지 않습니다. Red Hat Enterprise Linux를 기본 운영 체제로 사용하십시오.

ceph-ansible 을 사용하여 iSCSI 게이트웨이 구성은 더 이상 지원되지 않습니다.

ceph-ansible 유틸리티를 사용하여 Ceph iSCSI 게이트웨이를 구성하는 것은 더 이상 지원되지 않습니다. ceph-ansible 을 사용하여 게이트웨이를 설치한 다음 의 gwcli 유틸리티를 사용하여 Ceph iSCSI 게이트웨이를 구성합니다. 자세한 내용은 Red Hat Ceph Storage 블록 장치 가이드의 CephiSCSI 게이트웨이 장을 참조하십시오.

Ceph-disk 가 더 이상 사용되지 않음

ceph-disk 유틸리티는 더 이상 지원되지 않습니다. 대신 ceph-volume 유틸리티를 사용합니다. 자세한 내용은 Red Hat Ceph Storage 4 관리 가이드 ceph-volume replace 'ceph-disk' 섹션을 참조하십시오.

프로덕션에서는 파일 저장소가 더 이상 지원되지 않습니다.

새로운 BlueStore 백엔드가 이제 프로덕션 환경에서 완전히 지원되므로 FileStore OSD 백엔드는 더 이상 사용되지 않습니다. 자세한 내용은 Red Hat Ceph Storage 설치 가이드 의 FileStore에서 BlueStore로 오브젝트 저장소를 마이그레이션하는 방법을 참조하십시오.

Ceph 구성 파일이 더 이상 사용되지 않음

Ceph 구성 파일(ceph.conf)은 더 이상 사용되지 않으며 Ceph Monitor에 저장된 새로운 중앙 집중식 구성을 사용합니다. 자세한 내용은 Red Hat Ceph Storage 구성 가이드의 Ceph 구성데이터베이스 섹션을 참조하십시오.

6장. 버그 수정

이 섹션에서는 Red Hat Ceph Storage 릴리스에서 수정된 사용자에게 상당한 영향을 미치는 버그를 설명합니다. 또한 이 섹션에는 이전 버전에서 발견된 수정된 알려진 문제에 대한 설명이 포함되어 있습니다.

6.1. Ceph Ansible 유틸리티

자체 서명 인증서 또는 신뢰할 수 없는 인증서가 사용되는 경우 Alertmanager는 오류를 기록하지 않습니다.

이전에는 신뢰할 수 없는 CA 인증서를 사용할 때 Alertmanager에서 로그에 많은 오류를 생성했습니다.

이번 릴리스에서는 ceph-ansible 에서 자체 서명 또는 신뢰할 수 없는 인증서를 사용할 때 group_vars/all.yml 파일에 alertmanager_dashboard_api_api_no_ssl_verify: true 를 설정하여 alertmanager.yml 파일에서 insecure_skip_verify 매개변수를 true로 설정할 수 있으며 Alertmanager는 더 이상 해당 오류를 로깅하지 않고 예상대로 작동하지 않습니다.

(BZ#1936299)

다중 사이트 구성에서 HTTPS가 활성화된 경우 정규화된 도메인 이름(FQDN) 사용

이전 버전에서는 다중 사이트 Ceph 구성에서 ceph-ansible 은 HTTP와 HTTPS를 구분하지 않고 영역 끝점을 HTTPS가 활성화된 호스트 이름 대신 IP 주소로 설정했습니다.

이 릴리스에서는 HTTPS가 활성화되고 영역 끝점이 FQDN으로 설정되고 TLS 인증서 CN과 일치하는 경우 ceph-ansible에서는 IP 주소 대신 정규화된 도메인 이름(FQDN)을 사용합니다.

(BZ#1965504)

systemd 파일에서 docker의 경우 --pid-limits 매개 변수를 -1 로, systemd 파일의 docker의 경우 0 을 추가하여 컨테이너를 시작합니다.

이전에는 컨테이너에서 실행할 수 있는 프로세스 수, podman 및 4096 for docker에서 실행할 수 있는 프로세스 수는 이러한 제한보다 많은 프로세스를 시작하는 데 필요한 일부 컨테이너를 시작하는 데 충분하지 않았습니다.

이번 릴리스에서는 --pid-limits 매개변수를 podman용 -1 로 추가하고 systemd 단위 파일에서 docker의 경우 0 으로 시작할 수 있는 최대 프로세스 제한을 제거할 수 있습니다. 결과적으로 기본 제한보다 많은 프로세스를 실행해야 하는 내부 프로세스를 사용자 정의하더라도 컨테이너가 시작됩니다.

(BZ#1987041)

Ceph-ansible 은 프록시 뒤의 전용 작업에서 모니터링 컨테이너 이미지를 가져옵니다.

이전 버전에서는 ceph-ansible 에서 Alertmanager, Prometheus, node-exporter 및 Grafana와 같은 모니터링 컨테이너 이미지를 전용 작업에서 가져오지 않았으며 systemd 서비스가 시작될 때 이미지를 가져오지 않았습니다.

이번 릴리스에서는 ceph-ansible 이 프록시 뒤에서 컨테이너 이미지 가져오기를 지원합니다.

(BZ#1995574)

ceph-ansible 플레이북은 radosgw 시스템 사용자를 생성하고 예상대로 작동합니다.

이전에는 ceph-ansible 플레이북에서 radosgw 시스템 사용자를 생성하지 못하고 rgw_instances 가 다중 사이트 배포의 host_vars 또는 group_vars 수준에서 설정된 경우 대시보드를 배포하지 못했습니다. 이 변수는 Ceph Monitor 노드에 설정되지 않으며 작업이 위임된 경우 실패합니다.

이번 릴리스에서는 ceph-ansible 이 정의된 모든 Ceph Object Gateway 인스턴스를 확인하고 부울 팩트를 설정하여 적어도 하나의 인스턴스에 rgw_zonemaster 가 'True'로 설정되어 있는지 확인합니다. radosgw 시스템 사용자가 생성되고 플레이북이 예상대로 작동합니다.

(BZ#2034595)

6.2. Ceph 관리 대시보드

Grafana 대시보드에서 "클라이언트 연결" 패널이 "MGR"로 교체됨

이전에는 "클라이언트 연결" 패널에 Ceph 파일 시스템 정보가 표시되었으며 의미가 없었습니다.

이번 릴리스에서는 "클라이언트 연결" 패널을 교체하여 활성 및 대기 중인 Ceph Manager 수를 표시합니다.

(BZ#1992178)

Red Hat Ceph Storage 대시보드는 디스크 IOPS 값을 표시합니다.

이전에는 Red Hat Ceph Storage 대시보드에 호스트 탭에 Ceph OSD 디스크 성능이 표시되지 않았습니다.

이번 릴리스에서는 Red Hat Ceph Storage Dashboard에 Ceph OSD, 호스트 세부 정보 및 Grafana 그래프에 대한 예상 정보가 표시됩니다.

(BZ#1992246)

6.3. Ceph 볼륨 유틸리티

새 OSD를 생성하는 동안 add-osd.yml 플레이북이 더 이상 실패하지 않습니다.

이전에는 ceph-ansible 을 사용하여 새 OSD를 추가하면 add-osd.yml 플레이북이 실패했습니다. 이는 새로운 OSD를 비대화형 모드로 추가할 수 없는 ceph-volume lvm 배치 제한 때문입니다.

이번 릴리스에서는 --yes--report 옵션이 명령줄 인터페이스에 전달되지 않으며 add-osd.yml 플레이북은 새 OSD를 생성할 때 예상대로 작동합니다.

(BZ#1896803)

6.4. Ceph Object Gateway

rgw_bucket_quota_soft_threshold 매개변수가 비활성화됨

이전에는 캐시된 사용률이 rgw_bucket_quota_soft_threshold 에 도달하면 Ceph Object Gateway에서 버킷 인덱스에서 사용률 정보를 가져 와서 버킷 인덱스에서 높은 작업이 발생하고 더 느린 요청이 발생했습니다.

이 릴리스에서는 rgw_bucket_quota_soft_threshold 매개변수를 제거하고 할당량 제한에 거의 도달하더라도 성능이 향상 된 통계를 사용합니다.

(BZ#1965314)

마커를 트리밍하는 동안 radosgw-admin datalog trim 명령이 충돌하지 않습니다.

이전에는 논리 오류로 인해 rados gw-admin 에서 현재 생성 마커를 트리밍할 때 radosgw-admin 명령이 충돌했습니다.

이 릴리스에서는 논리 오류가 수정되고 radosgw-admin datalog trim 명령이 충돌하지 않고 트리밍이 발생합니다.

(BZ#1981860)

6.5. Ceph Manager 플러그인

클러스터 상태 변경 사항이 더 이상 영구 스토리지에 커밋되지 않습니다.

이전에는 스토리지 클러스터의 상태가 급격하게 변경되어 ceph.audit.log 에 과도한 로깅이 발생했습니다.

이번 릴리스에서는 health_historyceph.audit.log 에 기록되지 않으며 클러스터 상태 변경 사항은 더 이상 영구 스토리지에 커밋되지 않습니다.

(BZ#2004738)

7장. 확인된 문제

이 섹션에서는 Red Hat Ceph Storage 릴리스에 있는 알려진 문제에 대해 설명합니다.

7.1. Ceph 관리 대시보드

Disk RuntimeClass 사용 패널은 Red Hat Ceph Storage Dashboard의 N/A를 보여줍니다.

Red Hat Ceph Storage 대시 보드에는 Overall 호스트 성능 volumeMode 디스크 사용률 패널에 N/A의 값이 표시되어 잘못된 Grafana 쿼리가 표시됩니다.

8장. 소스

업데이트된 Red Hat Ceph Storage 소스 코드 패키지는 다음 위치에서 사용할 수 있습니다.