3장. Ceph 블록 장치를 사용하도록 OpenStack 구성

스토리지 관리자는 Ceph 블록 장치를 사용하도록 Red Hat OpenStack Platform을 구성해야 합니다. Red Hat OpenStack Platform은 Cinder, Cinder Backup, Glance, Nova에 Ceph 블록 장치를 사용할 수 있습니다.

사전 요구 사항

  • 신규 또는 기존 Red Hat Ceph Storage 클러스터.
  • 실행 중인 Red Hat OpenStack Platform 환경.

3.1. Ceph 블록 장치를 사용하도록 Cinder 구성

Red Hat OpenStack Platform은 Ceph 블록 장치를 사용하여 Cinder 볼륨에 백엔드 스토리지를 제공할 수 있습니다.

사전 요구 사항

  • Cinder 노드에 대한 루트 수준 액세스.
  • Ceph 볼륨 풀입니다.
  • Ceph 블록 장치와 상호 작용할 시크릿의 사용자 및 UUID입니다.

절차

  1. Cinder 구성 파일을 편집합니다.

    [root@cinder ~]# vim /etc/cinder/cinder.conf
  2. [DEFAULT] 섹션에서 Ceph를 Cinder의 백엔드로 활성화합니다.

    enabled_backends = ceph
  3. Glance API 버전이 2로 설정되어 있는지 확인합니다. enabled_backends 에서 여러 cinder 백엔드를 구성하는 경우 glance_api_version = 2 설정은 [ceph] 섹션이 아닌 [DEFAULT] 섹션에 있어야 합니다.

    glance_api_version = 2
  4. cinder.conf 파일에 [ceph] 섹션을 생성합니다. [ceph] 섹션의 다음 단계에 Ceph 설정을 추가합니다.
  5. volume_driver 설정을 지정하고 Ceph 블록 장치 드라이버를 사용하도록 설정합니다.

    volume_driver = cinder.volume.drivers.rbd.RBDDriver
  6. 클러스터 이름 및 Ceph 구성 파일 위치를 지정합니다. 일반적인 배포에서는 Ceph 클러스터의 클러스터 이름이 ceph 이고 Ceph 구성 파일이 /etc/ceph/ceph.conf 에 있습니다. Ceph 클러스터 이름이 ceph 가 아닌 경우 클러스터 이름 및 구성 파일 경로를 적절하게 지정합니다.

    rbd_cluster_name = us-west
    rbd_ceph_conf = /etc/ceph/us-west.conf
  7. 기본적으로 Red Hat OpenStack Platform은 Ceph 볼륨을 rbd 풀에 저장합니다. 이전에 생성된 volumes 풀을 사용하려면 rbd_pool 설정을 지정하고 volumes 풀을 설정합니다.

    rbd_pool = volumes
  8. Red Hat OpenStack Platform에는 볼륨의 기본 사용자 이름 또는 시크릿의 UUID가 없습니다. rbd_user 를 지정하고 cinder 사용자로 설정합니다. 그런 다음 rbd_secret_uuid 설정을 지정하고 uuid-secret.txt 파일에 저장된 생성된 UUID로 설정합니다.

    rbd_user = cinder
    rbd_secret_uuid = 4b5fd580-360c-4f8c-abb5-c83bb9a3f964
  9. 다음 설정을 지정합니다.

    rbd_flatten_volume_from_snapshot = false
    rbd_max_clone_depth = 5
    rbd_store_chunk_size = 4
    rados_connect_timeout = -1

    Ceph 블록 장치를 사용하도록 Cinder를 구성하면 구성 파일은 다음과 유사할 수 있습니다.

    예제

    [DEFAULT]
    enabled_backends = ceph
    glance_api_version = 2
    …
    
    [ceph]
    volume_driver = cinder.volume.drivers.rbd.RBDDriver
    rbd_cluster_name = ceph
    rbd_pool = volumes
    rbd_user = cinder
    rbd_ceph_conf = /etc/ceph/ceph.conf
    rbd_flatten_volume_from_snapshot = false
    rbd_secret_uuid = 4b5fd580-360c-4f8c-abb5-c83bb9a3f964
    rbd_max_clone_depth = 5
    rbd_store_chunk_size = 4
    rados_connect_timeout = -1

    참고

    기본 [lvm] 섹션 및 해당 설정을 제거하는 것이 좋습니다.