7.4. DCN에 Red Hat Ceph Storage Dashboard 배포

절차

중앙 위치에 Red Hat Ceph Storage 대시보드를 배포하려면 오버클라우드 배포에 Red Hat Ceph Storage 대시보드 추가를 참조하십시오. 이러한 단계는 중앙 위치를 배포하기 전에 완료해야 합니다.

Red Hat Ceph Storage Dashboard를 에지 위치에 배포하려면 중앙 집중적으로 완료한 것과 동일한 단계를 완료해야 하지만 다음을 완료해야 합니다.

  • 에지 사이트를 배포하기 위한 템플릿에 ManageNetworks 매개변수 값이 false 인지 확인합니다. ManageNetworksfalse로 설정하면 에지 사이트에서 중앙 스택에서 이미 생성된 기존 네트워크를 사용합니다.

    parameter_defaults:
      ManageNetworks: false
  • 고가용성 가상 IP를 생성하려면 로드 밸런싱을 위한 자체 솔루션을 배포해야 합니다. 에지 사이트는 haproxy 또는 pacemaker를 배포하지 않습니다. Red Hat Ceph Storage 대시보드를 엣지 위치에 배포하면 스토리지 네트워크에 배포가 노출됩니다. 대시보드는 부하 분산 솔루션 없이 고유한 IP 주소가 있는 세 개의 DistributedComputeHCI 노드 각각에 설치됩니다.

7.4.1. 가상 IP에 대해 구성 가능한 네트워크 생성

Ceph 대시보드를 노출할 수 있는 가상 IP를 호스트하는 추가 네트워크를 만들 수 있습니다. 여러 스택의 네트워크 리소스를 재사용해서는 안 됩니다. 네트워크 리소스를 재사용하는 방법에 대한 자세한 내용은 여러 스택에서 네트워크 리소스 재사용을 참조하십시오.

이 추가 네트워크 리소스를 생성하려면 제공된 network_data_dashboard.yaml heat 템플릿을 사용합니다. 생성된 네트워크의 이름은 StorageDashboard 입니다.

절차

  1. Red Hat OpenStack Platform Director에 stack 으로 로그인합니다.
  2. 환경에 적합한 DistributedComputeHCIDashboard 역할 및 기타 역할을 생성합니다.

    openstack overcloud roles generate DistributedComputeHCIDashboard -o ~/dnc0/roles.yaml
  3. overcloud deploy 명령에 roles.yamlnetwork_data_dashboard.yaml 을 포함합니다.

    $ openstack overcloud deploy --templates \
    -r ~/<dcn>/<dcn_site_roles>.yaml \
    -n /usr/share/openstack-tripleo-heat-templates/network_data_dashboard.yaml \
    -e <overcloud_environment_files> \
    ...
    -e /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible.yaml \
    -e /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-dashboard.yaml
참고

배포에서는 스토리지 네트워크에서 대시보드가 활성화된 세 개의 IP 주소를 제공합니다.

검증

대시보드가 중앙 위치에서 작동하고 Ceph 클러스터에서 표시되는 데이터가 올바른지 확인하려면 Ceph 대시보드 액세스를 참조하십시오.

대시보드가 비슷한 단계를 통해 에지 위치에서 작동하는지 확인할 수 있지만 에지 위치에 로드 밸런서가 없으므로 예외가 있습니다.

  1. /var/lib/mistral/<stackname>/ceph-ansible/group_vars/all.yml에서 선택한 스택과 관련된 대시보드 관리자 로그인 자격 증명을 검색합니다.
  2. 선택한 스택 전용 인벤토리에서 /var/lib/mistral/<stackname>/ceph-ansible/inventory.yml 에서 DistributedComputeHCI 역할 호스트 목록을 찾고 세 가지 storage_ip 값을 모두 저장합니다. 아래의 예에서 처음 두 개의 대시보드 IP는 172.16.11.84 및 172.16.11.87입니다.

    DistributedComputeHCI:
      hosts:
        dcn1-distributed-compute-hci-0:
          ansible_host: 192.168.24.16
    ...
    storage_hostname: dcn1-distributed-compute-hci-0.storage.localdomain
    storage_ip: 172.16.11.84
    ...
        dcn1-distributed-compute-hci-1:
    ansible_host: 192.168.24.22
    ...
    storage_hostname: dcn1-distributed-compute-hci-1.storage.localdomain
    storage_ip: 172.16.11.87
  3. 액세스할 수 있는 경우 이러한 IP 주소 중 하나에서 Ceph 대시보드가 활성화되어 있는지 확인할 수 있습니다. 이러한 IP 주소는 스토리지 네트워크에 있으며 라우팅되지 않습니다. 이러한 IP 주소를 사용할 수 없는 경우 확인을 위해 가상 IP 주소를 가져오도록 인벤토리에서 가져온 세 개의 IP 주소에 대해 로드 밸런서를 구성해야 합니다.