Red Hat Training

A Red Hat training course is available for RHEL 8

29.2. Pacemaker를 사용하여 다중 사이트 클러스터 구성

다음 절차에 따라 Booth 티켓 관리자를 사용하는 다중 사이트 구성을 구성할 수 있습니다.

이 예제 명령은 다음 정렬을 사용합니다.

  • 클러스터 1은 cluster 1-node1 및 cluster1-node2 노드로 구성됩니다.
  • 클러스터 1에는 192.168.11.100의 유동 IP 주소가 할당되어 있습니다.
  • 클러스터 2는 cluster2-node1 및 cluster 2-node2로 구성됩니다.
  • 클러스터 2에는 192.168.22.100의 유동 IP 주소가 할당되어 있습니다.
  • 중재자 노드는 IP 주소가 192.168.99.100인 schedulerator -node 입니다.
  • 이 구성이 사용하는 Booth 티켓의 이름은 apacheticket입니다.

이러한 예제 명령은 Apache 서비스의 클러스터 리소스가 각 클러스터에 대해 apachegroup 리소스 그룹의 일부로 구성되어 있다고 가정합니다. 각 클러스터에 대한 Pacemaker 인스턴스가 독립적이지만 이는 일반적인 페일오버 시나리오이기 때문에 해당 리소스에 대한 티켓 제약 조건을 구성하기 위해 각 클러스터에서 리소스와 리소스 그룹이 동일할 필요는 없습니다.

구성 절차 중 언제든지 pcs booth config 명령을 입력하여 현재 노드 또는 클러스터 또는 pcs booth status 명령의 부스 구성을 표시하여 로컬 노드의 현재 상태를 표시할 수 있습니다.

절차

  1. 두 클러스터의 각 노드에 부스-사이트 부트 티켓 관리자 패키지를 설치합니다.

    [root@cluster1-node1 ~]# yum install -y booth-site
    [root@cluster1-node2 ~]# yum install -y booth-site
    [root@cluster2-node1 ~]# yum install -y booth-site
    [root@cluster2-node2 ~]# yum install -y booth-site
  2. 중재자 노드에 pcs,booth-corebooth-Abitrator 패키지를 설치합니다.

    [root@arbitrator-node ~]# yum install -y pcs booth-core booth-arbitrator
  3. firewalld 데몬을 실행하는 경우 중재자 노드뿐 아니라 모든 노드에서 다음 명령을 실행하여 Red Hat High Availability Add-On에 필요한 포트를 활성화합니다.

    # firewall-cmd --permanent --add-service=high-availability
    # firewall-cmd --add-service=high-availability

    로컬 조건에 맞게 열려 있는 포트를 수정해야 할 수도 있습니다. Red Hat High-Availability Add-On에 필요한 포트에 대한 자세한 내용은 고가용성 애드온의 포트 활성화를 참조하십시오.

  4. 하나의 클러스터의 한 노드에 부트 구성을 생성합니다. 각 클러스터에 대해 지정하는 주소 및 중재자의 주소는 IP 주소여야 합니다. 각 클러스터에 대해 유동 IP 주소를 지정합니다.

    [cluster1-node1 ~] # pcs booth setup sites 192.168.11.100 192.168.22.100 arbitrators 192.168.99.100

    이 명령은 실행되는 노드에 구성 파일 /etc/booth/booth.conf/etc/booth/booth.key 를 만듭니다.

  5. Booth 구성에 대한 티켓을 만듭니다. 이 티켓이 클러스터에 부여된 경우에만 리소스를 실행할 수 있는 리소스 제한 조건을 정의하는 데 사용할 티켓입니다.

    이 기본 페일오버 구성 프로시저는 하나의 티켓만 사용하지만, 각 티켓이 다른 리소스 또는 리소스와 연결된 더 복잡한 시나리오에 대해 추가 티켓을 생성할 수 있습니다.

    [cluster1-node1 ~] # pcs booth ticket add apacheticket
  6. Booth 구성을 현재 클러스터의 모든 노드에 동기화합니다.

    [cluster1-node1 ~] # pcs booth sync
  7. 중재자 노드에서 Booth 구성을 중재자로 가져옵니다. 아직 수행하지 않은 경우 먼저 구성을 가져오는 노드에 pcs를 인증해야 합니다.

    [arbitrator-node ~] # pcs host auth cluster1-node1
    [arbitrator-node ~] # pcs booth pull cluster1-node1
  8. Booth 구성을 다른 클러스터로 가져와 해당 클러스터의 모든 노드와 동기화합니다. 중재자 노드와 마찬가지로, 이전에 수행하지 않은 경우 먼저 구성을 가져오는 노드에 pcs 를 인증해야 합니다.

    [cluster2-node1 ~] # pcs host auth cluster1-node1
    [cluster2-node1 ~] # pcs booth pull cluster1-node1
    [cluster2-node1 ~] # pcs booth sync
  9. 중재자에서 부트를 시작하고 활성화합니다.

    참고

    Booth는 해당 클러스터에서 Pacemaker 리소스로 실행되므로 클러스터의 노드에서 Booth를 수동으로 시작하거나 활성화해서는 안 됩니다.

    [arbitrator-node ~] # pcs booth start
    [arbitrator-node ~] # pcs booth enable
  10. 각 클러스터에 할당된 유동 IP 주소를 사용하여 두 클러스터 사이트에서 클러스터 리소스로 실행되도록 Booth를 구성합니다. 이 그룹의 구성원으로서 부스-IP 및 부스-서비스가 있는 리소스 그룹을 만듭니다.

    [cluster1-node1 ~] # pcs booth create ip 192.168.11.100
    [cluster2-node1 ~] # pcs booth create ip 192.168.22.100
  11. 각 클러스터에 대해 정의한 리소스 그룹에 티켓 제한 조건을 추가합니다.

    [cluster1-node1 ~] # pcs constraint ticket add apacheticket apachegroup
    [cluster2-node1 ~] # pcs constraint ticket add apacheticket apachegroup

    다음 명령을 입력하여 현재 구성된 티켓 제약 조건을 표시할 수 있습니다.

    pcs constraint ticket [show]
  12. 이 설정에 대해 생성한 티켓을 첫 번째 클러스터에 부여합니다.

    티켓을 부여하기 전에 티켓 제한 조건을 정의할 필요는 없습니다. 처음에 클러스터에 티켓을 부여했으면 pcs booth 티켓 취소 명령을 사용하여 수동으로 이 항목을 재정의하지 않는 한 Booth는 티켓 관리를 인계받습니다. pcs booth 관리 명령에 대한 자세한 내용은 pcs booth 명령의 PCS 도움말 화면을 참조하십시오.

    [cluster1-node1 ~] # pcs booth ticket grant apacheticket

이 절차를 완료한 후에도 언제든지 티켓을 추가하거나 제거할 수 있습니다. 그러나 티켓을 추가하거나 제거한 후에는 구성 파일을 다른 노드 및 클러스터와 동기화하고 중재자 및 이 절차에 표시된 대로 티켓을 부여해야 합니다.

Booth 구성 파일, 티켓 및 리소스를 정리 및 제거하는 데 사용할 수 있는 추가 Booth 관리 명령에 대한 자세한 내용은 pcs booth 명령의 PCS 도움말 화면을 참조하십시오.