第 7 章 高可用性资源故障排除

如果资源失败,您必须调查问题的原因和位置,修复失败的资源,并选择性地清理资源。根据您的部署,资源失败有很多可能的原因,您必须调查该资源来确定如何修复问题。

例如,您可以检查资源约束,以确保资源不相互中断,并且资源可以相互连接。您还可以检查隔离的 Controller 节点,该节点通常比其他 Controller 节点更频繁,以识别可能的通信问题。

根据资源问题的位置,您可以选择以下选项之一:

Controller 节点问题
如果对 Controller 节点的健康检查失败,这可能代表 Controller 节点之间的通信问题。要调查,请登录 Controller 节点,再检查服务是否已正确启动。
单个资源问题
如果控制器中的大多数服务都正确运行,您可以运行 pcs status 命令,并检查输出是否有特定 Pacemaner 资源故障的信息,或运行 systemctl 命令来调查非 Pacemaker 资源失败。

7.1. 在高可用性集群中查看资源限制

在调查资源问题前,您可以查看启动服务的方式的限制,包括每个资源所在位置、资源启动顺序以及资源是否必须与另一个资源在一起的约束。

流程

  • 使用以下选项之一:

    • 要查看所有资源限制,请登录任何 Controller 节点并运行 pcs constraint show 命令:

      $ sudo pcs constraint show

      以下示例显示了在 Controller 节点上 pcs constraint show 命令的截断输出:

      Location Constraints:
        Resource: galera-bundle
          Constraint: location-galera-bundle (resource-discovery=exclusive)
            Rule: score=0
              Expression: galera-role eq true
        [...]
        Resource: ip-192.168.24.15
          Constraint: location-ip-192.168.24.15 (resource-discovery=exclusive)
            Rule: score=0
              Expression: haproxy-role eq true
        [...]
        Resource: my-ipmilan-for-controller-0
          Disabled on: overcloud-controller-0 (score:-INFINITY)
        Resource: my-ipmilan-for-controller-1
          Disabled on: overcloud-controller-1 (score:-INFINITY)
        Resource: my-ipmilan-for-controller-2
          Disabled on: overcloud-controller-2 (score:-INFINITY)
      Ordering Constraints:
        start ip-172.16.0.10 then start haproxy-bundle (kind:Optional)
        start ip-10.200.0.6 then start haproxy-bundle (kind:Optional)
        start ip-172.19.0.10 then start haproxy-bundle (kind:Optional)
        start ip-192.168.1.150 then start haproxy-bundle (kind:Optional)
        start ip-172.16.0.11 then start haproxy-bundle (kind:Optional)
        start ip-172.18.0.10 then start haproxy-bundle (kind:Optional)
      Colocation Constraints:
        ip-172.16.0.10 with haproxy-bundle (score:INFINITY)
        ip-172.18.0.10 with haproxy-bundle (score:INFINITY)
        ip-10.200.0.6 with haproxy-bundle (score:INFINITY)
        ip-172.19.0.10 with haproxy-bundle (score:INFINITY)
        ip-172.16.0.11 with haproxy-bundle (score:INFINITY)
        ip-192.168.1.150 with haproxy-bundle (score:INFINITY)

      此输出显示以下主要约束类型:

      位置约束

      列出可分配给资源的位置:

      • 第一个约束定义了一个规则,它将 galera-bundle 资源设置为在带有 galera-role 属性设置为 true 的节点上运行。
      • 第二个位置约束指定 IP 资源 ip-192.168.24.15 仅在带有 haproxy-role 属性设置为 true 的节点上运行。这意味着集群会将 IP 地址与 haproxy 服务关联,这是使服务可被访问所必需的。
      • 第三个位置约束显示在每个 Controller 节点上都禁用 ipmilan 资源。
      排序限制

      列出资源可启动的顺序。本例演示了一个约束,用于设置 HAProxy 服务之前启动的虚拟 IP 地址资源 IPaddr2

      注意

      排序限制只适用于 IP 地址资源和 HAproxy。systemd 管理所有其他资源,因为计算等服务预计会面临依赖服务的中断,如 Galera。

      colocation Constraints
      列出哪些资源必须放在一起。所有虚拟 IP 地址都链接到 haproxy-bundle 资源。
    • 要查看特定资源的限制,请登录任何 Controller 节点并运行 pcs property show 命令:

      $ sudo pcs property show

      输出示例:

      Cluster Properties:
       cluster-infrastructure: corosync
       cluster-name: tripleo_cluster
       dc-version: 2.0.1-4.el8-0eb7991564
       have-watchdog: false
       redis_REPL_INFO: overcloud-controller-0
       stonith-enabled: false
      Node Attributes:
       overcloud-controller-0: cinder-volume-role=true galera-role=true haproxy-role=true rabbitmq-role=true redis-role=true rmq-node-attr-last-known-rabbitmq=rabbit@overcloud-controller-0
       overcloud-controller-1: cinder-volume-role=true galera-role=true haproxy-role=true rabbitmq-role=true redis-role=true rmq-node-attr-last-known-rabbitmq=rabbit@overcloud-controller-1
       overcloud-controller-2: cinder-volume-role=true galera-role=true haproxy-role=true rabbitmq-role=true redis-role=true rmq-node-attr-last-known-rabbitmq=rabbit@overcloud-controller-2

      在这个输出中,您可以验证资源约束是否已正确设置。例如,适用于所有 Controller 节点的 galera-role 属性为 true,这意味着 galera-bundle 资源仅在这些节点上运行。