Red Hat Training

A Red Hat training course is available for Red Hat Enterprise Linux

3.5. Configurer les ressources du cluster

Cette section fournit la procédure de configuration des ressources du cluster pour ce cas d'utilisation.

Note

Il est conseillé, quand on crée une ressource de cluster avec pcs resource create, d'exécuter la commande pcs status immédiatement après avoir vérifié que la ressource exécute. Notez que si vous n'avez pas configuré de périphérique fence pour votre cluster, comme décrit dans Section 1.3, « Configuration d'une clôture », par défaut, les ressources ne redémarreront pas.
Si vous vous rendez compte que les ressources que vous configurez n'exécutent pas, vous pouvez exécuter la commande pcs resource debug-start resource pour tester la ressource de configuration. Cela va démarrer le service en dehors du contrôle du cluster et sans qu'il soit au courant. Quand les ressources configurées exécutent à nouveau, exécutez pcs cluster cleanup resource pour mettre le cluster au courant des mises à jour. Pour obtenir des informations sur la commande pcs resource debug-start, consulter le manuel High Availability Add-On Reference.
La procédure suivante configure les ressources système. Pour s’assurer que ces ressources fonctionnent toutes sur le même nœud, elles sont configurées dans le groupe de ressources nfsgroup. Les ressources vont démarrer dans l’ordre dans lequel vous les avez ajoutées au groupe, et elles s’arrêteront dans l’ordre inverse dans lequel elles ont été ajoutées au groupe. Exécutez cette procédure à partir d'un nœud du cluster uniquement.
  1. La commande suivante crée la ressource LVM nommée my_lvm. Cette commande spécifie le paramètre exclusive=true pour s'assurer que le cluster uniquement soit capable d'activer le volume logique LVM. Comme le groupe de ressources nfsgroup n'existe pas, cette commande crée un groupe de ressources.
    [root@z1 ~]# pcs resource create my_lvm LVM volgrpname=my_vg \
    exclusive=true --group nfsgroup
    Vérifier le statut du cluster pour vérifier que la ressource est en cours d'exécution.
    root@z1 ~]# pcs status
    Cluster name: my_cluster
    Last updated: Thu Jan 8 11:13:17 2015
    Last change: Thu Jan 8 11:13:08 2015
    Stack: corosync
    Current DC: z2.example.com (2) - partition with quorum
    Version: 1.1.12-a14efad
    2 Nodes configured
    3 Resources configured
    
    Online: [ z1.example.com z2.example.com ]
    
    Full list of resources:
     myapc (stonith:fence_apc_snmp): Started z1.example.com
     Resource Group: nfsgroup
     my_lvm (ocf::heartbeat:LVM): Started z1.example.com
    
    PCSD Status:
     z1.example.com: Online
     z2.example.com: Online
    
    Daemon Status:
     corosync: active/enabled
     pacemaker: active/enabled
     pcsd: active/enabled
  2. Configurer une ressource Filesystem pour le cluster.

    Note

    Vous pouvez spécifier des options de montage dans le cadre de la configuration de ressource pour une ressource Filesystem par l'intermédiaire du paramètre options=options. Exécutez la commande pcs resource describe Filesystem pour obtenir des informations sur toutes les options de configuration.
    La commande suivante configure une ressource Filesystem ext4 nommée nfsshare du groupe de ressource nfsgroup. Ce système de fichiers utilise le groupe de volume LVM et le système de fichiers ext4 que vous avez créés dans Section 3.2, « Configurer un volume LVM dans un système de fichiers ext4 » et qui sera monté sur le répertoire /nfsshare que vous avez créé dans Section 3.3, « Mise en place de Partages NFS ».
    [root@z1 ~]# pcs resource create nfsshare Filesystem \
    device=/dev/my_vg/my_lv directory=/nfsshare \
    fstype=ext4 --group nfsgroup
    Vérifiez que les ressources my_lvm et nfsshare sont en cours d'exécution.
    [root@z1 ~]# pcs status
    ...
    Full list of resources:
     myapc (stonith:fence_apc_snmp): Started z1.example.com
     Resource Group: nfsgroup
     my_lvm (ocf::heartbeat:LVM): Started z1.example.com
     nfsshare (ocf::heartbeat:Filesystem): Started z1.example.com
    ...
  3. Créer la ressource nfsserver nommée nfs-daemon faisant partie du groupe de ressources nfsgroup.
    [root@z1 ~]# pcs resource create nfs-daemon nfsserver \
    nfs_shared_infodir=/nfsshare/nfsinfo nfs_no_notify=true \
    --group nfsgroup
    [root@z1 ~]# pcs status
    ...
  4. Ajouter les ressources exportfs pour exporter le répertoire /nfsshare/exports. Ces ressources font partie du groupe de ressources nfsgroup. Cela crée un répertoire virtuel pour les clients NFSv4. Les clients NFSv3 peuvent accéder à ces exportations également.
    [root@z1 ~]# pcs resource create nfs-root exportfs \
    clientspec=192.168.122.0/255.255.255.0 \
    options=rw,sync,no_root_squash \
    directory=/nfsshare/exports \
    fsid=0 --group nfsgroup
    
    [root@z1 ~]# # pcs resource create nfs-export1 exportfs \
    clientspec=192.168.122.0/255.255.255.0 \
    options=rw,sync,no_root_squash directory=/nfsshare/exports/export1 \
    fsid=1 --group nfsgroup
    
    [root@z1 ~]# # pcs resource create nfs-export2 exportfs \
    clientspec=192.168.122.0/255.255.255.0 \
    options=rw,sync,no_root_squash directory=/nfsshare/exports/export2 \
    fsid=2 --group nfsgroup
  5. Ajouter la ressource d'adresse IP flottante que les clients nfs utiliseront pour accéder au partage nfs. L'adresse IP flottante que vous spécifiez doit avoir une recherche DNS inversée /etc/hosts sur tous les nœuds du cluster. Cette ressource fait partie du groupe de ressources nfsgroup. Pour cet exemple de déploiement, nous utilisons 192.168.122.200 comme adresse IP flottante.
    [root@z1 ~]# pcs resource create nfs_ip IPaddr2 \
    ip=192.168.122.200 cidr_netmask=24 --group nfsgroup
  6. Ajouter une ressource nfsnotify pour envoyer les notifications de redémarrage NFSv3 une fois que tout le déploiement NFS a été initialisé.

    Note

    Pour que la notification NFS soit traitée correctement, l'adresse IP flottante doit avoir un nom d'hôte associé, qui soit consistant avec les serveurs nfs et le client nfs à la fois.
    [root@z1 ~]# pcs resource create nfs-notify nfsnotify \
    source_host=192.168.122.200
Vous pourrez vérifier le statut du cluster après avoir créé les ressources et les ressources de contrainte. Notez que toutes les ressources exécutent sur le même noeud.
[root@z1 ~]# pcs status
...
Full list of resources:
 myapc (stonith:fence_apc_snmp): Started z1.example.com
 Resource Group: nfsgroup
 my_lvm (ocf::heartbeat:LVM): Started z1.example.com
 nfsshare (ocf::heartbeat:Filesystem): Started z1.example.com
 nfs-daemon (ocf::heartbeat:nfsserver): Started z1.example.com 
 nfs-root (ocf::heartbeat:exportfs): Started z1.example.com
 nfs-export1 (ocf::heartbeat:exportfs): Started z1.example.com
 nfs-export2 (ocf::heartbeat:exportfs): Started z1.example.com
 nfs_ip (ocf::heartbeat:IPaddr2): Started z1.example.com
 nfs-notify (ocf::heartbeat:nfsnotify): Started z1.example.com
...