10.6. 新規に追加されたブリック、ノード、またはボリュームでの Geo レプリケーションの起動

10.6.1. 新規ブリックまたは新規ノードの Geo レプリケーションの起動

geo レプリケーションセッションが実行され、新しいノードが信頼できるストレージプールに追加されるか、または信頼されているストレージプールの新たに追加されたノードからボリュームにブリックが追加された場合には、以下の手順を実行して新規ノードで geo レプリケーションデーモンを起動する必要があります。
  1. 一般的な pem pub ファイルを作成するために、キーベースの SSH 認証接続が設定されているプライマリーノードで以下のコマンドを実行します。
    # gluster system:: execute gsec_create
  2. 以下のコマンドを使用して geo レプリケーションセッションを作成します。スレーブノードで必要な pem-file 設定を実行するには、push-pempem-file オプションが必要です。
    # gluster volume geo-replication MASTER_VOL SLAVE_HOST::SLAVE_VOL create push-pem force
    以下は例になります。
    # gluster volume geo-replication Volume1 storage.backup.com::slave-vol create push-pem force
    注記
    このコマンドを実行するノードと、上記コマンドで指定されたセカンダリーホストの間に、キーベースの SSH 認証アクセスが必要です。このコマンドは、有効なセカンダリー URL の確認、有効なセカンダリーボリューム、およびセカンダリーで利用可能な領域の確認など、セカンダリーの検証を実行します。
  3. 共有ストレージボリュームの設定後に、新しいノードがクラスターに追加されると、共有ストレージはこのノードに自動的にマウントされません。このノードの共有ストレージ用に /etc/fstab エントリーは追加されません。このノードで共有ストレージを使用するには、以下のコマンドを実行します。
    # mount -t glusterfs <local node's ip>:gluster_shared_storage
    /var/run/gluster/shared_storage
    # cp /etc/fstab /var/run/gluster/fstab.tmp
    # echo "<local node's ip>:/gluster_shared_storage
    /var/run/gluster/shared_storage/ glusterfs defaults 0 0" >> /etc/fstab
    注記
    3.5 Batch Update 3 のリリースにより、共有ストレージのマウントポイントが /var/run/gluster/ から /run/gluster/ に変更されました。
    共有ストレージボリュームの設定についての詳細は、「共有ストレージボリュームの設定」 を参照してください。
  4. geo レプリケーションのメタボリュームを設定します。
    # gluster volume geo-replication MASTER_VOL SLAVE_HOST::SLAVE_VOL config use_meta_volume true
    以下は例になります。
    # gluster volume geo-replication Volume1 storage.backup.com::slave-vol config use_meta_volume true
    meta-volume の設定に関する詳細は、「メタボリュームの設定」 を参照してください。
  5. ノードがセカンダリーに追加される場合は、以下のコマンドを使用して geo レプリケーションセッションを停止します。
    # gluster volume geo-replication MASTER_VOL SLAVE_HOST::SLAVE_VOL stop
  6. 以下のコマンドを使用して、セカンダリーとプライマリー間の geo レプリケーションセッションを開始します。
    # gluster volume geo-replication MASTER_VOL SLAVE_HOST::SLAVE_VOL start force
  7. 以下のコマンドを使用して、作成したセッションのステータスを確認します。
    # gluster volume geo-replication MASTER_VOL SLAVE_HOST::SLAVE_VOL status