SSH в машину glusterfs, которую вы хотите сохранить и сделать:
[siddhartha@glusterfs-01-perf ~]$ sudo gluster peer status Number of Peers: 1 Hostname: 10.240.0.123 Port: 24007 Uuid: 03747753-a2cc-47dc-8989-62203a7d31cd State: Peer in Cluster (Connected)
Это показывает нам другого нашего сверстника, от которого мы хотим избавиться.
Чтобы отделить это, попробуйте:
sudo gluster peer detach 10.240.0.123
Вы можете потерпеть неудачу с:
peer detach: failed: Brick(s) with the peer 10.240.0.123 exist in cluster
Сначала нужно избавиться от кирпича:
[siddhartha@glusterfs-01-perf ~]$ sudo gluster volume info Volume Name: glusterfs Type: Replicate Volume ID: 563f8593-4592-430f-9f0b-c9472c12570b Status: Started Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: 10.240.0.122:/mnt/storage/glusterfs Brick2: 10.240.0.123:/mnt/storage/glusterfs
Чтобы удалить Brick2, сделайте:
[siddhartha@glusterfs-01-perf ~]$ sudo gluster volume remove-brick glusterfs 10.240.0.123:/mnt/storage/glusterfs
Это может не сработать с:
Removing brick(s) can result in data loss. Do you want to Continue? (y/n) y volume remove-brick commit force: failed: Removing bricks from replicate configuration is not allowed without reducing replica count explicitly.
Наша репликация установлена на 2, и ее нужно явно уменьшить до 1, поэтому добавьте replica 1
флаг к предыдущей команде:
[siddhartha@glusterfs-01-perf ~]$ sudo gluster volume remove-brick glusterfs replica 1 10.240.0.123:/mnt/storage/glusterfs Removing brick(s) can result in data loss. Do you want to Continue? (y/n) y volume remove-brick commit force: success
Это должно сделать трюк:
[siddhartha@glusterfs-01-perf ~]$ sudo gluster volume info glusterfs Volume Name: glusterfs Type: Distribute Volume ID: 563f8593-4592-430f-9f0b-c9472c12570b Status: Started Number of Bricks: 1 Transport-type: tcp Bricks: Brick1: 10.240.0.122:/mnt/storage/glusterfs
Вы можете пойти и прекратить другую машину.