Failover Cluster con OpenFiler 2.3 (2a parte)

Postato il Aggiornato il

segue dalla parte 1a.
Ora occorre modificare su entrambi gli openfiler il file /etc/hosts per il corretto dialogo in rete tramite il nome host FQDN (Fully Qualified Domain Name).

Su openfiler01 :

# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 openfiler01 localhost.localdomain localhost
192.168.32.12 openfiler02

Su openfiler02:

# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 openfiler02 localhost.localdomain localhost
192.168.32.11 openfiler01

Adesso occorre che i due nodi si scambino informazioni via ssh senza l’utilizzo di una password ma con chiavi condivise:

su openfiler01:

ssh-keygen -t dsa  → premere invio ad ogni prompt così avremo una blank password

su openfiler02:

ssh-keygen -t dsa  → premere invio ad ogni prompt così avremo una blank password.

Il comando precedente ha creato il file chiamato “id_dsa.pub” in “root/.ssh/”, che e’ la chiave pubblica che dobbiamo scambiare con l’altro nodo copiandola da un openfiler all’altro con il comando scp.

su openfiler01:

scp /root/.ssh/id_dsa.pub root@openfiler02:/root/.ssh/authorized_keys2

rispondere yes e digitare la password di root di openfiler02

su openfiler02:

scp /root/.ssh/id_dsa.pub root@openfiler01:/root/.ssh/authorized_keys2

rispondere yes e digitare la password di root di openfiler01

Configurare DRBD (Distributed Replicated Block Device).

Su openfiler01

openfiler01

Spostiamo la configurazione di default drbd.conf

 mv /etc/drbd.conf /etc/drbd.conf.org

ora editidiamo il file /etc/drbd.conf e inseriamo il seguente listato:

global {
# minor-count 64;
# dialog-refresh 5; # 5 seconds
# disable-ip-verification;
usage-count ask;
}
common {
syncer { rate 100M; }
}
resource cluster_metadata {
protocol C;
handlers {
pri-on-incon-degr “echo O > /proc/sysrq-trigger ; halt -f”;
pri-lost-after-sb “echo O > /proc/sysrq-trigger ; halt -f”;
local-io-error “echo O > /proc/sysrq-trigger ; halt -f”;
# outdate-peer “/usr/sbin/drbd-peer-outdater”;
}
startup {
# wfc-timeout 0;
degr-wfc-timeout 120; # 2 minutes.
}
disk {
on-io-error detach;
}
net {
after-sb-0pri disconnect;
after-sb-1pri disconnect;
after-sb-2pri disconnect;
rr-conflict disconnect;
}
syncer {
# rate 10M;
# after “r2”;
al-extents 257;
}
on openfiler01 {
device /dev/drbd0;
disk /dev/sdb1;
address 192.168.32.11:7788;
meta-disk internal;
}
on openfiler02 {
device /dev/drbd0;
disk /dev/sdb1;
address 192.168.32.12:7788;
meta-disk internal;
}
}
resource vg0drbd {
protocol C;
startup {
wfc-timeout 0; ## Infinite!
degr-wfc-timeout 120; ## 2 minutes.
}
disk {
on-io-error detach;
}
net {
# timeout 60;
# connect-int 10;
# ping-int 10;
# max-buffers 2048;
# max-epoch-size 2048;
}
syncer {
after “cluster_metadata”;
}
on openfiler01 {
device /dev/drbd1;
disk /dev/sdb2;
address 192.168.32.11:7789;
meta-disk internal;
}
on openfiler02 {
device /dev/drbd1;
disk /dev/sdb2;
address 192.168.32.12:7789;
meta-disk internal;
}
}

vengono create due risorse :

“cluster_metadata” nel disco /dev/sdb1 montato su /dev/drbd0 (scambio metadati)

“vg0_drbd”  nel disco /dev/sdb2 montato su /dev/drbd1 (volume dati)

ora lo stesso file drbd.conf va copiato su openfiler02

scp /etc/drbd.conf root@openfiler02:/etc/drbd.conf

Occorre inizializzare I metadata di DRBD su “/dev/drbd0” (cluster_metadata) e “/dev/drbd1” (vg0_drbd) su entrambi I nodi

openfiler01 e openfiler02

drbdadm create-md cluster_metadata
drbdadm  create-md vg0_drbd

ora su entrambi gli openfiler avviare il servizio drbd:

service drbd start

Per verificare la connessione dei nodi eseguire su entrambi gli openfiler il comando:

service drbd status

l’output sarà se tutto è stato configurato correttamente:

drbd driver loaded OK; device status:

…etc..

0:cluster_metadata Connected Secondary/Secondary Inconsistent/Inconsistent C
1:vg0_drbd Connected Secondary/Secondary Inconsistent/Inconsistent C

Una volta che le risorse sono connesse tra loro entrambi i nodi sono in stato secondario; occorre definire il nodo primario solo su openfiler01:

drbdsetup /dev/drbd0 primary –o
drbdsetup /dev/drbd1 primary –o

dando nuovamente il comando su openfiler01

 service drbd status

 otteniamo:

drbd driver loaded OK; device status:

..etc..
0:cluster_metadata SyncSource? Primary/Secondary UpToDate/Inconsistent C
1:vg0drbd PausedSyncS? Primary/Secondary UpToDate/Inconsistent C

 Abilitiamo ora il DRBD al boot su entrambi gli openfiler:

chkconfig –level 2345 drbd on

Adesso dobbiamo creare il filesystem “cluster_metadata” (sda1) , su cui verranno salvate tutte le configurazioni condivise dai due nodi per le risorse in HA, con il seguente comando da eseguire SOLO su openfiler01:

mkfs.ext3 /dev/drbd0

Configurazione partizione LVM

editare il file /etc/lvm/lvm.conf  e sostituire la riga:

filter = [ “a/.*/” ]

con

filter = [ “r|/dev/sdb2|” ]

questa modifica è da fare su entrambi gli openfiler.

segue 3a parte

Lascia un commento

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...