Failover Cluster con OpenFiler 2.3 (1a Parte)

Postato il Aggiornato il

A distanza da più di anno dalla presentazione di questo progetto al LinuxDay 2010 di Bologna, dove potete qui scaricare le slide, pubblico finalmente il post relativo sul blog….che volete ognuno ha i suoi tempi😛.
Nel frattempo il progetto è stato ottimizzato e semplificato, per quanto possibile.
Il risultato finale è di ottenere un Cluster in Alta Affidabilità (HA), che metta a disposizione un volume iSCSI da utilizzare come datastore per vmware esxi 4.1 .
Il tutto è stato testato nelle condizioni peggiori:
openfiler in macchine  virtuali e rete a 100MB con risultati davvero notevoli ovvero le 3 macchine virtuali, sul volume messo a disposizione del cluster, non hanno subito la minima disfunzione una volta spento il nodo primario.
Le prestazioni del cluster con l’utilizzo di macchine fisiche con volumi raid dedicati e connessioni di rete in gigabit, utilizzando anche il bonding tra le schede di rete e switch con aggregation link, sono sicuramente di livello Enterprise.
Il progetto prevede l’utilizzo di due macchine con installato Openfiler 2.3 64 bit, chiamate openfiler01 e openfiler02,  entrambe con 2 dischi (sda e sdb) e 2 schede di rete.
Sul disco sda sarà installato il sistema operativo mentre sdb sarà utilizzato per montare il volume iSCSI.
Le due schede di rete saranno utilizzate una per lo scambio dati del volume iSCSI e l’altra per l’Heart-beat.
Riepilogando avremo:

openfiler01
sda 10GB
sdb 50GB
eth0 192.168.100.111 (LAN)
eth1 192.168.32.11      (HB)

openfiler02
sda 10GB
sdb 50GB
eth0 192.168.100.112 (LAN)
eth1 192.168.32.12    (HB)

1.Installazione Openfiler

Selezionare “Automatically partition”.

Selezionare solo il disco sda e procedere oltre.

Verificare che sdb sia lasciato come free space e procedere alla configurazione  delle schede di rete eth0 ed eth1.
Una volta scelta anche la password di root si procede infine verso l’installazione del sistema ed al suo reboot al termine.
Loggarsi come root su entrambe la macchine e procedere all’aggiornamento di openfiler con il comando

conary updateall

una volta completato l’aggiornamento riavviare le macchine.
Loggarsi di nuovo come root su entrambe le macchine per configurare il disco sdb lanciare il comando fdisk -l per avere l’elenco delle partizioni, come da figura:

Ora occorre creare, su entrambe, le macchine, 2 partizioni nel disco sdb rispettivamente sdb1 di tipo 83 (linux) di 500MB ch verrà usato per i metadata del cluster e sdb2 di tipo 8e (LVM) per il nostro volume iSCSI.
Digitare il comando :

cfdisk /dev/sdb

poi  New -> Primary  e digitare la quota 500 e Beginning
Selezionare lo spazio libero come in figura:

New -> Primary  lasciare invariato la quota di spazio disco e premere invio.
Ora selezionare sdb1 poi Type –> digitare 83 e invio
Ora selezionare sdb2 poi Type –> digitare 8E e invio.

Infine Write e Quit.
Ridigitando il comando fdisk -l avremo la seguente situazione:

A questo punto le macchine sono pronte per iniziare le configurazioni di rete e dei servizi fondamentali del cluster.
segue 2a parte

Lascia un commento

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...