Você está na página 1de 4

Tabla de Contenidos

Cluster Suite y Piranha en Red Hat 4

Configuracin de LVS (Piranha) Configuracin de Cluster Suite Pantallazos de Configuracin de Piranha

Cluster Suite y Piranha en Red Hat 4


Montaje de un Cluster de Balanceo de Carga (LVS - Piranha) para Apache utilizando 2 mquinas con Red Hat 4 y Cluster Suite. Datos: Nodo 1: 10.12.3.31 (IP interna: 10.0.0.1) Nodo 2: 10.12.3.32 (IP interna: 10.0.0.2) IP Flotante: 10.12.3.30 Paquetes instalados en ambos nodos: arptables_jf-0.0.8-2 ipvsadm-1.24-6.1 piranha-0.8.2-1

Configuracin de LVS (Piranha)


Ejecutar en nodo 1: arptables -A IN -d 10.12.3.30 -j DROP arptables -A OUT -d 10.12.3.30 -j mangle --mangle-ip-s 10.12.3.32 service arptables_jf save chkconfig arptables_jf on Ejecutar en nodo 2: arptables -A IN -d 10.12.3.30 -j DROP arptables -A OUT -d 10.12.3.30 -j mangle --mangle-ip-s 10.12.3.31 service arptables_jf save chkconfig arptables_jf on En ambos nodos, se debe dejar el siguiente comando, bajo el archivo /etc/rc.local: ifconfig bond0:1 10.12.3.30 netmask 255.255.0.0 broadcast 10.12.255.255 up En la seccin ?start? del servicio pulse (de ambos nodos), se debe agregar el siguiente comando ?arptables -F?: Archivo /etc/init.d/pulse: ... start) echo -n "Starting pulse: " arptables -F daemon pulse RETVAL=$? echo

1/4

[ $RETVAL -eq 0 ] && touch /var/lock/subsys/pulse ;; ... Archivo /etc/sysconfig/ha/lvs.cf serial_no = 51 primary = 10.12.3.31 primary_private = 10.0.0.1 service = lvs backup_active = 1 backup = 10.12.3.32 backup_private = 10.0.0.2 heartbeat = 1 heartbeat_port = 539 keepalive = 6 deadtime = 18 network = direct nat_nmask = 255.255.255.0 debug_level = NONE monitor_links = 1 virtual HTTP { active = 1 address = 10.12.3.30 bond0:1 vip_nmask = 255.255.255.0 port = 80 expect = "OK" use_regex = 0 send_program = "/etc/sysconfig/ha/check_apache %h" load_monitor = none scheduler = rr protocol = tcp timeout = 6 reentry = 15 quiesce_server = 0 server uno { address = 10.0.0.1 active = 1 weight = 1 } server dos { address = 10.0.0.2 active = 1 weight = 2 } }

Configuracin de Cluster Suite


Cluster Suite se utilizar para levantar el servicio ?pulse? cuando uno de los nodos no responda. Nota: no se debe subir la IP flotante mediante Cluster Suite, puesto que la IP es levantada por el

2/4

Balanceo de Carga (pulse).

Archivo /etc/cluster/cluster.conf; <?xml version="1.0"?> <cluster alias="cluster_zates2" config_version="28" name="cluster_zates2"> <fence_daemon post_fail_delay="0" post_join_delay="3"/> <clusternodes> <clusternode name="nodo1" votes="1"> <fence> <method name="1"> <device blade="5" name="fence_bladecenter"/> </method> </fence> </clusternode> <clusternode name="nodo2" votes="1"> <fence> <method name="1"> <device blade="6" name="fence_bladecenter"/> </method> </fence> </clusternode> </clusternodes> <cman expected_votes="1" two_node="1"/> <fencedevices> <fencedevice agent="fence_bladecenter" ipaddr="10.13.7.200" login="cluster" name="fence_bladecenter" passwd="xxxxxxxx"/> </fencedevices> <rm> <failoverdomains/> <resources/> <service autostart="1" name="LVS"> <script file="/etc/init.d/pulse" name="Pulse"/> </service> </rm> </cluster>

Pantallazos de Configuracin de Piranha

3/4

Script /etc/sysconfig/ha/check_apache: #!/bin/sh # This script is functionally equivilent to the # normal send string 'GET / HTTP/1.0\r\n\r\n' # It's simply put here as an example of how # class="code" passing is used in a shell script # Makes use of nc - netcat (nc-1.10-9) TEST=`(echo "GET / HTTP/1.0\r\n\r\n" | nc if [ $TEST == "1" ]; then echo "OK" else echo "FAIL" fi class="code" 80) | grep -c HTTP`

4/4

Você também pode gostar