Você está na página 1de 32

Montar sistemas de archivos automticamente con /etc/fstab

Cuando se acaba de instalar un sistema Red Hat Enterprise Linux, todas las particiones de disco definidas y/o creadas durante la instalacin son configuradas para montarse automticamente cuando el sistema arranca. No obstante, qu pasa cuando se aaden unidades de disco adicionales a un sistema despus de efectuar la instalacin? La respuesta es "nada" porque el sistema no fue configurado para montarlos automticamente. Sin embargo, esto se puede cambiar fcilmente. La respuesta recae en el archivo /etc/fstab. Este archivo es utilizado para controlar qu sistemas de archivos son montados cuando el sistema arranca, as como tambin para suministrar valores por defecto para otros sistemas de archivos que pueden ser montados manualmente de vez en cuando. He aqu una muestra del archivo /etc/fstab:
LABEL=/ /dev/sda1 /dev/cdrom 0 /dev/homedisk /dev/sda2 / /boot /mnt/cdrom /home swap ext3 defaults 1 1 ext3 defaults 1 2 iso9660 noauto,owner,kudzu,ro 0 ext3 swap defaults defaults 1 2 0 0

Cada lnea representa un sistema de archivos y contiene los campos siguientes:

El especificador del sistema de archivos Para los sistemas de archivos basados en disco, bien sea un nombre de archivo de dispositivo (/dev/sda1), una especificacin de etiqueta (LABEL=/) o un enlace simblico manejado por devlabel (/dev/homedisk) Punto de montaje Excepto para las particiones swap, este campo especifica el punto de montaje a utilizar cuando se monta el sistema de archivos (/boot) Tipo de sistema de archivos El tipo de sistema de archivos presente en el dispositivo especificado (observe que se puede especificar auto para seleccionar la deteccin automtica del sistema de archivos a montar, lo que es til para la media removible tal como unidades de disquete) Opciones de montaje Una lista de opciones separadas por comas que se puede utilizar para controlar el comportamiento de mount (noauto,owner,kudzu) Frecuencia de descarga Si se utiliza la utilidad para respaldos dump, el nmero en este campo controla el manejo de dump del sistema de archivos especificado

Orden de verificacin del sistema de archivos Controla el orden en que fsck verificar la integridad del sistema de archivos

5.9.6. Aadir/Eliminar almacenamiento


Mientras que la mayora de los pasos necesarios para aadir o eliminar almacenamiento dependen ms en el hardware del sistema que en el software, hay aspectos del procedimiento que son especficos a su entorno operativo. Esta seccin explora los pasos necesarios para aadir o eliminar almacenamiento que son especficos a Red Hat Enterprise Linux.

5.9.6.1. Aadir almacenamiento


El proceso de aadir almacenamiento a un sistema Red Hat Enterprise Linux es relativamente directo. He aqu los pasos que son especficos a Red Hat Enterprise Linux:

Particionar Formatear la particin(es) Actualizar /etc/fstab

Las secciones siguientes exploran cada paso con ms detalles. 5.9.6.1.1. Particionar Una vez instalado en disco duro, es hora de crear una o ms particiones para hacer el espacio disponible a Red Hat Enterprise Linux. Hay ms de una forma de hacer esto:

Usando el programa de lnea de comandos fdisk Usando parted, otro programa utilitario de lnea de comandos

Aunque las herramientas pueden ser diferentes, los pasos bsicos son los mismos. En el ejemplo siguiente, se incluyen los comandos necesarios para efectuar estos pasos usando fdisk: 1. Seleccione la nueva unidad de disco (el nombre de la unidad se puede identificar siguiendo la convencin de nombres descrita en la Seccin 5.9.1). Usando fdisk, esto se hace incluyendo el nombre del dispositivo cuando arranca fdisk:
fdisk /dev/hda

2. Revise la tabla de particiones de la unidad para verificar que la unidad a particionar es, en realidad, la correcta. En nuestro ejemplo, fdisk muestra la tabla de particin usando el comando p:
Command (m for help): p Disk /dev/hda: 255 heads, 63 sectors, 1244 cylinders Units = cylinders of 16065 * 512 bytes Device Boot /dev/hda1 * /dev/hda2 /dev/hda3 /dev/hda4 Start 1 18 84 476 End 17 83 475 1244 Blocks 136521 530145 3148740 6176992+ Id 83 82 83 83 System Linux Linux swap Linux Linux

3. Borre cualquier particin no deseada que pueda existir en la nueva unidad de disco. Esto se hace usando el comando d en fdisk:
Command (m for help): d Partition number (1-4): 1

4. El proceso se repetir para todas las particiones no deseadas presentes el el disco. 5. Cree la(s) nueva(s) particin(es), asegurndose de especificar el tamao deseado y el tipo de sistemas de archivos. Usando fdisk, esto es un proceso de dos pasos primero, cree la particin (usando el comando n):
Command (m for help): n Command action e extended p primary partition (1-4) p Partition number (1-4): 1 First cylinder (1-767): 1 Last cylinder or +size or +sizeM or +sizeK: +512M

6. Segundo, configure el tipo de sistema de archivos (usando el comando t):


Command (m for help): t Partition number (1-4): 1 Hex code (type L to list codes): 82

7. El tipo de particin 82 representa una particin Linux swap.

8. Guarde sus cambios y salga del programa de particionamiento. Esto se hace en fdisk ejecutando w:
Command (m for help): w

Atencin

Cuando particione un nuevo disco, es vital que est seguro de que la unidad que piensa particionar es la correcta. De lo contrario, puede inconscientemente particionar una unidad que ya est en uso, lo que resultara en la prdida de los datos. Tambin verifique que ha decidido el mejor tamao para su particin. Siempre tome este punto seriamente, pues cambiarlo ms adelante es mucho ms difcil que tomarse un poco de tiempo ahora en pensar las cosas. 5.9.6.1.2. Formatear la particin El formateo de particiones bajo Red Hat Enterprise Linux se hace usando el programa de utilidades mkfs. Sin embargo, mkfs en realidad no hace el trabajo de escribir la informacin especfica del sistema de archivos en el disco; en cambio pasa el control a uno de los muchos programas que crean el sistema de archivos. Este es el momento de observar la pgina man de mkfs.<fstype> para el sistema de archivos que ha seleccionado. Por ejemplo, vea la pgina man de mkfs.ext3 para revisar las opciones disponibles durante la creacin de un sistema de archivos ext3. En general, los programas mkfs.<fstype> suministran valores por defecto razonables para la mayora de las configuraciones; sin embargo, he aqu algunas de las opciones que los administradores de sistemas cambian ms a menudo:

Configuran una etiqueta de volumen para su uso posterior en /etc/fstab En discos duros muy grandes, configuran un porcentage ms pequeo de espacio reservado para el super-usuario Configuran un tamao de bloque no estndar y/o bytes para las configuraciones de inodos, que deben soportar tamaos de archivos muy grandes o muy pequeos Verifican por bloques daados antes de formatear

Una vez creados los sistemas de archivos en todas las particiones apropiadas, la unidad de disco estar configurada adecuadamente para su uso. Luego, siempre es bueno volver a verificar su trabajo manualmente montando la particin(es) y asegurndose de que est en orden. Una vez que todo est verificado, es el momento de configurar su sistema Red Hat Enterprise Linux para que monte automticamente el nuevo sistema de archivos durante el arranque. 5.9.6.1.3. Actualizar /etc/fstab Como se describi en la Seccin 5.9.5, primero debe aadir las lneas necesarias a /etc/fstab para asegurarse de que se monte el nuevo sistema de archivos cuando arranque el sistema. Una vez actualizado /etc/fstab, pruebe su trabajo ejecutando un comando "incompleto" de mount, especificando solamente el dispositivo o punto de montaje. Algo similar a alguno de los comandos siguientes es suficiente:
mount /home mount /dev/hda3

(Reemplace /home or /dev/hda3 con el punto de montaje o dispositivo para su situacin especfica.) Si la entrada correspondiente en /etc/fstab es correcta, mount obtiene la informacin faltante desde el archivo y completa la operacin de montaje. En este punto puede estar confiado de que /etc/fstab est configurado correctamente para montar automticamente el nuevo almacenamiento cada vez que el sistema arranca (aunque si se puede permitir un reinicio rpido, no hace dao simplemente para estar seguros).

5.9.6.2. Eliminar Almacenamiento


El proceso de eliminar almacenamiento desde un sistema Red Hat Enterprise Linux es relativamente directo. He aqu los pasos especficos para Red Hat Enterprise Linux:

Elimine las particiones de disco desde /etc/fstab Desmonte las particiones activas del disco Borre los contenidos de la unidad de disco

Las secciones siguientes cubren estos tpicos en ms detalles. 5.9.6.2.1. Elimine las particiones de disco desde /etc/fstab

Usando el editor de texto de su preferencia, elimine la(s) lnea(s) correspondiente(s) a la(s) particin(es) de disco desde el archivo /etc/fstab. Puede identificar las lneas correctas por alguno de los mtodos siguientes:

Haciendo corresponder los puntos de montaje con los directorios en la segunda columna de /etc/fstab Haciendo corresponder el nombre del archivo de dispositivo con el nombre de archivo en la primera columna de /etc/fstab

Sugerencia

Asegrese de ver lneas en /etc/fstab que identifican particiones swap en la unidad de disco a eliminar; se pueden dejar pasar por accidente. 5.9.6.2.2. Terminar el acceso con umount Luego, se deben terminar todos los accesos. Para particiones con sistemas de archivos activos en ellas, esto se hace con el comando umount. Si una particin swap existe en el disco, se debe desactivar con el comando swapoff o se debe reiniciar el sistema. Desmontar las particiones con el comando umount requiere que usted especifique el nombre de archivo de dispositivo, o el punto de montaje.
umount /dev/hda2 umount /home

Solamente se puede desmontar una particin si esta no se encuentra en uso. Si la particin no se puede desmontar mientras se encuentra en el nivel de ejecucin normal, arranque en modo de rescate y elimine la entrada de la particin de /etc/fstab. Cuando utilice swapoff para desactivar el swapping en una particin, debe especificar el nombre de archivo de dispositivo representando la particin swap:
swapoff /dev/hda4

Si no puede desactivar el swapping usando swapoff, arranque en modo de rescate y elimine la entrada de la particin desde /etc/fstab. 5.9.6.2.3. Borre los contenidos de la unidad de disco

Borrar los contenidos desde una unidad de disco bajo Red Hat Enterprise Linux es un procedimiento directo. Despus de desmontar todas las particiones del disco, ejecute el comando siguiente (conectado como root):
badblocks -ws <device-name>

Donde <device-name> representa el nombre del archivo de la unidad de disco que desea borrar, excluyendo el nmero de la particin. Por ejemplo, /dev/hdb para la segunda unidad ATA. Se muestra la salida siguiente mientras se ejecuta badblocks:
Writing Reading Writing Reading Writing Reading Writing Reading pattern 0xaaaaaaaa: and comparing: done pattern 0x55555555: and comparing: done pattern 0xffffffff: and comparing: done pattern 0x00000000: and comparing: done done done done done

Tenga en mente que badblocks en realidad est escribiendo cuatro patrones de datos diferentes a cada bloque en la unidad de disco. Para las unidades grandes, este proceso puede tomar un largo tiempo a menudo varias horas.

Importante

Muchas compaas (y agencias del gobierno) tienen mtodos especficos de borrar datos desde sus unidades de disco y otras medias de almacenamiento.Siempre debera asegurarse de que entiende y sigue estos requerimientos; en muchos casos hay consecuencias legales si no las sigue. El ejemplo de arriba no se debera de considerar el mtodo perfecto para limpiar una unidad de disco. No obstante, es mucho ms efectivo que utilizar el comando rm. Esto se debe a que cuando usted elimina un archivo usando rm solamente marca el archivo como borrado no elimina los contenidos del archivo.

5.9.7. Implementacin de Cuotas de Disco


Red Hat Enterprise Linux es capaz de llevar un seguimiento del espacio en disco en una base de por usuario y por grupo a travs del uso de cuotas. Las secciones

siguientes proporcionan una vista general de las funcionalidades presentes en las cuotas de disco bajo Red Hat Enterprise Linux.

5.9.7.1. Antecedentes de las Cuotas de Discos


Las cuotas de disco bajo Red Hat Enterprise Linux tiene las siguientes caractersticas:

Implementacin por sistemas de archivos Contabilidad de espacio por usuario Contabilidad de espacio por grupo Seguimiento del uso de bloques de disco Seguimiento de uso de inodes Lmites rgidos Lmites suaves Perodos de gracia

Las secciones siguientes describen cada caracterstica con ms detalles. 5.9.7.1.1. Implementacin por sistema de archivo Las cuotas de disco bajo Red Hat Enterprise Linux se pueden usar en una base por sistema de archivos. En otras palabras, las cuotas se pueden habilitar o inhabilitar para cada sistema de archivos individualmente. Esto proporciona una gran flexibilidad para el administrador del sistema. Por ejemplo, si el directorio /home/ est en su propio sistema de archivos, se pueden activar las cuotas all, haciendo cumplir un uso equitativo del espacio en disco entre todos los usuarios. Sin embargo, el sistema de archivos de root se podra dejar sin cuotas, eliminando la complejidad de mantener cuotas en un sistema de archivos donde solamente reside el sistema operativo. 5.9.7.1.2. Contabilidad del espacio por usuario Las cuotas pueden realizar la contabilidad del espacio por usuarios. Esto significa que se puede hacer un seguimiento del uso de espacio por usuario individual. Tambin significa que cualquier limitacin en uso (lo que se discute en las secciones siguientes) se hacen igualmente basada en usuarios. El tener la posibilidad de seguir de cerca el uso del espacio para cada usuario individual, permite a un administrador de sistemas asignar lmites diferentes a diferentes usuarios, de acuerdo a sus responsabilidades y necesidades de almacenamiento. 5.9.7.1.3. Contabilidad de uso por grupos

Las cuotas de disco tambin pueden realizar seguimiento del uso de disco por grupos. Esto es ideal para aquellas organizaciones que utilizan grupos como formas de combinar usuarios en un solo recurso global al proyecto. Mediante el establecimiento de cuotas globales a grupos, el administrador del sistema puede manejar ms de cerca la utilizacin del almacenamiento al darle a los usuarios individuales solamente la cuota de disco que requieren para su uso personal, a la vez que se les proporcionan cuotas ms grandes para proyectos con mltiples usuarios. Esto es una gran ventaja para aquellas organizaciones que usan un mecanismo de "cobranzas" para asignar costos de centro de datos para aquellos departamentos y equipos que utilicen los recursos del centro de datos. 5.9.7.1.4. Seguimiento del uso de bloques de disco Las cuotas de disco mantienen estadsticas del uso del bloques de disco. Debido a que todos los datos en un sistema de archivos se almacenan en bloques, las cuotas son capaces de directamente correlacionar los archivos creados y borrados en sistema de archivos con la cantidad de almacenamiento que esos archivos utilizan. 5.9.7.1.5. Seguimiento del uso de inodes Adems de seguir el uso por bloque, las cuotas tambin permiten hacer seguimiento por inodes. Bajo Red Hat Enterprise Linux, los inodes son utilizados para almacenar varias partes del sistema de archivos, pero ms importante an, los inodes guardan informacin para cada archivo. Por lo tanto, al controlar el uso de inodes, es posible controlar la creacin de nuevos archivos. 5.9.7.1.6. Lmites rgidos Un lmite rgido es el nmero mximo absoluto de bloques de disco (o inodes) que un usuario (o un grupo) puede temporalmente utilizar. Cualquier intento de utilizar un slo bloque o inode adicional, fallar. 5.9.7.1.7. Lmites suaves Un lmite suave es el nmero mximo de bloque (o inodes) que un usuario (o un grupo) puede utilizar permanentemente. El lmite suave se configura por debajo del lmite rgido. Esto permite a los usuarios que se excedan temporalmente de su lmite suave, permitiendoles terminar lo que sea que estaban realizando y dndoles algn tiempo para revisar sus archivos y poner en orden su uso del espacio por debajo del lmite suave. 5.9.7.1.8. Perodos de gracia Como se estableci anteriormente, cualquier uso del disco ms all del lmite suave es temporal. Es el perodo de gracia el que determina el largo del tiempo

que un usuario (o grupo) puede extender su uso ms all del lmite suave y hacia el lmite rgido. Si un usuario contina usando ms de su lmite suave y el perodo de gracia expira, no se le permitir ms uso adicional de disco hasta que el usuario (o el grupo) reduzca su uso a un punto por debajo del lmite suave. El perodo de gracia se puede expresar en segundos, minutos, horas, das, semanas o meses, dndole al administrador del sistema una gran libertad para determinar cunto tiempo le dar a sus usuarios para poner sus cosas en orden.

5.9.7.2. Activando Cuotas de Disco


Nota

Las secciones siguientes suministran una breve descripcin general de los pasos necesarios para habilitar las cuotas de disco bajo Red Hat Enterprise Linux. Para informacin en ms detalles sobre esto, lea el captulo sobre cuotas de discos en el Manual de administracin del sistema de Red Hat Enterprise Linux. Para utilizar cuotas de disco, primero debe activarlas. Este proceso implica varios pasos: 1. Modificar /etc/fstab 2. Remontar el(los) sistema(s) de archivo(s) 3. Ejecutar quotacheck 4. Asignar cuotas El archivo /etc/fstab controla el montaje de sistemas de archivos bajo Red Hat Enterprise Linux. Debido a que las cuotas de discos se implementan en una base de por archivo, hay dos opciones usrquota y grpquota que se deben aadir a ese archivo para activar las cuotas de discos. La opcin usrquota activa las cuotas basadas en disco, mientras que la opcin grpquota activa las cuotas basadas en grupos. Se puede activar una o ambas opciones colocndolas en el campo de opciones para el sistema de archivos deseado. Se debe entonces desmontar el sistema de archivos afectado y volver a montar para que las opciones referentes a las cuotas surtan efecto.

Luego, se utiliza el comando quotacheck para crear los archivos de cuotas de disco y para reunir la informacin referente al uso actual de los archivos ya existentes. Los archivos de cuota de disco (llamados aquota.user y aquota.group para las cuotas basadas en usuario y grupos) contienen la informacin relacionada a cuotas necesaria y residen en el directorio raz del sistema. Para asignar cuotas de disco, se utiliza el comando edquota. Este programa de utilidades utiliza un editor de texto para mostrar la informacin de cuotas para el usuario o grupo especificado como parte del comando edquota. He aqu un ejemplo:
Disk quotas for user matt (uid 500): Filesystem blocks soft hard /dev/md3 6618000 0 0 hard 0 inodes 17397 soft 0

Esto muestra que el usuario matt actualmente est utilizando ms de 6GB de espacio en disco y ms de 17.000 inodes. No se ha asignado ninguna cuota (soft o hard) para los bloques o inodes, lo que significa que no existe un lmite en el espacio en disco que este usuario puede utilizar actualmente. Utilizando el editor de texto mostrando la informacin de cuotas, el administrador del sistema puede modificar los lmites rgidos y suaves como lo desee:
Disk quotas for user matt (uid 500): Filesystem blocks soft hard /dev/md3 6618000 6900000 0 hard 7000000 inodes 17397 soft 0

En este ejemplo, se le ha asignado al usuario matt un lmite suave de 6.9GB y un lmite rgido de 7GB. No se establecen lmites suaves o rgidos para inodes de este usuario.

Sugerencia

El programa edquota tambin se puede utilizar para establecer un perodo de gracia por archivo usando la opcin -t.

5.9.7.3. Administracin de Cuotas de Disco

Realmente es poco lo que se tiene que hacer para manejar las cuotas de disco bajo Red Hat Enterprise Linux. Esencialmente lo que se requiere hacer es:

Generar informes de uso del disco a intervalos regulares (y hacer un seguimiento de los usuarios que parecen tener problemas con manejar efectivamente su espacio de disco asignado) Asegurarse de que las cuotas de discos permanecen exactas

La creacin de un informe sobre el uso del disco implica la ejecucin del programa de utilidades repquota. Usando el programa repquota /home produce la salida siguiente:
*** Report for user quotas on device /dev/md3 Block grace time: 7days; Inode grace time: 7days Block limits File limits User used soft hard grace used soft hard grace ---------------------------------------------------------------------root -32836 0 0 4 0 0 matt -- 6618000 6900000 7000000 17397 0 0

Se puede encontrar ms informacin sobre repquota en el Manual de administracin del sistema de Red Hat Enterprise Linux, en el captulo sobre cuotas de disco. Cada vez que se desmonta un sistema de archivo de forma abrupta (debido a una falla del sistema, por ejemplo), es necesario ejecutar quotacheck. Sin embargo, muchos administradores de sistemas recomiendan ejecutar quotacheck regularmente, an si el sistema no falla. El proceso es similar al uso inicial de quotacheck cuando se activan cuotas de disco. He aqu un ejemplo del comando quotacheck:
quotacheck -avug

La forma ms fcil de ejecutar quotacheck de forma regular es usando cron. La mayora de los administradores de sistemas ejecutan quotacheck una vez a la semana, sin embargo, pueden haber razones vlidas para seleccionar un intervalo ms largo o ms corto, dependiendo de sus condiciones especficas.

5.9.8. Creacin de Formaciones RAID


Adems de soportar las soluciones de hardware RAID, Red Hat Enterprise Linux soporta tambin software RAID. Hay dos formas de crear software RAID:

Mientras se instala Red Hat Enterprise Linux

Despus de instalar Red Hat Enterprise Linux

Las secciones siguientes revisan estos dos mtodos.

5.9.8.1. Mientras se instala Red Hat Enterprise Linux


Durante el proceso normal de instalacin de Red Hat Enterprise Linux, se pueden crear formaciones RAID. Esto se hace durante la fase de particionamiento de la instalacin. Para comenzar, debe particionar manualmente sus discos duros usando Disk Druid. Primero debe crear una nueva particin del tipo "software RAID." Luego, seleccione las unidades de disco que desea que formen parte de la formacin RAID en el campo Unidades admisibles. Continue seleccionando el tamao deseado y si desea que la particin sea primaria. Una vez creadas todas las particiones requeridas por la formacin(es) RAID que desea crear, debe pulsar el botn RAID para realmente crear las formaciones. Luego se le presentar una caja de dilogo donde puede seleccionar el punto de montaje de la formacin, el tipo de sistema de archivos, el nombre del dispositivo RAID, nivel RAID y las particiones de "software RAID" en las que se basa la formacin. Una vez creados las formaciones deseadas, el proceso de instalacin contina como de costumbre.

Sugerencia

Para ms informacin sobre la creacin de formaciones RAID durante el proceso de instalacin de Red Hat Enterprise Linux, consulte el Manual de administracin del sistema de Red Hat Enterprise Linux.

5.9.8.2. Despus de instalar Red Hat Enterprise Linux


La creacin de una formacin RAID despus de que Red Hat Enterprise Linux ha sido instalado es un poco ms compleja. Como con la adicin de cualquier tipo de almacenamiento, primero se debe instalar y configurar el hardware necesario. El particionamiento es un poco diferente para RAID que con las unidades de discos nicas. En vez de seleccionar el tipo de particin como "Linux" (tipo 83) o "Linux swap" (tipo 82), todas las particiones que son parte de una formacin RAID se deben configurar a "Linux raid auto" (tipo fd). Luego, es necesario crear el archivo /etc/raidtab. Este archivo es responsable de la configuracin correcta de todas las formaciones RAID en su sistema. El

formato del archivo (el cual se documenta en la pgina man de raidtab(5)) es relativamente fcil de entender. He aqu un ejemplo de una entrada /etc/raidtab para una formacin RAID 1.
raiddev /dev/md0 raid-level 1 nr-raid-disks 2 chunk-size 64k persistent-superblock 1 nr-spare-disks 0 device /dev/hda2 raid-disk 0 device /dev/hdc2 raid-disk 1

Algunas de las secciones ms notables en esta entrada son:


raiddev

Muestra el nombre del archivo del dispositivo para la formacin Define el nivel de RAID utilizado por esta formacin Indica cuntas particiones de disco fsicas seran parte de

RAID[2]
raid-level

nr-raid-disks

la formacin

El software RAID bajo Red Hat Enterprise Linux permite la definicin de uno o ms particiones de repuesto; estas particiones pueden automticamente tomar el lugar de un disco que no est funcionando bien
nr-spare-disks

Juntos definen las particiones de disco fsicas que conforman la formacin RAID
device, raid-disk

Luego, es necesario crear la formacin RAID. Esto se logra con el programa mkraid. Usando nuestro archivo de ejemplo /etc/raidtab, crearemos la formacin RAID/dev/md0 con el comando siguiente:
mkraid /dev/md0

La formacin RAID /dev/md0 ahora est lista para ser formateada y montada. El proceso en este punto no es diferente a formatear y montar un disco nico.

5.9.9. Administracin da a da de las formaciones RAID


Es poco lo que hay que hacer para mantener la formacin RAID operativa. Siempre y cuando no surjan problemas de hardware, la formacin debera funcionar como si se tratase de una sola unidad fsica de discos. Sin embargo, de la misma forma que un administrador de sistemas debera verificar peridicamente

el estado de todos los discos duros en el sistema, tambin se debera verificar el estatus de las las formaciones RAID.

5.9.9.1. Uso de /proc/mdstat para verificar el estado de la formacin RAID


El archivo /proc/mdstat es la forma ms fcil de verificar el estado de todas las formaciones RAID en un sistema particular. He aqu una muestra mdstat (vista con el comandocat /proc/mdstat):
Personalities : [raid1] read_ahead 1024 sectors md1 : active raid1 hda3[0] hdc3[1] 522048 blocks [2/2] [UU] md0 : active raid1 hda2[0] hdc2[1] 4192896 blocks [2/2] [UU] md2 : active raid1 hda1[0] hdc1[1] 128384 blocks [2/2] [UU] unused devices: <none>

En este sistema, hay tres formaciones RAID (todas RAID 1). Cada formacin RAID tiene su propia seccin en /proc/mdstat y contiene la informacin siguiente:

El nombre de dispositivo de la formacin RAID (sin incluir la parte /dev/) El estatus de la formacin RAID El nivel RAID de la formacin Las particiones fsicas que actualmente conforman la formacin (seguido por el nmero de unidad de la particin) El tamao de la formacin El nmero de dispositivos configurados contra el nmero de dispositivos operativos en la formacin El estado de cada dispositivo configurado en la formacin (U lo que significa que la formacin est OK y _ indicando que el dispositivo ha fallado)

5.9.9.2. Reconstruccin de una formacin RAID usando raidhotadd


Si /proc/mdstat muestra que existe un problema con una de las formaciones RAID, se debera utilizar el programa utilitario raidhotadd para reconstruir la formacin. He aqu los pasos que se necesitan seguir: 1. Determine cul unidad de disco contiene la particin que falla

2. Corrija el problema que caus la falla (probablemente reemplazando la unidad) 3. Particione la nueva unidad para que as las nuevas particiones en ella sean idnticas a aquellas en la(s) otra(s) unidad(es) en la formacin 4. Ejecute el comando siguiente
raidhotadd <raid-device> <disk-partition>

5. Monitorice /proc/mdstat para ver que se lleve a cabo la reconstruccin

Sugerencia

He aqu un comando que se puede utilizar para ver que se ejecute la reconstruccin:
watch -n1 cat /proc/mdstat

Este comando muestra los contenidos de /proc/mdstat, actualizndolo cada segundo.

5.9.10. Administracin de Volmenes Lgicos


Red Hat Enterprise Linux incluye el soporte para LVM. Se puede configurar LVM mientras se est instalando Red Hat Enterprise Linux, o tambin se puede configurar despus de terminar la instalacin. LVM bajo Red Hat Enterprise Linux soporta la agrupacin del almacenamiento fsico, la redimensin de los volmenes lgicos y la migracin de datos fuera de un volumen fsico especfico. Para ms informacin sobre LVM, consulte el Manual de administracin del sistema de Red Hat Enterprise Linux.
http://web.mit.edu/rhel-doc/4/RH-DOCS/rhel-isa-es-4/s1-storage-rhlspec.html

RAID-1 Los servidores que poseen discos duros en RAID-1 tienen una gran responsabilidad a la hora de fallos en los discos, ya sea fallo fisico logico. El RAID-1 basicamente realiza un espejo de un disco y lo sincroniza con otro disco, de esa forma cuando nos falla el primer disco, ejemplo sda, comienza a funcionar el segundo disco sdb.

Consejo: Siempre debemos verificar que los discos estn sincronizados en todos los dispositivos, con la siguiente linea de comandos podemos verificarlo: cat /proc/mdstat

debemos fijarnos en que debe haber lo siguiente [UU], el cual indica que esta ok, si vemos otro simbolo debemos verificar los dispositivos RAID con la opcion detail, de la siguiente forma mdadm detail /dev/md1 donde mdadm es el comando de los arreglos RAID, detail (doble guion) es la opcion y /dev/md1 se refiere al dispositivo RAID md1 el estado de ambos debe ser active sync. http://www.dch.cl/hostingdch/category/tecnologia/page/2/

IDENTIFICAR TIPOS DE RAID


Posted on August 21, 2010, 3:53 pm, by Esteban Borges, under SysAdmin Tips.

Si ests en un servidor y necesitas saber si est usando algn RAID y qu tipo en particular, existen un comando que te facilitar mucho la vida, se trata de mdadm, la forma ms facil de determinarlo es aadiendo la opcin detail scan, ejemplo:
[root@ns3334.hosting.net:~]mdadm --detail --scan ARRAY /dev/md2 level=raid1 num-devices=2 metadata=0.90 UUID=88241436:f6e1a912:a9b41e93:3723d918 ARRAY /dev/md1 level=raid1 num-devices=2 metadata=0.90 UUID=507f2cea:093afb15:7b97fd38:bdcf4cc1

Otra forma de hacerlo es a travs de cat /proc/mdstat:


[root@ns3334.hosting.net:~]cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md1 : active raid1 sdb1[1] sda1[0] 20482752 blocks [2/2] [UU] md2 : active raid1 sdb2[1] sda2[0] 1444130944 blocks [2/2] [UU] unused devices: [root@ns3334.hosting.net:~]

Sobre los arreglos RAID#

En informtica, el acrnimo RAID (originalmente del ingls Redundant Array of Inexpensive Disks, conjunto redundante de discos baratos, en la actualidad tambin de Redundant Array of Independent Disks, conjunto redundante de discos independientes) hace referencia a un sistema de almacenamiento que usa mltiples discos duros entre los que distribuye o replica los datos. Dependiendo de su configuracin (a la que suele llamarse nivel), los beneficios de un RAID respecto a un nico disco son uno o varios de los siguientes: Mayor integridad Mayor tolerancia a fallos Mayor throughput rendimiento Mayor capacidad. En sus implementaciones originales, su ventaja clave era la habilidad de combinar varios dispositivos de bajo coste y tecnologa ms antigua en un conjunto que ofreca mayor capacidad, fiabilidad, velocidad o una combinacin de stas que un solo dispositivo de ltima generacin y coste ms alto. En el nivel ms simple, un RAID combina varios discos duros en una sola unidad lgica. As, en lugar de ver varios discos duros diferentes, el sistema operativo ve uno solo. Los RAID suelen usarse en servidores y normalmente (aunque no es necesario) se implementan con unidades de disco de la misma capacidad. Debido al decremento en el precio de los discos duros y la mayor disponibilidad de las opciones RAID incluidas en los chipsets de las placas base, los RAID se encuentran tambin como opcin en los ordenadores personales ms avanzados. Esto es especialmente frecuente en los computadores dedicados a tareas intensivas de almacenamiento, como edicin de audio y vdeo. La especificacin RAID original sugera cierto nmero de niveles RAID o combinaciones diferentes de discos. Cada una tena ventajas y desventajas tericas. Con el paso de los aos, han aparecido diferentes implementaciones del concepto RAID. La mayora difieren sustancialmente de los niveles RAID idealizados originalmente, pero se ha conservado la costumbre de llamarlas con nmeros. Esto puede resultar confuso, dado que una implementacin RAID 5, por ejemplo, puede diferir sustancialmente de otra. Los niveles RAID 3 y RAID 4 son confundidos con frecuencia e incluso usados indistintamente. La misma definicin de RAID ha estado en disputa durante aos. El uso de trmino redundante hace que muchos objeten sobre que el RAID 0 sea realmente un RAID. De igual forma, el cambio de barato a independiente confunde a muchos sobre el pretendido propsito del RAID. Incluso hay algunas implementaciones del concepto RAID que usan un solo disco. Pero en general, diremos que cualquier sistema que emplee los conceptos RAID bsicos de combinar espacio fsico en disco para los fines de mejorar la fiabilidad, capacidad o rendimiento es un sistema RAID.

Implementaciones RAID#
La distribucin de datos en varios discos puede ser gestionada por hardware dedicado o por software. Adems, existen sistemas RAID hbridos basados en software y hardware especfico. Con la implementacin por software, el sistema operativo gestiona los discos del conjunto a travs de una controladora de disco normal (IDE/ATA, Serial ATA, SCSI, SAS o Fibre Channel). Considerada tradicionalmente una solucin ms lenta, con el rendimiento de las CPUs modernas puede llegar a ser ms rpida que algunas implementaciones hardware, a expensas de dejar menos tiempo de proceso al resto de tareas del sistema. Una implementacin de RAID basada en hardware requiere al menos una controladora RAID especfica, ya sea como una tarjeta de expansin independiente o integrada en la placa base, que gestione la administracin de los discos y efecte los clculos de paridad (necesarios para algunos niveles RAID). Esta opcin suele ofrecer un mejor rendimiento y hace que el soporte por parte del

sistema operativo sea ms sencillo (de hecho, puede ser totalmente transparente para ste). Las implementaciones basadas en hardware suelen soportar sustitucin en caliente (hot swapping), permitiendo que los discos que fallen puedan reemplazarse sin necesidad de detener el sistema. En los RAID mayores, la controladora y los discos suelen montarse en una caja externa especfica, que a su vez se conecta al sistema principal mediante una o varias conexiones SCSI, Fibre Channel o iSCSI. A veces el sistema RAID es totalmente autnomo, conectndose al resto del sistema como un NAS. Los RAID hbridos se han hecho muy populares con la introduccin de controladoras RAID hardware baratas. En realidad, el hardware es una controladora de disco normal sin caractersticas RAID, pero el sistema incorpora una aplicacin de bajo nivel que permite a los usuarios construir RAID controlados por la BIOS. Ser necesario usar un controlador de dispositivo especfico para que el sistema operativo reconozca la controladora como un nico dispositivo RAID. Estos sistemas efectan en realidad todos los clculos por software (es decir, los realiza la CPU), con la consiguiente prdida de rendimiento, y tpicamente estn restringidos a una nica controladora de disco. Una importante caracterstica de los sistemas RAID por hardware es que pueden incorporar un cach de escritura no voltil (con alimentacin de respaldo por batera) que permite aumentar el rendimiento del conjunto de discos sin comprometer la integridad de los datos en caso de fallo del sistema. Esta caracterstica no est obviamente disponible en los sistemas RAID por software, que suelen presentar por tanto el problema de reconstruir el conjunto de discos cuando el sistema es reiniciado tras un fallo para asegurar la integridad de los datos. Por el contrario, los sistemas basados en software son mucho ms flexibles (permitiendo, por ejemplo, construir RAID de particiones en lugar de discos completos y agrupar en un mismo RAID discos conectados en varias controladoras) y los basados en hardware aaden un punto de fallo ms al sistema (la controladora RAID). Todas las implementaciones pueden soportar el uso de uno o ms discos de reserva (hot spare), unidades pre-instaladas que pueden usarse inmediatamente (y casi siempre automticamente) tras el fallo de un disco del RAID. Esto reduce el tiempo del perodo de reparacin al acortar el tiempo de reconstruccin del RAID.

Tipos de configuracin de arreglos RAID#


Los niveles RAID ms comnmente usados son:
RAID 0: Conjunto dividido RAID 1: Conjunto en espejo RAID 5: Conjunto dividido con paridad distribuida

RAID 0#
Un RAID 0 (tambin llamado conjunto dividido o volumen dividido), distribuye los datos equitativamente entre dos o ms discos sin informacin de paridad que proporcione redundancia. Es importante sealar que el RAID 0 no era uno de los niveles RAID originales y que no es redundante. El RAID 0 se usa normalmente para incrementar el rendimiento, aunque tambin puede utilizarse como forma de crear un pequeo nmero de grandes discos virtuales a partir de un gran nmero de pequeos discos fsicos. Un RAID 0 puede ser creado con discos de diferentes tamaos, pero el espacio de almacenamiento aadido al conjunto estar limitado al tamao del disco ms pequeo (por ejemplo, si un disco de 300 GB se divide con uno de 100 GB, el tamao del conjunto resultante ser 200 GB). Una buena implementacin de un RAID 0 dividir las operaciones de lectura y escritura en bloques de igual tamao y los distribuir equitativamente

entre los dos discos. Tambin es posible crear un RAID 0 con ms de un disco, si bien la fiabilidad del conjunto ser igual a la fiabilidad media de cada disco entre el nmero de discos del conjunto; es decir, la fiabilidad total medida como MTTF o MTBF es (aproximadamente) inversamente proporcional al nmero de discos del conjunto. Esto se debe a que el sistema de ficheros se distribuye entre todos los discos sin redundancia, por lo que cuando uno de ellos falla se pierde una parte muy importante de los datos. Con un RAID 0, si todos los sectores accedidos estn en el mismo disco, entonces el tiempo de bsqueda ser el de dicho disco. Si los sectores a acceder estn distribuidos equitativamente entre los discos, entonces el tiempo de bsqueda aparente estar entre el ms rpido y el ms lento de los discos del conjunto, pues todos los discos necesitan acceder a su parte de los datos antes de que la operacin pueda completarse. Esto podra llevar a tiempos de bsqueda cercanos al peor escenario para un nico disco, salvo si los discos giran sincronizadamente, lo que dara tiempos de bsqueda slo ligeramente superiores al de un nico disco. La velocidad de transferencia del conjunto ser la suma de la de todos los discos, limitada slo por la velocidad de la controladora RAID. El RAID 0 es til para configuraciones tales como servidores NFS de solo lectura en las que montar muchos discos es un proceso costoso en tiempo y la redundancia es irrelevante. Otro uso es cuando el nmero de discos est limitado por el sistema operativo: por ejemplo, en Microsoft Windows el nmero de unidades lgicas (letras) est limitado a 24, por lo que el RAID 0 es una forma de usar ms discos (en Windows 2000 Professional y posteriores es posible montar particiones en directorios, de forma parecida a Unix, eliminando as la necesidad de asignar una letra a cada unidad). El RAID 0 es tambin una opcin popular para sistemas destinados a juegos en los que se desea un buen rendimiento y la integridad no es muy importante, si bien el coste es una preocupacin para la mayora de los usuarios.

RAID 1#
Un RAID 1 crea una copia exacta (o espejo) de un conjunto de datos en dos o ms discos. Esto resulta til cuando el rendimiento en lectura es ms importante que la capacidad. Un conjunto RAID 1 slo puede ser tan grande como el ms pequeo de sus discos. Un RAID 1 clsico consiste en dos discos en espejo, lo que incrementa exponencialmente la fiabilidad respecto a un solo disco; es decir, la probabilidad de fallo del conjunto es igual al producto de las probabilidades de fallo de cada uno de los discos (pues para que el conjunto falle es necesario que lo hagan todos sus discos). Adicionalmente, dado que todos los datos estn en dos o ms discos, con hardware habitualmente independiente, el rendimiento de lectura se incrementa aproximadamente como mltiplo lineal del nmero del copias; es decir, un RAID 1 puede estar leyendo simultneamente dos datos diferentes en dos discos diferentes, por lo que su rendimiento se duplica. Para maximizar los beneficios sobre el rendimiento del RAID 1 se recomienda el uso de controladoras de disco independientes, una para cada disco (prctica que algunos denominan splitting o duplexing). Como en el RAID 0, el tiempo medio de lectura se reduce, ya que los sectores a buscar pueden dividirse entre los discos, bajando el tiempo de bsqueda y subiendo la tasa de transferencia, con el nico lmite de la velocidad soportada por la controladora RAID. Sin embargo, muchas tarjetas RAID 1 IDE antiguas leen slo de un disco de la pareja, por lo que su rendimiento es igual al de un nico disco. Algunas implementaciones RAID 1 antiguas tambin leen de ambos discos simultneamente y comparan los datos para detectar errores. La deteccin y correccin de errores en los discos duros modernos hacen esta prctica poco til. Al escribir, el conjunto se comporta como un nico disco, dado que los datos deben ser escritos en todos los discos del RAID 1. Por tanto, el rendimiento no mejora.

El RAID 1 tiene muchas ventajas de administracin. Por ejemplo, en algunos entornos 24/7, es posible dividir el espejo: marcar un disco como inactivo, hacer una copia de seguridad de dicho disco y luego reconstruir el espejo. Esto requiere que la aplicacin de gestin del conjunto soporte la recuperacin de los datos del disco en el momento de la divisin. Este procedimiento es menos crtico que la presencia de una caracterstica de snapshot en algunos sistemas de ficheros, en la que se reserva algn espacio para los cambios, presentando una vista esttica en un punto temporal dado del sistema de ficheros. Alternativamente, un conjunto de discos puede ser almacenado de forma parecida a como se hace con las tradicionales cintas.

RAID 5#
Un RAID 5 usa divisin de datos a nivel de bloques distribuyendo la informacin de paridad entre todos los discos miembros del conjunto. El RAID 5 ha logrado popularidad gracias a su bajo coste de redundancia. Generalmente, el RAID 5 se implementa con soporte hardware para el clculo de la paridad. Cada vez que un bloque de datos se escribe en un RAID 5, se genera un bloque de paridad dentro de la misma divisin (stripe). Un bloque se compone a menudo de muchos sectores consecutivos de disco. Una serie de bloques (un bloque de cada uno de los discos del conjunto) recibe el nombre colectivo de divisin (stripe). Si otro bloque, o alguna porcin de un bloque, es escrita en esa misma divisin, el bloque de paridad (o una parte del mismo) es recalculada y vuelta a escribir. El disco utilizado por el bloque de paridad est escalonado de una divisin a la siguiente, de ah el trmino bloques de paridad distribuidos. Las escrituras en un RAID 5 son costosas en trminos de operaciones de disco y trfico entre los discos y la controladora. Los bloques de paridad no se leen en las operaciones de lectura de datos, ya que esto sera una sobrecarga innecesaria y disminuira el rendimiento. Sin embargo, los bloques de paridad se leen cuando la lectura de un sector de datos provoca un error de CRC. En este caso, el sector en la misma posicin relativa dentro de cada uno de los bloques de datos restantes en la divisin y dentro del bloque de paridad en la divisin se utilizan para reconstruir el sector errneo. El error CRC se oculta as al resto del sistema. De la misma forma, si falla un disco del conjunto, los bloques de paridad de los restantes discos son combinados matemticamente con los bloques de datos de los restantes discos para reconstruir los datos del disco que ha fallado al vuelo. Lo anterior se denomina a veces Modo Interino de Recuperacin de Datos (Interim Data Recovery Mode). El sistema sabe que un disco ha fallado, pero slo con el fin de que el sistema operativo pueda notificar al administrador que una unidad necesita ser reemplazada: las aplicaciones en ejecucin siguen funcionando ajenas al fallo. Las lecturas y escrituras continan normalmente en el conjunto de discos, aunque con alguna degradacin de rendimiento. La diferencia entre el RAID 4 y el RAID 5 es que, en el Modo Interno de Recuperacin de Datos, el RAID 5 puede ser ligeramente ms rpido, debido a que, cuando el CRC y la paridad estn en el disco que fall, los clculos no tienen que realizarse, mientras que en el RAID 4, si uno de los discos de datos falla, los clculos tienen que ser realizados en cada acceso. El RAID 5 requiere al menos tres unidades de disco para ser implementado. El fallo de un segundo disco provoca la prdida completa de los datos. El nmero mximo de discos en un grupo de redundancia RAID 5 es tericamente ilimitado, pero en la prctica es comn limitar el nmero de unidades. Los inconvenientes de usar grupos de redundancia mayores son una mayor probabilidad de fallo simultneo de dos discos, un mayor tiempo de reconstruccin y una mayor probabilidad de hallar un sector irrecuperable durante una reconstruccin. A medida que el nmero de discos en un conjunto RAID 5 crece, el MTBF (tiempo medio entre fallos) puede ser ms bajo que el de un nico disco. Esto sucede cuando la probabilidad de que falle un segundo disco en los N-1 discos restantes de un conjunto en el que ha fallado un disco en el tiempo necesario para detectar, reemplazar y recrear dicho disco es mayor que la probabilidad de fallo de un nico disco. Una

alternativa que proporciona una proteccin de paridad dual, permitiendo as mayor nmero de discos por grupo, es el RAID 6. Las implementaciones RAID 5 presentan un rendimiento malo cuando se someten a cargas de trabajo que incluyen muchas escrituras ms pequeas que el tamao de una divisin (stripe). Esto se debe a que la paridad debe ser actualizada para cada escritura, lo que exige realizar secuencias de lectura, modificacin y escritura tanto para el bloque de datos como para el de paridad. Implementaciones ms complejas incluyen a menudo cachs de escritura no voltiles para reducir este problema de rendimiento. En el caso de un fallo del sistema cuando hay escrituras activas, la paridad de una divisin (stripe) puede quedar en un estado inconsistente con los datos. Si esto no se detecta y repara antes de que un disco o bloque falle, pueden perderse datos debido a que se usar una paridad incorrecta para reconstruir el bloque perdido en dicha divisin. Esta potencial vulnerabilidad se conoce a veces como agujero de escritura. Son comunes el uso de cach no voltiles y otras tcnicas para reducir la probabilidad de ocurrencia de esta vulnerabilidad.

Instalacin y Configuracin de RAID#


En este manual vamos a explicar como configurar un RAID a nivel software sobre CentOS. Para ello partiremos de dos discos duros hipotticos los cuales tendrn la siguiente disposicin. RAID 1 que nos permitir mantener los datos mas crticos en dos particiones en espejo, en el caso de fallar uno de los discos no perderamos datos.

Instalacin de paquetes#
Los paquetes necesarios para implementar un RAID en conjuncin con un LVM sern los siguientes: mdadm Para instalarlos teclee en una terminal de BASH lo siguiente:
[BASH]# yum install mdadm

Instalacin y configuracin del RAID#


El principal requisito para implementar un RAID sera disponer de dos discos duros de la misma capacidad. Estos discos duros debern tener asignadas las siguientes particiones: El disco duro numero 1 contendr dos particiones sda1 sera para la / sda2 sera para la SWAP El disco duro numero 2 deber contener igualmente dos particiones sdb1 del mismo tamao que sda1 sdb2 del mismo tamao que sda2 Estas particiones pueden ser creadas con la ayuda de fdisk, comando del cual hemos hablado extensamente en capitulos anteriores. Una vez creadas las particiones solo restara asignar el identificador correspondiente a particiones tipo RAID, para hacerlo haga lo siguiente: Abra una terminal y teclee:

[BASH]# fdisk /dev/[h|s] d [a|b|c]

Donde : hLa letra 'h' hace referencia a un disco duro PATA. Eje: hd sLa letra 's' hace referencia a un disco duro SATA. Eje: sd aLa letra 'a' hace referencia al primer disco duro del equipo bLa letra 'b' hace referencia al segundo disco duro del equipo cLa letra 'c' hace referencia al tercer disco duro del equipo En nuestro caso, contamos con un solo disco duro PATA en el equipo, por lo que ejecutaremos fdisk de la siguiente manera:
[BASH]# fdisk /dev/hdb

Una vez que la aplicacin esta iniciada, se nos presenta el siguiente mensaje:
Command (m for help):

Si usted presiona la tecla 'm' se imprimir el men con las herramientas propias del comando fdisk. Estas herramientas son: aConmuta el indicador de iniciable bModifica la etiqueta de disco bsd cConmuta el indicador de compatibilidad con DOS dSuprime una particin lLista los tipos de particiones conocidos mImprime este men nAade una nueva particin oCrea una nueva tabla de particiones DOS vaca

pImprime la tabla de particiones qSale sin guardar los cambios sCrea una nueva etiqueta de disco Sun tCambia el identificador de sistema de una particin uCambia las unidades de visualizacin/entrada vVerifica la tabla de particiones wEscribe la tabla en el disco y sale xFunciones adicionales (slo para usuarios avanzados) Como podemos notar, con la opcin "m" podemos imprimir nuevamente este men. Seleccione del men, la opcin Cambiar el identificador de sistema de una particin, para ello teclee la letra 't' , esto nos mostrara la distribucin actual de nuestras particiones en nuestro disco duro. Fdisk, nos preguntara a que particin queremos cambiar el ID, estas particiones sern: sdb1 sdb2 Como no conocemos el cdigo hexadecimal para las particiones RAID lanzamos la ayuda para poder visualizar todos los cdigos hexadecimales disponibles, para ello teclee la letra 'L' y localiza el cdigo hexadecimal para las particiones RAID. El cdigo hexadecimal para las particiones RAID es el siguiente:
fd Linux raid auto Una vez localizado el cdigo hexadecimal, solo restara teclearlo. Para guardar los cambios al disco teclee la letra 'w' El siguiente paso sera asignar y crear el RAID. En una terminal de BASH teclee lo siguiente: [BASH]# mdadm --create /dev/md0 --level=1 --raid-disks=2 missing /dev/sdb1 [BASH]# mdadm --create /dev/md1 --level=1 --raid-disks=2 missing /dev/sdb2 }}}

En donde:
create /dev/md0 Sera el nombre del RAID que estamos creando level=1 Le indicamos que tipo de RAID estamos creando, en este caso RAID1 raid-disks=2 El numero de dispositivos que forman el RAID /dev/sda [] /dev/sdb[]La lista de dispositivos que forma parte del RAID

Estos RAID los crearemos en modo degradado, de momento solo aadiremos al RAID los discos que hemos formateado, por lo que las entradas que corresponden al disco /dev/sda las dejamos en missing El siguiente paso sera darles formato a las particiones RAID, para ello teclee lo siguiente (Recuerde que esta accin debe hacerse en nivel de ejecucin 1).

[BASH]# mkfs.ext3 /dev/md0 [BASH]# mkswap /dev/md1}}}

Una vez hecho esto tenemos que modificar el fichero


/etc/mdadm.conf para ello ejecutaremos [BASH]# mdadm --examine --scan Que nos devuelve informacin de nuestro RAID. De dicha informacin se deber agregar las siguientes lineas al final del fichero mdadm.conf ARRAY /dev/md0 level=raid1 num-devices=2 UUI... ARRAY /dev/md1 level=raid1 num-devices=2 UUI...}}}

Montaje del RAID#


La siguiente accin sera crear los puntos de montaje en donde sern alojadas nuestras particiones RAID. Para ello crearemos dos carpetas dentro de la ruta /mnt como se muestra a continuacin.
[BASH]# mkdir /mnt/md0 [BASH]# mkdir /mnt/md1}}} Y luego de crearlas monte sobre ellas las particiones RAID creadas anteriormente [BASH]# mount /dev/md0 /mnt/md0 [BASH]# mount /dev/md0 /mnt/md1}}} Ahora modificaremos el archivo /etc/fstab para que nos monte las particiones RAID como RAIZ y SWAP , para ello deber sustituir las siguientes lineas: /dev/sda1 / ext3 defaults,errors=remount-ro 0 1

/dev/sda2 none swap sw 0 0}}} Por estas: /dev/md0 / ext3 defaults,errors=remount-ro 0 1

/dev/md1 none swap sw 0 0}}} Tambin se debe modificar el fichero /etc/mtab hacemos lo mismo, sustituimos dentro del fichero /dev/sda1 por /dev/md0

Modificando el boteo de Linux#


Ahora editaremos el men del grub para que arranque el sistema operativo desde la particin RAID que hemos creado, para ello abra el fichero:
/boot/grub/menu.lst

Y duplica las lineas que hacen referencia a la particin en donde se encuentra los ficheros de boteo de linux, en nuestro caso debe ser algo similar a esto: title Centos 5.3, kernel 2.6.24-17-generic

root (hd0,0) kernel /boot/vmlinuz-2.6.24-17-generic root=/dev/sda1 ro quiet splash initrd /boot/initrd.img-2.6.2417-generic quiet}}}

Y modificamos el primero para que apunte a /dev/md0 en el disco (hd1,0). El segundo lo dejamos apuntando a nuestra particin raz actual por si no arranca correctamente desde /dev/md0. Al final nuestro fichero deber quedar de la siguiente manera:
title Centos 5.3, kernel 2.6.24-17-generic

root (hd1,0) kernel /boot/vmlinuz-2.6.24-17-generic root=/dev/md0 ro quiet splash initrd /boot/initrd.img-2.6.2417-generic quiet

title Centos 5.3, kernel 2.6.24-17-generic root (hd0,0) kernel /boot/vmlinuz-2.6.24-17-generic root=/dev/sda1 ro quiet splash initrd /boot/initrd.img-2.6.24-17-generic quiet}}} A continuacin actualizaremos el ramdisk Ramdisk es una porcin de memoria ram la cual se utiliza como si fuera un disco duro. Los discos RAM tienen tamaos establecidos que son como una particin de disco. Los tiempos de acceso para un disco RAM son mucho mas rpidos que en un disco fsico Sin embargo, cualquier informacin guardad en un ram disk se pierde cuando el sistema se apaga o reinicia. Pero son un buen lugar para almacenamiento temporal de datos. Desde la versin 2.4 del kernel de linux se puede encontrar soporte para ramdisks, por lo cual se puede encontrar en cualquier distro moderna de linux Para hacer la actualizacin teclearemos lo siguiente en consola:
[BASH]# update-initramfs -u Ya solo faltara copiar todos los datos de / a la nueva particin desde la que va a arrancar ahora, para hacerlo teclee lo siguiente: [BASH]# cp -dpRx / /mnt/md0 Donde: dpPreserva los los atributos de los ficheros (enlaces simblicos,permisos, modos de lectura) R Copia recursivamente el contenido de las carpetas x Le indica que debe adaptarse al sistema de ficheros nuevo

Ademas de todos los pasos antes descritos debemos activar el grub en los dos discos duros, para ello teclee lo siguiente en una terminal de BASH:
[BASH]# grub grub> root (hd1,0) grub> setup (hd1)

grub> root (hd0,0) grub> setup (hd0) exit}}} Los siguiente sera reiniciar el equipo el cual ya tiene que arrancar desde el RAID que como recordara se encuentra funcionando en modo degradado ya que solo dispone de un disco duro. Lo podemos verificar con el siguiente comando
[BASH]# df -h

Recuerde la particin /dev/md0 debe estar montada en /. Ahora que hemos conseguido arrancar el sistema desde el segundo disco duro es hora de preparar las particiones del primer disco para aadirlo al RAID, para hacerlo se tiene que modificar el identificador de estas particiones que al

igual que lo hicimos con /dev/sdb1 y /dev/sdb2, se deber hacer con /dev/sda1 y /dev/sda2. Luego de haber hecho el paso anterior aadiremos las particiones del disco duro 1 al RAID.
[BASH]# mdadm --add /dev/md0 /dev/sda1 [BASH]# mdadm --add /dev/md1 /dev/sda2}}}

Si compruebas ahora el fichero /proc/mdstat veras que se esta sincronizando el RAID, hay que esperar hasta que finalice:
[BASH]# more /proc/mdstat ------------------------------------------------------------------------ Personalities : [raid1] md2 : active raid1 sda1[2] sdb1[1] 8702093 blocks [2/1] [_U] [=====>...............] recovery = 37.3% (3245881/8702093) finish=2.4min speed=67433K/sec

md1 : active raid1 sda2[0] sdb2[1] 197920 blocks [2/2] [UU]}}} Al finalizar el proceso nos debera arrojar un resultado como este:
Personalities : [raid1] md2 : active raid1 sda1[0] sdb1[1] 8702093 blocks [2/2] [UU]

md1 : active raid1 sda2[0] sdb2[1] 197920 blocks [2/2] [UU]}}} Lo cual nos quiere decir que ya lo tenemos correctamente sincronizando Volveremos a modificar el fichero
/etc/mdadm.conf al cual tendremos que eliminar las lineas que habamos aadido anteriormente y sustituirlas por las que nos devuelve ahora la ejecucin del siguiente comando: [BASH]# mdadm --examine --scan

En particular las siguientes lineas:


... ARRAY /dev/md0 level=raid1 num-devices=2 UUI... ARRAY /dev/md1 level=raid1 num-devices=2 UUI...}}}

Debemos modificar de nuevo el grub para que la entrada que apunta todava a /dev/sda1 apunte a /dev/md0 en el disco (hd0,0). Para hacerlo abra el fichero /boot/grub/menu.lst y cambie esta linea
kernel por esta otra kernel /boot/vmlinuz-2.6.24-17-generic root=/dev/md0 ro quiet splash /boot/vmlinuz-2.6.24-17-generic root=/dev/sda1 ro quiet splash

al final deber lucir de la siguiente manera title Centos 5.3, kernel 2.6.24-17-generic

root (hd1,0) kernel /boot/vmlinuz-2.6.24-17-generic root=/dev/md0 ro quiet splash initrd /boot/initrd.img-2.6.2417-generic quiet

title Centos 5.3, kernel 2.6.24-17-generic root (hd0,0) kernel /boot/vmlinuz-2.6.24-17-generic root=/dev/md0 ro quiet splash initrd /boot/initrd.img-2.6.24-17-generic quiet}}}

Con esto el sistema arrancara por defecto desde el disco hd1 y en el caso de que este disco falle deberemos indicarle manualmente que arranque desde la otra particin. Para que el sistema arranque automticamente desde el segundo disco si falla el primero debemos aadir fallback justo debajo de default en el fichero /boot/grub/menu.lst
... default 0 fallback 1 ...}}} O sea, que arranque por defecto de la entrada 0 (la primera del listado) y en caso de error que arranque de la entrada 1 (la segunda del listado). Finalmente volvemos a actualizar el ramdisk [BASH]# update-initramfs -u Y por ultimo reiniciamos el equipo

Comprobacin final del RAID#


Ahora el sistema debe ser capaz de arrancar desde cualquiera de los dos discos aunque falle uno de ellos, puedes hacer pruebas desconectando uno de los discos para ver si todo sigue funcionando correctamente. Si no quieres abrir el equipo puedes simular un fallo de discos de la siguiente manera:
[BASH]# mdadm --manage /dev/md0 --fail /dev/sdb1 [BASH]# mdadm --manage /dev/md0 --remove /dev/sdb1}}} Reinicias y ahora el equipo deber arrancar con el RAID en modo degradado.

http://www.linuxparatodos.net/web/comunidad/base-de-conocimiento//wiki/Base+de+Conocimiento/Arreglos+RAID;jsessionid=2FF825122B47FA4398D148D4E0AFF9D8? _36_pageResourcePrimKey=54590

Crear y migrar LVM con varios filesystems en un dispositivo RAID Linux


Publicado el Lunes, 30 Abril 2012 05:30 | Valoracin del Usuario: Malo Bueno /0
Valoracin

Introduccin
Administro un servidor CentOS para una pequea empresa. El sistema fue creado inicialmente con mltiples sistemas de ficheros en un LVM en un nico disco duro SATA. Este disco se qued sin espacio y yo quera una mayor fiabilidad, as que decid instalar dos grandes unidades adicionales en el sistema y hacer un mirror (espejo) utilizando RAID

1. Desde que haba configurado originalmente la mquina con LVM yo era capaz de hacer casi todo esto mientras el sistema estaba en produccin. Este procedimiento se basa en varias caractersticas de LVM, la cual no estoy muy bien documentado, as que decid que sera una buena idea para escribir mi procedimiento para ayudar a los dems que estn pensando en una actualizacin similar. Tenga en cuenta que despus de todo esto me qued con la unidad original en la mquina como unidad de arranque, ya que no vala la pena el esfuerzo extraerla para hacer el nuevo array RAID de la unidad de arranque tambin. Que se puede hacer como una mayor optimizacin para aumentar la fiabilidad, si lo desea.

Procedimiento
o o Apague el sistema e instale los dos nuevas unidades SATA (este sera el trabajo con las unidades PATA, SCSI, etc, aunque los nombres de unidad pueden ser diferente). Las nuevas unidades aparecen como sdb y sdc cuando el sistema vuelve a encenderse (la unidad original es sda). El sistema se puede utilizar en produccin a partir de ahora, aunque ser lento debido a toda la actividad de disco adicional. Usar fdisk para crear una particin de gran tamao en cada unidad (sdb1, sdc1) y establecer el tipo de sistema de archivos a "auto raid linux" tipo fd. Es posible que desee crear sdb1 y sdc1 como particiones normales de Linux de 100MB (tipo 83), si piensa en el futuro para que arranque desde las unidades RAID. En ese caso, utilice el resto de cada disco para sdb2 y sdc2 y ajustese las (siguientes) instrucciones en consecuencia. Para Crear un nuevo raid de las dos unidades con /sbin/mdadm --create --verbose

/dev/md0 --level=1 --raid-devices=2 /dev/sdb1 /dev/sdc1


Compruebe el estado de la matriz RAID con /sbin/mdadm --detail /dev/md0 Tenga en cuenta que si el sistema no se ha configurado previamente con la incursin, initrd no incluir drivers RAID y el sistema no podr arrancar. Por lo tanto es necesario construir un nuevo initrd. Para crear un nuevo initrd: mv /boot/initrd-$(uname -r).img /boot/initrd-$(uname -r).img.bak mkinitrd -v /boot/initrd-$(uname -r).img $(uname -r) Verificar en la salida de mkinitrd para ver que se ha incluido el driver md-mirror. Configurar /etc/mdadm.conf (no es necesario, pero es una buena idea para futuras referencias): echo "DEVICE /dev/sdb1 /dev/sdc1" >/etc/mdadm.conf mdadm --detail --scan >>/etc/mdadm.conf echo "MAILADDR

root@example.com" >>/etc/mdadm.conf o o o Iniciar un nuevo volumen fsico LVM en el nuevo dispositivo raid, ataque con pvcreate -

v /dev/md0
Puede seguir trabajando en este momento pero quiere ser prudente debe esperar a que la reconstruccin de RAID termine reflejando las unidades. Vea /proc/mdstat para el estado de esta operacin.

Ampliar el actual grupo de volumen LVM en el disco original /dev/sda2 en /dev/md0 con vgextend vg /dev/md0 Use pvdisplay para verificar que tanto /dev/sda2 y /dev/md0 son parte del grupo de volmenes recin ampliados. Use vgdisplay para comprobar que el grupo de volmenes (VG) es ahora el tamao de /dev/sda2 y /dev/md0 combinado. Mueva el volumen lgico /home desde el dispositivo fsico antiguo al dispositivo nuevo ataque con pvmove -v -n /dev/vg/home /dev/sda2 /dev/md0 Esto se puede repetir para cualquiera (o todos) los volmenes lgicos en el disco viejo. Espere a que pvmove finalice (esto puede tardar un par de horas). La -v de pvmove mostrar el porcentaje realizado cada 15 segundos.

Verificar que el volumen lgico ha sido trasladado al dispositivo fsico nuevo con /usr/sbin/lvdisplay -m /dev/vg/home Cambiar el tamao del volumen lgico que contiene /home (/dev/vg/home), mientras que la obliga a permanecer en el dispositivo RAID /dev/md0 con lvresize -L+425G

/dev/vg/home /dev/md0
o o o o Use lvdisplay despus de esto ultima para verificar que /home es ahora el nuevo tamao ms grande. En este punto tenemos que aumentar el tamao del sistema de archivos ext3 de /home, pero esto requiere desmontar /home. Esto se puede hacerse en un sistema en ejecucin si cualquiera puede parar y desmontar /home. De lo contrario, vaya al modo de usuario nico con /sbin/init 1. Comprobar la integridad de /home con e2fsck -f /dev/vg/home . Esto tomar un tiempo, quiz hasta una hora ... Cambiar el tamao de /home con /sbin/resize2fs /dev/vg/home . Esto cambia el tamao del sistema de archivos para llenar el volumen, recientemente ampliado /dev/vg/home . Verifique las nuevas obras /home montndolo, comprobar la salida de df, y la lectura de algunos archivos.

Reinicie la mquina para verificar que todo ha salido bien despus de reiniciar el sistema.

http://www.linux-party.com/index.php/35-linux/7942-crear-y-migrar-lvm-con-varios-filesystemsen-un-dispositivo-raid-linux

refuerzo http://www.taringa.net/posts/info/1032459/Que-es-RAID_.html

Você também pode gostar