GNU/Linux >> Tutoriales Linux >  >> Fedora

Almacenamiento distribuido en cuatro nodos de almacenamiento con GlusterFS en Fedora 12

Este tutorial muestra cómo combinar cuatro servidores de almacenamiento individuales (que ejecutan Fedora 12) en un gran servidor de almacenamiento (almacenamiento distribuido) con GlusterFS. El sistema cliente (también Fedora 12) podrá acceder al almacenamiento como si fuera un sistema de archivos local. GlusterFS es un sistema de archivos en clúster capaz de escalar a varios peta-bytes. Agrega varios bloques de almacenamiento sobre la interconexión Infiniband RDMA o TCP/IP en un gran sistema de archivos de red paralelo. Los bloques de almacenamiento se pueden fabricar con cualquier hardware básico, como servidores x86_64 con SATA-II RAID e Infiniband HBA.

Tenga en cuenta que este tipo de almacenamiento (almacenamiento distribuido) no proporciona funciones de alta disponibilidad, como sería el caso del almacenamiento replicado.

¡No emito ninguna garantía de que esto funcione para usted!

1 nota preliminar

En este tutorial utilizo cinco sistemas, cuatro servidores y un cliente:

  • servidor1.ejemplo.com:dirección IP 192.168.0.100 (servidor)
  • servidor2.ejemplo.com:dirección IP 192.168.0.101 (servidor)
  • servidor3.ejemplo.com:dirección IP 192.168.0.102 (servidor)
  • servidor4.ejemplo.com:dirección IP 192.168.0.103 (servidor)
  • cliente1.ejemplo.com:dirección IP 192.168.0.104 (cliente)

Los cinco sistemas deberían poder resolver los nombres de host de los otros sistemas. Si esto no se puede hacer a través de DNS, debe editar el archivo /etc/hosts para que contenga las siguientes líneas en los cinco sistemas:

vi /etc/hosts

(También es posible usar direcciones IP en lugar de nombres de host en la siguiente configuración. Si prefiere usar direcciones IP, no tiene que preocuparse si los nombres de host se pueden resolver o no).

2 Configuración de los servidores GlusterFS

servidor1.ejemplo.com/servidor2.ejemplo.com/servidor3.ejemplo.com/servidor4.ejemplo.com:

El servidor GlusterFS está disponible como paquete para Fedora 12, por lo que podemos instalarlo de la siguiente manera:

yum install glusterfs-server

El comando

glusterfs --version

ahora debería mostrar la versión de GlusterFS que acaba de instalar (2.0.9 en este caso):

[[email protected] ~]# glusterfs --version
glusterfs 2.0.9 construido el 3 de ene 2010 00:12:49
Revisión del repositorio: v2.0.9
Copyright (c) 2006- 2009 Gluster Inc. 
GlusterFS viene sin NINGUNA GARANTÍA.
Usted puede redistribuir copias de GlusterFS según los términos de la Licencia Pública General de GNU.
[[correo electrónico protegido] ~]#

A continuación, creamos algunos directorios:

mkdir /data/
mkdir /data/export
mkdir /data/export-ns

Ahora creamos el archivo de configuración del servidor GlusterFS /etc/glusterfs/glusterfsd.vol (hacemos una copia de seguridad del archivo original /etc/glusterfs/glusterfsd.vol primero) que define qué directorio se exportará (/data/export) y qué el cliente puede conectarse (192.168.0.101 =client1.example.com):

cp /etc/glusterfs/glusterfsd.vol /etc/glusterfs/glusterfsd.vol_orig
cat /dev/null> /etc/glusterfs/glusterfsd.vol
vi /etc/glusterfs/glusterfsd.vol

[...]
192.168.0.100   server1.example.com     server1
192.168.0.101   server2.example.com     server2
192.168.0.102   server3.example.com     server3
192.168.0.103   server4.example.com     server4
192.168.0.104   client1.example.com     client1
[...]

Tenga en cuenta que es posible utilizar comodines para las direcciones IP (como 192.168.*) y que puede especificar varias direcciones IP separadas por comas (por ejemplo, 192.168.0.104, 192.168.0.105).

Luego creamos los enlaces de inicio del sistema para el servidor GlusterFS y lo iniciamos:

chkconfig --levels 35 glusterfsd en
/etc/init.d/glusterfsd start

3 Configuración del cliente GlusterFS

cliente1.ejemplo.com:

Hay un paquete rpm de cliente GlusterFS para Fedora 12, pero el problema es que obtendrá errores como df:'/mnt/glusterfs':el software provocó la interrupción de la conexión o df:'/mnt/glusterfs':el punto final de transporte no está conectado cuando intenta acceder al recurso compartido GlusterFS. Es por eso que creamos el cliente GlusterFS a partir de las fuentes para evitar estos problemas.

Antes de compilar el cliente GlusterFS, instalamos sus requisitos previos:

yum groupinstall 'Development Tools'
yum groupinstall 'Development Libraries'
yum install libibverbs-devel fuse-devel

Luego descargamos las fuentes de GlusterFS 2.0.9 (¡tenga en cuenta que esta es la misma versión que está instalada en el servidor!) y compilamos GlusterFS de la siguiente manera:

cd /tmp
wget http://ftp.gluster.com/pub/gluster/glusterfs/2.0/LATEST/glusterfs-2.0.9.tar.gz
tar xvfz glusterfs-2.0.9.tar .gz
cd glusterfs-2.0.9
./configurar

Al final del comando ./configure, debería ver algo como esto:

[...]
Resumen de configuración de GlusterFS
==========================
FUSE cliente        :yes
Infiniband verbs   : yes
epoll IO multiplex : yes
Berkeley-DB        : yes
libglusterfsclient : yes
argp-standalone    : no

[[correo electrónico protegido] glusterfs-2.0.9]#

hacer &&hacer instalar
ldconfig

Compruebe la versión de GlusterFS después (debe ser 2.0.9):

glusterfs --version

[[email protected] glusterfs-2.0.9]# glusterfs --version
glusterfs 2.0.9 construido el 19 de feb 2010 19:20:46
Revisión del repositorio: v2.0.9
Copyright ( c) 2006-2009 Gluster Inc. 
GlusterFS viene sin NINGUNA GARANTÍA.
Usted puede redistribuir copias de GlusterFS según los términos de la Licencia pública general de GNU.
[[correo electrónico protegido] glusterfs-2.0.9]#

Luego creamos los siguientes dos directorios:

mkdir /mnt/glusterfs
mkdir /etc/glusterfs

A continuación creamos el archivo /etc/glusterfs/glusterfs.vol:

vi /etc/glusterfs/glusterfs.vol
volume posix
  type storage/posix
  option directory /data/export
end-volume

volume locks
  type features/locks
  subvolumes posix
end-volume

volume brick
  type performance/io-threads
  option thread-count 8
  subvolumes locks
end-volume

volume server
  type protocol/server
  option transport-type tcp
  option auth.addr.brick.allow 192.168.0.104
  subvolumes brick
end-volume

¡Asegúrese de utilizar los nombres de host del servidor o las direcciones IP correctos en las líneas de host remoto de opciones!

¡Eso es todo! Ahora podemos montar el sistema de archivos GlusterFS en /mnt/glusterfs con uno de los siguientes dos comandos:

glusterfs -f /etc/glusterfs/glusterfs.vol /mnt/glusterfs

o

mount -t glusterfs /etc/glusterfs/glusterfs.vol /mnt/glusterfs

Ahora debería ver el nuevo recurso compartido en los resultados de...

mount

[[email protected] ~]# mount
/dev/mapper/vg_server5-lv_root on / type ext4 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts en /dev/pts escriba devpts (rw,gid=5,mode=620)
tmpfs en /dev/shm escriba tmpfs (rw)
/dev/sda1 en /boot escriba ext4 (rw)
ninguno en /proc/sys/fs/binfmt_misc escriba binfmt_misc (rw)
sunrpc en /var/lib/nfs/rpc_pipefs escriba rpc_pipefs (rw)
/etc/glusterfs/glusterfs.vol en /mnt/glusterfs escriba fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072)
[[email protected] ~]#

... y...

df -h

[[email protected] ~]# df -h
Sistema de archivos            Tamaño  Usado Avail Use% Montado en
/dev/mapper/vg_server5-lv_root
                               29G  2.5G   % /  10 TMPFS 185M 0 185M 0%/dev/shm
/dev/sda1 194m 23m 161m 13%/boot
/etc/Glusterfs/Glusterfs.vol
114G 9.8G 99G 10%/mnt/Mnt/ glusterfs
[[correo electrónico protegido] ~]#

(server1.example.com, server2.example.com, server3.example.com y server4.example.com tienen cada uno aproximadamente 28,5 GB de espacio para el sistema de archivos GlusterFS, por lo que el recurso compartido resultante tiene un tamaño de aproximadamente 4 x 28,5 GB (114 GB).)

En lugar de montar el recurso compartido GlusterFS manualmente en el cliente, puede modificar /etc/fstab para que el recurso compartido se monte automáticamente cuando se inicie el cliente.

Abra /etc/fstab y agregue la siguiente línea:

vi /etc/fstab  
volume remote1
  type protocol/client
  option transport-type tcp
  option remote-host server1.example.com
  option remote-subvolume brick
end-volume

volume remote2
  type protocol/client
  option transport-type tcp
  option remote-host server2.example.com
  option remote-subvolume brick
end-volume

volume remote3
  type protocol/client
  option transport-type tcp
  option remote-host server3.example.com
  option remote-subvolume brick
end-volume

volume remote4
  type protocol/client
  option transport-type tcp
  option remote-host server4.example.com
  option remote-subvolume brick
end-volume

volume distribute
  type cluster/distribute
  subvolumes remote1 remote2 remote3 remote4
end-volume

volume writebehind
  type performance/write-behind
  option window-size 1MB
  subvolumes distribute
end-volume

volume cache
  type performance/io-cache
  option cache-size 512MB
  subvolumes writebehind
end-volume

Para probar si su /etc/fstab modificado está funcionando, reinicie el cliente:

reboot 

Después del reinicio, debería encontrar el recurso compartido en las salidas de...

df -h

... y...

mount

4 Pruebas

Ahora vamos a crear algunos archivos de prueba en el recurso compartido GlusterFS:

cliente1.ejemplo.com:

toque /mnt/glusterfs/test1
toque /mnt/glusterfs/test2
toque /mnt/glusterfs/test3
toque /mnt/glusterfs/test4
toque /mnt/glusterfs/ test5
toque /mnt/glusterfs/test6

Ahora revisemos el directorio /data/export en server1.example.com, server2.example.com, server3.example.com y server4.example.com. Notará que cada nodo de almacenamiento contiene solo una parte de los archivos/directorios que componen el recurso compartido GlusterFS en el cliente:

servidor1.ejemplo.com:

ls -l /data/export 

[[email protected] ~]# ls -l /data/export
total 0
-rw-r--r-- 1 root root 0 2010-02-22 20:15 test1
-rw-r--r-- 1 root root 0 2010-02-22 20:15 test2
-rw-r--r-- 1 root root 0 2010-02-22 20:15 test5
[[correo electrónico protegido] ~]#

servidor2.ejemplo.com:

ls -l /data/export 

[[email protected] ~]# ls -l /data/export
total 0
-rw-r--r-- 1 root root 0 2010-02-22 20:15 test4
[[correo electrónico protegido] ~]#

servidor3.ejemplo.com:

ls -l /data/export 

[[email protected] ~]# ls -l /data/export
total 0
-rw-r--r-- 1 root root 0 2010-02-22 20:15 test6
[[correo electrónico protegido] ~]#

servidor4.ejemplo.com:

ls -l /data/export 

[[email protected] ~]# ls -l /data/export
total 0
-rw-r--r-- 1 root root 0 2010-02-22 20:15 test3
[[correo electrónico protegido] ~]#

5 Enlaces

  • GlusterFS:http://www.gluster.org/
  • Fedora:http://fedoraproject.org/

Fedora
  1. Almacenamiento de alta disponibilidad con GlusterFS en CentOS 7:espejo en dos servidores de almacenamiento

  2. Almacenamiento distribuido en cuatro nodos de almacenamiento con GlusterFS 3.2.x en Ubuntu 12.10

  3. Almacenamiento replicado distribuido en cuatro nodos de almacenamiento con GlusterFS 3.2.x en Ubuntu 12.10

  4. Distribución en cuatro nodos de almacenamiento con GlusterFS 3.2.x en Ubuntu 12.10

  5. Almacenamiento distribuido en cuatro nodos de almacenamiento con GlusterFS en Debian Lenny

Almacenamiento de alta disponibilidad con GlusterFS en Debian 8:espejo en dos servidores de almacenamiento

Almacenamiento replicado distribuido en cuatro nodos de almacenamiento con GlusterFS en Fedora 12

Distribución de cuatro nodos de almacenamiento con GlusterFS en Fedora 12

Creación de un servidor de almacenamiento independiente similar a NFS con GlusterFS en Fedora 12

Almacenamiento de alta disponibilidad con GlusterFS en Fedora 12:replicación automática de archivos (espejo) en dos servidores de almacenamiento

Creación de un servidor de almacenamiento independiente similar a NFS con GlusterFS en Fedora 13

    [...]
    /etc/glusterfs/glusterfs.vol  /mnt/glusterfs  glusterfs  defaults  0  0