GNU/Linux >> Tutoriales Linux >  >> Linux

Problema al adjuntar y montar el volumen EBS existente en el sistema de archivos de la instancia EC2

También encontré este problema después de agregar un nuevo volumen de 16 GB y adjuntarlo a una instancia existente. En primer lugar, debe saber qué discos tiene presentesEjecutar

  sudo fdisk -l 

Tendrá un resultado similar al que se muestra a continuación que detalla la información sobre sus discos (volúmenes"

 Disk /dev/xvda: 12.9 GB, 12884901888 bytes
  255 heads, 63 sectors/track, 1566 cylinders, total 25165824 sectors
  Units = sectors of 1 * 512 = 512 bytes
  Sector size (logical/physical): 512 bytes / 512 bytes
  I/O size (minimum/optimal): 512 bytes / 512 bytes
  Disk identifier: 0x00000000

Device Boot      Start         End      Blocks   Id  System
/dev/xvda1   *       16065    25157789    12570862+  83  Linux

 Disk /dev/xvdf: 17.2 GB, 17179869184 bytes
 255 heads, 63 sectors/track, 2088 cylinders, total 33554432 sectors
 Units = sectors of 1 * 512 = 512 bytes
 Sector size (logical/physical): 512 bytes / 512 bytes
 I/O size (minimum/optimal): 512 bytes / 512 bytes
 Disk identifier: 0x00000000

 Disk /dev/xvdf doesn't contain a valid partition table

Como puede ver, el Disco /dev/xvdf recién agregado está presente. Para que esté disponible, debe crear un sistema de archivos en él y montarlo en un punto de montaje. Puedes lograr eso con los siguientes comandos

 sudo mkfs -t ext4 /dev/xvdf

Al crear un nuevo sistema de archivos se borra todo en el volumen, así que hágalo en un volumen nuevo sin datos importantes

Luego móntelo tal vez en un directorio bajo la carpeta /mnt

 sudo mount /dev/xvdf /mnt/dir/

Confirme que ha montado el volumen en la instancia ejecutando

  df -h

Esto es lo que deberías tener

Filesystem      Size  Used Avail Use% Mounted on
 udev            486M   12K  486M   1% /dev
 tmpfs           100M  400K   99M   1% /run
 /dev/xvda1       12G  5.5G  5.7G  50% /
 none            4.0K     0  4.0K   0% /sys/fs/cgroup
 none            5.0M     0  5.0M   0% /run/lock
 none            497M     0  497M   0% /run/shm
 none            100M     0  100M   0% /run/user
 /dev/xvdf        16G   44M   15G   1% /mnt/ebs

Y eso es todo, tiene el volumen para usar allí adjunto a su instancia existente.credit


Noté que por alguna razón el volumen estaba ubicado en /dev/xvdf1 , no /dev/xvdf .

Usando

sudo mount /dev/xvdf1 /vol -t ext4

funcionó a las mil maravillas


La línea única

ð¥ Montar la partición (si el disco está particionado) :

sudo mount /dev/xvdf1 /vol -t ext4

Monte el disco (si no está particionado) :

sudo mount /dev/xvdf /vol -t ext4

donde:

  • /dev/xvdf se cambia al dispositivo de volumen de EBS siendo montado
  • /vol se cambia a la carpeta desea montar.
  • ext4 es el tipo de sistema de archivos del volumen que se está montando

Errores comunes Cómo:

✳️ Lista de dispositivos adjuntos

Compruebe su comando de montaje para el correcto Volumen de EBS nombre del dispositivo y tipo de sistema de archivos . A continuación se enumeran todos:

sudo lsblk --output NAME,TYPE,SIZE,FSTYPE,MOUNTPOINT,UUID,LABEL

Si su volumen de EBS se muestra con un partition adjunto , monta el partition; no el disco.

✳️ Si su volumen no está en la lista

Si no aparece, no Attach su volumen de EBS en la consola web de AWS

✳️ Remontaje automático al reiniciar

Estos dispositivos se vuelven a desmontar si la instancia EC2 se reinicia alguna vez.

Una forma de hacer que vuelvan a montarse al iniciarse es agregar el volumen al /etc/fstab del servidor. archivo.

ð¥ Precaución:ð¥
Si corrompes el /etc/fstab archivo, hará que su sistema no pueda arrancar. Lea el breve artículo de AWS para saber si lo hizo correctamente.

https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-using-volumes.html#ebs-mount-after-reboot

Primero :
Con el lsblk comando anterior, busque el UUID de su volumen &FSTYPE .

Segundo :
Conserve una copia de su fstab original archivo.

sudo cp /etc/fstab /etc/fstab.original

Tercero :
Agregue una línea para el volumen en sudo nano /etc/fstab .

Los campos de fstab están 'separados por tabuladores' y cada línea tiene los siguientes campos:

<UUID>  <MOUNTPOINT>    <FSTYPE>    defaults,discard,nofail 0   0

Aquí hay un ejemplo para ayudarte, mi propio fstab dice lo siguiente:

LABEL=cloudimg-rootfs   /   ext4    defaults,discard,nofail 0   0
UUID=e4a4b1df-cf4a-469b-af45-89beceea5df7   /var/www-data   ext4    defaults,discard,nofail 0   0

Eso es todo, has terminado. Compruebe si hay errores en su trabajo ejecutando:

sudo mount --all --verbose

Verás algo como esto si las cosas son ð:

/                   : ignored
/var/www-data       : already mounted

Encontré este problema y lo tengo ahora,

[[email protected] ~]$ lsblk
NAME    MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda    202:0    0   8G  0 disk
└─xvda1 202:1    0   8G  0 part /
xvdf    202:80   0   8G  0 disk
└─xvdf1 202:81   0   8G  0 part

Deberías montar el partition

/dev/xvdf1 (de qué tipo es una partición)

no montar el disk

/dev/xvdf (de qué tipo es un disco)


Linux
  1. Inodes y el sistema de archivos de Linux

  2. Ubuntu:¿qué hacen Mkfs.xfs y Modprobe al montar una instancia de Amazon Ebs?

  3. ¿Cómo crear un archivo y montarlo como un sistema de archivos?

  4. Cómo activar y montar 2 grupos de volúmenes con los mismos nombres en CentOS/RHEL

  5. Cómo encontrar las opciones de montaje del sistema de archivos montado actualmente

Cómo crear y agregar un volumen de EBS en una instancia de AWS (EC2)

Configure una canalización de CI/CD simple con Github y Jenkins en una instancia de AWS EC2 Linux

Cómo montar y desmontar unidades en Linux

¿Montar un sistema de archivos Cifs directamente o a través de Fstab?

Cómo montar y desmontar sistemas de archivos/particiones en Linux (ejemplos de comandos de montaje/desmontaje)

Rompí mi archivo /etc/sudoers en Amazon EC2