El problema
En CentOS/RHEL 6, un disco tiene un problema y el comando mdadm muestra que /dev/md5 estaba activo, estado degradado.
# mdadm -Q --detail /dev/md5 /dev/md5: Version : 0.90 Creation Time : Wed Apr 12 09:50:21 2017 Raid Level : raid1 Array Size : 10485696 (10.00 GiB 10.74 GB) Used Dev Size : 10485696 (10.00 GiB 10.74 GB) Raid Devices : 2 Total Devices : 1 Preferred Minor : 5 Persistence : Superblock is persistent Update Time : Mon Jun 5 14:47:09 2017 State : active, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 UUID : bdd69b24:0502f47d:04894333:532a878b Events : 0.358889 Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 21 1 active sync /dev/sdb5
La solución
El estado degradado generalmente ocurrirá si la unidad física real está fallando, si una unidad no se está comunicando correctamente temporalmente o si la sincronización no funcionó después de reemplazar el disco.
Si la unidad todavía está en línea, todavía hay una opción 'Reconstruir' o 'Sincronizar' disponible. Si es así, escaneará la unidad que el sistema supone que es correcta y se asegurará de que TODOS los datos se copien en la otra unidad.
Póngase en contacto con el proveedor de hardware y verifique por qué la función de sincronización o reconstrucción no funcionó durante el reemplazo de RAID.
-- After the replacement -- [root@localhost ~]# mdadm -Q --detail /dev/md5 /dev/md5: Version : 0.90 Creation Time : Wed Apr 12 09:50:21 2017 Raid Level : raid1 Array Size : 10485696 (10.00 GiB 10.74 GB) Used Dev Size : 10485696 (10.00 GiB 10.74 GB) Raid Devices : 2 Total Devices : 2 Preferred Minor : 5 Persistence : Superblock is persistent Update Time : Mon Jun 12 17:34:10 2017 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 UUID : bdd69b24:0502f47d:04894333:532a878b Events : 0.818295 Number Major Minor RaidDevice State 0 8 213 0 active sync /dev/sdn5 1 8 21 1 active sync /dev/sdb5