Para su pregunta extra:
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
Descubrí que tengo que agregar la matriz manualmente en /etc/mdadm/mdadm.conf
para hacer que Linux lo monte al reiniciar. De lo contrario, obtengo exactamente lo que tienes aquí:md_d1
-dispositivos que están inactivos, etc.
El archivo conf debería tener el siguiente aspecto, es decir, uno ARRAY
-línea para cada dispositivo md. En mi caso, faltaban las nuevas matrices en este archivo, pero si las tiene en la lista, probablemente no solucione su problema.
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d
Agregue una matriz por dispositivo md y agréguela después del comentario incluido anteriormente, o si no existe tal comentario, al final del archivo. Obtienes los UUID haciendo sudo mdadm -E --scan
:
$ sudo mdadm -E --scan
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d
Como puede ver, puede simplemente copiar la salida del resultado del escaneo en el archivo.
Ejecuto ubuntu desktop 10.04 LTS y, por lo que recuerdo, este comportamiento difiere de la versión del servidor de Ubuntu; sin embargo, hace tanto tiempo que creé mis dispositivos md en el servidor que puedo estar equivocado. También puede ser que me haya perdido alguna opción.
De todos modos, agregar la matriz en el archivo conf parece funcionar. He ejecutado la incursión 1 y la incursión 5 anteriores durante años sin problemas.
Advertencia: En primer lugar, permítanme decir que lo siguiente (debido al uso de "--force") me parece arriesgado, y si tiene datos irrecuperables, le recomiendo que haga copias de las particiones involucradas antes de comenzar a probar cualquiera de las cosas. abajo. Sin embargo, esto funcionó para mí.
Tuve el mismo problema, con una matriz que aparecía como inactiva, y nada de lo que hice, incluido "mdadm --examine --scan>/etc/mdadm.conf", como sugirieron otros aquí, me ayudó en absoluto.
En mi caso, cuando intentó iniciar la matriz RAID-5 después de reemplazar una unidad, decía que estaba sucia (a través de dmesg
):
md/raid:md2: not clean -- starting background reconstruction
md/raid:md2: device sda4 operational as raid disk 0
md/raid:md2: device sdd4 operational as raid disk 3
md/raid:md2: device sdc4 operational as raid disk 2
md/raid:md2: device sde4 operational as raid disk 4
md/raid:md2: allocated 5334kB
md/raid:md2: cannot start dirty degraded array.
Haciendo que se muestre como inactivo en /proc/mdstat
:
md2 : inactive sda4[0] sdd4[3] sdc4[2] sde4[5]
3888504544 blocks super 1.2
Descubrí que todos los dispositivos tenían los mismos eventos, excepto la unidad que había reemplazado (/dev/sdb4
):
[[email protected] sr]# mdadm -E /dev/sd*4 | grep Event
mdadm: No md superblock detected on /dev/sdb4.
Events : 8448
Events : 8448
Events : 8448
Events : 8448
Sin embargo, los detalles de la matriz mostraron que tenía 4 de 5 dispositivos disponibles:
[[email protected] sr]# mdadm --detail /dev/md2
/dev/md2:
[...]
Raid Devices : 5
Total Devices : 4
[...]
Active Devices : 4
Working Devices : 4
[...]
Number Major Minor RaidDevice State
0 8 4 0 inactive dirty /dev/sda4
2 8 36 2 inactive dirty /dev/sdc4
3 8 52 3 inactive dirty /dev/sdd4
5 8 68 4 inactive dirty /dev/sde4
(Lo anterior es de la memoria en la columna "Estado", no puedo encontrarlo en mi búfer de desplazamiento hacia atrás).
Pude resolver esto deteniendo la matriz y luego volviéndola a ensamblar:
mdadm --stop /dev/md2
mdadm -A --force /dev/md2 /dev/sd[acde]4
En ese momento, la matriz estaba funcionando con 4 de los 5 dispositivos, y pude agregar el dispositivo de reemplazo y se está reconstruyendo. Puedo acceder al sistema de archivos sin ningún problema.