GNU/Linux >> Tutoriales Linux >  >> Linux

Monitoreo y prueba de la salud de SSD en Linux

¿Qué es S.M.A.R.T.?

ELEGANTE. –para tecnología de autocontrol, análisis e informes– es una tecnología integrada en dispositivos de almacenamiento como unidades de disco duro o SSD y cuyo objetivo es monitorear su estado de salud.

En la práctica, S.M.A.R.T. monitoreará varios parámetros del disco durante las operaciones normales de la unidad, como la cantidad de errores de lectura, los tiempos de inicio de la unidad o incluso las condiciones ambientales. Además, S.M.A.R.T. y también puede realizar pruebas bajo demanda en la unidad.

Idealmente, S.M.A.R.T. permitiría anticipar predecible fallos como los provocados por el desgaste mecánico o la degradación de la superficie del disco, así como impredecibles fallas causadas por un defecto inesperado. Dado que las unidades generalmente no fallan abruptamente, S.M.A.R.T. brinda una opción para que el sistema operativo o el administrador del sistema identifiquen las unidades que pronto fallarán para que puedan reemplazarse antes de que ocurra cualquier pérdida de datos.

¿Qué no es S.M.A.R.T.?

Todo eso me parece maravilloso. Sin embargo, S.M.A.R.T. no es una bola de cristal. No puede predecir con un 100 % de precisión una falla ni, por otro lado, garantizar que una unidad no fallará sin una advertencia temprana. En el mejor de los casos, S.M.A.R.T. debe usarse para estimar la probabilidad de un fracaso.

Dada la naturaleza estadística de la predicción de fallas, el S.M.A.R.T. La tecnología interesa particularmente a las empresas que utilizan una gran cantidad de unidades de almacenamiento, y se han realizado estudios de campo para estimar la precisión de S.M.A.R.T. problemas informados para anticipar las necesidades de reemplazo de discos en centros de datos o granjas de servidores.

En 2016, Microsoft y la Universidad Estatal de Pensilvania realizaron un estudio centrado en las SSD.

Según ese estudio, parece que algunos S.M.A.R.T. Los atributos son buenos indicadores de un fracaso inminente. El documento menciona específicamente:

Recuento de sectores reasignados (Realloc):

Si bien la tecnología subyacente es radicalmente diferente, ese indicador parece tan significativo en el mundo de las SSD como lo fue en el mundo de las unidades de disco duro. Vale la pena mencionarlo debido a los algoritmos de nivelación de desgaste que se usan en las unidades SSD, cuando varios bloques comienzan a fallar, es probable que muchos más fallen pronto. Recuento de fallas del programa/borrado (P/E):

Este es un síntoma de un problema con el hardware flash subyacente donde la unidad no pudo borrar o almacenar datos en un bloque. Debido a las imperfecciones en el proceso de fabricación, se pueden anticipar pocos errores de este tipo. Sin embargo, las memorias flash tienen un número limitado de ciclos de borrado/escritura. Entonces, una vez más, un aumento repentino en la cantidad de eventos podría indicar que la unidad ha llegado al final de su vida útil y podemos anticipar que muchas más celdas de memoria fallarán pronto. CRC y errores no corregibles ("Error de datos"):

Estos eventos pueden deberse a un error de almacenamiento o a problemas con el enlace de comunicación interna de la unidad. Este indicador tiene en cuenta tanto los corregidos errores (por lo tanto, sin ningún problema informado al sistema host), así como sin corregir errores (por lo tanto, bloquea que la unidad haya informado que no puede leer en el sistema host). En otras palabras, corregible los errores son invisibles para el sistema operativo del host, pero, sin embargo, afectan el rendimiento de la unidad, ya que el firmware de la unidad debe corregir los datos y puede ocurrir una posible reubicación del sector. Recuento de cambios descendentes de SATA:

Debido a perturbaciones temporales, problemas con el enlace de comunicación entre la unidad y el host, o debido a problemas internos de la unidad, la interfaz SATA puede cambiar a una tasa de señalización más baja. La degradación del enlace por debajo de la tasa de enlace nominal tiene un impacto obvio en el rendimiento observado de la unidad. No es raro seleccionar una tasa de señalización más baja, especialmente en unidades más antiguas. Por tanto, este indicador es más significativo cuando se correlaciona con la presencia de uno o varios de los anteriores.

Según el estudio, el 62 % de los SSD fallidos mostraron al menos uno de los síntomas anteriores. Sin embargo, si invierte esa afirmación, eso también significa que el 38 % de los SSD estudiados fallaron sin mostrando cualquiera de los síntomas anteriores. Sin embargo, el estudio no mencionó si las unidades fallidas han exhibido algún otro S.M.A.R.T. fracaso informado o no. Por lo tanto, esto no se puede comparar directamente con el 36 % de fallas sin previo aviso mencionado para los discos duros en el documento de Google.

El artículo de Microsoft/Pennsylvania State University no revela los modelos de unidades exactos estudiados, pero según los autores, la mayoría de las unidades provienen del mismo proveedor durante varias generaciones.

El estudio notó diferencias significativas en la confiabilidad entre los diferentes modelos. Por ejemplo, el “peor” modelo estudiado exhibe una tasa de falla del 20 % nueve meses después del primer error de reubicación y una tasa de falla de hasta el 36 % nueve meses después de la primera aparición de errores de datos. El "peor" modelo también resulta ser la generación de unidades más antigua estudiada en el documento.

Por otro lado, para los mismos síntomas, las unidades que pertenecen a la generación más joven de dispositivos muestran solo un 3% y un 20%, respectivamente, de fallas por los mismos errores. Es difícil saber si esas cifras pueden explicarse por las mejoras en el diseño de la unidad y el proceso de fabricación, o si esto es simplemente un efecto del envejecimiento de la unidad.

Lo más interesante, y ya mencioné algunas posibles razones, es que el documento menciona que, en lugar del valor bruto, se trata de un aumento repentino en la cantidad de errores informados que debe considerarse como un indicador alarmante:

“”” Existe una mayor probabilidad de que los síntomas precedan a las fallas de SSD, con una manifestación intensa y una progresión rápida que impida su supervivencia más allá de unos pocos meses “””

En otras palabras, una S.M.A.R.T. el error informado probablemente no se debe considerar como una señal de falla inminente. Sin embargo, cuando un SSD en buen estado comienza a informar más y más errores, se debe anticipar una falla a corto o mediano plazo.

Pero, ¿cómo saber si su disco duro o SSD está en buen estado? Ya sea para satisfacer su curiosidad o porque desea comenzar a monitorear de cerca sus unidades, ahora es el momento de presentar el smartctl herramienta de seguimiento:

Uso de smartctl para monitorear el estado de su SSD en Linux

Hay formas de listar discos en Linux pero monitorear el S.M.A.R.T. estado de su disco, sugiero el smartctl herramienta, parte de la smartmontool paquete (al menos en Debian/Ubuntu).

sudo apt install smartmontools

smartctl es una herramienta de línea de comandos, pero es perfecta, especialmente si desea automatizar la recopilación de datos, especialmente en sus servidores.

El primer paso al usar smartctl es verificar si su disco tiene S.M.A.R.T. habilitado y es compatible con la herramienta:

sh$ sudo smartctl -i /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate Momentus 7200.4
Device Model:     ST9500420AS
Serial Number:    5VJAS7FL
LU WWN Device Id: 5 000c50 02fa0b800
Firmware Version: D005SDM1
User Capacity:    500,107,862,016 bytes [500 GB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Mon Mar 12 15:54:43 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

Como puede ver, el disco duro interno de mi computadora portátil tiene S.M.A.R.T. capacidades y S.M.A.R.T. el soporte está habilitado. Entonces, ¿qué pasa ahora con el S.MA.R.T. ¿estado? ¿Hay algunos errores registrados?

Reportar "toda la información SMART sobre el disco" es el trabajo de -a opción:

sh$ sudo smartctl -i -a /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate Momentus 7200.4
Device Model:     ST9500420AS
Serial Number:    5VJAS7FL
LU WWN Device Id: 5 000c50 02fa0b800
Firmware Version: D005SDM1
User Capacity:    500,107,862,016 bytes [500 GB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Mon Mar 12 15:56:58 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
See vendor-specific Attribute list for marginal Attributes.

General SMART Values:
Offline data collection status:  (0x82)    Offline data collection activity
                    was completed without error.
                    Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)    The previous self-test routine completed
                    without error or no self-test has ever
                    been run.
Total time to complete Offline
data collection:         (    0) seconds.
Offline data collection
capabilities:              (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003)    Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01)    Error logging supported.
                    General Purpose Logging supported.
Short self-test routine
recommended polling time:      (   2) minutes.
Extended self-test routine
recommended polling time:      ( 110) minutes.
Conveyance self-test routine
recommended polling time:      (   3) minutes.
SCT capabilities:            (0x103f)    SCT Status supported.
                    SCT Error Recovery Control supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   111   099   006    Pre-fail  Always       -       29694249
  3 Spin_Up_Time            0x0003   100   098   085    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   095   095   020    Old_age   Always       -       5413
  5 Reallocated_Sector_Ct   0x0033   100   100   036    Pre-fail  Always       -       3
  7 Seek_Error_Rate         0x000f   071   060   030    Pre-fail  Always       -       51710773327
  9 Power_On_Hours          0x0032   070   070   000    Old_age   Always       -       26423
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   096   037   020    Old_age   Always       -       4836
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   072   072   000    Old_age   Always       -       28
188 Command_Timeout         0x0032   100   096   000    Old_age   Always       -       4295033738
189 High_Fly_Writes         0x003a   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   056   042   045    Old_age   Always   In_the_past 44 (Min/Max 21/44 #22)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       184
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       104
193 Load_Cycle_Count        0x0032   001   001   000    Old_age   Always       -       395415
194 Temperature_Celsius     0x0022   044   058   000    Old_age   Always       -       44 (0 13 0 0 0)
195 Hardware_ECC_Recovered  0x001a   050   045   000    Old_age   Always       -       29694249
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       1
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       1
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       0
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       25131 (246 202 0)
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       3028413736
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       1613088055
254 Free_Fall_Sensor        0x0032   100   100   000    Old_age   Always       -       0

SMART Error Log Version: 1
ATA Error Count: 3
    CR = Command Register [HEX]
    FR = Features Register [HEX]
    SC = Sector Count Register [HEX]
    SN = Sector Number Register [HEX]
    CL = Cylinder Low Register [HEX]
    CH = Cylinder High Register [HEX]
    DH = Device/Head Register [HEX]
    DC = Device Command Register [HEX]
    ER = Error register [HEX]
    ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 3 occurred at disk power-on lifetime: 21171 hours (882 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f  Error: UNC at LBA = 0x0fffffff = 268435455

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 08 ff ff ff 4f 00      00:45:12.580  READ FPDMA QUEUED
  60 00 08 ff ff ff 4f 00      00:45:12.580  READ FPDMA QUEUED
  60 00 08 ff ff ff 4f 00      00:45:12.579  READ FPDMA QUEUED
  60 00 08 ff ff ff 4f 00      00:45:12.571  READ FPDMA QUEUED
  60 00 20 ff ff ff 4f 00      00:45:12.543  READ FPDMA QUEUED

Error 2 occurred at disk power-on lifetime: 21171 hours (882 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f  Error: UNC at LBA = 0x0fffffff = 268435455

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 00 ff ff ff 4f 00      00:45:09.456  READ FPDMA QUEUED
  60 00 00 ff ff ff 4f 00      00:45:09.451  READ FPDMA QUEUED
  61 00 08 ff ff ff 4f 00      00:45:09.450  WRITE FPDMA QUEUED
  60 00 00 ff ff ff 4f 00      00:45:08.878  READ FPDMA QUEUED
  60 00 00 ff ff ff 4f 00      00:45:08.856  READ FPDMA QUEUED

Error 1 occurred at disk power-on lifetime: 21131 hours (880 days + 11 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f  Error: UNC at LBA = 0x0fffffff = 268435455

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 00 ff ff ff 4f 00      05:52:18.809  READ FPDMA QUEUED
  61 00 00 7e fb 31 45 00      05:52:18.806  WRITE FPDMA QUEUED
  60 00 00 ff ff ff 4f 00      05:52:18.571  READ FPDMA QUEUED
  ea 00 00 00 00 00 a0 00      05:52:18.529  FLUSH CACHE EXT
  61 00 08 ff ff ff 4f 00      05:52:18.527  WRITE FPDMA QUEUED

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     10904         -
# 2  Short offline       Completed without error       00%        12         -
# 3  Short offline       Completed without error       00%         0         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Comprender la salida del comando smartctl

Esa es mucha información y no siempre es fácil interpretar esos datos. La parte más interesante es probablemente la etiquetada como “Atributos SMART específicos del proveedor con umbrales” . Informa varias estadísticas recopiladas por S.M.A.R.T. dispositivo y le permite comparar esos valores (actuales o los peores de todos los tiempos) con algún umbral definido por el proveedor.

Por ejemplo, así es como mi disco informa sectores reubicados:

ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  5 Reallocated_Sector_Ct   0x0033   100   100   036    Pre-fail  Always       -       3

Puede ver esto como un atributo "antes de fallar". Eso solo significa que ese atributo corresponde a anomalías. Entonces, si ese atributo excede el umbral, eso podría ser un indicador de falla inminente. La otra categoría es "Old_age" para los atributos correspondientes a los atributos de "uso normal".

El último campo (aquí “3”) corresponde al valor sin procesar para ese atributo según lo informado por la unidad. Por lo general, este número tiene un significado físico. Aquí, este es el número real de sectores reubicados. Sin embargo, para otros atributos, podría ser una temperatura en grados Celsius, un tiempo en horas o minutos, o la cantidad de veces que la unidad ha encontrado una condición específica.

Además del valor bruto, un S.M.A.R.T. la unidad habilitada debe informar valores "normalizados" (campos valor, peor y umbral). Estos valores están normalizados en el rango 1-254 (0-255 para el umbral). El firmware del disco realiza esa normalización utilizando algún algoritmo interno. Además, diferentes fabricantes pueden normalizar el mismo atributo de manera diferente. La mayoría de los valores se informan como un porcentaje, siendo el más alto el mejor, pero esto no es obligatorio. Cuando un parámetro es inferior o igual al umbral proporcionado por el fabricante, se dice que el disco ha fallado para ese atributo. Con todas las reservas mencionadas en la primera parte de ese artículo, cuando un atributo "pre-fail" ha fallado, presumiblemente una falla de disco es inminente.

Como segundo ejemplo, examinemos la "tasa de error de búsqueda":

ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  7 Seek_Error_Rate         0x000f   071   060   030    Pre-fail  Always       -       51710773327

En realidad, y esto es un problema con S.M.A.R.T. informes, el significado exacto de cada valor es específico del proveedor. En mi caso, Seagate está utilizando una escala logarítmica para normalizar el valor. Entonces, "71" significa aproximadamente un error por 10 millones de búsquedas (10 a la 7.1 potencia). Curiosamente, el peor de todos los tiempos fue un error por 1 millón de búsquedas (10 elevado a la sexta potencia). Si lo interpreto correctamente, eso significa que las cabezas de mis discos están posicionadas con mayor precisión ahora que en el pasado. No seguí de cerca ese disco, por lo que este análisis está sujeto a cautela. ¿Tal vez la unidad solo necesitaba un período de rodaje cuando se puso en marcha inicialmente? ¿A menos que esto sea una consecuencia del desgaste de las piezas mecánicas y, por lo tanto, oponga menos fricción hoy? En cualquier caso, y sea cual sea el motivo, este valor es más un indicador de rendimiento que una alerta temprana de fallo. Así que eso no me molesta mucho.

Además de eso, y tres errores sospechosos registrados hace unos seis meses, esa unidad parece estar en condiciones sorprendentemente buenas (según S.M.A.R.T.) para una unidad portátil de serie que estuvo encendida durante más de 1100 días (26423 horas):

ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  9 Power_On_Hours          0x0032   070   070   000    Old_age   Always       -       26423

Por curiosidad, realicé la misma prueba en una computadora portátil mucho más reciente equipada con un SSD:

sh$ sudo smartctl -i /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Device Model:     TOSHIBA THNSNK256GVN8
Serial Number:    17FS131LTNLV
LU WWN Device Id: 5 00080d 9109b2ceb
Firmware Version: K8XA4103
User Capacity:    256 060 514 304 bytes [256 GB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    Solid State Device
Form Factor:      M.2
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   ACS-3 (minor revision not indicated)
SATA Version is:  SATA 3.2, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Tue Mar 13 01:03:23 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

Lo primero que debe notar, incluso si ese dispositivo es S.M.A.T. habilitado, no está en el smartctl base de datos. Eso no evitará que la herramienta recopile datos del SSD, pero no podrá informar el significado exacto de los diferentes atributos específicos del proveedor:

sh$ sudo smartctl -a /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)    Offline data collection activity
                    was never started.
                    Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)    The previous self-test routine completed
                    without error or no self-test has ever
                    been run.
Total time to complete Offline
data collection:         (  120) seconds.
Offline data collection
capabilities:              (0x5b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    No Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003)    Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01)    Error logging supported.
                    General Purpose Logging supported.
Short self-test routine
recommended polling time:      (   2) minutes.
Extended self-test routine
recommended polling time:      (  11) minutes.
SCT capabilities:            (0x003d)    SCT Status supported.
                    SCT Error Recovery Control supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000a   100   100   000    Old_age   Always       -       0
  2 Throughput_Performance  0x0005   100   100   050    Pre-fail  Offline      -       0
  3 Spin_Up_Time            0x0007   100   100   050    Pre-fail  Always       -       0
  5 Reallocated_Sector_Ct   0x0013   100   100   050    Pre-fail  Always       -       0
  7 Unknown_SSD_Attribute   0x000b   100   100   050    Pre-fail  Always       -       0
  8 Unknown_SSD_Attribute   0x0005   100   100   050    Pre-fail  Offline      -       0
  9 Power_On_Hours          0x0012   100   100   000    Old_age   Always       -       171
 10 Unknown_SSD_Attribute   0x0013   100   100   050    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0012   100   100   000    Old_age   Always       -       105
166 Unknown_Attribute       0x0012   100   100   000    Old_age   Always       -       0
167 Unknown_Attribute       0x0022   100   100   000    Old_age   Always       -       0
168 Unknown_Attribute       0x0012   100   100   000    Old_age   Always       -       0
169 Unknown_Attribute       0x0013   100   100   010    Pre-fail  Always       -       100
170 Unknown_Attribute       0x0013   100   100   010    Pre-fail  Always       -       0
173 Unknown_Attribute       0x0012   200   200   000    Old_age   Always       -       0
175 Program_Fail_Count_Chip 0x0013   100   100   010    Pre-fail  Always       -       0
192 Power-Off_Retract_Count 0x0012   100   100   000    Old_age   Always       -       18
194 Temperature_Celsius     0x0023   063   032   020    Pre-fail  Always       -       37 (Min/Max 11/68)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
240 Unknown_SSD_Attribute   0x0013   100   100   050    Pre-fail  Always       -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Este suele ser el resultado que puede esperar de un SSD nuevo. Incluso si, debido a la falta de normalización o metainformación para los datos específicos del proveedor, muchos atributos se notifican como "Atributo_SSD_desconocido". Solo espero futuras versiones de smartctl incorporará datos relativos a ese modelo de unidad en particular en la base de datos de la herramienta, por lo que podría identificar con mayor precisión los posibles problemas.

Prueba tu SSD en Linux con smartctl

Hasta ahora hemos examinado los datos recopilados por la unidad durante su funcionamiento normal. Sin embargo, el S.M.A.R.T. El protocolo también admite varios comandos de "autocomprobación" para iniciar el diagnóstico a pedido.

A menos que se solicite explícitamente, las autopruebas pueden ejecutarse durante las operaciones normales del disco. Dado que tanto la prueba como las solicitudes de E/S del host competirán por la unidad, el rendimiento del disco se degradará durante la prueba. El inteligente. especificación especifica varios tipos de autocomprobación. Los más importantes son:

Autocomprobación corta (-t short )

Esta prueba comprobará el rendimiento eléctrico y mecánico, así como el rendimiento de lectura de la unidad. La autocomprobación corta generalmente solo requiere unos minutos para completarse (generalmente de 2 a 10). Autocomprobación extendida (-t long )

Esta prueba tarda uno o dos órdenes de magnitud más en completarse. Por lo general, esta es una versión más profunda de la breve autoevaluación. Además, esa prueba escaneará toda la superficie del disco en busca de errores de datos sin límite de tiempo. La duración de la prueba será proporcional al tamaño del disco. Autoprueba de transporte (-t conveyance )

este conjunto de pruebas está diseñado como una forma relativamente rápida de comprobar posibles daños durante el transporte del dispositivo.

Aquí hay ejemplos tomados de los mismos discos que el anterior. Te dejo adivinar cuál es cuál:

sh$ sudo smartctl -t short /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Short self-test routine immediately in off-line mode".
Drive command "Execute SMART Short self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 2 minutes for test to complete.
Test will complete after Mon Mar 12 18:06:17 2018

Use smartctl -X to abort test.

La prueba ahora se ha establecido. Esperemos hasta que termine para mostrar el resultado:

sh$ sudo sh -c 'sleep 120 && smartctl -l selftest /dev/sdb'
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%       171         -

Hagamos ahora la misma prueba en mi otro disco:

sh$ sudo smartctl -t short /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Short self-test routine immediately in off-line mode".
Drive command "Execute SMART Short self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 2 minutes for test to complete.
Test will complete after Mon Mar 12 21:59:39 2018

Use smartctl -X to abort test.

Una vez más, duerma durante dos minutos y muestre el resultado de la prueba:

sh$ sudo sh -c 'sleep 120 && smartctl -l selftest /dev/sdb'
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     26429         -
# 2  Short offline       Completed without error       00%     10904         -
# 3  Short offline       Completed without error       00%        12         -
# 4  Short offline       Completed without error       00%         0         -

Curiosamente, en ese caso, parece que tanto la unidad como los fabricantes de computadoras parecen haber realizado algunas pruebas rápidas en el disco (a las 0h y 12h de vida útil). Yo Definitivamente estaba mucho menos preocupado por monitorear el estado de la unidad. Entonces, dado que estoy realizando algunas autoevaluaciones para ese artículo, comencemos una extendida prueba para saber cómo va:

sh$ sudo smartctl -t long /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Extended self-test routine immediately in off-line mode".
Drive command "Execute SMART Extended self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 110 minutes for test to complete.
Test will complete after Tue Mar 13 00:09:08 2018

Use smartctl -X to abort test.

Apparently, this time we will have to wait much longer than for the short test. So let’s do it:

sh$ sudo bash -c 'sleep $((110*60)) && smartctl -l selftest /dev/sdb'
[sudo] password for sylvain:
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed: read failure       20%     26430         810665229
# 2  Short offline       Completed without error       00%     26429         -
# 3  Short offline       Completed without error       00%     10904         -
# 4  Short offline       Completed without error       00%        12         -
# 5  Short offline       Completed without error       00%         0         -

In that latter case, pay special attention to the different outcomes obtained with the short and extended tests, even if they were performed one right after the other. Well, maybe that disk is not that healthy after all! An important thing to notice is the test will stop after the first read error. So if you want an exhaustive diagnosis of all read errors, you will have to continue the test after each error. I encourage you to take a look at the very well written smartctl(8) manual page for the more information about the options -t select,N-max and -t select,cont for that:

sh$ sudo smartctl -t select,810665230-max /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Selective self-test routine immediately in off-line mode".
SPAN         STARTING_LBA           ENDING_LBA
   0            810665230            976773167
Drive command "Execute SMART Selective self-test routine immediately in off-line mode" successful.
Testing has begun.
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Selective offline   Completed without error       00%     26432         -
# 2  Extended offline    Completed: read failure       20%     26430         810665229
# 3  Short offline       Completed without error       00%     26429         -
# 4  Short offline       Completed without error       00%     10904         -
# 5  Short offline       Completed without error       00%        12         -
# 6  Short offline       Completed without error       00%         0         -

Conclusion

Definitely, S.M.A.R.T. reporting is a technology you can add to your tool chest to monitor your servers disk health. In that case, you should also take a look at the S.M.A.R.T. Disk Monitoring Daemon smartd(8) that could help you automate monitoring through syslog reporting.

Given the statistical nature of failure prediction, I am a little bit less convinced however than aggressive S.M.A.R.T. monitoring is of great benefit on a personal computer. Finally, don’t forget whatever is its technology, a drive will fail— and we have seen earlier, in one-third of the case, it will fail without prior notices. So nothing will replace RAIDand offline backups to ensure your data integrity!

This article was written by Sylvain Leroux


Linux
  1. Ver comandos y tareas con el comando watch de Linux

  2. Introducción a los comandos chgrp y newgrp de Linux

  3. Pruebas de integración continua para el kernel de Linux

  4. El comando Sed de Linux:uso y ejemplos

  5. Cómo comprobar el estado de SSD/HDD en Linux

Monitoreo de hosts Linux y Windows con Glances

Linux en el mainframe:antes y ahora

Cómo particionar y formatear una unidad en Linux

¿Cuál es la diferencia entre Linux y Unix?

Actualización a una unidad de estado sólido en Linux:la forma fácil y la forma difícil

Mantener y probar la velocidad de un sitio web es fundamental