¿Qué es S.M.A.R.T.?
ELEGANTE. –para tecnología de autocontrol, análisis e informes– es una tecnología integrada en dispositivos de almacenamiento como unidades de disco duro o SSD y cuyo objetivo es monitorear su estado de salud.
En la práctica, S.M.A.R.T. monitoreará varios parámetros del disco durante las operaciones normales de la unidad, como la cantidad de errores de lectura, los tiempos de inicio de la unidad o incluso las condiciones ambientales. Además, S.M.A.R.T. y también puede realizar pruebas bajo demanda en la unidad.
Idealmente, S.M.A.R.T. permitiría anticipar predecible fallos como los provocados por el desgaste mecánico o la degradación de la superficie del disco, así como impredecibles fallas causadas por un defecto inesperado. Dado que las unidades generalmente no fallan abruptamente, S.M.A.R.T. brinda una opción para que el sistema operativo o el administrador del sistema identifiquen las unidades que pronto fallarán para que puedan reemplazarse antes de que ocurra cualquier pérdida de datos.
¿Qué no es S.M.A.R.T.?
Todo eso me parece maravilloso. Sin embargo, S.M.A.R.T. no es una bola de cristal. No puede predecir con un 100 % de precisión una falla ni, por otro lado, garantizar que una unidad no fallará sin una advertencia temprana. En el mejor de los casos, S.M.A.R.T. debe usarse para estimar la probabilidad de un fracaso.
Dada la naturaleza estadística de la predicción de fallas, el S.M.A.R.T. La tecnología interesa particularmente a las empresas que utilizan una gran cantidad de unidades de almacenamiento, y se han realizado estudios de campo para estimar la precisión de S.M.A.R.T. problemas informados para anticipar las necesidades de reemplazo de discos en centros de datos o granjas de servidores.
En 2016, Microsoft y la Universidad Estatal de Pensilvania realizaron un estudio centrado en las SSD.
Según ese estudio, parece que algunos S.M.A.R.T. Los atributos son buenos indicadores de un fracaso inminente. El documento menciona específicamente:
Recuento de sectores reasignados (Realloc):
Si bien la tecnología subyacente es radicalmente diferente, ese indicador parece tan significativo en el mundo de las SSD como lo fue en el mundo de las unidades de disco duro. Vale la pena mencionarlo debido a los algoritmos de nivelación de desgaste que se usan en las unidades SSD, cuando varios bloques comienzan a fallar, es probable que muchos más fallen pronto. Recuento de fallas del programa/borrado (P/E):
Este es un síntoma de un problema con el hardware flash subyacente donde la unidad no pudo borrar o almacenar datos en un bloque. Debido a las imperfecciones en el proceso de fabricación, se pueden anticipar pocos errores de este tipo. Sin embargo, las memorias flash tienen un número limitado de ciclos de borrado/escritura. Entonces, una vez más, un aumento repentino en la cantidad de eventos podría indicar que la unidad ha llegado al final de su vida útil y podemos anticipar que muchas más celdas de memoria fallarán pronto. CRC y errores no corregibles ("Error de datos"):
Estos eventos pueden deberse a un error de almacenamiento o a problemas con el enlace de comunicación interna de la unidad. Este indicador tiene en cuenta tanto los corregidos errores (por lo tanto, sin ningún problema informado al sistema host), así como sin corregir errores (por lo tanto, bloquea que la unidad haya informado que no puede leer en el sistema host). En otras palabras, corregible los errores son invisibles para el sistema operativo del host, pero, sin embargo, afectan el rendimiento de la unidad, ya que el firmware de la unidad debe corregir los datos y puede ocurrir una posible reubicación del sector. Recuento de cambios descendentes de SATA:
Debido a perturbaciones temporales, problemas con el enlace de comunicación entre la unidad y el host, o debido a problemas internos de la unidad, la interfaz SATA puede cambiar a una tasa de señalización más baja. La degradación del enlace por debajo de la tasa de enlace nominal tiene un impacto obvio en el rendimiento observado de la unidad. No es raro seleccionar una tasa de señalización más baja, especialmente en unidades más antiguas. Por tanto, este indicador es más significativo cuando se correlaciona con la presencia de uno o varios de los anteriores.
Según el estudio, el 62 % de los SSD fallidos mostraron al menos uno de los síntomas anteriores. Sin embargo, si invierte esa afirmación, eso también significa que el 38 % de los SSD estudiados fallaron sin mostrando cualquiera de los síntomas anteriores. Sin embargo, el estudio no mencionó si las unidades fallidas han exhibido algún otro S.M.A.R.T. fracaso informado o no. Por lo tanto, esto no se puede comparar directamente con el 36 % de fallas sin previo aviso mencionado para los discos duros en el documento de Google.
El artículo de Microsoft/Pennsylvania State University no revela los modelos de unidades exactos estudiados, pero según los autores, la mayoría de las unidades provienen del mismo proveedor durante varias generaciones.
El estudio notó diferencias significativas en la confiabilidad entre los diferentes modelos. Por ejemplo, el “peor” modelo estudiado exhibe una tasa de falla del 20 % nueve meses después del primer error de reubicación y una tasa de falla de hasta el 36 % nueve meses después de la primera aparición de errores de datos. El "peor" modelo también resulta ser la generación de unidades más antigua estudiada en el documento.
Por otro lado, para los mismos síntomas, las unidades que pertenecen a la generación más joven de dispositivos muestran solo un 3% y un 20%, respectivamente, de fallas por los mismos errores. Es difícil saber si esas cifras pueden explicarse por las mejoras en el diseño de la unidad y el proceso de fabricación, o si esto es simplemente un efecto del envejecimiento de la unidad.
Lo más interesante, y ya mencioné algunas posibles razones, es que el documento menciona que, en lugar del valor bruto, se trata de un aumento repentino en la cantidad de errores informados que debe considerarse como un indicador alarmante:
“”” Existe una mayor probabilidad de que los síntomas precedan a las fallas de SSD, con una manifestación intensa y una progresión rápida que impida su supervivencia más allá de unos pocos meses “””
En otras palabras, una S.M.A.R.T. el error informado probablemente no se debe considerar como una señal de falla inminente. Sin embargo, cuando un SSD en buen estado comienza a informar más y más errores, se debe anticipar una falla a corto o mediano plazo.
Pero, ¿cómo saber si su disco duro o SSD está en buen estado? Ya sea para satisfacer su curiosidad o porque desea comenzar a monitorear de cerca sus unidades, ahora es el momento de presentar el smartctl
herramienta de seguimiento:
Uso de smartctl para monitorear el estado de su SSD en Linux
Hay formas de listar discos en Linux pero monitorear el S.M.A.R.T. estado de su disco, sugiero el smartctl
herramienta, parte de la smartmontool
paquete (al menos en Debian/Ubuntu).
sudo apt install smartmontools
smartctl
es una herramienta de línea de comandos, pero es perfecta, especialmente si desea automatizar la recopilación de datos, especialmente en sus servidores.
El primer paso al usar smartctl
es verificar si su disco tiene S.M.A.R.T. habilitado y es compatible con la herramienta:
sh$ sudo smartctl -i /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate Momentus 7200.4
Device Model: ST9500420AS
Serial Number: 5VJAS7FL
LU WWN Device Id: 5 000c50 02fa0b800
Firmware Version: D005SDM1
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Mon Mar 12 15:54:43 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
Como puede ver, el disco duro interno de mi computadora portátil tiene S.M.A.R.T. capacidades y S.M.A.R.T. el soporte está habilitado. Entonces, ¿qué pasa ahora con el S.MA.R.T. ¿estado? ¿Hay algunos errores registrados?
Reportar "toda la información SMART sobre el disco" es el trabajo de -a
opción:
sh$ sudo smartctl -i -a /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate Momentus 7200.4
Device Model: ST9500420AS
Serial Number: 5VJAS7FL
LU WWN Device Id: 5 000c50 02fa0b800
Firmware Version: D005SDM1
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Mon Mar 12 15:56:58 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
See vendor-specific Attribute list for marginal Attributes.
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 0) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 110) minutes.
Conveyance self-test routine
recommended polling time: ( 3) minutes.
SCT capabilities: (0x103f) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 111 099 006 Pre-fail Always - 29694249
3 Spin_Up_Time 0x0003 100 098 085 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 095 095 020 Old_age Always - 5413
5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 3
7 Seek_Error_Rate 0x000f 071 060 030 Pre-fail Always - 51710773327
9 Power_On_Hours 0x0032 070 070 000 Old_age Always - 26423
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 096 037 020 Old_age Always - 4836
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 072 072 000 Old_age Always - 28
188 Command_Timeout 0x0032 100 096 000 Old_age Always - 4295033738
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 056 042 045 Old_age Always In_the_past 44 (Min/Max 21/44 #22)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 184
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 104
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 395415
194 Temperature_Celsius 0x0022 044 058 000 Old_age Always - 44 (0 13 0 0 0)
195 Hardware_ECC_Recovered 0x001a 050 045 000 Old_age Always - 29694249
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 1
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 1
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 25131 (246 202 0)
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 3028413736
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 1613088055
254 Free_Fall_Sensor 0x0032 100 100 000 Old_age Always - 0
SMART Error Log Version: 1
ATA Error Count: 3
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 3 occurred at disk power-on lifetime: 21171 hours (882 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 08 ff ff ff 4f 00 00:45:12.580 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 00:45:12.580 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 00:45:12.579 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 00:45:12.571 READ FPDMA QUEUED
60 00 20 ff ff ff 4f 00 00:45:12.543 READ FPDMA QUEUED
Error 2 occurred at disk power-on lifetime: 21171 hours (882 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 00 ff ff ff 4f 00 00:45:09.456 READ FPDMA QUEUED
60 00 00 ff ff ff 4f 00 00:45:09.451 READ FPDMA QUEUED
61 00 08 ff ff ff 4f 00 00:45:09.450 WRITE FPDMA QUEUED
60 00 00 ff ff ff 4f 00 00:45:08.878 READ FPDMA QUEUED
60 00 00 ff ff ff 4f 00 00:45:08.856 READ FPDMA QUEUED
Error 1 occurred at disk power-on lifetime: 21131 hours (880 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 00 ff ff ff 4f 00 05:52:18.809 READ FPDMA QUEUED
61 00 00 7e fb 31 45 00 05:52:18.806 WRITE FPDMA QUEUED
60 00 00 ff ff ff 4f 00 05:52:18.571 READ FPDMA QUEUED
ea 00 00 00 00 00 a0 00 05:52:18.529 FLUSH CACHE EXT
61 00 08 ff ff ff 4f 00 05:52:18.527 WRITE FPDMA QUEUED
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 10904 -
# 2 Short offline Completed without error 00% 12 -
# 3 Short offline Completed without error 00% 0 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Comprender la salida del comando smartctl
Esa es mucha información y no siempre es fácil interpretar esos datos. La parte más interesante es probablemente la etiquetada como “Atributos SMART específicos del proveedor con umbrales” . Informa varias estadísticas recopiladas por S.M.A.R.T. dispositivo y le permite comparar esos valores (actuales o los peores de todos los tiempos) con algún umbral definido por el proveedor.
Por ejemplo, así es como mi disco informa sectores reubicados:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 3
Puede ver esto como un atributo "antes de fallar". Eso solo significa que ese atributo corresponde a anomalías. Entonces, si ese atributo excede el umbral, eso podría ser un indicador de falla inminente. La otra categoría es "Old_age" para los atributos correspondientes a los atributos de "uso normal".
El último campo (aquí “3”) corresponde al valor sin procesar para ese atributo según lo informado por la unidad. Por lo general, este número tiene un significado físico. Aquí, este es el número real de sectores reubicados. Sin embargo, para otros atributos, podría ser una temperatura en grados Celsius, un tiempo en horas o minutos, o la cantidad de veces que la unidad ha encontrado una condición específica.
Además del valor bruto, un S.M.A.R.T. la unidad habilitada debe informar valores "normalizados" (campos valor, peor y umbral). Estos valores están normalizados en el rango 1-254 (0-255 para el umbral). El firmware del disco realiza esa normalización utilizando algún algoritmo interno. Además, diferentes fabricantes pueden normalizar el mismo atributo de manera diferente. La mayoría de los valores se informan como un porcentaje, siendo el más alto el mejor, pero esto no es obligatorio. Cuando un parámetro es inferior o igual al umbral proporcionado por el fabricante, se dice que el disco ha fallado para ese atributo. Con todas las reservas mencionadas en la primera parte de ese artículo, cuando un atributo "pre-fail" ha fallado, presumiblemente una falla de disco es inminente.
Como segundo ejemplo, examinemos la "tasa de error de búsqueda":
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
7 Seek_Error_Rate 0x000f 071 060 030 Pre-fail Always - 51710773327
En realidad, y esto es un problema con S.M.A.R.T. informes, el significado exacto de cada valor es específico del proveedor. En mi caso, Seagate está utilizando una escala logarítmica para normalizar el valor. Entonces, "71" significa aproximadamente un error por 10 millones de búsquedas (10 a la 7.1 potencia). Curiosamente, el peor de todos los tiempos fue un error por 1 millón de búsquedas (10 elevado a la sexta potencia). Si lo interpreto correctamente, eso significa que las cabezas de mis discos están posicionadas con mayor precisión ahora que en el pasado. No seguí de cerca ese disco, por lo que este análisis está sujeto a cautela. ¿Tal vez la unidad solo necesitaba un período de rodaje cuando se puso en marcha inicialmente? ¿A menos que esto sea una consecuencia del desgaste de las piezas mecánicas y, por lo tanto, oponga menos fricción hoy? En cualquier caso, y sea cual sea el motivo, este valor es más un indicador de rendimiento que una alerta temprana de fallo. Así que eso no me molesta mucho.
Además de eso, y tres errores sospechosos registrados hace unos seis meses, esa unidad parece estar en condiciones sorprendentemente buenas (según S.M.A.R.T.) para una unidad portátil de serie que estuvo encendida durante más de 1100 días (26423 horas):
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
9 Power_On_Hours 0x0032 070 070 000 Old_age Always - 26423
Por curiosidad, realicé la misma prueba en una computadora portátil mucho más reciente equipada con un SSD:
sh$ sudo smartctl -i /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Device Model: TOSHIBA THNSNK256GVN8
Serial Number: 17FS131LTNLV
LU WWN Device Id: 5 00080d 9109b2ceb
Firmware Version: K8XA4103
User Capacity: 256 060 514 304 bytes [256 GB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: Solid State Device
Form Factor: M.2
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: ACS-3 (minor revision not indicated)
SATA Version is: SATA 3.2, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Tue Mar 13 01:03:23 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
Lo primero que debe notar, incluso si ese dispositivo es S.M.A.T. habilitado, no está en el smartctl
base de datos. Eso no evitará que la herramienta recopile datos del SSD, pero no podrá informar el significado exacto de los diferentes atributos específicos del proveedor:
sh$ sudo smartctl -a /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 120) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 11) minutes.
SCT capabilities: (0x003d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000a 100 100 000 Old_age Always - 0
2 Throughput_Performance 0x0005 100 100 050 Pre-fail Offline - 0
3 Spin_Up_Time 0x0007 100 100 050 Pre-fail Always - 0
5 Reallocated_Sector_Ct 0x0013 100 100 050 Pre-fail Always - 0
7 Unknown_SSD_Attribute 0x000b 100 100 050 Pre-fail Always - 0
8 Unknown_SSD_Attribute 0x0005 100 100 050 Pre-fail Offline - 0
9 Power_On_Hours 0x0012 100 100 000 Old_age Always - 171
10 Unknown_SSD_Attribute 0x0013 100 100 050 Pre-fail Always - 0
12 Power_Cycle_Count 0x0012 100 100 000 Old_age Always - 105
166 Unknown_Attribute 0x0012 100 100 000 Old_age Always - 0
167 Unknown_Attribute 0x0022 100 100 000 Old_age Always - 0
168 Unknown_Attribute 0x0012 100 100 000 Old_age Always - 0
169 Unknown_Attribute 0x0013 100 100 010 Pre-fail Always - 100
170 Unknown_Attribute 0x0013 100 100 010 Pre-fail Always - 0
173 Unknown_Attribute 0x0012 200 200 000 Old_age Always - 0
175 Program_Fail_Count_Chip 0x0013 100 100 010 Pre-fail Always - 0
192 Power-Off_Retract_Count 0x0012 100 100 000 Old_age Always - 18
194 Temperature_Celsius 0x0023 063 032 020 Pre-fail Always - 37 (Min/Max 11/68)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
240 Unknown_SSD_Attribute 0x0013 100 100 050 Pre-fail Always - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Este suele ser el resultado que puede esperar de un SSD nuevo. Incluso si, debido a la falta de normalización o metainformación para los datos específicos del proveedor, muchos atributos se notifican como "Atributo_SSD_desconocido". Solo espero futuras versiones de smartctl
incorporará datos relativos a ese modelo de unidad en particular en la base de datos de la herramienta, por lo que podría identificar con mayor precisión los posibles problemas.
Prueba tu SSD en Linux con smartctl
Hasta ahora hemos examinado los datos recopilados por la unidad durante su funcionamiento normal. Sin embargo, el S.M.A.R.T. El protocolo también admite varios comandos de "autocomprobación" para iniciar el diagnóstico a pedido.
A menos que se solicite explícitamente, las autopruebas pueden ejecutarse durante las operaciones normales del disco. Dado que tanto la prueba como las solicitudes de E/S del host competirán por la unidad, el rendimiento del disco se degradará durante la prueba. El inteligente. especificación especifica varios tipos de autocomprobación. Los más importantes son:
Autocomprobación corta (-t short
)
Esta prueba comprobará el rendimiento eléctrico y mecánico, así como el rendimiento de lectura de la unidad. La autocomprobación corta generalmente solo requiere unos minutos para completarse (generalmente de 2 a 10). Autocomprobación extendida (-t long
)
Esta prueba tarda uno o dos órdenes de magnitud más en completarse. Por lo general, esta es una versión más profunda de la breve autoevaluación. Además, esa prueba escaneará toda la superficie del disco en busca de errores de datos sin límite de tiempo. La duración de la prueba será proporcional al tamaño del disco. Autoprueba de transporte (-t conveyance
)
este conjunto de pruebas está diseñado como una forma relativamente rápida de comprobar posibles daños durante el transporte del dispositivo.
Aquí hay ejemplos tomados de los mismos discos que el anterior. Te dejo adivinar cuál es cuál:
sh$ sudo smartctl -t short /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Short self-test routine immediately in off-line mode".
Drive command "Execute SMART Short self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 2 minutes for test to complete.
Test will complete after Mon Mar 12 18:06:17 2018
Use smartctl -X to abort test.
La prueba ahora se ha establecido. Esperemos hasta que termine para mostrar el resultado:
sh$ sudo sh -c 'sleep 120 && smartctl -l selftest /dev/sdb'
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 171 -
Hagamos ahora la misma prueba en mi otro disco:
sh$ sudo smartctl -t short /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Short self-test routine immediately in off-line mode".
Drive command "Execute SMART Short self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 2 minutes for test to complete.
Test will complete after Mon Mar 12 21:59:39 2018
Use smartctl -X to abort test.
Una vez más, duerma durante dos minutos y muestre el resultado de la prueba:
sh$ sudo sh -c 'sleep 120 && smartctl -l selftest /dev/sdb'
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 26429 -
# 2 Short offline Completed without error 00% 10904 -
# 3 Short offline Completed without error 00% 12 -
# 4 Short offline Completed without error 00% 0 -
Curiosamente, en ese caso, parece que tanto la unidad como los fabricantes de computadoras parecen haber realizado algunas pruebas rápidas en el disco (a las 0h y 12h de vida útil). Yo Definitivamente estaba mucho menos preocupado por monitorear el estado de la unidad. Entonces, dado que estoy realizando algunas autoevaluaciones para ese artículo, comencemos una extendida prueba para saber cómo va:
sh$ sudo smartctl -t long /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Extended self-test routine immediately in off-line mode".
Drive command "Execute SMART Extended self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 110 minutes for test to complete.
Test will complete after Tue Mar 13 00:09:08 2018
Use smartctl -X to abort test.
Apparently, this time we will have to wait much longer than for the short test. So let’s do it:
sh$ sudo bash -c 'sleep $((110*60)) && smartctl -l selftest /dev/sdb'
[sudo] password for sylvain:
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Extended offline Completed: read failure 20% 26430 810665229
# 2 Short offline Completed without error 00% 26429 -
# 3 Short offline Completed without error 00% 10904 -
# 4 Short offline Completed without error 00% 12 -
# 5 Short offline Completed without error 00% 0 -
In that latter case, pay special attention to the different outcomes obtained with the short and extended tests, even if they were performed one right after the other. Well, maybe that disk is not that healthy after all! An important thing to notice is the test will stop after the first read error. So if you want an exhaustive diagnosis of all read errors, you will have to continue the test after each error. I encourage you to take a look at the very well written smartctl(8) manual page for the more information about the options -t select,N-max
and -t select,cont
for that:
sh$ sudo smartctl -t select,810665230-max /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Selective self-test routine immediately in off-line mode".
SPAN STARTING_LBA ENDING_LBA
0 810665230 976773167
Drive command "Execute SMART Selective self-test routine immediately in off-line mode" successful.
Testing has begun.
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Selective offline Completed without error 00% 26432 -
# 2 Extended offline Completed: read failure 20% 26430 810665229
# 3 Short offline Completed without error 00% 26429 -
# 4 Short offline Completed without error 00% 10904 -
# 5 Short offline Completed without error 00% 12 -
# 6 Short offline Completed without error 00% 0 -
Conclusion
Definitely, S.M.A.R.T. reporting is a technology you can add to your tool chest to monitor your servers disk health. In that case, you should also take a look at the S.M.A.R.T. Disk Monitoring Daemon smartd(8) that could help you automate monitoring through syslog reporting.
Given the statistical nature of failure prediction, I am a little bit less convinced however than aggressive S.M.A.R.T. monitoring is of great benefit on a personal computer. Finally, don’t forget whatever is its technology, a drive will fail— and we have seen earlier, in one-third of the case, it will fail without prior notices. So nothing will replace RAIDand offline backups to ensure your data integrity!
This article was written by Sylvain Leroux