64k parece ser una buena elección:
Results:
no bs= 78s 144584+0 records
bs=512 78s 144584+0 records
bs=1k 38s 72292+0 records
bs=2k 38s 36146+0 records
bs=4k 38s 18073+0 records
bs=5k 39s 14458+1 records
bs=50k 38s 1445+1 records
bs=500k 39s 144+1 records
bs=512k 39s 144+1 records
bs=1M 39s 72+1 records
bs=5M 39s 14+1 records
bs=10M 39s 7+1 records
(tomado de aquí).
esto coincide con mis propios hallazgos con respecto al almacenamiento en búfer de lectura/escritura para acelerar un programa de conversión pesado de io que una vez proxenetaba @work.
dd felizmente copiará usando el BS de lo que quieras, y copiará un bloque parcial (al final).
Básicamente, el parámetro de tamaño de bloque (bs) parece establecer la cantidad de memoria que se usa para leer en un bloque de un disco antes de intentar escribir ese bloque en el otro.
Si tiene mucha RAM, hacer que la BS sea grande (pero completamente contenida en la RAM) significa que el subsistema de E/S se utiliza tanto como sea posible al hacer lecturas y escrituras masivamente grandes, explotando la RAM. Hacer que la BS sea pequeña significa que la sobrecarga de E/S como proporción de la actividad total aumenta.
Por supuesto que en esto hay una ley de rendimientos decrecientes. Mi aproximación aproximada es que un tamaño de bloque en el rango de 128K a 32M probablemente brindará un rendimiento tal que los gastos generales sean pequeños en comparación con la E / S simple, y aumentar no hará mucha diferencia. La razón por la que el límite inferior es de 128K a 32M es que depende de su sistema operativo, hardware, etc.
Si fuera yo, haría algunos experimentos cronometrando una copia/clon usando un BS de 128K y nuevamente usando (digamos) 16M. Si uno es apreciablemente más rápido, utilícelo. De lo contrario, utilice la BS más pequeña de las dos.
Como han dicho otros, no existe un tamaño de bloque universalmente correcto; lo que es óptimo para una situación o una pieza de hardware puede ser terriblemente ineficiente para otra. Además, según el estado de los discos, puede ser preferible utilizar un tamaño de bloque diferente al "óptimo".
Una cosa que es bastante confiable en el hardware moderno es que el tamaño de bloque predeterminado de 512 bytes tiende a ser casi un orden de magnitud más lento que una alternativa más óptima. En caso de duda, descubrí que 64K es un valor predeterminado moderno bastante sólido. Aunque 64K generalmente no es EL tamaño de bloque óptimo, en mi experiencia tiende a ser mucho más eficiente que el predeterminado. 64K también tiene un historial bastante sólido de rendimiento confiable:puede encontrar un mensaje de la lista de correo de Eug-Lug, alrededor de 2002, recomendando un tamaño de bloque de 64K aquí:http://www.mail-archive.com/example@ unixlinux.online/msg12073.html
Para determinar EL tamaño de bloque de salida óptimo, he escrito el siguiente script que prueba la escritura de un archivo de prueba de 128M con dd en un rango de diferentes tamaños de bloque, desde el valor predeterminado de 512 bytes hasta un máximo de 64M. Tenga cuidado, este script usa dd internamente, así que utilícelo con precaución.
dd_obs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Calculate number of segments required to copy
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
if [ $COUNT -le 0 ]; then
echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
break
fi
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Create a test file with the specified block size
DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)
# Extract the transfer rate from dd's STDERR output
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
# Output the result
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
Ver en GitHub
Solo probé este script en un sistema Debian (Ubuntu) y en OSX Yosemite, por lo que probablemente necesitará algunos ajustes para que funcione en otras versiones de Unix.
De forma predeterminada, el comando creará un archivo de prueba llamado dd_obs_testfile en el directorio actual. Como alternativa, puede proporcionar una ruta a un archivo de prueba personalizado proporcionando una ruta después del nombre del script:
$ ./dd_obs_test.sh /path/to/disk/test_file
El resultado del script es una lista de los tamaños de bloque probados y sus respectivas transferencias, así:
$ ./dd_obs_test.sh
block size : transfer rate
512 : 11.3 MB/s
1024 : 22.1 MB/s
2048 : 42.3 MB/s
4096 : 75.2 MB/s
8192 : 90.7 MB/s
16384 : 101 MB/s
32768 : 104 MB/s
65536 : 108 MB/s
131072 : 113 MB/s
262144 : 112 MB/s
524288 : 133 MB/s
1048576 : 125 MB/s
2097152 : 113 MB/s
4194304 : 106 MB/s
8388608 : 107 MB/s
16777216 : 110 MB/s
33554432 : 119 MB/s
67108864 : 134 MB/s
(Nota:la unidad de las tasas de transferencia variará según el sistema operativo)
Para probar el tamaño óptimo del bloque de lectura, podría usar más o menos el mismo proceso, pero en lugar de leer desde /dev/zero y escribir en el disco, leería desde el disco y escribiría en /dev/null. Una secuencia de comandos para hacer esto podría verse así:
dd_ibs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728
# Exit if file exists
if [ -e $TEST_FILE ]; then
echo "Test file $TEST_FILE exists, aborting."
exit 1
fi
TEST_FILE_EXISTS=1
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Read test file out to /dev/null with specified block size
DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)
# Extract transfer rate
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
Ver en GitHub
Una diferencia importante en este caso es que el archivo de prueba es un archivo escrito por el script. ¡No apunte este comando a un archivo existente o el archivo existente se sobrescribirá con datos aleatorios!
Para mi hardware en particular, descubrí que 128 000 era el tamaño de bloque de entrada más óptimo en un HDD y 32 000 era el más óptimo en un SSD.
Aunque esta respuesta cubre la mayoría de mis hallazgos, me he encontrado con esta situación tantas veces que escribí una publicación de blog al respecto:http://blog.tdg5.com/tuning-dd-block-size/ Puede encontrar más detalles en las pruebas que realicé allí.
Esta publicación de StackOverflow también puede ser útil:dd:¿Cómo calcular el tamaño de bloque óptimo?