运行时如何计算最佳块大小dd?我已经研究了一下,我没有找到任何暗示如何实现这一点的东西.
我的印象是更大的块大小会导致更快dd...这是真的吗?
我dd将在运行带有4GB DDR3 1333mhz RAM的Intel Core i3的盒子上运行两个相同的500gb日立硬盘,运行速度为7200rpm,所以我试图找出要使用的块大小.(我将从闪存驱动器启动Ubuntu 10.10 x86,并从中运行它.)
小智 86
最佳块大小取决于各种因素,包括操作系统(及其版本)以及所涉及的各种硬件总线和磁盘.几个类Unix系统(包括Linux和至少一些BSD)定义了st_blksize成员,struct stat它给出了内核认为最佳的块大小:
#include <sys/stat.h>
#include <stdio.h>
int main(void)
{
struct stat stats;
if (!stat("/", &stats))
{
printf("%u\n", stats.st_blksize);
}
}
Run Code Online (Sandbox Code Playgroud)
最好的方法可能是试验:复制一个具有各种块大小和时间的千兆字节.(记得在每次运行之前清除内核缓冲区缓存:) echo 3 > /proc/sys/vm/drop_caches.
然而,根据经验,我发现足够大的块大小可以dd做得很好,例如64 KiB和1 MiB之间的差异很小,而4 KiB和64 KiB之间的差异很小.(虽然,不可否认,自从我这样做以来已经有一段时间了.我现在默认使用mebibyte,或者只是dd选择大小.)
tdg*_*dg5 65
正如其他人所说,没有普遍正确的块大小; 对于一种情况或一种硬件而言,最佳选择对另一种情况来说可能非常低效.而且,取决于磁盘的健康状况,可能优选使用与"最佳"不同的块大小.
在现代硬件上非常可靠的一件事是,512字节的默认块大小往往比更优化的替代方案慢一个数量级.如果有疑问,我发现64K是一个相当坚实的现代默认值.虽然64K通常不是最佳块大小,但根据我的经验,它往往比默认值更有效.64K还具有可靠性能的非常可靠的历史:您可以从Eug-Lug邮件列表中找到一条消息,大约在2002年,在这里建议块大小为64K:http://www.mail-archive.com/eug- lug@efn.org/msg12073.html
为了确定最佳输出块大小,我编写了以下脚本,该脚本测试使用dd在不同块大小的范围内编写128M测试文件,默认值为512字节,最大值为64M.请注意,此脚本在内部使用dd,因此请谨慎使用.
dd_obs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Calculate number of segments required to copy
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
if [ $COUNT -le 0 ]; then
echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
break
fi
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Create a test file with the specified block size
DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)
# Extract the transfer rate from dd's STDERR output
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
# Output the result
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
Run Code Online (Sandbox Code Playgroud)
我只在Debian(Ubuntu)系统和OSX Yosemite上测试过这个脚本,因此可能需要进行一些调整才能在其他Unix版本上进行调试.
默认情况下,该命令将在当前目录中创建名为dd_obs_testfile的测试文件.或者,您可以通过在脚本名称后面提供路径来提供自定义测试文件的路径:
$ ./dd_obs_test.sh /path/to/disk/test_file
Run Code Online (Sandbox Code Playgroud)
脚本的输出是测试块大小及其各自传输速率的列表,如下所示:
$ ./dd_obs_test.sh
block size : transfer rate
512 : 11.3 MB/s
1024 : 22.1 MB/s
2048 : 42.3 MB/s
4096 : 75.2 MB/s
8192 : 90.7 MB/s
16384 : 101 MB/s
32768 : 104 MB/s
65536 : 108 MB/s
131072 : 113 MB/s
262144 : 112 MB/s
524288 : 133 MB/s
1048576 : 125 MB/s
2097152 : 113 MB/s
4194304 : 106 MB/s
8388608 : 107 MB/s
16777216 : 110 MB/s
33554432 : 119 MB/s
67108864 : 134 MB/s
Run Code Online (Sandbox Code Playgroud)
(注意:传输速率的单位因操作系统而异)
要测试最佳读取块大小,您可以使用或多或少相同的进程,但不是从/ dev/zero读取并写入磁盘,而是从磁盘读取并写入/ dev/null.执行此操作的脚本可能如下所示:
dd_ibs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728
# Exit if file exists
if [ -e $TEST_FILE ]; then
echo "Test file $TEST_FILE exists, aborting."
exit 1
fi
TEST_FILE_EXISTS=1
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Read test file out to /dev/null with specified block size
DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)
# Extract transfer rate
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
Run Code Online (Sandbox Code Playgroud)
这种情况的一个重要区别是测试文件是由脚本编写的文件.不要将此命令指向现有文件,否则现有文件将被零覆盖!
对于我的特定硬件,我发现128K是HDD上最优的输入块大小,32K是SSD上最优的.
虽然这样的回答涵盖了大多数我发现,我碰到的这种情况下足够的时间,我写了一篇博客文章吧:http://blog.tdg5.com/tuning-dd-block-size/你可以找到更多的细节我在那里进行的测试.
unf*_*nfa 10
我发现我的最佳块大小为8 MB(等于磁盘缓存?)我需要在创建压缩映像之前擦除(有人说:清洗)磁盘上的空白区域.我用了:
cd /media/DiskToWash/
dd if=/dev/zero of=zero bs=8M; rm zero
Run Code Online (Sandbox Code Playgroud)
我尝试了从4K到100M的值.
让dd运行一段时间后我杀了它(Ctlr + C)并读取输出:
36+0 records in
36+0 records out
301989888 bytes (302 MB) copied, 15.8341 s, 19.1 MB/s
Run Code Online (Sandbox Code Playgroud)
由于dd显示输入/输出速率(在这种情况下为19.1MB/s),因此很容易看出您选择的值是否比前一个更好或更差.
我的分数:
bs= I/O rate
---------------
4K 13.5 MB/s
64K 18.3 MB/s
8M 19.1 MB/s <--- winner!
10M 19.0 MB/s
20M 18.6 MB/s
100M 18.6 MB/s
Run Code Online (Sandbox Code Playgroud)
这完全取决于系统。您应该尝试找到最佳解决方案。尝试从 开始bs=8388608。(日立 HDD 似乎有 8MB 缓存。)
| 归档时间: |
|
| 查看次数: |
156596 次 |
| 最近记录: |