我想知道新安装的 vanilla Linux 系统(如 32 位 CentOS 5.10)总共读取了多少数据才能进入虚拟控制台 shell 提示?您知道,读取所有配置文件、加载二进制文件、内核映像等。
我正在启动 100 台 Linux 机器,它们的系统内容的 95% 是相同的并且将保持相同——这些机器是克隆的。我想将文件系统的相同/只读共享部分卸载到 NFS 存储,从那里安装它,然后像这样启动。只有文件系统的可写部分,如 /var、/tmp 和 /home,将保留在每台机器的本地。由于可能有数百台机器作为“集群”的一部分同时启动,我需要估计访问的 NFS 存储链接在启动时是否会成为瓶颈。
我正在寻找数量级的估计。我知道 Linux 启动过程的细节差异很大。我们说的是 10Mb 吗?100Mb?1Gb?
我正在尝试对全 NVMe ZFS 磁盘阵列进行基准测试。我熟悉极快的基准测试结果,由于高效的 ZFS 缓存,磁盘活动非常少。我遇到了相反的情况:大量的 ZFS 磁盘活动,但 FIO 仅显示很少的带宽。我该如何解释这种行为?
Zpool iostat -v 1仅显示一秒,但每秒输出一致:16 至 20 GiB/s 写入带宽
capacity operations bandwidth
pool alloc free read write read write
------------ ----- ----- ----- ----- ----- -----
my_pool-10 1.92T 19.0T 2 155K 95.7K 16.9G
mirror-0 329G 3.16T 0 26.2K 3.99K 2.84G
nvme2n1 - - 0 13.2K 0 1.42G
nvme3n1 - - 0 13.1K 3.99K 1.42G
mirror-1 328G 3.16T 0 26.0K 0 2.83G
nvme4n1 - - 0 13.0K 0 1.41G
nvme5n1 - …Run Code Online (Sandbox Code Playgroud) 我想执行网络性能基准测试,因此需要在网络中生成 10 Gbps 流量。节点运行 RHEL 5.x。任何人都可以请指出我合适的二进制文件等。
我们可以使用 iperf 和 netperf 命令来执行此测试吗?
我即将在 OpenVZ 容器中设置一个数据库服务器 (MySQL),我一直想知道应该为它分配多少 CPU。我决定对其进行基准测试。我比较了两个 OS/MySQL 发行版,并测试了它们在 1、2、3 和 4 个 CPU 上的表现。
第一个软件配置是:
第二:
两者都在同一内核上运行 - 2.6.32-openvz-042stab083.2-amd64 #1 SMP Fri Nov 8 17:59:25 MSK 2013 x86_64 GNU/Linux。
所有软件都是从软件包中安装的,开箱即用,无需任何自定义配置调整。
硬件:6GB RAM,1-4 个 CPU 3.5 GHz。
对于基准测试,我在以下场景中使用了 sysbench:
sysbench --test=oltp --oltp-table-size=1000000 --mysql-db=test --mysql-user=root --db-driver=mysql --mysql-password=d prepare
sysbench --test=oltp --oltp-table-size=1000000 --mysql-db=test --mysql-user=root --db-driver=mysql …Run Code Online (Sandbox Code Playgroud) 我正在使用 Debian 8 amd64 机器进行基准测试。在实验过程中,我希望 CPU 以固定频率(最好是最大可能)运行。这将排除 CPU 时钟速度作为结果变化的来源。
经过一番阅读,似乎正确的做法是将 CPU 调控器更改为performance,这在 Linux 内核文档中描述:
CPUfreq 调控器“性能”将 CPU 静态设置为 scaling_min_freq 和 scaling_max_freq 边界内的最高频率。
遗憾的是,没有提供有关scaling_min_freq和 的更多详细信息scaling_max_freq。希望这无关紧要,因为使用的 CPU 频率是间隔的最大值。
所以我使用 cpufreq-set 启用了这个调控器:
$ cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor 表现 表现 表现 表现
为了更好地衡量,我还在 bios 中禁用了涡轮增压模式:
$ cat /sys/devices/system/cpu/intel_pstate/no_turbo 1
根据以上对性能调节器的描述,我预计 CPU 时钟速度不会出现波动。然而,如果我反复运行cpufreq-info,我会看到时钟速度波动:
$ cpufreq-info | grep '当前 CPU fr' 当前 CPU 频率为 4.00 GHz。 当前 CPU 频率为 3.99 GHz。 当前 CPU 频率为 4.00 GHz。 当前 CPU …
linux performance central-processing-unit linux-kernel benchmark
出于基准测试的目的,我想强制 Apache 2 从磁盘加载每个请求的文件,而不是从内存中的缓存加载它。从我读过的同步开始,然后
echo 3 > /proc/sys/vm/drop_caches
Run Code Online (Sandbox Code Playgroud)
让我删除 linux 的缓存。对特定文件的后续请求将不会从 linux 的缓存中提供,但对同一文件的进一步请求将再次从 linux 的缓存中提供。这是因为 /proc/sys/vm/drop_caches 不会禁用缓存,它只会丢弃在那一刻之前缓存的内容。我可能会在每个请求之前删除缓存,但我更喜欢另一种解决方案。我还能做些什么来确保 apache 从磁盘加载每个请求的文件?
我为什么要这样做:我知道在正常操作中启用了缓存。但是服务器不提供小的和经常访问的文件,例如 html 页面、小图像等。相反,它提供的文件大多是来自一个非常大的文件集的几兆字节大小的文件。这些文件的访问非常统一,因此很少访问每个单独的文件。因此,在正常操作中,我希望大多数访问不会导致缓存命中,但需要从磁盘加载文件。我有几个示例文件,我想使用 apache 的ab访问它们衡量服务器每秒能够处理多少事务的基准。不幸的是,我相信由于缓存,我得到的结果太乐观了。因此,我想禁用 Linux 的磁盘缓存,而任何缓存 Apache 可能会自行完成。
更新:到目前为止给出的答案告诉我如何禁用 Apache 自己的缓存,但我仍然想知道是否有办法禁用由 linux 内核完成的缓存。
我目前正在使用siege在我的服务器上运行很多配置基准测试,我想尝试 SPDY 协议(使用 mod_spdy for Apache) - 但 siege 使用 HTTP。
你知道有什么工具可以让我在有和没有 SPDY 的高并发环境中比较我的网站性能吗?
我正在用旧服务器替换我的 SOHO 服务器(桌面级组件)。四核 i5 正在被双四核 Xeons X5355 取代,以下是详细信息:
i5-2300,通行分数5276:
http://www.cpubenchmark.net/cpu.php?cpu=Intel+Core+i5-2300+%40+2.80GHz
双至强 X5355,通行分数 5880:
http://cpubenchmark.net/cpu.php?cpu=Intel+Xeon+X5355+%40+2.66GHz&id=1294&cpuCount=2
我的问题是,passmark 分数之间的差异仅为 ~600,假设性能相似是否正确,或者服务器主板是否有任何其他优势?我搬家的主要原因是ECC-RAM和双PSU可靠性等监控优势。
一个LBA(逻辑块地址)是在实施的映射表FTL在逻辑和物理页/块之间匹配的SSD,我的猜测是,大多数固态硬盘(至少当它们是空的)保持所述物理地址中的相同顺序逻辑地址(物理地址 0 映射到逻辑地址 0,1 映射到 1,依此类推)。
当页面更改时,SSD控制器将更新的页面复制到缓存,更改页面,将旧页面标记为“无效/陈旧”,然后将新页面写入不同的位置并更新 LBA。
因此,即使物理地址与逻辑地址对齐,在几次写入之后,这个顺序也会被搞乱!
为什么顺序写比随机写有更好的性能呢?
编辑
无论块大小或队列深度如何,顺序写入和随机写入之间都缺乏性能。
在某些方面,我猜这是一个字符串问题,但是即使有“这适合大多数情况”的答案,我也不知道它是什么,所以......
我有一个评估的 SAN,一个 HP P4000。我想用 IOMeter 做一些基准测试,看看它有什么能力。
但是,我不知道块大小、读/写拆分和随机/顺序拆分的哪种组合适用于不同的用途。
例如,您将如何模拟一些 Exchange 活动、一些 SQL 活动、一些一般的 VM 活动等等。
我知道如何添加工作人员并使用不同的设置让他们松散,但我应该使用哪些设置?
谢谢。
benchmark ×10
linux ×3
performance ×3
apache-2.2 ×2
boot ×1
disk-cache ×1
fio ×1
hard-drive ×1
io ×1
iometer ×1
linux-kernel ×1
mysql ×1
networking ×1
nvme ×1
redhat ×1
spdy ×1
ssd ×1
storage ×1
xeon ×1
zfs ×1