考虑到许多服务器级系统都配备了ECC RAM,在部署之前烧入内存 DIMM是否必要或有用?
我遇到过这样一种环境,其中所有服务器 RAM 都经过漫长的老化/压力测试过程。这有时会延迟系统部署并影响硬件交付时间。
服务器硬件主要是Supermicro,因此 RAM 来自各种供应商;不是直接来自制造商,如Dell Poweredge或HP ProLiant。
这是一个有用的练习吗?在我过去的经验中,我只是直接使用供应商 RAM。POST内存测试不应该捕获 DOA 内存吗?我早在 DIMM 实际发生故障之前就对 ECC 错误做出了响应,因为 ECC 阈值通常是保修安置的触发因素。
我将在几周内进行演示。这个演示的一部分是用于基本的 mysql 故障排除,包括使用慢查询日志。我已经生成了一个数据库并安装了我们的应用程序,但它是一个干净的数据库,因此很难产生足够的问题。
我尝试了以下方法来获取慢查询日志中的查询:
将慢查询时间设置为 1 秒。
删除了多个索引。
强调系统:
stress --cpu 100 --io 100 --vm 2 --vm-bytes 128M --timeout 1m
Run Code Online (Sandbox Code Playgroud)
使用 wget 编写了一些基本的网页调用脚本。
这些都没有产生缓慢的查询。是否有另一种方法可以人为地对数据库施加压力以产生问题?我没有足够的技能来编写复杂的 Jmeter 或其他负载生成器。我希望也许有一些内置于 mysql 或其他超越压力的 linux 技巧。
似乎有一些事情使我们的服务器脱机,如果是特定站点或脚本的加载导致我们无法追踪原因。它似乎与Apache有关。
有谁知道我们可以从另一台服务器上运行的任何基于 Linux 的工具,通过查看在它出现故障之前需要多少请求来对有问题的服务器进行压力测试?
谢谢,沙迪
是否有任何实用程序或简单的工具或技术可以轻松测试 CAT5 电缆,以查看它的安装情况?
Cat5 通常由业余爱好者安装,但已安装并“工作”多年。像 Fluke 或 LanTech 这样的合适的电缆测试仪和认证仪的价格通常超过 1000 美元,而且拥有它们的人很少。
不是有什么特殊的网卡,或者USB cat5测试设备,可以插电脑用软件测试cat5吗?也许他们的卡的英特尔实用程序?
Linux 环境:Debian、Ubuntu、Centos
目标:
测试监控程序,在不同的cpu百分比下设置警报并触发不同的警报。
例如:(30-50%)、(51-70%) 和 >90%
所以我需要一个可以模拟每个核心特定 CPU 百分比的 CPU 压力器。
stress-mg看起来是最先进的。
根据其文档http://kernel.ubuntu.com/~cking/stress-ng/可以将负载值设置在 0 到 100% 之间:
-l P --cpu-load P 按 P % 加载 CPU,0=睡眠,100=满载(参见 -c)
stress-ng -c 1 -p 30
Run Code Online (Sandbox Code Playgroud)
压力 ng: 信息: [12650] 调度猪: 0 I/O-Sync, 1 CPU, 0 VM-mmap, 0 HDD-Write, 0 Fork, 0 Context-switch, 30 Pipe, 0 Cache, 0 Socket, 0 Yield, 0 Fallocate, 0 Flock, 0 Affinity, 0 Timer, 0 Dentry, 0 Urandom, 0 Float, 0 Int, 0 Semaphore, 0 …
我目前正在检查不同 Docker 覆盖网络的性能(尤其是 UDP 吞吐量)。为此,我在与 Docker 覆盖网络连接的两台主机之间创建点对点连接,然后iperf在 Docker 容器内运行以检查吞吐量。我注意到每次我iperf作为客户端运行向iperf作为服务器运行的另一个容器发送数据时,客户端主机的CPU使用率达到100%。我通过运行在此处找到的以下命令获得了该结果:
top -bn1 | grep "Cpu(s)" | \
sed "s/.*, *\([0-9.]*\)%* id.*/\1/" | \
awk '{print 100 - $1"%"}'
Run Code Online (Sandbox Code Playgroud)
因此,对我而言,吞吐量测试的限制因素似乎是主机的 CPU 容量,因为它以 100% 的速度运行并且无法产生更多流量来使网络连接饱和。我想知道这是否是一个iperf特定问题,所以我想使用不同的工具运行相同的测试,但不确定哪种替代方案最好。主机正在运行 Ubuntu。例如,我发现qperf,uperf和netpipe。
此外,更一般地说,我开始想知道吞吐量性能的瓶颈通常是什么。它不总是与CPU容量或链路带宽有关吗?哪些因素与覆盖网络没有直接关系。
这是否意味着应用程序(或覆盖网络)的吞吐量仅取决于它需要多少 CPU 周期来传输一定数量的数据以及它如何压缩它以适应它通过网络(如果这将是瓶颈)。
简短地说,我决定对我全新的 4 节点 S2D 集群进行压力测试。
我从 IOMeter 开始并获得了初步结果(不同模式下的最大 IOPS/吞吐量)。然后我认为找到可以模拟实际生产工作负载的 IOmeter 配置是个好主意。遗憾的是,我没有发现任何对 IOmeter 有用的东西,但我发现了名为VMFleet的精美 Powershell 脚本,它使用 MS Diskspd 来强调存储并模拟“引导风暴”。
我在配置过程中遵循了这篇博客文章来准备和配置实验室。
set-vmfleet.ps1脚本显示了一些错误,所以我手动复制了所有步骤。
接下来我运行了start-vmfleet.ps1,但似乎输出只显示零而不是实际结果。
我应该运行watch-cluster.ps1多长时间才能看到结果?以前有人用过 VMFleet 吗?这看起来不像预期的行为。
提前致谢!
我在 ubuntu 14.04 上使用 lxc 用户空间工具,我想在容器内执行一些压力测试和基准测试。我知道 free 和 htop 在容器中不能正常工作。
我在容器中使用 dd 和 bonnie++ 来强调它是 SSD 的硬盘。
现在在主机端,使用 iotop 我可以看到使用的读写 io 带宽,但在 cgroups 中我确实有不同的结果。cgroup 仅捕获一小部分服务字节,而 iotop 显示数百兆字节的带宽使用情况。
在 cgroups 中,我正在捕获此条目:/sys/fs/cgroup/lxc/disk_stress/blkio.throttle.io_service_bytes
任何想法为什么值不相等?哪一个是正确的?
我对压力测试我的网关服务器很感兴趣,但我不知道如何进行。我见过的大多数压力测试应用程序只看到像 Apache 这样的应用程序可以处理多少负载,但不是这个。
本质上,我想用一张卡上的一台计算机将尽可能多的数据包发送到这个盒子中,然后看看有多少数据包从另一台计算机上的另一台计算机中出来,以了解它可以处理什么样的负载。我也对 Snort 的表现很感兴趣。我不太确定如何做到这一点。
您可以推荐哪些工具可以做到这一点?