在我的 HAProxy 负载均衡器中,我有以下配置块:
defaults
mode http
log global
option httplog clf
option dontlognull
option http-server-close
option forwardfor except 127.0.0.0/8
option redispatch
frontend main_http *:80
option forwardfor except 127.0.0.1
option httpclose
default_backend backend_http
backend backend_http
balance roundrobin
option httpchk
server node1 10.0.0.64:80 check port 80
server node2 10.0.0.65:80 check port 80
server node3 10.0.0.66:80 check port 80
Run Code Online (Sandbox Code Playgroud)
在节点 (Tomcat) 上,我以这种格式记录请求(与第一个字段中的 x-forwarded-for 和真正的 REMOTE_ADDR 相结合):
pattern='%{X-Forwarded-For}i - %u %t "%r" %s %b "%{Referer}i" "%{User-Agent}i" %a'
Run Code Online (Sandbox Code Playgroud)
这似乎适用于大多数请求,但在某些情况下,我假设客户端位于代理后面,我看到第一个字段包含这些值的请求(每行代表一个真实请求,我破坏了真实 IP隐私):
10.83.103.44, 10.83.103.44
10.83.198.52, 10.83.198.52
10.53.109.36, …
Run Code Online (Sandbox Code Playgroud) 我有一台服务器,我想确保它始终以最大速度运行,从不处于节能模式。我尝试了一些策略(除了重新启动和更改 bios 中的设置,我必须为几百台服务器执行此操作)但是我从cpufreq-info
. 例如:
root@host:~# cpufreq-info -c 0 cpufrequtils 007:cpufreq-info (C) Dominik Brodowski 2004-2009 请向 cpufreq@vger.kernel.org 报告错误和错误。 分析 CPU 0: 驱动程序:acpi-cpufreq 以相同硬件频率运行的 CPU:0 需要通过软件协调其频率的 CPU:0 最大转换延迟:10.0 us。 硬件限制:1.20 GHz - 2.20 GHz 可用频率步长:2.20 GHz、2.20 GHz、2.10 GHz、2.00 GHz、1.90 GHz、1.80 GHz、1.70 GHz、1.60 GHz、1.50 GHz、1.40 GHz、1.30 GHz、1.20 GHz 可用的 cpufreq 调控器:conservative、ondemand、userspace、powersave、performance 当前政策:频率应在 2.00 GHz 和 2.20 GHz 之间。 调控器“性能”可以决定使用哪种速度 在这个范围内。 当前 CPU 频率为 1.20 GHz(通过调用硬件断言)。 cpufreq 统计信息:2.20 GHz:6.50%、2.20 GHz:0.24%、2.10 GHz:0.34%、2.00 GHz:0.05%、1.90 GHz:0.04%、1.80 GHz:0.03%、1.06GHz%3.060GHz , 1.50 GHz:0.03%, 1.40 GHz:0.03%, 1.30 GHz:0.03%, 1.20 …
我正在研究对由 ELB 前置的一层网络服务器使用自动缩放组。我遇到的困难之一是如何为每个新实例提供正确的 DNS 名称。例如,我希望网络服务器具有这样的名称,frontend-web-XXX.prod.example.com
以便它们的名称在日志中显示正确并且易于组织。我最终想要自动缩放另外两个层,并且我希望它们api-web-XXX.prod.example.com
也有这样的名称。我对 cloudformation 模板有一些经验,并且已经使用关联的 Route53 记录启动了各个实例,但我没有看到任何迹象表明如何在自动缩放组中完成此操作。
amazon-web-services autoscaling amazon-route53 amazon-cloudformation
我有几台带有 ConnectX-7 Infiniband 卡的机器,它们已插入 Nvidia QM9700 交换机。我已确认两端均为 400 Gbit NDR(主机上的 ibstat 和交换机控制台中)。这些机器运行 Ubuntu 22.04 和 Mellanox 5.8-3.0.7.0 驱动程序。我已经做了很多测试ib_write_bw
,我能得到的最大速度是 ~251 Gbit/s。实际测试命令为:
服务器端(host_a):
numactl -N 0 -m 0 ib_write_bw -d mlx5_4 -F --report_gbits
Run Code Online (Sandbox Code Playgroud)
客户端(host_b):
numactl -N 0 -m 0 ib_write_bw -d mlx5_4 -F --report_gbits --run_infinitely host_b
Run Code Online (Sandbox Code Playgroud)
这些卡位于正确的 numa 域中以匹配 numactl,但我尝试过其他组合,但没有成功。输出最终看起来像这样:
---------------------------------------------------------------------------------------
RDMA_Write BW Test
Dual-port : OFF Device : mlx5_4
Number of qps : 1 Transport type : IB
Connection type : RC Using SRQ : OFF
PCIe relax order: …
Run Code Online (Sandbox Code Playgroud)