小编Eva*_*van的帖子

在 haproxy 中覆盖 X-Forwarded-For 标头?

在我的 HAProxy 负载均衡器中,我有以下配置块:

defaults
    mode                    http
    log                     global
    option                  httplog clf
    option                  dontlognull
    option http-server-close
    option forwardfor       except 127.0.0.0/8
    option                  redispatch

frontend  main_http *:80
    option forwardfor except 127.0.0.1
    option httpclose
    default_backend         backend_http

backend backend_http
    balance     roundrobin
    option httpchk
    server  node1 10.0.0.64:80 check port 80
    server  node2 10.0.0.65:80 check port 80
    server  node3 10.0.0.66:80 check port 80
Run Code Online (Sandbox Code Playgroud)

在节点 (Tomcat) 上,我以这种格式记录请求(与第一个字段中的 x-forwarded-for 和真正的 REMOTE_ADDR 相结合):

pattern='%{X-Forwarded-For}i - %u %t "%r" %s %b "%{Referer}i" "%{User-Agent}i" %a'
Run Code Online (Sandbox Code Playgroud)

这似乎适用于大多数请求,但在某些情况下,我假设客户端位于代理后面,我看到第一个字段包含这些值的请求(每行代表一个真实请求,我破坏了真实 IP隐私):

10.83.103.44, 10.83.103.44 
10.83.198.52, 10.83.198.52 
10.53.109.36, …
Run Code Online (Sandbox Code Playgroud)

tomcat haproxy x-forwarded-for

6
推荐指数
1
解决办法
1万
查看次数

cpufreq-info 与 /proc/cpuinfo 不同?

我有一台服务器,我想确保它始终以最大速度运行,从不处于节能模式。我尝试了一些策略(除了重新启动和更改 bios 中的设置,我必须为几百台服务器执行此操作)但是我从cpufreq-info. 例如:

root@host:~# cpufreq-info -c 0
cpufrequtils 007:cpufreq-info (C) Dominik Brodowski 2004-2009
请向 cpufreq@vger.kernel.org 报告错误和错误。
分析 CPU 0:
  驱动程序:acpi-cpufreq
  以相同硬件频率运行的 CPU:0
  需要通过软件协调其频率的 CPU:0
  最大转换延迟:10.0 us。
  硬件限制:1.20 GHz - 2.20 GHz
  可用频率步长:2.20 GHz、2.20 GHz、2.10 GHz、2.00 GHz、1.90 GHz、1.80 GHz、1.70 GHz、1.60 GHz、1.50 GHz、1.40 GHz、1.30 GHz、1.20 GHz
  可用的 cpufreq 调控器:conservative、ondemand、userspace、powersave、performance
  当前政策:频率应在 2.00 GHz 和 2.20 GHz 之间。
                  调控器“性能”可以决定使用哪种速度
                  在这个范围内。
  当前 CPU 频率为 1.20 GHz(通过调用硬件断言)。
  cpufreq 统计信息:2.20 GHz:6.50%、2.20 GHz:0.24%、2.10 GHz:0.34%、2.00 GHz:0.05%、1.90 GHz:0.04%、1.80 GHz:0.03%、1.06GHz%3.060GHz , 1.50 GHz:0.03%, 1.40 GHz:0.03%, 1.30 GHz:0.03%, 1.20 …

linux performance cpu-usage

6
推荐指数
2
解决办法
1637
查看次数

如何为 Auto Scaling 创建的 EC2 实例创建 DNS 条目?

我正在研究对由 ELB 前置的一层网络服务器使用自动缩放组。我遇到的困难之一是如何为每个新实例提供正确的 DNS 名称。例如,我希望网络服务器具有这样的名称,frontend-web-XXX.prod.example.com以便它们的名称在日志中显示正确并且易于组织。我最终想要自动缩放另外两个层,并且我希望它们api-web-XXX.prod.example.com也有这样的名称。我对 cloudformation 模板有一些经验,并且已经使用关联的 Route53 记录启动了各个实例,但我没有看到任何迹象表明如何在自动缩放组中完成此操作。

amazon-web-services autoscaling amazon-route53 amazon-cloudformation

5
推荐指数
1
解决办法
7219
查看次数

Mellanox ConnectX-7 - 无法获得超过 250 Gbit/s

我有几台带有 ConnectX-7 Infiniband 卡的机器,它们已插入 Nvidia QM9700 交换机。我已确认两端均为 400 Gbit NDR(主机上的 ibstat 和交换机控制台中)。这些机器运行 Ubuntu 22.04 和 Mellanox 5.8-3.0.7.0 驱动程序。我已经做了很多测试ib_write_bw,我能得到的最大速度是 ~251 Gbit/s。实际测试命令为:

服务器端(host_a):

numactl -N 0 -m 0 ib_write_bw -d mlx5_4 -F --report_gbits
Run Code Online (Sandbox Code Playgroud)

客户端(host_b):

numactl -N 0 -m 0 ib_write_bw -d mlx5_4 -F --report_gbits --run_infinitely host_b
Run Code Online (Sandbox Code Playgroud)

这些卡位于正确的 numa 域中以匹配 numactl,但我尝试过其他组合,但没有成功。输出最终看起来像这样:

---------------------------------------------------------------------------------------
                    RDMA_Write BW Test
 Dual-port       : OFF          Device         : mlx5_4
 Number of qps   : 1            Transport type : IB
 Connection type : RC           Using SRQ      : OFF
 PCIe relax order: …
Run Code Online (Sandbox Code Playgroud)

performance infiniband

5
推荐指数
1
解决办法
414
查看次数