小编Ars*_* V.的帖子

Prometheus node_exporter 指标 - Grafana 中的巨大峰值

我们的设置包括:

  • 一些 Debian 9.12 节点,安装了 Prometheus node_exporter v. 0.18.1 作为服务
  • Prometheus 服务器 v.2.14.0(在 Windows Server 2016 上)从节点抓取指标
  • Grafana 可视化指标

基本上,我们的负载可能会不稳定,因此我们希望捕获详细信息,因此目前我们每 10 秒抓取一次指标,并在 Grafana 中显示 1 分钟的速率,查询如下:

rate(node_network_receive_bytes_total{instance=~'$node',device!~'tap.*|veth.*|br.*|docker.*|virbr*|lo*'}[1m])*8
Run Code Online (Sandbox Code Playgroud)

在 Grafana 中,我们看到巨大的峰值,对于平均吞吐量低于 100Mbit/s 的网络实例,峰值超过每秒数百吉比特,这显然在技术上是不可能的。CPU 负载、CPU 等待时间、磁盘 iops 和其他node_exporter指标也会发生同样的情况,通常看起来像这样,看看平均值和最大值之间的巨大差异:

网络接口尖峰

显然,发生这种情况是因为普罗米修斯似乎“错过”了单点数据,并且根据rate工作原理,它将“最后”点与node_network_receive_bytes_total自上次启动以来累积的零到当前值进行比较,并大幅提高了输出。如果我们尝试切换到irate尖峰,就会跳得更高,这似乎证明了我们的猜测。

查询我们的 Prometheus 收集服务器以获取出现峰值的特定时间范围内的数据点rate,我们没有看到任何归零点,“尖峰”时间范围内的数据看起来连续增加:

node_network_receive_bytes_total{device="ens8",instance="cassandra-xxxxxxxxx0:9100",job="cassandra-xxxxxxxxx"}
3173659836137 @1585311247.489
3173678570634 @1585311257.49
3173696782823 @1585311267.491
3173715943503 @1585311277.492
3173715937480 @1585311277.493
3173731328095 @1585311287.495
3173743034248 @1585311297.502
3173756482486 @1585311307.497
3173775999916 @1585311317.497
3173796096167 @1585311327.498
3173814354877 @1585311337.499
3173833456218 @1585311347.499
3173852345655 @1585311357.501
Run Code Online (Sandbox Code Playgroud)

同样在图上:

普罗米修斯图

rate查询 …

grafana prometheus

5
推荐指数
1
解决办法
1254
查看次数

标签 统计

grafana ×1

prometheus ×1