小编Sev*_*mko的帖子

如何使用snmpget通过SNMP传递脚本变量?

我有一个简单的bash脚本调用test_snmp,可以这样说:

#!/bin/bash
 echo $1
Run Code Online (Sandbox Code Playgroud)

我将snmpd.conf设置如下:

rwcommunity public 127.0.0.1
extend .1.3.6.1.4.1.2021.53 /bin/bash /tmp/test_snmp
Run Code Online (Sandbox Code Playgroud)

我想做的是运行一个snmpwalk命令,例如:

snmpwalk -v2c -c public 127.0.0.1 .1.3.6.1.4.1.2021.53 "PRINT SOMETHING"
Run Code Online (Sandbox Code Playgroud)

从输出中我看到 oid = iso.3.6.1.4.1.2021.53.3.1.1.9.47.98.105.110.47.98.97.115.104 = "",是脚本的输出。但是我想将该字符串"PRINT SOMETHING"作为$1上述脚本的参数传递,然后"PRINT SOMETHING"使用snmpget命令获取字符串(在本例中为),例如:

snmpget -v2c -c public 127.0.0.1 iso.3.6.1.4.1.2021.53.3.1.1.9.47.98.105.110.47.98.97.115.104
Run Code Online (Sandbox Code Playgroud)

这只是一个例子,我正在通过snmp运行脚本来测试我拥有哪些选项,因为如果可行,那么我将编写另一个脚本以远程运行,但是我必须使用变量来运行它们。

有人知道怎么做吗?

谢谢

snmp net-snmp

5
推荐指数
1
解决办法
1428
查看次数

如何获取Spark Streaming处理的记录总数?

有谁知道 Spark 如何计算其记录数(我认为它与批次中的事件数相同),如此处所示?

在此输入图像描述

我试图弄清楚如何远程获取该值(UI 中的流选项不存在 REST-API)。

基本上我正在尝试做的是获取我的应用程序处理的记录总数。我需要此信息用于门户网站。

我尝试计算Records每个阶段的数量,但它给了我完全不同的数字,如上图所示。每个阶段都包含有关其记录的信息。如图所示

在此输入图像描述

我正在使用这个简短的 python 脚本来计算每个阶段的“inputRecords”。这是源代码:

import json, requests, urllib
print "Get stages script started!"
#URL REST-API
url = 'http://10.16.31.211:4040/api/v1/applications/app-20161104125052-0052/stages/'
response = urllib.urlopen(url)
data = json.loads(response.read())

stages = []
print len(data)
inputCounter = 0
for item in data:
        stages.append(item["stageId"])
        inputCounter += item["inputRecords"]
print "Records processed: " + str(inputCounter)
Run Code Online (Sandbox Code Playgroud)

如果我理解正确的话:每个Batch都有一个Job,每个Job都有多个Stages,这些Stages都有多个Tasks

所以对我来说,计算每个 的输入是有意义的Stage

apache-spark

2
推荐指数
1
解决办法
4504
查看次数

标签 统计

apache-spark ×1

net-snmp ×1

snmp ×1