我有一个简单的bash脚本调用test_snmp,可以这样说:
#!/bin/bash
echo $1
Run Code Online (Sandbox Code Playgroud)
我将snmpd.conf设置如下:
rwcommunity public 127.0.0.1
extend .1.3.6.1.4.1.2021.53 /bin/bash /tmp/test_snmp
Run Code Online (Sandbox Code Playgroud)
我想做的是运行一个snmpwalk命令,例如:
snmpwalk -v2c -c public 127.0.0.1 .1.3.6.1.4.1.2021.53 "PRINT SOMETHING"
Run Code Online (Sandbox Code Playgroud)
从输出中我看到
oid = iso.3.6.1.4.1.2021.53.3.1.1.9.47.98.105.110.47.98.97.115.104 = ""
,是脚本的输出。但是我想将该字符串"PRINT SOMETHING"
作为$1
上述脚本的参数传递,然后"PRINT SOMETHING"
使用snmpget
命令获取字符串(在本例中为),例如:
snmpget -v2c -c public 127.0.0.1 iso.3.6.1.4.1.2021.53.3.1.1.9.47.98.105.110.47.98.97.115.104
Run Code Online (Sandbox Code Playgroud)
这只是一个例子,我正在通过snmp运行脚本来测试我拥有哪些选项,因为如果可行,那么我将编写另一个脚本以远程运行,但是我必须使用变量来运行它们。
有人知道怎么做吗?
谢谢
有谁知道 Spark 如何计算其记录数(我认为它与批次中的事件数相同),如此处所示?
我试图弄清楚如何远程获取该值(UI 中的流选项不存在 REST-API)。
基本上我正在尝试做的是获取我的应用程序处理的记录总数。我需要此信息用于门户网站。
我尝试计算Records
每个阶段的数量,但它给了我完全不同的数字,如上图所示。每个阶段都包含有关其记录的信息。如图所示
我正在使用这个简短的 python 脚本来计算每个阶段的“inputRecords”。这是源代码:
import json, requests, urllib
print "Get stages script started!"
#URL REST-API
url = 'http://10.16.31.211:4040/api/v1/applications/app-20161104125052-0052/stages/'
response = urllib.urlopen(url)
data = json.loads(response.read())
stages = []
print len(data)
inputCounter = 0
for item in data:
stages.append(item["stageId"])
inputCounter += item["inputRecords"]
print "Records processed: " + str(inputCounter)
Run Code Online (Sandbox Code Playgroud)
如果我理解正确的话:每个Batch
都有一个Job
,每个Job
都有多个Stages
,这些Stages
都有多个Tasks
。
所以对我来说,计算每个 的输入是有意义的Stage
。