小编Oha*_*san的帖子

使用工作流插件同时多次启动作业

我正在尝试使用工作流插件同时运行一个作业5次.这是片段:

def concurrent=[:]
for (int i = 0; i < 5; i++) {
concurrent["concurrent${i}"] = {
build job: 'test_job', parameters: [[$class: 'StringParameterValue', name:'queue', value:     
'automation_prod.q'],[$class: 'StringParameterValue', name:'dummy', value: "${i}"]]
    }
}
parallel concurrent
Run Code Online (Sandbox Code Playgroud)

此代码段导致test_job只运行一次.我需要它同时运行5次.

谢谢!

groovy jenkins jenkins-workflow

6
推荐指数
1
解决办法
1676
查看次数

在http上运行时,pprof无法找到源文件

我正在使用"net/http/pprof"在远程服务器上运行我的golang应用程序的远程分析.
我为go工具设置了PPROF_BINARY_PATH env变量,以便能够在我的机器上找到我的本地二进制文件.
当我在go工具pprof cli中使用"list"关键字时 - 当go工具查找.go源文件时,我得到一个"没有这样的文件或目录".

Error: open /go/src/github.com/foo/bar/baz.go: no such file or directory
Run Code Online (Sandbox Code Playgroud)

看起来它正在寻找远程机器的GOPATH中的源文件,它是"/ go /",而在我的个人机器上它是在我的主目录中,因此文件在.

/Users/myuser/go/src/github.com/foo/bar/baz.go
Run Code Online (Sandbox Code Playgroud)

当我将所需的源代码文件复制到我的GOPATH之外并转到go工具正在搜索的目录时 - "list"关键字按预期工作,但这当然不是最佳的.

go pprof

5
推荐指数
1
解决办法
582
查看次数

带有 WriteAtBuffer 的 io.Pipe

我想使用流式传输下载文件并将其上传到 aws s3。我希望使用 io.Pipe 但我不能,因为下载器结构

https://docs.aws.amazon.com/sdk-for-go/api/service/s3/s3manager/#Downloader.Download

使用“WriterAt”接口。和 io.Pipe 提供了一个 io.Writer 我没有成功使用常规 GetObject 因为它创建它下载对象并且没有收到作家任何解决方案?

谢谢。

amazon-s3 go amazon-web-services

5
推荐指数
0
解决办法
846
查看次数

Python的asyncio同步工作

我正在尝试利用Python的新asyncio库来发送异步HTTP请求.我想timeout在发送每个请求之前等待几毫秒(变量) - 当然 - 异步发送它们,而不是在每个请求发送后等待响应.

我正在做类似以下的事情:

@asyncio.coroutine
def handle_line(self, line, destination):
    print("Inside! line {} destination {}".format(line, destination))
    response = yield from aiohttp.request('POST', destination, data=line,
                               headers=tester.headers)
    print(response.status)
    return (yield from response.read())

@asyncio.coroutine
def send_data(self, filename, timeout):
    destination='foo'
    logging.log(logging.DEBUG, 'sending_data')
    with open(filename) as log_file:
        for line in log_file:
            try:
                json_event = json.loads(line)
            except ValueError as e:
                print("Error parsing json event")
            time.sleep(timeout)
            yield from asyncio.async(self.handle_line(json.dumps(json_event), destination))


loop=asyncio.get_event_loop().run_until_complete(send_data('foo.txt', 1))
Run Code Online (Sandbox Code Playgroud)

我得到的输出(通过打印200个响应)看起来这个代码是同步运行的.我究竟做错了什么?

python asynchronous python-3.x python-asyncio

3
推荐指数
1
解决办法
1867
查看次数

用龙卷风发送多个异步发布请求

关于龙卷风的stackoverflow有几个问题我仍然没有找到我的问题的答案我有一个大文本文件,我希望迭代并发送每一行作为POST http请求.我希望将其作为异步(我需要快速),然后检查请求的响应.

我有类似的东西

http_client = httpclient.AsyncHTTPClient()
with open(filename) as log_file:
    for line in log_file:
        request = httpclient.HTTPRequest(self.destination,method="POST",headers=self.headers,body=json.dumps(line))
        response = http_client.fetch(request, callback=self.handle_request)
Run Code Online (Sandbox Code Playgroud)

看看tcpdump这没有做任何我得到的是一个严重的"期货"对象我也尝试将fetch命令放在"yield"中,然后在方法上使用@ gen.coroutine装饰器时迭代它.这没有帮助.任何人都可以告诉我,我做错了什么?

谢谢!

python http tornado

1
推荐指数
1
解决办法
7329
查看次数